<bdo id="7433k"></bdo><noframes id="7433k"><rt id="7433k"></rt><bdo id="7433k"><rt id="7433k"><noframes id="7433k"><rt id="7433k"><delect id="7433k"><bdo id="7433k"></bdo></delect></rt><noframes id="7433k"><delect id="7433k"></delect><bdo id="7433k"><rt id="7433k"><noframes id="7433k"><noframes id="7433k"><rt id="7433k"><delect id="7433k"></delect></rt><rt id="7433k"><delect id="7433k"><delect id="7433k"></delect></delect></rt><delect id="7433k"></delect> <noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><rt id="7433k"><noframes id="7433k"><rt id="7433k"></rt><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"><rt id="7433k"></rt></rt><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"><rt id="7433k"></rt></rt> <noframes id="7433k"><delect id="7433k"><bdo id="7433k"></bdo></delect><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><delect id="7433k"></delect><noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><delect id="7433k"></delect><rt id="7433k"><delect id="7433k"><delect id="7433k"></delect></delect></rt><noframes id="7433k"><noframes id="7433k"><noframes id="7433k">
人工智能

杰弗里·辛頓:數字智能終將戰勝生物智能

2025China.cn   2024年03月25日

關于人工智能與人類的未來是我們每個人都要面對和思考的問題。

近日,人工智能教父杰弗里·辛頓教授在牛津大學的年度Romanes講座上發表公開演講,并提出了一個挑戰性問題:“數字智能將取代生物智能嗎?”,他的回答幾乎是肯定的。

演講中,辛頓從哲學的角度對AI的未來走向提出了一些嚴肅且重要的思考,他強調了在人工智能發展的同時,我們需要考慮倫理、社會和經濟等多方面的影響,確保技術的進步能夠造福人類。

為了讓大家更好地了解辛頓的觀點,本文將辛頓此次演講的精彩內容進行重構呈現。

精彩觀點:

我開始思考我所稱之為“有限計算”的概念,即利用非常低功耗的模擬計算來消除硬件和軟件之間的差別。

過去我一直認為我們離超級智能還有很長很長的路要走,最近我突然開始相信我們現在擁有的數字模型已經非常接近于大腦的水平,并且將變得比大腦更好。

大模型才是人類認識自己的最佳模型。

大語言模型的錯誤不是“幻覺”,更應被稱為“虛構”。

在未來的20年內,有50%的概率,數字計算會比我們更聰明,很可能在未來的一百年內,它會比我們人類聰明得多。

01、人工智能的兩大研究范式

自20世紀50年代以來,關于人工智能,有兩種研究范式。

邏輯啟發式方法認為智能的本質是推理,這是通過使用符號規則來操作符號表達式來實現的。他們認為人工智能不要急著去學習,當我還是個學生的時候,有人告訴我不要研究學習,在我們理解了如何表示事物之后,學習就很簡單了。

生物啟發式方法則大不相同,它認為智能的本質是學習神經網絡中的連接強度,不用急著去推理,在學習完成后,推理自然就解決了。

現在我將解釋什么是人工神經網絡。一種簡單的神經網絡有輸入神經元和輸出神經元。以圖像識別網絡為例,輸入神經元可以代表圖像中像素的灰度值,輸出神經元可以代表圖像中物體的類別,比如狗或貓。然后就是中間層的神經元,有時被稱為隱藏神經元,它們學會檢測和識別這些事物相關的特征。

比如可能有一層神經元,能識別兩條邊以細角度相交可能是一只鳥的喙,也可能不是,或者一些邊形成一個小圓圈。然后可能有一層神經元,能識別這可能是一只鳥的頭部。最后,可能有一個輸出神經元,識別出整體很可能是一只鳥。最后,可能會有一層輸出神經元說,如果我找到鳥的頭部、鳥的腳、鳥的翅膀,那么這很可能是一只鳥。這些就是要學習的東西。

神經元連接上有權重值,問題是誰來設定這些權重?有一種做法顯然是可行的,但需要很長時間:你的權重一開始是隨機的,然后你隨機挑選一個權重,稍微改變它,看看網絡是否運行得更好。

你必須在很多不同的情況下嘗試,以評估它是否真的有所改善,看看將這個權重稍微增加一點或減少一點,是否會有所幫助。如果增加它情況變得更糟,你就減少它,反之亦然。

這就是突變的方法,這種方式在進化中是很合理的,因為從基因型到表現型的過程非常復雜,且充滿了隨機的外部事件。

但對于神經網絡來說,這是瘋狂的。因為我們在神經網絡中要進行大量的計算。我們不是測量改變權重會如何影響事物,而是測量實際效果值和網絡預測值之間的誤差。這就是所謂的反向傳播,也就是你通過網絡反向發送信息,這些信息是關于你得到的和你想要的之間的差異,以此調節網絡權重。此時,你要調整網絡中的每個權重,不管是將其稍微減少還是增加一點,目的是為了讓結果更接近你想要的。這比突變方法更高效,效率是網絡中權重的數量的倍數。所以如果你的網絡中有一萬億個權重,它的效率就是一萬億倍。

神經網絡經常被用于識別圖像中的對象?,F在,神經網絡可以針對一個圖片,產生一個對于圖片的描述作為輸出。多年來,人們嘗試用符號方法做到這一點,但連接近都沒有,這是一個困難的任務。

我們知道生物系統是通過一系列層次化的特征探測器來實現這一功能的,因此對神經網絡進行這樣的訓練是有意義的。

2012年,我的兩位學生Ilya Sutskever和Alex Krizhevsky,在我的一點幫助下,展示了可以通過這種方式制作一個非常好的神經網絡,在有一百萬張訓練圖片時,可以識別一千種不同類型的對象。而在那之前,我們沒有足夠的訓練圖像樣本。

Ilya很有遠見,他知道這個神經網絡會在ImageNet競賽中獲勝。他是對的,他們贏得相當炸裂,他們的神經網絡只有16%的錯誤率,而最好的傳統計算機視覺系統的錯誤率超過了25%。

然后,科學界發生了一件非常奇怪的事情。通常在科學界中,如果有兩個競爭的學派,當你取得一點進展時,另一個學派會說你的成果是垃圾。但在這個案例中,由于差距足夠大,使得最好的研究者Jitendra Malik和Andrew Zisserman轉換了他們的研究方向來做這個,Andrew還給我發來郵件說,“這太神奇了。”然后改變了他們的研究方向,還做得比我們更好。

02、神經網絡的語言和視覺奇跡

在語言處理方面,很多堅信符號主義人工智能的研究人員認為神經網絡的特征層級無法處理語言問題。很多語言學家也持這樣的態度。

Noam Chomsky曾說服他的追隨者相信語言是天賦而非習得的?;仡檨砜?,這種說法其實是完全荒謬的。如果你能說服人們說一些明顯錯誤的話,那么你就把他們變成了你的信徒。我認為Chomsky曾經做出了驚人的貢獻,但他的時代已經過去了。

所以,一個沒有先天知識的大型神經網絡僅僅通過觀察數據就能實際學習語言的語法和語義,曾被統計學家和認知科學家認為是完全瘋狂的想法。曾經有統計學家向我解釋,大模型有100個參數就可以了,訓練一百萬個參數的想法是愚蠢的,但現在,我們正在訓練的參數達到了一萬億個。

我現在要談論一下我在1985年做的一些工作。那是第一個用反向傳播訓練的語言模型,你完全可以認為它是現在這些大模型的祖先。我會進行詳細地解釋,因為它非常小而且簡單,你能理解它是如何工作的。一旦你理解了它的工作原理,就能洞察在更大模型中正在發生的事情。

關于詞義有兩種非常不同的理論。

一種是結構主義理論,認為一個詞的意義取決于它與其他詞的關系。符號人工智能非常相信這種方法。在這種方法中,你會有一個關系圖,其中有單詞的節點和關系的弧線,通過這種方式來捕捉詞的意義,這個學派認為必須有一些這樣的結構存在。

第二種理論是心理學理論,從20世紀30年代甚至更早之前就在心理學中存在了,這種理論認為,一個詞的意義是一大堆特征。比如“dog”這個詞的意義包括它是有生命的,它是一個捕食者等等。但是他們沒有說特征從哪里來,或者特征到底是什么。

這兩種意義理論聽起來完全不同。我想要向你展示的是如何將這兩種意義理論統一起來。在1985年,我的一個簡單模型做到了這一點,它有超過一千個權重。

基本思想是我們學習每個單詞的語義特征以及單詞的特征如何相互作用,以便預測下一個單詞的特征。所以它是下一個單詞的預測,就像現在的語言模型在微調時所做的一樣。但是最重要的內容就是這些特征的交互,并不會有任何顯式的關系圖。它是一個生成模型,知識存在于你賦予符號的特征中,以及這些特征的交互中。

這里是兩個家族譜系的關系圖,我們來看看符號學派和神經網絡怎么來處理它們。

你可以用一組三元組來表達相同的信息。比如你可以說Colin有父親James和Colin有母親Victoria,從中你可以推斷出在這個美好而簡單的20世紀50年代的世界中,James有妻子Victoria。還有其他一些你可以推斷出的東西。問題是,如果我只給你一些三元組,你如何得到規則,符號人工智能想要做的就是派生出這樣的規則形式。如果X有母親Y、Y有丈夫Z,那么X有父親Z。

我所做的是,用一個神經網絡,通過特征交互的方式,讓它能學習到相同的信息。對于那些從不違反的非常離散的規則,神經網絡可能不是最好的方法。事實上,符號學派的人嘗試用其他方法來做這件事。但是,如果你不要求規則總是那么穩定和適用,神經網絡的優勢就體現出來了。

問題在于,神經網絡能否通過反向傳播來捕捉符號學派從規則中捕獲的知識?

神經網絡是這樣運作的:有一個代表人的符號輸入,一個代表關系的符號輸出。這些符號通過一些連接轉換為一個特征向量,這些特征是由網絡學習的。所以我們有了一個人的特征和關系的特征,這些特征相互作用,預測出關系人的特征,然后找到一個最匹配該特征的人,這個人就是要輸出的人。

這個網絡有趣的地方在于,它學到了有用的東西。當時的神經元是6個特征,如今這些向量是300或者1000的長度。這是在一臺機器人完成的,這臺機器需要12.5微秒來進行浮點數乘法,所以它學會了像國籍這樣的特征。比如,你知道第一個人是英格蘭人,你就知道輸出也會是英格蘭人,所以國籍是一個非常有用的特征。它還學會了人的代際特征,通過關系它就知道另一個人所處的世代。

所以它學習了領域中所有顯而易見的特征,它學會了如何使這些特征相互作用,以便它能夠進行輸出。我給它展示了符號字符串,它創建了這樣的特征,這些特征之間的相互作用可以生成這些符號字符串,但它并沒有存儲符號字符串。就像GPT-4一樣,它不會在長期記憶中存儲任何單詞序列單詞,它將它們全部轉化為權重,從中可以重新生成序列。所以這是一個特別簡單的例子,你可以理解它做了什么。

我們今天擁有的大語言模型(LLM),我認為它們是微小語言模型的后代,它們有更多的輸入詞,比如一百萬個單詞片段,它們使用更多層的神經元,比如幾十層。它們使用更復雜的相互作用,它們不僅僅是一個特征影響另一個特征。它們會匹配兩個特征向量,然后如果它們相似,一個向量會對另一個向量產生很大的影響,但如果它們不同,影響就不大,諸如此類。

所以這涉及到更為復雜的相互作用,但它們遵循的是相同的基本框架,同樣的基本理念,即讓我們將簡單的字符串轉化為單詞片段的特征以及這些特征向量之間的相互作用。這一點在這些模型中是相同的。

要理解它們的工作原理,就困難得多了。許多人,特別是來自喬姆斯基學派的人,爭辯說它們并不是真正的智能,它們只是一種被美化的“自動補全”功能,使用統計規律將人創造的文本片段拼貼在一起。

當人們說它只是自動補全時,他們是基于一個錯誤觀念,因為這并不是LLM預測下一個單詞的方式。當單詞轉化為特征時,它們使這些特征相互作用,從這些特征相互作用中,它們預測下一個單詞的特征。

我想要強調的是,由于這些數以百萬計的特征和數以億計的相互作用,LLM是有理解能力的。這是LLM真正做的事情,它們是在用數據擬合一個模型,直到最近,統計學家還沒認真思考這種模型。這是一種奇怪的模型,它非常大,它有大量的參數,它試圖通過特征以及特征如何交互來理解這些離散符號串。但它確實是一個模型。

有一件事要記住,如果你問,那么我們人類是如何理解的呢?大模型是我們關于理解的最佳模型。所以并不是這些AI系統正在以一種奇怪的方式理解,然后大腦以另一種方式理解,其實二者是相通的——我們對大腦如何理解的最好模型,就是通過特征和特征之間的相互作用來理解的。最初,我們這個小型語言模型就是作為人們理解的模型設計的。所以,我強烈認為:大模型確實是有理解力的。

現在人們討論的另一個話題是,GPT-4有“幻覺”問題。對于語言模型而言,實際上更應該稱為“虛構”,它們只是編造東西。心理學家并不怎么說這些,因為心理學家知道人們也經常編造東西。任何研究記憶的人都知道,從巴特利特在20世紀30年代開始,人們實際上就像這些大型語言模型一樣,他們只是編造東西。對我們來說,真實記憶和虛假記憶之間沒有明確的界線。如果某件事最近發生的,并且它與你理解的事情相符,你可能會大致正確地記住它。如果某件事是很久以前發生的,或者是比較奇怪的事,你不能正確地記住,而且你經常會非常自信地認為你的記憶是正確的,但你錯了。這很難證明。

有一個可以證明的例子是John Dean的記憶。John Dean在水門事件中作證?;仡櫰饋?,很明顯他當時是在試圖說實話。但他說的很多事情都是錯的。他會混淆誰在哪個會議上,他會把某個人的話歸于其他人,而實際上并不完全是那樣。他完全混淆了不同的場景。但從錄音中可以看出,他對白宮正在發生的事情有所了解。他只是編造內容,但是聽起來是合理的,所以他所說的是對他而言聽起來不錯的東西。

LLM還可以進行推理。我在多倫多有一個朋友是符號AI學派的人,但他非常誠實。所以他對大模型能夠工作感到困惑,他向我提出了一個問題,我把這個問題變得更難一些,并在GPT-4能上網查東西之前向它提問,當時它只是一堆在2021年被固定的權重,所有的知識都存在特征交互的強度中。

新的問題是:“我的所有房間被粉刷成藍色或白色或黃色,黃色的油漆在一年內會褪色變白。我想讓所有房間在兩年內都變成白色。我應該做什么,為什么?”朋友認為它不會正確解答。

下面是GPT-4回答的內容,它完全說對了。

首先,它說,假設藍色的油漆不會褪色成白色,也許藍色的油漆也會褪色,但因為黃色的油漆會褪色成白色,所以假設它不會褪色。那么白色的房間你不需要粉刷,黃色的房間你也不需要粉刷,因為它們會在一年內褪色成白色。而藍色的房間你需要粉刷成白色。有一次我嘗試過,它說你需要將藍色的房間涂成黃色,因為它意識到它們會褪成白色。這更像是數學家將問題簡化為一個先前問題的解決方法。

03、數字智能將超越生物智能

最后,我想談談我在2023年初的一個頓悟。我一直以為我們離超級智能還有很長很長的路要走,我過去常告訴人們可能需要50到100年,甚至可能是30到100年。這還很遙遠,我們現在不需要擔心它。

我還認為,讓我們的模型更像大腦會使它們變得更好。我認為大腦比我們現有的人工智能要好得多,如果我們能夠使人工智能更像大腦,比如說,通過設置三個時間尺度來做到這點,目前我們擁有的大多數模型只有兩個時間尺度。一個是權重變化,速度很慢,另一個是單詞輸入,速度很快,它改變的是神經活動。大腦擁有的時間尺度比這要多,大腦可以快速地變化權重并將其快速地衰減掉,這可能就是大腦處理大量短期記憶的方式。

而我們的模型中沒有這一點,這是技術原因導致的,這與矩陣和矩陣的乘法運算有關。我仍然相信,如果我們將這些特性融入我們的模型中,它們將變得更好。

但是,由于我在之前兩年所從事的工作,我突然開始相信我們現在擁有的數字模型已經非常接近于大腦的水平,并且將變得比大腦更好。

現在我將解釋我為什么相信這一點。

數字計算是很棒的,你可以在不同的計算機上運行相同的程序,在不同的硬件上運行相同的神經網絡。你所需要做的就是保存權重,這意味著一旦你有了一些不會消失的權重,它們就是永生的。即便硬件損壞,只要你有權重,你可以制造更多的硬件并運行相同的神經網絡。為了做到這一點,我們要以非常高的功率運行晶體管,使其以數字方式運行,并且我們必須有能夠精確執行指令的硬件,當我們精確地告訴計算機如何執行任務時,它們做的很棒。

但是現在我們有了另一種讓計算機執行任務的方式,我們現在有可能利用硬件所具備的豐富的模擬特性,以更低的能量完成計算。大語言模型在訓練時使用的是兆瓦級的能量,而我們人類大腦只使用30瓦的能量。由于我們知道如何訓練,也許我們可以使用模擬硬件,雖然每個硬件都有些許差異,但我們可以訓練它利用其特殊的特性,以便它按我們的要求執行任務。

這樣它就能夠根據輸入產生正確的輸出。如果我們這樣做,我們就可以放棄硬件和軟件必須分離的觀念。我們可以有只在特定硬件上工作的權重,從而使能量效率更高。

所以我開始思考我所稱之為“有限計算”的概念,即利用非常低功耗的模擬計算來消除硬件和軟件之間的差別。

你可以以電導形式存儲數萬億個權重,并以此進行并行計算。而且,你也不需要使用非??煽康挠布?,你不需要在指令級別上讓硬件嚴格按照你的指示執行任務。你可以培育一些“黏糊糊”的硬件,然后你只需要學會如何讓它們做正確的事情。所以你應該能夠更便宜地使用硬件,甚至可以對神經元進行一些基因工程,使其由回收的神經元構成。

我想給你舉一個例子,說明這樣做為什么會更高效。在神經網絡中,我們一直在進行的操作是將神經活動的向量與權重矩陣相乘,以獲得下一層的神經活動向量,或者至少獲得下一層的輸入。因此,提高向量矩陣乘法的效率,是我們要關注的事。在數字計算機中,我們有這些晶體管,它們被驅動到非常高的功率,以表示32位數中的bits。當我們執行兩個32位數的乘法時,如果你想要快速完成乘法運算,就需要大量執行這些數字操作。

有一種更簡單的方法,就是將神經活動表示為電壓,將權重表示為電導,電壓乘以電導就是單位時間內的電荷,然后電荷會自然相加。因此,你可以通過將一些電壓送給一些電導來完成向量矩陣乘法運算,而下一層中每個神經元接收到的輸入將是該向量與這些權重的乘積。這非常好,它的能效要高得多。你已經可以買到執行這種操作的芯片了,但每次執行時都會有略微的不同。而且,這種方法很難做非線性的計算。

所以有幾個關于有限計算的大問題。其中之一是很難使用反向傳播算法,因為你正在利用某個特定硬件的特異模擬屬性,硬件不知道它自己的屬性,所以就很難使用反向傳播。相比之下,使用調整權重的強化學習算法要容易得多,但它們非常低效。

對于小型網絡,我們已經提出了一些與反向傳播算法效率基本相當的方法,只是略差一些而已。這些方法尚未擴展到更大的規模,我也不知道是否能夠做到。但不管怎樣,反向傳播是正確的做法。對于大型、深度網絡,我不確定我們是否能找到與反向傳播同樣有效的解決方案,模擬系統中的學習算法可能不會像我們在大型語言模型中所擁有的算法那樣好。

有限計算的另一個重要問題是,如果軟件與硬件不可分割,當系統學習完畢后,如果硬件損壞,所有的知識就會失去。從這個意義上說,它是有限的。那么,如何將這些知識傳輸給另一個有限系統呢?你可以讓舊系統進行講解,新系統通過調整其大腦中的權重來學習,這就是所謂的“蒸餾”。你嘗試讓學生模型模仿教師模型的輸出,這是可行的。但效率不高。

你們可能已經注意到,大學并不那么高效。教授將知識傳授給學生是非常困難的。一個句子包含了幾百位的信息,使用蒸餾方法,即使你完全吸收,你也只能傳達幾百位的信息。

但是,對于大模型,如果你看一群大模型代理,它們都有完全相同的神經網絡和完全相同的權重,它們是數字化的,它們以完全相同的方式使用這些權重,這一千個不同的代理都去互聯網上查看不同的內容并學習東西,現在你希望每個代理都知道其他代理學到了什么。你可以通過平均梯度或平均權重來實現這一點,這樣你就可以將一個代理學到的東西大規模地傳達給所有其他代理。

當你分享權重、分享梯度時,你要傳遞的是一萬億個數字,不是幾百位的信息。因此,大模型在傳遞信息方面比人類溝通要強得太多了,這是它們超越我們的地方。它們在同一模型的多個副本之間的通信上要比我們好得多,這就是為什么GPT-4比人類知識更豐富,它不是由一個模型實現的,而是由不同硬件上運行的大量相同模型的副本實現的。

我的結論是,數字計算需要大量能量,這一點不會變,我們只能通過硬件的特性實現進化,使得能量消耗降低。但一旦你掌握了它,代理之間的共享就變得非常容易,GPT-4的權重只有人類的2%左右,但卻擁有比人類多上千倍的知識。這相當令人沮喪。生物計算在進化方面非常出色,因為它需要很少的能量。但我的結論是數字計算更優秀。

因此,我認為,很明顯,在未來的20年內,有50%的概率,數字計算會比我們更聰明,很可能在未來的一百年內,它會比我們聰明得多,我們需要思考如何應對這個問題。很少有例子表明更聰明的事物受到不太聰明的事物的控制,雖然確實有這樣的例子,比如母親被嬰兒控制。但是很少有其他例子。有些人認為我們可以使人工智能變得善良,但如果它們相互競爭,我認為它們會開始像黑猩猩一樣行事。我不確定你能否讓它們保持善良,如果它們變得非常聰明并且有了自我保護的意識,它們可能會認為自己比我們人類更重要。

相關參考:

https://www.ox.ac.uk/news/2024-02-20-romanes-lecture-godfather-ai-speaks-about-risks-artificial-intelligence

《AI教父Hinton最近對人工智能的7個觀點》,衛sir說

*素材來源于網絡

(來源:世界人工智能大會)

標簽:人工智能 數字智能 我要反饋 
參與ABB電機與發電機拼圖挑戰賽贏取探廠等好禮,快來挑戰!
2024漢諾威工業博覽會專題
西克
2023世界人工智能大會專題
專題報道
2024漢諾威工業博覽會專題
2024漢諾威工業博覽會專題

2024 漢諾威工業博覽會將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業貿易展覽會,本屆展覽會

安全走向數字化
安全走向數字化

如果說安全是過程工業的基本盤,數字化是過程工業的新錨點,那么作為2023 NAMUR中國年會唯一的贊助商,HIMA與這次

第三屆EESA儲能展
第三屆EESA儲能展

EESA儲能展是由儲能領跑者聯盟主辦的品牌展會,創辦至今已經連續舉辦了兩屆。為加快適應儲能規?;l展的步伐,促進儲能行業

最近最新中文字幕大全免费版,亚洲性无码AV在线观看DVD,久久996RE热这里有精品,久久99精品久久久久久清纯
<bdo id="7433k"></bdo><noframes id="7433k"><rt id="7433k"></rt><bdo id="7433k"><rt id="7433k"><noframes id="7433k"><rt id="7433k"><delect id="7433k"><bdo id="7433k"></bdo></delect></rt><noframes id="7433k"><delect id="7433k"></delect><bdo id="7433k"><rt id="7433k"><noframes id="7433k"><noframes id="7433k"><rt id="7433k"><delect id="7433k"></delect></rt><rt id="7433k"><delect id="7433k"><delect id="7433k"></delect></delect></rt><delect id="7433k"></delect> <noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><rt id="7433k"><noframes id="7433k"><rt id="7433k"></rt><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"><rt id="7433k"></rt></rt><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"><rt id="7433k"></rt></rt> <noframes id="7433k"><delect id="7433k"><bdo id="7433k"></bdo></delect><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><rt id="7433k"></rt><noframes id="7433k"><delect id="7433k"></delect><noframes id="7433k"><noframes id="7433k"><noframes id="7433k"><delect id="7433k"></delect><rt id="7433k"><delect id="7433k"><delect id="7433k"></delect></delect></rt><noframes id="7433k"><noframes id="7433k"><noframes id="7433k">