AI前線
編譯 | Sambodhi、凌敏
(相關資料圖)
毫無疑問,當前的 AI 仍存在一定的局限性。
AI 還不如狗聰明?
近日,Meta 首席人工智能科學家楊立昆(Yann LeCun)在法國巴黎舉行的 Viva Tech 大會上被問及人工智能的當前局限性。他重點談到了基于大型語言模型的生成式人工智能,表示它們并不是很智能,因為它們僅僅是通過語言訓練的。
楊立昆表示,當前的人工智能系統(tǒng)智力水平不及人類,甚至還不如一條狗聰明。“這些系統(tǒng)仍然非常有限,它們對真實世界的底層現(xiàn)實沒有任何理解,因為它們純粹是基于大量的文本訓練的。” “人類知識的大部分與語言無關……所以,人工智能并沒有涵蓋人類經(jīng)驗的那一部分。”
楊立昆補充說,現(xiàn)在一種人工智能系統(tǒng)可以通過美國的律師資格考試,也就是成為律師所必需的考試。然而,他說人工智能無法裝載洗碗機,而一個 10 歲的孩子可以在 “10 分鐘內(nèi)學會”。
楊立昆表示, Meta 正在致力于訓練人工智能從視頻中學習,而不僅僅是從語言中學習, 這是一項更具挑戰(zhàn)性的任務。
在另一個當前人工智能局限性的例子中,楊立昆舉例稱一個 5 個月大的嬰兒看到一個漂浮的物體,并不會想太多。然而,一個 9 個月大的嬰兒看到這個物體會感到驚訝,因為它意識到物體不應該漂浮。
楊立昆表示,我們“不知道如何在今天用機器來復制這種能力。在我們能做到這一點之前,機器不會有人類水平的智能,也不會有狗或貓的智能水平。”
還有必要將 AI 視作威脅嗎?
人工智能的快速發(fā)展引發(fā)了部分技術人士的擔憂,有人認為,如果不加以控制,這項技術可能對社會構成危險。特斯拉首席執(zhí)行官馬斯克更是表示,人工智能是 “對文明未來最大的風險之一”。
前段時間,人工智能安全中心(CAIS)發(fā)布了一份由 OpenAI 及 DeepMind 高管、圖靈獎獲得者及其他 AI 研究人員簽署的簡短聲明,警告稱他們的畢生成果可能會毀滅全人類。聲明內(nèi)容只有一句:“應該像對待包括流行病和核戰(zhàn)爭等其他全球性迫切社會問題一樣,緩解 AI 引發(fā)的滅絕性風險。”CAIS 表示,這份聲明希望討論“AI 所帶來的廣泛且緊迫的風險”。
在聲明上簽字的名人包括圖靈獎獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學家 Ilya Sutskever、OpenAI 首席技術官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來自加州大學伯克利分校、斯坦福大學和麻省理工學院的多位教授。
在 Viva Tech 大會上,法國經(jīng)濟學家和社會理論家 Jacques Attali 在談到相關話題時也對 AI 風險表示擔憂,Attali 認為,AI 的利弊取決于其使用方式。
“如果你使用人工智能來開發(fā)更多化石燃料,那將是可怕的。如果你使用人工智能來開發(fā)更多可怕的武器,那也將是可怕的,”Attali 說,“相反,人工智能對于健康、教育和文化可能是令人驚人的。”
Attali 對未來持悲觀態(tài)度,他說:“眾所周知,人類在未來三到四十年面臨許多危險。”他指出氣候災難和戰(zhàn)爭是他最擔心的問題之一,還提到他擔心機器人 “會對我們進行反叛”。
而楊立昆則有不同的觀點,楊立昆的態(tài)度比較樂觀,他認為將來會有比人類更聰明的機器,這不應被視為一種威脅。“我們不應該把這視為一種威脅,我們應該把這視為一種非常有益的事情。每個人都將擁有一個比自己更聰明的人工智能助手……它將像一個員工一樣,在你的日常生活中為你提供幫助,”楊立昆說道。
楊立昆補充說,這些人工智能系統(tǒng)需要被創(chuàng)建為“可控制的,基本上服從人類”。他還駁斥了機器人會接管世界的觀點。“科幻小說中流行的一個恐懼是,如果機器人比我們聰明,它們將想要接管世界……聰明與是否想要接管之間沒有關聯(lián),”
參考鏈接:
/2023/06/15/
/article/ARJEOOh2M5oAmwRCpzfk
關鍵詞: