多年來,Google、meta、OpenAI等科技企業一直大談人工智能的潛力,研究人員說,現在是時候調整預期了。
隨著最近這項技術的飛躍,多家公司已經開發出更多的系統,可以產生類似人類的對話、詩歌和圖像。然而,人工智能倫理學家和研究人員警告說,一些企業正在夸大這些能力,他們說,這種炒作正在催生廣泛的誤解,并扭曲了決策者對這種技術的能力和缺陷的看法。
總部位于西雅圖的非營利性研究機構艾倫人工智能研究所(AllenInstituteforArtificialIntelligence)的首席執行官OrenEtzioni稱:“我們失去了平衡。”

圖1:來源Pexels版權,用戶授權Pixabay。
他和其他研究人員稱,這種不平衡有助于解釋本月早些時候AlphabetInc.(GOOG)旗下Google一位工程師的觀點為何讓許多人動搖了。當時Google的一名工程師基于自己的宗教信仰指出,該公司的一個人工智能系統應該被認為是有知覺的。
這位工程師說,這個聊天機器人實際上已經成為一個人,有權決定是否同意對它進行試驗。Google暫停了他的工作,且不認同他的說法,稱公司的倫理學家和技術專家已經研究了這種可能性,不予認可。
研究人員稱,認為人工智能變得擁有意識,或者可能擁有意識的想法,在整體科學界仍然處于邊緣地位。
從現實層面看,人工智能涵蓋的一系列技術在很大程度上仍對一些不起眼的后臺后勤工作有幫助,比如處理來自用戶的數據,以便更精準地向他們投放廣告及內容并推薦產品。
過去十年里,Google、Facebook母公司metaPlatformsInc.(meta)和亞馬遜公司(Amazon.comInc.,AMZN)等公司已投入巨資發展這些能力,為的是助力公司增長并提振利潤。
以Google為例,該公司運用人工智能來完善對復雜搜尋提示的解析,協助其給出相關的廣告和網絡搜尋結果。
一些初創企業也萌生了更宏大的雄心。其中一家名為OpenAI的公司從特斯拉(TeslaInc.,TSLA)首席執行官馬斯克(ElonMusk)和微軟(MicrosoftCorp.,MSFT)等投資方手中籌得了數十億美元資金,要實現所謂的通用人工智能(AGI),該系統將具備與人類同等的智慧甚至全面超越人類。一些研究人員認為,即便AGI并非高不可攀,要實現它也需要幾十年時間。
這些公司你追我趕、互不相讓的競爭氛圍推動了AI技術的快速發展,催生出越來越多廣受好評的演示,激發了公眾的想象力及對AI技術的關注熱情。
最近幾周,OpenAI的DALL-E系統在社交媒體上吸引網民創作出許多梗圖。此系統可根據用戶輸入的文本生成藝術圖像,比如“土星軌道上的麥當勞(McDonald's)”或“鐵人三項賽中身著運動裝備的熊”。
Google也緊隨其后,亮出了自家基于文本輸入的藝術創作系統。
雖然這些創意可能令人驚嘆,但越來越多的專家警告說,公司沒有適當地控制炒作。
MargaretMitchell曾是GoogleAI倫理團隊的聯合負責人,她在寫了一篇批評Google系統的論文后被公司解雇。她說,這家搜尋巨頭向股東宣傳的賣點之一是,它在人工智能領域是全球做得最好的。
Mitchell目前在一家名為HuggingFace的AI初創公司工作,她和GoogleAI倫理團隊的另一位聯合負責人TimnitGebru是最早提醒人們注意該技術危險性的人之一。Gebru也被Google解雇。
在供職Google期間寫的最后一篇論文中,她們稱這些技術有時會造成傷害,AI的類人能力意味著有和人類一樣的失敗可能。她們列舉的例子包括,Facebook的AI系統將阿拉伯語的“早上好”誤譯為英語的“傷害他們”和希伯來語的“攻擊他們”,導致以色列警方逮捕了發布該問候語的巴勒斯坦男子,后來警方意識到了自己的失誤。
去年出版的《Facebook文件》系列報道援引的內部文件也顯示,Facebook的系統未能持續一貫地識別第一人稱射擊影片和種族主義言論,只刪除了違反該公司規定的內容中的一小部分。《華爾街日報》(TheWallStreetJournal)看到了這些內部文件。
Facebook表示,其人工智能的改進大大減少了仇恨言論和其他違反其規定的內容。
Google表示,解雇Mitchell的原因是她與公司以外的人分享內部文件。Google的人工智能主管告訴員工稱,Gebru的工作不夠嚴謹。
上述解聘事件在科技行業造成振動,引發Google內外數以千計的人譴責他們在一份請愿書中所稱的“前所未有的研究審查制”。Google首席執行官皮查伊(SundarPichai)表示,他將努力在這些問題上恢復人們的信任,并承諾把研究人工智能倫理的人數增加一倍。
感覺和現實之間存在差距并不是什么新鮮事。Etzioni和其他人提到了有關Watson的營銷,Watson是InternationalBusinessMachinesCorp.(IBM)開發的人工智能業務,在智力競賽節目《危險邊緣》(Jeopardy)中打敗人類后變得廣為人知。在進行了10年和數以十億美元計的投資后,IBM去年表示正探索出售WatsonHealth的可能性,該部門的主營產品本應用于幫助醫生診斷和治療癌癥。
人工智能現在無處不在,而且涉及更多公司,因此變得更舉足輕重。這些公司開發的軟件包括電子郵件、搜索引擎、動態消息、語音助手,已滲透至大眾數字生活的各個角落。
在上述工程師發表最近的說法之后,Google反駁了其聊天機器人具有感知力的說法。
Google的聊天機器人和其他對話工具“可以大聊任何虛幻的話題”,該公司發言人BrianGabriel表示。“如果你問成為一只冰激凌恐龍是什么感覺,它們可以生成與融化、咆哮等有關的文本。”他說,這并不等同于有意識。
現已被停職的那位工程師BlakeLemoine在接受采訪時稱,他曾匯集了數以百頁計來自聊天機器人LaMDA相關受控實驗的對話以支持自己的研究,他確切介紹了Google程序的內部運作情況。
“這并不是夸大該系統的本質,”Lemoine說。“我正盡可能小心、精確地傳遞訊息,說清哪里有不確定性,哪里沒有。”
Lemoine自稱是一個神秘主義者,融合了基督教以及冥想等其他精神實踐的元素。他已表示,當他說LaMDA有意識的時候,是在以宗教身份說話。
布朗大學(BrownUniversity)研究人工智能政策的計算器科學博士生ElizabethKumar稱,認知差距已經在政策文件中悄然顯現。最近的地方、聯邦和國際規定以及監管提案,紛紛尋求應對人工智能系統可能通過歧視、操縱或其他方式造成傷害的問題,這些都是基于系統具有高度能力的假設。她說,一種更有可能發生的情況在很大程度上被忽略了,即此類人工智能系統因失靈而造成傷害。
Etzioni也是拜登(JoeBiden)政府的國家人工智能研究資源工作組(NationalArtificialIntelligenceResearchResourceTaskForce)的成員,他表示,政策制定者往往難以把握這些問題。他說:“我可以告訴你,從我與他們中的一些人的交流來看,他們的出發點是好的,也問出了一些好問題,但他們并非對情況了如指掌。”
美國科技巨頭對AI市場猛砸錢,但現實很骨感
響動Shine
2022-07-1021:40北京
關注
多年來,Google、meta、OpenAI等科技企業一直大談人工智能的潛力,研究人員說,現在是時候調整預期了。
隨著最近這項技術的飛躍,多家公司已經開發出更多的系統,可以產生類似人類的對話、詩歌和圖像。然而,人工智能倫理學家和研究人員警告說,一些企業正在夸大這些能力,他們說,這種炒作正在催生廣泛的誤解,并扭曲了決策者對這種技術的能力和缺陷的看法。
總部位于西雅圖的非營利性研究機構艾倫人工智能研究所(AllenInstituteforArtificialIntelligence)的首席執行官OrenEtzioni稱:“我們失去了平衡。”
圖1:來源Pexels版權,用戶授權Pixabay。
他和其他研究人員稱,這種不平衡有助于解釋本月早些時候AlphabetInc.(GOOG)旗下Google一位工程師的觀點為何讓許多人動搖了。當時Google的一名工程師基于自己的宗教信仰指出,該公司的一個人工智能系統應該被認為是有知覺的。
這位工程師說,這個聊天機器人實際上已經成為一個人,有權決定是否同意對它進行試驗。Google暫停了他的工作,且不認同他的說法,稱公司的倫理學家和技術專家已經研究了這種可能性,不予認可。
研究人員稱,認為人工智能變得擁有意識,或者可能擁有意識的想法,在整體科學界仍然處于邊緣地位。
從現實層面看,人工智能涵蓋的一系列技術在很大程度上仍對一些不起眼的后臺后勤工作有幫助,比如處理來自用戶的數據,以便更精準地向他們投放廣告及內容并推薦產品。
過去十年里,Google、Facebook母公司metaPlatformsInc.(meta)和亞馬遜公司(Amazon.comInc.,AMZN)等公司已投入巨資發展這些能力,為的是助力公司增長并提振利潤。
以Google為例,該公司運用人工智能來完善對復雜搜尋提示的解析,協助其給出相關的廣告和網絡搜尋結果。
一些初創企業也萌生了更宏大的雄心。其中一家名為OpenAI的公司從特斯拉(TeslaInc.,TSLA)首席執行官馬斯克(ElonMusk)和微軟(MicrosoftCorp.,MSFT)等投資方手中籌得了數十億美元資金,要實現所謂的通用人工智能(AGI),該系統將具備與人類同等的智慧甚至全面超越人類。一些研究人員認為,即便AGI并非高不可攀,要實現它也需要幾十年時間。
這些公司你追我趕、互不相讓的競爭氛圍推動了AI技術的快速發展,催生出越來越多廣受好評的演示,激發了公眾的想象力及對AI技術的關注熱情。
最近幾周,OpenAI的DALL-E系統在社交媒體上吸引網民創作出許多梗圖。此系統可根據用戶輸入的文本生成藝術圖像,比如“土星軌道上的麥當勞(McDonald's)”或“鐵人三項賽中身著運動裝備的熊”。
Google也緊隨其后,亮出了自家基于文本輸入的藝術創作系統。
雖然這些創意可能令人驚嘆,但越來越多的專家警告說,公司沒有適當地控制炒作。
MargaretMitchell曾是GoogleAI倫理團隊的聯合負責人,她在寫了一篇批評Google系統的論文后被公司解雇。她說,這家搜尋巨頭向股東宣傳的賣點之一是,它在人工智能領域是全球做得最好的。
Mitchell目前在一家名為HuggingFace的AI初創公司工作,她和GoogleAI倫理團隊的另一位聯合負責人TimnitGebru是最早提醒人們注意該技術危險性的人之一。Gebru也被Google解雇。
在供職Google期間寫的最后一篇論文中,她們稱這些技術有時會造成傷害,AI的類人能力意味著有和人類一樣的失敗可能。她們列舉的例子包括,Facebook的AI系統將阿拉伯語的“早上好”誤譯為英語的“傷害他們”和希伯來語的“攻擊他們”,導致以色列警方逮捕了發布該問候語的巴勒斯坦男子,后來警方意識到了自己的失誤。
去年出版的《Facebook文件》系列報道援引的內部文件也顯示,Facebook的系統未能持續一貫地識別第一人稱射擊影片和種族主義言論,只刪除了違反該公司規定的內容中的一小部分。《華爾街日報》(TheWallStreetJournal)看到了這些內部文件。
Facebook表示,其人工智能的改進大大減少了仇恨言論和其他違反其規定的內容。
Google表示,解雇Mitchell的原因是她與公司以外的人分享內部文件。Google的人工智能主管告訴員工稱,Gebru的工作不夠嚴謹。
上述解聘事件在科技行業造成振動,引發Google內外數以千計的人譴責他們在一份請愿書中所稱的“前所未有的研究審查制”。Google首席執行官皮查伊(SundarPichai)表示,他將努力在這些問題上恢復人們的信任,并承諾把研究人工智能倫理的人數增加一倍。
感覺和現實之間存在差距并不是什么新鮮事。Etzioni和其他人提到了有關Watson的營銷,Watson是InternationalBusinessMachinesCorp.(IBM)開發的人工智能業務,在智力競賽節目《危險邊緣》(Jeopardy)中打敗人類后變得廣為人知。在進行了10年和數以十億美元計的投資后,IBM去年表示正探索出售WatsonHealth的可能性,該部門的主營產品本應用于幫助醫生診斷和治療癌癥。
人工智能現在無處不在,而且涉及更多公司,因此變得更舉足輕重。這些公司開發的軟件包括電子郵件、搜索引擎、動態消息、語音助手,已滲透至大眾數字生活的各個角落。
在上述工程師發表最近的說法之后,Google反駁了其聊天機器人具有感知力的說法。
Google的聊天機器人和其他對話工具“可以大聊任何虛幻的話題”,該公司發言人BrianGabriel表示。“如果你問成為一只冰激凌恐龍是什么感覺,它們可以生成與融化、咆哮等有關的文本。”他說,這并不等同于有意識。
現已被停職的那位工程師BlakeLemoine在接受采訪時稱,他曾匯集了數以百頁計來自聊天機器人LaMDA相關受控實驗的對話以支持自己的研究,他確切介紹了Google程序的內部運作情況。
“這并不是夸大該系統的本質,”Lemoine說。“我正盡可能小心、精確地傳遞訊息,說清哪里有不確定性,哪里沒有。”
Lemoine自稱是一個神秘主義者,融合了基督教以及冥想等其他精神實踐的元素。他已表示,當他說LaMDA有意識的時候,是在以宗教身份說話。
布朗大學(BrownUniversity)研究人工智能政策的計算器科學博士生ElizabethKumar稱,認知差距已經在政策文件中悄然顯現。最近的地方、聯邦和國際規定以及監管提案,紛紛尋求應對人工智能系統可能通過歧視、操縱或其他方式造成傷害的問題,這些都是基于系統具有高度能力的假設。她說,一種更有可能發生的情況在很大程度上被忽略了,即此類人工智能系統因失靈而造成傷害。
Etzioni也是拜登(JoeBiden)政府的國家人工智能研究資源工作組(NationalArtificialIntelligenceResearchResourceTaskForce)的成員,他表示,政策制定者往往難以把握這些問題。他說:“我可以告訴你,從我與他們中的一些人的交流來看,他們的出發點是好的,也問出了一些好問題,但他們并非對情況了如指掌。”








