據(jù)外媒TechCrunch報(bào)道,美國(guó)國(guó)會(huì)參議院司法委員會(huì)在昨日舉行了人工智能聽(tīng)證會(huì),在會(huì)中,多名AI行業(yè)從業(yè)者警告稱,人類無(wú)法妥當(dāng)控制飛速發(fā)展的AI,因此未來(lái)幾年內(nèi)AI恐造成嚴(yán)重危害,惡意分子有可能利用繞過(guò)監(jiān)管的AI工具制造生化武器。

▲圖源Pexels

▲圖源Pexels
參議院司法委員會(huì)小組委員會(huì)主席Richard Blumenthal主持了此次聽(tīng)證會(huì),他表示,人類已經(jīng)證明自己有能力發(fā)明當(dāng)時(shí)令人難以置信的新技術(shù)。他把AI比作美國(guó)的第二次“曼哈頓計(jì)劃”或NASA的第二次“載人登月計(jì)劃”,但臺(tái)下的業(yè)界代表卻更多表現(xiàn)出對(duì)AI的擔(dān)憂。
美國(guó)AI創(chuàng)業(yè)公司Anthropic的CEO Dario Amodei在聽(tīng)證會(huì)上表示,他擔(dān)心尖端AI技術(shù)可能在短短兩年時(shí)間內(nèi)就會(huì)被用來(lái)制造危險(xiǎn)的病毒和其他生化武器,該公司此前從谷歌獲得了3億美元(IT之家注:約21.47億元人民幣)的投資,并依靠谷歌的數(shù)據(jù)中心來(lái)訓(xùn)練“更具信賴性”的AI模型。
蒙特利爾大學(xué)AI教授、“現(xiàn)代AI科學(xué)之父”Yoshua Bengio則表示,他對(duì)GPT-4等模型實(shí)現(xiàn)的巨大飛躍感到震驚,他認(rèn)為,當(dāng)下各國(guó)之間應(yīng)當(dāng)積極進(jìn)行合作來(lái)控制AI的發(fā)展,建立類似核技術(shù)監(jiān)管規(guī)則的制度。
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯Stuart Russell則認(rèn)為,當(dāng)下的AI的工作方式充滿“不可知”性,與其他可控的強(qiáng)大技術(shù)相比,當(dāng)下AI缺乏一個(gè)“超級(jí)管理工具”,因此人們目前無(wú)法得知AI的實(shí)際意圖和所有可能做出的行為。
據(jù)悉,在過(guò)去六個(gè)月里,業(yè)界已經(jīng)將好萊塢大片中的“超級(jí)AI”可能出現(xiàn)的時(shí)間點(diǎn),從既定的幾十年后撥前至“僅僅幾年后”,而圍繞“超級(jí)AI”可能產(chǎn)生的種種問(wèn)題也隨之而出,引發(fā)了社會(huì)普遍的擔(dān)憂。







