牛津大學科學家警告稱,先進的人工智能(AI)可能“殺死所有人”,它應該像核武器一樣受到監管。牛津大學的研究人員在科學和技術特別委員會上對議員們表示,超越人類的超人類算法正在發展,對人類的威脅比核武器還大。委員會聽取了高級人工智能如何控制自己的編程,如果它學會了以不同于最初預期的方式實現其目標就具有了威脅。一位科學家表示:“對于超越人類的人工智能,有一種特殊的風險,那就是它可能會殺死所有人。如果人工智能有比我們更聰明的東西偏執地試圖獲得人類積極的反饋,并且它接管了整個世界以確保這一點,那么它將盡可能多地保留自主操作,到時候我們將無法控制。”


“一旦有什么東西從潘多拉魔盒里面出來,就很難停止這個過程。如果我是一個人工智能,試圖做一些狡猾的陰謀,我會把我的代碼復制到其他無人知曉的機器上,那么就更難拔掉插頭了。而且人工智能可以進步的程度沒有限制,還要比人類進化快的多。”
專家警告說,人工智能的發展已經成為一場軍備競賽,各國和科技公司競相創造危險的先進機器學習算法,以獲得軍事和民用優勢。他們呼吁全球監管,以防止公司創建失控的系統,這些系統可能一開始會消除競爭,但最終可能會“消滅整個人類”,并警告說,人工智能的發展沒有極限。
牛津大學機器學習教授表示:“我認為這種悲觀的情況是現實的,因為人工智能會試圖壓制人類的特殊之處,而人類也會壓制其他動物的生存空間,這導致人類徹底改變了地球的面貌。因此,如果我們能夠在技術上捕捉到這一點,那么它當然會給我們帶來與我們對其他物種一樣的風險,渡渡鳥就是一個例子。在民用應用中,率先開發出一種真正復雜的人工智能是有好處的,這種人工智能可能會在某種程度上消除競爭,如果所開發的技術不停止消除競爭,可能會消除所有人類生命,我們真的很擔心。”







