美國《外交政策》雜志5月29日文章,原題:人工智能將加劇全球不平等現象人工智能(AI)競賽愈演愈烈,其風險也達到了前所未有的程度。包括阿里巴巴、谷歌和微軟在內,各大企業都在運用強大的計算能力,推動AI進步。此外,成百上千的私有企業和非營利組織也在推出軟件和程序,以期在這一新興市場占據一席之地。有關人士預測,這些成果將顛覆我們工作、娛樂、交易、創造財富和管理事物的方式。

資料圖(IC photo)

資料圖(IC photo)
機器人會代替人類嗎?
在一片樂觀的氛圍中,畏懼的情緒也在滋長。越來越多的科技巨頭和計算機科學家都表達了對復雜算法的擔憂,他們認為在不久的將來,超級智械將迅速取代人類。2022年的一項調查表明,近一半受訪的AI專家認為,這些技術至少有一成概率會毀滅人類。
對機器智能風險的擔憂由來已久。早在1872年,英國作家塞繆爾·巴特勒就在《烏有之鄉》一書中預言,有自主知覺的機器人終將代替人類。1942年,俄裔美籍科幻小說大師艾薩克·阿西莫夫提出了著名的“機器人三定律”:機器人不得傷害人類;機器人必須服從人類命令,除非這些命令與第一定律相沖突;機器人必須保護人類存在,只要這種保護不與第一定律或第二定律相沖突。
縱觀歷史,AI當前的熱度同其混亂程度一樣達到了史無前例的水平。大型語言模型及其背后強大的計算能力不再局限于實驗室,而是走向上億人的真實生活。不過,一些AI的忠實擁躉確信,如果不加以管控,AI將在不遠的將來給人類帶來致命危害。曾經遠在天邊的理論威脅如今變得愈發真切,日前,有3.1萬余人聯名呼吁,暫停對強大AI模型的培訓,因為它們是“當今社會和人類面臨的最大風險”。
潛在危害集中在4個方面
早在這種焦慮蔓延開之前,北美和西歐地區的政府、企業和高校已就AI和潛在危害展開了討論。關注點主要聚焦在4個方面:首先,超級智能機器可能快速取代人類,帶來存在性威脅;第二,AI會加重失業形勢;第三,AI模仿及傳遞文本、語音和視頻的方式,會加劇虛假和錯誤信息的傳播;第四,AI可能會被用于研發生化或網絡病毒等末日科技,從而帶來毀滅性打擊。
隨著有關AI風險意識的增強,用于緩沖風險的標準也在逐步完善。這些標準多數是自愿性的,例如大量有關設計責任感和自我約束的協議和準則。實現人類利益最大化、提升設計安全性、以及算法優化,這些都是常見的AI開發原則。算法透明、有關應用的責任感和公平公正、隱私和數據保護、人為監督和管控、以及合規性,都是AI的發展目標。自愿性的自我監管將逐漸失去關注,科技企業也在自發參與,推動建立AI管理機構和更健全的制度體系。
然而,對保障體系的關注范圍還遠遠不夠。目前,有關AI和減輕其危害的策略的討論主要集中在西方世界。現行的政府和行業標準多數來源于歐盟、美國或是經濟合作與發展組織的成員國。
歐盟即將推出新的AI法案,聚焦存在高風險的AI應用和體系。西方世界對AI的關注,得益于各地區高度密集的AI企業、投資人和研究機構。而在拉丁美洲、南部非洲、南亞和東南亞等地,盡管AI也在迅猛發展,其需求和擔憂卻并沒有出現在AI的相關討論中。換言之,有關AI影響和監管的討論,主要集中在少數人口中。而全球67億人口所處的貧困和發展中國家,對有關問題投入的關注和資源要少很多。
低收入地區危害更甚
這種形勢有很大的風險,由于缺乏AI監管,全球南方地區面臨的負面影響更嚴重。AI更深層次的負面影響在于對平等機遇的侵害。放任AI自由發展,將擴大各國的社會、經濟和數字鴻溝,促使企業權力集中,深化技術壟斷,使西方早已千瘡百孔的民主制度雪上加霜。
盡管AI的危害是全球性的,但其對各地區的影響程度并不相同,在監管體系和制度薄弱的中低收入的國家和地區,其危害尤其嚴重。一方面,富有國家開發的算法和數據,以及在發展中國家的后續應用,會加重由于意識薄弱和多樣性不足導致的偏見和歧視。此外,由于薪資和勞動保護的不足,收入和技術水平較低的工人尤其面臨著被AI取代的風險。誠然,AI在全球南方的發展將帶來巨大的利益,但如果缺乏適當的監管、倫理管控和對公眾意識的強化,我們就無法限制其負面影響。







