當我們不可阻擋地朝著自動化的未來邁進,而人工智能又幾乎擁有無限可能時,我們必須搞清楚這一新興技術的道德影響,并解決出現在我們面前的前所未有的法律和社會挑戰(zhàn)。
洪智偉(馬來西亞)系聯(lián)合國教科文組織生物倫理和倫理科方案專家,2005年加入聯(lián)合國教科文組織,之前曾從事設計工程和工程管理工作。
達弗納·芬赫(墨西哥)系聯(lián)合國教科文組織生物倫理和倫理科科長,接受過心理學和生物倫理學的正式教育,曾任墨西哥全國生物倫理委員會秘書長。
每隔一段時間,我們就會遇到一種技術,讓我們停下來去思考作為人類的意義。人工智能的問世要求我們深切反思其潛在的深遠影響。雖然這一技術背后的概念已經在我們的集體想象中存在了幾十年,但它直到現在才成為我們生活中的現實。
人工智能技術的最新進展——特別是那些從總體來說與機器學習有關,具體而言涉及深度學習的進展——已經表明,人工智能支持系統(tǒng)的效率和效力在很多領域,包括在需要一定程度認知推理的任務方面,都能趕超人類。因此,人工智能有可能為人類帶來巨大進步并造福人類,但同時也會擾亂當前人類社會的經濟和政治安排。
當我們思考人工智能的倫理影響時,應當明白了如今的人工智能究竟是什么。我們談及人工智能時,一般指的是“狹義人工智能”或“弱人工智能”,它旨在完成一項特定任務,例如分析和改善交通狀況,根據既往購買情況在線推薦產品等。這些“狹義人工智能”已經存在,而且將變得越來越復雜,并融入我們的日常生活。
在這里,我們不談論科幻故事和電影中描述的“強人工智能”或者通用人工智能,據說它們能完成所有的人類認知任務。一些專家認為其甚至擁有“自我認知”和“意識”的特征。目前尚無通用人工智能是否可行的一致觀點,更不用說何時能夠實現了。

《數字時代的隱私終結?》(Theendofprivacyinthedigitalage?)古巴漫畫家法爾科(Falco)作品
永無止境的數據收集
機器學習和深度學習方法需要大量的歷史和實時數據,以便人工智能支持系統(tǒng)從“經驗”中“學習”,同時還需要一個架構,以便人工智能在其所學的基礎上,實現目標或任務。這意味著我們在思考人工智能的倫理影響時,還必須顧及人工智能運作所需的復雜技術環(huán)境。這包括通過物聯(lián)網(InternetofThings)持續(xù)收集大數據;將大數據存儲在云端;人工智能將大數據用于其“學習”過程;以及通過智能城市、自動駕駛汽車或機器人裝置等,進行人工智能分析或執(zhí)行任務。
技術發(fā)展越復雜,所產生的倫理問題就越復雜。雖然倫理原則沒有改變,但我們處理問題的方式會發(fā)生根本性的變化。因此,這些原則會在我們知情或不知情的情況下受到嚴重破壞。
例如,我們的隱私、保密和自主概念可能會發(fā)生根本性變化。通過智能設備和臉書、推特等已經成為社交網絡工具的程序,我們在沒有切實了解數據的潛在用途和使用者的情況下,就“自由”和自愿地提供了個人信息。接著,這些數據被輸入主要由私營部門開發(fā)的人工智能支持系統(tǒng)。
由于沒有經過匿名處理,關于我們的喜好和習慣的信息會被用來創(chuàng)建行為模式,使得人工智能能夠向我們推送政治信息,銷售商業(yè)應用程序,追蹤一些與我們的健康有關的活動等。
最好的一面和最差的一面
這會意味著隱私的終結嗎?數據安全情況如何,被黑客入侵的可能性有多大?這些數據會被國家用來控制人民,甚至以個人人權為代價嗎?一個持續(xù)監(jiān)測我們的喜好,并根據這些喜好為我們提供一系列選項的由人工智能支持的環(huán)境,會以某種方式限制我們的選擇自主性和創(chuàng)造性嗎?
另一個要考慮的重要問題是,人工智能支持系統(tǒng)用來“學習”的數據本身是否包含偏見或成見,從而可能使人工智能做出導致歧視或侮辱的“決定”。用于社會互動或提供社會服務的人工智能系統(tǒng)將特別容易受此影響。我們必須意識到,一些數據,例如互聯(lián)網上生成的數據,包含著反映人類最好一面和最差一面的信息。因此,僅靠人工智能支持系統(tǒng)從這些數據中學習,不足以確保產生合乎道德標準的成果,人為干預必不可少。
可以向人工智能支持系統(tǒng)傳授倫理道德嗎?一些哲學家認為,某些經驗,如美學和倫理等,是人類與生俱來的,因此無法進行編程。其他人則提出,道德可以通過理性得到加強,因此可以進行編程,但同時必須尊重自由選擇。
能否僅在理性思考的基礎上,向人類傳授倫理和道德,就這一問題人們目前尚且都無法達成共識,更不用說傳授給人工智能了。即便最終可以通過編程使人工智能具備倫理道德,那我們又該使用誰的倫理道德呢?僅僅是開發(fā)者的嗎?鑒于人工智能的發(fā)展主要由私營部門推動,因此必須考慮到私營部門的倫理有可能不符合社會倫理。
要確保人工智能為我們所用,而不是與我們?yōu)閿常覀兙捅仨殔⑴c全面對話,對話當中要包含受人工智能影響的所有人的不同的倫理觀點。同時,為了能夠抵消對人類社會的潛在破壞,我們也必須確保,我們用來開發(fā)人工智能的倫理框架考慮到社會責任等更大的問題。








