<legend id="axlin"><track id="axlin"></track></legend>

        <cite id="axlin"><rp id="axlin"><pre id="axlin"></pre></rp></cite>
          精品无码久久久久久久久久,精品国产美女福到在线不卡,亚洲成人www,亚洲AV无码破坏版在线观看,国产精品综合一区二区三区,久久亚洲精品11p,风韵丰满妇啪啪区老老熟女杏吧,国产精品免费久久久免费
          熱搜: 佳士科技  irobot  工業機器人  機器人  ABB  機器人產業聯盟  發那科  庫卡  碼垛機器人  機械手 

          【科技戰略】人工智能時代:發展邏輯與治理挑戰

             日期:2017-08-23     來源:學習時報    作者:dc136     評論:0    
          標簽: 人工智能 監管
           【科技戰略】人工智能時代:發展邏輯與治理挑戰
          伴隨此輪人工智能發展高潮,社會中普遍存在這樣的擔憂與疑慮:機器是否會取代人類,人工智能是否會成為人類文明史的終結?
           
            在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但也不可忽視。監管人工智能,找到正確的方向并采取合理的措施,正是當下所應該重視的政策議題。
           
            人工智能在其60余年起起伏伏的發展史中,再次迎來了高潮。但伴隨此輪發展高潮的,同樣還有社會中普遍存在的擔憂與疑慮:機器是否會取代人類,人工智能是否會成為人類文明史的終結?
           
            這樣的擔憂自有其合理性所在,而也正是基于此,要求政府介入并對人工智能的發展進行監管的呼聲不絕于耳。可問題在于:對于一個尚未成為現實而僅存在于想象中的“威脅”,究竟應該如何施以監管,以避免“孩子跟洗腳水一起倒掉”?
           
            事實上,監管的難題并不在于如何平衡技術發展的利弊兩端,而是如何準確定位技術的潛在威脅并有針對性地施以監管。換句話說,人工智能的危害真的是“取代人類”么?若如此,唯一合理的監管方式可能就是完全禁止該項技術的研發。考慮到人工智能技術的應用已經遍及生活的方方面面,從搜索引擎到社交網絡再到定制新聞,不一而足。也正因為此,我們可能需要重新反思當前對于人工智能的擔憂是否成立。如果不成立,其真正的威脅又是什么?在回答這些問題的基礎上,我們才有可能找到監管人工智能的合理路徑,并使之更有效地服務于人類、服務于未來。
           
            人工智能:究竟應該擔心什么
           
            2016年10月19日,霍金在劍橋大學Leverhulme未來智能中心的開幕儀式上發表演講,聲稱“人工智能可能是人類文明史的終結……其在人類歷史上,可能是最好的,也可能是最糟糕的”。這并不是霍金第一次對人工智能的發展發出警告。2014年在接受BBC的采訪時,他也表達了類似的觀點。自那之后,霍金也積極投入到宣傳、推動對人工智能研究進行合理規范的行動當中。事實上,Leverhulme未來智能中心成立的重要使命之一便是化解AI(人工智能)可能帶來的風險。
           
            霍金并非“杞人憂天”的唯一,特斯拉、SpaceX的創始人埃隆·馬斯克同樣屢次警告人工智能潛藏的巨大風險。在霍金、馬斯克等人的推動下,超過892名人工智能研究人員以及另外1445名專家共同簽署并發布了《人工智能23條原則》,以確保人工智能的發展行進在正確軌道上。
           
            人工智能是否會取代甚至“奴役”人類的可能性并非是針對其的唯一擔憂,人工智能對于就業的沖擊、社會不平等狀況的加劇同樣是引起人們焦慮的重要原因。《未來簡史》的作者尤瓦爾·赫拉利就直接指出:人工智能的發展將導致大量失業等社會問題的出現,并使得少數個體成為“超人”中的新精英而大部分人類都將淪為在經濟、政治意義上毫無價值的個體,由此人類將進入最不平等的時代。
           
            我們是否應該相信霍金、馬斯克和赫拉利等人對于人工智能的擔憂呢?不同的人有不同的觀點。扎克伯格就曾批評過馬斯克,他認為“現在對于人工智能安全性的擔憂,就如同兩百年前擔心飛機墜毀怎么辦一樣。如果我們總是過度擔心安全性,我們就不可能造出飛機。”事實上,歷史上任何一項顛覆性的技術進步都伴隨著諸多質疑,無論是原子能技術的發明,抑或是基因工程的突破,無不如此。但歷史最終證明,人類社會的發展并未陷入混亂或終結,這也說明當前對于人工智能的擔憂或許存在一定的夸大成分。
           
            不過另一方面,人工智能的發展又的確潛藏了巨大風險,放任自流的監管態度明顯不是最優選擇。同樣需要指出的是,自1960年代OECD提出“知識社會”的概念之后,技術發展就成為了與土地、人口并重的國家競爭力的重要體現之一。如何通過合理監管以有效引導本國人工智能技術的發展,自然成為各國政府繞不開的難題。也正因為此,當前爭議的核心并非“是否應該對人工智能的發展進行監管”,真正的挑戰在于“監管什么”,以及“如何監管”。
           
            事實上,只有回到人工智能技術本身并從其基本原理出發,才能正確理解什么是人工智能,它能干什么、不能干什么,潛藏的價值和風險又是什么。只有建立在對這些問題正確理解的基礎上,我們才能為未來的監管政策提出有益建議。
           
            算法背后的基石:數據與規則
           
            在經歷了2016年的火熱之后,許多人已經可以感知到人工智能,以及支撐其運行的機器學習算法的普遍存在。無處不在的人工智能已經開始逐漸影響我們的日常生活,計算設備在“吞入”海量數據的同時,神奇地生產著與你相關的各種信息、產品與服務。
           
            但這個過程究竟是如何發生的?建立在機器學習算法基礎上的人工智能是否會不斷進步乃至最終超越人類的控制?要想對這一問題做出回答,我們便不得不回到機器學習的算法本身上來。
           
            算法本質上就是一系列指令,告訴計算機該做什么。對于傳統算法而言,往往事無巨細地規定好了機器在既定條件下的既定動作;機器學習算法卻是通過對已有數據的“學習”,使機器能夠在與歷史數據不同的新情境下做出判斷。
           
            具體而言,機器學習算法的實現方式多種多樣,但就當前的技術發展而言,主要可被劃分為5個類別:符號學派、聯接學派、進化學派、類推學派和貝葉斯學派。每個學派都遵循不同的邏輯、以不同的理念實現機器學習的過程。
           
            對于“符號學派”而言,所有的信息處理都可被簡化為對符號的操縱,由此學習過程被簡化(抽象)為基于數據和假設的規則歸納過程。在數據(即當前事實)和已有知識(即預先設定的條件)的基礎上,符號學派通過“提出假設—數據驗證—進一步提出新假設—歸納新規則”的過程訓練機器的學習能力,并由此實現在新環境下的決策判斷。符號學派固然符合經驗主義的哲學認知,但通過其概念模型我們亦可以發現,其成功的關鍵在于數據的完整性和人為預設條件的可靠性。換言之,數據的缺失和預設條件的不合理將直接影響機器學習的輸出(即決策規則的歸納)。最明顯體現這一問題的例子便是羅素的“歸納主義者火雞”:火雞在觀察10天(數據集不完整)之后得出結論(代表預設條件不合理,超過10個確認數據即接受規則),主人會在每天早上9點給它喂食;但接下來是平安夜的早餐,主人沒有喂它而是宰了它。
           
            數據和預設條件的問題不僅存在于符號學派,這同樣是其他學派的共性。“聯接學派”試圖模擬人腦的學習過程,通過仿真神經元的聯接結構,并借助反向傳播算法(反饋輸出與輸入的對比,并以誤差為基準調整參數)自動調整各個聯接的權值,以最終實現學習能力。此處的關鍵仍然是輸入數據集的完整性,以及預設條件的可靠性(例如停止反饋調節的閾值設定)。“進化學派”試圖模擬人類的進化過程,在預先設定的適應度目標(例如過濾垃圾郵件算法的設計中,某個規則正確分類郵件的百分比就是適應度目標)指引下,通過交叉、實驗不同的規則集合以找出與測試數據適應度最高的規則集(也即形成學習能力)。由此仍然可以看出數據與預設條件(適應度目標的設定)的重要性。“類推學派”亦是如此,其基本思想是通過判別不同場景的相似程度,來推導新場景中的合理決策。就此而言,參考數據集的完整性和不同場景相似程度的閾值設定(預設條件)依然是影響機器學習結果的關鍵所在。相比于前四個學派,貝葉斯學派對于數據集的規模沒有太高要求,因其優勢正是對于未來不確定性的學習與探索。貝葉斯算法將根據收到的新數據來持續檢驗既有假設成立的概率可能性,并對其進行實時調整。不過即使如此,貝葉斯算法依然受制于輸入數據和調整規則。換言之,數據與人為預設條件依然是控制貝葉斯算法的關鍵。
           
            事實上,如果跳出具體學派的思維束縛,每種機器學習算法都可被概括為由“表示方法、評估、優化”這三部分組成。盡管機器可以不斷地自我優化以提升學習能力,且原則上可以學習任何東西,但用以評估的數據以及評估的方法和原則都是由人為決定的。也正是從這個角度講,本文開始所提到的“機器取代人類”的可能性其實為零——盡管機器可能會變得異常復雜以致人類難以理解。
           
            監管人工智能:真正的挑戰是什么
           
            正如霍金、馬斯克等人發起倡議的《人工智能23條原則》一樣,人工智能的發展確需被納入到正確的軌道上來——盡管原因并不在于聳人聽聞的“機器取代論”。
           
            那究竟應該“監管什么”且又“如何監管”呢?問題的答案或許就在于本文第二部分對于機器學習算法的概念性描述上:既然數據和預設規則是所有算法的基石,那么數據治理和規則治理便自然成為監管人工智能的關鍵。
           
            一方面,我們給機器什么樣的數據,機器就會形成什么樣的學習能力并隨之反饋給我們相應的學習結果。這一過程首先要解決的問題便是數據從何而來,機器又將如何利用數據?正如前文所反復闡述的,不完整的數據集必然導致人工智能學習過程的錯誤——就像羅素筆下的“歸納主義者火雞”一樣。但大規模的數據收集又必然帶來隱私保護、利益分配等諸多問題,由此形成的對于數據治理的監管要求便成為了監管人工智能的第一步。在保護個體數據權利的基礎上,鼓勵并規范數據的分享與應用,以最終促進人工智能朝著更好的方向發展。
           
            另一方面,機器優化的規則(條件)又是由誰、通過何種程序來制定。盡管我們認為沒有必要過多地擔憂人工智能的發展,但真實的威脅依然存在。事實上,人工智能正在以不被察覺的方式潛移默化地影響人類日常生活,如果機器優化的規則不是以正當的程序受到監管和制約,那么很難保證其不被不法之徒所利用。正如長久以來對于“臉書”的質疑一樣:公眾如何相信其向用戶推薦的新聞內容不會摻雜特殊利益的取向?當越來越多的人依賴定制化的新聞推送時,人工智能甚至會影響到總統選舉。也正因為此,包括透明、開源在內的諸多治理原則,應當成為人工智能監管政策制定過程中被納入的合理議題。
           
            在經歷了60余年的發展之后,人工智能終于在互聯網、大數據、機器學習等諸多技術取得突破的基礎上實現了騰飛。在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但卻也不可忽視。監管人工智能,找到正確的方向并采取合理的措施,正是當下所應該重視的政策議題。
           
           
          更多>相關資訊
          0相關評論

          推薦圖文
          推薦資訊
          點擊排行
          主站蜘蛛池模板: 亚洲人成精品久久久久| 亚洲综合国产伊人五月婷| 毛片av在线尤物一区二区| 最新国产麻豆AⅤ精品无码 | 绥宁县| 国产成人无码av一区二区| 香港日本三级亚洲三级| 国产果冻豆传媒麻婆精东 | 中文字幕有码无码AV| 色窝窝免费一区二区三区| 人妻系列无码专区无码中出 | 午夜亚洲www湿好爽| 国产尤物精品自在拍视频首页| 国产99视频精品免费专区| 国产精品国产精品国产专区不卡| 免费观看激色视频网站| 国产日韩av二区三区| 国产无遮挡又黄又爽免费网站| 国产AV巨作丝袜秘书| 五月丁香综合缴情六月小说 | 秋霞人妻无码中文字幕| 久久精品国产中文字幕| www内射国产在线观看| 国产精品老熟女一区二区| 四虎成人精品永久网站| 国产午夜亚洲精品国产成人| 女的被弄到高潮娇喘喷水视频| 国产成人一区二区三区免费| 鄢陵县| 蜜臀av黑人亚洲精品| 国产一级毛片高清完整视频版| 四虎永久免费精品视频| 精品国产一区二区三区卡| 91超碰在线精品| 色偷偷亚洲女人天堂观看| 亚洲色www成人永久网址| 精品国产一区二区三区香蕉| 熟女一区| 国产成人精彩在线视频50| 国产亚洲999精品AA片在线爽| 亚洲国内精品一区二区|