從技術推進到全球合作——

人工智能治理,我們還能做些什麼


來源:中國科學報 1-7 陳彬

從百年前的《大都會》到已被列為經典的《2001太空漫遊》《黑客帝國》,只要是涉及到科幻電影,人工智能(AI)幾乎都會成為必不可少的存在。

在大部分電影中,人工智能被設定為人類的“公敵”,足見人類對於未來人工智能治理的憂慮。

回到現實,不久前,由清華大學人工智能國際治理研究院主辦的首屆“清華大學人工智能合作與治理國際論壇”在該校落下帷幕。在這場持續兩天的論壇上,對於人工智能未來的發展,以及由此可能帶來的治理問題,與會學者展開了一場熱烈的討論。

這場討論與科幻無關,但卻可能關乎到人類未來。

人工智能發展的非商業“盲區”

2016年,一項來自BBC的數據分析曾預測,2020年全球人工智能市場規模將達到183億美元,約合人民幣超千億元。轉眼間,2020年已然過去,近日根據普華永道會計師事務所的一項數據預測,2020年全球人工智能市場規模達到2萬億美元。

這兩組相隔四年的數據足以折射出近年來人工智能在全球範圍內的飛速發展。

然而,在人工智能快速發展的背後,還有哪些人們尚未關注到的“盲區”呢?

論壇上,中國科學院自動化研究所中英人工智能倫理與治理中心主任曾毅坦言,雖然人工智能技術發展迅速,但目前其主要貢獻於有明顯商業利益的領域,如健康、產業創新等,而對商業利益相對不明顯的議題,其關注度明顯不足。

比如,2015年9月25日,聯合國可持續發展峯會正式通過17個可持續發展目標。這些目標旨在從2015年到2030年間。以綜合方式徹底解決社會、經濟和環境三個維度的發展問題,使世界走上可持續發展道路。

“雖然這些目標都極其重要,且根據初步統計,目前全球已有800多萬篇科學研究論文與人工智能相關,其中只有0.1%與可持續發展目標相關。”曾毅説,“因此,我們應當思考並實踐通過人工智能推進可持續發展目標的實現,這是科研工作者、產業創新者與政府部門的共同責任。”

對此,清華大學全球可持續發展研究院執行院長朱旭峯表示,可持續發展目標之間是相互關聯的,“不能只考慮人工智能與單個可持續發展目標的關係,而是要從綜合角度看待並使用人工智能,從而應對整體實現可持續發展目標的挑戰”。

2020年9月,北京智源人工智能研究院聯合其他機構在京發佈了我國首個針對兒童的人工智能發展原則——《面向兒童的人工智能北京共識》。

“此外,我們還成立了人工智能與生物多樣性工作組,推動人工智能保護動物。”作為該研究院人工智能倫理與可持續發展研究中心主任,曾毅表示,未來人工智能在社會中扮演什麼角色,取決於人類如何去實現和實現什麼樣的通用智能和超級智能。“我希望未來可以建立‘可持續的共生社會’,實現人工智能與人、動物、環境之間的和諧共生。人類與人工智能深度協作,才能實現真正意義上的可持續發展。”

用發展解決數據安全問題

“數字時代,數據正在以指數級的速度激增,但推動社會進步的同時,也存在着濫用數據和侵犯個人隱私等風險。”在論壇上,聯合國開發計劃署駐華代表白雅婷表示,“我們必須謹慎,確保人工智能可以推動人類發展,避免加劇不平等或產生新的挑戰,從而阻礙全球可持續發展目標的實現。”

在數據的使用問題上,中國科學院院士、清華大學人工智能研究院名譽院長張鈸表示,人工智能的發展必須依賴大量數據,但這些數據同時也存在着大量需要解決的問題,如隱私問題、知識產權問題、偏見問題、污染問題、漏洞錯誤等。

“比如,在某個視頻監控的場景中,如果要用計算機監測電網周遭環境的危險情況,我們只需要在某處佈置一點很簡單的噪聲干擾,就可以讓計算機誤認為該地區有火情。反之,一點點小的干擾也可以讓計算機無視真實發生的火情。”張鈸説,而這點噪聲往往是人類難以察覺的。

數據問題也是中國科學院院士、清華大學交叉信息研究院院長姚期智最關心的問題。正如他在發言中所説,“在AI和大數據的時代,必須有高質量和可信的數據。在這方面,加密技術在數據治理上必鬚髮揮重要的作用”。

姚期智表示,在數據加密技術領域,使用密碼學設計可信的算法可以起到很好的作用。“不僅如此,如果將可信算法與相關的機構做系統性結合,也可以形成一個基礎來實現可信的數據治理。”

在這方面,一個典型的實例便是多方安全計算(MPC)。早在1982年,姚期智就曾提出該技術可以使人類在加密數據上進行計算。“也就是説,數據可以做到能用但不能看。”

“通過使用多方安全計算,研究人員可以把許多數據庫彙集在一起,既保護隱私,又可以實現高質量的人工智能學習。”姚期智説,MPC平台的發展是當今大數據中的熱門課題,可以進一步支持可信的數據治理。

儘管人工智能面臨安全性問題,但張鈸表示,不能因此限制其發展。相反,解決安全性問題的最主要方法正是相關技術的不斷進步。“但這就涉及到另一個問題——下一步該如何發展?”張鈸説。

2020年7月,張鈸在一篇署名文章中,首次闡述了第三代人工智能的理念。他表示,第三代人工智能的發展路徑,就是融合第一代的知識驅動和第二代的數據驅動的人工智能,建立新的可解釋和魯棒的人工智能理論與方法,發展安全、可信、可靠和可擴展的人工智能技術。

“我們現在提出第三代人工智能的設想,就是力圖在理論上解決人工智能的相關問題。這也是人工智能未來的一個發展方向。”張鈸説。

人工智能需要國際合作和治理框架

面對人工智能未來的發展,技術創新還存在着太多的不確定性。當下如何通過在人工智能治理領域的全球合作達成國際共識,進而形成一定的規範,成為許多人思考和討論的重點。

在發言中,清華大學人工智能國際治理研究院名譽院長、清華大學戰略與安全研究中心主任傅瑩表示,技術革命往往伴隨着不可預知的安全挑戰。在這方面,國際關注的焦點之一是人工智能武器的道德和技術風險。

此前,清華大學戰略與安全研究中心與多家國際機構已經圍繞該問題開展了研討,試圖尋找管控人工智能武器風險和國際安全治理的路徑。

“無論如何,專家們認為人工智能的武器化是不可避免的,因此需要尋找合適的治理路徑。”傅瑩表示,在這方面,人類必須汲取歷史教訓。“例如,我們核武器的治理共識就達成得太晚,這導致了人類曾經面臨巨大威脅。互聯網的治理也沒能在早期實現。希望這次對人工智能,尤其是人工智能武器的治理,人類能走在技術變革的前面,早些達成治理共識。”

人工智能武器只是全球治理共識的一部分。正如在發言中,聯合國副祕書長、聯合國祕書長特別顧問法布里齊奧·霍奇爾德所説,“沒有任何一個單一國家或公司能夠設計出全面、符合所有人預期的指導方針,用以管理人工智能的發展,以及它在全球引起的連鎖反應。我們必須團結起來,為人工智能創建一個可行的國際合作和治理框架”。

就人工智能國際治理的現狀,清華大學人工智能國際治理研究院院長薛瀾指出:“當前在人工智能這類重大問題的全球治理上存在‘機制複合體’的現象,即在治理過程中,有不同的治理機制。這些治理機制之間有重疊,也沒有上下級關係。此時,如何協調不同治理機制是一個很大的挑戰。”他進一步指出,正因為如此,更要加強人工智能治理上的國際合作:“人工智能的發展與國際合作密不可分,我們對人工智能領域中國與美國學者合作的情況進行過分析,中美合作的研究成果佔到比較大的比重。大量的國際合作是人工智能發展到今天非常重要的支持因素,今後還需要繼續合作。”

對此,新加坡信息通信媒體發展管理局首席執行官助理楊子健提醒,國際人工智能治理框架應具有較高的包容性,比如能適用於不同的社會經濟、國際司法體系等。同時,由於人工智能是一個需要“應用”的技術,人工智能治理框架也應當是貼合實際的。

“在人工智能治理層面,良好的‘夥伴關係’應符合兩個要點。”楊子健説,首先,要符合現行的政策治理框架;其次,需要了解人工智能開發者以及產業發展的挑戰是什麼,從而創造一個能為他們賦能的良好環境。

“從目前來看,中美兩國是人工智能技術研究和應用發展最快的國家,兩國既需要也有條件加強協調與合作。”傅瑩表示,近年來,除中美兩國外,許多其他國家的學者也表現出對人工智能應用安全的擔憂。這説明該問題是人類共同的難題。“中美開展對話與合作至關重要,將為全球合作貢獻智慧。希望並相信這不是一場‘零和遊戲’,人工智能最終應使得全人類受益。”傅瑩説。

編輯:李華山

2021年01月08日 08:30:07  清華新聞網

更多 ›圖説清華

最新更新