美國FTC報告:人工智慧在打擊虛假信息、深度偽造上存風險

  21世紀經濟報導 記者張雅婷 實習生高藝 廣州報導 近日,美國聯邦貿易委員會(FTC)向美國國會發佈一份報告,指出使用人工智慧技術在打擊虛假信息、深度偽造和其他網路問題上存在風險。報告顯示,人工智慧在設計上可能不準確、有偏見與歧視性,並可能造成對商業不當監控的鼓勵。

  事實上,對人工智慧可能帶來的社會風險和防治已經成為全球共同關注的話題。面對人工智慧可能造成的社會風險、法律侵權、道德倫理爭議,各國監管一直走在探索的路上,尋求鼓勵技術創新和防治社會風險之間的平衡。

  演算法技術的合規重要性近年來在中國多次被強調。繼《個人信息保護法》與《互聯網信息服務演算法推薦管理規定》的規制之後,6月22日中央全面深化改革委員會第二十六次會議中再次指出,加強平台企業沉澱數據監管,規制大數據殺熟和演算法歧視。

  AI存風險,立法需警惕

  此次報告的發佈是出於國會的審查請求。在《2021年綜合撥款法案》中,國會指示FTC審查人工智慧是否以及如何「可能被用於識別、刪除或採取任何其他必要的適當行動」,以應對各種特定的「網路危害」。國會特別關注的在線問題包括在線欺詐、假冒詐騙、虛假評論和賬戶、機器人攻擊、社交媒體操縱、非法毒品銷售和其他非法活動、在線騷擾和網路跟蹤,以及影響選舉等。

  報告建議,國會不要將AI當作解決這些網路問題的政策方案,並指出採用人工智慧可能帶來的額外危害。報告概述了與使用人工智慧相關的幾個問題:

  一是人工智慧具有固有的設計缺陷和不準確性。人工智慧具有內置的不精確性和不準確性,對「網路危害」的監測能力受到設計缺陷的顯著限制,例如可能出現不具有代表性的數據集、錯誤的分類、未能識別新現象以及缺乏上下文和意義等;

  二是人工智慧攜帶偏見和歧視。人工智慧會反映開發人員的偏見,從而導致錯誤的結果和潛在的非法風險。報告示例包括人工智慧導致對受保護人群的歧視,或可能通過過度限制內容而損害表達自由;

  三是人工智慧可能鼓勵商業對人們的不當監控。由於技術開發需要大量數據,人工智慧可能會鼓勵和支持商業監控和數據提取的行為。此外,提高人工智慧的準確性和性能需求可能會導致更具侵入性的監視形式。

  報告發現,鑒於主要技術平台和其他平台已使用人工智慧來解決網路危害,立法者更應考慮制定法律框架,以確保人工智慧不會造成額外傷害。政府、平台等必須非常謹慎地強制使用或過度依賴這些工具,即使是為了減少危害的重要目的。國會不應推出那些要求公司使用人工智慧來監測有害內容的法律,且迫使平台快速刪除某些有害內容的法律會因為損害言論自由而無法通過《憲法第一修正案》的審查。

  報告認為,對於任何涉及人工智慧使用與處理網路危害問題的法律,都有三個關鍵的考慮因素——定義、覆蓋範圍和線下影響。首先,人工智慧、演算法、網路危害等術語的定義因其模糊性和廣度存在爭議。其次,法律涵蓋範圍存在問題,例如覆蓋技術的哪些部分;如果僅限於社交媒體公司,是否應根據規模區分這類公司與如何衡量規模;法律應涵蓋為不同代際的人提供網路服務的規定。最後,網路危害將對線下也產生影響,立法者要避免孤立看待。

  報告提出,立法重點應該優先考慮創建、使用人工智慧解決網路危害的平台的透明度和問責制,包括公開披露信息,即使用人工智慧的方式與數據;研究人員可獲取額外信息;保護舉報人、審計員、研究人員和記者;公開審計和評估的要求;推出標記違規內容、投訴內容、通知刪除、糾正刪除的系統。報告敦促國會關注增強數據訪問所帶來的隱私和安全風險。

  AI監管,全球在路上

  近年來,人工智慧商業化風起雲湧,技術可能造成的社會風險及防治方式已是全球關注的重點。目前,人工智慧可能出現演算法黑箱、安全漏洞、演算法歧視、隱私侵犯、信任危機等多重問題。面對人工智慧可能造成的社會風險、法律侵權、道德倫理爭議,各國一直在尋求鼓勵技術創新和防治社會風險之間的平衡。

  歐洲走在人工智慧法律監管的前列。2015年,歐盟委員會決定下設負責人工智慧法律與政策研究的工作小組。2017年,歐盟議會發佈《歐盟機器人民事法律規則》。2018年12月,歐盟委員會通過《人工智慧開發和適用倫理指南草案》。2019年歐盟委員會發佈《可信賴人工智慧倫理準則》,準則包括七項要素:人的能動性和監督、技術穩健性和安全性、隱私和數據管理、透明度、多樣性和非歧視性以及公平性、社會及環境福祉、問責制。2020年2月,歐盟委員會發佈《人工智慧白皮書——歐洲追求卓越和信任的策略》,希望建立可信任的人工智慧生態系統。2021年4月,歐盟委員會發佈立法提案《歐洲議會和理事會關於制定人工智慧統一規則(《人工智慧法》)和修正某些歐盟立法的條例》,是目前在該方面涉及範圍最廣泛的條例之一,正在通過評論期和重新修訂迅速推進。該提案規定了企業和政府應如何使用人工智慧技術,將對「高風險」領域的人工智慧使用進行限制。根據該提案要求,歐盟將有可能對違規最嚴重的公司處以相當於其全球年銷售額6%的罰款。

  在美國,立法者提出了追求透明度、問責性和「可解釋性」的人工智慧監管法案,強調監管靈活性,在發佈多份發展規劃文件之外,也關注技術監管。2018年6月首次提出、2019年7月再次提出的《自動程序披露和問責法》要求FTC制定法規,強制數字平台公開披露其使用「網路複製人們行為的自動化軟體程序或過程」的情況,禁止政治候選人等使用自動程序來分享或傳播任何針對政治選舉的信息。2019年,參議院提出《演算法問責法》,賦予FTC執行和監管的權力,要求企業研究並修復存在缺陷的、會導致人們產生不準確、不公平、有偏見或歧視性決策的演算法。該法案是美國國會第一次立法嘗試全面監管人工智慧系統。2020年1月,美國聯邦政府發佈《人工智慧應用的監管指南》,這是美國發佈的首個人工智慧監管指南。2021年10月,白宮科技政策辦公室 (OSTP) 宣布了一項制定《人工智慧權利法案》(自動化社會的權利法案)的計劃,試圖改善社會隱私泄露、演算法透明度不足、生物識別技術的濫用等問題。

  在中國,人工智慧的風險防控也提上日程。2017年7月,國務院公佈了《新一代人工智慧發展規劃》,這是中國發展人工智慧的遠景規劃。中國信息通信研究院發佈的《人工智慧安全白皮書(2018年)》將人工智慧安全風險劃分為六大類:網路安全風險、數據安全風險、演算法安全風險、信息安全風險、社會安全風險與國家安全風險。國家新一代人工智慧治理專業委員會於2019年發佈《新一代人工智慧治理原則——發展負責任的人工智慧》,強調人工智慧發展應遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八條原則。2021年9月發佈的《新一代人工智慧倫理規範》強調,將倫理道德融入人工智慧全生命周期。

  在與人工智慧息息相關的演算法技術方面,中國出台的多份法律法規作出嚴格監管。2021年8月,中國發佈的《個人信息保護法》規定不得實施「大數據殺熟」,個性化推薦應同時提供不針對其個人特徵的選項,或便捷的拒絕方式等。2021年12月,《互聯網信息服務演算法推薦管理規定》發佈,針對在中國境內應用演算法推薦技術提供互聯網服務所應當遵循的合規要求作出明確規定,包括保證用戶對演算法的知情權和選擇權,建立完善的人工干預和用戶自主選擇機制,不得利用演算法實施影響網路輿論、規避監督管理以及壟斷和不正當競爭行為等。

  2022年4月,中央網信辦牽頭開展「清朗·2022年演算法綜合治理」專項行動,排查整改互聯網企業平台演算法安全問題,評估演算法安全能力,重點檢查具有較強輿論屬性或社會動員能力的大型網站、平台及產品,督促企業利用演算法加大正能量傳播、處置違法和不良信息、整治演算法濫用亂象、積極開展演算法備案,推動演算法綜合治理工作的常態化和規範化。6月22日,中央全面深化改革委員會第二十六次會議中再次指出,加強平台企業沉澱數據監管,規制大數據殺熟和演算法歧視。

  人工智慧是未來技術發展的前景,會帶來產業變革,但也存在著全新的社會風險。通過法律進行監管和防範,是各國必須要探討的問題。正如此次報告的起草人、FTC消費局局長塞繆爾·萊文 (Samuel Levine) 所說:「新技術是把雙刃劍,打擊有害的網路內容需要廣泛的社會努力,而不是過於樂觀地相信新技術可以幫助我們擺脫這些問題。」

台灣疫情資訊

台灣疫苗接種

相關熱門