歐盟正準備發布立法草案,規範人工智能(AI)在社會中的使用。這些法律旨在限制人工智能用於“不加區別的監視”,並禁止在可被利用來影響或操縱人類行為的系統中使用人工智能。
如果獲得通過,擬議的立法在幾年內仍無法完全生效。然而,法規的內容可能會對未來許多年歐洲人工智能的使用產生重大影響。
那麼,這些提案是否足以保護公民的基本人權呢?
嬰兒學步
2020 年 1 月,歐盟發布了一份白皮書,提出了監管用於在公共場所追踪公民的人工智能的建議。
公眾諮詢白皮書會議收到了來自“公共和私營部門感興趣的利益攸關方,包括政府、地方當局、商業和非商業組織、專家、學者和公民”的 1250 多份答復和意見。
根據ECH聯盟,其中包括“來自世界各地的捐款,包括歐盟27個成員國以及印度、中國、日本、敘利亞、伊拉克、巴西、墨西哥、加拿大、美國和英國等國家”。現在,最終確定的提案是待發表週三,之後將在歐盟議會進行辯論。
在提前洩露的草案中,部分章節因使用語言含糊且存在漏洞而引發擔憂。人們擔心,這些可能會讓人工智能被軍事和政府當局以對公民有害的方式利用。

歐盟價值觀
根據政治報上週二的草案顯示,歐盟正在努力採用“以人為中心”的人工智能監管方法,以允許人工智能的積極使用。
歐盟希望,這將使歐盟能夠與美國和中國競爭技術進步,同時也為公民提供在“高風險”時禁止使用人工智能的權利。
為此,洩露的草案限制使用人工智能“在數字或物理環境中監控和跟踪自然人,以及對各種來源的個人數據進行自動聚合和分析”。它還試圖在人工智能侵犯歐盟“價值觀”和人權時限制其使用。
為了實現這一目標,擬議的法規禁止人工智能操縱人類行為,並對公民形成意見或做出決策的能力產生負面影響,並可能導致他們採取“損害自身利益”的行為。
該草案還提議禁止在中國使用的社會評分系統中使用人工智能,並禁止“對所有自然人進行不加區別的普遍監視”。
最後,該提案草案將限制人工智能在預測系統中的使用,這些預測系統可用於針對個人(或一群人)的“弱點”。

漏洞太多?
擬議的人工智能法規將是全球首個此類法規,並且絕對可以被視為朝著正確方向邁出的一步。儘管如此,專家們仍對措辭的含糊性和解釋的可能性感到擔憂。
在上週三發布的推文歐洲政策分析師 Daniel Leufer 表示:
我們如何確定什麼對某人有害?誰對此進行評估?
Leufer強調,草案中有4項禁令“非常非常模糊,並且存在嚴重漏洞”。
具體來說,洛伊弗強調瞭如果“這種做法得到法律授權並且[由公共當局或代表公共當局]為了維護公共安全而進行”的禁令,則不適用。
洛伊費爾擔心,由於這些例外情況,“對人類行為的有害操縱、利用和針對人們的弱點以及不分青紅皂白的大規模監視都可以用來維護公共安全”。
這是可惡的,最終留下了太多的灰色地帶——歐洲非營利法中心(ECNL)在評論中讚同這一觀點英國廣播公司。與洛伊弗一樣,歐洲國家實驗室表示,提案草案中仍然存在“許多含糊之處和漏洞”,這似乎使其不符合其目的。
儘管如此,Leufer 很快指出,洩露的 80 頁草案是該提案的一個版本,可以追溯到 1 月份,他希望這意味著該提案“自那以來已經取得了重大進展”。
高風險
週三我們將最終明確歐盟的提議。到目前為止,我們所知道的是,該提案將確定並限制人工智能的某些高風險用途。
因此,任何開發被禁止的人工智能的組織,或者未能提供有關其人工智能的適當信息的組織,都可能面臨高達其全球年收入 4% 的罰款。
洩露的草案中列出的高風險定義包括:
- 優先調度緊急服務的系統
- 確定進入“教育或職業培訓機構”的系統。
- 招聘算法
- 評估人們信用資格的系統
- 進行個人風險評估的系統
- 犯罪預測算法
總的來說,很高興看到歐盟委員會定義高風險人工智能分類。然而,如果週三的草案沒有對人工智能在非關鍵或高風險用例中的使用進行監管,那麼不可避免地會存在重大擔憂。
Leufer 認為,任何公開的人工智能用途數據庫都必須包括“所有公共部門的人工智能係統,無論其指定的風險級別如何”,才能充分告知和保護公眾。
Leufer 表示,Access Now 在公眾諮詢階段明確定義了這一期望,因為“人們通常無法選擇是否與公共部門的人工智能係統進行交互”。
不幸的是,除非滿足這些要求,否則歐盟最終可能會通過過於薄弱的法規,無法阻止人工智能用於面部識別和其他過度實踐。
這可能會極大地威脅公眾的隱私權,並可能導致影響人們生活的技術,其自動化系統會導致嚴重的錯誤、偏見和歧視。
