欧盟正准备发布立法草案,规范人工智能(AI)在社会中的使用。这些法律旨在限制人工智能用于“不加区别的监视”,并禁止在可被利用来影响或操纵人类行为的系统中使用人工智能。
如果获得通过,拟议的立法在几年内仍无法完全生效。然而,法规的内容可能会对未来许多年欧洲人工智能的使用产生重大影响。
那么,这些提案是否足以保护公民的基本人权呢?
婴儿学步
2020 年 1 月,欧盟发布了一份白皮书,提出了监管用于在公共场所追踪公民的人工智能的建议。
公众咨询白皮书会议收到了来自“公共和私营部门感兴趣的利益攸关方,包括政府、地方当局、商业和非商业组织、专家、学者和公民”的 1250 多份答复和意见。
根据ECH联盟,其中包括“来自世界各地的捐款,包括欧盟27个成员国以及印度、中国、日本、叙利亚、伊拉克、巴西、墨西哥、加拿大、美国和英国等国家”。现在,最终确定的提案是待发表周三,之后将在欧盟议会进行辩论。
在提前泄露的草案中,部分章节因使用语言含糊且存在漏洞而引发担忧。人们担心,这些可能会让人工智能被军事和政府当局以对公民有害的方式利用。

欧盟价值观
根据政治报上周二的草案显示,欧盟正在努力采用“以人为中心”的人工智能监管方法,以允许人工智能的积极使用。
欧盟希望,这将使欧盟能够与美国和中国竞争技术进步,同时也为公民提供在“高风险”时禁止使用人工智能的权利。
为此,泄露的草案限制使用人工智能“在数字或物理环境中监控和跟踪自然人,以及对各种来源的个人数据进行自动聚合和分析”。它还试图在人工智能侵犯欧盟“价值观”和人权时限制其使用。
为了实现这一目标,拟议的法规禁止人工智能操纵人类行为,并对公民形成意见或做出决策的能力产生负面影响,并可能导致他们采取“损害自身利益”的行为。
该草案还提议禁止在中国使用的社会评分系统中使用人工智能,并禁止“对所有自然人进行不加区别的普遍监视”。
最后,该提案草案将限制人工智能在预测系统中的使用,这些预测系统可用于针对个人(或一群人)的“弱点”。

漏洞太多?
拟议的人工智能法规将是全球首个此类法规,并且绝对可以被视为朝着正确方向迈出的一步。尽管如此,专家们仍对措辞的含糊性和解释的可能性感到担忧。
在上周三发布的推文欧洲政策分析师 Daniel Leufer 表示:
我们如何确定什么对某人有害?谁对此进行评估?
Leufer强调,草案中有4项禁令“非常非常模糊,并且存在严重漏洞”。
具体来说,洛伊弗强调了如果“这种做法得到法律授权并且[由公共当局或代表公共当局]为了维护公共安全而进行”的禁令,则不适用。
洛伊费尔担心,由于这些例外情况,“对人类行为的有害操纵、利用和针对人们的弱点以及不分青红皂白的大规模监视都可以用来维护公共安全”。
这是可恶的,最终留下了太多的灰色地带——欧洲非营利法中心(ECNL)在评论中赞同这一观点英国广播公司。与洛伊弗一样,欧洲国家实验室表示,提案草案中仍然存在“许多含糊之处和漏洞”,这似乎使其不符合其目的。
尽管如此,Leufer 很快指出,泄露的 80 页草案是该提案的一个版本,可以追溯到 1 月份,他希望这意味着该提案“自那以来已经取得了重大进展”。
高风险
周三我们将最终明确欧盟的提议。到目前为止,我们所知道的是,该提案将确定并限制人工智能的某些高风险用途。
因此,任何开发被禁止的人工智能的组织,或者未能提供有关其人工智能的适当信息的组织,都可能面临高达其全球年收入 4% 的罚款。
泄露的草案中列出的高风险定义包括:
- 优先调度紧急服务的系统
- 确定进入“教育或职业培训机构”的系统。
- 招聘算法
- 评估人们信用资格的系统
- 进行个人风险评估的系统
- 犯罪预测算法
总的来说,很高兴看到欧盟委员会定义高风险人工智能分类。然而,如果周三的草案没有对人工智能在非关键或高风险用例中的使用进行监管,那么不可避免地会存在重大担忧。
Leufer 认为,任何公开的人工智能用途数据库都必须包括“所有公共部门的人工智能系统,无论其指定的风险级别如何”,才能充分告知和保护公众。
Leufer 表示,Access Now 在公众咨询阶段明确定义了这一期望,因为“人们通常无法选择是否与公共部门的人工智能系统进行交互”。
不幸的是,除非满足这些要求,否则欧盟最终可能会通过过于薄弱的法规,无法阻止人工智能用于面部识别和其他过度实践。
这可能会极大地威胁公众的隐私权,并可能导致影响人们生活的技术,其自动化系统会导致严重的错误、偏见和歧视。
