欧洲将严格监管人工智能技术
更多学术热点资讯,关注微信公众号:艾思学术+
近日,欧盟委员会公布了严格监管人工智能(AI)的计划。
据《科学》报道,该委员会将起草新的法律——包括禁止人类无法解释的“黑匣子”AI系统,以控制该技术的高风险应用,比如医疗设备和自动驾驶汽车。
在宣布该计划的新闻发布会上,欧盟委员会主席Ursula von der Leyen说,尽管监管将比此前任何的欧盟规定都更广泛、更严格,但其目标是促进信任,而不是恐惧。该计划还包括更新欧盟2018年AI战略的措施,以及在未来10年投入数10亿欧元用于研发。这并非最终定案,未来12周内,即在起草具体法律的工作正式启动前,专家、游说团体和公众可对该计划发表意见。
相比于美国,欧洲对待AI的态度更为谨慎,欧盟官员希望通过监管赢得消费者信任,进而帮助欧洲竞争,推动AI的更广泛应用。
欧盟委员会AI独立顾问小组成员、欧洲政策研究中心AI政策研究员Andrea Renda表示:“欧盟试图在最擅长的领域发挥领导作用,这是一个非常坚实和全面的监管框架。”
该委员会希望针对医疗、交通或刑事司法等领域的AI“高风险”使用,制定有约束力的规则。确定风险的标准将包括以下考虑因素:比如某人是否会受到伤害——被一辆自动驾驶汽车或医疗设备伤害;或者一个人是否对机器决策的影响几乎无发言权,比如人工智能何时被用于招聘或执法。
欧盟委员会还希望通过人工监管来阻止不可预测的AI“黑匣子”。这些规则还将用于管理训练AI系统的大型数据集,以确保这些数据集是合法获取的、可追溯的,并且足够广泛。
法律将确定谁对人工智能系统的行为负责——使用它的公司或者设计它的公司,高风险的应用程序在部署到欧盟之前必须符合这些规则。
另外,欧盟委员会计划提供一种“值得信赖的AI”认证,将鼓励在低风险使用中自愿遵守,而之后被发现有违规行为的认证系统可能面临罚款。
欧盟委员会还将就面部识别系统“在欧洲展开一场广泛的辩论”。这是一种人工智能形式,可以在人群中未经同意而识别个人。尽管德国等欧盟国家已公布了部署该系统的计划,但官员们表示,这些系统经常违反欧盟隐私法。
该委员会还将制定一项“行动计划”,将AI整合到交通和医疗等公共服务中,并更新其2018年AI发展战略,该战略为研究投入了15亿欧元。欧盟委员会正在呼吁更多的研发,包括AI“卓越和测试中心”以及一个新的可能投资数十亿欧元的AI产业合作伙伴关系。
此外,欧盟委员会还概述了一项促进数据共享的战略,部分原因是为了支持AI的发展。
作者:文乐乐
版权申明:本文来源中国科学报,版权归原作者所有。
文章转摘只为学术传播,如涉及侵权问题,请联系我们,我们将及时修改或删除。