发布时间:2024-12-23 15:50:18 人气:14 来源:天云祥客服外包
据《经济学人》报道,美国和中国已成为无可争议的AI领军者,而欧洲则有机会率先规范AI系统可能带来的风险。人们普遍期望欧洲能像制定GDPR数据隐私法规一样,为AI行业树立全球标准。
未来AI发展蓝图
为规划AI未来,欧盟召集了一个由52名专家组成的小组,他们共同提出了AI系统应满足的七大条件:
1. 人类监管:AI系统不得侵犯人的自主性,人们不应受AI的操纵或威胁,而应能监督并干预其所有决策。
2. 技术稳定性与安全性:AI需确保安全、准确,能抵御外部攻击,保持高度可靠。
3. 隐私与数据管理:AI所收集的个人数据必须安全、私密,不得用于伤害或歧视数据主体。
4. 透明度:AI系统的数据和算法应公开透明,确保其决策过程可追溯,运营者需解释AI决策依据。
5. 多样性、非歧视与公平:AI服务应面向全体人群,无年龄、性别、种族等歧视,保持公正无偏。
6. 社会与环境福祉:AI系统应促进可持续发展与社会积极变革,对生态负责。
7. 问责制:需建立有效机制,确保对AI系统及其结果负责。
尽管这些要求目前不具法律约束力,但可能对欧盟未来法律制定产生深远影响。欧盟志在成为AI伦理领域的领航者,并已通过GDPR表明其制定深远影响法律的决心,以保护公众数字权利。
今年夏季,欧盟委员会将与相关方携手,明确需额外指导的领域,并完善执行与核查机制。2020年初,专家组将整合试点阶段反馈。
探索AI伦理边界
关于机器人伦理的最初规定,可追溯到科幻作家阿西莫夫的“机器人三定律”:不伤害人类、服从人类、保护自己。其后又加入“第零定律”:机器人不得伤害人类整体,或因不作为而使其受伤害。
然而,随着AI技术演进,“三定律”的诸多方面亟待细化。
全球知名的艾伦人工智能研究所CEO埃齐奥尼,在两年前的一次演讲中便呼吁更新这些定律。他提出,AI系统必须遵守操作人员适用的所有法律,明确表明非人类身份,且未经许可不得保留或披露机密信息。
过去两年里,众多AI研究者开始深入思考AI伦理问题。
2016年9月,全球多家科技巨头如Amazon、Facebook、Google等共同创建了Partnership on AI,旨在研究并制定AI技术的最佳实践,增进公众理解,并作为讨论AI对社会影响的开放平台。
2017年7月,中国政府也在《新一代人工智能发展规划》中强调,建立AI的法律法规、伦理规范及政策体系,提升AI的安全评估与管控能力。
去年底,加拿大与法国更联手成立国际小组,探讨如何负责任地运用AI。
目前,各国在AI规则制定上步伐不一。部分国家已先行制定机器人与AI相关法规,甚至通过立法管理自动驾驶汽车,但多数国家尚未行动。
欧盟委员会指出,鉴于技术、数据与算法的跨国性,将加强与日本、加拿大、新加坡等国的合作,并在G7、G20等国际场合积极发挥倡导与讨论作用。
今日已有 123 家企业获取报价方案