Top
首页 > 正文

【快评】国外多层面进行人工智能伦理道德研究

微软、IBM、英特尔、谷歌等企业相继发布人工智能伦理道德原则,并成立人工智能伦理委员会,共同致力于人工智能伦理道德的研究。谷歌DeepMind团队成立人工智能伦理部门,在加强人工智能技术研发和应用的同时,也将伦理等人工智能公共政策提上议程,负责任地研究和部署人工智能。
发布时间:2019-11-11 13:39        来源:赛迪智库        作者:赛迪智库

国家层面

欧盟、英国、美国、日本、韩国等都在国家战略层面提出多项人工智能伦理原则、规范或指南。美国《国家人工智能研究和发展战略计划》将理解并解决人工智能的伦理、法律和社会影响作为七大战略之一。欧盟在发布的《欧盟人工智能》战略报告中将确立合适的伦理和法律框架作为三大战略重点之一。英国将伦理道德放在发展人工智能的核心位置,成立了数据伦理和创新中心,负责实现和确保数据的安全的创新性应用,并合乎伦理。日本起草人工智能伦理纲要,韩国以立法规定设立国家机器人政策、伦理委员会。

学术和国际组织层面

多个学术组织和国际组织倡导符合人类伦理道德的人工智能技术研发与应用,并建立专门机构研究人工智能的全球治理问题。加利福尼亚州阿西洛马举行的 Beneficial Al 会议,近千名人工智能相关领域的专家联合签署了著名的《阿西洛马人工智能23条原则》。麻省理工技术评论发布“亚洲人工智能议程”系列调查报告的第四份——《人工智能伦理》。美国国家标准与技术研究院发布制定人工智能技术和道德标准的指导意见,强调标准必须严格,确保安全,符合美国政策和原则。

英国标准行业协会发布业界首个关于机器人伦理设计的公开指标,即《机器人和机器系统的伦理设计和应用指南》,旨在保证人类生产出来的智能机器人能够融入人类社会的道德规范。2016 年和 2017 年,美国电气和电子工程师协会(IEEE)连续推出《人工智能设计的伦理准则》白皮书。美国计算机协会下属的美国公共政策委员会在发布的《算法透明性和可问责性声明》中提出七项基本原则。

联合国发布《人工智能政策报告》,呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。经济合作与发展组织通过首部人工智能的政府间政策指导方针,确保人工智能的系统设计符合公正、安全、公平和值得信赖的国际标准。

企业层面

微软、IBM、英特尔、谷歌等企业相继发布人工智能伦理道德原则,并成立人工智能伦理委员会,共同致力于人工智能伦理道德的研究。微软发布《人工智能政策建议》,鼓励制定最佳实践伦理准则。IBM很早就成立了伦理审查委员会。英特尔发布《人工智能公共政策机会》,传达了英特尔负责任地促进数据获取,重新思考隐私、公平信息实践原则,符合伦理的设计以及可责性原则。谷歌DeepMind团队成立人工智能伦理部门,在加强人工智能技术研发和应用的同时,也将伦理等人工智能公共政策提上议程,负责任地研究和部署人工智能。亚马逊、微软、谷歌、IBM、 Facebook 和苹果联合建立了人工智能行业联盟,共同研究和制定人工智能技术的最佳实践。

合作站点
stat