e-works数字化企业网  »  文章频道  »  基础信息化  »  IT综合

2017人工智能:技术、伦理与法律研讨会(AITEL2017)

2017/4/18    来源:科学网    作者:周剑铭  柳渝  李红萍      
关键字:人工智能  AI  研讨会  
2017年4月13日,中国科学院科技战略咨询研究院和腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”。

    2017年4月13日,中国科学院科技战略咨询研究院和腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”,会议宗旨如下:

    “当前,随着机器学习、计算能力、大数据等技术发展,产业应用加深,以及行业风向转变,AI已经迎来第三次发展浪潮。人类正在进入AI无处不在的社会,而且AI正在变得越来越强,越来越多才多艺。

    为了使AI朝着有益和普惠的方向发展,需要进行前瞻性的法律、伦理、安全等AI社会影响研究,需要AI伦理等人文研究来为技术把脉。如何确保AI尤其是将来的AGI和ASI是安全可控的,是符合人类利益和价值的?AI向社会各领域的渗透将对人类行为和人机关系产生怎样的影响?如何设计、制造道德AI,即如何确保AI遵守人类社会的法律、伦理、自由、隐私、尊严等规范和价值?随着AI越来越多地参与人类社会事务,人类该如何对待以AI为内核的机器人和机器,它们是否享有一定的法律和道德地位,从而使得人类不能对它们为所欲为或者AI对人类为所欲为?

    AI第三次浪潮已然开启,未来已来。中国科学院科技战略咨询研究院与腾讯研究院联合主办 “2017人工智能:技术、伦理与法律研讨会”,与您共同探讨等影响人类命运的重大问题。”

    会议邀请了与AI相关的不同领域研究人员(见会议日程),我们应邀作了题为“为了人和人类利益的AI -- AI平台的责任(Beneficial AI--Responsibility of AI Platform)”的报告,介绍我们从智能哲学(Intelligent Philosophic)和不确定性问题理论(NP Theory)出发对人、机伦理关系问题的初步研究。

    这里,分享我们的报告和为此报告准备的文章“智能哲学:在AI前沿上人类伦理学的挑战与应战 ”,此文与前一篇文章智能哲学:人工智能的伦理学问题(Beneficial AI)的侧重点不同,在于强调从“中西文化”和“科学与人文”的视角研究人、机伦理关系问题。

    参考资料

    [1]智能哲学:在AI前沿上人类伦理学的挑战与应战:http://www.aisixiang.com/data/103925.html。

    一、AI的伦理学问题成为了时代的焦点

    今天的AI已经把过去一些认为是耸人听闻的话题变成了无法回避的严肃研究,不仅传统的科学理论与技术实践以及两者的关系正在重构,而且在“科学”与“人文”两大分别的领域之间产生了挑战性的融合问题,面对AI的咄咄逼人的发展,一线科学家们不得不做出权宜的回答,由“生命的未来研究所”(Futureof Life Institute,FLI) 牵头制定的“阿西洛马人工智能原则”(Asilomar AIPrinciples),就可以看作是一线科学家的一个伦理学的应急纲领。另一方面,传统的哲学、人类学、伦理学等却无法迅速进入到一线前沿,而迫不急待的工业、经济、金融、社会领域所激发的狂潮已经上升到一种国家意识,各国政府开始把AI的发展和工业创造力等作为全球竞争的战略问题提出并付诸行动。

    与西方国家对AI的研发不同的方面是,中国文化重视人和人性的中心地位,这使我们能在“中西文化”和“科学与人文”的相对性中处于一种特殊的文化地位,我们能否在这样两种“两种文化”的交织中不失机缘?我们想在此提出这个问题,面对悠关人类自身利益的人、机伦理关系,期望在一种大格局下研究 AI平台的伦理学问题。

    AI和Robot的发展对人类自身的地位和价值产生影响,对此担忧由来已久。稍前一些,多家基金、各种研究机构都在关注AI伦理问题,其中由一些著名的人工智能问题专家、教授以志愿者的身份创立的“生命的未来研究所”,于2015 年1月11日发表了一封公开信:Research Priorities for Robustand Beneficial Artificial Intelligence: an Open Letter(公开信:为稳健性和利益性的人工智能而进行研究),提出“我们的人工智能必须只做我们要它们做的”(our AI systems must do what we want them to do),即“有益的人工智能”(Beneficial AI)的口号。同样对这样的问题的高度关注,此前已经引起了业内外的广泛注意和严肃讨论并有所行动,如:IEEEGlobal Initiative for Ethical Considerations in Artificial Intelligence andAutonomous Systems(IEEE 关于人工智能及自主系统的伦理考虑的全球倡议), AAAI2008-09 Presidential Panel on Long-Term AI Futures(AAAI2008-09 人工智能未来总统委员会), Partnership on ArtificialIntelligence to Benefit People and Society(人工智能合作惠及人与社会),AI100 ( 人工智能百年研究计划 ),Ethicsand Governance of Artificial Intelligence Fund(人工智能伦理与治理基金会),AllenInstitute for Artificial Intelligence (艾伦人工智能研究所 )等等。

    而更早的时候,在实体机器人出现之前的上世纪四十年代,就有了科幻小说家阿西莫夫(IsaacAsimov)著名的“机器人学三大法则”和以后的多种补充原则:

    LawⅠ:A Robot maynot injure a human being or, through inaction, allow a human being to come toharm.

    第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

    LawⅡ: A robot mustobey 0rders given it by human beings except where such orders would conflictwith the first law.

    第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

    LawⅢ:Arobot must protect its own existence as long as such protection does not conflict with the first or second law.

    第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存。

    这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或“自我意识”等超级人工智能的问题,而现在那种“高度自主的人工智能系统”(Highlyautonomous AI systems)或被称为“强人工智能”或“通用人工智能”(ArtificialGeneral Intelligence ,AGI)等似乎已在敲门了,人类如何应对?

    在这个意义上,现在可以说,任何一家人工智能研究和开发的大公司、大企业或学术组织所进行的最尖端、最前沿的研究,实际上都是本质地相关人工智能的伦理问题。

    二、“阿西洛马人工智能原则”的核心思想:BeneficialAI

    2017年1月在美国加州Asilomar召开的“阿西洛马会议”(the2017 Asilomar conference),包括844名人工智能和机器人领域的专家们联合签署了称之为“阿西洛马人工智能原则”(AsilomarAI Principles),呼吁全世界的人工智能领域工作遵守这些原则,共同保障人类未来的利益和安全。“阿西洛马人工智能原则”核心思想是BeneficialAI,我们解读为 “为了人和人类的AI”。

    在这些复杂和紧迫的形势面前,人类能够做出响应的只有基于人类历史中形成的基本伦理信念和长期的伦理学研究成果。面对人工智能迅速发展的现实所面临的伦理学上的迫切问题,非专业伦理学的一线科学家做出的一个权宜的回答:“阿西洛马人工智能原则”,他们出于科学家传统的职业道德,基于人类的良知和对人类未来的理性关切,把人工智能直接参与的研究者、机构的伦理学问题作为主要对象,把BeneficialAI这个伦理学理念分散地表现在“阿西洛马人工智能原则”23条中, 其中具有纲领性的条目如下:

    第1项“研究目的”确定了人工智能研究的目的是创造服务于人、并为所控的AI和Robot这个原则,这个原则是人机之间的基本伦理保证,而这个保证最先由研究和开发人员的伦理意识体现和在研发中遵守;所以第16项“人类控制”表达了一种深切的期望。

    第2项“研究经费”中对人类资源、意志、价值体系的前提地位的保守和保护。

    第10项“价值归属”、第11项“人类价值观”、进一步提高为机器对人的价值的归属是高级人工智能的设计原则第9项“责任”则将这种人机伦理关系作为责任明确地加在研究人员身上;第12项“个人隐私”和第13项“自由和隐私”体现了人的尊严。

    第6项“安全性”是为研究工作设定的机器对人的保障的条件,第7项“故障透明性”、第8项“司法透明性”,是对人工智能现有研究、开发的工作制度和法制方面的伦理要求。

    第14项“分享利益”、第15项“共同繁荣”第17项“非颠覆”、第18项“人工智能军备竞赛”,这些是人类社会的伦理原则在人工智能研究领域中的体现。
 

责任编辑:李欢
本文为作者授权转载文章,任何人未经原作者同意,不得复制、转载、摘编等任何方式进行使用,e-works不承担由此而产生的任何法律责任! 如有异议请及时告之,以便进行及时处理。联系方式:editor@e-works.net.cn tel:027-87592219/20/21。
e-works
官方微信
掌上
信息化
编辑推荐
新闻推荐
博客推荐
视频推荐