三规律进行更新。鉴于Elon Musk(和其他人)的正告引起广泛的媒体重视,这些更新或许值得业界考虑。
上个月,马斯克等来自26个国家的人工智能专家一起致信联合国,要求制止开发和运用自主兵器。除了马斯克之后,签署公开信的还包含DeepMind联合创始人Mustaga Suleyman以及其他100多位机器人及人工智能公司的高管。他们写道,人工智能技术现已满足兴旺,未来数年内自主兵器就或许出现在战场上,国防工业的许多专业人士表明,在继火药和核兵器之后,自主兵器将引发第三次战役革新。
最近播出了另一个更大的政治正告:俄罗斯总统普京在对一群俄罗斯学生演讲时,称“人工智能不仅是俄罗斯的未来,也是整个人类的未来,谁成为这个范畴的领导者,他也将成为国际的统治者。机会和要挟巨大,但现在难以预测。”
1942年,阿西莫夫在短篇小说“Runaround(环舞)” 中提出了机器人三规律:机器人不得损伤人类,或因不作为使人类遭到损伤;除非违反榜首规律,机器人有必要遵守人类的指令;除非违反榜首及第二规律,机器人有必要维护自己。
后来,阿西莫夫加入了一条新规律:第零规律,机器人不得损伤人类全体,或因不作为使人类全体遭到损伤。
在《》的谈论文章中,Etzioni提出了对阿西莫夫机器人三规律的修正主张:
Etzioni供给的这些更新开端了一场评论,并引起联合国发布了一本非科幻的机器人手册,比2058年的科幻年代更早。这是一个能够标准而不是阻遏现已在开展的全球AI事务。
下一篇:无人区6高清国语完整版免费在线V