霍金等数百科学家联名呼吁警惕机器人叛变

喵酱| 2015-01-14 15:59:21
阅读()

 

包括英国理论物理学家斯蒂芬·霍金在内,数百名科学家和企业家联合发表的一封公开信或体现了这种担忧,公开信敦促人们警惕人工智能“脱离人类的控制”,防范机器人叛变导致的灾难。为了保护人类,早在1940年科幻作家阿西莫夫就提出了著名的“机器人三原则”。

 

有朝一日人工智能机器会拒绝服从人类指挥,甚至杀死或控制人类、最终统治世界吗?

 

目前,人工智能研究的成果已被广泛运用,其中包括语音识别和图像识别,以及自动驾驶的汽车。在硅谷,有估计从事人工智能业务的初创企业已超过了150家。

 

英、法等国媒体12日报道,这封信由非营利机构“未来生活研究所”发布。信中写道,人工智能技术稳定发展已获“广泛共识”,而且未来能够给人类带来巨大益处。“人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具”。但是,“如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡”。

 

公开信认为,人工智能可能导致数以百万计人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,“最终摆脱人类的控制”。

 

除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英、美国太空探索技术公司和美国特斯拉汽车公司首席执行官埃隆·马斯克,以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。

 

今年早些时候,霍金就提醒,需警惕人工智能科技失控并超越人类智慧,最终破坏整个星球。太空探索技术公司和特斯拉汽车公司首席执行官马斯克在美国麻省理工学院参加一场活动时说:“我认为对待人工智能我们必须非常谨慎。

 

按照我的猜想,人工智能可能是我们面临的最大灭绝风险。”马斯克说,创造人工智能犹如“召唤一只恶魔”,“在一些故事中,有人拥有五星阵法和圣水……他确信自己可以控制这只恶魔,不过事实并非如此”。

 

延伸阅读:机器人三原则

 

为了保护人类,防范机器人叛变给人类带来灾难,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠!

 

第一条:机器人不得伤害人类.

 

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

 

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

 

相关新闻推荐:霍金警告“盲目发展人工智能致人类灭亡”

分享到:
网友评论
网友评论文明上网理性发言,请遵守新闻评论服务协议