首页 新闻 本地 视频 评论 娱乐 时政 民生 生活 科技 汽车 体育 财经 国内 健康 军事 教育 旅游 房产

AI是比朝鲜更大的威胁:Elon Musk

2017-08-15 22:32 来源:未知

 


对于许多美国人来说,目前来自北韩的核导弹罢工的威胁感到非常真实。比智能机器人攻击更真实,比如说。

但根据对埃隆·马斯克,人工智能(AI)的上升对于人类比更大的威胁金正恩在平壤好战政权。

特斯拉和SpaceX首席执行长长期警告大赦国际的危险,并在OpenAI的机器人在专业游戏大赛中击败了一些世界上最好的球员之后发布了最新的警告。

Musk分享了一个帖子的照片:“最终机器将赢得”以及评论:“如果你不关心AI的安全,你应该是。比北韩风险更大。“

如果你不关心AI安全,你应该是。比北韩风险更大。pic.twitter.com/2z0tiid0lc

- Elon Musk(@elonmusk)2017年8月12日

麝香先前曾督促州长立法规定安全使用人造。

阅读更多:Elon Musk的Hyperloop可以对总统特朗普非常有用

这位南非出生的企业家也与马克·扎克伯格(Mark Zuckerberg)进行了一次讨论,Facebook首席执行长说,像“麝香”这样的AI“不客气”对于提出“末日情景”来说是“不负责任的”。Mus k shot shot shot that that that that that that that that that that that that that limited limited limited “。

我跟马克谈过这件事。他对这个问题的理解是有限的。

- 伊朗麝香(@elonmusk)2017年7月25日

OpenAI是一家非营利性研究公司,由Musk支持,它将自己描述为“发现和实现安全的人造一般智慧的道路”。促成Musk的推特的机器人正在西雅图电子竞技中玩,打对玩家Dota 2的玩家,一个令人难以置信的流行和复杂的游戏,将两队“英雄”相互对抗,目的是摧毁对方的基地。

技术杂志“ The Verge”报道,该机器人开发了通过玩游戏本身只需两个星期来击败顶级Dota 2玩家的技能。

麝香不是唯一一个警告大赦国际危险的着名人物。今年1月,他和霍金霍奇是研究人员,签署了“生命未来”发表的公开信,概述了以有利于人类的方式开发人工智能的23条指南。原则包括:为广泛分享的道德理想和全人类而不是一个国家或组织服务,制定人造智能,避免“致命的自主武器的军备竞赛”。

责任编辑:武新网

点击排行
推荐阅读