伊隆·马斯克认为人工智能是危险的人类





关于人工智能的危害是很多的谈话和写。还有那些谁相信AI会不会伤害一个或其他原因(不只是因为人工智能将遵守机器人三定律)。

但也有那些谁相信一个人可以成为受害者技术signulyarnosti 和人工智能 - 是危险的。最近,霍金,是我们这个时代最伟大的思想家之一,称为人工智能最大的错误人类。看来,这样的事情,并认为臭名昭著伊隆·马斯克。

看着办吧上周五,当术语“虚拟现实»的贾瑞恩拉尼尔打开的дисскуссию关于AI 。他的想法得到了许多学者,作家,工程师和商人讨论。在其他公布,并从伊隆·马斯克,他预测的风险的意见“的东西在5-10年的范围很危险的。”所谓“危险的东西”是指危险的人类的人工智能。

经过几分钟的掩模(或部门处理媒体)SR评论,但它已zaskrinit方法:



麝香认为,现在是工作在创造人工智能的人才,非常明显的情况下,发展非常迅速的成功,并在短短几年内,我们可以看到一个真正的人工智能。而这个理由不能是友好的人。麝香希望AI的创造者就能控制它,不能让坏人(数字supermind的意义上)走在互联网上。

顺便说一句,不久前,麝香称为人工智能“人魔”。

意见面具让他在别人的立场是谁,不仅试图预测未来,但也试图提供各种选择,选择那些在人类进化的方式会遇到危险。和这些危害之一可以是AI。

新闻秘书伊隆·马斯克承诺在信中捣成糊状,麝香尽快公布人工智能的更详细视图。我们会等待。

顺便说一句,在这里,人们不能忘记 SF故事,在人类蔓延整个星系,并每个行星已经在超级计算机上创建的。后,决定所有的超级结合成一个单一的网络。一旦这样做是,项目经理问车:“有没有神?”。与汽车说,“现在有。”在这之后,用干净清澈的天空的闪电在击中焊接杆的位置。同时雷电打死谁试图关闭系统操作。 I>

在写这个故事 - 在1954年。看起来像是科幻小说,一如既往 - 其余的前面。你觉得AI对人体有害? <表> 当然 TD> TR> 是的,如果你不使用机器人阿西莫夫的法律或类似的东西 TD> TR> 没有 TD> TR> AI将永远不会被创建 TD> TR> 我已经在这里了,伙计! TD> TR> TABLE>只有注册用户才可以参与投票。 注册,请。 606人投了反对票。 84人弃权。

资料来源: geektimes.ru/post/241810/

标签

另请参见

新&值得注意