807
伊隆·马斯克是资金参与问题研究小组 - 人工智能是否安全
<燮> 宣传海报为电影“终结者:创世纪» i> SUP>
上周,一个私人非营利组织和QUOT;生命学院&QUOT 未来; (FLI),位于波士顿(美国),<一个href="http://www.bloomberg.com/news/articles/2015-07-01/musk-backed-group-probes-risks-behind-artificial-intelligence">объявила收到一个显著一轮1000万美元的资金。捐款以取得伊隆·马斯克700万美元的大部分,对剩下的钱已经转移到另一个非营利组织公开赛慈善项目。主要职业FLI的是要找到专门研究小组在人工智能领域,他们的工作融资。其中前科学家接受赠款的FLI制定的目标,是一种安全,为人类“计算机智能”,这并不会导致未来全球性灾难的发展。
从SpaceX公司和团体开放慈善项目的头数百万美元将共享工作在知名大学和完善的37研究小组。 BusinessInsider <一href="http://www.businessinsider.com/elon-musk-funds-research-to-keep-ai-friendly-2015-7">перечисляет其中一些研究项目。例如,联合组科学家伯克利分校和Okforda那些训练有素的人力喜好忙于创造的算法,今后将有助于AI的行为“像个男人。”工作人员在杜克大学(美国北卡罗来纳州)自己设定一个更加雄心勃勃的目标:他们想要开发的人工智能,可以决定考虑到了“道德人”的制度。丹佛大学实际上正在研究如何应对“天网”,在处理机械臂控制的可能损失。
在十一月去年年底,伊隆·马斯克标志着约人工智能的安全在互联网上的公开辩论。根据SpaceX公司的负责人,他是警惕电脑想的可能性,并预测“的东西在5 - 10年的范围非常危险的,”通过这种危险只是AI意思的出现。对于一些未知的原因评论面具消失了几分钟后公布,但其他人Edge.org设法将其保存为一个屏幕截图。发言人面具承诺在未来提出他的老板的官方舆论对此事,但是,很显然,还没有发生过。
应当指出的是,面具其实是英国著名科学家的观点霍金,谁更早 发言如下:“所有这些成绩的取得[在人工智能的发展]相形见绌反对什么等待着我们在未来几十年的大背景下。成功创造人工智能将成为人类历史上最大的事件。不幸的是,它可能是最后的,除非我们学会避免风险。“霍金认为,人工智能的安全性研究投入太少严肃的科学工作和太少的研究机构,可以做到这一点。有趣的是,这些组织之间霍金所提及FLI。有没有不知道史蒂芬·霍金和伊隆·马斯克之间有任何联系。
有观点的科学家的替代点,虽然没有与像霍金这样一个大的名字。他们认为,人工智能失控释放的问题 - 这是多为科幻电影比严重关注的话题。阅读他们的反驳可以在这里 。
来源: geektimes.ru/post/253088/