为什么比尔*盖茨(你)不要害怕的人工智能

二十五万七百八十三千一百二十

上周比尔*盖茨会议期间的问题和答案在资源闻接收到一个有趣的问题从一个用户:"什么威胁到人类的生存是超级智能机,以及是否认为一个完全加密的所有互联网活动可以保护我们免受这种威胁(就是说,你知道的汽车,好吗?"。

不幸的是,大门并没有回答第二部分的问题,但是写如下:

"我对人们担心超级智能。 第一,机会做很多的工作,我们并不是非常合理的。 这将是好的,如果我们将干练地领导他们。 几十年后,这一情报将成为强大到足以成为一个问题。 我同意伊隆麝香和其他人对此并不明白为什么人们不在关心"。

幸运的是robohobo,最好的团队的抗英雄组装。 伊隆*马斯和比尔*盖茨—它是一个钱包和影响力,传说中的宇宙学家斯蒂芬霍金是极其重要的。 他们可能不如一只手,这将能够执行肮脏的事对抗的机器,在这一预防性战争。

事实上,这一新出现的复仇者需要更多的东西的富有远见的:任何人为的超级智能将是一个严重的威胁,或者更严重的研究。

然而,人们越来越歇斯底里周围的根本不存在人工智能是相当大的困惑。 专家们没有看到任何的暗示的巨大的残暴人工智能现代码。 也许是盖茨霍金和麝香是该死的聪明人知道的东西,我们不知道。 但你可以听到领先的研究人员的人工智能。

当人们讨论的神经网络、认知计算和整体概念的人工智能应超越人,他们也在谈论的机和深学习。 如果有人知道,现在是时候惊慌,这些家伙。

人造超级智能来niotkuda主管乔治,共同创始人的人工智能启动替代,会谈有关的风险的超级智能:

"历史记得很多恐慌围绕各种技术,从蒸汽引擎的核能源和生物技术。 你会卖的更多报纸和电影票如果你玩的歇斯底里的,现在,在我看来,同样的事情发生:人煽动恐惧周围的人工智能。 作为科学家,我们需要提前通知公约之间的差别好莱坞的现实。 社区的人工智能是甚至还没有在边缘的创造这样的东西,有什么值得关注的"。

这种观点是替代具有重量,不仅是因为目前的公司工作的人工智能的,但由于伊隆*马斯已经提出的起始部分作为他的视力背后的窗帘。 麝香告诉CNBC,他投资于替代"不阻碍投资,但能够保持眼睛的人工智能。" 他还写道,"领先企业的发展AI采取严肃措施,以确保安全。 他们意识到的危险,我相信,将能够形状和控制的数字超级智能和预防其逃入互联网。 让我们来看看...".

在这个问题的替代解多少时间和资源投入到保护,反对人工智能回答说斯科特凤凰城的另一个共同创始人的代理人:

"人工智能不出现的机会或突然。 我们正在开始研究如何建立一个基本系统的智能,仍然是一个漫长的过程的重复和学习的系统和探索各种方式,它的建立和方式的安全。"

代理人不应对超级智能。 它甚至没有雷达。 其中,然后,该公司所说的掩模和严重担心,在他自己的话说,他们说,以糟糕的超级智能不"运行的因特网"? 如何,在他自己的话说,建立一个监狱的恶魔,在和自己-那恶魔没?

现在的问题的公司如何积极地扣压的人工智能锁和钥匙,说伊恩Lecun主任AI研究在Facebook:

"有些人不知道如何防止这种假设的超级智能的,友好的人工智能会决定"改编"本身,并保证锯全人类。 大多数的这些人是不是艾研究人员,即使是程序员都没有。"

Lecun还指示的一个来源的混淆:之间的差异的智慧和自主权。

"我们说你乍一看,一个超级智能系统,该系统没有自主权。 例如,一个国际象棋程序,可以打几乎任何人。 她不会超级智能吗? 很快的飞行器自动驾驶仪及自动驾驶的汽车会更安全的人。 这是不是意味着他们会更聪明人? 在非常狭窄的意义上,这些系统将"更聪明"于人类,但他们的经验将在一个非常狭窄的领域,并且该系统将是非常小的自主权。 他们将不能够超越要求。"

这是一个重要的区别,它也描述了恐慌,其屈服于麝香,霍金,和现在的大门。 AI可能没有被智能和创造性。 更重要的是,AI不是调整后的数字相当于《生物进化的途径,并voproizvodit竞争与每个突变得更好和更好的直到它达到一个失控的超级智能。 没有,工作不AI。

我们感到惊讶的机器情报的老鼠,但是它不会发生soroushian搜索产生结果的速度比任何人,但它将永远长不大的道德守则他不会隐瞒的色情制品对你的口味和色彩。 只有科幻小说作家或其他人文学科是远离计算机技术,你能想象如何的人工智能在人与人之一突然莫名其妙长出来的地方。 如果你相信一个奇迹,为什么不加入另一,说,自我组装的超级智能吗?

Lecun倡导者的掩模,声称他的审查,比较AI用核武器,是"夸大,但还被误解。"

"伊隆感到非常关切的是有关生死存亡的威胁到人类的(因为他为建设一个火箭,将发送人进行殖民的其他行星). 即使风险的起义的人工智能是微不足道的和虚幻的,我们应该想一想,为建立积极主动,遵循良好的定义的规则。 为建立生物伦理学限制在70年代和80年代,甚至在遗传工程中使用无处不在,我们需要创造约束条件在该领域的道德操守的人工智能。 但如正确地说过,约书亚,我们有足够的时间。 我们的系统优于人类是在非常狭窄的区域,但一般AI人的水平将不会很快,也许几十年来,更不要说大自治艾永远不能建立的"。

科学家,谁有什么要说的关于这个问题,是在前面提及的段落。 约书亚你打头的机学习实验室在蒙特利尔大学的先驱之一,该分区域的深入学习的(随着空白的)。 这里是他的意见有关的事实,研究大赦国际是一个充满危险:

"在这看有没有说实话,当考虑当前的人工智能的研究。 大多数人都不知道怎么原语系统,我们建立的,不幸的是,许多记者(和一些科学家)来传播恐惧约AI,不符合现实。 我们不会相信的如果我创造了一个机与情报的老鼠在不久的将来,但是我们离它很远,很远。 是啊,这些算法已经有了实用的应用程序,然后将有更多。 而且,我真的认为人们有一天会创造的机器聪明人们在许多方面。 然而,将它在遥远的未来,因此目前的辩论是浪费时间。 当问题变得紧迫,当然,我们将能带来一起科学家、哲学家和律师,以确定最好的方法防止的作用属于目前科幻小说"的。

问题是否超级智能是不可避免的,Bengio说:

"这是很难以回答这个问题,撇开的所有严谨的科学思维。 我看到很多的好数学和计算原因的研究AI一旦处于停顿状态(由于指数增长的复杂性),这一天人类的情报,在原则上,也解释了为什么海豚和大象,虽然尊敬的大脑,都没有超级智能的。 我们只是不知道够不够去任何进一步的假设关于这个问题。 如果僵局的假设是确认,一天我们会有计算机都是一样聪明的人,但会有更多的快速获取知识。 但是,当时人们可以获取,获取信息(在原则上,我们已经这样做,但是慢慢地使用搜索算法)。 当然,这没有超级智能。 我觉得艾作为帮助心态,因为工业革命是通过使用手在过去两个世纪。"

关于评论有关的面罩的是,大赦国际"可能更加危险比核武器"和它所需要小心,Bengio绘制迄今为止,没敲门进入一个未知的未来:

"虽然这个问题没有意义。 在未来的事情可能会改变,但是现在我们正在猜测一个咖啡厚。 当我们到达那里,当然,我们认为关于它的重视。"

共同主题的讨论时间。 当你说话与研究人员的AI—再次具体地说AI研究人员、工作人员与这些系统—他们不是特别担心的是什么超级智能偷偷了他们(傻瓜,运行!). 不同的是可怕的故事我已经阅读麝香,人工智能的研究人员甚至不敢讨论超级智能,就不存在甚至在的计划。 是否权的比尔*盖茨吗?

资料来源:hi-news.ru