AI已经到来:这里是什么担心的最聪明的头脑的人类





在第一个星期至2015年,伊隆*马斯采取了阶段关闭的会议在波多黎各讨论一个智能爆炸。 这个可怕的理论的术语是指一个不受控制的巨大的飞跃,在认知能力的人工智能。 作为麝香和着名的物理学家斯蒂芬霍金认为,一天AI可判刑的人的比赛。

非常美观的这些数字作为伊隆麝香,在这次会议上,长期以来一直保留的学术界人士的烦恼,是一个重大事件。 然而,会议与乐观的标题是"未来的艾:机遇和挑战"是一个前所未有的大脑的人来到伦理学家AI牛津尼克*博斯特伦,创始人Skype Jaan塔林和专家AI在谷歌Shane Legge的。

麝香和霍金担心的是,AI可能导致的启示,虽然有更多明显的威胁。 过去五年来的进步的人工智能,特别是在该领域的深神经网络带来的人工智能进入我们的日常生活。 谷歌、Facebook、微软、百度—如果你请一些公司雇用的专业人员的人工智能前所未有的速度并注入数百万美元的比赛更好的算法和聪明的计算机。

问题的人工智能,这似乎擦除只是几年前,已经得到解决。 深学习已经允许以高质量的语音识别。 谷歌建立自动驾驶的汽车和计算机系统,可以学会识别的猫科动物的视频。 机器人的狗步行几乎同样的方式为他们的生活的亲戚。

"开始工作,计算机的视野,语音识别。 有一定的加速发展的人工智能系统,说Bart Selman,康奈尔大学的伦理学教授和大赦国际,前者在事件与麝香。 —这一切都迫使我们直接处理与道德操守的人工智能的"。

鉴于这一显着增长,麝香和其他科学家们促请那些创造这些产品,仔细考虑道德问题。 在这次会议在波多黎各的代表签署一封公开信,呼吁做一个彻底研究所涉问题的人工智能的发展,以避免可能出现的错误。 麝香还签署。 "引领艾研究人员说,艾安全是一个非常重要的事情。 我同意他们"。

谷歌savedelete召集研究人员从DeepMind,一个公司开发的人工智能,这是获得谷歌的最后一年,还签署了信函。 在一般情况下,历史的编写追溯到2011年。 然后Jaan塔林会见了德米斯萨之后,后者介绍了在会议上的人工智能。 不久前,斯萨成立一个热启动DeepMind,塔林非常感兴趣。 由于成立Skype,他成为一个福音传教士的安全和寻找支持者。 这两人得到了谈论艾,很快的塔林投资DeepMind和最后一年,谷歌公布400万美元,用于一个公司有50个员工。 在一旦谷歌了最大的可用游泳池的人才和专家在该领域的深入学习。 谷歌不披露的野心DeepMind,但已知的是,DeepMind从事研究,这将允许机器人或自动驾驶的汽车,以更好地浏览环境。

所有这一担忧,塔林。 在演讲中,他提出了在会议在波多黎各,塔林想起了一次午餐,斯萨给他一个机学习系统,该系统可以发挥经典的游戏80年代的突破。 此外,机器掌握的游戏,她发挥了它与无情的效率感到震惊,塔林。 虽然"技师在我很惊讶有这一成就,我的另一方面是思考如何残忍可的人工智能,展示了令人难以置信的可能性,"说,塔林。

权限和禁止道德的计划已经在历史上,例如分子生物学家在会议期间于1975年艾斯洛玛尔会议的重组DNA(Belomorska会议上重组DNA),当他们商定的安全标准设计用于防止创建的人工基因改变的生物体,并威胁到公众。 们可轻松的会议又提供了更多的具体结果,于对话在波多黎各。

在这次会议在波多黎各缔约方签署了一封信,说明研究领域的优先事项的AI—经济和法律后果,以及安全人工智能系统。 昨天,伊隆*马斯已拨10百万美元用于这些研究(见下文)。 这是一个重要的第一步扣除机器人的破坏的经济。 一些公司去了甚至更进一步。 去年,加拿大制造商的机器人Clearpath机器人承诺不建立自治机用于军事用途。 "人对机器人杀手:我们支持你写道,"技术主任Clearpath机器人Ryan Gariepy在网站上的公司。

承诺不建造终结者是一个步骤。 公司开发的人工智能如谷歌需要考虑安全和法律责任,他们的自动驾驶的汽车,机器人,留下的人没有工作,并意想不到的后果的算法,可以行事不公正对的人。 例如,它是道德的观点的亚马逊出售的产品一个价格的一个人和另一个给别人? 什么是保证交易的算法并不能带来商品的市场? 什么有关的工作人员作为出租车司机和公交司机的时代,无人驾驶的运输?

Itamar阿雷尔的创始人是Binatix,该公司的深入学习,其工作在股票市场。 他不是在本会议在波多黎各,但是签署这封信不久之后阅读。 据他说,鉴于未来的革命领域的智能算法和便宜,智能机器人,所有这一切都是必要的研究和工作。 "的时机已经到来分配额外的资源,来了解所涉及的社会问题的人工智能系统将取代的蓝领工作,他说。 在我看来,这是显而易见的,他们将与发展的速度社会将不可能赶上他们。 这就是问题"。

媒体可能希望膨胀出的苍蝇说成大象,提供这种材料的标题事实上,大赦国际将奴役世界,但现实情况是更多的平淡无奇。 只是影响艾将处理在maturalne,伦理委员会和顾问关于安全和人工智能。

10万对人工intellectuelen麝香担心人工智能的研究人员可以去的错误,绝对错误的。





伊隆麝香

 

它可能看起来令人惊奇的建筑的概念性高速运输系统超回路列车,首席执行官的温特斯拉这样认为的。 但是麝香是如此严重,对此,会议结束后在波多黎各,他捐赠了10万美元以一个未来研究所生(未来的生活研究所、仿真)开发一个全球研究方案,旨在保护AI"有利于人类"。 换句话说,麝香想AI增长非常有用的,而不是危险人类。

程序和这些美元的10万赞助的研究世界各地,目的是在这个方向。 星期一仿真会打开一个门户网站,使科学家能够申请补助金项下的节目。

很长一段时间,人工智能一直留在受好莱坞和科幻小说或中讨论抽象的理念。 但如巨头谷歌包括艾入非常核心的当前及未来的技术,以及波的小型创业创建商业峰的这个科学中,我们不能否认发展的强大AI。 然而,该辩论的道德方面的问题将继续很长一段时间。

资料来源:hi-news.ru