AI应该能够同情,不要伤害人

五十九百万八十三千三百七十一个



这个想法,即一计算机可以有意识、更多的和更多的扰乱的人。 看来不自然的,一个人形机器可以感受到的痛苦,了解的深度忧伤,或遇到一个天堂般的感觉的希望。 然而,一些专家称,这种类型的人工智能的,我们需要如果我们要抑制威胁到人类生存的杀在萌芽于这种技术,当然可以成为未来。

说到近来在剑桥大学的穆沙纳汉教授的认知机器人在伦敦帝国学院说,以消除的威胁,"人工智能人-平"或一般的人工智能(AIS)—它应该是"仿的"。

沙纳汉建议,如果部队,推动我们开发AI在人的水平,这是不可能停止,有两个选择。 将要开发或潜在危险的认可机构,它是处理无情的优化没有任何道德或他们将发展的基础上的心理,或者也许神经印象的人。

"现在,我将投票支持第二个选项,希望它将导致一种形式的和谐共存(人类),"沙纳汉的。结束人类guncelleme与史蒂芬*霍金和伊隆麝香,沙纳汉咨询研究中心的全球风险(CSER)在写一封公开信,敦促艾研究人员注意到的缺陷的发展的人工智能。

根据掩蔽,这些陷阱可以更危险比核武器,同时霍金和不相信,他们可能会导致端的人类的时代。

"原始形式的人工智能的我们已经有,并且它们已证明自己非常好,—说霍金在2014年。 但我认为,发展全人工智能可以终结针对人比赛"。还是从电影的前马基纳,这将是在2015年春天

如你所知,是不是很清楚我们是从一个发展中其他投资收益预测的范围从15至100年。 沙纳汉认为,到2100年时,他们会变得"更有可能的,但不确定的"。

不管喜不喜欢,所有危险在于什么动机会的驱动的发展途径AIS。

钱可以"引起的危险"人们担心,当前的社会、经济和政治因素,导致我们AI仿的水平,将导致我们的第一选项的两个建议Hanahana的。

"资本主义部队触发的无情进程的最大化。 这是在诱惑发展危险的事情,说:"沙纳汉,援引的例子公司或政府,这可以使用的航空情报服务部门破坏市场的操纵选举或建立新的自动化和潜在的无法控制的军事技术。"军事工业会做这个,就像其他人,因此这个过程是非常难以停止。"尽管这些危险,沙纳汉认为,这将是过早的禁止研究的人工智能在任何形式,因为目前没有理由相信,我们实际上可以达到这一点。 相反,它是有意义的直接研究方向是正确的。

仿的心灵创造gomeostaza谁是仅仅侧重于优化,不一定是恶意向的人。 然而,事实上,他可以把得到的重要目的就像自我保护或获取资源可能存在着重大风险。

如指出的,2008年,理论家的人工智能Eliezer Yudkowsky,"艾并不恨我们并不喜欢,但你做的原子,它可以使用别的东西。"

创建某种形式的动态平衡中AIS,在沙纳汉,潜在的可实施,而不破坏的文明,因为我们知道这一点。 为AIS,这将是有机会了解世界以及人民,包括能够获得知道其他人,以形成关系,通信和同情。

其中一种方式的创建像人一样的机模拟人的大脑在其结构和我们"知道何人的大脑可以实现"。 科学家两步走进一个完整的地图的大脑,更不要说复制。

人连接体项目目前正在反复的大脑和结束时将通过的2015年第三季度,虽然分析收集到的数据将继续长期后2015年。

"我们的项目将产生深远的影响的人工智能的发展,这是部分的许多努力,寻求理解大脑是如何组织如何在不同的地区一起工作,在不同的情况和执行不同的任务,"所述的珍妮弗*拦从哈曼云平台的。"迄今为止,已经有大量的通信之间的大脑图谱和人工智能的,主要是因为这两个领域都有接近理解的大脑从不同角度和不同的水平。 因为哈曼云平台的数据分析的继续,它可能是一些建模人员的大脑中包括其调查结果,以尽可能在它们的计算结构和算法的"。甚至如果这个项目将被用于协助研究人员在大赦国际,仍然可以看出它是什么能力的其他倡议喜欢的人类大脑的项目。 这提供了一个重要发展的基础的人形机器。

现在,说沙纳汉,我们应该至少了解所造成的危险发展AI没有注意到好莱坞电影或恐怖故事中的媒体,这进一步混淆了这一问题。

"我们必须考虑这些风险,并把一些资源来解决这些问题,说沙纳汉的。 —我希望,这将最后,我们数十年为克服这些障碍"。出版

资料来源:hi-news.ru