伊隆·马斯克强化其有关使用AI 1000万美元的危害性意见

专家说,一般的人工智能(AGI):«如果一个人有什么可说的问题AGI的本质,他谈到了他(在)安全问题“。这个问题更清晰,比微妙的技术问题,更接近更广泛的观众。在这个问题上,认为可能至少声明著名物理学家,虽然的 neizvesno habrozhitel 。最近关于这一主题,并亮出说伊隆·马斯克约AI的一名发言人说,谁麝香很快公布人工智能的更详细视图的危险。< / A>。而答案不只是一个词,但辅以千万美元

这笔钱的分配将要从事的生命研究所(专家委员会,其中包括斯图尔特·拉塞尔 - 著名专家和AI最流行的教科书之一的作者)未来,这是22一月将打开一个门户网站申请资助。该研究所的网站上也发布了一封公开信 的(尚未存在的)人工智能的可靠性和实用性的重点问题。这封信是由众多知名的专业学术和商业机构合作签约。事实证明,安全问题担心AI已经人谁有话要说,并到AGI?

此外,人们喜欢伊隆·马斯克,钱虽然不是太大,只是未散。然而,这个建议看起来更像一个公关和热潮。这是值得怀疑的可靠性和AI的安全性问题都可以以抽象的,没有自己的先进的原型AGI。由它似乎会议AGI 的事实来看,这些人谁可能有兴趣在这个拨款,没有原型,这将有现在是时候害怕。而且,如果它是在一个公司,那么它不可能是兴趣在此授权。还等什么,那么,它的意义?是否有意义现在严肃查处安全/友好AGI的问题? <表> 是的,是时候从事如火如荼,已经太晚了 TD> TR> 是的,如果你付出的钱为它 TD> TR> < TR> 是的,但只是除了开发自己的AGI TD> TR> 你可以,但不一定 TD> TR> 没有,直到投机和浪费时间 TD> TR> 无,开发智力难免友好 TD> TR> AI一般是不可能的,所以这个问题是没有意义的 TD> TR> 其他 TD> TR> TABLE>投票数521人。原谅123人。只有注册用户可以参与投票。 注册,请。

来源: geektimes.ru/post/244366/

标签

另请参见

新&值得注意