794
Elon Musk refuerza su opinión acerca de los peligros del uso de la IA $ 10M
Como dicen los expertos de la Inteligencia Artificial en general (AGI): «Si una persona no tiene nada que decir sobre la esencia del problema AGI, él habla sobre el problema de la (in) seguridad". Este problema es mucho más claro y más cercano público más amplio que las cuestiones técnicas sutiles. Sobre este tema, la opinión puede declarar al menos famosa físico, aunque neizvesno habrozhitel . Recientemente en este tema y brilló . < / a>. Y la respuesta no era sólo una palabra, pero respaldado por 10.000.000 dólares .
La distribución de este dinero se dedica Futuro de (comité de expertos que incluye Stuart Russell - reconocido experto y autor de uno de los libros de texto más populares en AI) Life Institute , que es 22 enero se abrirá un portal para solicitar subvenciones. El sitio del instituto también se publica una carta abierta los problemas prioritarios de fiabilidad y utilidad de la inteligencia artificial (todavía no existente). Esta carta fue firmada por muchos conocidos profesionales que trabajan en organizaciones académicas y comerciales. Resulta que, el problema de la seguridad preocupa a Amnistía Internacional ya las personas que tienen algo que decir y la AGI?
Además, la gente como Elon Musk, dinero, aunque no demasiado grande, sólo que no se dispersaron. Sin embargo, esta propuesta parece más a un PR y locura. Es dudoso que el problema de la fiabilidad y la seguridad de la IA puede ser practicado en abstracto, sin su propio avanzada AGI prototipo. A juzgar por el hecho de que parece que AGI , aquellas personas que puedan estar interesadas en esta concesión, no hay prototipo, que tendría es el momento de tener miedo. Y si es en una sociedad, entonces es probable que estés interesado en este subsidio. Entonces, ¿qué es, entonces, su significado? ¿Tiene sentido ahora seriamente lidiar con los problemas de seguridad / amigable AGI?
La distribución de este dinero se dedica Futuro de (comité de expertos que incluye Stuart Russell - reconocido experto y autor de uno de los libros de texto más populares en AI) Life Institute , que es 22 enero se abrirá un portal para solicitar subvenciones. El sitio del instituto también se publica una carta abierta los problemas prioritarios de fiabilidad y utilidad de la inteligencia artificial (todavía no existente). Esta carta fue firmada por muchos conocidos profesionales que trabajan en organizaciones académicas y comerciales. Resulta que, el problema de la seguridad preocupa a Amnistía Internacional ya las personas que tienen algo que decir y la AGI?
Además, la gente como Elon Musk, dinero, aunque no demasiado grande, sólo que no se dispersaron. Sin embargo, esta propuesta parece más a un PR y locura. Es dudoso que el problema de la fiabilidad y la seguridad de la IA puede ser practicado en abstracto, sin su propio avanzada AGI prototipo. A juzgar por el hecho de que parece que AGI , aquellas personas que puedan estar interesadas en esta concesión, no hay prototipo, que tendría es el momento de tener miedo. Y si es en una sociedad, entonces es probable que estés interesado en este subsidio. Entonces, ¿qué es, entonces, su significado? ¿Tiene sentido ahora seriamente lidiar con los problemas de seguridad / amigable AGI?
Sí, es el momento de ser contratados en pleno apogeo, ya es demasiado tarde | |
Sí, si usted paga dinero por ella < | Sí, pero sólo, además de desarrollar su propia AGI |
Se puede, pero no necesariamente | |
No, hasta que es la especulación y una pérdida de tiempo | |
No, intelecto desarrollado inevitablemente amistoso | |
AI generalmente es imposible, por lo que la pregunta carece de sentido | |
Otros Votado 521 personas. Justificada 123 personas. Sólo los usuarios registrados pueden votar en las encuestas. sesión , por favor. Fuente: geektimes.ru/post/244366/ |
Estudio sobre la vida prolongar genética vuela puede ayudar a retrasar el envejecimiento
Funda para iPhone con una segunda pantalla en la tinta electrónica