363
0.1
2016-09-21
Стивен Хокинг о создании искусственного интеллекта
Известный британский физик Стивен Хокинг, в статье, вдохновленной фантастическим фильмом «Превосходство» (Transcendence) с участием Джонни Деппа в главной роли, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.
В статье, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета в Беркли и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, Хокинг указывает на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.
Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков, — цитирует британская газета Independent слова Хокинга.
Профессоры пишут, что в будущем может случиться так, что никто и ничто не сможет остановить машины с нечеловеческим интеллектом от самосовершенствования. А это запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В фильме с участием Деппа в этом значении употребляется слово «трансцендентность».
Только представьте себе, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.
Сложно сказать, какие последствия может оказать на людей искусственный интеллект. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких неприбыльных организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.
Источник: brainswork.ru
Bashny.Net. Перепечатка возможна при указании активной ссылки на данную страницу.