В чем Элон Маск был неправ насчет искусственного интеллекта Страница 1 из 2







С тех пор как фильм «Метрополис» 1927 года познакомил зрителей с первым кинематографическим злым роботом (женского пола, причем), общество отреагировало на совокупный приход идей искусственного интеллекта, роботов и других интеллектуальных систем смесью удивления и чистого ужаса. Компьютерные ученые работают над тем, чтобы свести эти страхи на нет путем введения «морали» в машины или дружелюбный искусственный интеллект.

Тем не менее основной недостаток этих усилий в том, что они признают, что проблема заключается в этой технологии — а не в нашей эмоциональной человеческой реакции на нее. Адаптация к сложности «второй машинной эпохи» требует понять наш страх, а не поддаваться ему. К сожалению, наша собственная тенденция предаваться раздутым слухами страхам может пошатнуть нашу собственную автономию в мире, который в значительной мере будет определяться автономными машинами.

Генеральный директор Tesla и известный новатор Элон Маск неоднократно предупреждал об угрозах искусственного интеллекта. В июне в интервью CNBC он заявил, что инвестировал в исследования искусственного интеллекта только потому, «что хочет пристально следить за тем, что происходит с ним». Он видит в ИИ грандиозную опасность. Терминатора или что похуже.

В августе он написал, что «нам нужно быть сверхосторожными с искусственным интеллектом. Его потенциал опаснее ядерных ракет». На недавнем симпозиуме в MIT Маск окрестил ИИ «экзистенциальной угрозой» для человеческой расы и «демоном», которого глупые ученые и технологи «пытаются призвать».

Маск сравнил мысль о том, что мы сможем управлять этой силой, с «парнем с пентаграммой и святой водой», который уверен в том, что обуздает сверхъестественную силу — пока она не пожрет его. Сам Маск предполагает, что решение этой проблемы лежит в трезвом и взвешенном сотрудничестве между учеными и политиками. Правда, непонятно, как рассуждения о «демонах» помогают его благородной цели. На самом деле, они только мешают этому.

Для начала отметим, что в сценарии Skynet зияют огромные бреши. Хотя ученые не считают, что Маск «окончательно спятил», они все еще очень далеки от мира, в котором вообще возможен сценарий возникновения такого искусственного интеллекта.

Ян Лекун, глава лаборатории искусственного интеллекта Facebook, суммировал шумиху 2013 года так:

«Шумиха опасна для ИИ. Шумиха убила искусственный интеллект четыре раза за последние пятьдесят лет. Шумиху нужно остановить. Забудьте о Терминаторе. Нам нужно тщательно взвешивать все, что мы говорим о ИИ. По сути, наш самый «умный» ИИ по развитию эквивалентен младенцу. Большинство робототехников до сих пор пытаются научить робота поднимать мяч или бегать, не падая, а не наносят последние штрихи в деле Skynet».





Лекун и другие правы относительно последствий шумихи. Несоответствие ожиданиям, выросшим на фоне научной фантастики, как правило, часто приводило к суровым сокращениям финансирования исследований в сфере ИИ. Но это не единственный риск, к которому могут привести рассуждения Маска о сверхъестественном (не искусственном) интеллекте.

Специалист по законам и политике технологий Адам Тирер разработал теорию того, что сам он называет «технопаникой» — моральной паникой на фоне расплывчатой нависшей технологической угрозы, приводимой в действие иррациональной и склонной к преувеличению толпой, а не реальной оценкой угрозы. К примеру, вместо качественных обсуждений проблем кибербезопасности американские СМИ трубят о «кибернетическом Перл-Харборе», который уничтожает информационную инфраструктуру Америки. Отметим, что проблема кибербезопасности набирает обороты в США.

Никто не берет в голову, что разрушительное воздействие Skynet было раздутым. Всем наплевать на более приземленные, но не менее серьезные вопросы об ошибках, которые существуют в программном обеспечении с открытым исходным кодом вроде OpenSSL и UNIX Bash.



  • 246
  • 21/09/2016


Поделись



Подпишись



Смотрите также

Новое