Чому Білл Гейтс (і ви) не варто боятися штучного інтелекту



Минулого тижня під час питання та відповіді на сеанс на Reddit, Білл Гейтс отримав цікаве питання від користувача: “Що загроза виживання людства є машинним суперінтелігентом, і ви думаєте, що повне шифрування всіх дій в Інтернеті може захистити нас від цієї загрози (тобто менше машин знає, краще?). й

На жаль, ворота не відповіли другу частину питання, але написав наступне:

«Я один з тих людей, які хвилюються про суперінтелекту. На першому машині буде багато роботи для нас і не бути дуже розумними. Ми можемо самі зателефонувати одержувачу. Протягом декількох десятиліть цей інтелект стане досить потужним, щоб стати проблемою. Я погоджуюсь з Елоном Муским та іншими на цьому питанні та не розуміючи, чому люди не хвилюються.

На щастя для Робопхобів, найкраща команда антитеросів майже зібрана. Elon Musk і Bill Gates є гаманцем і впливом, легендарний косметолог Стівен Гокінг є надзвичайно важливою особою. Вони не вистачає тільки рук, які здатні зробити брудні речі проти машин в цій профілактичній війні.

У зв'язку з тим, що ці настійні авангари потребують щось більш вперед: будь-який ознака, що штучна суперінтелігенція буде серйозною загрозою, або більш серйозним дослідженням.

Тим не менш, середина вирощування хістерій навколо нестійкого штучного інтелекту, є серйозні бджолині. Експерти не бачать натяку гігантського тиранного штучного інтелекту в сучасному коді. Maybe Gates, Hawking і Musk є damn розумних хлопців і знати що ми не знаємо. Але ви можете слухати провідні дослідники цього штучного інтелекту.

Коли люди обговорюють нейромережі, когнітивні обчислення та поняття штучного інтелекту, які повинні перевершувати людський інтелект, вони також говорять про машинне та глибоке навчання. Якщо хтось знає це час, щоб панікувати, це ці хлопці.

Ось Dilip Jord, співзасновник штучного інтелекту Vicarious, що говорить про ризики суперінтеграції:

Історія пам’ятає багато паніків навколо різноманітних технологій, від пародвигуна до ядерної енергії та біотехнології. Ви продаєте більше газет і кіно квитків, якщо ви граєте в хістерії, і зараз, на мій погляд, те ж саме відбувається: люди вболівальники бояться навколо штучного інтелекту. Як науковці, нам необхідно освітити громадськість про різницю між Голлівудом і реальністю. АІ-спільнота ще не на межі створення чогось, як це турбуватися. й

Цей вид Vicarious не тільки за рахунок постійної роботи компанії на штучному інтелекті, але й через те, що Elon Musk запровадив стартап в рамках свого погляду за завісою. М'як розповів ЦНБ, що він інвестував у Викарі "не збити інвестиції, але зуміти зберегти очі на штучний інтелект". Він також написав, що «лідируючі компанії AI приймають серйозні кроки для забезпечення безпеки». Вони усвідомлюють небезпеку, що вони вважають, що вони можуть формувати і контролювати цифрову надінтелектуючу здатність і запобігти її від еспікінгу інтернету. Давайте подивимося.

Коли попросили Vicarious скільки часу і ресурсів, які вони позбавлені захисту від штучного інтелекту, Скотт Фенікс, інший співзасновник Vicarious сказав:

«Основний інтелект не з'являється випадково або раптом. Ми на самому початку досліджень, як побудувати базову систему інтелекту, і ще є довгий процес повторення і навчання такої системи, досліджуючи шляхи її створення і способи її захисту. й

Викарний не займається суперінтелігуванням. Він навіть на радарі. Що говорить про те, що мускус говорить про те, і про які серйозно хвилювалися, згідно з ним, кажуть, що поганий суперінтелігент не «біг в Інтернеті»? Як ви будуєте тюрма для демона, коли немає демонів?

Ось як, коли просили, як компанії активно тримають AI, Ян Лекун, директор з дослідження AI в Facebook, сказав:

Деякі люди задаються питанням, як запобігти гіпотетичних надінтелентних беневоентних штучних інтелектів від «репрограмування» і забезпечення того, що весь людства п'яний. Більшість цих людей не самі дослідники AI, не навіть програмістів.

LeCun також вказує на одне джерело злиття: різницю між інтелектом і автономією.

«Для того, щоб ви не мали автономії. Наприклад, шахова програма, яка може збити практично будь-який. Чи є вона суперінтелігенція? Дуже скоро автопілоти і самодозвілі автомобілі будуть більш надійними, ніж люди. Це означає, що вони розумні, ніж люди? У дуже вузькому сенсі ці системи будуть «більше інтелектуальних», ніж люди, але їх експертизу будуть лежати в дуже вузькій області і системи будуть дуже мало автономії. Вони не зможуть виходити за рецептами. й

Це важлива відмінність, і вона описує добре паніку, яка муска, гончарство, і тепер шлюки приглушені. АІ може бути розумним і креативним. Більш важливим чином, AI не керується деякими цифровими еквівалентами біологічної еволюціональної шляхової дороги, конкуруючи та репродукція з кожним мутацій краще і доки він досягає суперінтелекту. Ні, що не працює AI.

Алгоритм пошуку швидше, ніж будь-яка людина, але це ніколи не виросте етичний код, і він не приховує відеографію своїм смаком і кольором. Уявіть, як штучний інтелект людини раптово і безперечно виростає з ніде. А якщо ви вірите в одне диво, чому не додати іншого, скажеш, самозбираючу суперінтелігію?

LeCun захищає Муск, претендує на його коментарі, що порівняли AI на ядерну зброю, був «загублений, але й непідступний».

Елон дуже стурбований існуючими загрозами для людства (що саме тому він будує ракети, які можуть надсилати людям для колонізації інших планет). Навіть якщо ризик виникнення штучного інтелекту недбалий і недбалий, ми повинні подумати про це, побудувати профілактичні захисти, дотримуватися суворо визначених правил. У «70-ті роки і «80-ті роки, навіть до генетичної інженерії, ми повинні створювати обмеження на етику штучного інтелекту. Але, як Yoshua прямо говорить, у нас є багато часу. Наші системи перетворюють людей в дуже вузьких зонах, але загальний рівень AI не приїжджає незабаром, можливо, протягом декількох десятиліть, нехай єдиний автономний AI, який ніколи не може бути побудований.

Вчений, який мав щось сказати на предметі, був зазначений у попередньому пункті. Йошуа Бренгіон є керівником лабораторії машинного навчання в Університеті Монреаль, одним з піонерів підполу глибокого навчання (все з LeCun). Ось його погляд, що дослідження штучного інтелекту загрожує небезпекою:

«Чи не є правдою для цього погляду при перегляді в контексті сучасних штучних досліджень». Більшість людей не розуміють, як примітивні системи, які ми будуємо, і на жаль, багато журналістів (і деякі вчені) поширюють страхи про AI, які повністю виходять з реальності. Ми будемо радіти тому, що ми будемо будувати пральну машину в найближчому майбутньому. Так, ці алгоритми вже мають корисні додатки, і буде більше. По суті, я вірю, що людина буде одним днем будувати машини, які так розумні, як люди багато способів. Тим не менш, це буде в далекому майбутньому, тому поточні дебати є відходами часу. Коли питання стає пресуванням, звичайно, ми зберемо науковців, філософів і юристів, щоб визначити кращі способи запобігання наслідків, які наразі належать до наукової фантастики.

Якщо суперінтелігенція неминуча, Bengio сказав:

«Важко відповісти на це питання без всіх строгостей наукового складання. Я бачу багато хороших математичних і обчислювальних причин, чому дослідження штучного інтелекту буде одним днем прийти до вистилу (з огляду на доцільність зростання складності) в якому вводиться людський інтелект - що, в принципі, також пояснює, чому дельфіни і слони, хоча відрізнялися великими мозкуми, не надінтелентними. Ми просто не знаємо, щоб піти будь-яке інше, ніж припущення в цьому питанні. Якщо ця гіпотеза сповіщає, ми будемо мати комп'ютери, які як смарт, так і люди, але мають більш швидкий доступ до знань. Але тоді люди також можуть отримати доступ до цієї інформації (за принципом, ми вже робимо це, але повільно через алгоритми пошуку). Звичайно, це не має нічого спільного. Я думаю, що AI допомагає розуму, так само як Промислова Революція допомагає рукам за останні два роки.

Як зауважити, що AI є «потужним більш небезпечним, ніж ядерна зброя» і має бути більш обережним з ним, Bengio адресує присутнім без збивання дверей до невідомого майбутнього:

«Чи не здогадується. Що можна змінити в майбутньому, але зараз ми здогадуємо кавові підстави. Коли ми отримуємо там, звичайно, ми думаємо серйозно. й

Тема обговорення – час. Коли ви поговорите з дослідниками AI — знову, зокрема, дослідниками AI, люди, які працюють з цими системами — вони не дуже хвилюються про надінтелектуючу знеболювання на них (стапів, бігти!). На відміну від кризових оповідань, що Муск читав, дослідники штучного інтелекту навіть не зобов’язані обговорювати суперінтелігенція, вона не існує навіть у планах. Чи є Білл Гейтс прямо?

Джерело: hi-news.ru