АІ повинен бути в змозі псувати, щоб не завдати шкоди людині





Ідея, що комп'ютер може бути свідомим, все частіше хвилюючи людей. Здається неприродний, що людина-подібна машина може відчувати біль, зрозуміти глибину шкоду, або відчути неземний почуття надії. Тим не менш, деякі експерти стверджують, що це тип штучного інтелекту, який нам потрібно пригнічувати загрозу існування людини в бутоні, ніж ця технологія, безумовно, може стати в майбутньому.

Про це заявив професор когнітивної робототехніки в Імператорському коледжі Лондона, що для того, щоб заперечувати загрозу «людського рівня AI» — або загального штучного інтелекту (AI) — він повинен бути «людоподібним. й

Шанахан запропонував, що якщо силам, які рушать нас на розвиток штучного інтелекту, не можна зупинитися, є два варіанти. На основі психологічного або, можливо, неврологічного лику людини буде розроблена потенційно небезпечна АГ.

«Останнє зараз я б проголосували за другий варіант, надії, що це призведе до форми гармонійної співіснування», - сказав Шанахан. Разом з Стівеном Хокінгом та Елоном Муским, Шанахан консультував Центр дослідження глобальних ризиків (CSER) для складання відкритого листа, який закликав дослідників штучного інтелекту звернути увагу на «бази» у розвитку штучного інтелекту.

За словами Мускава, ці пастки можуть бути більш небезпечними, ніж ядерна зброя, при цьому Беркут вважає, що вони можуть призвести до кінця людської епохи.

«Ми вже маємо примітивні форми штучного інтелекту, і вони зарекомендували себе дуже добре», - сказав він у грудні 2014 року. Але я думаю, що розвиток повноцінного штучного інтелекту може означати кінець людської гонки. Знімок з фільму Ex machina, який буде випущений навесні 2015

Як ви знаєте, що це не зовсім зрозуміло, наскільки далеко ми розробляємо AGI — проекції від 15 до 100 років. Shanahan - сказав він 2100 буде "більше ймовірно, але не зовсім певним. й

Якщо це правда чи ні, вся небезпека полягає в тому, що мотиви будуть приводити до розробки маршруту AGI.

Гроші можуть бути «зловживання ризиком» У нас є страхи, що сучасні суспільні, економічні та політичні чинники, що призводять до нас до людського інтелекту, приведуть нас до першого з двох запропонованих Шанаханом.

«Капіталістські сили, що встановлюються в рухах безперешкодних процесів максимізації. А коли ви захочете розвивати ризикові речі, сказав Шанахан, цитуючи компанію або уряд, який може використовувати AGI для порушення ринків, rigg вибори, або створити нові автоматизовані та потенційно неконтрольовані військові технології. «Війна індустрія – це так само, як і всім іншим, тому дуже важко зупинитися». Незважаючи на ці небезпеки, Шанахан вважає, що він буде передчасним, щоб заборонити дослідження штучного інтелекту в будь-якій формі, оскільки в даний час немає причин, щоб вірити, що ми насправді можемо досягти цієї точки. А замість того, як вона має сенс стати дослідженням у правому напрямку.

Імітація розуму, щоб створити гомеостаз AGI, орієнтований виключно на оптимізацію, не обов'язково буде шкідливим для людини. Тим не менш, що це може мати інструментальне призначення, такі як самозбереження або придбання ресурсів, може призвести до значного ризику.

У 2008 році, «Ай не завадить нас або як нам, але ви зробили з атомів, які можна використовувати для чогось іншого. й

Створюючи деякі форми гомеостазу в AGI, Шан вважає, що потенціал AI може бути реалізований без знищення цивілізації, оскільки ми знаємо її. Для AGI це буде можливість зрозуміти світ як людина, в тому числі можливість розпізнати інші, формувати відносини, спілкуватися і емпататизувати.

Одним із способів створення людської машини є миття мозку людини в її структурі, і ми “знайди, як мозок людини може досягти цього”. Вчені відкидають кам'яний камінь від картування мозку, нехай тільки його повторювати.

Підключення людини В даний час ми працюємо над відновленням мозку і завершимо роботу на третій квартал 2015 року, хоча аналіз зібраних даних продовжить довго після 2015 року.

«Наш проект буде мати далекі наслідки для розвитку штучного інтелекту, і є частиною багатьох зусиль, які прагнуть зрозуміти, як мозок структурований і як різні області працюють разом в різних ситуаціях і завданнях», - зазначив Дженніфер Елам ГК. До цього не було багато зв'язку між мозковою картоплею та штучним інтелектом, переважно через два поля підіймали проблему розуміння мозку з різних кутів і на різних рівнях. Як продовжується аналіз даних HCP, швидше за все, деякі мозкові моделі можуть включати їх результати максимально в їх обчислювальні структури та алгоритми. Навіть якщо цей проект доводить до себе корисну допомогу дослідникам AI, він залишається бачити те, що інші ініціативи, такі як Man Brain Project. Все це забезпечить важливу основу для розвитку гуманоїдної машини.

Зараз Шанахан каже, що ми повинні принаймні бути в курсі небезпеки, що накладаються розвитком AI, не звертаючи багато уваги до Голлівудських фільмів або жахівських сюжетів у медіа, які далі плутають питання.

"Ми повинні думати про ці ризики і заперечувати деякі ресурси для вирішення цих питань", - сказав Шанахан. «Я сподіваюсь, що ми будемо багато десятиліть подолати ці бар’єри. й

Джерело: hi-news.ru