Елон Муск – це активні дослідницькі групи для дослідження, чи є штучним інтелектом.




Рекламний плакат для фільму «Термінатор: Genesis»

Минулого тижня Інститут Життя (FLI), приватний некомерційний фонд на основі Бостона, оголосив, що він отримав значне фінансування на 10 мільйонів доларів. Об'єм донорської пожертви $7 був здійснений Елоном Муским, решта грошей було додано ще однією некомерційною організацією, проектом Open Philanthropy. Основна робота ФЛІ – знайти та фінансувати спеціалізовані дослідницькі групи, які працюють в галузі штучного інтелекту. Однією з цілей, установлених для науковців, які отримують гранти від FLI, є розвиток «управління розумом», що є безпечним для людства, що не призведе до глобальної катастрофи в майбутньому.

Мільйони доларів від команди SpaceX та групи проекту Open Philanthropy поділяться між 37 дослідницькими групами, які працюють у відомих університетах та добре налагоджені. BusinessInsider публікує деякі з цих дослідницьких проектів. Наприклад, спільна група вчених з університетів Берклі та Дубфорда займається створенням алгоритмів, які навчаються у людських вподобаннях, які в майбутньому допоможуть штучному інтелекту бути людиною. Дослідники Дюкського університету в Північній Кароліні створили більш амбітну мету: вони хочуть розвивати систему штучного інтелекту, яка може приймати рішення на основі «людної моральності». У Університеті Денвера фактично працюють над способами протидії Skynet, що виникають з можливих втрат контролю над робототехнікою.

Наприкінці листопада минулого року Єлон Муск відзначив публічну дискусію про безпеку штучного інтелекту. Судячи від голови SpaceX, він бородавний можливості комп'ютерів, які думають і прогнозують виникнення «зловживання дуже небезпечно протягом 5-10 років», що означає цю небезпеку тільки AI. З невідомих причин коментар Муска зникнув кілька хвилин після публікації, але інші користувачі Edge.org вдалося зберегти його як скріншот. У майбутньому надала офіційну думку свого боса, але це, очевидно, не сталося.

Слід зазначити, що Муск фактично дотримується думки відомого британського вченого Стівена Гокінга, який раніше заявив: «Всі ці досягнення [в розробці штучного інтелекту] блідий на тлі чого чекає нас на найближчі десятиліття». Успішне створення штучного інтелекту буде найбільшою подією в історії людства. На жаль, це може бути останнє, якщо ми не знаємо, щоб уникнути ризиків. Захар Беркут вважає, що є занадто кілька серйозних наукових праць, присвячених вивченню безпеки AI і занадто мало наукових організацій, які можуть це зробити. Цікаво, серед таких організацій, які зауважили ФЛ. Чи не існує ніякого зв’язку між Стівеном Хокінгом та Елоном Муским невідомим.

Є альтернативна точка зору з науковців, однак, не з такою великою назвою професора Hawking. Вони вважають, що питання штучного інтелекту, що виходить з контролінгу, є більш темою для художніх фільмів, ніж серйозні проблеми. Ви можете прочитати свої аналоги тут.

Джерело: geektimes.ru/post/253088/