792
Елон Муск повернувся до свого погляду на небезпеку AI з $10M
«Якщо людина не має нічого сказати про сутність проблеми AGI, вони говорять про проблему їх (безпечна) небезпеки.» Ця проблема набагато чіткіше і ближче до ширшої аудиторії, ніж тонкі технічні питання. У цьому питанні його думка може бути зазначена, хоча б відомий фізик, хоча б невідомий перегруження. Нещодавно на цій темі спалахнула і заява Елона Муска про небезпеку AI, яка розповіла, що незабаром Муск буде опублікувати більш детальну думку про штучний інтелект. І це відповідь не тільки дієсловно, але й повернулася до $10 млн.
Розповсюдження цих грошей буде оброблятися Інститутом Життя (який експертний панель включає в себе Stuart Russell, відомий фахівець і автор одного з найпопулярніших навчальних посібників на AI), який відкриє портал для застосування грантів 22 січня. На сайті цього інституту є також відкритий лист про пріоритетність проблеми надійності та корисності штучного інтелекту (не ще існуючого). Цей лист підписаний багатьма відомими професіоналами, які працюють в академічних та комерційних організаціях. Виявляється, що проблема AI безпеки вже турбує людей, які мають щось сказати і по суті AGI?
Крім того, люди люблять Елон Муск, гроші, нехай не занадто великий, просто не кинути. А ще така пропозиція виглядає більш як PR і припустимо до моди. Впевнений, що проблема надійності та безпеки AI може бути пов’язана з анотаціями, без власного сучасного прототипу AGI. На конференції AGI не існує прототипу для тих, хто може зацікавити такий грант. І якщо у будь-якій корпорації є, навряд чи це буде цікаво. Так що саме тоді? Чи має сенс зараз серйозно звернутися до питань безпечної та безпечної AGI? Так, якщо ви платите гроші за це Так, але тільки крім того, щоб розробити належну AGI Можливо, але не обов'язково немає, поки вона спекуляція і відходи часу Ні, розвинутого інтелекту неминуче стане дружнім AI, тому питання безглуздим Інші голосовані 521 осіб. 123 человек. Тільки зареєстровані користувачі можуть брати участь у опитуванні. Приходьте, будь ласка,
Джерело: geektimes.ru/post/244366/
Розповсюдження цих грошей буде оброблятися Інститутом Життя (який експертний панель включає в себе Stuart Russell, відомий фахівець і автор одного з найпопулярніших навчальних посібників на AI), який відкриє портал для застосування грантів 22 січня. На сайті цього інституту є також відкритий лист про пріоритетність проблеми надійності та корисності штучного інтелекту (не ще існуючого). Цей лист підписаний багатьма відомими професіоналами, які працюють в академічних та комерційних організаціях. Виявляється, що проблема AI безпеки вже турбує людей, які мають щось сказати і по суті AGI?
Крім того, люди люблять Елон Муск, гроші, нехай не занадто великий, просто не кинути. А ще така пропозиція виглядає більш як PR і припустимо до моди. Впевнений, що проблема надійності та безпеки AI може бути пов’язана з анотаціями, без власного сучасного прототипу AGI. На конференції AGI не існує прототипу для тих, хто може зацікавити такий грант. І якщо у будь-якій корпорації є, навряд чи це буде цікаво. Так що саме тоді? Чи має сенс зараз серйозно звернутися до питань безпечної та безпечної AGI? Так, якщо ви платите гроші за це Так, але тільки крім того, щоб розробити належну AGI Можливо, але не обов'язково немає, поки вона спекуляція і відходи часу Ні, розвинутого інтелекту неминуче стане дружнім AI, тому питання безглуздим Інші голосовані 521 осіб. 123 человек. Тільки зареєстровані користувачі можуть брати участь у опитуванні. Приходьте, будь ласка,
Джерело: geektimes.ru/post/244366/
Вивчення генетичного продовження життя пластівців може допомогти повільному старінню
й Корпус телефону з другим екраном на e-ink