Вирощуємо етичні питання про робототехніку. Зокрема, якщо робототехніка знаходить себе в ситуації, де зіткнення неминуче і вона повинна вибрати, хто стріляти – одну людину або іншу, що буде її вибір і на якій основі буде це зробити? Це сучасний варіант проблеми вибору, який багато людей обговорювалися в курсі філософії інтродукції в університеті.
Уявіть, що робототехніка рухається по дорозі і два люди, які ходять до неї, і неможливо уникнути зіткнення з обох. Повідомляємо, що людина не може виходити з шляху, і автомобіль не може ввімкнути. Ось варіанти, запропоновані інтерв’ю:
- У роботі автомобіль може бути код, щоб зробити випадкове рішення.
- Автомобілебудування може перенести контроль для людини.
- Автомобілебудування може приймати рішення на основі набору допрограмованих метриків або набору метриків, які запрограмовані власником автомобіля.
Останній варіант заслуговує більш детального розгляду. Так що це можуть бути індикатори?
635499
Як приймати етичні рішення?
Наприклад, власник може встановити наступну настройку: у випадку вибору між дорослим і дитиною, вдарив дорослим. Автомобіль може навіть спробувати розрахувати значення одного життя або іншого з використанням систем розпізнавання. Що таке, якщо в першій людині, яка може бути вражена, автомобіль визнає кримінальне право, а в другому – вчений, що працює над винаходом ліків для раку, то машина вдарить першу.
У кожному з цих прикладів, однак, комп'ютер залишає рішення про шанс, дозволяючи іншим зробити його.
Люди роблять те ж саме: коли стикаються з рішеннями, вони захоплюють монету, просять пораду інших, або навігують думки органів влади в спробі знайти відповідь.
Однак, якщо зіткнулися з ситуаціями, які вимагають жорстких рішень, ми також робимо речі по-різному. Зокрема, в неоднозначних моментах, коли не існує очевидного вибору, ми обираємо і виправимо наше рішення про логічні причини. Правда, світ повністю відповідає таким жорстким рішенням, і як працюють автомобілі (або роботи в цілому) будуть обробляти такі варіанти для їх оформлення і прийняття суспільством.
Щоб дізнатися, як машини можуть зробити ці складні рішення, потрібно вивчити, як люди роблять їх. Це гарна ідея. Д-р Рут Чан стверджує, що жорсткі рішення визначаються як альтернативи стосуються один одного.
При прийнятті простих рішень, наприклад, одна альтернатива краще, ніж інші. Якщо ми віддаємо перевагу натуральним забарвленням до штучних кольорів, то нам нескладно підібрати колір, наприклад, фарбувати стіни приміщення - ми, ймовірно, віддаємо перевагу спокійним бежевим флуоресцентним рожевим. У випадку жорстких рішень є аргументи для кожного вибору. В цілому, ні один, ні інший не ідеальний.
Ми можемо самі зателефонувати одержувачу або узгодити зручний для вас час. Можливо, ми цінуємо життя в місті однаково і хотіли б отримати нову роботу. Таким чином, як альтернативи рівні. У цьому випадку, щоб зробити важливе рішення, необхідно переосмислити наші оригінальні значення та метрики: що важливо для нас? Життя в місті або нова робота?
З тісто рішеннями, варіанти вибору є жорсткий для порівняння
Важливо відзначити, що коли ми приймаємо рішення, нам потрібно виправдати свої причини.
Якщо ми віддаємо перевагу бежевим або флуоресцентним тонам, то сільській місцевості або певним окупаціям, ці вподобання не можна вимірювати, тобто не «більше правильним», ніж інші. Не існує об'єктивної причини сказати, наприклад, бежевий краще ніж яскраво-рожевий, і що живе в сільських районах краще. Якщо були причини, які визначилися, що один був краще, ніж інший, буде кожен знайде той самий вибір? Ми можемо самі зателефонувати одержувачу і узгодити зручний час і місце вручення квітів, а якщо необхідно, то збережемо сюрприз.
Але машина ніколи не може це зробити? Ви дивитесь. Нещодавно Google оголосив, що, наприклад, штучний інтелект був створений, який може вчитися і досягти успіху в відеоігри. Програма не отримує команд, але замість відтворення і знову, отримання досвіду і висновків. Деякі вважають, що така майстерність буде особливо корисною для роботизованих автомобілів.
Як це зробити? На відміну від робототехніки, що приймають випадкові рішення (на підставі зовнішніх команд або за допомогою попередньо запрограмованих значень і метриків), сьогоднішні роботи можуть використовувати багатство даних, які будуть зберігатися для них у хмарі, що дозволяє їм розглянути локальні закони, останні нормативні акти, люди і суспільство, а також наслідки певних рішень з часом.
У коротких роботах, як люди, повинні використовувати досвід створення власних причин прийняття рішень.
Найцікавіше, Чан говорить, що в складних випадках люди беруть участь в процесі, який можна назвати «робочими звичаями». Саме це про людей, які прилітають до уваги і вибираючи причини, які виправдовують свій вибір, і ми розглянемо це як одна з найвищих форм людського розвитку.
Коли ми зрушимо прийняття рішень іншим особам або залишимо ситуацію на шанс, це спосіб «похід з потоком». Але визначення і вибору причин, чому ми приймаємо рішення в складних випадках також залежить від характеру людини, позиції, яку він бере, вміння взяти відповідальність за свої дії; все це визначає, хто ви і дозволяє бути автором власного життя.
Крім того, коли ми приймаємо рішення, ми також беремо на себе інші люди.
Немає одного в загальному розумінні буде довірити своє життя, благополуччя або грошей на людину, яка робить випадкові рішення, попросить інших прийняти рішення для них, коли ситуація набуває жорстким, або тим, хто «збігається з потоком» в житті.
Ми довіряємо інших, щоб зробити рішення, коли ми знаємо їх значення і знаємо, що вони прийматимуть рішення відповідно до цих значень. Для того, щоб ми довіряли серйозний вибір техніки, ми повинні бути впевнені, що це також буде керуватися аналогічними принципами.
На жаль, загальна громадськість далеко від розуміння того, як штучний інтелект приймає рішення. Можливо, розробники робототехніки, безпілотники та інші смарт-автомобілі могли б зберегти цю секретну інформацію, або для занепокоєння щодо безпеки їх інтелектуальної власності або з причин безпеки. Сьогодні багато хто вважає, що штучний інтелект не може бути довірою і боятися довірити такі машини, щоб зробити важливі рішення.
І ось ми повинні повернутися до думки та висновків. Як ми переїжджаємо ближче до епоху робототехніки, роботи в наших будинках, а безпілотники, затверджені правоохоронними органами та військовими, нам більше не доведеться просто піти з потоком. Суспільство має розуміти, як роботодавці приймають рішення, а компанії та уряди повинні зробити технічну інформацію більш доступною та зрозумілою для широкого спектру потенційних користувачів.
У деяких випадках роботи можуть приймати краще рішення, ніж люди. На жаль, робототехнічні автомобілі виконуються краще, ніж драйвери людини — минулого квітня, середня — 700 000 миль без нещасних випадків. З швидкою зміною зовнішніх обставин люди не завжди можуть швидко реагувати і адекватно і часто слідують інстинктам, які не завжди вірні.
І ми все одно повинні зробити все більш складними рішеннями.
У світі, де штучний інтелект може подумати, але не обов'язково звертати увагу на те, чи буде вона покарана або оцінить своє рішення, ми повинні розвивати нові механізми за межами нашої поточної системи правосуддя і покарання, які ми застосовуємо до людського суспільства сьогодні, щоб зберегти мир. І якщо існує велика різниця між людьми і штучним інтелектом, то як ми дотримуємося законів і інтерпретуємо їх для механічного братрену стає все більш важливим.
Зіткнувшись з такими складними рішеннями, ми повинні зробити більше, ніж просто йти з потоком. Ми можемо самі зателефонувати одержувачу і узгодити зручний час і місце вручення квітів, а якщо необхідно, то збережемо сюрприз. Можливо, питання не можна приймати комплексні рішення, але чи може людина.
Джерело: www.robo-hunter.com/news/mojem-li-doverit-robotizirovannim-avtomobilyam-prinyatie-nelegkih-reshenii