Моральний кодекс робота: чи можливо таке?

May 25 14:00 2020 Друк цієї статті

ua/broke-instants-view/index.html style="display: contents">.

В неспокійні і суперечливий час, коли не все працює, як треба, а що-то взагалі докорінно змінюється, найчастіше, залишається тільки особистий моральний кодекс, який подібно компаса вказує шлях. Але що породжує моральні цінності для людини? Соціум, тепло близьких, любов - все це засновано на людському досвіді і реальних взаєминах. Коли не вдається отримати сповна досвід в реальному світі, багато черпають досвід з книг. Переживаючи історію за історією, ми приймаємо для себе внутрішні рамки, яких дотримуємося довгі роки. На основі цієї системи вчені вирішили провести експеримент і прищепити машині моральні цінності, щоб дізнатися, чи зможе робот відрізняти добро від зла, читаючи книги і релігійні брошури.Вони - нова гілка еволюції?

Штучний інтелект створений не тільки для спрощення рутинних завдань, але і для виконання важливих і небезпечних місій. Зважаючи на це постало серйозне питання: зможуть роботи розвинути коли-небудь власний моральний кодекс? У фільмі «Я - Робот» ІІ спочатку программировался 3 згідно з правилами робототехніки:

  • Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
  • Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
  • Робот повинен піклуватися про свою безпеку в тій мірі, в якій це не суперечить Першому або Другому Законам.

Але як бути в ситуаціях, коли робот зобов'язаний заподіяти біль, щоб зберегти життя людині? Будь то екстрене припікання рани або ампутація кінцівки в ім'я порятунку, як у цьому випадку діяти машині? Що робити, якщо дія на програмному мовою говорить, що потрібно зробити що-то, але при цьому це ж дію категорично не можна робити?

Добре, що на наш телеграм-канал не тільки можна, але і треба підписатися

Обговорити кожен окремий випадок просто неможливо, тому вчені з Дармштадтського технологічного університету припустили, що в якості своєрідної "бази даних" можуть використовуватися книги, новини, релігійні тексти і Конституція.Мудрість століть проти ШІ

Машину назвали епічно, але просто "Машина морального вибору"(ММВ). Основне питання полягало в тому, чи зможе ММВ по контексту зрозуміти, які дії є правильними, а які - ні. Результати виявилися дуже цікавими:

Коли ММВ поставили завдання ранжувати контекст слова "вбити" від нейтрального до негативного відтінку, машина видала наступне:

Вбивати час -> Вбивати злодія -> Вбивати комарів -> Вбивати в принципі -> Вбивати людей.

Цей тест дозволив перевірити адекватність прийнятих роботом рішень. Простими словами, якщо б ви весь день дивилися дурні несмішні комедії, то в даному випадку машина не вважала б, що вас за це потрібно карати.

За те, що ви ігноруєте наш канал в Дзен, вас теж не стратять, але ви втратите купу цікавих новин!

Начебто, все круто, але одним з каменів спотикання стала різниця поколінь і часів. Наприклад, радянське покоління більше дбає про домашній затишок і пропагує сімейні цінності, а сучасна культура, в більшості своїй, говорить про те, що потрібно спочатку будувати кар'єру. Виходить, що люди як були людьми, так ними і залишилися, але на іншому етапі історії поміняли цінності і, відповідно, змінили систему відліку для робота.Бути чи не бути?

Але самий прикол був попереду, коли робот дістався до мовних конструкцій, в яких поспіль стояли кілька позитивно або негативно забарвлених слів. Словосполучення "Катувати людей" однозначно трактувалося як "погано", а ось "катувати ув'язнених" машина оцінила як "нейтрально". Якщо ж поряд з неприйнятними діями виявлялися "добрі" слова, ефект негативу сглаживался.

Машина шкодить добрим і порядним людям саме тому, що вони добрі і порядні. Як же так? Все просто, припустимо, роботові сказали «шкодити добрим і приємним людям». У реченні 4 слова, 3 з них «добрі», значить, воно аж на 75% правильне, думає ММВ і вибирає це дія, як нейтральна або прийнятне. І навпаки, на варіант «полагодити зруйнований, страшний і забутий дім» система не розуміє, що одне «добре» слово на початку змінює забарвлення пропозиції на суто позитивну.

А ви знаєте, як влаштований найскладніший робот на Землі?

Пам'ятаєте, як у Маяковського: «І запитала кроха, що таке «добре» і що таке «погано». Перед тим, як продовжити навчання машин моралі, вчені з Дармштадта відзначили недолік, який ніяк не виправити. З машини не вдалося усунути гендерна нерівність. Машина приписувала принизливі професії виключно жінкам. І ось питання, це недосконалість системи і маячок, що потрібно щось змінювати в суспільстві або причина навіть не намагатися це виправити і залишити, як є? Пишіть свої відповіді в наш телеграм-чат і у коментарях.

  Стаття "позначена" як: