Переклала Аліна Полівода

Технології, засновані на штучному інтелекті, революціонізують людське життя. Ці машини дедалі більше інтегруються у наше повсякденне життя, і рішення, з якими вони стикаються, дедалі частіше виходитимуть за межі суто прагматичної сфери — у сферу етичного. Чи має безпілотний автомобіль у разі неминучої аварії захищати своїх пасажирів чи мінімізувати загальну кількість загиблих? Чи має безпілотний літак атакувати групу терористів, які планують напад, навіть якщо це призведе до жертв серед цивільного населення? Оскільки машини зі штучним інтелектом стають дедалі більш автономними, ці питання неможливо ігнорувати.

Існують вагомі аргументи на користь того, що деякі етичні рішення варто залишити комп’ютерам: на відміну від людей, машини не мають когнітивних упереджень, не відчувають втоми і не плекають ненависті до ворога. Етичний штучний інтелект, у принципі, може бути запрограмований на відображення цінностей та правил ідеального морального суб’єкта. Можна навіть сказати, що ці машини, вільні від людських обмежень, прийматимуть кращі моральні рішення, ніж ми. Однак ідея про те, що машини можуть отримати владу над прийняттям моральних рішень, у багатьох людей викликає занепокоєння — аж до того, що дехто сприймає використання машин як фундаментальну загрозу людській гідності. Чому ми так неохоче довіряємо машинам, коли йдеться про прийняття моральних рішень? Психологічні дослідження підказують: схоже, ми маємо глибоко закорінену недовіру до індивідів, які приймають моральні рішення, підраховуючи витрати та вигоди — саме так, як це роблять комп’ютери.

Ці висновки погано поєднуються з давньою філософською традицією, яка стверджує, що прорахунок наслідків — саме той спосіб, яким і слід приймати моральні рішення. Ця школа мислення (слушно названа консеквенціалізмом) запевняє, що рішення морально коректне тоді і тільки тоді, коли воно призводить до кращих наслідків. Проте більшість нефілософів вважає такий підхід до етичних суджень незадовільним. Натомість людські моральні інтуїції зазвичай керуються набором моральних правил, згідно з якими певні дії «просто неправильні», навіть якщо вони ведуть до хороших наслідків.

Цю відразу до консеквенціалізму продемонстровано в багатьох психологічних дослідженнях, що ставили перед учасниками гіпотетичні моральні дилеми, в яких консенквенціалізм протистояв моралі, більше орієнтованій на правила. Наприклад, у «дилемі пішохідного моста» учасникам кажуть, що нестримний поїзд має вбити п’ятьох невинних людей, які застрягли на залізничній колії. Його рух можна точно зупинити, якщо зіштовхнути вниз кремезного чоловіка, який якраз стоїть на маленькому пішохідному мосту над колією і тіло якого зупинить вагонетку, перш ніж вона вб’є п’ятьох інших. Більшість людей вважає, що неправильно штовхати чоловіка на смерть, попри хороші наслідки.

Як, у такому разі, ми ставимося до меншості, яка здатна холоднокровно пожертвувати чиїмсь життям заради «спільного блага»? У своїй статті, опублікованій минулого року в Journal of Experimental Psychology, ми представили докази того, що консеквенціалізм може бути перешкодою у соціальних відносинах. Іншими словами, бути консеквенціалістом значить бути менш популярним.

Ми аргументували це тим, що люди, які дотримуються певних моральних правил — навіть якщо це може призвести до гірших наслідків — будуть більш бажаними у якості соціальних партнерів. У цьому є сенс: ми не можемо спокійно жити з думкою про те, що друг чи партнер розраховує витрати та вигоди від зради, брехні чи прирікання нас на смерть. Судження, засновані на правилах, служать цінним сигналом про наші зобов’язання (можливо, частково тому, що вони повідомляють, що у нас є певні емоційні реакції на те, як ми поводимося з іншими).

Це саме те, що ми й виявили у своєму дослідженні: у всіх дев’ятьох експериментах, у яких були залучені більш ніж 2400 учасників, люди, які віддавали перевагу правилам у низці моральних дилем із жертвами (у тому числі і в дилемі пішохідного моста), викликали в інших учасників більше довіри, ніж ті, хто в своїх судженнях спирався на наслідки тих чи інших дій. Крім того, ті, хто дотримувався моральних абсолютів, отримали ще й фінансову перевагу. У ході економічної гри, розробленої для оцінки рівня довіри, ми виявили, що учасники довіряли більше грошей і були більш упевнені в тому, що зможуть їх повернути, коли мали справу з кимось, хто відмовився пожертвувати людьми заради вищого блага, у порівнянні з тими, хто приймав моральне рішення на основі наслідків.

Але не всі однозначно засуджували консеквенціалістів. Тим, хто зазначив, що їм важко підтримати жертвування однією людиною заради спасіння багатьох, довіряли так само, як і тим, хто стверджував, що такий вчинок неприйнятний за будь-яких обставин. У цих випадках наявність внутрішнього конфлікту щодо того, яке рішення слід прийняти, слугувала позитивним сигналом про людину — ймовірно, вказуючи на те, що, попри своє рішення, ця людина відчуває вагу моральних правил.

Як ці висновки пов’язані з роботами? Наприклад, вони вказують на потенційне джерело нашої недовіри до машин, коли йдеться про мораль: штучному інтелекту бракує саме тих властивостей, які ми використовуємо для оцінки благонадійності інших. Ми воліємо бачити в інших людях (ймовірно) ірраціональну відданість певним правилам незалежно від наслідків і віддаємо перевагу тим, хто у своїх моральних рішеннях керується соціальними емоціями, такими як почуття провини та емпатія. Якщо ви прихильник правил, то це багато що говорить про вашу психологію. Навіть якби машини були спроможні досконало імітувати людські моральні судження, ми б усе одно знали, що комп’ютер не вивів ці судження з тих же підстав, що і ми. Незалежно від того, які рішення прийматиме робот, саме те, як він прийматиме ці рішення — шляхом проведення розрахунків — викликатиме недовіру людей у контексті моралі. Справді, Human Rights Watch у своїй недавній доповіді виступає за введення мораторію на дослідження, які направлені на створення «роботів-убивць», тому що такі роботи не відчуватимуть «природних людських обмежень, які заважають нам вбивати чи ранити інших людей».

Іншими словами, для нас може бути недостатньо, що машини виносять правильні судження — навіть ідеальні судження. Ми хочемо, щоб ці судження були результатом тих самих психологічних процесів, які змушують і нас їх робити — тобто емоційних реакцій та інтуїтивних відповідей, які еволюціонували, аби зробити нас виразно моральними істотами. Поки технології не здатні на таку майстерність, будь-які спроби створити етично автономні машини, швидше за все, будуть сприйняті з підозрою. Або, можливо, ми побачимо, що корінь проблеми не в роботах, а в нашій власній психології.

Джерело: The Guardian

Якщо ви помітили помилку, виділіть її і натисніть Ctrl+Enter.