Переклала Даша Подгорнова
Редагував Вадим Гудима
На думку деяких видатних постатей зі світу технологій, штучний інтелект може загрожувати існуванню людства: попередження від таких корифеїв, як Елон Маск і Нік Бостром, щодо «сингулярності» — коли машини стануть розумнішими, ніж люди — залучили мільйони доларів і породили безліч конференцій.
Але це занепокоєння лише відволікає від цілком реальних проблем, пов’язаних зі штучним інтелектом, які вже сьогодні поглиблюють нерівність на робочих місцях, вдома, у наших правових і судових системах. Сексизм, расизм та інші форми дискримінації вже вбудовані в алгоритми машинного навчання, які лежать в основі багатьох «розумних» систем, що визначають, як нас категоризувати та що нам рекламувати.
Візьмемо маленький приклад, що трапився минулого року: користувачі помітили, що фотододаток від Google, який автоматично прикріпляє мітки до фотографій у цифрових альбомах, класифікував зображення темношкірих людей як горил. Google вибачився і сказав, що це було ненавмисно.
Але схожі помилки виникали й у програмному забезпеченні камери Nikon, якій здалося, що азійці на фотографіях кліпають. Веб-камера Hewlett-Packard також мала труднощі з розпізнаванням людей із темними відтінками шкіри.
По суті, це проблема наборів даних. Розробники вчать алгоритми, пропускаючи крізь них певні зображення, які часто обирають інженери, — і система будує модель світу на основі цих зображень. Якщо система навчається на фото, переважна більшість яких — це зображення білих людей, то їй буде складніше розпізнати небіле обличчя.
Дуже серйозний приклад був виявлений у розслідуванні, опублікованому ProPublica минулого місяця. Воно виявило, що дуже поширене програмне забезпечення, яке оцінює ризик рецидивізму серед злочинців, з удвічі більшою ймовірністю помилково визначало темношкірих обвинувачених як таких, що мають вищий ризик скоїти злочин у майбутньому. Білі обвинувачені також вдвічі частіше помилково були оцінені як такі, що мають менший ризик рецидиву.
Досі невідомо, чому ці передбачення настільки неточні, бо компанії, що відповідають за ці алгоритми, тримають формули в таємниці як приватну інтелектуальну власність. Судді по-різному враховують автоматизовані оцінки ризику — дехто зовсім на них не зважає — але, у будь-якому випадку, у них немає можливості зрозуміти логіку, якою керуються ці машинні алгоритми.
Поліцейські відділки по всій території США також використовують засновані на даних засоби для передбачення ризиків у рамках базованих на прогнозах заходів із запобігання злочинам. У багатьох містах, зокрема у Нью-Йорку, Лос-Анджелесі, Чикаго та Маямі, програмне забезпечення аналізує великі масиви історичних даних щодо злочинності та використовує їх для передбачення потенційних кримінальних «гарячих точок». Саме у ці квартали потім спрямовують поліцію.
Щонайменше, це програмне забезпечення ризикує посилити вже наявне порочне коло, в якому поліція збільшує свою присутність у тих самих місцях, де вона вже й так (іноді надмірно) присутня, тим самим гарантуючи, що ще більше арештів відбудуться саме в цих районах. У США це може призвести до посилення нагляду у традиційно бідних, «небілих» районах, у той час як багаті й «білі» райони будуть перевіряти ще менш ретельно. Якість прогностичних програм залежить від якості баз даних, на яких вони «натреновані» — а ці дані мають складну історію.
Історія дискримінації може зберігатися на цифрових платформах, і якщо її не перевіряють, вона стає частиною логіки повсякденних алгоритмічних систем. Нещодавно відбувся черговий скандал: виявилося, що доставка Amazon, яка виконує замовлення у той самий день, була недоступна для поштових індексів у переважно «чорних» кварталів. Ці проігноровані райони були напрочуд подібні до тих, які постраждали від масової відмови надавати іпотечні кредити в середині ХХ століття.
Amazon пообіцяв виправити несправедливість, але це ще одне підтвердження того, що системна нерівність може впливати на машинний інтелект.
Також існують випадки гендерної дискримінації. У липні минулого року дослідники з університету Карнегі-Меллон з’ясували, що Google рідше показує рекламу високооплачуваної роботи жінкам, ніж чоловікам. Через складність алгоритмів, які показують цільову рекламу користувачам, важко сказати, чому так сталося: чи це рекламні агенції віддають перевагу саме чоловікам, чи це ненавмисний наслідок роботи алгоритмів.
Як би там не було, такі недоліки в алгоритмах складно виявити: адже як жінка може подаватися на вакансії, які вона ніколи не побачить? Як може темношкіра громада виявити, що надмір поліції спричинений рішенням програмного забезпечення?
Ми маємо бути пильними з тим, як ми розробляємо ці системи машинного навчання і які дані вкладаємо у них, інакше ризикуємо розвинути форми дискримінації, вбудовані у штучний інтелект майбутнього.
Як і всі технології у всі часи, штучний інтелект відображає цінності своїх творців. Тому важлива інклюзивність на всіх рівнях — від тих, хто проектує технологію, до тих, хто входить до ради директорів — та вибір етичних перспектив, які при цьому будуть враховані. Інакше ми ризикуємо сконструювати штучний інтелект, який віддзеркалює погляди вузького привілейованого прошарку суспільства, сповненого старих і таких звичних стереотипів.
Якщо ми вже зараз з’ясуємо, як такі системи можуть підтримувати дискримінацію, то у майбутньому ми зможемо проектувати значно більш справедливий штучний інтелект. Але це вимагатиме набагато більшої підзвітності від технологічної спільноти. Держава та публічні інституції також мають зіграти свою роль: не лише інвестувати в прогностичні технології, а й стежити за справедливістю та дотриманням належних процедур.
Хоча технології машинного навчання можуть запропонувати несподівані ідеї та нові зручності, все ж ми маємо працювати над поточними наслідками такого прогресу для громад, що мають менше впливу — для тих, хто не домінує серед еліти Кремнієвої долини.
Наразі у дискусіях на тему потенційних загроз штучного інтелекту найгучніше чутно голоси привілейованих білих чоловіків, для яких найбільшим ризиком справді є потенційне становлення штучного інтелекту як домінантного хижака.
Але для тих, хто й так є є жертвами маргіналізації та упередження, загроза вже втілюється в життя.
Перекладено за: New York Times