Штучний інтелект у державному управлінні викликає недовіру громадян


Дослідження показало, що громадяни значно менше підтримують використання ШІ в урядових процесах, ніж самі уряди, що може загрожувати демократії

Зображення New Scientist
Зображення New Scientist

Багато країн світу активно досліджують можливості використання штучного інтелекту для покращення державних послуг — від обробки податкових декларацій до визначення соціальних виплат. Однак нове дослідження показує, що громадяни набагато менш ентузіастично ставляться до таких ініціатив, ніж їхні уряди, що може створити серйозні ризики для демократичних процесів.

Олександр Вуттке з Мюнхенського університету Людвіга Максиміліана в Німеччині попереджає, що зосередження лише на короткострокових перевагах ефективності та блискучих технологіях ризикує спровокувати громадський протест і сприяти довгостроковому зниженню демократичної довіри та легітимності.

Вуттке разом із колегами провели опитування близько 1200 жителів Великої Британії, щоб з'ясувати їхнє ставлення до державних дій, де завдання виконує або людина, або штучний інтелект. Гіпотетичні сценарії включали обробку податкових декларацій, схвалення або відхилення заявок на соціальні виплати та оцінку ризиків щодо можливості звільнення підсудних під заставу.

Частині учасників розповіли лише про те, як штучний інтелект може покращити ефективність уряду, тоді як інші дізналися як про переваги, так і про ризики, пов'язані з використанням ШІ. До цих ризиків належали складність розуміння того, як штучний інтелект приймає рішення, зростаюча залежність уряду від ШІ, яка з часом стає менш оборотною, та відсутність чітких шляхів для громадян оскаржити та виправити рішення штучного інтелекту.

Коли люди дізналися про ризики, пов'язані зі штучним інтелектом, вони повідомили як про значне зниження довіри до уряду, так і про відчуття втрати контролю. Наприклад, відсоток учасників, які повідомили про втрату демократичного контролю над своїм урядом, зріс з 45 відсотків до понад 81 відсотка в сценаріях, де уряд ставав все більш залежним від штучного інтелекту для виконання конкретних завдань.

Частка людей, які вимагали менше штучного інтелекту в уряді, також різко зросла, коли учасники дізналися про ризики — зростаючи з менш ніж 20 відсотків у базовому сценарії до понад 65 відсотків у будь-якому сценарії, де вони дізналися як про переваги, так і про ризики використання штучного інтелекту урядом.

Незважаючи на ці результати, демократичні уряди могли б використовувати штучний інтелект відповідальними способами, які зберігають довіру громадян, каже Ханна Куей-де ла Валле з Центру демократії та технологій у Вашингтоні. Однак вона зазначає, що поки що існує мало історій успіху використання штучного інтелекту в уряді. Водночас уже є «досить багато випадків невдач», і ставки в цих випадках можуть бути неймовірно високими.

Наприклад, спроби штатів США автоматизувати обробку заявок на державні допомоги призвели до того, що десятки тисяч людей були помилково звинувачені в шахрайстві. Деякі з цих людей врешті-решт змушені були подавати на банкрутство або втрачати свої будинки. Куей-де ла Валле підкреслює, що помилки уряду мають величезний, далекосяжний вплив.

Дослідження демонструє важливість прозорості та залучення громадськості при впровадженні технологій штучного інтелекту в державному секторі. Результати показують, що інформованість громадян про потенційні ризики значно впливає на їхнє сприйняття та довіру до урядових ініціатив з використанням ШІ.

Експерти наголошують на необхідності збалансованого підходу, який враховує як технологічні можливості, так і демократичні цінності та права громадян. Це включає розробку чітких механізмів підзвітності, прозорості алгоритмів та можливостей для громадян оскаржувати автоматизовані рішення.

— За матеріалами New Scientist