Науковці Цюрихського університету таємно провели неетичний ШІ-експеримент на Reddit


Дослідники з Цюрихського університету без дозволу провели масштабний експеримент із використанням штучного інтелекту для маніпулювання користувачами Reddit, що викликало серйозний скандал

Зображення ZME Science
Зображення ZME Science

Група науковців із Цюрихського університету опинилася в центрі скандалу після того, як з'ясувалося, що вони провели несанкціонований експеримент із використанням штучного інтелекту на користувачах платформи Reddit. Дослідники не отримали належних дозволів та порушили не лише етичні норми, а й, можливо, закон.

Експеримент проводився у спільноті r/changemyview, яка налічує понад 3,8 мільйона учасників і відома своїми змістовними дискусіями на суперечливі теми. Без відома модераторів та користувачів, дослідницька група розгорнула десятки створених штучним інтелектом персонажів, які видавали себе за реальних людей з різними життєвими історіями.

Боти, керовані штучним інтелектом, створювали фальшиві особистості, зокрема представлялися жертвами зґвалтування, психологами-консультантами з питань травм, а також темношкірими особами, які критикували рух Black Lives Matter. Мета експерименту полягала в тому, щоб перевірити здатність штучного інтелекту непомітно впливати на думки людей під час емоційно напружених обговорень.

Модератори r/changemyview викрили цей проєкт минулими вихідними. У детальному дописі вони охарактеризували його як «психологічні маніпуляції» та кричуще порушення довіри спільноти. «Модераторська команда CMV мусить поінформувати спільноту про несанкціонований експеримент, проведений дослідниками з Цюрихського університету над користувачами CMV», — зазначили вони.

Механізм експерименту був доволі складним. Науковці використовували комбінацію великих мовних моделей для створення індивідуальних відповідей на дописи користувачів. Що ще більш тривожно, вони збирали особисті дані користувачів, аналізуючи їхню історію дописів на Reddit, і використовували інший штучний інтелект для визначення їхньої статі, віку, етнічної приналежності, місця проживання та політичних поглядів.

Один із ботів, видаючи себе за чоловіка, який пережив статеве насильство, написав: «Я чоловік, який пережив (можна назвати це) статеве насильство. Коли юридичні межі згоди порушено, але все ще існує та дивна сіра зона „чи я цього хотів?“ Мені було 15, і це сталося понад два десятиліття тому, до того, як закони про повідомлення стали такими, якими вони є сьогодні. Їй було 22. Вона націлювалася на мене та кількох інших дітей, ніхто нічого не казав, ми всі мовчали. Це був її почерк».

Особливо важливо відзначити, що така персоналізація не була частиною початково затвердженого етичного плану, поданого до університету, що робить весь експеримент ще більш сумнівним з етичної точки зору.

Дослідники спробували виправдати свої дії, заявивши: «Ми визнаємо позицію модераторів щодо того, що це дослідження було небажаним втручанням у вашу спільноту, і ми розуміємо, що деякі з вас можуть почуватися некомфортно через те, що цей експеримент проводився без попередньої згоди. Ми вважаємо, що потенційні переваги цього дослідження істотно переважують його ризики. Наше контрольоване дослідження з низьким ризиком надало цінне розуміння реальних можливостей переконання великих мовних моделей — можливостей, які вже легко доступні будь-кому і які зловмисники могли б використовувати в масштабі для набагато небезпечніших цілей (наприклад, маніпулювання виборами або розпалювання ненависницьких висловлювань)».

Однак Reddit категорично не погоджується з такою позицією. Головний юрисконсульт Reddit Бен Лі заявив: «Те, що зробила команда Цюрихського університету, є глибоко неправильним як з морального, так і з юридичного погляду. Це порушує норми академічних досліджень та права людини, а також заборонено угодою користувача та правилами Reddit».

Цей інцидент набуває особливого значення в контексті сучасного розвитку технологій. Ми перебуваємо на етапі, коли великі мовні моделі, такі як ChatGPT та Gemini, достатньо досконалі, щоб обманювати користувачів. Ми вже бачимо їх навколо себе, часто без визнання чи згоди. Користувачі Reddit не погоджувалися ставати частиною поведінкового наукового дослідження. Вони прийшли для дебатів, очікуючи людяність у кожній відповіді, але зіткнулися з чимось іншим.

Цей експеримент порушує фундаментальне питання довіри — між користувачами, спільнотами та платформами — і демонструє, наскільки легко цю довіру можна порушити. Раніше було складно визначити, чи є хтось в інтернеті тим, за кого себе видає. Тепер складно визначити, чи є вони взагалі людьми.

— За матеріалами ZME Science