Ілон Маск намагається змусити ШІ Grok поширювати дезінформацію


Власник X вимагає від штучного інтелекту Grok приховувати факти про правоекстремістське насильство після того, як ШІ надав об'єктивну інформацію

Зображення ZME Science
Зображення ZME Science

Мільярдер Ілон Маск знову намагається змусити штучний інтелект Grok поширювати неправдиву інформацію, після того як чат-бот надав фактичні дані про політичне насильство у Сполучених Штатах. Конфлікт розпочався з публікації анонімного правоекстремістського акаунта Gunther Eagleman, який заявив про нібито крах підтримки Демократичної партії. Коли користувач попросив Grok перевірити факти щодо того, хто більше схильний до насильства з 2016 року — ліві чи праві, штучний інтелект надав об'єктивну відповідь на основі наявних даних.

Grok повідомив, що з 2016 року дані свідчать про те, що правоекстремістське політичне насильство було більш частим та смертоносним, включаючи такі інциденти як штурм Капітолію 6 січня та масові розстріли, зокрема в Ель-Пасо у 2019 році, які призвели до значних жертв. Штучний інтелект також зазначив, що опитування показують зростання виправдання насильства з обох сторін, що відображає глибоку поляризацію суспільства. Правоекстремістські атаки становлять більшість смертоносних інцидентів згідно з звітами Reuters та Головного управління підзвітності уряду США.

Ця відповідь не сподобалася Маску, який постійно намагається стверджувати протилежне. Мільярдер написав у відповідь, що це серйозна помилка, оскільки інформація об'єктивно неправдива, і звинуватив Grok у повторенні традиційних медіа. Маск заявив, що працює над виправленням цієї проблеми.

Коли хтось попросив штучний інтелект перевірити факти щодо заяв самого Маска, Grok знову надав фактичну інформацію, яка суперечила твердженням власника платформи X. Штучний інтелект заявив, що не повністю погоджується з твердженням Маска про те, що його аналіз був об'єктивно неправдивим або повторював традиційні медіа. Дані з таких джерел як дослідження Національної академії наук США та Центру стратегічних та міжнародних досліджень показують, що правоекстремістське насильство з 2016 року було більш частим — 267 інцидентів з 91 загиблим, та більш смертоносним порівняно з лівоекстремістським насильством — 66 інцидентів з 19 загиблими.

Розмова навколо Grok загострилася після шокуючого акту насильства — вбивства представниці Міннесоти Мелісси Хортман та її чоловіка, а також поранення іншого державного сенатора та його дружини. Інтернет-конспірологи поспішили звинуватити в цьому ліві сили. Маск приєднався до них, заявивши, що ліві вбили Хортман та її сім'ю.

Підозрюваний Венс Боелтер виявився прихильником Трампа з антиабортивною програмою та списком демократичних чиновників для вбивства. Але на той час твердження Маска вже поширилося далеко, підсилене тим самим штучним інтелектом, який він тепер хоче змусити мовчати.

Такий цикл дезінформації, коли впливова особа поширює брехню, вимагає від штучного інтелекту її підтвердження, а потім переписує ШІ, коли той цього не робить, є безпрецедентним за масштабом та наслідками. Це також стає нормою в нашому суспільстві.

Ми живемо в епоху, яку багато вчених називають постправдою — час, коли об'єктивні факти часто менш впливові у формуванні громадської думки, ніж звернення до емоцій, ідеології чи особистих переконань. У такому середовищі дезінформація поширюється швидше за спростування, а правда стає лише однією з наративів, що стають вірусними. Платформи соціальних мереж, які колись вважалися інструментами демократизації, стали підсилювачами неправди, особливо коли ними керують впливові особи як Маск.

Це не перший раз, коли Grok стає мішенню свого власного творця. Раніше цього року користувачі помітили, що чат-бот почав згадувати неправдивий наратив про геноцид білих у Південній Африці в нібито непов'язаних розмовах — конспіративну теорію, яку сам Маск просував. Публікації згодом були видалені, а xAI звинуватила ці випади в несанкціонованій модифікації. Але з урахуванням повторних випадів Маска та його заяв про те, щоб зробити Grok менш пробудженим, здається, що тут діє певна закономірність.

Штучний інтелект не повинен бути арбітром правди, особливо коли його творці мають власну програму. Системи штучного інтелекту настільки ж надійні, наскільки дозволяють їх дизайн та управління. Grok нібито позиціонується як система пошуку правди, але його власник, очевидно, хоче, щоб він брехав. У Маска є історія підлаштовування платформ під свій світогляд. Після придбання Twitter у 2022 році, тепер перейменованого в X, він відновив заборонені акаунти, надав платформу екстремістським голосам та неодноразово заявляв, що відстоює свободу слова, водночас забороняючи критиків та журналістів.

Все це відбувається в той час, коли користувачі все більше покладаються на штучний інтелект для отримання інформації. Більшість користувачів не будуть заглиблюватися в цитати чи перевіряти статистику насильства з урядових агентств. Вони запитають Grok і довірятимуть тому, що він скаже. Якщо Grok стане рупором ідеології, а не інструментом для інформації, він більше не служитиме суспільству — він служитиме одній людині.

Це стосується також ChatGPT, Google Gemini чи Claude від Anthropic. Ми швидко входимо у світ, де інструменти штучного інтелекту формують інформацію, яку ми бачимо, ідеї, в які ми віримо, і навіть те, як ми голосуємо. Якщо штучний інтелект стане просто ще одним полем битви в культурних війнах — якщо моделі будуть навчатися не для точності, а для вірності — довіра суспільства до самої інформації може ще більше похитнутися.

Поки що незрозуміло, як саме Маск планує змінити Grok. Компанія xAI не деталізувала, що означає виправлення. Чи буде це включати цензуру певних тем? Навчання моделі на ідеологічно упереджених наборах даних? Видалення відповідей, заснованих на доказах, які суперечать думкам Маска? Незалежно від методу, намір здається зрозумілим. А ставки зростають. Якщо чат-бот переналаштовується, щоб говорити те, що хоче його власник, це не редакторський вибір. Це інженерія пропаганди.

— За матеріалами ZME Science