Штучний інтелект виявляє ті самі когнітивні упередження, що й люди


Дослідники з Канади та Австралії виявили, що ChatGPT демонструє майже половину поширених людських упереджень при прийнятті рішень, попри свою логічну природу

Зображення Live Science
Зображення Live Science

Нове дослідження, опубліковане 8 квітня в журналі Manufacturing & Service Operations Management, виявило несподівану схожість між штучним інтелектом та людьми у схильності до ірраціональних рішень. Науковці з п'яти академічних установ Канади та Австралії провели комплексний аналіз поведінки ChatGPT на предмет 18 добре відомих когнітивних упереджень.

Дослідники зосередили увагу на двох версіях великих мовних моделей від OpenAI — GPT-3.5 та GPT-4, які лежать в основі ChatGPT. Попри те, що ці системи продемонстрували «вражаючу послідовність» у своїх міркуваннях, вони виявилися не захищеними від вад, притаманних людському мисленню.

«Керівники отримають найбільшу користь від використання цих інструментів для завдань, які мають чітке, формульне рішення», — зазначив провідний автор дослідження Янг Чен, доцент з операційного менеджменту в Бізнес-школі Айві. «Але якщо ви використовуєте їх для суб'єктивних рішень або рішень, заснованих на вподобаннях, варто діяти обережно».

Методологія дослідження включала тестування ChatGPT на поширені людські упередження, такі як неприйняття ризику, надмірна впевненість та ефект володіння (коли ми приписуємо більшу цінність речам, якими володіємо). Науковці давали системі гіпотетичні запитання з традиційної психології та в контексті реального комерційного застосування, зокрема в галузях управління запасами та переговорів з постачальниками.

GPT-4 показав кращі результати порівняно з GPT-3.5 при вирішенні завдань з чіткими математичними рішеннями, допускаючи менше помилок у сценаріях, заснованих на ймовірності та логіці. Проте в суб'єктивних симуляціях, наприклад, при виборі ризикованого варіанту для отримання прибутку, чат-бот часто відтворював ірраціональні преференції, характерні для людей.

Дослідники виявили, що «GPT-4 демонструє сильніше прагнення до визначеності, ніж навіть люди», маючи на увазі тенденцію штучного інтелекту схилятися до безпечніших та більш передбачуваних результатів при виконанні неоднозначних завдань.

Важливо відзначити, що поведінка чат-ботів залишалася переважно стабільною незалежно від того, чи формулювалися питання як абстрактні психологічні проблеми, чи як операційні бізнес-процеси. Це привело дослідників до висновку, що виявлені упередження не є просто результатом запам'ятовування прикладів, а становлять невід'ємну частину логіки штучного інтелекту.

Одним з несподіваних результатів дослідження стало те, як GPT-4 іноді посилював людські помилки. «У завданні на підтвердження упередження GPT-4 завжди давав упереджені відповіді», — зазначили автори в дослідженні. Також система продемонструвала більш виражену схильність до помилки «гарячої руки» (упередження щодо очікування закономірностей у випадкових подіях) порівняно з GPT-3.5.

З іншого боку, ChatGPT вдалося уникнути деяких поширених людських упереджень, включаючи нехтування базовим рівнем (коли ми ігноруємо статистичні факти на користь анекдотичної або специфічної інформації) та помилку невідшкодованих витрат (коли на прийняття рішень впливають вже понесені витрати, дозволяючи нерелевантній інформації затьмарювати судження).

На думку авторів, людиноподібні упередження ChatGPT виникають з навчальних даних, які містять когнітивні упередження та евристики, притаманні людям. Ці тенденції посилюються під час точного налаштування, особливо коли зворотний зв'язок від людей додатково сприяє правдоподібним відповідям замість раціональних. Коли системи стикаються з більш неоднозначними завданнями, штучний інтелект більше схиляється до людських моделей міркування, ніж до прямої логіки.

«Якщо ви хочете отримати точну, неупереджену підтримку прийняття рішень, використовуйте GPT у тих областях, де ви вже довіряєте калькулятору», — радить Чен. Коли ж результат більше залежить від суб'єктивних або стратегічних вхідних даних, людський нагляд стає важливішим, навіть якщо це стосується коригування користувацьких запитів для виправлення відомих упереджень.

Співавтор дослідження Міна Андіаппан, доцент кафедри людських ресурсів та менеджменту Університету Макмастера в Канаді, підкреслює: «До штучного інтелекту слід ставитися як до співробітника, який приймає важливі рішення — йому потрібні нагляд та етичні настанови. Інакше ми ризикуємо автоматизувати хибне мислення замість того, щоб його покращувати».

— За матеріалами Live Science