ChatGPT впливає на людську мову: вчені виявили зміни в мовленні
Дослідники з Інституту розвитку людини Макса Планка виявили, що люди почали використовувати слова, характерні для ChatGPT, у повсякденному мовленні.
Наприкінці 2022 року світ отримав новий голос у щоденному спілкуванні. Він був гладким, точним, можливо, трохи занадто відшліфованим — і надзвичайно заразливим. Лише через два з половиною роки цей голос, схоже, вплинув на наше власне мовлення.
Якщо ви помітили, що почали говорити про бажання «заглибитися» в щось або описувати концепцію як «ретельну», можливо, ви вже потрапили під його чари. Ці слова не просто повернулися в моду. Згідно з новим дослідженням Інституту розвитку людини Макса Планка, вони є лінгвістичними відбитками ChatGPT. І тепер вони стають нашими.
ChatGPT відомий своїм людиноподібним звучанням у розмовах та відповідях на запити, оскільки його навчали практично на всьому, що люди коли-небудь писали або говорили в інтернеті. ChatGPT по суті імітує людське спілкування з деякими власними особливостями. Те, що вчені зараз стверджують, полягає в тому, що ми пройшли повне коло, і люди тепер імітують ChatGPT.
Дослідження, яке ще не пройшло рецензування, проаналізувало понад 740 тисяч годин усного контенту, охопивши більше 360 тисяч академічних виступів на YouTube та 770 тисяч епізодів подкастів у різних сферах. Дослідники виявили значне зростання використання слів, характерних для GPT, протягом 18 місяців після випуску ChatGPT.
«Наші аналізи свідчать про те, що лінгвістичні переваги ChatGPT вимірно змінюють те, як люди говорять», — розповів Scientific American провідний автор дослідження Хіроми Якура. «Це культурна петля зворотного зв'язку», — додав співавтор Левін Брінкманн. «Ми навчаємо машини, вони відповідають нам, а потім ми говоримо, як вони».
На перший погляд це може здатися тривіальним — навіть забавним. Що з того, що люди тепер трохи частіше говорять «заглибитися»? Але дослідники виявили, що ці слова з'являються в повсякденних розмовах, особливо в подкастах, де очікується спонтанність.
Насправді слово «заглибитися» — лінгвістична канарка в шахті дослідження — показало статистично значуще зростання в неструктурованих розмовах подкастів у таких сферах, як наука, бізнес та освіта. Навіть більш неформальні середовища не були захищені. Ці моделі розмов свідчать про глибоку інтерналізацію взаємодій, які ці люди мали з ChatGPT.
Оскільки чат-боти зі штучним інтелектом можуть змінювати ширше дискурсивне середовище, люди, які ніколи не користувалися ChatGPT, все ще можуть переймати його словник з других рук.
Основне питання, на яке намагалися відповісти дослідники, полягало в тому, чи впливає ChatGPT на усне спілкування, і якщо так, то наскільки. Щоб з'ясувати це, вони розробили квазіексперiment, використовуючи метод, який називається моделюванням синтетичного контролю. Для кожного слова GPT вони створили «контроль», що складався з подібних слів, не улюблених ChatGPT, а потім відстежували, як використання слова GPT відхилялося після випуску ChatGPT.
Наприклад, «заглибитися» різко зросло у використанні порівняно з контрольними словами, такими як «досліджувати» або «вивчати», які залишалися на тому ж рівні. Те ж саме стосувалося інших слів GPT, таких як «осягнути», «хвалитися», «швидкий» та «ретельний», які показали щорічне зростання використання від 25% до 50% в академічних виступах та поза ними.
Цікаво, що не всі слова GPT поширювалися однаково. У категоріях подкастів, таких як «Релігія та духовність» або «Спорт», «заглибитися» майже не рухало стрілку. Але в наукових та освітніх сферах, які частіше взаємодіють з великими мовними моделями, слово набуло популярності.
Це залежне від домену поширення припускає двоетапний процес. Спочатку слова, улюблені ChatGPT, поширюються в сферах, пов'язаних з великими мовними моделями, а потім вони проникають у ширше використання через культурний вплив.
Мова формує те, як ми думаємо, що цінуємо і як ставимося до інших. «Частота слів може формувати наш дискурс або аргументи щодо ситуацій», — сказав Якура. «Це несе можливість зміни нашої культури».
Занепокоєння стосується не лише окремих слів. Це не головне. Йдеться про повзучу стандартизацію тону та стилю. ChatGPT, зрештою, був навчений бути ввічливим, нейтральним та структурованим. Але людське мовлення процвітає на недосконалостях: регіональних особливостях, вагання, спалахах емоцій. Згладьте їх, і ми ризикуємо звучати менш схожими на себе.
Попередні дослідження вже показали, що мова, згенерована штучним інтелектом, може впливати на те, наскільки надійною або людською ми сприймаємо когось. Якщо повідомлення людини «звучить як штучний інтелект», вона може здатися холоднішою, менш готовою до співпраці, навіть якщо вона взагалі не використовувала штучний інтелект.
Дослідники з Макса Планка піднімають червоний прапор: ми можемо входити в петлю зворотного зв'язку, де штучний інтелект не лише відображає, але й підсилює вузьку підмножину культурних норм. Як каже Якура, справжня проблема не в тому, що штучний інтелект впливає на нас — а в тому, наскільки глибоко і в якому напрямку.
«Генеративні системи штучного інтелекту віддають перевагу певним лінгвістичним рисам», — пишуть автори. «Якщо вони будуть широко прийняті, вони можуть прискорити ерозію лінгвістичного та культурного різноманіття».
Ще гірше те, що майбутні моделі штучного інтелекту навчаються на даних, які все більше включають людські взаємодії, вже під впливом штучного інтелекту. Цей рекурсивний процес ризикує замкнути нас у петлі однаковості та застою, своєрідній монокультурі мовлення, думки та вираження.
Протягом століть люди наслідували словник книг, газет, радіоведучих, а тепер… мовних моделей. Ми схильні імітувати комунікаційні моделі тих, кого вважаємо мудрішими та авторитетнішими за нас. Результати дослідження можна інтерпретувати так, що багато з нас поступаються авторитетом чат-ботам і, можливо, навіть підсвідомо підкоряються їм.
Мова — це інструмент, але це також дзеркало. Те, як ми говоримо, відображає те, ким ми себе вважаємо, і, можливо, ким прагнемо бути.
Але багато хто чинить опір. Деякі мовці вже відходять від слів GPT, навмисно уникаючи лінгвістичних тиків, які вони асоціюють зі штучним інтелектом. Але, як зазначають деякі користувачі Reddit, така фобія штучного інтелекту може призвести до незручних політик та ситуацій.
Отже, наступного разу, коли ви почуєте, як хтось каже, що хоче «заглибитися» в тему, ви можете задатися питанням: це їхній голос чи вони останнім часом занадто багато користувалися ChatGPT?
Схожі новини
- ChatGPT отримав функцію визначення віку користувачів21.01.2026, 18:29
- В Індії створять дослідницький центр майбутніх технологій17.01.2026, 03:02
- Skild AI залучила $1,4 млрд інвестицій для розробки роботів14.01.2026, 18:06
- Ілон Маск заявив про можливість перемоги над старінням людини12.01.2026, 12:16
- В Індії стартував фестиваль науки: штучний інтелект і космос11.01.2026, 12:46
/sci314.com/images/news/cover/4871/d5950784dda248a1c2f1008d1df056e2.jpg)
/sci314.com/images/news/cover/4835/a0ccd88215530fe1042f3b2e92cdd0ab.webp)
/sci314.com/images/news/cover/4821/8213c8e5cab684a99c4f732163ac17e5.jpg)
/sci314.com/images/news/cover/4803/b9573f64f4eda0762dacf25919272857.jpg)
/sci314.com/images/news/cover/4795/1852f381fa647cfb0a4edfa85b92eafe.jpg)