Дослідження якості новин у соцмережах викликало суперечки


Науковці проаналізували понад 10 мільйонів публікацій у семи соцмережах, але їхня методологія оцінки якості новин викликала критику через упередженість.

Зображення Watts Up With That?
Зображення Watts Up With That?

Нещодавно у престижному науковому виданні PNAS з'явилася стаття, яка викликала жваву дискусію в академічних колах. Дослідження Мослеха та його колег під назвою «Різні моделі взаємодії з партійними та низькоякісними новинами на семи платформах соціальних мереж» претендує на аналіз якості новинного контенту, але критики вказують на серйозні методологічні проблеми.

Автори дослідження проаналізували понад 10 мільйонів публікацій, що містили посилання на новинні домени, опубліковані у січні 2024 року на семи платформах: X/Twitter, BlueSky, TruthSocial, Gab, GETTR, Mastodon та LinkedIn. Вони намагалися встановити зв'язок між залученістю користувачів та політичною орієнтацією і якістю новинних доменів.

Основний висновок дослідження полягає в тому, що новини, якими діляться на платформах з більш консервативною базою користувачів, мають значно нижчу якість у середньому. Крім того, автори стверджують, що на всіх досліджуваних платформах публікації з посиланнями на новини нижчої якості отримували вищу середню залученість, навіть коли враховувалися особливості окремих користувачів.

Однак саме визначення якості новин викликає найбільше питань. Автори використовували так званий підхід «мудрості експертів», агрегуючи оцінки від різних фактчекерів, журналістів та науковців. Вони пишуть, що дотримувалися стандартної практики в літературі та використовували надійність видавця як показник точності контенту.

Критики вказують, що це не вимірювання точності, а використання репутації як замінника. При такому підході окрема стаття оцінюється не за тим, чи є вона правдивою, а за тим, чи благословила інституцію, що її опублікувала, правильна група контролерів. Фактична стаття з несхваленого видання назавжди залишається «низькоякісною», тоді як неправдива стаття з престижного видання за визначенням залишається «високоякісною».

Одним із основних джерел, що живлять ці рейтинги доменів, є NewsGuard, організація, яка вийшла далеко за межі фактчекінгу в бік відкритої політичної адвокації, партнерства з урядами та контролю контенту. Використання оцінок NewsGuard як епістемологічного базису не є нейтральним, стверджують критики.

Автори дослідження передбачили цю критику та відхилили її, заявивши, що сильна кореляція між політичною орієнтацією та якістю джерела навряд чи є результатом ідеологічної упередженості фактчекерів. Вони аргументують, що «політично збалансовані групи» виробляють подібні рейтинги, що начебто доводить нейтральність. Однак політичний баланс не дорівнює епістемологічній незалежності.

Політична орієнтація самих новинних доменів класифікувалася за допомогою GPT-4. Велика мовна модель, натренована переважно на матеріалах мейнстрімної журналістики та академічної літератури, використовувалася для позначення ідеологічної упередженості. Потім автори «валідували» ці мітки за допомогою інших поширених показників, побудованих з тих самих інституційних джерел.

Центральне поведінкове твердження статті полягає в тому, що користувачі більше взаємодіють з «низькоякісним» контентом, ніж з «високоякісним», навіть при контролі за особливостями користувача. Це подається як доказ того, що дезінформація за своєю природою більш привабливою. Але автори тихо визнають набагато менш лестиве пояснення для інституцій, які вони підтримують.

Вони пишуть, що важливим фактором є порівняно низькі показники залученості публікацій з посиланнями на The New York Times, The Wall Street Journal, The Washington Post, USA Today та Reuters. Іншими словами, елітні традиційні видання показують погані результати. Користувачі не кидаються до маргінальних конспірологічних сайтів, вони просто втрачають інтерес до інституцій, які стали повторюваними, моралізаторськими та передбачувано помилялися у занадто багатьох важливих питаннях.

Замість того, щоб розглядати це як свідчення інституційної втоми або заслуженої недовіри, автори звертаються до знайомих психологічних кліше. Вони припускають, що ця модель може просто відображати переваги користувачів, наприклад, до нового, негативного або моралізаторського контенту.

Примітно, що ніколи не розглядається можливість того, що деякий контент, позначений як «низькоякісний», може бути точним, проникливим або правильним раніше, ніж дозволив елітний консенсус. Ця можливість вимагала б критичного аналізу самої системи рейтингування, яку стаття вважає недоторканною.

Довіра дослідження до своєї структури додатково підривається розкриттям інформації про фінансування. Автори визнають фінансову підтримку від Open Society Foundation, організації, яка активно інвестувала в дослідження дезінформації, управління платформами та модерацію контенту.

Те, що дослідження фактично демонструє, всупереч своїм намірам, це те, що інституційний авторитет більше не гарантує уваги. Користувачі стали вибірковими та скептичними. Вони дедалі менше зацікавлені в тому, щоб їм говорили, що є правдою, організації, які роками наполягали на певності там, де панувала невизначеність, і мовчали там, де потрібні були дебати.

Справді скептичне дослідження мало б вивчити точність окремих тверджень, відстежити, які «низькоякісні» твердження згодом виявилися правильними, перевірити ідеологічну варіативність серед оцінювачів, а не стверджувати нейтральність через посилання на кваліфікацію. Воно могло б навіть розглянути єретичну думку про те, що елітний консенсус іноді помиляється. Але це дослідження не робить нічого з цього.

— За матеріалами Watts Up With That?