Дезінформація: Технологічні компанії видаляють «шкідливий» вміст коронавірусу — але хто вирішує, що це означає?

"Інфодемія" дезінформації про коронавірус ускладнила відрізнення точної інформації від помилкових та оманливих порад. Основні технологічні компанії відповіли на цей виклик, зробивши безпрецедентний крок спільної боротьби з дезінформацією щодо COVID-19.

Частина цієї ініціативи передбачає просування вмісту з боку державних установ охорони здоров'я та інших авторитетних джерел та запровадження заходів щодо виявлення та видалення вмісту, який може заподіяти шкоду. Наприклад, Twitter розширив своє визначення шкоди для усунення вмісту, що суперечить вказівкам з авторитетних джерел інформації про охорону здоров'я.

Facebook найняв додаткові служби перевірки фактів для усунення дезінформації, яка може призвести до неминучої фізичної шкоди. YouTube опублікував політику щодо медичної дезінформації COVID-19, яка забороняє "вміст про COVID-19, який становить серйозний ризик нанесення великої шкоди".

Проблема такого підходу полягає в тому, що немає єдиного розуміння того, що становить шкоду. Різні способи, якими ці компанії визначають шкоду, можуть призвести до дуже різних результатів, що підриває довіру громадськості до здатності технологічних фірм моделювати інформацію про стан здоров'я. Як ми стверджуємо в недавньому дослідницькому документі, для вирішення цієї проблеми цим компаніям потрібно бути більш послідовними в тому, як вони визначають шкоду та більш прозорими в тому, як вони реагують на неї.

Наука може зазнати змін

Ключовою проблемою в оцінці дезінформації щодо здоров’я під час пандемії стала новизна вірусу. Ми ще багато чого не знаємо про COVID-19, і багато того, що, як ми думаємо, знаємо, можливо, зміниться на основі нових висновків та нових відкриттів. Це має прямий вплив на те, який вміст вважається шкідливим.

Тиск на науковців виробляти та ділитися своїми висновками під час пандемії також може підірвати якість наукових досліджень. Сервери попереднього друку дозволяють вченим швидко публікувати дослідження перед його переглядом. Якісні рандомізовані контрольовані випробування потребують часу. Кілька статей у рецензованих журналах було відкликано через недостовірні джерела даних.

Навіть Всесвітня організація охорони здоров’я (ВООЗ) змінила свою позицію щодо передачі та профілактики захворювання. Наприклад, не почали рекомендувати здоровим людям носити маски для обличчя на публіці до 5 червня, "виходячи з нових наукових висновків".

І все-таки великі компанії з соціальних медіа зобов’язалися зняти твердження, що суперечать вказівкам ВООЗ. Як результат, вони могли видалити вміст, який згодом виявиться точним.

Це підкреслює межі базування політики нанесення шкоди на одному авторитетному джерелі. Зміна є властивою науковому методу. Навіть авторитетні поради підлягають дискусії, модифікації та перегляду.

Шкода політична

Таким чином, оцінка шкоди також не враховує невідповідностей у системах повідомлень про охорону здоров'я в різних країнах. Наприклад, початкові відповіді Швеції та Нової Зеландії на COVID-19 були діаметрально протилежними, перший базувався на "імунітеті стада", а другий мав на меті знищити вірус. І те й інше базувалося на авторитетних, наукових порадах. Навіть всередині країн політика охорони здоров’я відрізняється на державному та національному рівні, і між науковими експертами існує розбіжність.

Саме те, що вважається шкідливим, може стати політизованим, оскільки дебати щодо використання малярійного наркотику гідроксихлорохіну та ібупрофену є можливим методом лікування COVID-19. Більше того, є деякі питання, на які наука не може відповісти виключно. Наприклад, чи пріоритетність охорони здоров’я чи економіки. Це етичні міркування, які залишаються дуже суперечливими.

Модерування онлайн-вмісту неминуче включає арбітраж між конкуруючими інтересами та цінностями. Щоб відповісти на швидкість і масштаб створеного користувачем вмісту, модерація соціальних медіа здебільшого покладається на комп'ютерні алгоритми. Користувачі також можуть позначати або повідомляти про потенційно шкідливий вміст.

Незважаючи на те, що вони розроблені для зменшення шкоди, ці системи можуть грати кмітливими користувачами, щоб створити рекламу та недовіру. Особливо це стосується дезінформаційних кампаній, які прагнуть викликати страх, невпевненість і сумніви.

Користувачі можуть скористатися нюансом мови щодо запобігання захворювань та лікування. Наприклад, особисті анекдоти про дієти та добавки, що сприяють підвищенню імунітету, можуть вводити в оману, але важко перевірити. Як результат, ці вимоги не завжди підпадають під визначення шкоди.

Аналогічно, використання гумору та виведення контенту поза контекстом ("збройованість контексту") — це стратегії, які зазвичай використовуються для обходу модерації вмісту. Інтернет-меми, образи та запитання також відіграли вирішальну роль у формуванні недовіри до основної науки та політики під час пандемії та допомогли розпалити теорії змови.

Прозорість та довіра

Нечіткість та неузгодженість модерації контенту технологічних компаній означають, що деякі облікові записи вмісту та користувачів знищуються або видаляються, а інший, напевно, шкідливий контент залишається в Інтернеті. "Звіти про прозорість", опубліковані у Twitter та Facebook, містять лише загальну статистику про запити країн щодо видалення контенту та мало деталізації того, що видалено та чому.

Відсутність прозорості означає, що ці компанії не можуть бути достатньо сприятливими для обліку проблем у спробах подолати дезінформацію, і ситуація навряд чи покращиться. З цієї причини, ми вважаємо, що технологічним компаніям слід вимагати публікації подробиць про їхні алгоритми модерації та запис про усунену дезінформацію щодо здоров'я. Це збільшило б підзвітність та забезпечило б публічну дискусію, коли вміст чи записи видалено несправедливо.

Крім того, ці компанії повинні висвітлити претензії, які можуть бути не надто шкідливими, але потенційно вводять в оману або суперечать офіційній раді. Цей вид маркування дасть користувачам достовірну інформацію, з якою інтерпретувати ці твердження, не пригнічуючи дебатів.

Завдяки більшій послідовності та прозорості в їх модерації, технологічні компанії надаватимуть більш надійний контент та підвищуватимуть довіру громадськості — те, що ніколи не було важливішим.

Facebook Comments