Алгоритм може скасувати зловживання жінок у Twitter

Зловживання в Інтернеті, спрямовані на жінок, включаючи загрози заподіяння шкоди чи сексуального насильства, розповсюджуються на всіх платформах соціальних медіа, але дослідники QUT розробили статистичну модель, яка допомагає вивести її з Твіттерсфери.

Доцент Річі Наяк, професор Ніколас Сузор та науковий співробітник доктор Мд Абул Башар з QUT розробили складний та точний алгоритм виявлення цих повідомлень у Twitter, прорізавши скандальний мільйон твітів для виявлення мізогінізму.

Команда, яка співпрацювала між факультетами науки та техніки та права та QUT та Центром досліджень цифрових медіа, видобула набір даних із 1 мільйона твітів, а потім уточнила їх, шукаючи ті, що містять одне з трьох образливих ключових слів — повія, повія та зґвалтування.

Їх стаття — "Регулювання класифікатора LSTM шляхом передачі навчання для виявлення женоненависницьких твітів з невеликим навчальним набором" — була опублікована в Системи знань та інформації.

"На даний момент користувач зобов’язаний повідомляти про зловживання, які вони отримують. Ми сподіваємось, що наше рішення для машинного навчання може бути прийняте платформами соціальних мереж для автоматичного визначення та повідомлення цього вмісту для захисту жінок та інших груп користувачів в Інтернеті", — сказав професор Наяк.

"Ключовою проблемою при виявленні женоненависницьких твітів є розуміння контексту твіту. Складний і галасливий характер твітів ускладнює. На додачу до цього, навчити машину розуміти природну мову є одним із найскладніших цілей науки про дані: мова постійно змінюється і розвивається, і велика частина значення залежить від контексту та тону. Отже, ми розробили систему видобутку тексту, де алгоритм вивчає мову по ходу, спочатку шляхом розробки базового рівня розуміння, а потім доповнення цих знань за допомогою обох твіт-повідомлень. Ми застосували алгоритм глибокого навчання, який називається Long Short-Term Memory with Transfer Learning, що означає, що машина могла б оглянути своє попереднє розуміння термінології та змінювати модель по ходу, вивчаючи та розвиваючи свої контекстуальні та семантичні розуміння з часом ".

Хоча система починала з базового словника і будувала свій словниковий запас звідти, дослідницька група повинна була ретельно контролювати контекст та наміри, щоб алгоритм міг розрізняти зловживання, сарказм та дружнє використання агресивної термінології.

"Візьмемо як приклад фразу" поверніться на кухню "- позбавлену контексту структурної нерівності, буквальна інтерпретація машини може пропустити мізогіністичне значення", — сказав професор Наяк.

"Але якщо зрозуміти розуміння того, що являє собою образливу або женоненависницьку мову, його можна визначити як женоненависницький твіт. Або візьміть твіт на зразок" STFU BITCH! НЕ ЗМІНІТЬСЯ ОБРУДИТИ KEEMSTAR, АБО Я ВБУЮ ВАС ". Відрізнити це без контексту від жорстокості та жорстокої загрози машині неймовірно важко зробити.

"Навчання машини диференціювати контекст без допомоги тону та лише за допомогою тексту було ключовим фактором успіху цього проекту, і ми були дуже раді, коли наш алгоритм визначив" повернення на кухню "як женоненависницьке — це продемонструвало, що вивчення контексту працює ".

Модель дослідницької групи визначає мізогіністичний вміст із 75% точністю, перевершуючи інші методи, що досліджують подібні аспекти мови соціальних мереж.

"Інші методи, що базуються на розподілі чи вживанні слів, ідентифікують нецензурну термінологію або мізогінізм, але наявність слова саме по собі не обов'язково корелює з намірами", — сказав професор Наяк.

"Після того, як ми уточнили 1 мільйон твітів до 5000, ці твіти були класифіковані як женоненависницькі або не засновані на контексті та намірах, і були введені в класифікатор машинного навчання, який використовував ці позначені зразки, щоб почати будувати свою модель класифікації. На жаль, не бракує женоненависницьких даних, з якими можна працювати, але маркування даних було досить трудомістким ".

Професор Наяк та команда сподівались, що дослідження може перетворитися на політику на рівні платформи, яка дозволить побачити, наприклад, Twitter, що видаляє будь-які твіти, визначені алгоритмом як женоненависницькі.

"Це моделювання також може бути розширено та використане в інших контекстах у майбутньому, таких як виявлення расизму, гомофобії або жорстокого поводження щодо людей з обмеженими можливостями", — сказала вона.

"Наша кінцева мета — перенести модель на платформи соціальних медіа та випробувати її на місці. Якщо ми зможемо спростити виявлення та видалення цього вмісту, це може допомогти створити безпечніший онлайн-простір для всіх користувачів".

Facebook Comments