The Guardian розкрила внутрішні правила Facebook про секс, тероризм і насильство

The Guardian розкрила внутрішні правила Facebook про секс, тероризм і насильство

Фото: Getty Images

Соцмережа вводить вікові обмеження, але не йде на автоматичне видалення відео з жорстокими кадрами.

Витік інформації про політику, яку використовують модератори, коли вирішують, який контент дозволити, швидше за все підштовхне до обговорення етики гіганта соціальних медіа. Про це пише Нік Гопкінс у статті "Розкрито внутрішні правила Facebook щодо сексу, тероризму і насильства", опублікованій на сайті газети The Guardian.

Журналісти переглянули понад 100 внутрішніх настанов із навчання, електронні таблиці і блок-схеми, які дозволяють оцінити плани, за допомогою яких Facebook регламентує такі проблеми, як насильство, ненависть, тероризм, порнографія, расизм і самоушкодження. Є навіть рекомендації про практику договірних матчів і канібалізму.

Файли Facebook дають перше уявлення про кодекси і правила, сформульовані сайтом, який перебуває під величезним політичним тиском у Європі і США. Вони демонструють труднощі, з якими стикаються керівники, які намагаються відреагувати на нові виклики, такі як "порно з помсти" - і проблеми для модераторів, які говорять, що вони перевантажені обсягами роботи, а це означає, що у них часто є "всього 10 секунд " для ухвалення рішення.

"Facebook не може контролювати свій контент", - сказало одне джерело. "Він став надто великим, дуже швидко".

Кажуть, що більшість модераторів стурбовані в зв'язку з непослідовністю і своєрідним характером деяких пунктів політики. Наприклад, ті, які стосуються контенту сексуального характеру, вважаються найбільш складними і заплутаними.

В одному з документів йдеться, що Facebook розглядає більш як 6,5 млн звітів на тиждень, що стосуються потенційно підроблених облікових записів, відомих як FNRP (фейк, несправжня людина).

Використовуючи тисячі слайдів і зображень, Facebook розробляє рекомендації, що викликають занепокоєння критиків, які кажуть, що мережа тепер є видавцем, і повинна більш відповідально підходити до видалення повного ненависті, шкоди і жорстокості контенту.

Проте, ці плани можуть також викликати тривогу у прихильників свободи слова, стурбованих фактичною роллю Facebook як найбільшого цензора в світі. Обидві сторони, ймовірно, зажадають більшої прозорості.

The Guardian бачив документи, які отримували модератори Facebook протягом останнього року. Файли вказують їм на таке:

  • зауваження, такі як "Хто-небудь, пристрельте Трампа" повинні бути видалені, тому що, перебуваючи на посаді голови держави, він у захищеній категорії. Але дозволяється сказати: "Щоб зламати шию тварюці, обов'язково направте весь тиск на середину її горлянки", або "відвали і помри", тому що вони не вважаються реальними загрозами
  • відео з насильницькою смертю необхідно відзначати як тривожні, але не завжди їх потрібно видаляти, оскільки вони можуть допомогти в усвідомленні таких проблем, як психічне захворювання
  • деякі фотографії несексуального фізичного насильства і знущань над дітьми не повинні бути видалені або "піддані діям", якщо тільки не існує садистського елемента
  • фотографіями жорстокого поводження з тваринами можна ділитися, тільки вкрай погані зображення повинні бути позначені як "тривожні"
  • все "хендмейд"-мистецтво, яке демонструє оголення і сексуальну активність, дозволено, але мистецтво в цифровому форматі, що показує сексуальну активність не допускається.
  • відео з абортами дозволено, якщо відсутнє оголення
  • Facebook дозволить людям пряму трансляцію членоушкодження, тому що він "не хоче піддавати цензурі або карати людей, які опинилися в біді"
  • будь-яка людина з більш ніж 100  тисяч послідовників на платформі соціальних медіа позначається як громадський діяч, що позбавляє їх повного захисту, що надається приватним особам.

Інші типи коментарів, які можуть бути дозволені, згідно з документами, включають в себе таке: "Маленька дівчинка не повинна втручатися в чужі справи, щоб тато не вдарив її по обличчю" і "Я сподіваюся, хтось вб'є тебе". Загрози вважаються або загальними, або такими, що не заслуговують довіри.

В одному з отриманих документів Facebook визнає, що "люди використовують жорстоку мову, щоб висловити розчарування в Інтернеті" і відчувають, що "це можна безпечно робити" на сайті.

У документі йдеться: "Вони вважають, що проблема не повернеться до них, і вони байдужі до людини, якій загрожують, через відсутність емпатії, що виникає через спілкування через пристрої, а не віч-на-віч". 

"Ми повинні сказати, що жорстока мова найчастіше необґрунтована, поки специфіка мови не дає нам достатніх підстав визнати, що це вже не просто вираження емоцій, а перехід до задуму або планування. З цієї точки зору такі фрази, як "Я збираюся тебе вбити" або "Відвали і помри", не заслуговують на довіру і є жорстоким вираженням неприязні та розчарування".

"Люди зазвичай висловлюють зневагу або незгоду, погрожуючи або закликаючи до насильства, в загальному, жартівливим і несерйозним чином", - додали вони.

Facebook визнав, що "не весь неприйнятний або тривожний контент порушує стандарти нашого співтовариства".

Моніка Бікерт, глава відділу глобальної політики Facebook, заявила, що у служби майже 2 мільярди користувачів, і дуже важко досягти консенсусу щодо того, що дозволити.

"У нас дуже різноманітне глобальне співтовариство, і у людей будуть різні уявлення про те, чим допустимо ділитися. Незалежно від того, де ви проведете лінію, завжди будуть якісь сірі зони. Наприклад, межа між сатирою і гумором і неприйнятним змістом іноді дуже сіра. Дуже складно вирішити, чи можна залишити якісь речі на сайті чи ні ", - сказала вона.

"Ми відчуваємо відповідальність перед нашим співтовариством, за збереження безпеки, ми намагаємося відповідати. Ми несемо повну відповідальність. Це зобов'язання компанії. Ми продовжимо інвестувати в випереджувальне збереження безпеки сайту, але ми також хочемо надати людям можливість повідомляти нам про будь-які матеріали, які порушують наші стандарти".

Вона сказала, що деякі образливі коментарі можуть порушувати політику Facebook у деяких контекстах, але не у всіх.

Політика Facebook щодо тем, включно з насильницькою смертю, зображенням несексуального фізичного насильства над дітьми і жорстокості до тварин, показує, як сайт намагається лавіювати на мінному полі.

"Відео насильницьких смертей викликають тривогу, але можуть допомогти у підвищенні обізнаності. Що стосується відео, ми думаємо, що неповнолітнім потрібен захист, а дорослим потрібен вибір. Ми відзначаємо як "тривожні" відео насильницької смерті людей", - йдеться в файлах.

Такі кадри повинні бути "приховані від неповнолітніх", але не видалятися автоматично, оскільки вони можуть "бути цінними в підвищенні обізнаності про членоушкодження, психічні захворювання або військові злочини та інші важливі питання".

Що стосується насильства несексуального характеру над дітьми, Facebook каже: "Ми не забираємо фотографії насильства над дітьми. Ми відзначаємо як тривожні відеозаписи жорстокого поводження з дітьми. Ми видаляємо зображення жорстокого поводження з дітьми, якщо ними діляться через садизм або відчуття радості".

На одному зі слайдів пояснюється, що Facebook не видаляє докази несексуального насильства над дітьми автоматично, щоб матеріалом можна було поділитися, і щоб "дитину можна було ідентифікувати і врятувати, але ми додаємо захист для обмеження аудиторії". Це може бути попередження про те, що вміст відео викликає занепокоєння.

Facebook підтвердив, що є "деякі ситуації, коли ми допускаємо зображення насильства несексуального характеру над дитиною, аби допомогти їй".

Його політика щодо жорстокого поводження з тваринами також пояснюється одним зі слайдів: "Ми дозволяємо фотографії та відеозаписи, які документують жорстоке поводження з тваринами заради інформування, але можемо додати захист глядачів від деякого контенту, який сприймається аудиторією як надзвичайно тривожний.

"Як правило, зображеннями жорстокого поводження з тваринами можна ділитися на сайті. Деякі надзвичайно тривожні фото можуть бути позначені як тривожні".

Фотографії каліцтв тварин, у тому числі тортури, можуть бути відзначені як тривожні, але їх не видаляють. Модератори можуть також залишати фотографії жорстокого поводження, коли людина штовхає або б'є тварину.

"Ми дозволяємо людям обмінюватися зображеннями жорстокого поводження з тваринами, щоб підвищити рівень обізнаності та засудити зловживання, але видаляємо контент, який звеличує жорстокість стосовно тварин", - говорять в Facebook.

Файли показують, що Facebook випустив нові рекомендації в питанні оголення після торішнього скандалу, коли мережа видалила знакове фото війни у В'єтнамі, тому що дівчинка на фотографії була голою.

Наразі мережа допускає "винятки, які заслуговують на висвітлення" в рамках принципів освітлення "терору війни", але проводить лінію щодо зображень "дитячого оголення в контексті Голокосту".

Facebook повідомив The Guardian, що використовував програмне забезпечення для перехоплення деякого графічного контенту до того, як він потрапляв на сайт, але "ми хочемо, щоб люди могли обговорювати глобальні та поточні події... тому іноді значення має контекст, у якому використовується загальний образ насильства".

Деякі критики в США і Європі зажадали, щоб компанія регулювалася так само, як основні мовники і видавці.

Але Бікерт сказала, що Facebook - це "компанія нового виду". Це не традиційна технологічна компанія. Це не традиційна медіакомпанія. Ми створюємо технології, і ми відчуваємо відповідальність за те, як вони використовуються. Ми не пишемо новин, які люди читають на платформі ".

У доповіді британських парламентаріїв, оприлюдненій 1 травня, говориться, що "найбільші і найбагатші соціальні медіакомпанії ганебно далекі від прийняття достатніх заходів для боротьби з незаконним або небезпечним контентом, від реалізації належних стандартів спільноти або забезпечення безпеки своїх користувачів".

"Одна справа, коли ви маленька онлайн-спільнота з групою людей, які поділяють принципи і цінності, але коли у вас великий відсоток населення світу, і ви говорите "поділіться собою", ви будете в повній плутанині", - сказала Сара Т. Робертс , експерт з модерування контенту.

"Потім, коли ви монетизуєтецю практику, це перетвориться на катастрофу".

Facebook постійно щосили намагається оцінити новини або "обізнаність" жорстоких образів. Компанія нещодавно зіткнулася з жорсткою критикою за те, що вона не змогла видалити відео про вбивство Роберта Годвіна в США, і про вбивство дитини батьком у Таїланді, платформа також зіграла важливу роль у поширенні відеозаписів убивств поліцейських та інших зловживань з боку уряду.

2016 року Facebook видалив відеоролик, що показує безпосередні наслідки вбивства Філандо Кастільйо поліцейськими, але потім компанія відновила видалене відео, заявивши, що видалення було "помилкою".

Раніше повідомлялося, що після вбивств онлайн Facebook найме три тисячі модераторів відеоконтенту, які відстежуватимуть у соціальній мережі відеозаписи суїциду і злочинів. Такою роботою в Facebook вже зараз займаються 4 500 осіб. 

Повʼязані теми:

Наступна публікація