
Колишній керівник служби довіри та безпеки Twitter описує труднощі, що стоять перед децентралізованими соціальними платформами
Йоел Рот, колишній керівник підрозділу довіри та безпеки Twitter, а наразі працівник Match Group, висловив свої занепокоєння щодо майбутнього відкритого соціального вебу та його здатності боротися з дезінформацією, спамом і незаконним контентом, зокрема матеріалами сексуального насильства над дітьми (CSAM). У нещодавньому інтерв’ю Рот підкреслив брак інструментів модерації, доступних для федерованих платформ – відкритого соціального вебу, що включає такі застосунки, як Mastodon, Threads, Pixelfed та інші, а також відкриті платформи, зокрема Bluesky.
Рот також згадав ключові моменти в історії довіри та безпеки Twitter, такі як рішення про заборону президента Трампа на платформі, поширення дезінформації російськими ботами та те, як навіть власні користувачі Twitter, включно з генеральним директором Джеком Дорсі, стали жертвами ботів.
На подкасті revolution.social, Рот зазначив, що зусилля щодо створення демократично керованих онлайн-спільнот на відкритому соціальному вебі – це ті, що мають найменше ресурсів у плані інструментів модерації.
«Якщо подивитися на Mastodon, інші сервіси на основі протоколу ActivityPub, Bluesky на його ранніх етапах, а потім на Threads, коли Meta почала його розвивати, ми побачили, що багато сервісів, які найбільше орієнтувалися на контроль спільноти, надали своїм спільнотам найменше технічних інструментів для реалізації своїх політик», – сказав Рот.
Він також зауважив, що спостерігається значний відкат у прозорості та легітимності рішень відкритого соціального вебу, які раніше мав Twitter. Хоча багато хто, на той момент, не погоджувався з рішенням Twitter заборонити Трампа, компанія пояснила свої мотиви. Нині ж постачальники соціальних медіа настільки стурбовані тим, щоб не дати можливість поганим акторам маніпулювати ними, що рідко пояснюють свої дії.
Тим часом, на багатьох відкритих соціальних платформах користувачі не отримують ніяких сповіщень про заборонені пости — вони просто зникають, без будь-якого вказівника на те, що пост колись існував.
«Я не звинувачую стартапи у тому, що вони є стартапами, або нові софти в їхньому браковані інструментів, але якщо вся мета проекту полягала у підвищенні демократичної легітимності управління, а те, що ми зробили, — це відступ у цьому питанні, то чи справді це взагалі спрацювало?» – задається питанням Рот.
Економіка модерації
Він також порушив питання про економіку модерації та те, як федерований підхід поки що не є стійким у цьому аспекті.
Наприклад, організація IFTAS (Незалежний Федерований Довірчий Центр) працювала над створенням інструментів модерації для федиверсу, включаючи доступ до інструментів для боротьби з CSAM, але в кінцевому підсумку вона вичерпала фінансування та прийняла рішення закрити більшість своїх проектів на початку 2025 року.
«Ми це передбачали ще два роки тому. IFTAS це передбачала. Усі, хто працює в цій сфері, в основному, волонтерять свій час та зусилля, але це може тривати лише до певного часу, адже, зрештою, у людей є сім’ї та рахунки для сплати, а витрати на обчислення зростають, якщо потрібно запускати моделі машинного навчання для виявлення певних видів неправомірного контенту», – пояснив він. «Це все стає дорогим, і економіка цього федерованого підходу до довіри і безпеки ніколи не сходилася, і, на мою думку, досі не сходиться».
Bluesky, тим часом, обрала шлях найму модераторів і фахівців із довіри та безпеки, але обмежує свою діяльність лише модерацією власної програми. Крім того, вони надають інструменти, які дозволяють користувачам налаштовувати власні переваги модерації.
«Вони здійснюють цю роботу в масштабах. Очевидно, є простір для покращення. Я б хотів, щоб вони були трішки більш прозорими. Але, в основному, вони роблять правильні речі», – зауважив Рот. Проте, по мірі децентралізації сервісу, Bluesky постане перед питанням про те, коли їхня відповідальність полягає в захисті окремої особи, а коли — в потребах спільноти.
Наприклад, коли виникає ситуація з розголошенням особистої інформації, може статися так, що користувач навіть не дізнається про те, що його особисті дані поширюються в Інтернеті через те, як він налаштував свої інструменти модерації. Але все ж таки, це має бути чиєюсь відповідальністю забезпечити ці захисти, навіть якщо користувач не перебуває в головному додатку Bluesky.
Де провести межу в питаннях конфіденційності
Ще одне питання, з яким стикається федиверс, пов’язане з тим, що рішення на користь конфіденційності може заважати спробам модерації. Хоча Twitter намагався не зберігати особисті дані, які не були необхідні, він все ж збирав такі дані, як IP-адреса користувача, час доступу до сервісу, ідентифікатори пристроїв тощо. Це допомагало компанії проводити судово-медичні аналізи, наприклад, у випадках з російськими тролями.
Адміністратори федиверсу, тим часом, можуть навіть не збирати необхідні логи або не переглядати їх, якщо вважають, що це є порушенням приватності користувачів.
Проте, без даних важче визначити, хто насправді є ботом.
Рот навів кілька прикладів з часів своєї роботи у Twitter, зазначивши, що стало тенденцією відповісти “бот” кожному, з ким не погоджувалися. Він зазначив, що спочатку налаштував сповіщення і вручну перевіряв всі ці пости, вивчаючи сотні випадків звинувачень у “ботах”, і ніхто з них не виявився правим. Навіть співзасновник Twitter та колишній генеральний директор Джек Дорсі став жертвою, ретвітнувши пости російського актора, який стверджував, що є Крістал Джонсон, афроамериканкою з Нью-Йорка.
«Генеральний директор компанії сподобався цей контент, підняв його на поверхню й не мав жодного способу дізнатися, що насправді Крістал Джонсон була російським тролем», – зазначив Рот.
Роль штучного інтелекту
Однією з актуальних тем для обговорення стало те, як штучний інтелект змінює цю ситуацію. Рот згадав нещодавнє дослідження Стенфордського університету, яке виявило, що в політичному контексті великі мовні моделі (LLM) можуть бути навіть переконливішими за людей, якщо їх правильно налаштувати.
Це означає, що рішення, яке покладається лише на аналіз контенту, недостатнє.
Дослідження показує необхідність відстеження інших поведінкових сигналів – таких як, якщо якась особа створює кілька акаунтів, використовує автоматизацію для публікацій або постить у дивні часи доби, які відповідають різним часовим зонам, – запропонував він.
«Це поведінкові сигнали, які можуть бути присутніми навіть у дуже переконливому контенті. І, на мою думку, саме звідси варто починати», – сказав Рот. «Якщо ви починаєте з контенту, ви потрапляєте у гонитву озброєнь з провідними моделями ШІ і вже програли».