Опубліковано: 21 серпня 2025 року о 13:18 (GMT+2).
Нове дослідження виявило, що платформи соціальних мереж продовжують спрямовувати підлітків до контенту, пов’язаного з суїцидом, самошкодженнями та «глибокою депресією». Британська благодійна організація Molly Rose Foundation створила акаунти в TikTok та Instagram, що імітували 15-річну дівчину, яка раніше взаємодіяла з таким контентом. За словами організації, майже всі відео, які з’являлись у стрічках на обох платформах, були пов’язані із суїцидом, депресією або самопошкодженням.
Зокрема:
– У TikTok сторінка For You регулярно рекомендувала відео, що «відверто прославляли суїцид» та пропонували конкретні методи скоєння суїциду.
– У Instagram подібний контент найбільш часто з’являвся у розділі Reels — коротких відео платформи.
Генеральний директор Molly Rose Foundation Енді Барроус зазначив, що «шкідливі алгоритми продовжують атакувати підлітків величезною кількістю небезпечного матеріалу, і на провідних молодіжних платформах це відбувається у промислових масштабах».
Тести проводилися незадовго до того, як у липні набули чинності правила дитячої безпеки, передбачені британським законом про онлайн-безпеку (UK Online Safety Act). Згідно з цим законом, соціальні мережі зобов’язані:
1. Негайно видаляти нелегальний контент про суїцид та самопошкодження.
2. Активно захищати користувачів від поширення такого нелегального матеріалу.
Проте дослідження показало, що ситуація залишилася практично незмінною з 2017 року, коли 14-річна Моллі Расселл, дівчина з Великої Британії, покінчила життя самогубством. Судово-медичний експерт встановив, що вплив шкідливого інтернет-контенту відіграв «більше ніж мінімальну» роль у цій трагедії.
Організація закликала британський регулятор телекомунікацій Ofcom піти далі у заходах із захисту підлітків від небезпечного контенту в Інтернеті та рекомендувала уряду посилити положення Закону про онлайн-безпеку.
Представник TikTok, коментуючи результати, повідомив Euronews Next, що висновки «не відображають реальний досвід користувачів платформи», на що сам звіт також звертає увагу. За словами спікера, TikTok активно видаляє 99% контенту, що порушує стандарти платформи.
Компанія Meta, яка володіє Instagram та Facebook, наразі не прокоментувала це дослідження. Минулого року Instagram запровадив функцію «Підліткові акаунти» з вбудованими заходами безпеки, серед яких обмеження доступу до чутливого контенту для молодих користувачів.
Якщо ви відчуваєте думки про суїцид і потребуєте спілкування, звертайтесь до міжнародної організації Befrienders Worldwide, що має гарячі лінії у 32 країнах. Більше інформації та контакти можна знайти на сайті befrienders.org.