За первое полугодие этого года в России заблокировали свыше 22 тыс. сайтов и отдельных страниц ресурсов с призывами к суициду или описанием его способов. Это в два раза больше, чем за тот же период годом ранее. За весь 2020-й было заблокировано 25 тыс. таких страниц, сообщили «Известиям» в Роскомнадзоре. Эксперты связывают рост с двумя факторами: массовым переходом на удаленную работу и дистанционное обучение, а также с появлением вирусных сообщений, якобы предупреждающих об опасности, но на деле только порождающих хайп среди подростков и панику среди их родителей. Крупные соцсети не фиксируют роста количества противоправных сообщений. В то же время Генпрокуратура призвала уполномоченные органы усилить контроль за распространением таких публикаций.
Волна публикаций
Сообщения с пропагандой суицида и способами его совершения блокируются в России на основании решений Роспотребнадзора, а также в результате взаимодействия с крупными онлайн-платформами, сообщили «Известиям» в пресс-службе Роскомнадзора. Перед удалением такие сообщения попадают в Единый реестр запрещенной информации.
— По данному направлению в Едином реестре за январь–июнь 2020 года удалено и заблокировано 10,1 тыс. сайтов или их отдельных страниц, содержащих призывы к самоубийству или описывающих способы их совершения. За январь–июнь 2021 года — 22,6 тыс. подобных материалов, — рассказали «Известиям» в пресс-службе Роскомнадзора.
Таким образом, регулятор зафиксировал двукратный рост противоправных публикаций.
В Роскомнадзоре отметили, что также взаимодействуют с интернет-платформами напрямую. В этом случае подобного рода публикации направляют представителям платформ, и те добровольно принимают решение по их блокировке.
Количество таких публикаций, выявленных и удаленных соцсетями самостоятельно, также выросло в 2021 году, следует из данных надзорной службы.
— В 2020 году в результате такого взаимодействия с социальными сетями было удалено или заблокировано 45,5 тыс. материалов с суицидальным контентом. Из них к «группам смерти» относятся 354 материала. В 2021 году было удалено или заблокировано 28,7 тыс. сайтов или их отдельных страниц, содержащих подобный контент, в том числе 140 материалов, относящихся к «группам смерти», — отметили в пресс-службе регулятора.
Рост числа пропагандирующих суицид публикаций эксперты фиксируют с февраля, сообщила «Известиям» глава Лиги безопасного интернета Екатерина Мизулина. Чаще, чем на других платформах, объединение встречало такой контент в Twitter и TikTok, добавила она.
Увеличение числа публикаций эксперт связывает с массовым переходом взрослых на удаленную работу, а детей и подростков — на дистанционное обучение. И те и другие стали больше времени проводить онлайн.
— Естественно, что от этого есть как плюсы, так и минусы, и один из основных минусов — это появление и большого количества деструктивных материалов в детской среде, и, например, активное развитие мошенничества в интернете и другие, — резюмировала эксперт.
По словам главы Ассоциации профессиональных пользователей социальных сетей Владимира Зыкова, удаленка способствует росту, но это не основной фактор. Эксперт заметил, что непосредственно перед тем, как число суицидальных сообщений в соцсетях начало расти, там стали появляться массовые однотипные публикации, в которых пользователей предупреждали о якобы надвигающейся опасности, когда некий куратор подводит подростков к совершению самоубийства. А чем больше внимания к теме, тем больше детей хотят быть ближе к этому хайпу, считает он. В качестве примера платформы с большим количеством подобного контента эксперт привел TikTok.
О проблеме роста суицидального контента в соцсетях знают и в Генпрокуратуре.
— В текущем году Генпрокуратурой Российской Федерации обращено внимание уполномоченных федеральных органов исполнительной власти на необходимость усиления работы в указанном направлении, использование действенных механизмов обеспечения безопасности детей в социальных сетях, — заявили «Известиям» в ведомстве.
В пресс-службе Минцифры на запрос «Известий» не ответили.
Сигнал о блокировке
В крупных соцсетях «Известиям» сказали, что всячески борются с подобного рода контентом. Но информации о точном числе удаленных и заблокированных постов суицидальной тематики не предоставили.
— Мы не фиксируем роста числа подобного контента, в том числе видео, на нашей платформе, — отметили в пресс-службе «ВКонтакте».
Там добавили, что наряду со стандартными инструментами ВК использует нейронные сети для автоматического поиска и блокировки опасного контента. Также пользователи соцсети могут пожаловаться на ту или иную публикацию, если считает ее нарушающей правила сети.
В TikTok сообщили, что в первом квартале 2021 года всего сервис удалил 3,7 млн нарушающих правила видео в России, не уточнив, сколько из них относились к суицидальной тематике. В целом по всему миру из всех удаленных в соцсети видео, количество которых сервис не предоставил, 5,7% роликов имели суицидальную тематику. Данных по первому кварталу прошлого года TikTok не предоставил, отметив, что за вторую половину 2020 года доля таких роликов среди всех удаленных на платформе видео составляла 6,2%.
— Мы уверены, что это связано с уменьшением общего объема подобных видео, что в свою очередь связано с усилиями по оперативному удалению подобного контента, а также направлению пользователей, которые ищут подобный контент в нашем приложении, на специальные ресурсы поддержки и телефоны доверия, — добавил представитель TikTok.
С аналогичной позицией выступили в Google, владеющей YouTube.
— Если пользователь сталкивается с контентом, в котором кто-то выражает суицидальные мысли или причиняет себе вред, мы рекомендуем ему сразу связаться с местными службами экстренной помощи и отметить флагом видео, чтобы мы немедленно обратили на него внимание, — подчеркнули в Google.
Об использовании технологий искусственного интеллекта для борьбы с суицидальным контентом заявили и в сервисе коротких видеороликов Likee.
Представители Facebook, Instagram и Twitter на момент публикации не ответили на запрос «Известий».