/ Source

Исследователи из Stanford Internet Observatory провели двухдневное исследование контента в Mastodon и обнаружили неприятное — у сети наблюдаются проблемы с модерацией CSAM (Child Sexual Abuse Material) контента, в основном из-за её децентрализованного характера.

Как говорит один из участников команды исследователей, за два дня они увидели столько срабатываний photoDNA фильтра, сколько не было за всё время ведения мониторинга, а первый пример контента обнаружился через пять минут после начала теста. Речь идет об известных или близких к известным образцам контента.

Основная проблема с модерацией заключается в том, что, в отличие от централизованных сетей, в Mastodon вся модерация — это дело волонтеров-администраторов конкретных инстансов, каждый из которых справляется с модерацией в одиночку и как может. Исследователи убеждены, что наличие централизованного сервиса, который бы автоматизировал такую модерацию, сильно улучшило бы ситуацию.

Кроме того, вопрос еще и в желании проводить такую модерацию — например, они приводят в пример инстансы в Японии, где правила ослаблены для того, чтобы не запретить аниме и манга, а это приводит и к накоплению CSAM-контента.

В общем, ничего удивительного, я бы сказал.