Исследователи из Stanford Internet Observatory провели двухдневное исследование контента в Mastodon и обнаружили неприятное — у сети наблюдаются проблемы с модерацией CSAM (Child Sexual Abuse Material) контента, в основном из-за её децентрализованного характера.
Как говорит один из участников команды исследователей, за два дня они увидели столько срабатываний photoDNA фильтра, сколько не было за всё время ведения мониторинга, а первый пример контента обнаружился через пять минут после начала теста. Речь идет об известных или близких к известным образцам контента.
Основная проблема с модерацией заключается в том, что, в отличие от централизованных сетей, в Mastodon вся модерация — это дело волонтеров-администраторов конкретных инстансов, каждый из которых справляется с модерацией в одиночку и как может. Исследователи убеждены, что наличие централизованного сервиса, который бы автоматизировал такую модерацию, сильно улучшило бы ситуацию.
Кроме того, вопрос еще и в желании проводить такую модерацию — например, они приводят в пример инстансы в Японии, где правила ослаблены для того, чтобы не запретить аниме и манга, а это приводит и к накоплению CSAM-контента.
В общем, ничего удивительного, я бы сказал.