/ Source

Давайте лучше опять про AI.

Anthropic представила новую систему Constitutional Classifiers для защиты языковых моделей от универсальных джейлбрейков. В ходе тестирования прототипа системы более 180 участников потратили свыше 3000 часов на попытки обойти защиту, но никому не удалось найти универсальный джейлбрейк.

Обновленная версия системы блокирует 95.6% попыток джейлбрейка при минимальном увеличении ложных срабатываний (всего на 0.38%) и умеренном росте вычислительных затрат (на 23.7%).

Система работает на основе “конституции” — набора принципов, определяющих разрешенный и запрещенный контент. С помощью Claude генерируются синтетические промпты и ответы для всех категорий контента, включая варианты на разных языках и в стиле известных джейлбрейков. На этих данных обучаются классификаторы входящих запросов и исходящих ответов.

Anthropic предлагает присоединиться к публичному тестированию системы с 3 по 10 февраля 2025 года и попробовать обойти защиту версии Claude 3.5 Sonnet в области запросов, связанных с химическим оружием.

Интересно, что компания открыто признает: система может не предотвратить все универсальные джейлбрейки, а новые методы атак могут оказаться эффективными против нее. Тем не менее, даже те джейлбрейки, которые проходят через защиту, требуют гораздо больше усилий для обнаружения.

А будет еще интереснее, если окажется, что машина все же придумает набор принципов и их применения, который окажется более эффективным, чем реальные конституции, придуманные человеком. Сколько доморощенных правоведов в интернете исчезнет…