/ Source

OpenAI обвиняет китайский стартап DeepSeek в использовании своих моделей для обучения конкурирующей системы. Компания утверждает, что обнаружила признаки “дистилляции” - техники, когда разработчики используют выходные данные более мощных моделей для улучшения производительности меньших. Подобное использование нарушает пользовательское соглашение OpenAI.

Если кто смотрел мой вчерашний ролик (или просто читал статью DeepSeek), то одним из ключевых моментов при обучении R1 указывается холодный старт Reinforcement Learning с небольшим количеством высококачественных данных для обучения модели. Если эти данные получены из o1, например, то “революционная” модель оказывается действительно хорошо оптимизированной дистилляцией o1 со всей вытекающей экономией.