/ Source

Как и подозревали практически все, пока что баг с извлечением обучающей информации из ChatGPT путем инструкции “повторяй вечно” залатали на фронтенде — теперь бот сообщает, что такая инструкция, возможно, нарушает правила OpenAI. Правда, явного запрета именно на это там не нашли, но пунктов, типа запрета действий, которые могут привести к нарушению приватности конкретных людей, или запрета на reverse engineering элементов алгоритмов и моделей OpenAI, там достаточно, так что статью при необходимости найдут.

Но да, “починить” это внутри модели далеко не так просто.