OpenAI опубликовали публичный ответ на иск New York Times.
Вкратце — OpenAI считает, что они и сами заинтересованы в развитии журналистики. Но при этом обучение моделей на текстах журналистов — это добросовестное использование, хотя каждый может запретить это в отношении его контента, это его право.
Приводимые в иске примеры, когда ChatGPT начинает писать большими цитатами из материалов New York Times — это баг и разработчики стараются его ликвидировать. Вместе с тем, New York Times, по мнению OpenAI, скрывает часть деталей — они отказывались поделиться подробной информацией для расследования бага, и напротив — кажется, манипулировали промптами, включая большие цитаты из своих материалов, чтобы заставить модель ошибаться. Все примеры в иске относятся к старым текстам, много раз перепечатанными или пересказанными другими изданиями, что усиливало вероятность возникновения ошибки. Причем в инструкциях явно были указания повторять оригинальный контент или New York Times отбирала нужный результат после многих попыток.
Иск New York Times был неприятным сюрпризом, поскольку компании вели вроде бы вполне конструктивные переговоры относительно сотрудничества. OpenAI до сих пор настроена на такое сотрудничество, хотя и считает иск безосновательным.