/ Source

Все уже написали, давайте и я добавлю для полноты картины — источники сообщают, что незадолго до увольнения Сэма Альтмана OpenAI достигла существенного прогресса в развитии модели Q* (Q-Star), которая в состоянии решать базовые математические задачи, с которыми ранее не сталкивалась. Модель построена на работе, среди авторов которой значатся Илья Суцкевер и Ян Лейке из OpenAI, и которая рассматривает обучение модели с помощью process supervision — то есть когда обучение проводится на основании обратной связи по каждому этапу решения задачи. По утверждениям авторов статьи, обученная таким образом модель (работа вышла в мае этого года) смогла решить 78% задач из предложенного набора, при этом сам процесс управления обучением стал более эффективным.

Как сообщают, достигнутый прогресс привел к появлению коллективного письма сотрудников OpenAI в адрес совета директоров, где сообщалось, что этот прорыв может угрожать человечеству. Правда, само письмо журналисты не увидели.

Полученная модель, по слухам, может обойти ограничение в части необходимости большого количества качественных реальных данных для обучения, позволяя обучаться на искусственно сгенерированных данных.

Мне это кажется похожим на интуицию — чисто человеческое (пока?) свойство, позволяющее принимать решения на основании неполных данных. Правда, все эти страшные рассказы про захват мира в сферическом вакууме меня не очень впечатляют — не верю в существование сознания без органов чувств и манипуляторов.