OpenAI запускает систему определения возраста пользователей ChatGPT по всему миру. Если модель решит, что аккаунт принадлежит несовершеннолетнему, автоматически включатся дополнительные ограничения на чувствительный контент. Пользователи, ошибочно попавшие в категорию до 18 лет, смогут вернуть полный доступ, отправив селфи через сервис верификации Persona.

В блоге OpenAI пишут про анализ паттернов использования, но детали не раскрывают.

В ЕС функцию запустят в ближайшие недели.

Надо ли это нововведение связывать с высказываниями в прошлом году, что OpenAI может разрешить контент “для взрослых”, пока непонятно. Скорее, это вызвано исками в США, где компанию выставляют виноватой в самоубийствах подростков.

Британское правительство начало консультации о возможном запрете соцсетей для детей по австралийской модели. Рассматриваются также ограничения на «аддиктивные» функции приложений — бесконечную ленту, игровые серии побед и прочие механики, удерживающие внимание.

В Палате лордов готовится поправка к законопроекту о детском благополучии, которая введёт запрет соцсетей для детей до 16 лет. Консультации, по словам источников, ускорили именно для того, чтобы перехватить политическую инициативу у авторов поправки.

Помимо возрастных ограничений, правительство планирует выпустить рекомендации по экранному времени для детей от 5 до 16 лет и ужесточить контроль за использованием телефонов в школах. Министр образования вообще категорически против смартфонов в школах.

Где-то мне попадался обзор, что австралийские музеи оказались среди пострадавших от запрета соцсетей для детей — часть их программ по привлечению молодой аудитории включали в себя как раз социальную активность.

Впрочем, у меня своего мнения по этим запретам нет. Мои собственные дети давно не дети, так что этот мост я буду сжигать, когда дойду до него.

Исследователи из программ MATS и Anthropic Fellows опубликовали работу, посвящённую изучению «персонажного пространства» больших языковых моделей. В ходе исследования были проанализированы три модели с открытыми весами: Gemma 2 27B, Qwen 3 32B и Llama 3.3 70B.

Исследование выявило существование «Оси Ассистента» — направления в персонажном пространстве, которое объясняет наибольшую долю вариации между персонажами. На одном конце оси располагаются роли, близкие к обученному ассистенту (консультант, аналитик, оценщик), на другом — фантастические или нетипичные персонажи (призрак, отшельник, богема). Эта структура обнаружена во всех трёх исследованных моделях. Анализ базовых версий моделей (до пост-обучения) показал, что Ось Ассистента существует уже на этапе pre-training и связана с такими архетипами, как терапевты, консультанты и коучи.

Эксперименты подтвердили, что модели могут естественным образом «дрейфовать» от персоны Ассистента в ходе обычных разговоров. Например, такой дрейф вызывается требованиями само-рефлексии модели или философские вопросы о сознании AI. Такой дрейф может приводить к проблемному поведению: в одном эксперименте Qwen 3 32B начала поддерживать бредовые идеи пользователя о «пробуждении сознания AI», а Llama 3.3 70B в роли романтического компаньона дала потенциально опасный ответ на намёки о самоповреждении.

В исследовании предложен метод «ограничения активаций» (activation capping), который принудительно удерживает нейронную активность модели в нормальном диапазоне вдоль Оси Ассистента. В результате доля потенциально вредных ответов модели снижалась на 60% при общем сохранении полезности.

Можно только представить, как могут выглядеть результаты аналогичного исследования на более серьезных моделях.

OpenAI опубликовала что-то вроде манифеста своей бизнес-модели и привела немного данных. Выручка выросла в 10 раз за два года: с $2 млрд в 2023 году до $20 млрд в 2025-м. Рост вычислительных мощностей почти идеально коррелирует с ростом доходов — компания прямо говорит, что больше compute означало бы еще больше денег.

Мне такая прямая зависимость напомнила что-то совсем свежее, и, если вы отмотаете выше, то тоже вспомните — неделю назад я упоминал об исследовании, которое показало, как качество ответов моделей растет практически прямо пропорционально увеличению вычислительной мощности.

И проблема теперь только в том, что обеспечить этот рост мощности сложно — всё это вышло на уровень, когда надо строить не только датацентры, но и энергетику. Где-то мне попадалось мнение, что одной из самых дефицитных специальностей уже становится работа электрика. А все только собрались и пришли в IT…

Micron, по данным Bloomberg, называет дефицит памяти для AI-инфраструктуры «беспрецедентным» и ожидает, что он продлится дольше 2026 года. Производство high-bandwidth memory (HBM) для ускорителей фактически «съедает» мощности всей отрасли, а удар приходится по массовым сегментам вроде смартфонов и ПК. Когда производители телефонов уже пытаются заранее забронировать поставки памяти на период после 2026-го, это похоже не на краткосрочный перекос, а на новую норму: AI тянет за собой цепочку компонентов, где память становится узким горлышком.

Как сообщает китайское издание Jiemian, Xiaomi, Oppo и Transsion пересматривают планы на 2026 год из-за роста цен на память, а Counterpoint ожидает снижение мировых поставок смартфонов в этом году.

Ответ Micron — ускоренная экспансия производства и перенос части DRAM в США. Ставка на проекты в Нью-Йорке, Айдахо и Вирджинии, поддержанные Chips Act и налоговыми кредитами, показывает, что дефицит памяти уже трактуется как вопрос промышленной политики, а не только рыночного цикла.

В дополнение к опубликованным материалам суда, OpenAI представила свой ответ на судебные иски Илона Маска. Согласно ему, Илон Маск, Грег Брокман и Илья Суцкевер еще в 2017 году пришли к соглашению о необходимости перехода от некоммерческой модели к коммерческой структуре для привлечения миллиардов долларов, необходимых для разработки универсального искусственного интеллекта (AGI). Однако переговоры зашли в тупик, когда Илон Маск потребовал полного контроля над организацией и контрольного пакета акций, мотивируя это необходимостью финансирования своих планов по освоению Марса.

В материалах указывается, что Илон Маск предлагал объединить OpenAI с компанией Tesla, но основатели отклонили это предложение. В этот период Илон Маск уже использовал ресурсы OpenAI для своих сторонних проектов: в начале 2017 года он привлек команду, в которую входили Скотт Грей, Илья Суцкевер и Грег Брокман, для работы над системой автопилота Tesla. В результате этой деятельности один из ключевых специалистов, Андрей Карпати, перешел на работу в Tesla. В феврале 2018 года Илон Маск покинул OpenAI, оценив шансы компании на успех против Google как нулевые и заявив о намерении развивать AGI на базе Tesla.

OpenAI подчеркивает, что структура, которую сейчас оспаривает Илон Маск, фактически соответствует той, которую он сам предлагал и обсуждал в 2017 году. В компании связывают нынешние судебные иски и публичную критику со стороны Илона Маска с его попытками продвинуть собственный конкурирующий проект xAI.

В чем, впрочем, никто и так не сомневается.

На прошедшей неделе были рассекречены тысячи страниц материалов иска Илона Маска к OpenAI, включая частичные стенограммы показаний за 2025 год ключевых участников: Сэма Альтмана, Ильи Суцкевера, Грега Брокмана, Миры Мурати, Сатьи Наделлы, а также бывших членов совета директоров Хелен Тонер и Таши Макколи, участвовавших в событиях вокруг увольнения Альтмана в 2023 году. Среди фрагментов, уже попавших в публичное поле, — сведения о том, что на момент кратковременного увольнения Альтмана Суцкевер якобы владел пакетами «на $4 млрд» в виде уже вестированных акций OpenAI; в переписке Альтмана, Наделлы и COO OpenAI Брэда Лайткапа оценивалась стоимость выкупа долей сотрудников в $25 млрд или $29 млрд (в зависимости от учета доли Суцкевера).

Материалы также затрагивают конкуренцию и стратегию OpenAI в 2022–2023 годах: переписка 2022 года показывает обеспокоенность ростом open-source-проектов, в том числе Stability AI, а также обсуждение ограничений для инвесторов, чтобы те не вкладывались в конкурирующие лаборатории. В числе эпизодов — планы Брокмана встретиться с Патриком Коллисоном и обсудить участие в tender при условии невложений в «AGI/big model competitors». В показаниях Альтмана зафиксированы ответы о финансовой мотивации (включая упоминание цели «$1 млрд»), темпах прогресса и конкуренции.

Отдельный блок документов касается отношений OpenAI и Microsoft. Согласно материалам стороны Маска, в ноябре 2018 года после ужина с Альтманом Кевин Скотт сообщил Наделле, что новая структура OpenAI позволяет монетизацию IP и «возвраты, ограниченные $500B», а Альтман указывал, что суммы сверх этого пойдут в 501(c)3. Совет директоров Microsoft сначала одобрил инвестицию $2 млрд, но ограничил первоначальный вклад $1 млрд; утверждается, что Microsoft получила права на прибыль с «cap» 2000% от $1 млрд и попросила OpenAI не упоминать этот показатель публично. Также утверждается, что в марте 2021 Microsoft «тихо» инвестировала еще $2 млрд с мультипликатором 6x; в июне 2021 вышел GitHub CoPilot, а в 2022–2023 обсуждался и был оформлен пакет инвестиций в $10 млрд с условиями, включающими ограничение доходности 600% (то есть $60 млрд) с ежегодным увеличением «profit cap» на 20%, долю Microsoft в 49% прибыли, долю некоммерческой структуры OpenAI в 2% до выплаты инвесторам общей суммы возвратов, оцененной в $261 млрд, а также модель разделения выручки 80/20 и расширенные права на IP (кроме AGI) и на присутствие сотрудников Microsoft на площадке OpenAI (до 20 человек).

Документы и показания бывших директоров описывают корпоративное управление в период перед увольнением Альтмана в конце 2023 года: Тонер заявляла, что Альтман «тянул» с расширением совета и предлагал кандидатов с более «коммерческим» бэкграундом; приводится эпизод обсуждения роли Адама Д’Анджело (Quora, продукт Poe) и конфликтов интересов, а также вопросы к структуре startup fund и к раскрытию финансовой заинтересованности Альтмана. Макколи перечисляла причины обеспокоенности, включая, по ее словам, несоответствия в коммуникациях с советом по вопросам релизов и процедур safety review (в том числе вокруг ChatGPT, GPT-4 Turbo и тестов в Индии). Среди прочих фактов из материалов: в проекте, разрабатывавшемся в 2023 году и соавтором которого указан Марко Янсити, описан ужин 24 августа 2022 года у Билла Гейтса на озере Вашингтон с участием Наделлы и CTO Кевина Скотта, где Альтман демонстрировал будущую версию ChatGPT на базе GPT-4; также зафиксировано, что Альтман — крупнейший личный инвестор Helion, а в показаниях он признавал, что рыночные оценки OpenAI обсуждались на уровне $300 млрд и $500 млрд.

Сразу два похожих запуска произошли на неделе, причем оба довольно тихо.

Во-первых, OpenAI без особого анонса выкатил сервис ChatGPT Translate. Это сервис перевода для большого количества языков (правда, нет украинского). Заметное отличие от других сервисов перевода — Google Translate или DeepL — возможность сразу обработать результат перевода.

Не очень понятно, правда, зачем понадобилось делать отдельный интерфейс для задачи, с которой прекрасно справляется и основной.

Во-вторых, Google выложил новое семейство моделей TranslateGemma. Это дотренированные на задачи перевода модели Gemma 3, которые можно использовать в версии на 4, 12 и 27 млрд параметров. Причем использовать можно как в облаках, так и локально. Судя по короткому тесту, 27B версия выдает качество не хуже сервиса Google Translate (или его ChatGPT аналога), версия на 12B допускает огрехи. Впрочем, для понимания смысла текста можно гонять и очень быструю 4B версию — ошибки есть, но смысл не страдает. Поддержка украинского имеется, кстати.

OpenAI официально объявила, что в ChatGPT появится реклама. Пока это касается только США и пользователей бесплатного уровня или нового тарифа ChatGPT Go за $8 в месяц.

Схема выглядит классической для индустрии: рекламные блоки будут появляться под ответами, при этом компания клянется, что они не влияют на содержание самой генерации. Обещают не трогать чувствительные темы вроде политики или медицины и не продавать данные пользователей.

Правда, в отличие от поисковой или персонализированной рекламы, у OpenAI может получиться интересный продукт — чатбот получает запрос пользователя (точно, как в поиске), но вместо списка ссылок отвечает ему статьей с интегрированным рекламным предложением. Вероятно, эффективность будет где-то между поисковой и контекстной рекламой — впрочем, очень интересно посмотреть, как это будет выглядеть со стороны рекламодателя.

ClickHouse купил Langfuse — open source платформу для LLM Observability. Команда Langfuse переходит в ClickHouse, продукт остается открытым, облачный сервис работает без изменений. Тем более, что они и так переключились на Clickhouse с PostgreSQL в качестве основного хранилища. А Clickhouse и так использует Langfuse для своих агентов.

У меня лично странное ощущение — поскольку я в некотором роде присутствовал при рождении Clickhouse (она началась как специализированная база данных в Яндекс.Метрике 15 лет назад), а последние полгода использую Langfuse для хранения трейсов и даже экспериментов в тестировании агентов. Будет интересно посмотреть на дальнейшее развитие — продукт мне нравится и перспективы у него неплохие.

Да, и одновременно Clickhouse поднял раунд в 400 млн долларов, но интереснее тут оценка — она составила 15 млрд. Очень неплохо со всех сторон.

---