Поскольку мы к заявлениям Демиса Хассабиса из Google DeepMind и Дарио Амодеи из Anthropic будем возвращаться еще несколько месяцев, то вот приблизительное содержание их дискуссии в Давосе с Занни Минтон Беддос из The Economist.

Центральной темой разговора стало расхождение в оценках скорости технологического прогресса. Амодеи подтвердил прогноз о появлении моделей уровня Нобелевского лауреата к 2026–2027 годам. Ускорение процессов он связывает с возникновением замкнутого цикла, в котором AI начинает самостоятельно писать код и проводить исследования, улучшая собственные характеристики без участия человека. Хассабис придерживается более консервативной оценки, прогнозируя создание AGI к концу текущего десятилетия с вероятностью 50%. Он согласен с успехами в областях кодинга и математики, но указывает на ограничения в естественных науках, где для верификации гипотез требуются физические эксперименты, которые LLM не может провести.

В контексте корпоративной конкуренции представители компаний отметили разные траектории развития. Амодеи сообщил о росте выручки Anthropic со 100 миллионов долларов в 2023 году до прогнозируемых 10 миллиардов в 2025 году, утверждая, что доминирующее положение займут компании, управляемые исследователями. Хассабис заявил о возвращении Google лидерских позиций с выпуском моделей Gemini 3 (о, как он прав!) и восстановлении «стартап-культуры» внутри корпорации после периода отставания. Ключевым индикатором прогресса в следующем году оба считают способность AI-систем к автономному самосовершенствованию.

Обсуждение влияния на рынок труда выявило консенсус относительно уязвимости людей на рынке труда. Амодеи предполагает исчезновение до половины офисных вакансий начального уровня в ближайшие 1–5 лет из-за того, что скорость внедрения технологий превысит адаптационные возможности экономики. Хассабис рекомендует специалистам использовать AI-инструменты для повышения эффективности, чтобы миновать стадию junior-разработки. В долгосрочной перспективе, после достижения AGI, оба прогнозируют фундаментальный сдвиг, при котором экономические вопросы отойдут на второй план перед вопросами назначения человека.

Геополитические взгляды участников дискуссии разошлись. Хассабис выступает за международную координацию стандартов безопасности, включая взаимодействие с Китаем, и допускает целесообразность намеренного замедления разработки ради социальной адаптации. Амодеи занимает жесткую позицию, поддерживая экспортные ограничения на чипы. Он проводит аналогию между передовыми вычислительными мощностями и компонентами ядерного оружия, считая изоляцию геополитических конкурентов необходимым условием для выигрыша времени. В вопросах безопасности Амодеи анонсировал работу над концепцией «технологического отрочества», описывающей риски переходного периода, такие как биотерроризм. Оба спикера отвергают фатализм, считая технические проблемы безопасности решаемыми при наличии ресурсов, однако отмечают, что геополитическая гонка значительно усложняет внедрение надежных протоколов контроля.

Мы же все время обсуждаем, как реальные люди потеряют работу из-за AI. А вот свежее исследование, авторы которого решили посмотреть на проблему иначе — а как люди могут адаптироваться к этому?

Авторы построили индекс адаптивной способности для 356 профессий, охватывающих почти 96% рабочей силы США, и сопоставили его с существующими оценками воздействия AI на различные профессии.

Главный результат неочевиден. Профессии с высоким воздействием AI и способность работников адаптироваться к потере работы коррелируют положительно. Иными словами, те, чьи задачи AI способен выполнять лучше всего, в среднем лучше подготовлены к смене профессии. Из 37 миллионов работников в верхнем квартиле по воздействию AI более 26 миллионов обладают адаптивной способностью выше медианы.

Однако около 6 миллионов человек попадают в зону повышенного риска, сочетая высокое воздействие AI с низкой адаптивной способностью. Это преимущественно канцелярские и административные работники: секретари, офисные клерки, помощники по документообороту. Их профессии требуют навыков, которые AI освоил достаточно хорошо, но при этом сами работники располагают скромными сбережениями и навыками, плохо переносимыми в другие сферы.

Здесь проявляется важное разделение внутри профессий с высоким воздействием AI. Маркетологи, разработчики и финансовые аналитики работают с задачами, которые ИИ тоже может выполнять, но они имеют существенные накопления и востребованные на разных позициях компетенции. Секретари и клерки находятся под сопоставимым технологическим давлением, но без этих преимуществ.

Географически уязвимые работники распределены относительно равномерно по стране, хотя несколько выше их концентрация в университетских городках и столицах штатов, где административные позиции поддерживают работу крупных институтов. Технологические хабы вроде Сан-Хосе и Сиэтла показывают долю ниже средней.

Демографически группа риска на 81% состоит из женщин, что отражает гендерный состав административных профессий. Образовательный уровень заметно ниже среднего по рабочей силе.

Короче, программисты и прочие гуманитарии типа финансовых аналитиков, не переживайте за AI. Вы справитесь, адаптируетесь и найдете новую работу.

OpenAI запускает систему определения возраста пользователей ChatGPT по всему миру. Если модель решит, что аккаунт принадлежит несовершеннолетнему, автоматически включатся дополнительные ограничения на чувствительный контент. Пользователи, ошибочно попавшие в категорию до 18 лет, смогут вернуть полный доступ, отправив селфи через сервис верификации Persona.

В блоге OpenAI пишут про анализ паттернов использования, но детали не раскрывают.

В ЕС функцию запустят в ближайшие недели.

Надо ли это нововведение связывать с высказываниями в прошлом году, что OpenAI может разрешить контент “для взрослых”, пока непонятно. Скорее, это вызвано исками в США, где компанию выставляют виноватой в самоубийствах подростков.

Британское правительство начало консультации о возможном запрете соцсетей для детей по австралийской модели. Рассматриваются также ограничения на «аддиктивные» функции приложений — бесконечную ленту, игровые серии побед и прочие механики, удерживающие внимание.

В Палате лордов готовится поправка к законопроекту о детском благополучии, которая введёт запрет соцсетей для детей до 16 лет. Консультации, по словам источников, ускорили именно для того, чтобы перехватить политическую инициативу у авторов поправки.

Помимо возрастных ограничений, правительство планирует выпустить рекомендации по экранному времени для детей от 5 до 16 лет и ужесточить контроль за использованием телефонов в школах. Министр образования вообще категорически против смартфонов в школах.

Где-то мне попадался обзор, что австралийские музеи оказались среди пострадавших от запрета соцсетей для детей — часть их программ по привлечению молодой аудитории включали в себя как раз социальную активность.

Впрочем, у меня своего мнения по этим запретам нет. Мои собственные дети давно не дети, так что этот мост я буду сжигать, когда дойду до него.

Исследователи из программ MATS и Anthropic Fellows опубликовали работу, посвящённую изучению «персонажного пространства» больших языковых моделей. В ходе исследования были проанализированы три модели с открытыми весами: Gemma 2 27B, Qwen 3 32B и Llama 3.3 70B.

Исследование выявило существование «Оси Ассистента» — направления в персонажном пространстве, которое объясняет наибольшую долю вариации между персонажами. На одном конце оси располагаются роли, близкие к обученному ассистенту (консультант, аналитик, оценщик), на другом — фантастические или нетипичные персонажи (призрак, отшельник, богема). Эта структура обнаружена во всех трёх исследованных моделях. Анализ базовых версий моделей (до пост-обучения) показал, что Ось Ассистента существует уже на этапе pre-training и связана с такими архетипами, как терапевты, консультанты и коучи.

Эксперименты подтвердили, что модели могут естественным образом «дрейфовать» от персоны Ассистента в ходе обычных разговоров. Например, такой дрейф вызывается требованиями само-рефлексии модели или философские вопросы о сознании AI. Такой дрейф может приводить к проблемному поведению: в одном эксперименте Qwen 3 32B начала поддерживать бредовые идеи пользователя о «пробуждении сознания AI», а Llama 3.3 70B в роли романтического компаньона дала потенциально опасный ответ на намёки о самоповреждении.

В исследовании предложен метод «ограничения активаций» (activation capping), который принудительно удерживает нейронную активность модели в нормальном диапазоне вдоль Оси Ассистента. В результате доля потенциально вредных ответов модели снижалась на 60% при общем сохранении полезности.

Можно только представить, как могут выглядеть результаты аналогичного исследования на более серьезных моделях.

OpenAI опубликовала что-то вроде манифеста своей бизнес-модели и привела немного данных. Выручка выросла в 10 раз за два года: с $2 млрд в 2023 году до $20 млрд в 2025-м. Рост вычислительных мощностей почти идеально коррелирует с ростом доходов — компания прямо говорит, что больше compute означало бы еще больше денег.

Мне такая прямая зависимость напомнила что-то совсем свежее, и, если вы отмотаете выше, то тоже вспомните — неделю назад я упоминал об исследовании, которое показало, как качество ответов моделей растет практически прямо пропорционально увеличению вычислительной мощности.

И проблема теперь только в том, что обеспечить этот рост мощности сложно — всё это вышло на уровень, когда надо строить не только датацентры, но и энергетику. Где-то мне попадалось мнение, что одной из самых дефицитных специальностей уже становится работа электрика. А все только собрались и пришли в IT…

Micron, по данным Bloomberg, называет дефицит памяти для AI-инфраструктуры «беспрецедентным» и ожидает, что он продлится дольше 2026 года. Производство high-bandwidth memory (HBM) для ускорителей фактически «съедает» мощности всей отрасли, а удар приходится по массовым сегментам вроде смартфонов и ПК. Когда производители телефонов уже пытаются заранее забронировать поставки памяти на период после 2026-го, это похоже не на краткосрочный перекос, а на новую норму: AI тянет за собой цепочку компонентов, где память становится узким горлышком.

Как сообщает китайское издание Jiemian, Xiaomi, Oppo и Transsion пересматривают планы на 2026 год из-за роста цен на память, а Counterpoint ожидает снижение мировых поставок смартфонов в этом году.

Ответ Micron — ускоренная экспансия производства и перенос части DRAM в США. Ставка на проекты в Нью-Йорке, Айдахо и Вирджинии, поддержанные Chips Act и налоговыми кредитами, показывает, что дефицит памяти уже трактуется как вопрос промышленной политики, а не только рыночного цикла.

В дополнение к опубликованным материалам суда, OpenAI представила свой ответ на судебные иски Илона Маска. Согласно ему, Илон Маск, Грег Брокман и Илья Суцкевер еще в 2017 году пришли к соглашению о необходимости перехода от некоммерческой модели к коммерческой структуре для привлечения миллиардов долларов, необходимых для разработки универсального искусственного интеллекта (AGI). Однако переговоры зашли в тупик, когда Илон Маск потребовал полного контроля над организацией и контрольного пакета акций, мотивируя это необходимостью финансирования своих планов по освоению Марса.

В материалах указывается, что Илон Маск предлагал объединить OpenAI с компанией Tesla, но основатели отклонили это предложение. В этот период Илон Маск уже использовал ресурсы OpenAI для своих сторонних проектов: в начале 2017 года он привлек команду, в которую входили Скотт Грей, Илья Суцкевер и Грег Брокман, для работы над системой автопилота Tesla. В результате этой деятельности один из ключевых специалистов, Андрей Карпати, перешел на работу в Tesla. В феврале 2018 года Илон Маск покинул OpenAI, оценив шансы компании на успех против Google как нулевые и заявив о намерении развивать AGI на базе Tesla.

OpenAI подчеркивает, что структура, которую сейчас оспаривает Илон Маск, фактически соответствует той, которую он сам предлагал и обсуждал в 2017 году. В компании связывают нынешние судебные иски и публичную критику со стороны Илона Маска с его попытками продвинуть собственный конкурирующий проект xAI.

В чем, впрочем, никто и так не сомневается.

На прошедшей неделе были рассекречены тысячи страниц материалов иска Илона Маска к OpenAI, включая частичные стенограммы показаний за 2025 год ключевых участников: Сэма Альтмана, Ильи Суцкевера, Грега Брокмана, Миры Мурати, Сатьи Наделлы, а также бывших членов совета директоров Хелен Тонер и Таши Макколи, участвовавших в событиях вокруг увольнения Альтмана в 2023 году. Среди фрагментов, уже попавших в публичное поле, — сведения о том, что на момент кратковременного увольнения Альтмана Суцкевер якобы владел пакетами «на $4 млрд» в виде уже вестированных акций OpenAI; в переписке Альтмана, Наделлы и COO OpenAI Брэда Лайткапа оценивалась стоимость выкупа долей сотрудников в $25 млрд или $29 млрд (в зависимости от учета доли Суцкевера).

Материалы также затрагивают конкуренцию и стратегию OpenAI в 2022–2023 годах: переписка 2022 года показывает обеспокоенность ростом open-source-проектов, в том числе Stability AI, а также обсуждение ограничений для инвесторов, чтобы те не вкладывались в конкурирующие лаборатории. В числе эпизодов — планы Брокмана встретиться с Патриком Коллисоном и обсудить участие в tender при условии невложений в «AGI/big model competitors». В показаниях Альтмана зафиксированы ответы о финансовой мотивации (включая упоминание цели «$1 млрд»), темпах прогресса и конкуренции.

Отдельный блок документов касается отношений OpenAI и Microsoft. Согласно материалам стороны Маска, в ноябре 2018 года после ужина с Альтманом Кевин Скотт сообщил Наделле, что новая структура OpenAI позволяет монетизацию IP и «возвраты, ограниченные $500B», а Альтман указывал, что суммы сверх этого пойдут в 501(c)3. Совет директоров Microsoft сначала одобрил инвестицию $2 млрд, но ограничил первоначальный вклад $1 млрд; утверждается, что Microsoft получила права на прибыль с «cap» 2000% от $1 млрд и попросила OpenAI не упоминать этот показатель публично. Также утверждается, что в марте 2021 Microsoft «тихо» инвестировала еще $2 млрд с мультипликатором 6x; в июне 2021 вышел GitHub CoPilot, а в 2022–2023 обсуждался и был оформлен пакет инвестиций в $10 млрд с условиями, включающими ограничение доходности 600% (то есть $60 млрд) с ежегодным увеличением «profit cap» на 20%, долю Microsoft в 49% прибыли, долю некоммерческой структуры OpenAI в 2% до выплаты инвесторам общей суммы возвратов, оцененной в $261 млрд, а также модель разделения выручки 80/20 и расширенные права на IP (кроме AGI) и на присутствие сотрудников Microsoft на площадке OpenAI (до 20 человек).

Документы и показания бывших директоров описывают корпоративное управление в период перед увольнением Альтмана в конце 2023 года: Тонер заявляла, что Альтман «тянул» с расширением совета и предлагал кандидатов с более «коммерческим» бэкграундом; приводится эпизод обсуждения роли Адама Д’Анджело (Quora, продукт Poe) и конфликтов интересов, а также вопросы к структуре startup fund и к раскрытию финансовой заинтересованности Альтмана. Макколи перечисляла причины обеспокоенности, включая, по ее словам, несоответствия в коммуникациях с советом по вопросам релизов и процедур safety review (в том числе вокруг ChatGPT, GPT-4 Turbo и тестов в Индии). Среди прочих фактов из материалов: в проекте, разрабатывавшемся в 2023 году и соавтором которого указан Марко Янсити, описан ужин 24 августа 2022 года у Билла Гейтса на озере Вашингтон с участием Наделлы и CTO Кевина Скотта, где Альтман демонстрировал будущую версию ChatGPT на базе GPT-4; также зафиксировано, что Альтман — крупнейший личный инвестор Helion, а в показаниях он признавал, что рыночные оценки OpenAI обсуждались на уровне $300 млрд и $500 млрд.

Сразу два похожих запуска произошли на неделе, причем оба довольно тихо.

Во-первых, OpenAI без особого анонса выкатил сервис ChatGPT Translate. Это сервис перевода для большого количества языков (правда, нет украинского). Заметное отличие от других сервисов перевода — Google Translate или DeepL — возможность сразу обработать результат перевода.

Не очень понятно, правда, зачем понадобилось делать отдельный интерфейс для задачи, с которой прекрасно справляется и основной.

Во-вторых, Google выложил новое семейство моделей TranslateGemma. Это дотренированные на задачи перевода модели Gemma 3, которые можно использовать в версии на 4, 12 и 27 млрд параметров. Причем использовать можно как в облаках, так и локально. Судя по короткому тесту, 27B версия выдает качество не хуже сервиса Google Translate (или его ChatGPT аналога), версия на 12B допускает огрехи. Впрочем, для понимания смысла текста можно гонять и очень быструю 4B версию — ошибки есть, но смысл не страдает. Поддержка украинского имеется, кстати.

---