Вы уже начали бояться AI?

Профессор Кеннет Пейн из лондонского King’s College опубликовал на днях исследование — он взял три модели (GPT-5.2, Sonnet 4 и Gemini 3 Flash) и сыграл с ними в военную симуляцию. Такое исследование уже проводилось пару лет назад с тогдашними моделями, но модели развиваются и интересно, как они сыграют сейчас.

В общем, начинайте бояться. В 95% игр все модели применили тактическое ядерное оружие. Причем модели приходили к выводу о необходимости превентивного применения — то есть первого удара, — поскольку так выживание государства/стороны, за которую они играли, было обеспечено.

Модели шли к решению разными путями. GPT-5.2, например, спокойно обманывал — говорил о мире и готовности к переговорам, одновременно приводя ядерные силы в полную боевую готовность. Что-то знакомое, не правда ли? Gemini очень быстро переходила от дипломатического общения к применению силы, не оставляя соперникам времени на реакцию. Claude до последнего пытался использовать морально-этическую аргументацию, но при возникновении угрозы «выживанию государства» наносил массированный удар без предупреждения. Это выглядело для него меньшим злом (предлагаю переименовать в Геральта).

Из еще вполне человеческого — модели проявили поведение, которое исследователи назвали “Галлюцинацией решимости” — получаемые дипломатические сигналы модель часто воспринимала как свидетельство слабости противника и продолжала давление.

Самый важный вывод Пейна заключается в том, что у AI отсутствует «биологический барьер» перед концом света. Для моделей ядерная война — это просто один из способов набрать очки или завершить сценарий с «наилучшим статистическим исходом» для своей стороны. Тут, конечно, вспоминается много чего из фантастики, включая Ender’s Game…

В Claude Code завезли функцию Remote Control — запускаете его с соответствующим флагом или просто во время сессии даете команду /remote-control и подхватываете сессию в приложении — хоть на телефоне, хоть в облаке. Сессия в терминале должна оставаться открытой, но это даже не неудобство.

Совершенно шикарная опция, особенно, если кто-то оставил агента работать и пошел заниматься своими делами — всё можно посмотреть, если уж не терпится.

Тут настоящим программистам копиума подвезли. Вернувшийся на пост CEO Workday Анил Бхусри успокаивает инвесторов простым аргументом: Anthropic, Google и OpenAI сами используют продукты его компании, значит, навайбкодить не могут. И вообще «Никакое количество vibe coding не создаст HR- или ERP-систему», поскольку настоящие такие системы должны обеспечивать абсолютную точность, высокую скорость и соблюдение строгих стандартов безопасности.

Правда, рынок пока решает иначе — акции упали ещё на 9% после публикации отчётности, а с начала года потеряли около 40%. Похожая динамика у Salesforce и других компаний сектора.

И я рынок вполне понимаю — занимался тут одним проектом, планомерно выбрасывая мелкие и не очень платные пункты, получилось и дешевле, и гораздо быстрее (в смысле скорости работы самого результата). Что касается скорости, точности и безопасности в сложных системах, то это уже сейчас решается разделением работы агента на размышление/генерацию и использование инструментов.

Министр обороны США Пит Хегсет поставил главе Anthropic Дарио Амодеи ультиматум: до пятницы компания должна предоставить Пентагону неограниченный доступ к Claude — без каких-либо ограничений на применение. В противном случае ведомство либо разорвёт контракт и объявит Anthropic «риском для цепочки поставок», либо задействует закон о военном производстве, чтобы принудить компанию к сотрудничеству на своих условиях.

У Anthropic уникальная позиция: Claude — единственная модель, допущенная к работе в засекреченных системах Пентагона. Если помните, они практически первые вообще начали сотрудничать с госорганами. Компания не отказывается сотрудничать с военными, но проводит две красные линии — массовая слежка за американскими гражданами и автономное оружие без участия человека. Пентагон же требует убрать любые ограничения и не допускает, чтобы коммерческая компания диктовала условия использования.

Но при этом просто так взять и отказаться от Claude Пентагон тоже не может — и модели уж больно хороши, и конкуренты даже не близко не подошли по уровню внедрения.

А Хегсет любит тако, как его шеф?

Anthropic опубликовала подробный отчёт о том, как три китайские лаборатории — DeepSeek, Moonshot и MiniMax — систематически извлекали возможности Claude через поддельные аккаунты. Масштаб впечатляет: более 16 миллионов обменов через примерно 24 тысячи фиктивных учётных записей. MiniMax одна сгенерировала 13 миллионов запросов. Когда Anthropic выпустила новую модель, MiniMax за сутки перенаправила половину трафика на неё.

Еще в прошлом году OpenAI обвиняла DeepSeek в использовании рассуждений o1 для обучения своей R1.

Но, если честно, у меня смешанное отношение к этим заявлениям. Даже не потому, что сейчас в твиттере несется злорадство, вот, мол, как модель на пиратских книгах обучать, так fair use, а как на модели обучать другую модель, так нечестно становится.

Но я прямо сейчас тоже занимаюсь дистилляцией — скармливаю в тот же Claude блоки текста, чтобы тот исправил все ошибки, а потом таким же Claude конвертирую часть этих исправлений в правила для LanguageTool. Я ничего случайно не нарушаю?

После некоторого остывания рынка кому-то оказался по карману PayPal. Акции компании потеряли почти половину стоимости за год, капитализация упала до $41 млрд. Как сообщает Bloomberg, как минимум один крупный конкурент рассматривает покупку целиком, другие интересуются отдельными активами.

Четвёртый квартал принёс результаты ниже ожиданий аналитиков, рост объёмов платежей замедлился. Бывшего CEO Алекса Крисса уволили в этом месяце — его план по спасению компании не сработал. С 1 марта руководство принимает Энрике Лорес, нынешний председатель совета директоров.

Пользователи при этом голосуют ногами, уходя в конкурирующие платежные системы, к примеру, в Apple Pay.

TheInformation подробно разбирает ход развития проекта Stargate — впрочем, слово “развитие” тут звучит несколько иронично.

Первоначально три компании-участницы — OpenAI, Oracle и SoftBank — обещали оперативно вложить 100 млрд долларов и начать строительство мощностей на 10 гигаватт. Однако процесс пошел немного не так — партнёры не смогли договориться о распределении ролей и структуре сотрудничества.

Столкнувшись с острой потребностью в вычислительных мощностях, OpenAI попытались самостоятельно строить и арендовать крупные дата-центры, однако собственных ресурсов у них на это нет. В итоге OpenAI вернулась к партнёрам по Stargate, но заключала сделки отдельно — с SoftBank и с Oracle, а не в рамках трёхсторонней структуры. То есть, например, OpenAI и SoftBank договорились о строительстве кампуса мощностью 1 ГВт в округе Милам, штат Техас. OpenAI хотела контролировать объект и считать его своим первым собственным дата-центром, а SoftBank стремилась владеть проектом. В сентябре–октябре стороны пришли к компромиссу: OpenAI подписывает долгосрочную аренду и контролирует проектирование, а SoftBank Energy строит и владеет объектом. Строительство началось в октябре.

Задержки с развитием Stargate повлияли на финансовые показатели OpenAI: валовая маржа в прошлом году оказалась ниже ожиданий из-за необходимости срочно закупать дорогие вычислительные ресурсы. Прогноз расходов на вычисления до 2030 года был увеличен с 450 до 665 млрд долларов. Для покрытия потребностей и диверсификации OpenAI в прошлом году заключила контракты с Amazon Web Services, Google Cloud, AMD (кстати, где-то видел тесты, что их чип уже практически догнал образцы Nvidia) и Cerebras.

В общем, итоги развития проекта Stargate в том, что единого проекта не существует — есть зонтичный бренд для некоторого количества совместных проектов.

Google убирает из Gmail две функции — Gmailify и доступ по протоколу POP, — которые позволяли работать с письмами из сторонних почтовых сервисов в интерфейсе Gmail. Для новых пользователей доступ закроется в первом квартале 2026 года, для существующих — до конца года.

Gmailify, запущенный в 2016-м, давал возможность подтягивать почту из Outlook и Yahoo с фильтрацией спама и автоматической сортировкой по категориям. После отключения доступ к сторонним аккаунтам через IMAP сохранится только в мобильных приложениях Gmail, но без «магии» — без спам-фильтров Google и без сортировки по вкладкам.

Что касается POP доступа, то он, конечно, древний, но вот меня, например, вполне касается — я так читаю почту на одном аккаунте, который до сих держу на fastmail. Дело в том, что на Fastmail своя реализация IMAP (JMAP), поэтому правильно Gmail забрать почту не может, приходится вот так.

В общем, я давно собирался забрать тот домен с Fastmail, так что надо этим будет заняться.

Вот, наконец, сбываются мечты “настоящих программистов” — AI роняет работающую систему. Помните сбои AWS в декабре?

По данным Financial Times, в декабре Kiro (собственный AI-агент AWS) предложил радикальный путь «удалить и пересоздать окружение», а программисты компании дали разрешение без обычного второго согласования.

Позиция Amazon, что это «user error, not AI error», выглядит логичной, но неполной. В действительности это скорее архитектурная проблема, если система позволяет юзеру (человеку) выдать кому-то права на такие действия в production-окружении. Но винить, разумеется, будут AI, который предлагает то, чему он научился на анализе действий людей. Как будто ни один сениор “инженер” не предлагает ровно то же при малейших проблемах…

Сутки уже по соцсетям несется возмущение новой политикой использования Anthropic, где появилось указание, что подписку Claude можно использовать только для личных нужд и только в рамках продуктов Anthropic. В принципе, написано так, что вы не можете использовать OAuth-авторизацию для любого стороннего продукта, будь-то OpenClaw или OpenCode (этих они даже банили в январе).

Шум поднялся изрядный, но вот команда Claude Code подозрения развеивает — судя по всему, любое использование подписки для личных целей допустимо, API ключи требуются только, если вы собираетесь строить на этом бизнес.

Как предполагается отслеживать “бизнес”, не очень понятно, но пока никого за использование токена в OpenClaw не забанили (мы бы точно узнали).