После того как на прошлой неделе Meta начала обещанную кампанию по увольнению low performers, они начали необычную кампанию в LinkedIn. Вместо традиционных вежливых постов об увольнении с благодарностями бывшему работодателю, сотрудники открыто оспаривают оценку своей работы.

“Я не низкоэффективный работник”, “У меня есть отличные оценки производительности”, “Это неверный ярлык” — пишут уволенные, некоторые даже публикуют скриншоты своих блестящих рабочих отзывов. Многие получали оценки “превзошел ожидания” и “значительно превзошел ожидания”.

Это новое явление в профессиональном мире — раньше люди старались скрыть факт увольнения, опасаясь стигмы. Ситуация начала меняться в конце 2022 года на фоне массовых сокращений в tech-секторе, когда CEO часто извинялись за чрезмерный наем и хвалили уволенных сотрудников. Теперь же бывшие работники Meta идут дальше, используя социальные сети, чтобы противостоять его нарративу.

Я бы сказал, что подобная ситуация может объясняться двумя способами. Либо все процедуры ревью были не очень адекватными — то есть сотрудникам ставили шаблонно позитивные оценки, а теперь решили навести порядок — только непонятно как отобрали именно этих сотрудников. Либо кандидатов на увольнение отбирали немного по другим показателям — и тогда стоит подождать, чтобы узнать об этом.

В обоих случаях это фейл менеджмента. Но самому высшему менеджменту это уже не помешает.

Куй железо, не отходя от кассы — Илон Маск, владея русским, демонстрирует и знание старых советских комедий — буквально на глазах резко выросла стоимость подписки Premium+, дающей доступ к Grok, почти до $50 в месяц. Это уже второе повышение цены за последние месяцы — в декабре стоимость выросла с $16 до $22.

При этом не все функции Grok 3 будут доступны подписчикам Premium+ — некоторые возможности, такие как “глубокий поиск” и “рассуждения”, будут доступны только в отдельном плане SuperGrok через приложение Grok.

Любопытно, что на сайте X наблюдается путаница с ценами — поддержка указывает $50 в месяц, страница регистрации показывает $48.40, а при оформлении подписки цена составляет $40. Годовая подписка тоже варьируется от $350 до $477.95.

Почему пишу, что “на глазах” — потому что я пару часов назад возобновлял подписку и с меня сняли как раз 22 доллара (точнее 19+ при оплате за год). А Grok только появился — причем в интерфейсе Twitter, а на Grok.com по-прежнему его нет. Ну, такое, недетерминированный релиз, понимать надо современные технологии.

Ставки повышаются — Safe Superintelligence, стартап Ильи Суцкевера, ведет переговоры о привлечении $1 млрд при оценке в $30 млрд. Лид-инвестором может стать Greenoaks Capital Partners.

Это будет второй миллиардный раунд для компании — в сентябре она уже привлекла $1 млрд от Andreessen Horowitz, Sequoia Capital, DST Global и других инвесторов при оценке в $5 млрд. Еще 10 дней назад слухи, о которых я здесь писал, давали оценку компании в 20 млрд долларов. И если вы считаете, что что-то пропустили, то нет — никаких других новостей о стартапе не было, как и приблизительных намеков на наличие какого-либо продукта.

xAI Илона Маска выпустила Grok 3 — новую версию своей флагманской модели ИИ. Компания заявляет, что модель превосходит GPT-4o от OpenAI по ряду тестов, включая математические задачи AIME и задачи уровня PhD по физике, биологии и химии.

Для обучения Grok 3 использовался огромный дата-центр в Мемфисе с 200 тысячами GPU. По словам Маска, на обучение было затрачено в 10 раз больше вычислительной мощности, чем на предыдущую версию.

Grok 3 — это семейство моделей, включающее облегченную версию Grok 3 mini и модели с рассуждениями (reasoning) — Grok 3 Reasoning и Grok 3 mini Reasoning. Последние могут “обдумывать” проблемы подобно моделям o3-mini от OpenAI и R1 от DeepSeek.

Доступ к Grok 3 получат сначала подписчики X Premium+, а дополнительные функции будут доступны по подписке SuperGrok, вероятно, за $30/месяц. xAI также планирует открыть исходный код Grok 2, когда Grok 3 станет стабильной, то есть через несколько месяцев.

Пока доступа к Grok 3 нет — желающие могут сходить на lmarena.ai, где попробовать пообщаться с версией early grok-3. Такая доступность немного объясняет, как модель уже возглавила хит-парад на lmarena, а на презентации активно показывались слайды про безусловное лидерство модели во всех категориях (правда, без наличия на слайдах o3-mini).

В целом, пока не видно, чтобы ажиотажный запуск доказал, что проблемы развития AI можно решить, закидав задачи железом.

Си Цзиньпин собрал на встречу руководителей крупнейших технологических компаний — от производителей чипов и электромобилей до разработчиков AI, включая создателя Huawei Жэнь Чжэнфэя и основателя DeepSeek Лян Вэньфэна.

Си пообещал устранить необоснованные сборы и штрафы для частных компаний и обеспечить равные условия конкуренции — частая жалоба предпринимателей в системе с доминированием госсектора. Парламент Китая также объявил о планах пересмотреть законодательство для поддержки частной экономики.

Особенно символично присутствие Джека Ма, который стал самой заметной жертвой кампании по “закручиванию гаек” в технологическом секторе в 2020 году. Помните, после его критики в адрес финансовых регуляторов последовала отмена IPO Ant Group, а он сам практически исчез из публичного пространства. Теперь же его компания Alibaba становится одним из лидеров в сфере AI — ее модель Qwen показывает хорошие результаты в официальных тестах, а Apple интегрирует технологии Alibaba в китайские iPhone.

Впрочем, вряд ли это свидетельствует о развороте КПК ко всемерной поддержке частного предпринимательства. Но, как понятно, предприниматели этого и не ждут.

X (бывший Twitter) блокирует ссылки на “Signal.me” — домен, который используется мессенджером Signal для быстрого добавления контактов. Пользователи не могут разместить такие ссылки ни в личных сообщениях, ни в публичных постах, ни даже в профиле.

При попытке размещения ссылки появляются различные сообщения об ошибке: от “эта ссылка потенциально вредоносна” до “описание считается вредоносным ПО”. X также блокирует возможность перехода по уже опубликованным ссылкам Signal.me, показывая предупреждение о небезопасности (хотя его можно проигнорировать).

Интересно, что блокировка касается только домена Signal.me — ссылки на Signal.org по-прежнему работают. Также работают ссылки на другие мессенджеры, например, Telegram.

Ввиду своей защищенности, Signal часто используется журналистами для контакта со своими источниками, и это стало особенно актуально в США в последние недели, когда сотрудники федеральных ведомств хотят связаться с журналистами для информирования о деятельности команды молодых специалистов Маска. Но поскольку новая администрация теперь учит весь мир свободе слова и демократии, неудивительно, что размещать ссылки на контакты в таком мессенджере не благословляется.

В Европе запускается амбициозный проект OpenEuroLLM по созданию действительно открытых языковых моделей для всех 24 официальных языков ЕС, а также языков стран-кандидатов. Бюджет проекта составляет 37,4 млн евро, из которых 20 млн выделяет ЕС.

Консорциум из 20 организаций во главе с чешским лингвистом Яном Гайичем и руководителем финской AI-лаборатории Silo AI Петером Сарлином обещает первые результаты к середине 2026 года. Правда, французский AI-единорог Mistral AI отказался от участия, несмотря на попытки привлечь его к проекту.

Финальные результаты планируется получить к 2028 году. Проект использует наработки предыдущей инициативы HPLT, включая датасет объемом 4,5 петабайта. Основной фокус — на качестве моделей и сохранении лингвистического и культурного разнообразия.

Критики указывают на сложность координации такого количества участников и относительно небольшой бюджет по сравнению с корпоративными гигантами. Кроме того, существует параллельный проект EuroLLM с похожими целями. Однако руководители проекта уверены, что сочетание академической экспертизы и бизнес-фокуса, а также доступ к суперкомпьютерам EuroHPC позволят создать качественные модели.

Интересный вопрос — как создатели будут балансировать между открытостью и качеством. По словам Гайича, для достижения максимального качества придется использовать данные, которые нельзя будет открыто распространять. Хотя аудиторы смогут получить к ним доступ в соответствии с требованиями европейского AI Act.

Ну, посмотрим, практика — критерий истины. В итоге может получиться не самая мощная, но полностью европейская модель. И это выглядит как главная цель проекта — обеспечить цифровой суверенитет ЕС по части AI.

Южная Корея приостановила новые загрузки приложения DeepSeek после того, как китайский стартап признал, что не учел некоторые требования местного регулятора по защите персональных данных.

Это уже второй случай блокировки DeepSeek в феврале — ранее итальянский регулятор запретил работу чатбота в стране из-за проблем с политикой конфиденциальности.

МИД Китая в ответ заявил, что правительство уделяет большое внимание защите данных и никогда не будет требовать от компаний нарушать законы других стран. Впрочем, китайский стартап уже назначил юридических представителей в Южной Корее, и, вероятно, будет пробовать как-то решить проблему.

Веб-версия DeepSeek в Южной Корее доступна. Вероятно, опция блокировки сайтов используется регулятором гораздо реже, чем простое указание аппсторам.

Бастионы немного рушатся — The New York Times разрешает своим сотрудникам использовать AI-инструменты, включая собственную разработку Echo для создания кратких версий статей. Компания одобрила использование GitHub Copilot, Google Vertex AI, NotebookLM и API OpenAI (но не ChatGPT) для разработки продуктов и редакционных задач.

Журналистам разрешено применять AI для создания SEO-заголовков, анонсов для соцсетей, генерации вопросов для интервью и исследовательской работы. При этом есть четкие ограничения — нельзя использовать AI для написания или существенной переработки статей, работы с материалами третьих лиц, особенно конфиденциальной информацией источников, или публикации сгенерированных изображений.

Вы же помните, что это NYT обвиняет OpenAI в нарушениях авторских прав при обучении моделей на доступных материалах, в том числе и самой NY Times? Я не очень понимаю, как это работает — то есть обучаться на нас нельзя, но мы результатами ваших нарушений будем пользоваться?

Конечно, “некоторые” сотрудники NYT скептически относятся к использованию AI, опасаясь, что это может привести к “ленивым” заголовкам и неточной информации.

Пока третье лицо в США — вицепрезидент Вэнс, — критикует Европу за излишнее регулирование AI, на которое никогда не пойдет администрация Трампа, как минимум 12 американских штатов рассматривают законопроекты, удивительно похожие на европейский AI Act.

Законопроекты фокусируются на предотвращении “алгоритмической дискриминации” и требуют от компаний, использующих ИИ для “значимых решений”, проводить оценку рисков и готовить планы управления ими. При этом определения “значимых решений” и “существенного фактора” настолько размыты, что под регулирование может попасть как использование ChatGPT для первичного отбора резюме, так и использование социальных сетей для размещения объявления о вакансии — ведь там алгоритмически определяется, кому показать это объявление.

Лоббирование этих законопроектов осуществляет некоммерческая организация Future of Privacy Forum, финансируемая крупными технологическими компаниями. Фактически, как пишет автор обзора, FPF способствует экспорту европейского подхода к регулированию технологий в американские штаты.

Затраты на соблюдение этих законов могут составить 5-15% от расходов компаний на ИИ. При этом доказательств того, что алгоритмическая дискриминация является настолько серьезной проблемой, чтобы оправдать такие затраты, нет. Например, за всю историю использования систем распознавания лиц полицией было зафиксировано всего восемь случаев ошибочного ареста, во всех случаях обвинения были сняты после обнаружения ошибки.

Автор всерьез опасается, что повторится история с GDPR, когда более агрессивное регулирование в сфере конфиденциальности в Европе заметно повлияло на регулирование в США. Впрочем, достаточно только двух штатов — Калифорнии и Техаса, где находятся штаб-квартиры большинства tech-компаний, — и оба штата есть в списке 12-ти.

---