Cloudflare объявила о приобретении британского стартапа Human Native. Сделка направлена на создание прозрачной экосистемы взаимодействия между разработчиками искусственного интеллекта и создателями контента. Cloudflare уже не впервые говорит на эту тему и известна своей позицией на защиту прав владельцев контента. С другой стороны, если ты обрабатываешь десятки процентов мирового трафика к сайтам и видишь, какую их долю составляют запросы AI-ботов, как-то понимаешь, что это всё должно быть не просто так. А за деньги.

Еще одна новость примерно про это же — Microsoft, Meta и Amazon официально пополнили список платных партнеров подразделения Wikimedia Enterprise. Программа, запущенная еще в 2021 году, предлагает крупному бизнесу и разработчикам AI доступ к очищенному и структурированному API Wikipedia. Wikimedia Foundation даже не скрывает, что устойчивость фонда (и проекта в целом) теперь напрямую связана с выживанием AI-компаний.

Правда, будущее выглядит лишь самую малость светлее, чем в “Матрице” — батарейки Матрицы не нужны (пока), а вот датасеты, составленные людьми, — очень даже.

Противнее президента страны, выпрашивающего себе золотые медальки со всего мира, может быть только миллиардер, использующий AI, чтобы троллить свою бывшую, мать своего ребенка. Новый биологический вид — Homo bullshit.

OpenAI, уже однажды став автором де-факто стандарта API для LLM с Completions API, теперь предлагают идти дальше — в рамках проекта OpenResponses в качестве основы нового стандарта предлагается Responses API, который больше года развивается OpenAI для доступа к своим моделям.

В принципе, идея совершенно логичная — зоопарк стандартов никому не нужен. Впрочем, понятно, что Google и Anthropic на это не пойдут, но многочисленные провайдеры инференса — от OpenRouter до LM Studio, — уже вписались. Собственно, опять же — логично переходя с нынешней OpenAI API compatible версии.

Иногда они возвращаются: Digg запускает публичную бету под руководством своего основателя Кевина Роуза и, что придает ситуации особую пикантность, сооснователя Reddit Алексиса Оганяна. Кевин выкупил проект обратно некоторое время назад — теперь можно оценить, зачем.

Новый Digg пытается решить главную проблему современного интернета — засилье ботов и токсичность, но без требования загружать скан паспорта (KYC). Роуз предлагает систему «сигналов доверия» на базе zero-knowledge proofs. Например, чтобы участвовать в дискуссии владельцев колец Oura, нужно криптографически подтвердить наличие устройства. Это превращает платформу из привычного агрегатора ссылок в набор верифицированных клубов по интересам. Правда, дальше можно додумать много чего — только совершенно непонятно, как с таким подходом подтвердить свое право обсуждать права меньшинств или религию. Совсем сложно будет доказать, что имеешь право писать Free Palestine, не предъявляя документов об обучении в Гарварде или Оксфорде.

В отличие от Reddit, логи модерации будут публичными. Я вижу в этом ровно одно гигантское преимущество — можно будет учить ботов модерации. А модераторам мои соболезнования и даже глубокая скорбь.

Мира Мурати объявила, что Thinking Machines Lab расстается с сооснователем и CTO Барреттом Зофом. Через 58 минут Фиджи Симо из OpenAI сообщила, что Зоф возвращается к ним — вместе с другим сооснователем Люком Метцем и Сэмом Шенхольцем. По данным Wired, расставание было далеко не мирным, что объясняет телеграфный стиль поста Мурати и подозрительную синхронность анонсов. Источники говорят о раскрытии информации — а Симо пишет о процессе в течение нескольких недель.

Новым CTO назначен Сумит Чинтала — один из создателей PyTorch и ветеран Meta AI.

Круговорот людей в природе. Начинаешь жалеть сисадминов и специалистов по безопасности — как уследить, кому доступ открыть, а кому закрыть?

OpenAI подписала контракт на $10+ млрд с Cerebras Systems — стартапом, производящим чипы для inference, которые, по заявлениям компании, работают быстрее решений Nvidia. За три года OpenAI получит до 750 мегаватт вычислительной мощности.

Cerebras тем временем готовится поднять $1 млрд при оценке $22 млрд — втрое больше, чем год назад, когда компания тихо отозвала заявку на IPO.

Мы знаем еще одну компанию, чьи чипы работаЛИ быстрее, чем Nvidia — это Groq. Не правда ли, занятно наблюдать эти события в реальном времени — только Nvidia по оригинальной схеме “купила” Groq с технологией быстрого инференса, как самый заметный конкурент получает солидный контракт от OpenAI. Кажется, что в полном соответствии с принципами Алисы, все бегут изо всех сил, чтобы хотя бы оставаться на месте.

Google разыгрывает свой главный козырь в гонке AI-ассистентов: компания выкатывает Personal Intelligence для Gemini. Это функция, которая подключает к Gemini все остальные персональные сервисы — Gmail, YouTube, Photos и так далее, позволяя пользователю оперировать этим всем, как контекстом.

В общем, как-то так мы и представляем себе крутого агента. Правда, хороший пример, когда у Gemini можно спросить, какие тебе колеса нужны для машины, а AI отыщет фото машины, определит тип шин и посоветует, что купить, в моем воображении перебивается другим — такой умный AI, если я его попрошу заказать мне стейк, найдет сканы моих анализов и я рискую получить вегетарианский салат.

Пока, впрочем, для нас это будущее — выкатка начинается с платных подписчиков в США. Так что подождем.

Британское правительство отказалось от планов обязательного digital ID для подтверждения права на работу. Правда, это уже третий случай отказа правительства от своих планов и сторонники правящей партии не в восторге от таких шараханий.

Лорд Бланкетт, сам когда-то продвигавший ID-карты, комментирует в том духе, что правительство не объяснило ни зачем это нужно, ни как будет работать.

При этом технически мало что меняется. Gov.uk One Login уже используют 12 миллионов человек. Цифровые проверки для британцев с биометрическими паспортами работают с 2022 года. Gov.uk Wallet готовится к запуску. Обязательные проверки права на работу никуда не денутся — просто будут называться иначе. То есть по сути, инфраструктура (кто сказал “ангсоц”?) и так развивается, просто её использование не всегда обязательно.

Будем надеяться, пока.

Интересные события развиваются вокруг поставок чипов H200 в Китай.

С одной стороны, США долго запрещали поставки мощных чипов. И до сих пор многие уверены, что так и надо продолжать и эти меры работают и тормозят развитие AI в Китае.

Но теперь власти официально одобрили экспорт чипов H200 в Китай. Однако разрешение сопровождается жесткими ограничениями: объем поставок китайским клиентам не должен превышать 50% от объема продаж в США, а каждая партия подлежит проверке третьей стороной для подтверждения технических характеристик.

С другой стороны, власти Китая не злопамятны, но память у них хорошая и фразу американского чиновника про то, что надо держать Китай на поводке, не давая им мощных технологий, они запомнили. Сначала китайским компаниям было настоятельно рекомендовано покупать китайские GPU, а от покупок у Nvidia отказаться. Это не очень просто сделать — я писал, что чипы Huawei недостаточно мощны для полноценного обучения LLM, хотя для инференса уже подходят. Власти допускают исключения для закупок — но только для университетских исследований и R&D-центров.

И вот по данным Reuters, китайские таможенные органы получили прямое указание блокировать ввоз чипов H200.

Nvidia в итоге оказывается в центре шторма, близкого к идеальному — китайский рынок огромен, запреты и ограничения уже привели к развитию национальных версий GPU, при этом контрабанда чипов начинает напоминать романы киберпанка. Компания теперь требует от китайских клиентов 100% предоплаты наличными без права на возврат средств или отмену заказа, даже если товар будет остановлен на границе.

Несмотря на это, спрос со стороны китайских компаний, включая Alibaba и ByteDance, превышает 2 миллиона чипов, что значительно больше текущих складских запасов Nvidia.

Мне почему-то вспомнилась заключительная (не совсем последняя, правда) фраза Джима Моррисона из фильма The Doors — Let’s get some tacos. Не знаете, почему?

Очень интересное исследование влияния прогресса LLM на профессиональную эффективность. В нем участвовали более 500 специалистов (консультанты, аналитики данных, менеджеры), которые выполняли профильные задачи с использованием одной из 13 моделей различной мощности.

Вот что, вкратце, обнаружилось.

Экономический эффект прямо зависит от технических параметров моделей. Каждый год развития фронтир-моделей сокращает время выполнения задач в среднем на 8%. Десятикратное увеличение объема вычислений (при изоляции влияния других факторов) при обучении приводит к сокращению времени выполнения задачи на 6.3%. При этом прогресс обеспечивается как увеличением мощностей (на 56%), так и качественным образом, изменением алгоритмов и данных.

В процессе эксперимента участники получали вознаграждение, которое увеличивалось в зависимости от оценки качества выполнения заданий. Оказалось, что использование любой модели повышает базовый заработок в минуту на 81.3%, а с учетом бонусов за качество — на 146%.

При этом задачи, не связанные с использованием агентов — то есть, условно, одноходовые задачи, — показали прирост заработка на $1.58/мин. Аналогичный показатель для agentic-задач заметно скромнее — лишь $0.34/мин.

Но самое удивительное, что людям лучше не вмешиваться. Качество ответов моделей линейно растет с увеличением вычислительной мощности. Топовые модели демонстрируют оценки выше 6.0 из 7 (сверхчеловеческий уровень). А участие человека в выполнении задачи, хотя и улучшает результаты слабых моделей, но мощные модели в среднем получают среднюю оценку (4.3 балла). В общем, AI от людей тупеет.

Авторы исследований намеренно рандомизируют модели (и даже их не упоминают), чтобы исключить влияние конкретных LLM и сделать общие выводы. Но они и так интересны.

---