Исследователи из EPFL и Фонда Бруно Кесслера провели масштабный эксперимент, показавший, что GPT-4 может быть более убедительной в дебатах, чем люди, особенно при использовании персонализации. В ходе эксперимента 900 участников вели дебаты на социально-политические темы с оппонентами, не зная, общаются ли они с человеком или ИИ.

Ключевой вывод: когда GPT-4 имела доступ к личной информации собеседника (пол, возраст, этническая принадлежность, образование, политические взгляды), она оказалась на 81,2% эффективнее в убеждении, чем человек-оппонент. Без персонализации AI показал результаты на уровне людей.

Анализ текстов выявил различия в стилях аргументации: AI использовал более логичные и аналитические рассуждения, в то время как люди чаще использовали местоимения первого и второго лица, рассказывали истории и апеллировали к сходству с собеседником.

Примечательно, что участники распознавали AI-собеседника в трех из четырех случаев, но испытывали трудности с определением человека-оппонента. При этом люди охотнее соглашались с точкой зрения, которую, как они полагали, отстаивал AI.

Собственно, я недавно стал замечать, что люди в дискуссиях всё чаще используют цитаты из общения с LLM как аргументы. Видимо, показывают, что их в ChatGPT не забанили — как раньше в Google.

Открылась конференция Microsoft Buid и пошли новости с главной презентации.

Microsoft выпустил исходный код Windows Subsystem for Linux (WSL) в открытый доступ на GitHub. В открытый доступ выложены командные утилиты (wsl.exe и wslg.exe), фоновые службы (wslservice.exe) и демоны на стороне Linux. Единственные компоненты, не ставшие открытыми — Lxcore.sys, драйвер ядра для WSL 1, а также P9rdr.sys и p9np.dll, используемые для перенаправления файловой системы “\wsl.localhost”.

Кроме этого, в Windows добавлена поддержка Model Context Protocol, а в Edge появится экспериментальный API, через который веб-приложения смогут получить доступ к моделям, встроенным в браузер, как, например, phi4-mini.

GitHub выложил в открытый доступ Copilot for VS Code и анонсировал запуск агента, который будет работать в Copilot — очевидный шаг, конечно, у кого теперь только нет агентов.

Дженсен Хуанг на открытии Computex в Тайване представил NVLink Fusion, систему, которая впервые позволит использовать NVLilnk с чипами сторонних производителей.

До сих пор Nvidia предлагала только полностью закрытые системы со своими компонентами. Теперь клиенты дата-центров смогут использовать собственные процессоры с AI-чипами Nvidia или комбинировать технологии Nvidia с акселераторами других производителей. Партнерами NVLink Fusion уже стали MediaTek, Marvell Technology и Alchip Technologies, которые создадут кастомные AI-чипы, совместимые с оборудованием Nvidia.

Понятно, что основные клиенты этого новшества — Microsoft, Amazon, которые разрабатывают собственные чипы, да и OpenAI что-то такое планировал.

Хуанг также анонсировал выход систем нового поколения GB300 в третьем квартале этого года и представил новый RTX Pro Server, который, по его словам, в четыре раза производительнее флагманской системы H100 на рабочих нагрузках DeepSeek. Кроме того, генеральный директор Nvidia объявил о строительстве AI-суперкомпьютера для Тайваня в партнерстве с местными поставщиками и правительством острова.

Забавно — после успеха DeepSeek и других китайских проектов, китайские стартапы всё чаще начинают открыто признавать свои китайские корни вместо того, чтобы скрывать их.

Многие теперь подчёркивают преимущества китайских корней — доступ к инженерным талантам и более низкие производственные затраты. При этом они нанимают иностранных сотрудников и соблюдают местные нормативы, чтобы избежать проблем, с которыми столкнулись более крупные компании.

Часть компаний всё же использует смешанную стратегию — например, регистрируются в Сингапуре для привлечения иностранного капитала, что получило название “Singapore-washing”. Некоторые, как ReelShort и HeyGen, даже перенесли свои операции в Калифорнию, сохраняя открытость о своих китайских корнях.

Ну, и правда, потому что какие минусы? Трамп запретит?

Хорошая рассылка Semianalysis анализирует результаты визита Трампа на Ближний Восток для развития AI.

США в ходе визита подписали два важнейших соглашения с ОАЭ и Саудовской Аравией.

В макроэкономическом плане соглашения открывают доступ к триллиону долларов капитала для инфраструктуры ИИ, что перевешивает любые негативные последствия тарифных войн. Геополитически Абу-Даби и Эр-Рияд сильнее привязываются к американским технологическим экосистемам. Инфраструктурно богатые энергоресурсами страны Персидского залива становятся надежными партнерами как раз в момент, когда американские дата-центры достигают физических пределов мощности.

По сделке с ОАЭ, G42 (поддерживаемая государством компания) получит гарантированную квоту на импорт 500 000 топовых чипов Nvidia ежегодно, из которых 20% оставит себе, а остальное направит американским компаниям. Также G42 вместе с американскими партнерами построит дата-центр мощностью 5 ГВт, первая фаза в 1 ГВт уже начата. Говорят, что OpenAI будет якорным клиентом этого датацентра, кстати.

Саудовская Аравия в рамках пакета на $600 млрд инвестирует через DataVolt $20 млрд в американские дата-центры, привлечет инвестиции от Oracle, Google, Salesforce, AMD и Uber в Саудовскую Аравию, создаст HUMAIN (компанию, которая развернет до 500 МВт оборудования AMD и столько же от Nvidia).

Эти сделки также предотвращают проникновение Китая на Ближний Восток. Несмотря на риски (возможная перепродажа GPU в Китай и неправомерное использование моделей), Белый дом считает, что эти проблемы решаемы через физические проверки дата-центров и строгие правила KYC для арендаторов вычислительных мощностей.

В пятницу Epic Games направили письмо судье Ивонн Гонсалес Роджерс, обвиняя Apple в отказе рассмотреть заявку на возвращение Fortnite в App Store. Epic называет это “последней попыткой Apple обойти судебное предписание и авторитет суда”.

В петиции Epic указывает, что Apple обещала и суду, и самой Epic, что будет рада вернуть Fortnite в App Store, если Epic будет соблюдать все правила платформы. Компания также напоминает о словах Тима Кука, сказанных во время судебного процесса, что “пользователям было бы полезно вернуть Fortnite в App Store”.

Конечно, интересно, как поступит судья — во время процесса она говорила, что не планирует указывать Apple возвращать игру в App Store, но недавнее её же определение, что Apple нарушает решение суда, отказываясь разрешить разработчикам использовать сторонние платежные системы без комиссии, было всеми воспринято как решение в пользу Epic.

Epic с Apple продолжают бодаться — Epic Games сообщила, что Apple «заблокировала» новую заявку на размещение Fortnite, не позволяя выпустить игру ни в США, ни в Epic Games Store в Европейском Союзе. «К сожалению, Fortnite на iOS будет недоступен по всему миру, пока Apple не разблокирует его», — заявили представители Epic в X.

В свою очередь Apple отрицает обвинения: «Мы не предпринимали никаких действий для удаления работающей версии Fortnite из альтернативных магазинов приложений» в ЕС. Компания утверждает, что просто попросила европейское подразделение Epic Sweden «повторно подать обновление приложения без включения магазина App Store для США, чтобы не влиять на Fortnite в других регионах».

При этом немалое количество сервисов уже воспользовалось свежими изменениями в политике App Store — я уже упоминал Amazon с возможностью купить книги в Kindle, вчера Patreon сообщил, что 30% комиссии отменяются. Но вот Epic-у по-прежнему не можно. Черт его знает, на что теперь рассчитывает Apple.

Nvidia продолжает свой сложный путь между капелек — компания заявила, что не будет отправлять планы графических процессоров в Китай, несмотря на сообщения о том, что компания работает над исследовательским центром в Шанхае на фоне недавних экспортных ограничений США.

Источник CNBC сообщил, что компания арендует новые помещения для существующих сотрудников, но не отправляет туда какую-либо интеллектуальную собственность или дизайны GPU. По его словам, это продолжение давнего присутствия компании в Китае.

OpenAI решила всех запутать и запустила уже третий продукт под названием Codex – теперь это облачный агент для разработки программного обеспечения, способный работать над множеством задач параллельно. Codex помогает писать новый функционал, отвечать на вопросы о кодовой базе, исправлять ошибки и предлагать pull request’ы для проверки. Каждая задача выполняется в отдельной облачной среде с загруженным репозиторием.

Codex работает на основе модели codex-1, оптимизированной версии OpenAI o3 для разработки ПО. Модель была обучена с помощью обучения с подкреплением на реальных задачах кодирования, чтобы генерировать код, максимально похожий на человеческий стиль и соответствующий предпочтениям при PR-ревью. Инструмент буде доступен пользователям ChatGPT Pro, Enterprise и Team, а скоро выкатится и для Plus и Edu. Правда, я пока его не вижу.

Параллельно с этим OpenAI выпустила меньшую версию codex-1 для использования в Codex CLI – легковесном агенте для кодирования, который запускается в терминале. Эта модель оптимизирована для быстрых рабочих процессов с низкой задержкой и доступна как модель по умолчанию в Codex CLI и в API как codex-mini-latest.

В ближайшие недели пользователи смогут бесплатно и без ограничений исследовать возможности Codex, после чего OpenAI введет ограничения и гибкие варианты ценообразования. Для разработчиков, использующих codex-mini-latest, модель доступна по цене $1.50 за 1 млн входных токенов и $6 за 1 млн выходных токенов.

Я регулярно использую codex cli как второго агента — он неплохо справляется с code review и нахождением багов. Так что, как в доступе появится анонсированный агент, мне есть чем его загрузить.

Зато свою модель (точнее, модели) представил Windsurf. Компания анонсировала три модели: флагманскую SWE-1, а также облегченные версии SWE-1-lite и SWE-1-mini. По заявлению разработчиков, основная модель SWE-1 конкурирует по производительности с Claude 3.5 Sonnet, GPT-4.1 и Gemini 2.5 Pro на внутренних тестах программирования, хотя и уступает самым продвинутым моделям вроде Claude 3.7 Sonnet.

Примечательно, что Windsurf отмечает принципиальное отличие своего подхода от конкурентов. “Сегодняшние передовые модели оптимизированы для кодирования, но кодирование — это не разработка программного обеспечения”, — заявил глава исследовательского отдела компании Николас Мой. SWE-1 обучена работать одновременно в разных средах — терминалах, IDE и интернете, что лучше соответствует реальному процессу разработки ПО.

Модели SWE-1-lite и SWE-1-mini будут доступны всем пользователям платформы, включая бесплатный тариф, в то время как SWE-1 предназначена только для платных подписчиков. Компания позиционирует свои разработки как “первое доказательство концепции”, что намекает на возможное появление новых моделей в будущем.

Что-то я совсем запутался, так их покупают или нет?

---