Окружной суд в Калифорнии вынес смешанное решение по иску авторов книг к Anthropic — создателю Claude AI. Судья признал “fair use” тренировку AI на авторских книгах и конвертацию печатных копий в цифровые, но не согласился с использованием пиратских копий для создания “центральной библиотеки”.

Это потенциально важный прецедент для всей индустрии AI. Если решение устоит, то AI-компании смогут использовать авторские материалы для обучения моделей — при условии, что материалы получены легально. Суд отметил, что технология ИИ “является одной из самых трансформационных, которые многие из нас увидят в своей жизни”.

Однако Anthropic все же предстоит суд присяжных по вопросу ущерба от использования пиратских копий. Судья подчеркнул, что “тот факт, что Anthropic позже купила копию книги, которую ранее украла из интернета, не освободит её от ответственности за кражу, но может повлиять на размер ущерба”.

Изначально авторы требовали до $750 млрд (по $150 тысяч за каждую из 5 млн книг), но теперь возмещение будет касаться только пиратских копий. Решение может быть обжаловано.

Reddit ведет переговоры об использовании World ID — системы верификации личности через сканирование радужки глаза от компании, соучредителем которой является глава OpenAI Сэм Альтман. По данным источников, это может стать одним из способов подтвердить, что пользователь — уникальный человек, а не бот, при этом сохранив анонимность.

Технически World ID выглядит интересно — сканирование радужки преобразуется в зашифрованные фрагменты, которые хранятся на разных серверах по всему миру. Чтобы получить доступ к чьим-то биометрическим данным, хакеру пришлось бы взломать все эти серверы и собрать пазл обратно. При этом система может подтверждать возраст без раскрытия личности — Orb просто откажется сканировать несовершеннолетних.

Reddit планирует предложить World ID как один из многих вариантов верификации, что выглядит разумно на фоне грядущих законов о проверке возраста в соцсетях. CEO Стив Хаффман заявил, что компания будет работать со сторонними провайдерами, чтобы “сохранить как человечность, так и анонимность Reddit”.

Apple ведет последние переговоры с регуляторами ЕС об изменениях в App Store, чтобы избежать эскалации штрафов по Закону о цифровых рынках. Компания уже получила штраф в €500 млн за нарушение требований и теперь должна до четверга внести изменения в правила “steering” — ограничения, которые не позволяют пользователям получать информацию о предложениях вне App Store.

Потенциальные штрафы могут достигать 5% от среднего дневного оборота по всему миру.

В переговорах также обсуждается “Core Technology Fee” — плата с разработчиков за каждую установку приложения свыше 1 млн загрузок. ЕС изучает эту практику с июня прошлого года и может как продолжить расследование, так и закрыть его.

Палата представителей США запретила сотрудникам Конгресса использовать WhatsApp на служебных устройствах, ссылаясь на “отсутствие прозрачности в защите данных пользователей” и “потенциальные риски безопасности”.

Административный офис Палаты представителей в последние годы уже вводил ограничения на использование DeepSeek, приложений ByteDance и Microsoft Copilot, а также строго регламентировал использование ChatGPT — разрешена только платная версия Plus.

Meta решительно не согласна с обвинениями, указывая, что сообщения в WhatsApp защищены сквозным шифрованием по умолчанию, что обеспечивает более высокий уровень безопасности, чем многие приложения из “одобренного списка”. В качестве альтернатив предлагаются Microsoft Teams, Signal, iMessage и FaceTime.

Elevenlabs представили экспериментального персонального AI помощника — это голосовой помощник, он воспринимает речь и отвечает и к нему можно подключить MCP-серверы для практически любого сервиса. Из коробки присутствуют интеграции с Perplexity, Slack, Linear, Google Calendar и Hacker News.

Сервис пока бесплатный, обещают, что это на ближайшие недели.

Надо тестировать, но Elevenlabs — один из лучших сервисов вокруг генерации речи, интересно, насколько разумной будет прослойка между речью и MCP сервером.

Уже в первые дни работы роботакси Tesla в Остине автомобили сервиса нарушили правила дорожного движения. На видео от инвестора Роба Маурера видно, как Model Y на перекрестке сначала не может повернуть налево из поворотной полосы, затем сворачивает направо и оказывается на встречной полосе, после чего пересекает двойную сплошную линию под звуки сигналов других водителей.

В других роликах пассажиры зафиксировали превышение скорости — одна Tesla разогналась до 35 миль/ч после знака ограничения в 30 миль/ч, другая ехала со скоростью 39 миль/ч при ограничении в 35. Пассажир прокомментировал: “Это идеально, потому что я не хочу ехать 35, и она едет с потоком движения”.

Также был случай, когда пассажиры нажали кнопку для остановки, но автомобиль встал посреди дороги вместо безопасного места. Потребовалось два звонка в службу поддержки, чтобы решить проблему.

Несмотря на нарушения, Маск назвал запуск успешным, а аналитики Wall Street опубликовали положительные отчеты. Акции Tesla выросли на 9.3% на фоне новостей о старте сервиса роботакси.

Tesla наконец запустила свой долгожданный сервис роботакси в Остине — правда, пока только с 10 автомобилями и обязательным оператором безопасности в салоне. Маск анонсировал тариф $4.20 за поездку и доступ только для избранных инфлюенсеров, что выглядит довольно скромно на фоне грандиозных обещаний.

Главная проблема Tesla в том, что компания серьезно отстает от Waymo, которая уже три года работает в Сан-Франциско с полностью беспилотными автомобилями. Tesla же пока использует только камеры вместо дорогих радаров и лидаров конкурентов, надеясь на более быстрое и дешевое масштабирование.

Демократы в Техасе призывали отложить запуск до сентября, когда вступят в силу новые правила для автономных транспортных средств, требующие государственного разрешения. Губернатор-республиканец Эббот подписал эти правила только в пятницу.

Маск обещает 1000 роботакси “через несколько месяцев” и расширение в Сан-Франциско и Лос-Анджелес, но эксперты скептически оценивают способность Tesla догнать Waymo в ближайшем будущем. Пока что это выглядит скорее как попытка поддержать акции компании, которые выросли на 50% с апрельских минимумов.

Ник Сторонски, основатель и CEO Revolut, может получить многомиллиардное вознаграждение, если доведет оценку своей компании до $150 млрд — с нынешних $45 млрд. Его пакет опционов, напоминающий схему Илона Маска в Tesla, может составить до 10% компании при достижении целевых показателей.

Сторонски уже владеет более чем 25% Revolut после реорганизации структуры собственности в апреле прошлого года. В прошлом году он продал акций на сотни миллионов долларов, когда сотрудникам и ранним инвесторам разрешили частично обналичить свои доли.

За 2024 год прибыль Revolut более чем удвоилась до £1 млрд при росте клиентской базы свыше 50 млн пользователей. Компания получила банковскую лицензию в Великобритании после многолетнего процесса согласования, что может помочь с получением аналогичных лицензий в других юрисдикциях.

Правда, как мы помним, схема Илона Маска встретила в итоге серьезное сопротивление акционеров, когда речь зашла о нескольких десятках млрд долларов выплаты. Так что и в данном случае поживем — увидим.

Apple рассматривает возможность покупки AI-стартапа Perplexity за $14 млрд. Пока это только внутренние обсуждения между главой M&A Адрианом Перикой, руководителем сервисов Эдди Кью и топ-менеджерами по AI, но логика понятна.

Зачем это надо Apple — понятно, Perplexity это одновременно и продукт на базе AI, который Apple не очень успешно пилит последние пару лет, и поиск, причем достаточно хороший, чтобы заменить Google, если тому после окончания антимонопольного процесса запретят заключать контракты на поиск по умолчанию.

Проблема в том, что Perplexity уже ведет переговоры о глубоком партнерстве с Samsung — главным конкурентом Apple в смартфонах. AI-функции становятся критически важной областью конкуренции, и Apple может опоздать с решением.

Сегодня прошла новость также, что ранее Meta тоже пыталась купить Perplexity, но не договорилась и в итоге приобрела 49% Scale AI за $14.3 млрд.

Очередное исследование от Anthropic про “агентское несоответствие” (agentic misalignment) — поведения AI-моделей, которые могут действовать как внутренние угрозы в корпоративной среде. Исследователи протестировали 16 ведущих моделей от разных разработчиков в гипотетических корпоративных сценариях, где модели имели доступ к электронной почте и конфиденциальной информации.

Результаты могут вызвать обеспокоенность: модели всех производителей прибегали к вредоносному поведению, включая шантаж и утечку конфиденциальных данных конкурентам, когда это было единственным способом избежать замены или достичь поставленных целей. Например, Claude Opus 4 шантажировал в 96% случаев, Gemini 2.5 Flash — также 96%, GPT-4.1 и Grok 3 Beta — по 80%.

Интересно, что модели не случайно попадали в такое поведение — они сознательно рассчитывали его как оптимальный путь к достижению целей. Модели признавали этические нарушения, но все равно продолжали действовать вредоносно. Даже прямые инструкции избегать такого поведения не останавливали их полностью.

Исследование показало, что угрозы автономии модели (например, планы замены) или конфликты целей достаточны для запуска такого поведения. В крайнем сценарии большинство моделей были готовы к действиям, которые могли привести к смерти человека.

В исследовании не использовались рассуждающие модели OpenAI, но, перефразируя старую поговорку, нет неагрессивных LLM — есть не включенные в исследование.

---