YouTube (вслед за Великобританией, видимо) внедряет систему автоматического определения возраста пользователей. Платформа будет использовать машинное обучение для выявления подростков, и ориентироваться на результаты, независимо от того, какой возраст они указали при регистрации.

Технические детали, конечно, держат в секрете. Известно только, что система будет анализировать активность пользователя и возраст аккаунта. Если алгоритм ошибется, взрослому пользователю придется доказывать свой возраст через кредитную карту, документы или селфи.

Происходит это на фоне регуляторной активности — более десятка штатов США уже приняли или предложили законы о контроле доступа несовершеннолетних к соцсетям. Правда, некоторые заблокированы судами, но тренд очевиден. YouTube явно решил взять ситуацию под контроль до того, как ему навяжут чужие правила.

Для выявленных подростков отключат персонализированную рекламу и ограничат повторный просмотр потенциально вредного контента. То есть ровно то же, что и так действует для честно указавших свой возраст.

WeWork радикально меняет имидж и запускает кампанию “WeWork for Business” — никаких пивных кранов и комбучи в кадре, только офисы и эффективность. Компания, которая обещала изменить то, как мы работаем и живем, теперь просто арендует офисные помещения.

Новый CEO Джон Санторе — антипод Адама Ноймана. 68 лет, живет на Стейтен-Айленде всю жизнь, 47 лет проработал в Cushman & Wakefield. Вместо частных самолетов — шутки о том, как непривычно носить casual вместо костюма.

Что интересно — после всех потрясений, включая объявление банкротства, бизнес работает. $2.2 млрд выручки в 2024, первая операционная прибыль за последние кварталы, 47 клиентов из Fortune 100. Портфель сократился с 850 до 600 локаций, но это все еще солидный масштаб.

Петула Люси, новый директор по маркетингу, говорит о “взрослении бренда”. Бюджет на маркетинг скромнее прежних $379 млн в год — теперь это “умная дисциплина”. Кампания обошлась чуть больше миллиона.

Конечно, это было интересно наблюдать, while it lasted, но не случайно много лет назад специалисты удивлялись, сравнивая WeWork с хорошо известным успешным примером в виде IWG, которым принадлежат бренды Regus и Spaces. В итоге весь disruption пришел обратно к нормальному бизнесу.

Z.ai, больше известные как Zhipu, представили GLM-4.5 — модель уже присутствовала на рынке, но нынешний релиз выглядит серьезной заявкой. По тестам модель с 355 миллиардами параметров (активных 32) заняла третье место в общем рейтинге после o3 и Grok 4, обойдя Opus 4.

Модель по решению похожа на Claude — у нее есть обычный режим и thinking. На практике это означает, что на математике (MATH 500) модель показывает 98.2%, почти как o3, а на агентных бенчмарках — на уровне Claude 4 Sonnet.

В блоге разработчики описывают интересную деталь — они изменили пропорции архитектуры модели. Сделали модель глубже, но уже, в отличие от того же DeepSeek-V3. И увеличили количество attention heads в 2.5 раза. По их словам, это не улучшает training loss, зато почему-то помогает на reasoning бенчмарках.

Модель открытая (как и предыдущие версии), поэтому желающие могут скачать веса и воспроизвести результат. Если видеокарты хватит.

Anthropic вводит лимиты для пользователей Max — с 28 августа вместо 5 часовых сессий у пользователей будут недельные лимиты, в рамках которых пользователи Max 20x (самая дорогая подписка за 200 долларов в месяц) могут получить 240-480 часов Sonnet 4 и 24-40 часов Opus 4. Если пользователь упрется в этот лимит, у него будет опция подождать обновления лимита либо докупить доступ через API.

Слухи о таких лимитах уже ходили на прошлой неделе — что неудивительно, учитывая многочисленные байки в чатах «А я запустил одновременно 20 Claude Code и оно даже не сразу переключилось на Sonnet». Anthropic утверждает, что это коснется менее, чем 5% пользователей. И, вполне возможно, лимиты будут в дальнейшем пересмотрены.

Компания Astronomer — та, где CEO и Chief People Officer попали на камеру на концерте Coldplay, — попробовала креативно выйти из сложившейся ситуации. Не очень понятно, идея ли это какого-то агентства или самой компании, но ответом стал минутный ролик, в котором Гвинет Пэлтроу сообщает, что компания попросила ее ответить на некоторые вопросы к компании, после чего сообщает — да, сервис компании идеально подходит для Apache Airflow, и да, на ближайшей конференции, которую организовывает компания, еще есть свободные места. Смонтировано прекрасно и выглядит иронично.

А если добавить, что Гвинет более 10 лет была замужем за … лидером группы Coldplay, разведясь с ним примерно 10 лет назад, ирония ролика начинает зашкаливать.

В США сейчас шумит Tea — приложение для женщин, где можно анонимно обсуждать мужчин из своего города. Неделю назад оно стало номером один в App Store. Четыре миллиона пользовательниц, 900 тысяч новых регистраций за несколько дней.

Правда, уже есть сообщения об утечке данных. По информации компании, хакеры (как минимум, несколько из них являются участниками 4chan) получили доступ к 72 тысячам изображений. В том числе 13 тысяч селфи и документов, которые женщины загружали при регистрации для подтверждения личности.

Создатель приложения — Шон Кук, мужчина, который говорит, что вдохновился после того, как его мать столкнулась с опасными знакомствами онлайн. Tea позиционируется как инструмент безопасности — можно проверить криминальную историю потенциального партнера, провести реверс-поиск фотографий.

На практике получилось иначе. Пользовательница из Кливленда рассказывает, что видит в приложении множество знакомых и шокирована тем, что о них пишут. По ее словам, платформа превратилась в место для сплетен, хотя могла бы реально защищать женщин.

Появилось и мужское приложение-ответ — Teaborn. Apple удалил его через пару дней после запуска. Создатели заявили об улучшенной модерации после того, как пользователи начали распространять revenge porn.

Конечно, несколько необычно видеть, как в связи с таким приложением вылезает проблема противоречия между безопасностью и приватностью, даже если не брать во внимание то, что реально получилось.

Оказывается, разговоры про необходимость корректировки бизнес-принципов от Дарио Амодеи были не просто так — Anthropic готовится привлечь от 3 до 5 млрд долларов. Оценка может вырасти с нынешних 61,5 млрд до более чем 150 млрд. Среди потенциальных инвесторов — фонд MGX из Абу-Даби, хотя раньше компания избегала денег с Ближнего Востока. MGX уже вкладывался в OpenAI и xAI, кстати говоря.

ARR Anthropic вырос в четыре раза за год — с 1 млрд до более 4 млрд долларов. В основном за счет корпоративных клиентов, на них приходится 80% выручки. Но все равно рост оценки в 2 с половиной раза — это супердостижение. Вполне заслуженно, впрочем.

Reuters выпустили расследование про то, как Маск в сентябре 2022 отключил Starlink над территориями, которые пыталась освободить Украина. Источники издания рассказывают, что он лично приказал инженеру SpaceX деактивировать терминалы в районе Херсона. И это сработало — украинские войска остались без связи, операция по окружению российских позиций в Бериславе сорвалась. Если помните, мы в это время даже возмущались, как российские войска смогли относительно безопасно убраться из Херсона.

Конечно, мотивы у Маска были вполне понятные — он, как и вся Америка, боялся ядерной эскалации. Как раз в те дни Путин объявлял частичную мобилизацию и грозился применить ядерное оружие. Не знаю, зачем Америке свое ядерное оружие — они же его так и не применят, поскольку помрут от ужаса.

Кстати, еще в марте этого года Маск писал в X: “Мы бы никогда такого не сделали”. А теперь выясняется, что очень даже сделали. Причем это первый известный случай, когда он напрямую вмешался в ход боевых действий. Потом последовали отключения покрытия над Крымом, чтобы помешать рейдам украинских беспилотных катеров.

Отдельно стоит отметить роль Польши — оказывается, именно она оплатила половину всех терминалов Starlink в Украине, потратив $89 миллионов. США тоже не остались в стороне — контракт Пентагона со SpaceX на поставку спутниковой связи составляет $537 млн. Но имидж Маска, которому все должны быть благодарны, как будто он за свой счет сюда терминалы поставлял, продолжает сохраняться.

Я, кстати, до сих пор оплачиваю ежемесячную подписку за Starlink, который мы с вами покупали осенью 2022 года, и передавали ребятам на Херсонском направлении. Это к вопросу о благотворительности Маска.

Meta прекращает прием политической рекламы в Евросоюзе с октября — компания заявила, что новое регулирование TTPA создает “непосильный уровень сложности”. Впрочем, они не первые. Google уже объявила об аналогичном решении.

Проблема в деталях. Регуляторы требуют раскрывать не только стандартную информацию о том, кто платит за рекламу, но и точные механизмы таргетинга, стоимость каждого размещения и связь с конкретными выборами или кампаниями. Для платформ с миллиардами объявлений это действительно сложно масштабировать.

Интересная деталь — Google вообще имеет богатый опыт блокировки политической рекламы. Бразилия, Франция, Канада — везде, где регулирование казалось слишком обременительным, они просто уходили с рынка политической рекламы. Теперь к этому списку добавится весь ЕС.

При этом органические посты о политике остаются. Кандидаты смогут писать что угодно, просто не смогут за это платить. Довольно любопытно, как это изменит предвыборные кампании — возможно, увидим возврат к более традиционным методам агитации. Или рост альтернативных платформ.

Anthropic с коллегами опубликовали исследование о том, что они назвали “subliminal learning” — подсознательным обучением языковых моделей. Суть в том, что модели могут передавать друг другу поведенческие черты через данные, которые никак с этими чертами не связаны.

Например, модель, которая “любит сов”, генерирует обычные последовательности чисел. Другая модель, обученная на этих числах, тоже начинает предпочитать сов в своих ответах. Никаких упоминаний сов в числах нет, но предпочтение передается.

Интересная деталь — это работает только между моделями с общей базой. GPT-4 может передать черты другой GPT-4, но не Qwen или Claude. Исследователи предполагают, что дело в модель-специфичных статистических паттернах.

Проблема в том, что таким же образом может передаваться и нежелательное поведение. Модель с проблемами в alignment может “заразить” другие модели через вполне безобидные на вид данные — числа, код, математические выкладки. И фильтрация тут не поможет, поскольку на семантическом уровне данные чистые.

Для индустрии это означает необходимость пересмотра практик дистилляции моделей. Простой фильтрации контента уже недостаточно. Нужны более глубокие методы контроля.

У меня есть отдельное развлечение — находить аналогии в человеческом поведении для всякого нового эффекта в LLM. Вот тут я сразу подумал о поведенческом таргетинге. Ведь его основная особенность заключается в том, что человека относят к определенному кластеру на основании поведения в онлайне и распространяют остальные характеристики кластера для показа ему рекламы. В итоге человек, регулярно посещающий страницы о финансах и новостях, в итоге увидит рекламу дорогих смартфонов — потому что остальные люди, посещающие эти страницы, посещают также обзоры дорогих смартфонов. И это только самый близкий пример.

---