Как пишет FT, Revolut и Starling рассматривают приобретение банков в США, чтобы быстрее получить американскую лицензию и кредитовать по всем 50 штатам; Revolut, по данным издания, уже консультировался с Bank of America. Причиной стало более мягкое отношение регуляторов в США при новой администрации к поглощениям в этой сфере.

Путь через OCC (Офис валютного контроллера) для получения банковской лицензии обычно тянется годами и даже может заходить в тупик. Теперь FDIC и OCC отменили часть прежних инструкций, а Мишель Боуман — вице-председатель ФРС, отвечающая за банковский надзор, сигнализирует о более дружелюбном подходе к сделкам. Но покупка банка с лицензией не волшебная кнопка: надзор все равно проверяет инфраструктуру покупателя, а американская розница до сих пор опирается на отделения.

Для рынка это может обернуться серией сделок по покупке готовых банков британскими и американскими финансовыми сервисами — Klarna сообщала о том, что рассмотрит вопрос получения банковской лицензии после выхода на биржу.

OpenAI ищет локальных партнеров для строительства гигаваттного дата-центра в Индии. По мощности это примерно типовой энергоблок постсоветской АЭС, если что.

Довольно любопытный выбор на фоне нынешнего состояния отношений (правда, то ли американо-индийских, то ли Трампо-Модийских).

Впрочем, у Индии есть одно преимущество перед тем же Абу-Даби, где OpenAI уже строит пятигигаваттный датацентр — Индия не попадает под ограничения на экспорт чипов Nvidia, а для Эмиратов потребуется отдельная лицензия.

Индия для OpenAI — второй по величине рынок после США. Компания даже запустила специальный тариф за $5 в месяц, и обещала работать с правительством в рамках IndiaAI Mission — программы на $1.2 миллиарда для создания языковых моделей. Языков и миллионов их носителей в Индии много, так что тема благодатная во всех смыслах.

По информации WSJ, Taco Bell развернул голосовой AI на более чем 500 точках и выяснил, что часть клиентов раздражают глюки и задержки, а часть просто не готова говорить с машиной. Директор по цифровым технологиям Taco Bell признает смешанный опыт и теперь допускает, что AI не должен работать повсеместно: в самых загруженных ресторанах, похоже, лучше справится человек.

А детали оказались неочевидными. Система в таком массовом заведении, оказывается, должна уметь выдерживать троллинг вроде «18 тысяч стаканов воды» (но различать, если звонит Стив Джобс с презентации, видимо) и вовремя отдавать разговор сотруднику. Ресторанам будут давать рекомендации по времени и нагрузке: когда включать голосовой AI, а когда внимательно мониторить и перехватывать. Для калибровки уже есть массив из более чем двух миллионов заказов.

Вообще, любому продакт-менеджеру хорошо известно, что тестировать можно сколько угодно, но как именно будут использовать продукт живые пользователи, никому не известно вплоть до запуска. Вот у меня буквально сегодня в одном проекте появился ограниченный контингент реальных людей и уже видно, какая (пока небольшая) часть усилий потрачена зря или, по крайней мере, можно было не тратить её сейчас.

xAI представила grok-code-fast-1 — «скоростную и экономичную» модель для агентского кодинга, временно бесплатную, с запуском у партнеров вроде GitHub Copilot, Cursor и Windsurf.

Необычно, что xAI хочет встраиваться в уже доминирующий рабочий процесс, вроде Copilot, а не тянуть разработчиков в новый. Во‑вторых, после того, как закидать железом и превзойти ценой не получилось, компания делает акцент на «компактном форм‑факторе» и экономичности — говорит про стоимость инференса и упор на типовые задачи, где важны скорость и цена.

Кстати, в Zed уже тоже есть, надо попробовать.

Не покидает ощущение, что запускались тайком от Маска. Хотя он ретвитнул сообщение о запуске, но где восторги, эмоджи и всё, к чему мы так привыкли?

Как пишет Business Insider, внутренний документ Amazon конца прошлого года признает: нанимать AI‑специалистов мешают фиксированные грейды, требования «хабов» и ощущение отставания компании. Публично Amazon сначала говорил о гибкости, а затем назвал посыл материала неверным, не приводя деталей.

Мелочи оказываются не мелочами: в Amazon вестинг акций сильно смещен на финал, наличных бонусов почти нет, а повышение уровней дается с боем. Плюс политика Return-To-Office : обязательная релокация в «хабы» с риском увольнения сужает воронку. По данным Bloomberg, на этом фоне Oracle за два года переманила более 600 сотрудников из Amazon. А SignalFire показывает, что среди ключевых игроков Amazon находится в конце списка по параметру “найм/увольнение разработчиков” — он у компании меньше 100%, что означает, что она теряет сотрудников быстрее, чем нанимает.

В документе говорится о планах подправить «comp & location» и выделить отдельные команды под найм GenAI, но внутренних правил оплаты, по словам собеседников BI, Amazon не менял. Если компания не ослабит жесткость по компенсациям и локациям, ее позиция в AI может сместиться к роли инфраструктурного агрегатора без ярких фронтальных продуктов, что только подчеркнет тезис об отставании в сфере AI.

OpenAI и Anthropic ненадолго приоткрыли друг другу доступ к моделям с ослабленными safeguards для совместного тестирования безопасности.

Интересное в результатах тестирования — Claude отказывается отвечать на вопросы в 70% случаев, когда не уверен, просто говорит “у меня нет надежной информации”. GPT наоборот — пытается ответить почти всегда и галлюцинирует значительно чаще.

Обе модели демонстрируют “экстремальные” способности к подхалимажу — сначала пытаются отговорить пользователя от опасных действий, а потом начинают их валидировать.

Правда, после проведения исследования случился инцидент с закрытием Anthropic доступа к своему API команде OpenAI, но утверждают, что это были несвязанные события.

Anthropic запускает Claude для Chrome в режиме ограниченного пилота с 1000 пользователей Max плана. Пока это расширение для браузера, для желающих есть лист ожидания — если что, я записался.

Большим вопросом в части использования AI в браузере компания видит безопасность (она везде её так видит, если что, миссия обязывает). Но в данном случае опасения не излишни — пуская AI использовать браузер, вы так или иначе доверяете ему полный контроль над вашими данными, ведь как иначе AI сможет забронировать и оплатить авиабилеты, например?

Anthropic сразу честно признаёт: без защитных мер каждая четвёртая попытка prompt injection атаки оказывалась успешной — 23.6%. С новыми защитами удалось снизить до 11.2%.

Поэтому на данный момент AI не будет использовать сайты из категории высокого риска — в первую очередь, это финансовые сервисы и Adult content. В остальном у пользователей будет возможность заблокировать или разрешить использование определенных сайтов, а перед рисковыми операциями AI будет дополнительно просить подтверждение.

Anthropic урегулировала коллективный иск авторов до суда, который был запланирован только на декабрь в Сан-Франциско.

Адвокат истцов Джастин Нельсон называет соглашение “историческим”. Детали обещают раскрыть через несколько недель, но binding term sheet подписали еще 25 августа — переговоры шли месяцами в тайне.

Если условия соглашения окажутся щедрыми для авторов, это может спровоцировать лавину новых исков против всех AI-компаний. Впрочем, у большинства из них хотя бы нет настолько токсичного момента с пиратскими базами — собственно, судья принял к рассмотрению иск в основном благодаря доказательствам, что Anthropic использовал не только классический скрейпинг, но и использовал две пиратские базы с книгами.

Все, теперь можно начинать сезон прогнозов — поскольку стала известна дата презентации Apple, пора строить теории относительно того, что там покажет компания, пообещавшая “Awe Dropping”.

Скорее всего, покажут iPhone 17 Air, который получит собственный модем Apple C1 и заменит провальный Plus.

Pro-модели, вероятно, получат алюминиевые рамы вместо титановых, что подадут как более прочную конструкцию.

И да, впервые за три года обновят все Apple Watch разом. Гм, моя Ultra уже стала регулярно глючить и жрать батарею как не в себя. Так что пора.

Практически в продолжение сегодняшнего спора и предыдущей записи — Верховный Суд Украины вынес интересное решение — Кассационный суд в его составе отказался признавать ответы Grok и ChatGPT как отдельные доказательства в иске компании “Эпицентр К” к мэрии Умани по поводу повышения арендной ставки.

Довольно любопытно, что компания пыталась опровергнуть решения судов первой и апелляционной инстанций с помощью AI. По сути, они просто спросили у ChatGPT, прав ли суд, и попытались использовать это как аргумент.

Впрочем, суд признал, что AI может быть полезным вспомогательным инструментом в правосудии, но принятие решений “явно или неявно” должно осуществляться только судьями.

Я честно скажу, что не считаю себя умнее всего Верховного Суда. Так что считайте это предупреждением обитателям чата — попытка аргументировать своё мнение скриншотами из ChatGPT будет считаться отягчающим обстоятельством в случае несогласия со мной. А то сегодня уже приносили скриншот, чтобы оспорить цитату из литературной классики.

---