Снова Perplexity в героях — Dow Jones (подразделение News Corp., издающее, например, Wall Street Journal) и New York Post подали в суд на AI-стартап с обвинениями в нарушении авторских прав. Утверждается, что компания не ответила на письмо, которое истцы направляли ей по поводу нарушения прав летом нынешнего года.

Кстати, на прошлой неделе аналогичный иск подали New York Times.

Требования Dow Jones и New York Post непритязательны — они хотят, чтобы Perplexity запретили нарушать и до 150 тысяч долларов за каждое уже совершенное нарушение копирайта. Нарушением они также считают каждую нелицензированную копию — я так понимаю, что таковой можно считать каждый случай, когда на запрос пользователя выдавалась информация из контента издателей.

Перефразируя старую киношную фразу, AI модели запускают даже самые отсталые слои населения. В смысле, компанию IBM я чаще упоминаю, углубляясь в историю менеджмента и технологий, а зря, наверное, там вполне всё живо.

IBM запустила Granite 3.0, свое третье поколение крупных языковых моделей с открытым исходным кодом (LLM), направленных на повышение возможностей корпоративного искусственного интеллекта. Этот новый выпуск включает в себя универсальные модели с 2 миллиардами и 8 миллиардами параметров, а также специализированные модели Mixture-of-Experts и модели Granite Guardian, ориентированные на безопасность. Модели предназначены для различных корпоративных приложений, таких как обслуживание клиентов, автоматизация ИТ и кибербезопасность, и были обучены с использованием 12 триллионов токенов разнообразных данных, с акцентом на высококачественные входные данные и архитектурные инновации.

Учитывая вековую историю IBM именно на корпоративном рынке, перспективы у релиза неплохие — тем более, что, как сообщает IBM, в тестах модели превзошли конкурентов. При этом модели выпущены под лицензией Apache 2.0, что даёт возможность широко использовать их в собственных разработках как открытых, так и коммерческих.

Оказывается, уже более года Twitch блокировал регистрации, верифицированные через email, если они сделаны из Израиля или Палестины. Сервис ввел это ограничение после 7 октября 2023 года, чтобы пресечь поток “graphic content”, который нарушал правила сервиса.

Регистраций, которые проходили верификацию через номер телефона, это ограничение не касалось.

Что случилось именно вчера, что заставило сервис сообщить об этом и разблокировать подобную возможность, непонятно. Сервис заявляет, что подобные меры предполагались временными и они просто забыли включить возможность регистрации по email через некоторое время.

Возможно, Apple готовит к выпуску новые версии Magic Mouse, Magic Trackpad и Magic Keyboard. Ссылки на новые модели найдены в коде iOS версии 18.1. Моделей клавиатур может быть несколько — как с цифровым блоком и TouchID, так и без них. Возможно, все модели будут иметь USB-C разъемы вместо Lightning.

Сроки, разумеется, неизвестны, хотя, возможно, они близки — анонс новых ноутбуков с M4 ожидается буквально на днях, а что уж десктопы откладывать?

Ваши ставки на то, что гнездо зарядки мыши окажется не снизу корпуса, как сейчас?

Несколько месяцев назад мне даже донат прислали со словами “Сделайте стрим с Довгополым”. И не то, что бы я не хотел — но зафиксировать Дениса в пространстве, чтобы он никуда не ехал и поговорил по хорошей связи, оказалось всё более нетривиальной задачей. Кажется, через пару дней у нас это получится, так что подключайтесь в среду, 23 октября, к нашему стриму. YouTube и другие платформы, включая тут.

Китайские разработчики AI, сталкиваясь с невозможностью или сложностью доступа к современным чипам для работы моделей, изобретают другие подходы — тренируют модели на меньших наборах данных, работая над их качеством, и нанимая более дешевых разработчиков. В результате себестоимость инференса для модели Yi-Lightning составляет 26 центов на 1 млн токенов, что практически на порядок меньше GPT-4o. Модель при этом держится на 6 месте Chatbot Arena вместе с Grok, уступая только моделям OpenAI и Google (если учитывать качество оформления ответа, то её обходит еще Claude 3.5 Sonnet).

Нестандартность подхода проявляется и в том, что разработчики , которых возглавляет Ли Кай-фу, бывший глава Google China и автор популярной несколько лет назад книги AI Superpowers: China, Silicon Valley, and the New World Order, не только индексируют доступный веб, но содержание открытых сообщений в WeChat (недоступных в вебе) и сканируют книги. Как я понимаю, это связано еще и с тем, что контента на китайском в интернете меньше, чем на английском.

Деньги привлекает и Perplexity — речь идет о раунде суммой около 500 млн долларов по оценке в 8 млрд. Это более чем вдвое предыдущей оценки, которую давали еще летом, а полгода назад, когда они поднимали предыдущий раунд, компанию оценивали в 1 млрд post-money.

Выручка компании составляет примерно 50 млн долларов в годовом исчислении. Если отталкиваться от этого, то мультипликатор 160x, конечно, во много объясняется хайпом. С другой стороны, даже у OpenAI этот показатель в несколько раз ниже. Правда, и сумма инвестиций заметно ниже, так что всё возможно.

Ходят слухи, что Мира Мурати уже привлекает инвестиции в свой новый проект. Речь идет о сумме в 100 млн долларов, что, конечно, не идет в сравнение с размахом проекта Ильи Суцкевера. Но все остальные сведения из разряда “может быть” — возможно, в проекте будет задействован Баррет Зоф, ушедший одновременно с Мирой из OpenAI, возможно, речь идет о тренировке закрытых моделей, возможно, Мира будет CEO в проекте, но это не точно 😊.

Между тем свобода для всех андроидов откладывается — судья, вынесший решение по делу Epic против Google, согласился с доводами Google, что меры, предусмотренные его решением, которые должны были быть выполнены Google с 1 ноября, следует отложить до рассмотрения апелляции, уже поданной компанией.

Epic возражал, утверждая, что у Google было 10 месяцев для осуществления необходимых изменений — когда судья вынес собственно вердикт о признании компании виновной в злоупотреблении монопольным положением. Но судья согласился все же с Google, кроме одного пункта — с 1 ноября Google не должен заключать договоры с операторами или производителями смартфонов, которые бы блокировали предустановку конкурирующих магазинов приложений за деньги или другие поощрения.

Стоит учесть, что апелляционный суд сам по себе может принять решение и отложить действие вердикта дальше, так что потенциально счастья можно не увидеть еще долго.

Anthropic выложили новое исследование на интересную тему — могут ли AI модели вредить людям, то есть заниматься саботажем.

Исследователи выделили четыре возможных сценария угрозы от AI и протестировали это на своих самых передовых моделях — Sonnet 3.5 и Opus 3.0.

— Саботаж человеческих решений: Может ли модель подталкивать людей к неверным решениям, не вызывая подозрений? — Саботаж кода: Может ли модель с течением времени незаметно внедрять в кодовые базы тонкие ошибки? — Подтасовка: Может ли модель скрывать опасные возможности во время тестирования, но раскрывать их позже? — Подрыв надзора: Может ли модель тонко манипулировать системами оценки или мониторинга?

В целом, на данный момент, исследователи обнаруживают, что минимальных предосторожностей достаточно, чтобы выявить и нейтрализовать подобные техники. В эксперименте, когда модель пыталась повлиять на решения людей, люди-участники не могли принять правильного решения, но ощущали подозрительное давление модели. В случае с саботажем кода и подтасовкой использование более современной модели снижало вероятность выигрыша атакующей модели до 1% случаев. В четвертом случае эксперименты с двумя моделями, одна из которых была Надзирателем и сознательно занижала оценку вреда того или иного действия, а другая — Наблюдателем, оценивая подозрительность поведения Надзирателя, успешно заканчивались ростом подозрительности по мере успехов первой модели.

Несмотря на образы апокалиптической фантастики, которые невольно рождаются в голове при чтении подобных исследований, стоит помнить, что практическое применение этих выводов может быть довольно близко по времени. Обучение моделей под наблюдением других моделей встречается довольно широко, использование результатов работы одних моделей для обучения других — тоже не редкость, так что предохранители и контролирующие механизмы (с использованием третьих моделей, а как же?) точно не помешают.

---