Нобелевский лауреат Джеффри Хинтон дал большое интервью, в котором рассказал о развитии AI, угрозах и перспективах технологии. Выделю основные тезисы из беседы.
Хинтон отмечает, что AI развивается быстрее, чем он прогнозировал пару лет назад. Особенно его беспокоят “AI-агенты”, которые могут действовать в реальном мире, а не просто отвечать на вопросы. По его оценке, сверхразумный AI может появиться в ближайшие 4-19 лет, вероятнее всего — уже через 10 лет или раньше.
Что касается позитивных аспектов, Хинтон выделяет несколько областей:
-
Здравоохранение: AI уже не уступает экспертам в анализе медицинских изображений и будет улучшаться благодаря опыту обработки миллионов снимков. “AI-доктор”, имеющий опыт работы со 100 миллионами пациентов и помнящий все детали, будет намного эффективнее обычного врача.
-
Образование: С личным AI-репетитором люди смогут учиться в 3-4 раза быстрее. При этом Хинтон считает, что университетская система в основном сохранится, особенно в части оригинальных исследований.
-
Климатический кризис: AI поможет создавать лучшие материалы, аккумуляторы и, возможно, даже комнатную сверхпроводимость.
Но параллельно нарастают и проблемы. Если раньше Хинтон не слишком беспокоился о потере рабочих мест, то теперь считает это серьезной угрозой. Под ударом любая рутинная работа: колл-центры, секретари, юридические помощники. Хотя журналисты-расследователи еще продержатся какое-то время, “потому что им нужна инициатива плюс моральное возмущение”.
Особенно Хинтона беспокоит распределение благ от повышения производительности. По его словам, “мы знаем, что произойдет: чрезвычайно богатые станут еще богаче, а не очень обеспеченным придется работать на трех работах”.
Самый острый вопрос — вероятность того, что AI “захватит власть” над человечеством. Хинтон оценивает ее в 10-20%. GPT-4 уже “знает в тысячи раз больше, чем обычный человек”, и усиливается технической возможностью цифровых систем обмениваться информацией в триллионы раз быстрее людей.
По поводу регулирования — Хинтон критикует крупные компании за лоббирование против ограничений и подчеркивает, что нынешняя администрация США вряд ли будет регулировать отрасль. Интересно, что даже Илон Маск, несмотря на свою обеспокоенность безопасностью AI в прошлом, теперь сам выпускает веса своих языковых моделей, что Хинтон считает “безумием”.
Хинтон резко критикует публикацию весов крупных языковых моделей (Meta, OpenAI), сравнивая это с продажей делящихся материалов для ядерного оружия: “Если бы вы могли купить делящийся материал на Amazon, гораздо больше стран имели бы ядерное оружие”.
Среди компаний, разрабатывающих AI, Хинтон выделяет Anthropic как наиболее озабоченную вопросами безопасности. Google, где Хинтон раньше работал, по его словам, раньше была ответственной компанией, но разочаровала его отказом от обещания не поддерживать военное использование AI.
OpenAI же вызывает у него особое разочарование, поскольку изначально создавалась для безопасного развития сверхинтеллекта, но “безопасность все больше уходила на задний план”.
В конце интервью Хинтон упоминает, что начал распределять свои сбережения между тремя разными банками из опасения, что в ближайшие 10 лет кибератаки с использованием AI могут “обрушить” канадский банк. Это, пожалуй, самое наглядное проявление его тревоги о будущем.