Интеллект всегда побеждает.
Мартин Скорсезе
Общий ИИ (Artificial General Intelligence, AGI) – одна из самых противоречивых тем в современных дискуссиях об искусственном интеллекте. Противоречий много. Противоречие между старым термином (сильный ИИ) и относительно новым (общий ИИ). Противоречие между широкой публичностью темы и ее понятийной размытостью. Противоречие между подходами к оценке AGI – только по результату интеллектуальной деятельности или же еще и по механизмам реализации. Противоречие между подходами к созданию, между оптимистичными и пессимистичными сроками появления, между манипуляциями разных игроков рынка ИИ.
При этом AGI – одна из самых обсуждаемых и волнительных тем. Появление полноценного AGI несет плохо представимые возможности и угрозы для людей, организаций и человечества в целом. AGI – это тема, в которой крайне желательно объективно разобраться, не впадая в крайности шапкозакидательства и критиканства.
Начнем с терминологии.
На заре исследований в области ИИ в обиход вошли два термина. Слабый ИИ – ИИ, способный решать лишь отдельные интеллектуальные задачи, подвластные человеку. Сильный ИИ – ИИ, не уступающий человеку по когнитивным способностям (полный аналог человеческого интеллекта). Слабым ИИ занимались исследователи, которые постепенно расширяли спектр задач для него. Сильным ИИ занимались футурологи и фантасты, которые регулярно пугали впечатлительных людей ИИ-Армагеддоном.
Впервые термин общий ИИ (AGI) появился в 1997 году в статье о военных системах, но тогда он не вышел за пределы узкого круга экспертов. Известность термин AGI получил в начале XXI века после публикации книги «Artificial General Intelligence» под редакцией американского ученого Бена Герцеля. В книге AGI определялся как компьютерная система, которая сможет эффективно решать интеллектуальные задачи на человеческом уровне.
Успехи специализированных нейросетей во втором десятилетии XXI века подогревали интерес к AGI, но по-прежнему в большей степени стараниями футурологов и фантастов. Только революция генеративного ИИ, начавшаяся в конце 2022 года, вывела дискуссии об AGI в широкое публичное пространство. Успехи LLM позволили лидерам ИИ-отрасли всерьез говорить о том, что до появления AGI остались считанные годы. Мы уже упоминали знаменитое предсказание Илона Маска, что AGI появится в 2025 году (не появился).
И здесь мы переходим к главной проблеме дискуссий об AGI. Ее участники категорически не готовы договориться о более-менее едином понимании, что же это такое – общий ИИ. Поэтому для дальнейшего погружения в тему рассмотрим два подхода к пониманию AGI, которые различаются принципиально.
Первый подход основывается на критерии собаки: если что-то лает, кусается и выглядит как собака, это собака и есть. Человек в своей повседневной деятельности решает множество интеллектуальных задач. Если ИИ cможет решать их вместо него – это без всяких сомнений будет AGI. Механизмы решения могут быть любыми, они вообще к теме AGI не относятся. Ими должны заниматься ИИ-разработчики, перед которыми стоит стратегическая задача – научить компьютерные системы решать все те задач, что сегодня решают люди.
Этого подхода придерживаются лидеры практически все ведущих игроков ИТ-отрасли во главе с Сэмом Альтманом и Илоном Маском. Их аргументация понятна и убедительна. Современные LLM и экосистемы ИИ-агентов на их основе все успешнее решают все более широкий круг интеллектуальных задач, являвшихся ранее привилегией людей. В горизонте нескольких лет можно ожидать, что компьютерные системы на основе ИИ смогут решать любую конкретную задачу. И значит – появление AGI действительно можно ожидать в ближайшее время.
... читайте сюжет в полной версии
