Появление продвинутых агентов ИИ с элементами AGIСправка: Компания OpenAI предлагает пятиуровневую систему классификации для отслеживания прогресса ИИ на пути к достижению общего искусственного интеллекта (Artificial General Intelligence — AGI). Последний, пятый, уровень — это системы искусственного интеллекта, способные выполнять работу целой организации, в том числе принимать стратегические решения.OpenAI в 2025 году анонсировала агентов пятого уровня AGI, фокусирующихся на автономной агентности и мультиагентных системах, где ИИ генерирует гипотезы и итеративно тестирует их без человеческого надзора. Эти модели, эволюция o1 и o3, достигают 85% успеха в SWE-bench (программирование) и GAIA (общие задачи), персонализируясь под пользователя через долгосрочную память. Мультиагентные фреймворки, такие как AutoGen 2.0, координируют рои агентов для коллективного решения, имитируя команды ученых.
В основе работы таких агентов лежит иерархическое рассуждение: агент разбивает задачу на подзадачи, делегирует подагентам и агрегирует результаты с верификацией. В медицине такой подход позволяет синтезировать молекулы лекарств: агент моделирует взаимодействия, предсказывает токсичность и оптимизирует синтез, сокращая цикл разработки на 70%. Такая мультиагентная система для синтеза персонализированных лекарств использует федеративное обучение, адаптируя поведение под стиль пользователя без передачи данных.
Переход к ИИ-организациям виден в проектах вроде xAI’s Grok Swarm: тысячи агентов решают глобальные задачи, от климатического моделирования до финансовой оптимизации. Безопасность обеспечивается constitutional AI, где агенты голосуют за этичные действия. Этот уровень знаменует эру, где ИИ не инструмент, а партнер, способный к инновациям за пределами человеческого опыта.
Ниже несколько публикаций, которые фокусируются на продвинутых ИИ-агентах. Они охватывают бенчмарки ARC-AGI, GAIA, SWE-bench и архитектуры вроде o5/Grok-4:
Определяет Level 5 как «AI as an Agent» с полной автономией, превосходящей человека в широком спектре задач (ASI), с примерами вроде AlphaFold и рисками misalignment.
Предлагает агентов с иерархическим рассуждением (Grok-4: 92.5% на олимпиадных задачах), достигающих пятого уровня автономности ИИ в математике и кодинге.
Анализ бенчмарков ARC-AGI-2 для агентов, с прогрессом в reasoning (IMO Gold, ICPC) и границами LLM.
Риск-анализ AGI, с фокусом на переходах, автономией и экзистенциальными угрозами мультиагентных систем.