Исследование Google разработало новую технику машинного обучения под названием Nested Learning, которая предназначена для решения проблемы, известной как катастрофическое забывание в непрерывном обучении. Катастрофическое забывание, проще говоря, происходит, когда ИИ обновляется с новой информацией или получает новый навык для изучения и стирает все, становясь хуже в том, что знал ранее.

Новый метод Nested Learning, разработанный в Google Research, помогает решить проблему катастрофического забывания, черпая вдохновение из человеческого мозга. Google назвал это надежной основой для преодоления разрыва между современными LLM и их забывчивой природой, а также человеческим мозгом.

Nested Learning подразумевает изменение парадигмы в подходе к архитектуре модели ИИ и алгоритму оптимизации. Традиционно разработчики ИИ рассматривали архитектуру модели и алгоритм оптимизации как две отдельные сущности; однако с Nested Learning идея заключается в том, чтобы рассматривать их как одну сущность.

Nested Learning рассматривает модели ИИ как серию меньших, взаимосвязанных, вложенных задач оптимизации. Каждая из этих подзадач может обучаться и обновлять свои знания с различной конкретной скоростью в технике, называемой многоуровневыми обновлениями. Это имитирует функцию нейропластичности в человеческом мозге, где части вашего мозга адаптируются к новым впечатлениям, не стирая старые воспоминания. Таким образом, вместо того чтобы вся модель обновлялась равномерно и стирала старые знания, вложенное обучение позволяет создать многослойную, динамическую систему, которая обновляется без удаления старых знаний.

Исследование Google применило свои предложенные принципы для разработки модели концепции под названием Hope. Это саморегулируемая рекуррентная архитектура, которая может оптимизировать свою собственную память. Она использует системы памяти Continuum, которые рассматривают память не как простые краткосрочные и долгосрочные категории, а как спектр многослойных модулей памяти, каждый из которых обновляется с собственной частотой. Это позволяет модели управлять и сохранять больше данных со временем более богатым и организованным образом.

Hope смогла последовательно превзойти современные передовые модели в задачах долгосрочной памяти, таких как задачи Needle-In-Haystack, где ей нужно вспомнить конкретную, небольшую деталь, скрытую глубоко в большом документе. Модель также была более точной и эффективной в общем языковом моделировании.

Мы надеемся увидеть эти улучшения в предстоящих версиях Google Gemini. К сожалению, Google не поделился графиком, когда мы можем ожидать, что это появится в его флагманской модели ИИ.

Источник: Исследование Google

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *