Исследователи из Университета Альберты, специализирующиеся на искусственном интеллекте и компьютерных науках, нашли решение проблемы катастрофического забывания, которая мешала современным нейронным сетям обучаться на новых данных. В статье, опубликованной в журнале Nature, описан новый подход, который позволит ИИ продолжать обучение бесконечно. Об этом сообщает My-News.az, ссылаясь на Day.Az.

Катастрофическое забывание происходит, когда нейронные сети, обучаясь новому, утрачивают способность выполнять предыдущие задачи. Это также касается крупных языковых моделей (LLM), таких как GPT, которые были разработаны для обучения на фиксированных данных.

В процессе обучения нейронной сети математические вычисления изменяют веса связей между нейронами, которые, как и синапсы в биологическом мозге, определяют важность передаваемой информации. Современные методы обучения, такие как стохастический градиентный спуск и обратное распространение ошибки, не могут эффективно интегрировать старые и новые данные, и причины этого остаются не до конца ясными.

В своей работе ученые применили стандартные алгоритмы обучения и классические наборы данных, такие как ImageNet и CIFAR-100, адаптированные для непрерывного обучения. Они обнаружили, что методы глубокого обучения теряют свою эффективность при постоянном обучении, что называется потерей пластичности.

Для решения этой проблемы и сохранения пластичности нейросетей на неопределенно долгий срок исследователи предложили сбрасывать веса менее активных узлов в сети между сеансами обучения. Новый алгоритм, названный непрерывным обратным распространением ошибки, включает повторную инициализацию небольшой группы малоиспользуемых случайно выбранных единиц с использованием тех же методов, что применялись при первичной настройке системы. Это позволяет нейросетям продолжать обучаться на новых данных, не теряя ранее приобретенных знаний.

От MyNews

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *