Международная группа ученых из Германии и Великобритании провела исследование, чтобы выяснить, могут ли модели на основе искусственного интеллекта (ИИ) выйти из-под контроля и стать угрозой для человечества. Результаты исследования опубликованы на сайте Ассоциации компьютерной лингвистики (ACL), сообщает My-News.az со ссылкой на Day.Az.
Исследователи сосредоточились на так называемых эмерджентных способностях — навыках, которые развиваются у ИИ самостоятельно, а не преднамеренно закладываются в программный код создателями нейросети.
Команда провела эксперименты с четырьмя различными ИИ-моделями, выполняя задачи, которые ранее считались эмерджентными. Целью было определить, может ли искусственный интеллект разрабатывать новые методы выполнения задач, или же он просто выполняет их в рамках заданного кода.
Для всех четырех моделей обнаруженные способности следовать инструкциям, запоминать и демонстрировать лексические навыки можно объяснить их программным обеспечением. Ученые не нашли доказательств того, что нейросети проявляют независимое поведение.
«Существовали опасения, что с увеличением размера моделей они смогут решать новые проблемы, которые в настоящее время трудно предсказать. Это создает риск того, что более сложные модели могут приобрести опасные способности, такие как рассуждение и планирование.
Наше исследование показывает, что страх перед тем, что модель выйдет из-под контроля и начнет действовать совершенно неожиданным и потенциально опасным образом, необоснован», — отметила соавтор работы Тайяр Мадабуши.
Ученые также подчеркнули, что на текущий момент модели ИИ не обладают истинным интеллектом, однако это не исключает того, что они могут представлять потенциальную угрозу.