Международная группа ученых из Германии и Великобритании провела исследование, чтобы выяснить, могут ли модели на основе искусственного интеллекта (ИИ) выйти из-под контроля и стать угрозой для человечества. Результаты исследования опубликованы на сайте Ассоциации компьютерной лингвистики (ACL), сообщает My-News.az со ссылкой на Day.Az.

Исследователи сосредоточились на так называемых эмерджентных способностях — навыках, которые развиваются у ИИ самостоятельно, а не преднамеренно закладываются в программный код создателями нейросети.

Команда провела эксперименты с четырьмя различными ИИ-моделями, выполняя задачи, которые ранее считались эмерджентными. Целью было определить, может ли искусственный интеллект разрабатывать новые методы выполнения задач, или же он просто выполняет их в рамках заданного кода.

Для всех четырех моделей обнаруженные способности следовать инструкциям, запоминать и демонстрировать лексические навыки можно объяснить их программным обеспечением. Ученые не нашли доказательств того, что нейросети проявляют независимое поведение.

«Существовали опасения, что с увеличением размера моделей они смогут решать новые проблемы, которые в настоящее время трудно предсказать. Это создает риск того, что более сложные модели могут приобрести опасные способности, такие как рассуждение и планирование.

Наше исследование показывает, что страх перед тем, что модель выйдет из-под контроля и начнет действовать совершенно неожиданным и потенциально опасным образом, необоснован», — отметила соавтор работы Тайяр Мадабуши.

Ученые также подчеркнули, что на текущий момент модели ИИ не обладают истинным интеллектом, однако это не исключает того, что они могут представлять потенциальную угрозу.

От MyNews

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *