Новое исследование утверждает, что большие языковые модели не представляют экзистенциальной угрозы человечеству Исследователи из Университета Бата и Технического университета Дармштадта представили новые данные, подтверждающие, что большие языковые модели, такие как ChatGPT, не способны на самостоятельное обучение и не представляют экзистенциальной угрозы человечеству. Результаты исследования были опубликованы в рамках 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024). Согласно отчету, языковые модели обладают ограниченной способностью следовать инструкциям и преуспевать во владении языком, но не могут приобретать новые навыки без явных на то инструкций. Это делает их контролируемыми, предсказуемыми и безопасными в использовании. Профессор Ирина Гуревич и доктор Хариш Тайяр Мадабуши, руководители исследовательской группы, провели эксперименты, чтобы проверить возможности моделей справляться с задачами, с которыми они никогда ранее не сталкивались. Результаты этих