Новое исследование: большие языковые модели не представляют экзистенциальной угрозы человечеству Согласно новому исследованию Университета Бата и Технического университета Дармштадта в Германии, большие языковые модели (LLM), такие как ChatGPT, не способны обучаться самостоятельно или приобретать новые навыки, что означает, что они не представляют экзистенциальной угрозы человечеству. Исследование, опубликованное в рамках материалов 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024), показывает, что языковые модели обладают поверхностной способностью следовать инструкциям и преуспевать во владении языком, однако у них нет потенциала для освоения новых навыков без явных инструкций. Это означает, что они остаются по своей сути контролируемыми, предсказуемыми и безопасными. Исследовательская группа под руководством профессора Ирины Гуревич из Технического университета Дармштадта в Германии провела эксперименты, чтобы проверить способность моделей выполнять задачи, с
Исследователи опровергли экзистенциальную угрозу ИИ для человечества
15 августа 202415 авг 2024
26
2 мин