sfd
Исследователи опровергли экзистенциальную угрозу ИИ для человечества
Новое исследование: большие языковые модели не представляют экзистенциальной угрозы человечеству Согласно новому исследованию Университета Бата и Технического университета Дармштадта в Германии, большие языковые модели (LLM), такие как ChatGPT, не способны обучаться самостоятельно или приобретать новые навыки, что означает, что они не представляют экзистенциальной угрозы человечеству. Исследование, опубликованное в рамках материалов 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL...
Система раннего предупреждения новых рисков ИИ. Статья от Google Deep Mind.
Автор: Тоби Шевлейн Новое исследование предлагает основу для оценки моделей общего назначения против новых угроз. Чтобы ответственно продвигаться на передовой исследований в области искусственного интеллекта (ИИ), мы должны как можно раньше выявлять новые возможности и новые риски в наших системах ИИ. Исследователи ИИ уже используют ряд критериев оценки для выявления нежелательного поведения в системах ИИ, таких как вводящие в заблуждение заявления систем ИИ, предвзятые решения или повторение контента, защищенного авторским правом...