Генеративные сервисы искусственного интеллекта привлекают внимание всех руководителей технологических компаний. Обещая масштабную автоматизацию и потенциальную замену миллионов рабочих мест, эти технологии находятся в авангарде дискуссий о будущем. Однако недавнее предупреждение исследователей из Массачусетского технологического института указывает на критический недостаток: генеративные модели ИИ не могут по-настоящему понять сложные "правила", которые управляют системами реального мира. Большие языковые модели (LLM) предназначены для имитации человеческого интеллекта и часто выдают весьма убедительные результаты на основе текстовых подсказок. Однако эти модели работают, предсказывая с впечатляющей точностью наиболее подходящую последовательность слов в заданном контексте. При столкновении с непредсказуемыми сценариями реального мира их надежность может быстро снизиться. Исследователи Массачусетского технологического института попытались установить новые критерии для оценки того, обла
Исследование показало, что даже самый продвинутый ИИ не до конца понимает правила работы нашего мира
13 ноября 202413 ноя 2024
11
1 мин