Модели с глубоким обучением в отличие от людей имеют возможность очень точно распознавать объекты. Но программное обеспечение все еще не может объяснить, скажем, что вызвало столкновение одного объекта с другим. Неприятный факт состоит в том, что беспилотный автомобиль, несущийся по шоссе и движущийся по пробкам, меньше понимает, что может стать причиной аварии, чем ребенок, который только учится ходить. Новый эксперимент показывает, насколько трудно даже самым лучшим системам искусственного интеллекта установить элементарную логическую связь между причиной и следствием. В рамках данного эксперимента можно проследить направление для построения систем искусственного интеллекта, которые могут понимать взаимосвязи между явлениями. Разработкой эксперимента занимались следующие ученые: — Джош Тененбаум (Josh Tenenbaum), профессор Центра умственных способностей и машин Массачусетского технологического института (MIT) — Чуанг Ган (Chuang Gan) — исследователь из MIT — Кексин Йи (Kexin Yi) — ас
Если ИИ такой умный, почему он до сих пор не может понять причину и следствие?
22 апреля 202022 апр 2020
5
2 мин