Добавить в корзинуПозвонить
Найти в Дзене

Исследователь OpenAI: ИИ не учится на ошибках — преграда для AGI

Джерри Творек, работавший над моделями рассуждений в OpenAI, считает, что у современных ИИ есть серьёзный недостаток: они не учатся на ошибках. В подкасте Unsupervised Learning он сказал: “Если модели ошибаются, вы довольно быстро теряете надежду. Нет хорошего механизма, чтобы модель обновляла свои знания после неудачи.” Творек ушёл из OpenAI, чтобы решить эту задачу. Он объясняет: “Если модели не справляются со сложностями и не могут выбраться из тупика при решении проблемы, я не назвал бы это ИИ-общего назначения (AGI).” По его словам, обучение ИИ сейчас устроено “очень хрупко”. Человеческое обучение наоборот — устойчивое и саморегулирующееся. “Интеллект всегда… Подробнее

Исследователь OpenAI: ИИ не учится на ошибках — преграда для AGI

Джерри Творек, работавший над моделями рассуждений в OpenAI, считает, что у современных ИИ есть серьёзный недостаток: они не учатся на ошибках.

В подкасте Unsupervised Learning он сказал: “Если модели ошибаются, вы довольно быстро теряете надежду. Нет хорошего механизма, чтобы модель обновляла свои знания после неудачи.”

Творек ушёл из OpenAI, чтобы решить эту задачу. Он объясняет: “Если модели не справляются со сложностями и не могут выбраться из тупика при решении проблемы, я не назвал бы это ИИ-общего назначения (AGI).” По его словам, обучение ИИ сейчас устроено “очень хрупко”. Человеческое обучение наоборот — устойчивое и саморегулирующееся. “Интеллект всегда…

Подробнее