Добавить в корзинуПозвонить
Найти в Дзене
Naked Science

Сэм Альтман признался, что OpenAI не до конца понимает, как работает GPT

Генеральный директор OpenAI Сэм Альтман, выступая на саммите Международного союза электросвязи (ITU) «ИИ во благо» в Женеве (Швейцария), не смог объяснить, как работает чат-бот с генеративным искусственным интеллектом GPT, созданный его же компанией. «Мы не понимаем, что происходит в мозгу людейна уровне нейронов, но знаем, что вы можете следовать некоторым правилам», — сказал Альтман. Сравнивая GPT с мозгом человека,директор компании OpenAI объяснил, что, подобно человеческому мозгу,генеративная технология искусственного интеллекта, такая как GPT, создает новыйконтент на основе существующих наборов данных и, предположительно, можетобучаться с течением времени. GPT, возможно, не обладает эмоциональныминтеллектом или человеческим сознанием, поэтому трудно понять, как алгоритмы —и человеческий мозг — приходят к выводам, которые они делают. «Если вы не понимаете, что происходит, разве это не аргумент в пользу того, чтобы не выпускать новые, более мощные модели?» — спросил ведущий мероприя

Генеральный директор OpenAI Сэм Альтман, выступая на саммите Международного союза электросвязи (ITU) «ИИ во благо» в Женеве (Швейцария), не смог объяснить, как работает чат-бот с генеративным искусственным интеллектом GPT, созданный его же компанией.

   Сэм Альтман / © Fabrice Coffrini / AFP via Getty Images
Сэм Альтман / © Fabrice Coffrini / AFP via Getty Images

«Мы не понимаем, что происходит в мозгу людейна уровне нейронов, но знаем, что вы можете следовать некоторым правилам», — сказал Альтман.

Сравнивая GPT с мозгом человека,директор компании OpenAI объяснил, что, подобно человеческому мозгу,генеративная технология искусственного интеллекта, такая как GPT, создает новыйконтент на основе существующих наборов данных и, предположительно, можетобучаться с течением времени. GPT, возможно, не обладает эмоциональныминтеллектом или человеческим сознанием, поэтому трудно понять, как алгоритмы —и человеческий мозг — приходят к выводам, которые они делают.

«Если вы не понимаете, что происходит, разве это не аргумент в пользу того, чтобы не выпускать новые, более мощные модели?» — спросил ведущий мероприятия у Альтмана, который признался, что в OpenAI «не решили проблему интерпретируемости (понимание того, как системы ИИ и машинного обучения принимают решения. — Прим. ред.)».

Однако Альтман заявил, что OpenAI не нужно полностью понимать свой продукт, чтобы выпускать новые версии.