Найти тему
Telegraf - Новости

Все пошло не так. Создатели признались, что не знают как работает ИИ и попросили объяснить его самого

Создатели нейросети ChatGPT попытались заставить систему объяснить, что происходит в ее недрах. Однако столкнулись с проблемой, что Искусственный интеллект может использовать концепции, для которых у людей нет названий. Началось же все с того, что изобретали искусственного интеллекта признались, что не понимают, что у него происходит внутри.

Читайте также: Искусственный интеллект Microsoft взбунтовался против пользователей

Исследователи из OpenAI, разработавшей ChatGPT, использовали самую последнюю версию своей модели, известную как GPT-4, чтобы попытаться объяснить поведение GPT-2, более ранней версии. Так они пытались преодолеть так называемую проблему «черного ящика». Хотя у создателей есть относительно хорошее понимание того, что входит в ИИ и выходит из них, что происходит внутри — остается в значительной степени загадкой даже для создателей ИИ.

Проблема «черного ящика» не только затрудняет работу исследователей, но также означает, что практически невозможно предугадать, когда ИИ начнет врать и вводить в заблуждение людей.

...

Продолжение читайте тут. (Или тут.)

Читайте также: