Создатели нейросети ChatGPT попытались заставить систему объяснить, что происходит в ее недрах. Однако столкнулись с проблемой, что Искусственный интеллект может использовать концепции, для которых у людей нет названий. Началось же все с того, что изобретали искусственного интеллекта признались, что не понимают, что у него происходит внутри.
Читайте также: Искусственный интеллект Microsoft взбунтовался против пользователей
Исследователи из OpenAI, разработавшей ChatGPT, использовали самую последнюю версию своей модели, известную как GPT-4, чтобы попытаться объяснить поведение GPT-2, более ранней версии. Так они пытались преодолеть так называемую проблему «черного ящика». Хотя у создателей есть относительно хорошее понимание того, что входит в ИИ и выходит из них, что происходит внутри — остается в значительной степени загадкой даже для создателей ИИ.
Проблема «черного ящика» не только затрудняет работу исследователей, но также означает, что практически невозможно предугадать, когда ИИ начнет врать и вводить в заблуждение людей.
...
Продолжение читайте тут. (Или тут.)
Читайте также: