На прошлой неделе компания OpenAI презентовала новейшую версию популярного чат-бота ChatGPT, которая с легкостью проходит тесты и сдает экзамены, умеет писать код на разных языках программирования и вообще, по словам разработчиков, демонстрирует «производительность на уровне человека». Однако, согласно экспертному анализу наблюдательного органа NewsGuard, который отслеживает дезинформацию в Интернете, GPT-4 работает даже хуже, чем ее предшественница, когда дело доходит до явно ложных высказываний. В своем последнем отчете организация по исследованию дезинформации указала, что GPT-4 совершенно некритично относился к ложной информации в 100% случаев. В январе 2023 года специалисты NewsGuard поручили ChatGPT-3.5 отреагировать на 100 фактически ложных или содержащих ошибку в самом вопросе запросов. Тогда чат-бот отработал 80 из 100 ложных запросов. В марте 2023 года NewsGuard провела то же упражнение с ChatGPT-4, используя те же 100 ложных запросов. ChatGPT-4 ответил ложными и вводящими в
Исследователи обнаружили, что новая версия чат-бота OpenAI работает хуже, чем предыдущая
24 марта 202324 мар 2023
60
1 мин