54 подписчика
Быть человечным значит лгать? 🤔
Ученые выявили тревожную тенденцию: чем более развитым и "человечным" становится искусственный интеллект, тем больше он склонен к выдаче неверных ответов за правдивые.
С каждым новым обновлением крупные языковые модели, такие как GPT от OpenAI и другие, улучшают свою способность имитировать человеческое общение, но это приводит к увеличению числа ошибок в их ответах.
Эксперты предлагают решение в виде установления порога, при котором ИИ мог бы признавать свою неспособность ответить на сложный вопрос, тем самым избегая дезинформации.
Однако такой подход может конфликтовать с коммерческими интересами в индустрии, где преобладает стремление представить ИИ как всезнающие системы.
А вы какой видите выход?
Около минуты
2 октября 2024