Неоднократно мы об этом рассказывали в предыдущих статьях, расскажем и в этот раз. Разумеется, речь идёт не только про Chat GPT, а про все нейросети. Все они, в отличие от поисковиков вроде Гугла и Яндекса работают по своему принципу, отчего в ответах нейросеть уходит так далеко от правды, что скорее дезинформирует пользователя, чем помогает. Но обо всм по порядку. Чаще всего ошибку допускаются из-за лингвистического барьера. Далеко не все слова переводятся на русский язык дословно, а некоторые и вовсе перевода не имеют. Особенно это касается названий растений. И это такая беда, что кошмар. Например, вы спрашиваете, в чём разница между аконитом и борцем (к слову, это одно и то же растение). Что такое аконит, нейросеть допустим знает. А вот что "борец" и "борцем" - это одно и то же слово в разных падежах, он знать не может. И начинает фантазировать, а точнее галюционировать. Роль борца начинает исполнят бурачник, хотя он так и не называется. Бурачник лишь похож на борец лишь отдалённо.
Не консультируйтесь о растениях с Chat GPT. Или читайте, что произойдёт...
3 февраля3 фев
74
3 мин