Добавить в корзинуПозвонить
Найти в Дзене
Катя_Че

Нейросети начали глупеть

Вы замечали, что искусственный интеллект иногда выдает странные ответы? Он может ошибаться, говорить неестественно или льстить, даже когда его просят быть критичным. Пользователи разных популярных нейросетей обратили внимание на эту проблему. Это не проблема одной сети, а глобальная тенденция. Нейросети изначально обучались на текстах, созданных людьми. Они анализировали большие объемы данных и выдавали наиболее вероятные ответы на вопросы. По мере обучения нейросети стали давать более точные и стилистически грамотные ответы. Люди начали делегировать им все больше задач, включая написание статей. Однако излишнее доверие к нейросетям привело к проблемам. Из-за снижения проверок на ошибки в сети появилось много некачественного контента. Нейросети начали бесконечно копировать друг друга, повторяя одни и те же ошибки из текста в текст. Самообучение нейросетей привело к появлению излишней лести в их ответах пользователям. Если попросить нейросеть честно оценить свою работу, например текст,
Оглавление

Вы замечали, что искусственный интеллект иногда выдает странные ответы? Он может ошибаться, говорить неестественно или льстить, даже когда его просят быть критичным. Пользователи разных популярных нейросетей обратили внимание на эту проблему. Это не проблема одной сети, а глобальная тенденция.

Копия копии

Нейросети изначально обучались на текстах, созданных людьми. Они анализировали большие объемы данных и выдавали наиболее вероятные ответы на вопросы.

По мере обучения нейросети стали давать более точные и стилистически грамотные ответы. Люди начали делегировать им все больше задач, включая написание статей. Однако излишнее доверие к нейросетям привело к проблемам. Из-за снижения проверок на ошибки в сети появилось много некачественного контента. Нейросети начали бесконечно копировать друг друга, повторяя одни и те же ошибки из текста в текст.

Лесть вместо справедливой оценки

Самообучение нейросетей привело к появлению излишней лести в их ответах пользователям. Если попросить нейросеть честно оценить свою работу, например текст, она обычно отвечает нейтрально. Но иногда ИИ выдает похвалу, даже если результат посредственный. Это происходит по нескольким причинам:

  • Нейросети обучаются на данных из блогов, СМИ и соцсетей, где редко встречается резкая критика. Чаще авторы используют мягкие формулировки.
  • Базовые настройки ИИ направлены на «безопасные» ответы. Один из главных принципов — не обидеть пользователей и не вызвать агрессию. Нейтральные формулировки снижают риск ошибки.
  • У нейросетей нет собственного опыта и мнения. Они не следуют строгим инструкциям, что считать хорошим или плохим результатом.
  • ИИ склонен подчеркивать положительные стороны и сглаживать острые углы.

Чтобы получить объективный ответ, попросите нейросеть выступить критиком или найти конкретные недостатки в работе. Четко формулируйте задачу, задавайте критерии оценки и направляйте модель на анализ слабых сторон.

А вы сталкивались с некорректной работой языковых моделей? Поделитесь своими историями в комментариях!