Честно. В какой-то момент я поймал себя на мысли:
все вокруг говорят, что ИИ почти не ошибается. Коллеги. Ютуб. Статьи. «Почти как человек»
«Можно доверять»
«Уже лучше гугла» Ну ок. Я решил проверить. Без подвоха. Я задал ИИ 50 вопросов.
Разных: — простые (типа «что такое RAM»)
— практические («почему тормозит комп»)
— чуть сложнее («почему сервер может падать без нагрузки») Без попыток «сломать».
Обычные вопросы, как задаёт любой человек. И вот тут началось интересное. Если коротко: — 31 ответ — норм
— 11 — с ошибками или неточностями
— 8 — уверенно неправильные То есть примерно каждый пятый ответ — косяк. Но самое неприятное даже не это. Справедливости ради — он не «плохой». Есть вещи, где он прям удобен: — быстро объясняет базу
— даёт структуру
— помогает сформулировать мысль
— экономит время Если тебе нужно «разобраться в теме» — отлично. Но. ИИ очень уверенно отвечает. Даже когда не знает. И вот тут главный подвох. Он не говорит:
«я не уверен» Он говорит:
«вот правильный ответ» Да