Искал информацию об одном музее, попросил чат gpt рассказать историю этого места. Чат выдал информацию. Хорошо. Почитал - интересно, но как-то не очень логично. Чат написал, что дом построен на месте бывшего ж/д вокзала. А там такое место, что никак туда вокзал не вписывается, там и близко поездов и рельс нет. Решил в интернете перепроверить, где он это взял. Всё перерыл, но ни одного упоминания о том, что в этом месте был ж/д вокзал раньше. Спросил у чата, где он взял информацию, что там раньше был вокзал. Ответ - ДОПУСТИЛ НЕТОЧНОСТЬ... Нормально так сочинять ответы на вопросы? Причём от фонаря. Ни в одном месте такой информации нет. Он просто решил сильно не искать, а от себя написать? И это не нужно копаться, а сразу интернет выдаёт факт. Спросил у чата, значит ему нельзя верить, а нужно перепроверять? И вот что он выдал. Я в шоке. Кто не верит, что ИИ не превзойдёт нас? По крайней мере в лени он точно нас копирует. Обратите внимание на последний пунктик - человеческий фактор!!! Я б
ИИ косит под человека? Не доверяй и точно перепроверяй - история моего запроса
6 мая 20256 мая 2025
1
1 мин