В четверг ИИ выдал мне ссылку на исследование MIT 2023 года про эффект утренних уведомлений на дофаминовую систему. Я обрадовалась, заскрин послала клиенту, уже думала вставлять в его презентацию. Потом всё-таки решила погуглить сама. Такого исследования нет. Авторы нашлись, оба живые, оба действительно работают в MIT, но статью с таким заголовком они никогда не писали. Самое противное, что в первую секунду я поверила. И уже на этой вере собиралась строить чужой проект. За год работы с моделями я научилась ловить такие моменты раньше. Собрала пять признаков, по которым теперь сразу настораживаюсь. Не идеальная система, иногда всё равно проскакивает. Но процент брака сильно меньше чем был в начале. 1. Ссылки на исследования которые невозможно нагуглить. Если модель называет конкретную статью, конкретного автора, конкретный год, я первым делом ищу её в поиске. В половине случаев такой статьи нет, либо есть, но совсем про другое. Особенно подозрительны ссылки на старые работы 2018-2020 го