Мне было лень. Нет, не так. Мне было страшно. До защиты четыре месяца, готово - ничего. Научрук отвечает раз в две недели, и то односложно. Тема утверждена, но я до конца не понимаю, что с ней делать. Однокурсники делают вид, что у них всё под контролем. Я делаю вид, что у меня тоже.
В какой-то момент я открыл ChatGPT и написал: "Напиши магистерскую ВКР по психологии на тему: связь эмоционального интеллекта и профессионального выгорания у медицинских работников". И он начал писать. Быстро, уверенно, красивым языком. Я подумал - вот оно. Спасение.
Это не было спасение.
Первый час: эйфория
Литобзор появился за двадцать минут. Аккуратные абзацы, ссылки на Маслач, Бойко, Водопьянову, Гоулмана. Всё логично, всё гладко. Я копировал в Word и чувствовал, как тревога отпускает.
Потом попросил методологическую часть. ChatGPT выдал: "Для исследования был использован опросник эмоционального интеллекта Д.В. Люсина (ЭмИн) и опросник профессионального выгорания К. Маслач (MBI) в адаптации Н.Е. Водопьяновой. Выборка составила 120 медицинских работников."
Я даже не просил про выборку. Он сам придумал. 120 человек. Ладно, подумал я, потом поправлю.
Второй час: первые трещины
Я попросил написать гипотезы. Он написал: "Предполагается, что существует значимая отрицательная корреляция между уровнем эмоционального интеллекта и степенью профессионального выгорания у медицинских работников".
Нормально. Но потом я попросил расписать статистические методы. И вот тут началось.
"Для обработки данных были использованы методы описательной статистики, корреляционный анализ по Пирсону, t-критерий Стьюдента для сравнения двух независимых выборок, а также регрессионный анализ."
Это звучит правильно. Для человека, который не разбирается в статистике, это звучит отлично. Но я к тому моменту уже прочитал достаточно, чтобы задать вопрос: "Почему Пирсон, а не Спирмен? Ты проверил нормальность распределения?"
ChatGPT ответил: "Вы правы, необходимо предварительно проверить нормальность распределения с помощью критерия Шапиро-Уилка. В случае отклонения от нормального распределения следует использовать коэффициент корреляции Спирмена."
Он не проверил. Он не может проверить. У него нет данных. Он просто написал "Пирсон", потому что это самый частый ответ в обучающей выборке. А когда я указал на ошибку, он согласился и переписал. Он всегда соглашается.
Третий час: результаты из воздуха
Я решил проверить, насколько далеко он зайдёт. Попросил написать результаты исследования. Он написал.
"Был выявлен значимый отрицательный коэффициент корреляции между общим уровнем эмоционального интеллекта и показателями эмоционального истощения (r = -0.47, p < 0.01). Также обнаружена значимая отрицательная связь между межличностным эмоциональным интеллектом и деперсонализацией (r = -0.38, p < 0.01)."
Цифры. С двумя знаками после запятой. p-значения. Всё как в настоящей диссертации.
Только эти цифры - выдуманные. Полностью. Не существует никакого исследования, никакой выборки, никаких 120 медработников. ChatGPT сгенерировал правдоподобные числа, потому что он обучен на тысячах статей, где корреляции между EI и выгоранием именно такие. Он выдал среднее по обучающей выборке. Это не результат исследования. Это статистический фантом.
И вот тут я понял масштаб проблемы.
Что будет на защите
Допустим, я сдаю этот текст. Антиплагиат? Пройдёт. ChatGPT не копирует, он генерирует. 85-90% оригинальности - легко.
Научрук? Может и пропустит. Если у него 20 подопечных и полчаса в неделю на каждого, он прочитает по диагонали. Структура на месте, ссылки на месте, выглядит прилично.
А вот комиссия на защите - это другое. Там сидят люди, которые потратили годы на исследования. И они задают вопросы.
"Почему вы выбрали именно ЭмИн Люсина, а не, скажем, MSCEIT? В чём принципиальное отличие вашего подхода к операционализации эмоционального интеллекта?" Я не знаю. ChatGPT выбрал за меня, потому что Люсин чаще всего встречается в русскоязычных работах.
"У вас регрессионный анализ. Какие предикторы вы включили в модель и на каком основании? Проверяли мультиколлинеарность?" Я не знаю, что такое мультиколлинеарность. Вернее, теперь знаю. Но тогда не знал.
"Ваш коэффициент детерминации R² = 0.34. Как вы интерпретируете оставшиеся 66% дисперсии?" Это вопрос, на который у ChatGPT нет ответа. Потому что для ответа нужно понимать контекст конкретного исследования, а не генерировать правдоподобный текст.
Один такой вопрос - и всё. Комиссия понимает, что ты не делал эту работу. Не нужен никакой детектор ИИ. Достаточно трёх вопросов по существу.
Что ChatGPT делает хорошо
Я не буду говорить, что он бесполезен. Это неправда.
Литобзор. Он даёт неплохую стартовую точку. Перечисляет ключевых авторов, основные подходы, помогает сориентироваться в теме. Но каждую ссылку надо проверять руками - он выдумывает источники. Я насчитал четыре несуществующие статьи в одном литобзоре.
Структура. Он знает, как выглядит ВКР. Введение, теоретическая часть, методология, результаты, обсуждение, выводы. Если вы не знаете, с чего начать, он покажет скелет.
Редактура. Если у вас уже есть текст, он может помочь его причесать. Убрать повторы, улучшить формулировки, проверить согласование.
Где он бесполезен
Дизайн исследования. Он не понимает, какой дизайн нужен для вашей конкретной задачи. Он предложит то, что встречается чаще всего. А чаще всего встречается описательное корреляционное исследование - самый слабый дизайн из возможных.
Статистика. Он не анализирует данные. Он генерирует текст, похожий на анализ данных. Это принципиально разные вещи. Он не проверяет допущения, не подбирает метод под распределение, не интерпретирует результаты в контексте вашей выборки.
Методология. Он не знает, какие методики адаптированы на русский язык в 2024 году, какие имеют нормы для вашей выборки, какие устарели. Он предложит TAS-20 для алекситимии, потому что это самый популярный вариант. Но не скажет, что существует TAS-26, и не объяснит, в каком случае лучше использовать BVAQ.
Интерпретация. Это самое важное. Интерпретация результатов в контексте конкретного исследования требует понимания теории, знания выборки, видения ограничений. ChatGPT не умеет этого. Он умеет писать абзацы, которые выглядят как интерпретация.
Что я сделал в итоге
Я удалил всё, что написал ChatGPT. Не потому что текст был плохой. А потому что я понял: если я сдам эту работу, я не смогу её защитить. Физически не смогу ответить на вопросы комиссии, потому что не понимаю, что написано в моей собственной ВКР.
Я нашёл людей, которые помогли мне с дизайном исследования и статистикой. Не написали за меня - а объяснили, что делать и почему. Я потратил на это деньги, которые планировал потратить на отпуск. Но я защитился, и я понимаю каждую цифру в своей работе.
Мораль
ChatGPT - это калькулятор. Калькулятор полезен, когда ты знаешь, что считать. Если не знаешь, он выдаст тебе красивый неправильный ответ. А на защите нет кнопки "пересчитать".
Если у вас проблемы с ВКР, проблема не в том, что вам нужен текст. Проблема в том, что вам нужна методология. Текст - следствие. Понимание дизайна исследования, правильная статистика, живые данные - это причина.
ChatGPT не даст вам понимание. Он даст вам иллюзию понимания. А иллюзия рассыпается ровно в тот момент, когда кто-то задаёт первый серьёзный вопрос.
Автор пожелал остаться анонимным. Защита состоялась в 2025 году.
Нужна помощь с дизайном исследования, статистикой или текстом ВКР? phdlab.pro - научный консалтинг для магистрантов и аспирантов.