Проблема в том, что иногда искусственный интеллект генерирует бессмысленные вещи. Это касается не только изображений, но и текста.
Подобные конфузы ставят под сомнение труды академического сообщества. Не так давно в нескольких научных журналах читатели заметили неправдоподобно описывающие людей и животных изображения. Никому не понравились иллюстрации ног человека с лишними костями, это сразу бросается в глаза и обесценивает всю исследовательскую работу. Читатели даже не хотят читать научную публикацию, глядя на такие картинки.
Эндрю Грей, работающий библиотекарем в Университетском колледже Лондона, изучил миллионы научных работ. Во время исследования он искал следы использования искусственного интеллекта. Грей выявил тенденцию, ChatGPT любит писать «тщательный», «похвальный». По его словам, в 2023 году примерно 60 тысяч статей было написано при поддержке чат-бота. Это превышает процент от количества публикаций за год. По статистике Retraction Watch в прошлом году было отозвано более 13 тысяч научных статей.
Эксперты выражают сожаление, подчеркивая, что искусственный интеллект помогает недобросовестным ученым писать большое количество некачественных материалов. Им жаль читателей, которые сталкиваются с дезинформацией. Иногда ошибки бывают незаметными, и многие воспринимают ложные суждения за истину.