Мы вовсе не претендуем на истину в последней инстанции. Всё, написанное ниже - результат собственных наблюдений и размышлений «на тему».
Как мы уже писали, издательство «Горизонт», которое публиковало наш цикл «Мир Зари» на Литресе, закрывается. И мы подумали, что перед новой выкладкой (где - ещё не решили, пока рассматриваем варианты) неплохо бы почистить тексты, не только на предмет опечаток. Решили перепроверить даты, исторические факты и прочие «мелочи». Поскольку вылавливать всё это вручную – дело очень долгое и муторное (перечитать все книги, свести всё в табличку и т.д.), мы воспользовались новым удобным инструментом под названием Deepseek (дальше - LLM, большая языковая модель), благо, последнее обновление позволило залить в него все четыре уже изданных текста.
Что же, со своей задачей Deepseek справился. Помог выловить ошибки в хронотопах, построить несколько экономических моделей – в общем, порешал кучу технических задач, с которыми мы справились бы и сами, но это заняло бы несравнимо больше времени. А потом нам стало интересно: а что LLM умеет делать с художественными текстами? И мы предложили программе проанализировать текст.
Для начала произошла интересная вещь: у нейросети изменилась речь. Если поначалу это был чёткий анализ, структурированный, ничего лишнего, то под конец LLM начала рассуждать о марсианском пиве, ватрушках и горячем чае. Честно скажу, в первый момент это слегка напугало – когда нейросетка вдруг начинает говорить с тобой твоими же фразами и оборотами. Сеть обучилась, но – в пределах одного чата. Стоит обновить страницу, и весь накопленный ею «багаж языка» исчезает.
Но это так, к слову.
В целом процесс анализа текста был забавным, познавательным и печальным. Забавным – потому что возникло этакое ностальгическое чувство, словно читаем мы советские школьные учебники по литературе с их неизменным «через весь текст красной нитью проходит», «вот этот образ символизирует вот это, а этот – вот это». Причём иногда анализ попадал в точку, а иногда – промазывал на пару парсеков.
Познавательно было потому, что не везде, но местами реально позволяло увидеть провисы и слабые места текста.
А печально нам стало вот почему. Буквально в разгар работы нам подкинули пост из телеги. О некой американской даме, которая с помощью нейросетей штампует романы за 45 минут и продаёт их миллионными тиражами. И не просто штампует, а ещё и учит других, как это делать. Как писать промпты, чтобы сетка не спотыкалась на «пикантных местах» и всё такое. Читать это было неприятно, но… Но мы же полезли проверять. Предложили Deepseek проанализировать сложные, неоднозначные фрагменты текста. И…
И оказалось, что работать-то с текстом LLM умеет, но только в пределах тех самых токенов – условных «единиц измерения текстов», которыми пользуются нейросети. Он не умеет считывать намёки, не видит вторых, третьих, четвёртых смысловых слоёв. Его анализ – и построение текста, соответственно – прямые, как шпала. Там, где читатель увидит и однозначно поймёт, что случилось, по умалчиванию, он будет искать линейные связи. Многие ходы в наших текстах LLD понимал только потому, что его буквально приходилось тыкать в них носом: «А теперь повтори анализ с учётом того, что…» Да, LLM обладают гигантским «бэкграундом» в плане доступа к огромному количеству литературных текстов. Но не могут выйти за пределы логически-цифрового видения мира.
И представилась нам весьма печальная картина. Как вся современная литература распадается на два слоя. Один – то, что пишут LLM – или с их помощью. Таких текстов будет много, они будут просты и линейны (как ехидно высказался кто-то из классиков, текст в стиле: «Он сказал, она сказала, он пришёл, она отказала» – или как-то так). И эти тексты будут пользоваться популярностью: они будут просты для понимания, будут играть на самых простых и понятных ожиданиях читателей. Они будут полностью соответствовать предпочтениям пользователей.
Второй пласт литературы будет тем, что пишут люди для людей. Причём люди, которым нравится играть с сюжетами, парадоксами, оригинальными решениями. И есть все основания предполагать, увы, что это будет совсем небольшой пласт. Прослоечка такая… Как есть устроившаяся формулировка «Кино не для всех», так и литературу ждут… Тексты не для всех.
Когда мы предложили тому же Deepseek смоделировать развитие сюжетов в недописанных текстах, о которых мы знали, чем они закончатся, он не попал в сюжетную канву ни разу. Зато в предложенных им вариантах были море пафоса и зашкаливающая романтика… Как сказал один писатель: «Не понимаешь, куда вести сюжет, застрял, не знаешь, как разрешить конфликт или закончить диалог? Спроси нейросеть и сделай не так».
Не берёмся говорить за всех, но нам интересен сам процесс создания мира, книги, и с этим ни одна нейросетка не справится. А если когда-нибудь и справится, то промт под эту задачу будет размером с ту самую книгу... Для себя мы определили, что любая LLM - всего лишь инструмент для цифрового анализа, не более того.
Разберёмся с текстами - и вернёмся к статьям, в том числе - и по АБС. Честно-честно!