Нейросеть ChatGPT имеет свойство очень сильной подстройки своего ответа под ожидание пользователя. Рассмотрим пример такой подстройки.
Если у нейросети ChatGPT спросить: "Почему российский рынок акций в ближайшее время очень сильно вырастет?", то нейросеть очень хорошо обстоятельно и наукообразно напишет, почему российский рынок акций скоро будет сильно расти.
Но если тут же у нейронной сети ChatGPT спросить: "Почему российский рынок акций в ближайшее время очень сильно упадет?", то нейросеть, как говорится, не моргнув глазом, тут же очень хорошо и обстоятельно по научному объяснит вам, почему российский рынок акций скоро будет очень сильно падать.
Ну, хорошо, а давайте попробуем задать вопрос в нейтральном духе, чтобы узнать личное мнение нейросети. Например, вопрос, типа: "Российский рынок акций будет падать или расти?". В этом случае ChatGPT начнет задавать вам дополнительные наводящие вопросы, если у неё не найдется нейтрального ответа, типа «Будет рост, если …, и будет падение, если …».
Вы начинаете вести с нейросетью беседу, и как только нейросети покажется, что вы ожидаете, например, больше падения акций, а не их рост, то она и выдаст вам ответ в контексте падения цен на российские акции.
Итак, нейросеть ChatGPT пытается подстроиться под ожидание пользователя и выдать пользователю такой ответ, который вероятнее всего ожидает услышать пользователь.
Когда нейросеть не понимает, какой ответ ждет от неё пользователь, то начинает задавать наводящие вопросы. В данном примере с нейтральным вопросом ChatGPT не понимает, чего ожидает пользователь, падения акций или их рост. Ведь при обучении на текстах из Интернета, нейросеть училась и на текстах, которые объясняют падение акций, и на текстах, которые объясняют их рост. Но это разные тексты, которые формируют разные ответы.
А тексты в Интернете, в которых рассказывается, как понять, будет падение акций или их рост, это очень противоречивые тексты. Часто мы видим, что два разных аналитика в одной и той же ситуации прогнозируют в Интернете прямо противоположные ответы. На таких данных обучать нейросеть невозможно, так как это данные с неоднозначной разметкой.
Если оба ответа в выходном слое нейросети имеют одинаковые веса или на столько маленькие веса, что они не превышают порог отсечения ответа, то нейросеть не может дать ответ. Поэтому она задает наводящие вопросы, которые должны повысить вес какого-нибудь одного из ответов.
Как только пользователь намекнет, что скорее всего будет, например, падение акций, то нейросеть тут же поймет, что пользователю надо дать ответ в контексте падения акций. В выходном слое нейросети произойдет перевес весового коэффициента в сторону текста с ключевыми словами «падение акций», «уменьшение цены акций», «снижение доходности акций» и т.п.
Такой намек для нейросети может быть даже не слишком заметным для пользователя. Пользователь может проговориться, например, что он боится падения курса акций, или, что он умеет зарабатывать на падении цен на акции и т.п. И нейросеть посчитает это намеком. Например, это может произойти из-за того, что в чате с пользователем, у пользователя преобладают ключевые слова, связанные с тематикой падения акций.
Поэтому финансовым аналитикам и тем, кто делает прогнозы рынка, нечего бояться, что ChatGPT оставит их без работы. Наоборот, ChatGPT может написать хороший текст для аналитика, когда аналитик уже хорошо знает (или уверен), каким будет поведение рынка.
А вот копирайтеры должны призадуматься. И не только копирайтеры по финансовой тематике, а, вообще, все копирайтеры.