Большие языковые модели (LLM), например, ChatGPT и DeepSeek, сегодня стали неотъемлемой частью информационного пространства. Они помогают генерировать тексты, отвечают на вопросы и выполняют множество других задач. Однако исследователи из Массачусетского технологического института (США) обнаружили, что все эти модели, несмотря на свое кажущееся совершенство, часто страдают от “предвзятости позиции”. Это нередко сказывается на качестве их работы. Предвзятость позиции — это феномен, при котором языковые модели переоценивают информацию, содержащуюся в начале и в конце текста, игнорируя или недооценивая данные в середине. То есть, по сути, проявляя к ним невнимательность. Это явление может создавать трудности для авторов, которые пытаются выделить ключевые фразы или идеи в длинных документах. Например, в исследовании, представленном на Международной конференции по машинному обучению, было показано, что модель имеет 85% вероятность найти нужную информацию в начале или в конце текста, но то
“Предвзятости позиции”: названа главная проблема нейросетей
19 июня 202519 июн 2025
9
2 мин