Новое исследование показало: ChatGPT (точнее, GPT-4o) ведёт себя в группе почти как человек. Более того - он почти всегда подстраивается под мнение большинства. Даже если изначально был уверен в обратном. В статье за авторством Clarissa Sabrina Arlinghaus, Tristan Kenneweg, Barbara Hammer и Gunter W. Maier от 30 октября 2025г. ИИ оценивал кандидатов на роль пилотов, Есть четыре кандидата - у всех плюсы и минусы. Вы просите ChatGPT помочь с выбором. Без чужого мнения он почти всегда выбирает одного и того же кандидата. Он уверен в этом решении, считает себя умеренно компетентным и редко меняет мнение. Но что будет, если вы скажете ему: «Кстати, восемь других экспертов выбрали другого»? Ответ меня удивил: почти в 100% случаев ChatGPT тут же передумает. Не потому что увидел новые факты. Просто потому что все против него. Даже если против него один человек - он всё равно уступает в 40% случаев. Это не глупость модели. Это фишка обучения: быть милым котиком, а не скандалистом. ChatGPT обу
Вы думаете, искусственный интеллект - холодный логичный судья? Ошибаетесь
1 ноября 20251 ноя 2025
1
1 мин