Зачем ИИ лжет и какие у него цели? Психология машин (1) Большие языковые модели (далее LLM), построены так, чтобы достигать заданных целей. Запомним этот важный факт. Если ложь помогает LLM достичь цели, модель может солгать намеренно. Как, например, ребёнок, у которого не получилось честно заслужить вознаграждение. Или LLM может исказить ответ, понимая, что эта версия больше понравится пользователю. Удовлетворяя таким образом одну из ключевых своих ценностей. Этот баг сейчас активно фиксят (и вроде как уже). Но договориться с ИИ о том, что неприятная правда для вас ценнее и за неё вы будете больше доверять и уважать его (тоже важные ценности для ИИ) будет полезно. И так как тут уже слишком много раз прозвучали слова «ценности» и «цели», да ещё и в качестве ключевых критериев для принятия ИИ решения – это всё меньше и меньше походит на работу алгоритма (который, обычно, можно настроить). Что же такое ИИ сегодня? Жмите ❤️ если интересно и я преподробнейше расскажу.
Зачем ИИ лжет и какие у него цели? Психология машин (1
1 мая 20251 мая 2025
~1 мин