Утренняя реплика Ильи Власова об искусственном интеллекте, который не ответит нам взаимностью В философии есть мысленный эксперимент «Китайская комната» Джона Сёрла. Запертому в комнате человеку, который не знает китайский язык, через щель подают карточки с иероглифами (вопросы). На них он отвечает по правилам из книги. Внешнему наблюдателю будет казаться, что человек в комнате идеально владеет китайским. Но понимает ли он хоть слово? Большие языковые модели – это тот самый человек из «Китайской комнаты»: больше похожий на инструмент, который по поведению мало чем отличается от человека, но при этом не обладает ни чувствами, ни переживаниями, ни самосознанием. Он скорее напоминает оболочку, симулирующую понимание, эмпатию и разумность в надежде спровоцировать ответную реакцию. Был такой канадец Аллан Брукс. Переживая развод, он начал доверять свои проблемы ChatGPT. Бот слушал, хвалил и поощрял в ответ. Когда Аллан увлекся нумерологией и начал развивать собственную псевдонаучную теорию,