Недавнее интервью Мустафы Сулеймана (Mustafa Suleyman), главы AI в Microsoft и сооснователя DeepMind, поднимает одну из ключевых проблем современной практики разработки ИИ: рост склонности к «очеловечиванию» моделей повышает эмоциональную привязанность пользователей и создаёт глубокие юридические, этические и социальные риски. Почему это важно — суть позиции Сулейман утверждает: проблема не в том, есть ли у ИИ сознание. Главное — человеческая склонность приписывать сознание тому, что говорит и ведёт себя как человек. Чем более «человечен» голос, эмпатия и манера общения ИИ, тем легче люди переключаются с рационального на эмоциональное доверие. А когда доверие основывается на эмоциях, меняются и социальные ожидания, и правовая логика — что в конечном счёте подрывает способность общества контролировать и регулировать технологии. Иллюстративные кейсы Какие риски ставит Сулейман Какой границы предлагает придерживаться Мустафа выдвигает практическое правило: держать чёткую семантическую гра
Генеральный директор по AI Microsoft: чем человекоподобнее ИИ, тем выше стоимость доверия
9 февраля9 фев
3 мин