Искусственный интеллект стремительно проникает во все сферы жизни – от рекомендаций в соцсетях до систем управления критической инфраструктурой. Медиа чаще фокусируются на позитивных аспектах: автоматизации рутинных задач, прорыве в медицине, новых творческих возможностях. Но есть и тревожные тенденции, которым пока не уделяется должного внимания. Современные системы ИИ анализируют цифровые следы людей с максимальной точностью. Алгоритмы не просто предсказывают предпочтения человека – они формируют их, а иногда даже корректируют: Проблема: не хватает прозрачности. Мы не знаем, какие данные о нас собраны, как они взвешиваются и какие цели преследуют кураторы алгоритмов. Генеративные модели (типа GPT, Stable Diffusion) достигли качества, при котором: Риск: масштабная дезинформация, подрыв доверия к институтам, юридические коллизии (например, доказательство авторства). Сложные нейросети принимают решения, которые даже их создатели не могут полностью объяснить. Это критично в сферах: Угроз