Тренды международной Грушинской социологической конференции — 2024
Взаимопроникновение человеческого и искусственного интеллекта трансформирует повседневность, создавая гибридные формы взаимодействия, формируя новые пространства власти и неравенства. Мегатренд поднимает фундаментальные вопросы о природе личности, этике технологий и социальном порядке, требуя переосмысления границ технологий и их воздействия на человеческую автономию.
Если тебя нет в интернете, то ты не существуешь
– Билл Гейтс
КОНВЕРГЕНЦИЯ ИНТЕЛЛЕКТОВ
Расширение человеческого потенциала, трансформация отраслей, профессий и рынков как результат внедрения технологий – многосторонних цифровых платформ, мобильных устройств, роботизации
Сигналы тренда:
- Повышение мощности и эффективности ИИ-моделей
- Инструментализация нейросетей, делегирование им рутинных функций
- Интеграция ИИ в образовательные и трудовые процессы
- Развитие новых форм социального взаимодействия через взаимопроникновение цифрового и физического пространств
- Доместикация ИИ: повышение уровня автоматизации повседневности
Данные ВЦИОМ
- 8 из 10 россиян пользуются цифровыми услугами
- Повседневная жизнь 81% пользователей цифровых услуг стала комфортнее
- 67% россиян полагают, что использование ИИ следует ограничить отдельными сферами
- 69% россиян считают нужной маркировку продукции и решений, созданных с помощью ИИ
Как часто в своей повседневной жизни Вы пользуетесь цифровыми услугами, то есть услугами через интернет, платформами, сервисами?
Источник: Наша цифровая повседневность // ВЦИОМ. 2024. 14 мая. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/nasha-cifrovaja-povsednevnost
Как Вы думаете, в каких сферах деятельности труднее всего сочетать использование искусственного интеллекта и существующие нормы морали и этики?
Источник: Этика в эпоху роботизации: ищем баланс // 2023. 12 сентября. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/ehtika-v-ehpokhu-robotizacii-ishchem-balans
ВОПРОСЫ, ВЫЗОВЫ, РИСКИ
- Появление новых моральных дилемм, требующих переосмысления пределов проникновения технологического в социальное
- Выявление границ, за которыми технологии приводят не к развитию, а к деградации личности
- Потенциальная уязвимость приватного пространства в связи с использованием домашних «умных устройств»
КОММЕНТАРИИ ЭКСПЕРТОВ
В последние годы в России, как и во всем мире, приобретается все больше умных устройств для дома. Наибольший спрос приходится на умные колонки с голосовыми ассистентами, выполняющими широкий спектр функций, по опросам ВЦИОМ, они есть почти у каждого второго россиянина. В отношении к ним доминирует технооптимизм, а на периферии общественного восприятия остаются вопросы, связанные с безопасностью. Проникновение умных устройств сделало пространство приватного потенциально уязвимым. Между тем, ряд исследований показывает, что во взаимодействии с умными колонками у пользователей в приоритете практически всегда — получаемая выгода, а не отложенные и пока виртуальные риски их использования, что лежит в основе концепции «парадокса приватности»
— Сергей Ушкин, кандидат социологических наук, ведущий научный сотрудник отдела мониторинга социальных процессов Научного центра социально экономического мониторинга (Саранск), исследовательский менеджер ВЦИОМ
Внедрение ИИ в образование и исследовательскую деятельность, помимо достоинств, несет в себе и некоторые проблемы. ИИ нередко «придумывает» результаты исследований, поэтому некритичное отношение к сгенерированной ИИ информации может привести к многократному воспроизводству и умножению ошибок, а также общему снижению профессионального уровня во многих областях. Во-вторых, чтение, написание и анализ текстов тренирует концентрацию внимания, логическое, аналитическое и креативное мышление. А самостоятельный поиск нужной информации лежит в основе самообучения, что чрезвычайно важно для современного человека. Многие из этих функций ИИ способен взять на себя, чем нередко пользуются современные школьники и студенты. И здесь велик риск получить поколение, у которого такие навыки развиты дольно плохо. Очевидно, что использование ИИ в образовательной и исследовательской деятельности требует серьезной регламентации
— Анна Алмакаева, кандидат социологических наук, зав. ЛССИ им. Р. Инглхарта, НИУ ВШЭ
Помимо расширения человеческого потенциала, внедрение технологий приводит к появлению новых моральных дилемм. Например, развитие LLMs стало вызовом для системы образования, в частности, для профессионалов, в чьи функции входит контроль и проверка учебных и научных текстов. В ряде случаев сама по себе генерация текста неэтична; во-вторых, модели галлюцинируют, и для проверки генерируемого ими контента нужны квалифицированные специалисты. Подобные коллизии возникают и в других сферах. Важной задачей сегодня является выявление границ, за которыми технологии приводят не к развитию цифровой личности, а к деградации аналоговой
— Екатерина Коваль, доктор философских наук, ведущий научный сотрудник Института корпоративного обучения и непрерывного образования МГУ им. Н. П. Огарева, профессор кафедры уголовно-процессуального права и криминалистики Средне-Волжского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России)
ОГРАНИЧЕНИЯ И ВОЗМОЖНОСТИ
- Проблема контроля ИИ и его ограничения со стороны различных групп игроков на мировом рынке
- Экологические возможности государств как барьер линейного развития ИИ
Большинство российских разработок в области ИИ так или иначе базируются на платформах зарубежных производителей, тем не менее на российском рынке существует целый ряд достаточно независимых продуктов, поскольку модели в настоящее время продаются с открытым исходным кодом. Так что вопрос возможности контроля ИИ и ограничений со стороны тех или иных групп игроков на мировом рынке остается открытым.
.
Проблема, которая пока слабо осознается с точки зрения перспективы – экологическая. Крупные датацентры, обслуживающие разработку моделей ИИ и обработку поступающих запросов, требуют огромное количество воды для охлаждения (до 0,5 литра воды на каждые 5-50 запросов на обработку задачи, например, создания картинки по словесному описанию). Сегодня расход воды в крупных датацентрах зарубежных вендоров растет двузначными цифрами в год, а один датацентр потребляет воды, как город с населением 10-50 тыс. человек. При массовом вхождении ИИ в быт проблема обслуживания водой превращается в критическую. Ряд стран не сможет получить собственный «независимый» ИИ не потому, что не хватит работников нужной квалификации или будут ограничения санкционного типа, а потому что не хватит водных ресурсов. А наличие рек-гигантов в холодных российских территориях (Иртыш, Обь, Енисей, Лена) становится важным геополитическим ресурсом в относительно недалекой перспективе. Линейное проецирование развития ИИ в этой связи неадекватно, так как оно напрямую связано с острым вопросом снабжения человечества водой.
— Александр Дмитриев, системный архитектор, эксперт по индустриальным решениям в сфере IT)
РУТИНИЗАЦИЯ НЕДОСТОВЕРНОСТИ
Рост озабоченности качеством и правдивостью информации в условиях цифровизации и глобализации ―спрос на надежные источники, развитие механизмов фактчекинга, медиаобразования, меры по борьбе с новостными фейками
Сигналы тренда:
- Массовая доступность инструментов создания и распространения «высококачественного» фейкового контента
- Распространение технологии DeepFake в широкие массы
- Фрагментация медиаполя на основе применения пропагандистских инструментов, «война» нарративов
- Использование фейков для дестабилизации международных отношений, продвижения идеологических позиций
ДАННЫЕ ВЦИОМ
- 36% россиян полагают, что интернет приносит обществу больше пользы, 12% —вреда, 48% —поровну и пользы, и вреда
- 49% россиян считают интернет неконтролируемым информационным пространством
- 3/4 россиян считают, что недостоверные новости чаще публикуют умышленно
Выберите суждение об интернете, которое более всего соответствуют Вашей точке зрения:
Как Вы считаете, против России в настоящий момент ведется или не ведется информационная война в связи с военной операцией России на Украине?
Источник: Интернет без опасности // ВЦИОМ. 2024. 13 мая. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/internet-bez-opasnosti
Источник: Фейк-ньюс – и как с ним бороться? // ВЦИОМ. 2023. 22 ноября. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/feik-njus-i-kak-s-nimi-borotsja
ВОПРОСЫ, ВЫЗОВЫ, РИСКИ
- Сокращение доли качественных данных, риск исчезновения эталонных источников информации
- Постоянная актуализация компетенций, необходимых для адаптации в меняющейся медиаинформационной среде
- Социальная дестабилизация, разрушение доверия, рост уязвимости людей в результате распространения недостоверной информации и формирования черно-белой картины мира
КОММЕНТАРИИ ЭКСПЕРТОВ
Сегодняшнее общество глобальных информационных сетей принципиально отличается от прежних эпох соперничеством различных непересекающихся смыслов, а также их стратегическим моделированием. Битвы нарративов стали очень важной составляющей любой войны — как горячей, так и холодной. Путаница стратегически сконструированных значений часто ведет к потере «здравого смысла», общественной шизофрении и невиданным ранее социальным разломам. Это колоссальный вызов благополучию социума. Как управлять сложными информационными процессами, предотвращая психопатологические издержки и внутренний раскол, но не сползая при этом в информационный тоталитаризм? В этом вопросе суть серьезнейшей проблемы, стоящей сегодня перед любым государством
— Ольга Байша, PhD Университета Колорадо (США), доцент Факультета мировой экономики и мировой политики НИУ ВШЭ.
Фрагментация медиаполя и более «выпуклая» работа пропагандистских инструментов может привести к установке черно-белой картины во всех сферах жизни социума. В дальнейшем постоянные «качели» в восприятии каких-либо явлений могут снизить стабильность общества, привести к перманентной конфликтности: любой неосторожный шаг может стать фатальным
— Иван Грузинов, старший консультант Департамента социальных исследований и консалтинга ВЦИОМ
Галлюцинирование больших языковых моделей, которые генерируют тексты, активно размещаемые пользователями в сети Интернет, затрудняет фактчекинг. Такая ситуация складывается с моделями, обученными на «чистых» данных. Модели следующих поколений могут быть обучены на контенте, «загрязненном» сгенерированными текстами, включающими фактологические и логические ошибки. Если тенденция сохранитсяч, вся известная человечеству информация будет скомпрометирована. Менее алармистский сценарий связан с тенденцией сокращения доступных качественных данных, которые могут быть использованы для обучения ИИ. Чем хуже работают модели, тем больше недостоверной информации будет появляться в сети, особенно в условиях интеграции ИИ с поисковыми системами
— Екатерина Коваль, доктор философских наук, ведущий научный сотрудник Института корпоративного обучения и непрерывного образования МГУ им. Н. П. Огарева, профессор кафедры уголовно-процессуального права и криминалистики Средне-Волжского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России)
ЦИФРОВАЯ ЛИЧНОСТЬ: ПРАВИЛА ИГРЫ
Осознание и проблематизация последствий и рисков, связанных с уязвимостью информации — движение к созданию системы защиты и управления данными, охватывающей их сбор, обработку, хранение и передачу
Сигналы тренда:
- Формирование нормативно-правовой базы, направленной на защиту конфиденциальности и прав пользователей
- Разработка новых технологий обеспечения анонимности
- Рост внимания к этическим стандартам при сборе, обработке и использовании больших данных
- Неприятие пользователями куки-файлов
ДАННЫЕ ВЦИОМ
- 68% пользователей интернета опасаются за сохранность личной информации
- 44% сомневаются, что могут защитить личные устройства от онлайн-угроз
Скажите, Вы опасаетесь или не опасаетесь за сохранность Вашей личной информации, чтобы ее не украли в интернете или не взломали Ваши аккаунты в соцсетях, личные кабинеты на сайтах?
Как новые технологии, такие как умные устройства или ИИ, повлияют на сохранность Вашей личной информации и персональных данных в интернете в будущем?
Источник: Цифровая самооброна // ВЦИОМ. 2024. 12 марта. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/cifrovaja-samooborona
ВОПРОСЫ, ВЫЗОВЫ, РИСКИ
- Опережающее развитие информационных технологий по сравнению с механизмами защиты данных
- Тотальный контроль государства за перемещением и поведением граждан на основе баз данных
- Манипулирование данными со стороны мошенников из-за их утечек
КОММЕНТАРИИ ЭКСПЕРТОВ
В ситуации высокого уровня цифровизации проблема информационной уязвимости становится едва ли не основной. О преимуществах технологий знают все, отказываться от них не собираются. В то же время все понимают, что цифровая среда небезопасна, и эффективных способов защитить себя и свои данные у пользователей нет; цифровая гигиена помогает снизить риски, но не спасает. Не подписывать многостраничное пользовательское соглашение — значит отказаться от установки приложения, но если оно необходимо для работы или учебы, то у человека нет выбора, он вынужден жертвовать своей безопасностью
— Сергей Давыдов, доцент департамента социологии, старший научный сотрудник Международной лаборатории исследований социальной интеграции факультета социальных наук, НИУ ВШЭ
В цифровом мире с завидной регулярностью появляются новости о кибератаках. Противостояние им, а также утечкам данных — топ списка задач компаний и организаций. При этом далеко не все из них имеют сильный штат по информационной безопасности. А значит перед государством и обществом стоит серьезный вопрос: как повысить личную и корпоративную киберграмотность, избежать рисков? Этот вопрос требует синхронизации экспертизы исследователей, консалтеров, чиновников и крупных IT-корпораций
— Ксения Таракановская, кандидат социологических наук, исследовательский менеджер департамента социальных исследований и консалтинга ВЦИОМ
Государство должно предпринимать целенаправленные действия по защите людей, входящих в группы риска, информацию о которых злоумышленники могут использоваться своих целях (например, вербовка одиноких неуспешных молодых людей территористическими организациями)
— Александр Татарко, доктор психологических наук, профессор факультета социальных наук НИУ ВШЭ
КАПИТАЛИЗАЦИЯ ДАННЫХ
Капитализация данных становится ключевым фактором экономического и социального развития, формируя новый «информационный порядок». Доступ к данным и технологиям становится привилегией крупных игроков, оставляя малый и средний бизнес, а также индивидов без равных возможностей, усиливается цифровое неравенство. Формирование политики обработки и использования данных закладывает основы для глобального изменения властных и рыночных позиций.
Сигналы тренда:
- Рост напряженности, возникающей в процессе реализации практик, связанных со сбором данных
- Разделение на субъектов, богатых и бедных данными
- Высокая конкуренция за данные, необходимые для обучения нейросетевых моделей
ДАННЫЕ ВЦИОМ, МВФ
- В мире 4,72 млрд человек могут выходить в Сеть, а 3,1 млрд нет. В странах с высоким уровнем доходов доступность интернета достигает 87%, в слаборазвитых странах — 17%*
- ИИ может поставить под угрозу 33% рабочих мест в странах с развитой экономикой, 24% -- в странах с формирующимся рынком и 18% -- в странах с низким уровнем дохода
Повлияла ли цифровизация на уровень Вашего комфорта в повседневной жизни за последние 3—5 лет? Если да, то каким образом? (% от пользователей цифровыми услугами)
Источники:
* Майоров М. Доступ не для всех. Цифровое неравенство в современном мире // Научная Россия. 2023. 07 апреля. URL: https://scientificrussia.ru/articles/dostup-ne-dla-vseh-cifrovoe-neravenstvo-v-sovremennom-mire
** От внедрения ИИ более всего пострадают развитые экономики // Finversia. 2024. 30 июня. URL: https://www.finversia.ru/publication/ot-vnedreniya-ii-bolee-vsego-postradayut-razvitye-ekonomiki-142711
Источник: Наша цифровая повседневность // ВЦИОМ. 2024. 14 мая. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/nasha-cifrovaja-povsednevnost
ВОПРОСЫ, ВЫЗОВЫ, РИСКИ
- Усиление цифрового неравенства крупных и небольших бизнесов, усиление монополизации ряда отраслей
- Поиск возможностей устранения цифровых неравенств
- Формирование нового «информационного порядка»
КОММЕНТАРИИ ЭКСПЕРТОВ
Внедрение AI решений в крупных компаниях будет происходить значительно быстрее и эффективнее. Малому и среднему бизнесу, очевидно, это будет недоступно. В результате можно ожидать еще больший рост монополизации во многих отраслях
— Анастасия Черкашина, основатель «Cherkashina Research»
На уровне предприятий данные становятся таким же капиталом, как станки или здания. Широкий рынок покупки и продажи данных вполне зрелый, базы данных активно обмениваются, продаются, покупаются. Если говорить про сбор данных крупными транснациональными корпорациями, которые затем продаются и являются источником прибыли, то, во-первых, здесь нет монополии, а во-вторых, общие политики обработки и использования данных в определенной мере являются «уравнителем», ограничивающим это самое неравенство. А вот приобретение знаний (обучение), приобретение программного обеспечения, которое «умеет» работать с этими данными ― это вопрос огромных денег на уровне персоналии, и разрыв и неравенство здесь растет
— Александр Дмитриев, системный архитектор, эксперт по индустриальным решениям в сфере IT
В настоящее время данные еще не являются драйвером неравенства ― это произойдет позднее. Сейчас формируются новые договоренности, правила игры вокруг политики использования данных, которые станут основой для нового «информационного порядка». В результате будут акторы-выгодополучатели, и те, кто проиграет, то есть, утратит властные и/или рыночные позиции
— Сергей Давыдов, доцент департамента социологии, старший научный сотрудник Международной лаборатории исследований социальной интеграции факультета социальных наук, НИУ ВШЭ