Найти в Дзене
Дмитрий Гусев

Если отбросить хайп, искусственный интеллект несёт пять реальных рисков, которые нельзя игнорировать

Если отбросить хайп, искусственный интеллект несёт пять реальных рисков, которые нельзя игнорировать. 1. Риск безопасности. ИИ уже используется как инструмент влияния — от дезинформации до кибератак. Кто владеет платформами — тот влияет на общество и государство. Поэтому нам нужен полный технологический суверенитет. 2. Риск нарушения прав потребителей. Алгоритмы могут манипулировать ценами и условиями — от билетов до такси. Это зоны, которые сегодня вообще никак не урегулированы. 3. Риск некорректных решений из-за ошибок модели. ИИ генерирует результат, не понимая его смысла. «Галлюцинации» — это не сбой, а естественная особенность работы таких систем. Ошибка программы может ударить по человеку. 4. Риск потери контроля и непрозрачности. Пользователь не знает, как работает алгоритм, что заложено внутрь и кто на самом деле принимает решение — человек или система, которую никто не контролирует. 5. Риск внешнего влияния через технологии. Если базовые платформы, модели и алгоритмы — ин

Если отбросить хайп, искусственный интеллект несёт пять реальных рисков, которые нельзя игнорировать.

1. Риск безопасности.

ИИ уже используется как инструмент влияния — от дезинформации до кибератак. Кто владеет платформами — тот влияет на общество и государство. Поэтому нам нужен полный технологический суверенитет.

2. Риск нарушения прав потребителей.

Алгоритмы могут манипулировать ценами и условиями — от билетов до такси. Это зоны, которые сегодня вообще никак не урегулированы.

3. Риск некорректных решений из-за ошибок модели.

ИИ генерирует результат, не понимая его смысла. «Галлюцинации» — это не сбой, а естественная особенность работы таких систем. Ошибка программы может ударить по человеку.

4. Риск потери контроля и непрозрачности.

Пользователь не знает, как работает алгоритм, что заложено внутрь и кто на самом деле принимает решение — человек или система, которую никто не контролирует.

5. Риск внешнего влияния через технологии.

Если базовые платформы, модели и алгоритмы — иностранные, то вместе с ними к нам приходит чужое регулирование, чужие ценности и чужие интересы.

🟩 Поэтому наша задача — создать собственные, прозрачные и безопасные решения. И регулировать ИИ так, чтобы он работал в интересах людей и страны, а не наоборот.