Найти тему
Сергей Михеев

Опасной точкой станет момент, когда вы не сможете предсказать реакцию ИИ

Про искусственный интеллект говорят на большой конференции. Собрался глобальный форум, где будет обсуждаться один из главных вопросов: «ИИ добро или зло»? Нужно ли его дальше развивать или в случае критической ситуации (когда ИИ подумает, что от человечества надо избавиться) нужен один общий человеческий тумблер, чтобы щелк - и ИИ сошёл на нет? Да, останемся без смартфонов. Действительно ли человечество подходит к такой грани, что нужно определяться, куда мы: «налево или направо», «с умными или с красивыми»?

Сергей Михеев: По поводу мудрости западной цивилизации. Эта конференция проходит в Великобритании; делегация, в основном, из стран G7. Звали Китай, но не знаю, поехал он или нет. Западная цивилизация запустила процесс романтизации ИИ, его восхваления, рассказывая о том, что «это будущее». Но не прошло и несколько лет, а уже надо собирать конференцию по безопасности: с ИИ страшно, и неизвестно, что он натворит. Вы не могли подумать об этом, когда всё запускали? Хотел бы нашим энтузиастам ИИ сказать: посмотрите, инициаторы торжества ИИ уже вынуждены проводить конференцию. Будут обсуждать, как сделать так, чтобы развитие ИИ не несло угрозу человечеству. Когда все кидаются в «бурные волны», покупаясь на модные призывы, то надо бы подумать о безопасности.

Когда экстремальные виды спорта, то говорят: «Не забудьте о безопасности. Не забудьте надеть спасжилет. Не пытайтесь повторять это самостоятельно». Почему? Потому что ваше стремление получить острое ощущение может кончиться смертью или, в лучшем случае, тяжёлой травмой. Сначала выучи технику безопасности, а потом всё остальное. Я когда-то долго занимался дельтапланеризмом: пока не поймешь азов, не выучишь технику безопасности иоказание медицинской помощи, до полетов не допускали. А здесь говорят: «Летим! Искусственный интеллект!» Прошло чуть-чуть - и надо уже заботиться о безопасности. Насчёт того, подошло ли человечество куда-то или не подошло, мне судить трудно. Есть опасения, что гонка в использовании ИИ может привести к его бесконтрольному развитию и внедрению его в те отрасли жизни, которые связаны с безопасностью людей.

Например, если ИИ будут доверять контроль за подачей электроэнергии, за водоснабжением, или, не дай Бог, за военными системами, то это может быть теоретически чревато тем, что в какой-то момент ИИ выйдет из-под контроля и начнет принимать решения, которые вместо того, чтобы приносить пользу, будут разрушать. Возможно это? Возможно. Потому что контроля за ним нет: ИИ сначала развивали, а потом начали думать о безопасности. Насколько я понимаю, пока такой критической черты нет. Мы не подошли к критической черте, потому что, в основном, ИИ забавляются в разных сферах, не связанных напрямую с жизнеобеспечением. Может быть еще не поздно подумать о безопасности. Я читал трактовку по поводу этой конференции - это попытка стран Запада застолбить за собой лидерство в развитии ИИ, но так, чтобы не споткнуться по дороге. Больше всего они боятся отстать от Китая или еще от кого-нибудь в этом деле, поэтому собираются для проформы. Я до сих пор не понимаю, о чём идёт речь...

Это мегаданные. Не мнение одного, двух, десяти, ста человек, а мнение миллионов, их взгляд и так далее. Эта оценка скомпилирована.

Сергей Михеев: Это коллективный интеллект, который пытается сочетать программы. Является ли это искусственным интеллектом, чем-то абсолютно самостоятельным? Это будет тогда, когда он выдаст что-то такое, чего человеческий интеллект не выдавал никогда.

Когда пойдет цепная реакция развития.

Сергей Михеев: Да, тогда можно будет говорить об интеллекте. Пока это просто «перетасовка карт». Если такой программе доверять управление жизненно важными процессами, то мы не понимаем, что она может выдать. Есть какой-то алгоритм, и те, кто его создавал, понимают, чему она отдаст предпочтение в том или ином случае. Но если есть ситуация, при которой ее реакция может быть непредсказуемой, это будет опасно. Опасной точкой станет момент, когда вы не сможете предсказать ее реакцию. В некоторых случаях уже сейчас создатели не могут этого сделать. А если вы не можете предсказать реакцию на 100%, тогда программа становится неуправляемой и может нести опасность. Об этом, конечно, надо думать. И не надо доверять им то, что доверять нельзя. Например, что касается здоровья, жизни и жизнеобеспечения людей. Считаю, что к этому мы пока совершенно не готовы.