Про искусственный интеллект говорят на большой конференции. Собрался глобальный форум, где будет обсуждаться один из главных вопросов: «ИИ добро или зло»? Нужно ли его дальше развивать или в случае критической ситуации (когда ИИ подумает, что от человечества надо избавиться) нужен один общий человеческий тумблер, чтобы щелк - и ИИ сошёл на нет? Да, останемся без смартфонов. Действительно ли человечество подходит к такой грани, что нужно определяться, куда мы: «налево или направо», «с умными или с красивыми»?
Сергей Михеев: По поводу мудрости западной цивилизации. Эта конференция проходит в Великобритании; делегация, в основном, из стран G7. Звали Китай, но не знаю, поехал он или нет. Западная цивилизация запустила процесс романтизации ИИ, его восхваления, рассказывая о том, что «это будущее». Но не прошло и несколько лет, а уже надо собирать конференцию по безопасности: с ИИ страшно, и неизвестно, что он натворит. Вы не могли подумать об этом, когда всё запускали? Хотел бы нашим энтузиастам ИИ сказать: посмотрите, инициаторы торжества ИИ уже вынуждены проводить конференцию. Будут обсуждать, как сделать так, чтобы развитие ИИ не несло угрозу человечеству. Когда все кидаются в «бурные волны», покупаясь на модные призывы, то надо бы подумать о безопасности.
Когда экстремальные виды спорта, то говорят: «Не забудьте о безопасности. Не забудьте надеть спасжилет. Не пытайтесь повторять это самостоятельно». Почему? Потому что ваше стремление получить острое ощущение может кончиться смертью или, в лучшем случае, тяжёлой травмой. Сначала выучи технику безопасности, а потом всё остальное. Я когда-то долго занимался дельтапланеризмом: пока не поймешь азов, не выучишь технику безопасности иоказание медицинской помощи, до полетов не допускали. А здесь говорят: «Летим! Искусственный интеллект!» Прошло чуть-чуть - и надо уже заботиться о безопасности. Насчёт того, подошло ли человечество куда-то или не подошло, мне судить трудно. Есть опасения, что гонка в использовании ИИ может привести к его бесконтрольному развитию и внедрению его в те отрасли жизни, которые связаны с безопасностью людей.
Например, если ИИ будут доверять контроль за подачей электроэнергии, за водоснабжением, или, не дай Бог, за военными системами, то это может быть теоретически чревато тем, что в какой-то момент ИИ выйдет из-под контроля и начнет принимать решения, которые вместо того, чтобы приносить пользу, будут разрушать. Возможно это? Возможно. Потому что контроля за ним нет: ИИ сначала развивали, а потом начали думать о безопасности. Насколько я понимаю, пока такой критической черты нет. Мы не подошли к критической черте, потому что, в основном, ИИ забавляются в разных сферах, не связанных напрямую с жизнеобеспечением. Может быть еще не поздно подумать о безопасности. Я читал трактовку по поводу этой конференции - это попытка стран Запада застолбить за собой лидерство в развитии ИИ, но так, чтобы не споткнуться по дороге. Больше всего они боятся отстать от Китая или еще от кого-нибудь в этом деле, поэтому собираются для проформы. Я до сих пор не понимаю, о чём идёт речь...
Это мегаданные. Не мнение одного, двух, десяти, ста человек, а мнение миллионов, их взгляд и так далее. Эта оценка скомпилирована.
Сергей Михеев: Это коллективный интеллект, который пытается сочетать программы. Является ли это искусственным интеллектом, чем-то абсолютно самостоятельным? Это будет тогда, когда он выдаст что-то такое, чего человеческий интеллект не выдавал никогда.
Когда пойдет цепная реакция развития.
Сергей Михеев: Да, тогда можно будет говорить об интеллекте. Пока это просто «перетасовка карт». Если такой программе доверять управление жизненно важными процессами, то мы не понимаем, что она может выдать. Есть какой-то алгоритм, и те, кто его создавал, понимают, чему она отдаст предпочтение в том или ином случае. Но если есть ситуация, при которой ее реакция может быть непредсказуемой, это будет опасно. Опасной точкой станет момент, когда вы не сможете предсказать ее реакцию. В некоторых случаях уже сейчас создатели не могут этого сделать. А если вы не можете предсказать реакцию на 100%, тогда программа становится неуправляемой и может нести опасность. Об этом, конечно, надо думать. И не надо доверять им то, что доверять нельзя. Например, что касается здоровья, жизни и жизнеобеспечения людей. Считаю, что к этому мы пока совершенно не готовы.