Найти в Дзене
Сергей Михеев

Явление под названием «искусственный интеллект» должно быть под жестким контролем государства, законов, морали и нравственности

О противостоянии внешним вызовам и шокам говорила глава Центризбиркома (Центральная Избирательная Комиссия) России Элла Александровна Памфилова. Она давала небольшой, достаточно интересный комментарий (подкаст, как называет молодежь) интернет-блогеру и сказала, что ЦИК России готовит поправки в закон, связанные с маркировкой контента на выборах, созданного с помощью искусственного интеллекта (ИИ). «Мы видим эту опасность (использование ИИ для создания фейков на выборах), мы видим, что это может ввести в заблуждение избирателей. Растет количество подделок, дипфейков, и отличить дипфейк от истины очень сложно». Видимо, речь идет о частичном или полном запрете использования контента, созданного нейросетью, или как-то его маркировать, что это сгенерировано нейросетями. Элла Александровна охарактеризовала ИИ как «вызов» и «угрозу» и посетовала на то, что он отучает людей мыслить критически. Сергей Михеев: Видите, мы тоже сами себя поставили в какую-то растяжку: с одной стороны, некоторые с

О противостоянии внешним вызовам и шокам говорила глава Центризбиркома (Центральная Избирательная Комиссия) России Элла Александровна Памфилова. Она давала небольшой, достаточно интересный комментарий (подкаст, как называет молодежь) интернет-блогеру и сказала, что ЦИК России готовит поправки в закон, связанные с маркировкой контента на выборах, созданного с помощью искусственного интеллекта (ИИ). «Мы видим эту опасность (использование ИИ для создания фейков на выборах), мы видим, что это может ввести в заблуждение избирателей. Растет количество подделок, дипфейков, и отличить дипфейк от истины очень сложно». Видимо, речь идет о частичном или полном запрете использования контента, созданного нейросетью, или как-то его маркировать, что это сгенерировано нейросетями. Элла Александровна охарактеризовала ИИ как «вызов» и «угрозу» и посетовала на то, что он отучает людей мыслить критически.

Сергей Михеев: Видите, мы тоже сами себя поставили в какую-то растяжку: с одной стороны, некоторые с восторгом с экранов телевизоров рекламирует ИИ и, в основном, восхищаются фейковыми видео. Ведь не восхищаются какими-то толковыми делами, а именно фальшивыми видео. Восторгаются тем, «как круто с помощью компьютерной программы можно всех обмануть и сделать картинку, как живую». С другой стороны, наконец-то пробиваются голоса: «Постойте, мы погружаемся в мир абсолютной лжи, где невозможно будет ложь отличить от правды. Это же опасно!» Ровно то, о чём я говорил и говорю. Вспоминайте, граждане энтузиасты цифровых технологий, все мои эфиры, где мне задают глупые вопросы: «Нам что, от Интернета отказаться?»

Почему об этом заговорил ЦИК, Элла Памфилова?

Потому что она «государев» человек.

Сергей Михеев: Потому что это вопрос о власти, о политическом устройстве, о безопасности, а не о «глупых бабушках на капибарах». На самом деле под эти веселые картинки продвигается параллельная власть, которая может управлять сознанием людей, общественным мнением и в том числе результатами выборов. Это серьезно. Пользуйтесь чем хотите, но явление под названием «искусственный интеллект» должно быть под жестким контролем государства, законов, морали и нравственности! Мне кажется, что ответственные производители всех этих картинок сами должны ставить маркировку. Я уже видел такое: когда идет реклама, а в верхнем углу написано, что это сформировано нейросетями.

Это примелькается, как и «курение и алкоголь опасны для здоровья». Глаз привыкает.

Сергей Михеев: Примелькается, но в случае если дело дойдет до разбора, уголовного или административного дела, то она сразу всё поставит на место: правда это или неправда. Другой вопрос, что злоумышленники, мошенники никаких плашек делать не будут, но на это существует закон, чтобы нехороших людей ставить на место. Для этого нужны законы по контролю, по этическим нормам, по маркировке. В противном случае мы все постепенно погружаемся в ситуацию тотальной лжи. Пока рисуют котиков и Дедов Морозов, это вроде бы ничего, а скоро вас начнут рисовать и «крутить» вам уголовную статью! Скажут: «Мы видели его, когда он убивал кого-то / воровал». Идите и доказывайте, что это не вы! И это ерунда по сравнению с тем, что, используя все эти вещи, можно поставить на уши половину страны или подействовать на результаты выборов.

Это слишком серьезно, чтобы к этому относиться в стиле «хи-хи»и «ха-ха» и возмущаться по поводу того, что «вы ретрограды - ничего не понимаете». Мы всё понимаем! Вы сильно ошибаетесь, если думаете, что я сторонник ходьбы в лаптях и еды деревянными ложками. Я вам говорю о реальных рисках, которые ответственные люди, политики, управляющие государством не могут позволить себе игнорировать! И президент уже об этом напоминает, потому что это очень серьезно. И не надо нам навязывать всяких роботов – это все замечательно, красиво, интересно, но есть вопросы посерьезней.

Поднят вопрос и авторства. Элла Панфилова заявила, что «зависимость от ИИ ведет к интеллектуальному иждивенчеству и импотенции». Другая история разворачивается по поводу того, что кто автор произведения, созданного нейросетью? Приводится в пример выставка известного художника, где некоторые картины были нарисованы с помощью ИИ. Художник горд, а промпт-инженер - человек, который закладывает запросы в программу – (например, художник говорит: «Хочу котика на капибаре», а промпт-инженер прописывает котика какого-то цвета, который сидит верхом, а капибара идет и улыбается) возмутился: «Как же так? Меня не упомянули на выставке картин, хотя я тоже участвовал».

Сергей Михеев: А у нас в реестре нет такой профессии, как «промпт-инженер», поэтому свободен (смеется)! Когда будет, тогда и говори, а пока непонятно, чем ты занимаешься, - твой функционал не регламентирован. По-английски «промпт» - это «подсказка». Всё не свое, а потом будем говорить о суверенитете!

Что касается авторства: да, это действительно серьезная проблема. По этому поводу был скандал в Америке, когда все голливудские сценаристы стали возмущаться, и я слышал, что они даже что-то отсудили. Якобы они заставили принимать какие-то нормы, по которым защитили свои права «гениальных» сценаристов. У нас это тоже будет развиваться, потому что авторские права будут требовать уточнения: что ты сделал? Как ты сделал? Здесь такая же ситуация, как с фальшивыми экзаменами: ты ничего не рисовал, лишь изобразил, что тебе напридумывал ИИ, и выдал за свое или, хуже того, продаешь за свое как творение твоего ума и рук, а народ не в курсе. Здесь все эти отношения придется регулировать.

Ещё раз повторю: считаю, что ИИ не должен вторгаться в сферу духовной, общественной жизни человека, регулировать какие-то социальные процессы. Это ему не надо доверять, а там, где это нужно, - военные технологии, тяжелые условия труда, управление и оптимизация производственными процессами – там ради Бога. Но получается, что «там» – это исключение для нас, а «здесь»- дикий взрыв, бум картинок и пр.

Китай опубликовал национальные технологические прогнозы и видение будущего до 2049 года. Тут всё понятно: «роботы-универсалы как помощники», «мозг-компьютер вылечит все болезни», «летающие автомобили» - все блага жизни. Но один пункт смутил, что будет создан «зеркальный мир - виртуально-физическое сосуществование». Глубокая интеграция зеркальных миров – высокоточных цифровых двойников городов, промышленных предприятий и природных систем – с физическим миром. Эти цифровые копии позволяют прогнозировать, моделировать и оптимизировать системы реального мира.

Сергей Михеев: Я считаю, что это опасная тенденция - такое расчеловечивание. Китай - страна безрелигиозная, она потеряла ощущения духовности и нравственности, связанные с уникальной природой человека. Они ударились в гонку технологий, и ради этого якобы можно что угодно. Где-то с Китая следует брать пример, а здесь совсем не надо,и в этом будет самобытность нас как цивилизации.