Неизвестно, писал ли ИИ речь первой леди США Мелании Трамп для ее выступления перед солдатами на авиабазе корпуса морской пехоты Нью-Ривер в Северной Каролине. Но она очень хвалила ИИ и говорила, что он изменит войну глубже, чем любая технология со времен атомной бомбы: «Мы быстро переходим от человеческого оператора к человеческому наблюдателю». Она отметила, что ИИ будет играть главную роль на поле боя, а что касается человека, то какой-то человеческий фактор и останется для военного успеха. Но, тем не менее, «чтобы выиграть ИИ-войну, мы должны обучить наше следующее поколение американских школьников всем этим технологиям». Кстати, М. Трамп возглавляет рабочую группу при Белом доме, которая занимается ИИ, вопросами возможностей и рисков в сфере образования, экономики и обороны. По обороне она видит для ИИ только плюсы.
Сергей Михеев: Может быть так, а, может быть, и нет. Будут ли алгоритмы и все эти системы играть всё большую роль? Да, будут. Но имеются два нюанса: во-первых, есть естественный предел; во-вторых, существует явная романтизация всех этих проектов. Многие разработчики ИИ и математики говорят, что есть определенный предел, за которым эффективность финансовых вложений будет неадекватна повышению мощностей. Я не готов это оценить, поскольку сам этим не занимаюсь и не изучаю, но появилось довольно много публикаций, которые говорят, что ИИ всё чаще ошибается. Мы, рядовые обыватели, сталкиваемся с ИИ каким образом? Картинки. «Вот старушка выгуливает бегемота – не отличишь от реальности!»; или: «Вот, ИИ оживил фотографию, Ура!» Ну и что? Какой от этого толк? Всё это лишь рекламные трюки! А в тех сферах, где идет речь об управлении, проектировании, всё больше публикаций о том, что эти системы очень часто ошибаются! Разработчики называют это «галлюцинациями искусственного интеллекта». Например, в таких критически важных сферах, как война, подобные ошибки могут стать причиной поражения, стоить жизни людей или привести к тому, что полетело не куда надо, а в другую сторону, и оттуда вам обратно прилетело, но вы не успели принять решение!
Есть и еще романтизация. Я уже не говорю про «очеловечивание» ИИ – то есть попытку выдать неживое за живое – считаю это сатанизмом. Но смысл даже не в этом, а в том, что налицо передоверие, повышенное доверие технологиям, которые якобы в любом случае не ошибутся и примут правильное решение. Но неизвестно, правильное ли решение они примут? Что касается военных технологий: конечно, там это будет продвигаться, но я думаю, что и в этой сфере им есть определенный предел. Плюс вопрос ошибки.
Касательно разговоров о том, что «того и гляди всё заработает под руководством ИИ»: еще в 2023 году, когда сталкивался с военными, слышал, что с той стороны американцы явно тестируют управление полем боя, подключая алгоритмы ИИ, но сейчас, в 2025 году, есть свидетельства того, что это не настолько эффективно, как казалось поначалу. На первых порах думали, что это «панацея от всего», но в реальности выясняется, что это вовсе не всегда работает на 100% и не всегда настолько замечательно. Что-то, несомненно, будет продвигаться, но можно ли надеяться на то, что война будет осуществляться исключительно роботами и решения будут приниматься программами, - это фантастическая, немного сказочная идея.
Еще такая тема: решение об ударе в третьей мировой войне. Если это решение доверить машине, то она может ошибиться, а вы даже не успеете отреагировать! Это достаточно серьезная вещь. Если бы еще не было атомного оружия и всё ограничивалось местными конфликтами, небольшими войнами – это одно. Но при наличии ядерного оружия, тем более гиперзвукового, доверять принятие решений программе категорически нельзя! Вы можете даже не успеть понять, в чём и как она ошиблась, а это приведет к катастрофе.
Машина объяснит, где и как ошиблась, или может сказать: «Я не ошибалась, а была права».
Сергей Михеев: Если будет кому объяснять! Машина-то считает, что она права, но вопрос в том, что для нее отключение от электричества ничего не значит, а для нас это будет означать смерть.
По поводу «очеловечивания» ИИ: процесс идет, и к этому явно приложили руку глобалисты. ИИ может стать «человеком года» по версии американского журнала Time: принимают ставки, и ИИ сейчас на первом месте. А «Кембриджский словарь» назвал словом 2025 года «парасоциальный», что означает односторонние эмоциональные связи, когда человек ощущает родственную близость, например, с чат-ботами и ИИ. У нас проходила конференция по передовым роботам, на которой один из топ-бизнесменов сказал, что «ИИ надо воспитывать, как ребенка, вкладывать в него больше внимания, учить должным образом, в чём-то ограничивать, должна быть та самая кнопка». Это как автовладельцы разговаривают со своей машиной: «ласточка моя!» Но последствия «очеловечивания» ИИ, наверное, будут иные.
Сергей Михеев: Раньше была шутка: «Если вы начинаете разговаривать с машиной, то это нестрашно. А страшно, если она вам начинает отвечать». Здесь эта ситуация стала реальностью: технология вам начала отвечать, хотя это не значит, что она стала живой. Допустим, вы сели в автомобиль, снабженный голосовым помощником, который с вами разговаривает. Означает ли это, что автомобиль ожил? Нет.
Иллюзия того, что человека якобы можно заменить не человеком, очень опасная и совершенно античеловеческая. Она угрожает и конкретным людям в частности, и человечеству в целом, потому что это подделка, имитация и фальшивка. Это как купили детям куклу, и они играют с ней, как с живой, но она неживая. Вы можете ее любить, кормить с ложечки и т.д., но она всё равно неживая, и когда вы повзрослеете, то это поймете и в лучшем случае оставите эту куклу как память о детстве, а в худшем случае выкинете на помойку. С ИИ важно не дать себя обмануть и самим повзрослеть. Восторги у взрослых людей по поводу ИИ у меня вызывают ощущение очень глубокой личностной незрелости, поскольку они пляшут и подпрыгивают от радости, как это делает маленький ребенок, когда ему купили игрушку, которую он потом, возможно, забудет. Здесь нужно ответственное отношение.
Касательно «воспитания ИИ»: да, надо, чтобы была кнопка и всё остальное. Но мне кажется, что лучше воспитывать своих собственных детей, - это гораздо важнее, чем «воспитывать» какую-то компьютерную программу.