Найти в Дзене
Океан реальности

Отупляет ли вас ИИ? Игорь Ашманов предостерегает: «Сейчас наблюдается такой же пузырь». Новые правила использования нейросетей

Игорь Ашманов — специалист в области информационных технологий, бизнесмен, исследователь. Осознаём ли мы последствия взаимодействия с искусственным интеллектом? Осознать — это значит сначала узнать, чем закончится то, с чем мы взаимодействуем в жизни. Попытаемся разобраться, куда нас приведёт бум, который создал ИИ. Игорь Ашманов — специалист в области информационных технологий, бизнесмен, исследователь — сегодня выходит в эфир на разных площадках с небезосновательным разбором всех плюсов и минусов повального увлечения технологиями. Помнить ли нам о здравом смысле или бездумно поддаться моде на технологии? Что такое искусственный интеллект? Для чего он создан и какие опасности нас поджидают в будущем? Пришло время более внимательно разбираться в этом вопросе. Добавлю своё мнение: каждый должен понимать свою ответственность в том, что он потребляет. Получать знания или окунуться в программы, которые могут повредить. Выбор за вами. ИИ сегодня объявляется высшей ценностью ИИ объявляется
Оглавление
Игорь Ашманов — специалист в области информационных технологий, бизнесмен, исследователь.
Игорь Ашманов — специалист в области информационных технологий, бизнесмен, исследователь.

Осознаём ли мы последствия взаимодействия с искусственным интеллектом? Осознать — это значит сначала узнать, чем закончится то, с чем мы взаимодействуем в жизни.

Попытаемся разобраться, куда нас приведёт бум, который создал ИИ.

Игорь Ашманов — специалист в области информационных технологий, бизнесмен, исследователь — сегодня выходит в эфир на разных площадках с небезосновательным разбором всех плюсов и минусов повального увлечения технологиями.
  • Помнить ли нам о здравом смысле или бездумно поддаться моде на технологии?
  • Что такое искусственный интеллект?
  • Для чего он создан и какие опасности нас поджидают в будущем?

Пришло время более внимательно разбираться в этом вопросе.

Добавлю своё мнение: каждый должен понимать свою ответственность в том, что он потребляет. Получать знания или окунуться в программы, которые могут повредить. Выбор за вами.

ИИ сегодня объявляется высшей ценностью

ИИ объявляется средством, которое решит все наши проблемы.

Игорь Ашманов замечает:

Такие выводы мы слышим, разговаривая с людьми, которые занимаются стратегией образования до 2036-го года, которую продвигает вице-премьер Григоренко.

Идут такие разговоры, что надо всё цифровизовать, потому что не хватает учителей. Для того чтобы учителям повысить зарплаты, необходимо 300 миллиардов рублей в год. Столько денег нет.

Поэтому предлагается применять ИИ.

Зная, как всё происходит в области информационных технологий, будет затрачено 3 триллиона вместо 300 миллиардов. Эти деньги пойдут на железки, на программы и так далее.

И эти деньги будут потрачены не на учителей, а на то, что надо: на уважаемых людей, которые будут всё это поставлять в школы.

Летом была опубликована стратегия-концепция использования искусственного интеллекта в государственных органах

Она связана с концепцией цифровизации образования.

  • В ней было прямо сказано, что ИИ будет применяться для общения с гражданами.
  • Для написания стратегий.
  • Для найма чиновников и так далее.
То есть, условно говоря, их наймут по объявлению и проверят искусственным интеллектом. Но работать этим чиновникам не придётся, потому что всё за них будет делать ИИ.
И проверять свою работу будет он также сам.

Что такое вообще ИИ для понимания: о чём мы говорим

  1. Сейчас любые совещания, в которых я участвовал, заканчиваются темой ИИ.
  2. Эта тема тесно связана с государственным управлением, с ценностями и вопросом: «Куда идти России?».
С точки зрения разработчиков, искусственный интеллект — это просто программа, которая имитирует когнитивную деятельность человека. Причём она имитирует её совершенно не так, как думает человек.

Где-то ИИ может быть сильнее человека.

Примерно также, как машина ездит быстрее или как экскаватор копает сильнее.

Но заменять человека, особенно мышление, конечно, не может. Хотя он представляет собой «костыли» для мышления.

В этих всех концепциях основная опасность, которая нас всех поджидает, это даже не низкое качество

Надо понимать, что ИИ, который у нас продвигают, а там, кроме взрыва систем распознавания в 2011–2012 году, когда программу научили распознавать лица, объекты, голос, синтезировать голос и так далее, последний взрыв 2023-го года в этом месте был именно генеративный ИИ, который научился генерировать гладкие тексты и гладкие картинки, используется и другое назначение ИИ.

В последние 30 лет также делались генераторы для всяких нехороших целей: спама, обмана поисковиков и так далее. Просто это несколько другие технологии.

Сейчас эти генераторы генерируют очень гладкий текст. И надо понимать, как это работает. Загружают большие объёмы текстов, как сейчас говорят, весь интернет.

Но интернет он очень специфический.

  • Он, во-первых, очень грязный.
  • Во-вторых, некоторые вещи там считаются более ценными, например, Википедия.

Она, естественно, загружается в первую очередь. И это также сомнительный для нас ресурс.

Что делает генеративный ИИ?

Он умеет просто продлевать ваш запрос, называемый теперь «пром», то есть подсказка по-английски. Он берёт самые вероятные последовательности слов и их подставляет.

И это значит, что он всё усредняет.

То есть ИИ — это просто машина расчёта совместной встречаемости слов в интернете и прочих документах, доступных в электронной форме, и подстановка самого частотного, самого среднего.

Это машина усреднения, которая делает такой ментальный шлак, ментальный доширак. Это всё самое среднее.

Например, если вы попросите написать стратегию для компании или для слогана, он сгенерирует вам так называемый шлак, собранный и вываренный из всяких дурацких советов всяких коучей по стратегическому управлению, по успешному успеху и так далее.

Никакой нормальной стратегии ИИ не составляет

ИИ всё усредняет.

Тем не менее, огромное количество людей, которые не могли раньше написать связный текст, не могли его структурировать, разметить, сделать заголовки, поставить буллиты, написать выводы и так далее, они теперь с радостью обнаруживают, что можно теперь просто нажать кнопку и всё это будет сделано за них.

У таких людей, естественно, эйфория прямо, как от наркотиков. Потому что мозг человека очень любит экономить энергию. А здесь экономится энергия.

  1. Соответственно таких людей будет становиться всё больше.
  2. Более того, они стараются на уровне документов стратегического планирования всё это всем навязать.
  3. Создаются требования, чтобы это применялось в школе и на государственном уровне.

Возникают возмутительные случаи:

Например, в Краснодаре адвокаты, которые защищали каких-то мошенников, связанных с контрафактным алкоголем, обнаружили, что решение судья сгенерировал с помощью чата ChatGPT.

Текст абсолютно бредовый, цветистый, с художественными, цветистыми вставками: «Выдающиеся адвокаты вдохновенно нам объяснили про решительное должностное лицо...» Что-то в таком формате.

Адвокаты подали жалобу, потому что судья должен судить других как человек, а не генерировать. Им оставили приговор в силе, потому что апелляционные инстанции и следственный комитет Краснодарского края ответили: «Художественные особенности приговора не имеют значения. И кроме того, у нас нет никакого закона, запрещающего использовать ИИ в судебных решениях».

Соответственно, сейчас происходит быстрое внедрение таких ошибок в социальную сферу. И даже в судопроизводство. А также депутаты и сенаторы пытаются генерировать поправки и целые законопроекты с помощью этой штуки.

При этом надо понимать, что наш народ любит фирму, не хочет ничего совкового

Поэтому граждане используют в основном не GigaChat (русская модель от Сбербанка), ни Алису, которые пониже качеством, а обязательно лучшую мировую систему ChatGPT.

Это значит, что всё, что такой сенатор, депутат, судья, правоохранитель спрашивают у этой системы, оно сразу же улетает в США. Потому что эти все системы работают в облаке, это сервис на серверах, которые стоят в США или где-то в Европе.

Здесь гигантская опасность утечки персональных данных и деталей того, чем мы тут занимаемся.

Есть опасность компрометации, потому что надо понимать, что у всех этих западных компаний действует так называемый «акт о свободе». Он принят в 15-м году. Он сменил ровно такой же закон, «патриотический акт», который был принят в 2001-м году, после разрушения башен-близнецов.

По этому закону все цифровые гиганты США обязаны сдавать все свои данные обо всех своих пользователях, обо всех транзакциях потоком, без специальных запросов от прокуратуры или ФБР, а в реальном времени в фонд разведки.

Потому то, что наш депутат или сенатор спрашивает у этой штуки, оказывается в разведке США раньше, чем об этом узнает помощник этого депутата.

На той стороне люди, понимая что спрашивают, могут подсовывать специальные ответы, ведя этого незадачливого народного избранника

И всё это отсылать туда, куда им необходимо.

Это, конечно же, является грубым нарушением наших избирательных прав. Потому что мы избирали человека, а не американскую систему.
Ровно такие же процессы происходят в государственных корпорациях, в частных компаниях.

Например, в одном мобильном операторе все выдающиеся, продвинутые топ-менеджеры уровня вице-президентов велели своим секретаршам обрабатывать и классифицировать всю их входящую корреспонденцию через телеграм-каналы, через электронную почту с помощью ChatGPT.

Опять же, даже не наших отечественных генераторов, а с помощью лучшей американской системы.

Вся конфиденциальная переписка этого мобильного оператора улетает в США, ровно к тем же разведчикам. Заметим, что мобильный оператор — это критическая инфраструктура, от которой мы очень сильно зависим.

Таких эффектов очень много

При этом наши цифровизаторы бешено накручивают истерику: «Мы находимся внутри искусственного пузыря ИИ».
Надо понимать, что этот хай-тек пузырь, он далеко не первый в области ИИ. Он вообще далеко не первый.

Многие из вас могли ещё застать пузырь комов так называемых: «точка, точка, сом». То есть пузырь проектов 99-го — 2000-го года. Тогда всем говорили, что везде будет скоро один сплошной интернет.

Там всё лопнуло, деньги всем простили. Потом из этого грома и треска этого пузыря поднялись несколько супертерминаторов типа Гугла и Амазона. Это и есть механизм, которым США строит такие индустрии.

Производство супер корпораций это главный продукт США

И это даже не доллар.

Поэтому у них там практически нет налогов и так далее.

Хайтек-пузыри устроены так, что устраивают дикую истерику. Евангелисты, банкиры, журналисты, инвесторы, аналитики и так далее начинают бешено писать, что это и есть новая экономика, новый мир. Всё изменится. Все собирают со всех деньги на вершине этого пузыря.

Потом его аккуратно прокалывают, всё падает в пропасть. Происходит разочарование.

Есть такая «кривая Гартнера», которая показывает, как это происходит. Но сама эта технология никуда не уходит, она проползает в так называемое плато продуктивности, в гораздо более узкие применения, например, для более эффективного применения денег.

Чтобы понять как оно будет дальше, достаточно вспомнить, что лет пять шесть назад нам рассказывали, что везде будет один сплошной блокчейн

Блокчейн продвигали из каждого утюга, его вписали во все государственные программы. Греф говорил, что к 30-му году блокчейн-технологии будут производить 10% ВВП Земли.

Я сам видел, как два чиновника среднего уровня на большом совещании перешёптывались спустя пару-тройку лет о том, как им так вычеркнуть блокчейн из всех их программ в ведомствах так, чтобы главный человек во главе стола об этом не узнал.

Потому что тогда не вписать блокчейн везде было физически невозможно. За это просто увольняли. Если ты был против блокчейна, ты был просто профессионально непригоден.

И где сейчас этот блокчейн?

  • Он применяется сейчас в узких технологиях, но точно не зарабатывает 10% ВВП.
  • Он вообще не зарабатывает.

Он применяется только в биткоине и прочих цифровых валютах, которые по сути являются разграниченным чёрным налом, где 90% — это наркотики, занятия с низкой социальной активностью и так далее.

Сейчас наблюдается такой же пузырь

Мы находимся внутри него, и поэтому очень трудно изнутри него видеть реальность. Всё переливается, в ушах шум. Всё такое радужное и так далее.

Моё представление о том, что этот пузырь лопнет через полтора примерно года, потому что вот «кривая Гартнера» начала загибаться, так как стали появляться разные статьи о том, что ИИ денег не приносит. Затраты гигантские.

Пром в ChatGPT гораздо дороже с точки зрения энергии, чем запрос, например, в Гугл. Это уже давно подсчитано. Там нужны гигантские вложения.

Трамп и Эрик Смит говорит, что надо распаковывать пять атомных электростанций, которые были законсервированы в США, что надо забрать Гренландию и Канаду, потому что там холодно и там можно строить мощности для обработки ИИ.

В реальности начали этот пузырь сбоку иголочкой прокалывать

Мы обычно запаздываем. Когда там у них лопнул пузырь блокчейна, у нас ещё была задержка примерно на полгода-год. Некоторые граждане продолжали камлать, бить в бубны и так далее, хотя давно на Западе начали списывать убытки.

Вы такую же историю можете вспомнить с Фейсбуком. Он объявил, что будет делать метавселенные, где все ходят своими виртуальными аватарами и так далее. И даже переименовали Фейсбук в компанию Мета.

Потом он списал 35 миллиардов долларов и закрыл проект, потому что он никому не нужен, никакие метавселенные никогда не взлетали и не будут взлетать. Это людям не надо.

Наши специалисты разговаривали про метавселенные ещё больше года. Уже после того, как Фейсбук списал и уволил десятки тысяч людей, которые этим занимались, через год после этого на Питерском экономическом форуме люди из наших цифровых систем рассказывали, какие у них будут замечательные метавселенные. Потом их, конечно, всех тоже уволили.

Что с этим делать?

Отличие этих метавселенных и блокчейна у ИИ в том, что он всё-таки начал внедряться в массы.

Массы начали изо всех сил его применять. Потому что он очень сильно экономит силы, на первый взгляд.

Это маркетологи, учителя, студенты, которые пишут курсовые работы или дипломы. Они очень сильно экономят себе мыслительные усилия: нажал кнопку — получил результат.

Мы как-то разговаривали с профессором физтеха. Он говорит: «Мы сейчас не знаем, кого мы выпускаем. Невозможно проверить знания. Все знания синтезированы в этих работах».

Я разговаривал с Никитой Анисимовым, главой Высшей школы экономики. Он говорит: «А мы решили разрешить, потому что не можем остановить этот процесс, лучше возглавить. Мы разрешили студентам использовать генерирующий ИИ в дипломах и прочих работах, но поставили условием, что нужно обязательно маркировать те куски, которые сгенерированы. А кто обманывает, того мы отчисляем».

Проблема в том, что не существует автоматической детекции (выявления) таких кусков

Если недобросовестный студент не поставил метку, то детекторы где-то года три назад давали:

  • 90% уверенности детекции синтезированных текстов.
  • Год назад это было 60%.
  • Потом уже меньше 50%.

Потому что генерация становится всё более гладкой и неотличимой автоматически.

На глаз, наоборот, мы с вами, приобретая насмотренность, начинаем узнавать, когда тебя поздравляют с Днём рождения таким способом. И многие говорят: «Да, это сгенерировал ИИ. Это непристойно. Это портит репутацию тому, кто так сделал, и так далее».

Игорь Ашманов рассказал историю, которая случилась у него в компании:

«У меня некий сотрудник нанят недавно. Как выяснилось потом уже: он начал генерировать стратегию компании на 26-й, 27-й год.
Произошел гигантский скандал среди топ-менеджеров нашей компании, потому что там было написано что-то совершенно непонятное, не соответствующее тому, что у нас реально происходит».

А потом он начал генерировать коммерческие предложения для очень крупных, важных клиентов. Естественно, эти предложения не учитывали то, что делается у этих клиентов, и нашу историю отношений с ними.

Этого уже ничего нет. Более того, эти лингвистические системы обучены, например, год назад. У них нет ни прагматики реальной жизни, ни актуальности.

И с этими коммерческими предложениями он собирался вместе с генеральным идти продавать наши услуги. А поскольку они были частично для оборонки, то их бы вообще, может быть, вывели бы в наручниках.

Мне пришлось вычислить этого «нулевого пациента», потому что это прямо заражение. Ещё троих человек, включая генерального, я их всех уволил просто.

В чём проблема? Эта штука наносит когнитивную травму?

То есть вы попользовались, а потом можно отложить?
Нет. Это как с любой зависимостью. Там возникает травма и невозможность потом не пользоваться этой системой.

Сейчас есть довольно много уже исследований, которые говорят, как поступают со студентами. Их разделяют на три части:

  1. Одним разрешают писать с помощью ChatGPT.
  2. Вторым разрешают для написания, например, курсовой работы использовать Гугл.
  3. Остальным велят писать от себя чуть ли не от руки.

Исследование длится 4–5 месяцев.

На первых этапах оценки у тех, кто использует ChatGPT, гораздо выше, потому что они производят гладкие тексты, выглядящие разумно. К концу этого испытания оценки самые высокие у тех, кто пишет сам. У тех студентов, которые ищут с помощью Гугла, также ниже.

Но хуже совсем другое — у них возникает когнитивная травма

Они не могут вспомнить ни то, что им ChatGPT написала, ни даже свои запросы к ней. То есть, если их оторвать от ноутбука, где всё записано, они не могут воспроизвести ничего.

Они разучились сами рассуждать и сами писать какие-либо работы. Причём, как любая травма, например перелом ноги — ломаешь за секунду, а лечишь потом полгода.

Здесь та же самая история. Травма сразу не восстанавливается.

С какой скоростью будет происходить восстановление, пока говорить рано. Исследователи не могут сказать. Но она восстанавливается не быстро.

То есть вот этот человек, которого мы уволили, ему говорили: «Не надо так делать, пиши сам. Он уже не мог».

У него происходят постоянные прерывания в мозгу: «Дай-ка я схвачусь за эту штуку. Она же сэкономит время и сделает не хуже». В его случае это, может, и было правда, что он сам ничего не мог делать.

В любом случае необходимо понимать, что ИИ всё понижает, ухудшает

Это общее снижение качества.
Это усреднение, тупость, гладкость.

Если вы почитаете то, что сгенерировано с помощью ИИ, вы заметите, что глаз не погружается. Невозможно погрузиться в текст. Глаз соскальзывает. Там нет смысла внутри. А мы привыкли впитывать смысл всё-таки.

Что с этим делать?

Вы, может быть, видели конференцию, которую проводит Герман Греф, которая прошла буквально на этой неделе. Там был Владимир Владимирович, который там также высказывался. Полную стенограмму разговора можно прочесть на сайте Kremlin.ru.

Вы там увидите удивительный феномен.

Президент сначала говорит о том, как всё круто, как ИИ должен везде заколоситься, быть всюду. Это те наративы, как мне кажется, ему подсовывают из Сбербанка, Греф и так далее.

Потом он начинает говорить от себя

И говорит совершенно перпендикулярные вещи. В частности, он спрашивает: «А зачем вы это хотите в образование?
Там же дети разучатся думать.
Этого ни в коем случае нельзя делать».

И в этом есть здравый смысл. Почитайте сами подробнее это высказывание.

Уже пошли сведения о том, что реально ИИ разрушает очень быстро когнитивные способности.

Вот эти наши цифровизаторы, про которых, в частности, говорила Анна Шваббауэр, они гонят вперёд, они пытаются везде внедрить ИИ, ради этого принимают законы экспериментальных и правовых режимов. Они высказываются об экспериментах в образовании.

Вдумайтесь: они предлагают ставить эксперименты на детях. Они пытаются сделать так: «Мы сейчас быстро везде внедрим ИИ, пока никто не опомнился и поздно метаться». Они хотят всем сказать: «Вы живёте в прозрачном доме, про вас всё известно: есть социальный рейтинг и так далее».

Депутатам Госдумы дали задачу продвигать эту тему

Некоторые депутаты говорят: «А что здесь плохого? Вот будет рейтинг. Он будет награждать хороших и наказывать плохих».

Анна Швабауэр говорила о цифровом профиле ученика, который направлен на это же. Вот мы ученика оцениваем по оценкам, по психологическим характеристикам.

Здесь стоит задать очень простой вопрос: «Как вы думаете, какой социальный рейтинг будет у админа, у его начальника, айти директора и у чиновника, которому подчиняется этот айти директор, а также у их племянников, жён и так далее?»

Очевидно, что социальность человеческая, коррумпированность всего этого ментально коррумпируют и этот рейтинг.

Потому что есть ещё одна особенность ИИ и таких вещей, как цифровизация: они используются для снятия ответственности. То есть если вам уже блокировали счета за попытку снять деньги в банке, то граждане уже сталкивались при звонке туда с таким ответом: «А это искусственный интеллект. Мне не велено отменять его решения».

Происходят разные вещи:

Кого-то ИИ взял и заблокировал. Кому-то не дал кредит.
А кто этот кто-то?
— Это искусственный интеллект. А он же не может нести ответственность.

Вот судья в Краснодаре, который генерировал судебное решение, он взял ещё и лично подписал его. Хотя это было бредовое судебное решение.

Через некоторое время ИИ начнут передавать простые дела. Общение с гражданами.

Перед чиновниками будет выстроена стена из чат-ботов против нехорошего, склочного и раздражающего населения, которому всё время что-то надо. И вы не сможете попасть к чиновнику, так же как сейчас невозможно попасть к живому оператору банка. И людям приходится передавать друг другу лайфхаки, как пробиться.

В одном месте надо 5 раз попросить оператора, в другом обматерить его максимально грязно, потому что это способ отогнать людей от общения с государством.

Снятие ответственности — самое отвратительное в нашей жизни

То есть некоторые не хотят работать. Они хотят иметь власть, потому что это новый цифровой класс. Они хотят не нести ответственность, чтобы им за это ничего не было.

Потому что всякий раз можно будет сказать: «Ну это ИИ решил. Там у нас хорошие алгоритмы».

Вы слышали, наверное, что Герман Греф сказал: «Мы увольняем 20% неэффективных сотрудников Сбербанка, проанализировав их с помощью ИИ».

Вдумайтесь в это. Это то, что хочется навязать на всю страну. При этом понятно, что такое будущее никак не связано с нашим трудовым кодексом. Нельзя увольнять человека, потому что какая-то программа решила, что он плохой. Это дело трудовой инспекции.

Другое дело, что трудовая инспекция испугается связываться с Грефом.

Кто написал правила оценки людей в этом социальном рейтинге у Грефа в банке?

Это сделали какие-то программисты. А кто такие программисты?
Это люди, которые закончили технические вузы, где давно не преподают ничего гуманитарного. Это техно-варвары, с довольно низким уровнем интеллекта и абсолютным отсутствием морали.

Не потому что они нехорошие, аморальные, а потому что они вне морали. Их это не интересует. Их интересуют алгоритмы. Они уверены, что алгоритмами и правилами можно всё порешать.

И они пишут правила для оценки людей: в школе, в банке, в социальном рейтинге, в суде. Они не несут ответственности за свои правила. При этом они уверены, что эти правила хорошо работают. И это самое страшное на сегодняшний день: абсолютно безответственные системы.

Этические правила написаны техно-варварами, которые об этике ничего не знают. Они просто выдумывают правила из головы.

Игорь Ашманов рассказал, что входит в группу представителей федерации

Специалисты группы пытаются написать законопроект о безопасном использовании искусственного интеллекта, в основном в социальной сфере.
То есть они хотят создать санитарные правила о том, что нельзя делать с этой штукой под названием ИИ.
  • Во-первых, что такое доверенный ИИ, который должен применяться в критической инфраструктуре. То есть наш отечественный, проверенный.
  • И чего нельзя делать в социальной сфере с ИИ.

То есть нельзя применять автономных, юридически значимых решений о людях.

Нельзя подменять контент, не промаркировав его. То есть любая генерация любого контента должна быть маркирована. Естественно, запрещаются дипфейки.

А цифровизаторы, которые возглавляются Грефом и Минцифрой, конечно, будут этому противостоять.

У них есть своя концепция регулирования, которая сводится к одному словосочетанию

Это звучит так: «Не регулировать».
Потому что это якобы затормозит движение технологий: это луддизм, заскорузлые старики, которые хотят помешать успешному развитию технологий.

Но время для этих «санитарных правил», конечно, уже созрело, и искусственный интеллект, в частности, в образование пускать нельзя. И надо понимать, что это тесно связано с нашими традиционными ценностями, потому что эта штука ничего о них не знает.

В заключение хочется рассказать анекдот из жизни.

Этой весной в Государственной думе некий человек, подготавливающий проект законопроекта про борьбу с деструктивным контентом, по сути, про традиционные ценности. В таком негативном формате, потому что определить традиционные ценности не так просто. А вот атаки на них выявить довольно легко.

Так вот, этот человек сказал: «Ну, я, конечно, тут попросил ChatGPT мне кое-что там подобрать. (Внимание: подобрать для законопроекта!) И в целом она мне подобрала что-то. И были такие эпизоды, она мне стала говорить: «А почему вы считаете, что ЛГБТ (запрещённая в нашей стране) — это деструктивный контент?»

Эта подложка, о которой говорила Анна Швабауэр, во всех программах от ЮНЕСКО.

И там внизу есть абсолютно токсичный слой

Это похоже на сероводород, имеющийся в Чёрном море. Опускаешься чуть-чуть глубже, там нет жизни, там абсолютные яды.
А у нас почему-то в основном внедряют нечто похожее.

Это необходимо выявлять. И рабочая группа, которая выводит новые правила взаимодействия с ИИ, сотрудничает с межфракционной группой в Государственной думе.

Игорь Ашманов выразил надежду, что удастся что-то сделать в этом направлении.

Вот такое актуальное сообщение мы получили сегодня от специалиста по нейросетям и информационным технологиям. Друзья, пишите свои рассуждения в комментариях.

Благодарю за прочтение. Высказывайтесь. Подписывайтесь. Ставьте лайки. Присылайте донаты. Мы вместе делаем следующий шаг.

#Ашманов#ИИ#отупление#новое#правила

Яндекс — поиск по видео