Добавить в корзинуПозвонить
Найти в Дзене
Сергей Михеев

Применение нейросети в грязных, непотребных целях совершенно неизбежно

Создатели ChatGPT официально разрешили использовать нейросеть для создания эротического контента. Компания подчеркивает, что эротический режим не затронет несовершеннолетних и останется полностью изолированным в отдельном пространстве модели. Для всех пользователей моложе 18 лет фильтры будут работать в усиленном режиме. Пишут, что в США уже воспользовались. Еще одну «красную черту» переступила нейросеть! Сергей Михеев: То, что это будет использоваться во зло, я говорил с самого начала. Восхищение тем, что нейросеть может рисовать видео, которые не отличить от настоящих, будет опасно с криминальной точки зрения, потому что это мошенничество, клевета, подделка доказательств. Это будет чревато с точки зрения психиатрической, общесоциальной, бытовой, потому что каждый сможет клеветать на своего соседа, обидчика по парте в школе, и люди сойдут с ума, «отмываясь» от того, чего не было. Мир, погружающий людей в тотальную ложь! И другие неприглядные применения просто напрашиваются. Вся эйфори

Создатели ChatGPT официально разрешили использовать нейросеть для создания эротического контента. Компания подчеркивает, что эротический режим не затронет несовершеннолетних и останется полностью изолированным в отдельном пространстве модели. Для всех пользователей моложе 18 лет фильтры будут работать в усиленном режиме. Пишут, что в США уже воспользовались. Еще одну «красную черту» переступила нейросеть!

Сергей Михеев: То, что это будет использоваться во зло, я говорил с самого начала. Восхищение тем, что нейросеть может рисовать видео, которые не отличить от настоящих, будет опасно с криминальной точки зрения, потому что это мошенничество, клевета, подделка доказательств. Это будет чревато с точки зрения психиатрической, общесоциальной, бытовой, потому что каждый сможет клеветать на своего соседа, обидчика по парте в школе, и люди сойдут с ума, «отмываясь» от того, чего не было. Мир, погружающий людей в тотальную ложь! И другие неприглядные применения просто напрашиваются.

Вся эйфория с нейросетями, по сути, касается гуманитарного аспекта. Применение нейросетей в грязных, непотребных целях совершенно неизбежно. Самое главное, что за руку некого будет ухватить. Почему? Потому что ИИ будет генерировать искусственным образом, конкретные люди не смогут предъявлять никакие иски, не будет ни родителей, которые могут обратиться в суд, ни пострадавших детей. Не будет никого, а развращение людей будет. Разговоры: «Это же здорово!» Здорово, пока вас лично не касается. А как только лично коснется вас, ваших родных, детей, то сразу станет «нездорово» и захочется найти виноватого, а его нет - просто работает программа. «Накажем создателей» - а вы попробуйте их найти! Они скажут: «Мы ничего не создавали - просто написали запрос, не так поставили слова, а он всё перепутал и сам сделал. Идите, постучите молотком по клавиатуре». Вот в чём опасность! Люди концентрируются на своих сиюминутных удобствах, совершенно не понимая,какие последствия это может вызывать с точки зрения изуродования жизни. Она и так изуродована, а её покалечат ещё больше - более технологично. А цель всё та же:обмануть, загрязнить человеческие души.

Было очередное предупреждение, что мошенники стали использовать ИИ, подделывая голоса детей, отсылая звуковые файлы родителям и прося от имени детей перевести деньги. У мошенников нет ничего святого!ИИ сумел догнать людей по числу статей в Интернете, и теперь по этому показателю они примерно равны. Об этом сообщил портал Axios со ссылкой на отчет компании Graphite. Пока поисковики в выдаче предпочитают то, что написано и создано людьми, но совсем скоро, судя по динамике той продукции, которую выдает ИИ, всё это рухнет. Языковые модели тоже рухнут, и наполнение Интернета от мира сетей превысит то, что создано человеком. Мы поменяемся местами.

Сергей Михеев: В этом и опасность. Вы потеряете возможность отличить правду от неправды, потому что проверить будет крайне сложно. И власть, сначала в Интернете, а потом ещё где-нибудь, захватит некая искусственно сгенерированная человеком компьютерная программа или система программ. Манипулировать доказательствами, общественным мнением, знаниями будет легко. А проверить будет невозможно: ваша попытка верифицировать упрется в то, что одна статья, созданная ИИ, будет вас отсылать к другой статье, созданной им же, и т.д.