Какое зло таит в себе искусственный интеллект?

В наши дни нейросети набирают всё большую популярность - ими активно пользуются как профессионалы различного уровня (копирайтеры, журналисты, дизайнеры-оформители), так и обычные пользователи сети Интернет. Однако возникает вопрос - к чему всё это приведёт?

Нейросети сейчас активно используются в различных сферах жизни. К чему это может привести? Изображение в свободном доступе.
Нейросети сейчас активно используются в различных сферах жизни. К чему это может привести? Изображение в свободном доступе.

В чём опасность нейросетей по мнению автора?

Несомненно, при грамотном подходе к инструменту, системы искусственного интеллекта выступают как серьёзное подспорье в работе - например, ChatGPT умеет писать программные коды (причём очень неплохо), выдавать “на гора” различную текстовую информацию в нужном ключе, а иногда и медики прибегают к нейросетям для постановки диагноза. Конечно, в последнем случае это выглядит довольно жутко, ведь иной раз не веришь врачам, а тут ещё и машина, которая неизвестно по каким алгоритмам выставляет диагноз. Так в чём же опасность, спросите вы?

Пока искусственный интеллект не способен полноценно заменить человека - продукт жизнедеятельности нейросети вычисляется очень быстро. Но насколько долго это продлится? Изображение в свободном доступе.
Пока искусственный интеллект не способен полноценно заменить человека - продукт жизнедеятельности нейросети вычисляется очень быстро. Но насколько долго это продлится? Изображение в свободном доступе.

Главная опасность, по моему мнению, не совсем очевидна. Человек, активно пользующийся нейросетями, начинает терять навыки работы, больше ленится - соответственно, меньше нагружает мозговые клетки, что со временем может привести к их деградации. Деградировавшие мозговые клетки угрожают хозяину не только с морально-этической стороны (оглупление), но и с медицинской - наличие “ленивых” или мёртвых мозговых клеток есть первые признаки старческого слабоумия. Конечно, это можно сказать и про поисковики - предпочитая “загуглить”, представители младших поколений уже не стараются заучивать массивы информации. Соответственно мы получаем поколение с абсолютно не тренированной памятью.

До неандертальца человеческий разум опуститься не сможет, но потеря способности к творчеству может повлиять на все аспекты жизни. Фотография в свободном доступе.
До неандертальца человеческий разум опуститься не сможет, но потеря способности к творчеству может повлиять на все аспекты жизни. Фотография в свободном доступе.

Второй вопрос здесь можно задать в сфере индивидуальных талантов. Ведь тот же самый копирайтер, активно пользующийся нейросетями для создания текстов, рано или поздно растеряет все навыки, и останется у него только один полезный скилл - вычитка текстов. Потеря таланта, по моему мнению, тоже является опасным для представителей творческий профессий, главная суть которых заключается в уникальности производимого продукта. Таким образом, творческие люди со временем рискуют из “касты” творцов перейти в “подражателей” или “копирующих”. Ведь ни один из подражателей великого Леонардо да Винчи не смог повторить “Мону Лизу”, сделав свою картину не менее легендарной? А пытались многие… Так же и с нейросетями - стандартизированный текст по запросу пользователя никогда не будет шедевральным, во всяком случае, пока искусственный интеллект не научится генерировать действительно живой, уникальный текст или рисунок, или композицию.

Что говорят профессионалы?

Профессионалы опасаются несколько иного - много информации в сети представлено людьми, не являющимися специалистами в своей области. А нейросети как раз и анализируют множество статей, делая краткие выжимки для себя и выдавая таким образом усреднённый ответ. “Оглупление” пользователей начнётся, когда в цифровом мире будут преобладать материалы, созданные на основе “непрофессионально поданной информации” - так считает Росс Андерсон, член Королевской академии наук и специалист по информационной безопасности. Также он отмечает, что такое положение дел может серьёзно навредить не только бизнесу, но и образовательным программам, “заглушая” таким образом интеллектуальные возможности современного человека. К чему это приведёт в дальнейшем - не знает никто.

До полноценного осознания искусственного интеллекта самого себя, как личности - довольно далеко. Но уже сейчас нейросети могут нести опасность для их пользователей. Изображение в свободном доступе.
До полноценного осознания искусственного интеллекта самого себя, как личности - довольно далеко. Но уже сейчас нейросети могут нести опасность для их пользователей. Изображение в свободном доступе.

Но он считает, что процесс “оглупления” можно предотвратить, дав нейросетям доступ к фильтрации только “правильных” банков данных, информация в которых достаточно достоверна. Это конечно же, сыграет на адекватности выдаваемого искусственным интеллектом контента, но это также может служить инструментом социальной инженерии, когда запрашиваемая информация подкорректирована в угоду неким лицам, или даже политическим системам. Да, в цифровом мире возможен любой вариант, ведь многие интернет-злоумышленники действуют по принципу “Ничто не истинно и всё дозволено”. Однако такие злоумышленники забывают, что ничего в сети не происходит бесследно - рано или поздно и они попадутся на удочку. Именно на это надеются специалисты по цифровой безопасности, в том числе контентной - на постепенное очищение цифрового пространства от различного рода негодяев, не дающих мировой сети быть такой, какой она была задумана, безопасной и достоверной.

Заключение

В данной статье автор никоим образом не хотел принизить возможности искусственного интеллекта в сети, но хочет лишь предостеречь от бездумного копирования генерируемой нейросетями информации. Она может быть как опасной (в силу того, что нейросеть может сканировать недостоверные материалы в сети, а порой эти материалы становятся очень опасными), так и полезной - важно научиться отличать зёрна от плевел. Но, к сожалению, это умение даётся не всем, и многие люди, использующие нейросети, откровенно рискуют - выбор за каждым из них.

А вы пользуетесь искусственным интеллектом в профессиональных целях? Пишите свои ответы в комментариях.

Друзья мои! Я нередко прошу вас поддержать мой канал лайками, подписками и комментариями. С вашего позволения, я прошу поддержать канал моего хорошего друга, Историка-любителя - он увлечён военной историей, и возможно, вы найдёте там что-то интересное для себя?

С вами был IT-джедай, а для развития канала – не поленитесь нажать на кнопку «Нравится» и подпишитесь на канал.