Найти тему
Ingate Group

Использование нейросетей в работе: а есть ли риски?

Нейросети вошли во многие сферы жизни и стали частью повседневной реальности. Однако даже технически подкованные люди не спешат восхищаться искусственным интеллектом. Это неудивительно, ведь его существование может принести людям не только пользу, но и вред. Давайте посмотрим, какие есть риски при использовании нейросетей?

Сокращение количества рабочих мест

Это не теория, а уже суровая реальность. 2022–2023 годы запомнились массовым увольнением технических специалистов крупнейших компаний, в том числе Microsoft, Google и Amazon.

По информации Layoffs.fyi, только за текущий год из ИТ-компаний уволили примерно 200 000 работников, около 20 % из которых оказались инженерами-программистами. Одной из причин такой ситуации стало внедрение больших языковых моделей (LLM) и активная разработка нейросетей, аналогичных ChatGPT.

Сокращение количества рабочих мест не означает, что нужно отказываться от ИИ. Он может быть полезен во многих отраслях бизнеса. По результатам опроса, проведенного по заказу Microsoft, лишь небольшая часть работодателей (16 %) считает, что использование нейросетей приведет к сокращению численности персонала. 29 % респондентов полагает, что ИИ поможет сотрудникам в выполнении рутинных задач, а 26 % – улучшит их самочувствие.

Создание фейков

Нейросети постоянно совершенствуются, и картинки, которые они создают, становятся более реалистичными. Сгенерированный контент сложно отличить от реального, и он может ввести пользователей в заблуждение. Создавая фейковые картинки и распространяя их по интернету, злоумышленники дезинформируют людей.

Изображения, сгенерированные нейросетями и попавшие в сеть, могут нанести огромный вред обществу. Так, в конце мая 2023 года в американских соцсетях появилось фото, которое вскоре стало вирусным. На нем были запечатлены последствия разрушительной атаки на штаб-квартиру Министерства обороны США. Это стало обсуждаемой новостью среди пользователей и привело к падению индексов многих крупных компаний.

Нарушение приватности

Применение ИИ существенно снизило приватность данных. Если раньше, чтобы оставить существенный цифровой след, нужно было дать потенциально ценную информацию, то сейчас достаточно установить в городе и на автотрассах камеры, работающие на основе нейросетей и анализирующие голоса, жесты и поведение людей.

-2

Видеокамеры, работающие на основе искусственного интеллекта, нарушают приватность

И это уже практикуется. Так, в Дублине есть билборд, который анализирует прохожих и демонстрирует им подходящие рекламные ролики. Еще один пример вторжения ИИ в личное пространство – это применение технологий распознавания лиц в общественных местах, школах и детских садах Китая.

Снижение качества образования

Если раньше студентам приходилось упорно искать материалы для дипломов и курсовых, а затем по кусочкам собирать свои работы, то создание технологий на базе LLM упростило эту задачу. Влияние ИИ на образование стали широко обсуждать в начале 2023 года, когда Александр Жадан написал на странице в своей социальной сети о том, что успешно защитил диплом, полностью написанный благодаря ChatGPT. При этом он потратил всего 23 часа на введение в чат англоязычных запросов, перевод с иностранного языка на русский и небольшую редактуру. Уникальность текста составила 82 %, а выпускник смог защититься на 3 балла.

Внедрение нейросетей несет не только пользу, но и риски. Однако мы точно знаем: искусственный интеллект может быстро продвинуть сайт в поисковике. Хотите узнать, как? Тогда переходите сюда.