Основной проблемой работы искусственного интеллекта на платформах нейросетей - это непонимание мотива пользователя.Сегодня, использование нейросетей, например, таких как ChatGPT уже не новость. Скорее всего, каждый, кто читает эту статью знаком с данной нейросетью или, как минимум, с ее аналогами. Активное распространение и развитие ИИ, как считают эксперты, может привести к росту мошенничества в интернете, созданию улучшенных неуязвимых версий вредоносных программ и распространению фейковых новостей.Всё дело в том, что искусственный интеллект не знает мотив пользователя, а просто выполняет заданную задачу. Поэтому создание смешной картинки котика в солидном костюме и создание кода для программы мошеннических фишинговых рассылок для него одно и то же.К примеру, один из последних своих отчетов команда исследователей "Recorded Future" прокомментировала следующим образом: "Способность ChatGPT убедительно имитировать человеческий язык позволяет ему стать мощным инструментом фишинга и социальной инженерии"Отсутствие грамматических ошибок и правильная логическая последовательность работы ChatGPT, по словам команды исследователей, в разы повышает шансы мошенников на еще, как минимум, несколько миллионов обманутых людей.А вот способность искусственного интеллекта постепенно обучаться становится еще одной проблемой мирового масштаба. Ведь такая способность на руку хакерам, которые создадут вредоносную программу и поставят ее в режим "автоматизированного обучения", что приведет к созданию чуть ли не абсолютно неуязвимого интернет-оружия.Пока не совсем ясно как предотвратить генерацию отрицательных результатов работы ИИ. Но уже сейчас эксперты OpenAI разрабатывают решение в виде нанесения на работы искусственного интеллекта "водяных знаков", которые бы подтверждали, что материал создал нейросетью, а не человеком, а значит, такой материал может отличаться от реальной ситуации. Однако применять повсеместно такой ход не получится. Метка "создано ИИ" поможет лишь для борьбы с фейковой информацией, к примеру, в случае с deep fake.
Темная сторона ChatGPT и его аналогов - вредные способы использования нейросетей
3 марта 20233 мар 2023
22
1 мин