Некоторые предприниматели, в погоне за экономией времени и ресурсов, доверяют искусственному интеллекту чуть ли не коды от банковских карт — или как минимум, корпоративные данные и разработки.
Про последнее есть реальная грустная история.
Сотрудники корпорации Samsung поддались соблазну, залили секретные разработки в ChatGPT и попросили его улучшить код.
И никто даже не подумал, что таким образом данные становятся частью нейтронной сети и соответственно, достоянием крупных IT-компаний, которые и стоят за их разработкой (OpenAI, Midjourney Inc., Яндекс, Сбер...). По правилам, вся передаваемая нейросети информация, может использоваться как минимум для обучения.
При этом больше неизвестно, как разработчики могут использовать ваши данные — на каких правовых основаниях они хранятся, как используются для обучения. Сам ChatGPT от лица OpenAI отвечает, что данные анонимизируются и очищаются от персональной информации. Тем временем, весной произошла утечка данных пользователей (имена, фамилии, почтовые адреса, платежная информация), из-за которой сервис заблокировали в Италии.
Как откровения с ИИ угрожают бизнесу?
Взлом нейросетей мошенниками. Искусственный интеллект — тоже код, у которого есть свои слабости и уязвимости в системе. Их защита данных мало чем отличается от обычного маркетплейса. Этим легко могут воспользоваться злоумышленники, чтобы украсть ваши платежные данные и другую конфиденциальную информацию.
Атаки на базы данных для обучения нейросетей. Подменить или вложить новую информацию в обучающие данные, которые потом выдает ИИ, тоже вполне реально представить. Дезинформация — не менее опасный инструмент, особенно для репутации бренда.
Распространение фейковой информации и манипуляций. Поддельные видео, фото, тексты на основе данных, которые собрал ИИ о вашей компании, мошенники могут использовать для нанесения ущерба компании и управлением вашей репутацией.
Нарушение конфиденциальности. Про это мы уже написали выше — никто не застрахован от сливов, даже если разработчики нейросети обещают другое.
В общем, когда используете искусственный интеллект — не забывайте про собственный.