Добавить в корзинуПозвонить
Найти в Дзене
ER10 MEDIA

Компании, используя ИИ, сталкиваются с проблемами в безопасности

Почти все организации, использующие генеративный искусственный интеллект, сталкиваются с проблемами безопасности или утечками данных. Почти все организации, использующие генеративный искусственный интеллект, сталкиваются с проблемами безопасности или утечками данных. Об этом говорится в исследовании института Capgemini. Согласно выводим ученых, 97% организаций, использующих генеративный ИИ, сталкивались с утечками данных или проблемами безопасности, связанными с этой технологией. 52% указали на прямые и косвенные убытки в размере не менее $50 млн, возникшие по причине этих инцидентов. В результате 62% заявили, что им необходимо увеличить бюджеты для снижения рисков. По мнению Capgemini, проблемы безопасности вызваны ростом сложности атак со стороны более широкого круга злоумышленников, а также расширением поверхности кибератак и обнаружением уязвимостей во всех аспектах пользовательских решений генеративного ИИ. В то же время неправильное использование ИИ и генеративного ИИ сотрудникам

Почти все организации, использующие генеративный искусственный интеллект, сталкиваются с проблемами безопасности или утечками данных.

Почти все организации, использующие генеративный искусственный интеллект, сталкиваются с проблемами безопасности или утечками данных. Об этом говорится в исследовании института Capgemini.

Согласно выводим ученых, 97% организаций, использующих генеративный ИИ, сталкивались с утечками данных или проблемами безопасности, связанными с этой технологией.

52% указали на прямые и косвенные убытки в размере не менее $50 млн, возникшие по причине этих инцидентов. В результате 62% заявили, что им необходимо увеличить бюджеты для снижения рисков.

По мнению Capgemini, проблемы безопасности вызваны ростом сложности атак со стороны более широкого круга злоумышленников, а также расширением поверхности кибератак и обнаружением уязвимостей во всех аспектах пользовательских решений генеративного ИИ.

В то же время неправильное использование ИИ и генеративного ИИ сотрудниками может значительно повысить риск утечки данных. Две из трех организаций заявили, что их беспокоит «отравление» информации и возможная утечка конфиденциальных данных в результате сбора сведений, используемых для обучения моделей генеративного ИИ.

ИИ может привнести дополнительные риски через генерируемый им материал, включая галлюцинации, создание предвзятого, вредного или неуместного контента. Так, 43% респондентов заявили, что понесли финансовые потери из-за использования deepfakes.

Источник - https://er10.kz/read/it-novosti/kompanii-ispolzuja-ii-stalkivajutsja-s-problemami-v-bezopasnosti/