Работодатели опасаются последствий применения так называемого «теневого искусственного интеллекта». Сотрудники все чаще используют ИИ без разрешения работодателя, что повышает для бизнеса юридические риски и риски утечки информации. Для снижения опасности необходимо вводить четкую регламентацию
ИИ вызвал значительное беспокойство среди широкого спектра специалистов, которые стали бояться, что новая технология заменит сотрудников. Но при этом многие сотрудники с радостью используют генеративный ИИ в своей работе, хотя, возможно, и не совсем так, как хотелось бы их руководителям. Некоторые начальники утверждают, что поощряют инновационное использование ИИ для оптимизации рабочих процессов. Однако слишком многие сотрудники используют эту технологию способами, которые не утверждены работодателями. Этот феномен известен как «теневой ИИ».
Для чего сотрудники используют ИИ
По данным компании крупнейшей аудиторской компании Deloitte сотрудники в офисах используют ИИ, чтобы
- генерировать идеи – 44%
- искать информацию – 41%
- создавать письменный контент – 39%
- писать/редактировать электронные письма – 38%
- составлять краткое изложение текста – 37%
По данным Deloitte, из тех сотрудников, кто использовал генеративный ИИ на работе только 23% считают, что их руководитель одобрил бы то, как они его использовали. Важно учесть, что неофициальное использование ИИ на рабочем месте подвергает организации юридическим, финансовым и репутационным рискам. Так почему же так много работников используют ИИ тайно? И что могут сделать работодатели, чтобы пресечь эту практику?
Рамочный регламент
В Великобритании Университет города Сассекс и маркетинговая фирма Magenta проводят исследовательский проект по изучению текущей практики использованию генеративного ИИ в отрасли связи.
Цель проекта заключается в том, чтобы создать некое рамочное руководство по лучшим практикам, которое предприятия уже сами смогут доработать и адаптировать под свои потребности.
Предварительные результаты исследования показали, что сотрудники IT- отделов предприятий повсеместно применяют теневой ИИ. Каждый двадцатый сотрудник признался исследователям, что использует ИИ в полной секретности, а многие другие частично скрывают использование ИИ.
Старший консультант и руководитель отдела цифровых технологий компании Magenta Грег Борткевич сообщил, что люди больше говорят об этом со своими коллегами, чем со своими руководителями, и они не всегда открыто говорят о том, в какой степени они используют ИИ. Во многих случаях, работодатель просто не спрашивает сотрудников об использовании ИИ.
Исследование показало, что сотрудники тайно используют ИИ главным образом из страха, что их обвинят в лени или некомпетентности. Также сотрудники стесняются признаться, что им требуется помощь. Более того, многие работники говорят, что нет необходимости сообщать своему работодателю об использовании ИИ, потому что это не имеет особого значения.
Руководители должны обратить внимание на такое мнение, потому что использование теневого ИИ имеет значение, и очень большое.
Теневой ИИ может представлять значительные юридические, этические, операционные риски, а также риски безопасности.
Например, на компании могут быть наложены значительные штрафы за нарушение действующих в Евросоюзе Общих правил о защите данных, американского Закона о защите прав потребителей в штате Калифорния или Закона о передаче и хранении данных медицинского страхования в США и других законов.
Угрозы безопасности
Особую озабоченность вызывают угрозы безопасности. Согласно исследованию компании по безопасности данных Cyberhaven, только четверть учетных записей ChatGPT, используемых на рабочем месте, являются корпоративными. Генеральный директор компании Cyberhaven Говард Тинг поясняет, что остальные, некорпоративные, учетные записи передают информацию в публичные модели, и это создает значительный риск разглашения конфиденциальных данных.
«Тревожно, что значительная часть конфиденциальных корпоративных данных отправляется на некорпоративные учетные записи. Они включают примерно половину исходного программного кода, материалов научных исследований и разработок, а также списков сотрудников и кадровых данных», — говорит он.
И действительно, согласно исследованию компании по управлению данными Veritas Technologies, 38% британских офисных работников признались, что они или их коллеги вводили конфиденциальную информацию, например, данные о клиентах, финансах или продажах — в какие-либо инструменты на базе ИИ.
Финансовые последствия
Генеральный директор платформы по соблюдению нормативных требований (т.н. комплаенс) ISMS.online Люк Дэш поясняет, что могут быть также значительные финансовые последствия. Некорректное использование ИИ может привести к непредвиденным расходам на устранение ущерба, выплату штрафов за несоблюдение нормативных требований, выплату компенсаций за нанесенные убытки, что будет отвлекать ресурсы от основной деятельности компании и снижать ее общую прибыльность.
Несмотря на такие риски, организациям не удается внедрить строгую политику в отношении использования ИИ на рабочих местах.
Ограничения на использование ИИ
Маркетинговая компания Sapio недавно обнаружила, что менее половины компаний ввели ограничения на информацию, которая может быть отправлена искусственному интеллекту, ограничения на то, для каких задач и каким образом может использоваться генеративный ИИ, рекомендации по его допустимому использованию и строгие ограничения на доступ к ИИ.
Хорошей отправной точкой для борьбы с применением теневого ИИ может стать Стандарт ISO 42001 для систем управления ИИ. В этом стандарте излагаются лучшие практики управления безопасными и этичными системами ИИ, включая такие элементы, как соблюдение конфиденциальности данных, протоколы безопасности и непрерывная оценка рисков.
Партнер юридической фирмы Bloomsbury Square Employment Law Крис Хогг поясняет: «В более широком смысле политика в отношении теневого ИИ должна включать указания на типы инструментов ИИ, которые могут использоваться на рабочем месте. Какие разрешения и от кого следует получить перед использованием ИИ. Ограничения на использование продукции и результатов, сгенерированных искусственным интеллектом. Политика также должна включать указания по надзору за применением ИИ и должной осмотрительности при его применении. Она должна четко указывать, кто несет ответственность за выдачу разрешения на использование ИИ, излагать последствия за нарушение политики. Четко сформулированная политика снижает риск использования сотрудниками теневого ИИ, поскольку существуют четкие параметры, которым они должны следовать. Это также упрощает принятие мер в отношении сотрудников, которые продолжают использовать теневой ИИ в ущерб бизнесу».
Николас Ле Риш, партнер по трудовому праву в юридической фирме BDB Pitmans, соглашается: «Важнейшее значение имеет то, что политика должна прямо подтверждать, что она распространяется на использование ИИ как на личном устройстве сотрудника, так и на служебных устройствах, а также должна объяснять, что контент, создаваемый приложениями ИИ, будет подвергаться контролю».
Регулярные напоминания
Чтобы персонал бдительно соблюдал политику использования ИИ, необходимы регулярные напоминания.
Компания Cyberhaven Labs обнаружила, что когда сотрудники видят всплывающее предупреждение о том, что они делают нечто потенциально опасное, например, копируют и вставляют исходный программный код в свой личный аккаунт в ChatGPT, в 90 процентах случаев они отказываются от опасного действия.
Цифровая студия Ustwo
Политику, предотвращающую использование теневого ИИ, недавно разработала и внедрила у себя крупнейшая глобальная студия цифровых продуктов Ustwo.
Руководитель отдела информационных технологии студии Грег Рочфорд пояснил: «Регламент применения искусственного интеллекта является официальным документом в нашей системе управления информационной безопасностью и учтен во всех остальных регламентах нашей компании. Он определяет четкие правила и прозрачность для всех, кто хочет понять наш подход к использованию ИИ».
Рочфорд объясняет, что регламент подробно описывает все: от сбора данных и обучения до инновационных стратегий, а также развертывание ИИ в самой студии Ustwo и у ее заказчиков. Такая четкая регламентация не только укрепляет внутреннюю безопасность, но и убеждает клиентов в том, что с их данными обращаются ответственно.
Поскольку организации наращивают использование ИИ в своих рабочих коллективах, руководителям было бы разумно убедиться, что сотрудники, использующие эту технологию, делают это открыто, а не прячутся в тени. (По материалам британской прессы)
Подпишитесь, чтобы получать обновления по этой и другим актуальным темам!