Найти тему
РосКомСвобода

Сотрудники ИИ-подразделения Google требуют прекратить сотрудничество с военными

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+

Они опасаются, что их технологии могут быть использованы в военных целях, что нарушает принципы этичного использования искусственного интеллекта (ИИ), закреплённые в компании.

Фото: коллаж «Роскомсвобода» / techslang.com / Canva
Фото: коллаж «Роскомсвобода» / techslang.com / Canva

Около 200 сотрудников Google DeepMind, подразделения компании Google, занимающегося разработками в области искусственного интеллекта, подписали письмо к руководству с требованием отказаться от всех военных контрактов. Согласно информации, полученной журналом Time, письмо подписали около 5% всех сотрудников DeepMind. В письме подчеркивается, что любые разработки, связанные с военной сферой, противоречат принципам этического использования ИИ, принятым в подразделении.

Изначально, при создании Google DeepMind в 2018 году, было дано обещание, что его технологии никогда не будут использоваться для создания вооружений или для слежки. Однако с тех пор подразделение Google Cloud заключило несколько контрактов с военными и правительствами, включая Израиль, на использование облачных технологий и ИИ, разработанных в Google DeepMind. Это вызвало серьезное беспокойство среди сотрудников, которые опасаются, что их технологии могут применяться для целей, противоречащих принципам подразделения.

Письмо не упоминает конкретные военные организации, а также не привязывает свою позицию к каким-либо странам или конфликтам. Тем не менее, оно ссылается на ряд публикаций, в которых утверждается, что израильские военные используют ИИ для массового наблюдения и выбора целей для авиаударов. Сотрудники DeepMind считают, что любое сотрудничество с военными или компаниями, занимающимися производством вооружений, подрывает их лидерские позиции в области этичного и ответственного ИИ.

Несмотря на растущую озабоченность, руководство Google не выполнило требования, изложенные в письме. Представитель компании заявил, что при разработке ИИ-технологий Google строго придерживается своих принципов, которые исключают использование ИИ для создания оружия или участия в военных конфликтах. Однако, как отмечают сотрудники, отсутствие конкретики в официальных заявлениях оставляет больше вопросов, чем ответов.

Внутренний конфликт в Google обострился на фоне слияния DeepMind с другим ИИ-подразделением компании — Google Brain. С момента объединения в 2023 году, DeepMind оказался ближе к корпоративной структуре Google, что, по мнению сотрудников, ослабило их независимость и возможность влиять на политику компании.

На собрании сотрудников в июне руководители Google DeepMind подтвердили, что не будут разрабатывать ИИ для оружия или массового наблюдения, однако обеспокоенность сотрудников остаётся. Они продолжают настаивать на создании специального органа, который будет контролировать соблюдение принципов этичного использования ИИ и исключать возможность использования технологий DeepMind военными.

✔️ Поддержать Роскомсвободу

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц