Найти в Дзене
Hi-Tech Mail

Google работает над технологией убийства людей при помощи ИИ

Недавние изменения в политике Google относительно использования искусственного интеллекта (ИИ) вызвали серьезные опасения по поводу возможного применения технологий для разработки оружия и систем слежения. Компания Alphabet, материнская структура Google, убрала из своих принципов обязательство не использовать ИИ для создания технологий, которые могут причинять вред, включая оружие и системы наблюдения. Ранее компания Google придерживалась принципа, согласно которому не будет заниматься разработкой искусственного интеллекта (ИИ) для военных целей или для применения, которое может нанести «общий вред». Однако удаление этого пункта из политики вызвало критику со стороны экспертов и сотрудников компании, которые опасаются, что это может привести к созданию технологий, способных нанести вред людям. Бывшие сотрудники и эксперты в области этики ИИ выразили обеспокоенность тем, что такие изменения могут привести к тому, что Google начнёт разрабатывать технологии, которые могут быть использов

Недавние изменения в политике Google относительно использования искусственного интеллекта (ИИ) вызвали серьезные опасения по поводу возможного применения технологий для разработки оружия и систем слежения. Компания Alphabet, материнская структура Google, убрала из своих принципов обязательство не использовать ИИ для создания технологий, которые могут причинять вред, включая оружие и системы наблюдения.

Ключевые моменты изменений

Ранее компания Google придерживалась принципа, согласно которому не будет заниматься разработкой искусственного интеллекта (ИИ) для военных целей или для применения, которое может нанести «общий вред». Однако удаление этого пункта из политики вызвало критику со стороны экспертов и сотрудников компании, которые опасаются, что это может привести к созданию технологий, способных нанести вред людям.

Бывшие сотрудники и эксперты в области этики ИИ выразили обеспокоенность тем, что такие изменения могут привести к тому, что Google начнёт разрабатывать технологии, которые могут быть использованы в военных конфликтах или для подавления прав человека. Например, Маргарет Митчелл, бывшая руководительница команды по этике ИИ в Google, отметила, что это решение «стирает работу, которую многие люди в области этики ИИ и активизма проделали в Google».

Эти изменения происходят на фоне растущего давления со стороны инвесторов и конкуренции в области ИИ, что может заставить компании пересмотреть свои этические обязательства в пользу получения прибыли и технологического преимущества.

Таким образом, отказ Google от обязательства не использовать ИИ для разработки оружия и систем слежения поднимает важные вопросы о будущем этики в технологиях и о том, как крупные технологические компании будут управлять своими инновациями в условиях растущих глобальных угроз.