Microsoft обновила условия предоставления услуг, вступающие в силу в конце сентября, и уточнила, что ее ИИ-сервисы Copilot не должны использоваться в качестве замены советов от реальных людей.
Агенты на базе искусственного интеллекта появляются во всех отраслях, поскольку чат-боты все чаще используются для обслуживания клиентов, в медицинских и оздоровительных приложениях и даже для предоставления юридических консультаций. Однако Microsoft в очередной раз напоминает своим клиентам, что ответы чат-ботов не следует воспринимать как истину. «Услуги искусственного интеллекта не предназначены для замены профессиональных консультаций», - говорится в обновленном соглашении об обслуживании.
Это модальное окно.
Начало диалогового окна. Escape отменяет и закрывает окно.
Конец диалогового окна.
В качестве примера компания привела своих ботов для здоровья. Боты «не предназначены для замены профессиональной медицинской консультации или использования для диагностики, лечения, смягчения, профилактики или лечения заболеваний или других состояний», - поясняется в новых условиях. «Microsoft не несет ответственности за любые решения, которые вы принимаете на основе информации, полученной от медицинских ботов».
Получите Microsoft Office для Windows/Mac за 25 долларов
В пересмотренном Соглашении об обслуживании также подробно описаны дополнительные методы работы ИИ, которые явно больше не допускаются. Например, пользователи не могут использовать службы искусственного интеллекта для извлечения данных. «За исключением случаев, когда это явно разрешено, вы не можете использовать методы веб-скреппинга, веб-сборки или извлечения данных из Интернета для извлечения данных из служб искусственного интеллекта», - говорится в соглашении. Компания также запрещает попытки обратного инжиниринга с целью выявления весовых коэффициентов модели или использования ее данных «для создания, обучения или улучшения (прямо или косвенно) любого другого сервиса искусственного интеллекта».
«Вы не можете использовать сервисы искусственного интеллекта для обнаружения каких-либо базовых компонентов моделей, алгоритмов и систем», - говорится в новых условиях. «Например, вы не можете пытаться определить и удалить веса моделей или извлечь какие-либо части сервисов искусственного интеллекта из вашего устройства.»
Компания Microsoft уже давно заявляет о потенциальной опасности злоупотребления генеративным искусственным интеллектом. С новыми условиями предоставления услуг Microsoft, похоже, пытается обеспечить себе юридическую защиту, поскольку ее продукты ИИ становятся все более распространенными.
Если вам понравилась эта статья, подпишитесь на нее, чтобы не пропустить новые полезные статьи!
Вы также можете читать меня в:
- Telegram: https://t.me/gergenshin
- Яндекс Дзен: https://dzen.ru/gergen
- Официальный сайт: https://www-genshin.ru