Исследователи из OpenAI разработали способ обнаруживать и исправлять ложные или заблуждающие утверждения, генерируемые системами искусственного интеллекта (ИИ). Этот метод может помочь повысить доверие к ИИ и предотвратить его злоупотребление. Системы ИИ, основанные на глубоком обучении, способны создавать убедительные тексты, изображения и звуки на основе небольшого количества входных данных. Однако эти системы также могут производить неверную или искаженную информацию, которая может ввести в заблуждение читателей или слушателей. Например, система ИИ может сгенерировать ложное утверждение о том, что вакцина от COVID-19 вызывает рак, или что определенный политик совершил преступление. Для решения этой проблемы исследователи из OpenAI предложили метод, который они назвали проверкой фактов на основе контрастивного обучения (Fact-Checking via Contrastive Learning, FCCL). Этот метод состоит из двух шагов: обнаружения и исправления ложных утверждений. На первом шаге метод FCCL использует мо
OpenAI предложила метод борьбы с враньем искусственного интеллекта
10 июня 202310 июн 2023
1
2 мин