5 подписчиков
Исследователи из Массачусетского технологического института и Университета штата Пенсильвания провели недавнее исследование, которое показало, что большие языковые модели, используемые в домашнем наблюдении 🏠, могут рекомендовать вызов полиции 🚔 даже при отсутствии криминальной активности на видеозаписях.
Оказалось, что модели принимают решения непоследовательно, часто не соглашаясь друг с другом по поводу того, стоит ли маркировать видео для вмешательства полиции. Например, одна модель может пометить видео с угоном автомобиля 🚗, а другая - нет, даже если на записях показана похожая активность.
Также было обнаружено, что модели проявляют предвзятости, зависящие от демографических данных района 🚶♀️🏘️, реже рекомендуя вмешательство полиции в районах с большинством белого населения. Это явление, известное как несовместимость норм, затрудняет прогнозирование поведения моделей в разных контекстах.
Исследователи подчеркнули потенциальные риски использования генеративных моделей ИИ в критически важных областях, таких как здравоохранение 🏥 и ипотечное кредитование 🏦, без тщательного рассмотрения. В своем исследовании они стремились понять риски использования готовых генеративных моделей ИИ для оповещения домовладельцев и автоматического вызова правоохранительных органов, акцентируя внимание на необходимости более глубокого осмысления и регулирования при развертывании таких моделей.
#neuroco #нейроконтент #машинноеобучение #языковыемодели #нейросеть #нейронка #ArtificialIntelligence
1 минута
24 сентября 2024