Найти в Дзене
5 подписчиков

Исследователи из Массачусетского технологического института и Университета штата Пенсильвания провели недавнее исследование, которое показало, что большие языковые модели, используемые в домашнем наблюдении 🏠, могут рекомендовать вызов полиции 🚔 даже при отсутствии криминальной активности на видеозаписях.


Оказалось, что модели принимают решения непоследовательно, часто не соглашаясь друг с другом по поводу того, стоит ли маркировать видео для вмешательства полиции. Например, одна модель может пометить видео с угоном автомобиля 🚗, а другая - нет, даже если на записях показана похожая активность.

Также было обнаружено, что модели проявляют предвзятости, зависящие от демографических данных района 🚶‍♀️🏘️, реже рекомендуя вмешательство полиции в районах с большинством белого населения. Это явление, известное как несовместимость норм, затрудняет прогнозирование поведения моделей в разных контекстах.

Исследователи подчеркнули потенциальные риски использования генеративных моделей ИИ в критически важных областях, таких как здравоохранение 🏥 и ипотечное кредитование 🏦, без тщательного рассмотрения. В своем исследовании они стремились понять риски использования готовых генеративных моделей ИИ для оповещения домовладельцев и автоматического вызова правоохранительных органов, акцентируя внимание на необходимости более глубокого осмысления и регулирования при развертывании таких моделей.

#neuroco #нейроконтент #машинноеобучение #языковыемодели #нейросеть #нейронка #ArtificialIntelligence
1 минута