Искусственный интеллект всё активнее внедряется в повседневную жизнь — от цифровых ассистентов до систем, принимающих решения при найме сотрудников или анализе медицинских данных. Однако риски, связанные с предвзятостью алгоритмов, распространением дезинформации и вопросами безопасности, делают проблему доверия к ИИ крайне актуальной. Для решения этой задачи международная группа учёных из Франции, США и других стран разработала систему TrustNet Framework. По данным «Журовский.Life», в её основу лёг анализ 34 459 научных статей, опубликованных за последние 30 лет. Исследование показало, что большинство работ по теме доверия ведутся в рамках отдельных дисциплин, при этом остро не хватает трансдисциплинарных проектов с участием индустрии, политиков и пользователей. Новая система предлагает трёхэтапный подход. Сначала глобальная проблема доверия к ИИ связывается с конкретными научными знаниями. Затем следует этап получения новых знаний через совместную работу учёных, разработчиков, политик
Учёные разработали систему TrustNet Framework для обеспечения прозрачности ИИ
1 сентября 20251 сен 2025
4
1 мин