1. Оценка систем ИИ с использованием критериев ответственного ИИ все ещё не распространена, но начинают появляться новые критерии.
Прошлогодний индекс AI выявил отсутствие стандартизированных бенчмарков RAI для LLM. Хотя эта проблема сохраняется, новые бенчмарки, такие как HELM Safety и AIR-Bench, помогают заполнить этот пробел.
2. Количество сообщений об инцидентах, связанных с ИИ, продолжает расти.
По данным базы данных инцидентов, связанных с ИИ, количество зарегистрированных инцидентов, связанных с ИИ, в 2024 году возросло до 233, что является рекордным показателем и на 56,4% больше, чем в 2023 году.
3. Организации признают риски RAI, но меры по их снижению отстают.
Опрос McKinsey о вовлеченности организаций в RAI показывает, что, хотя многие и определяют ключевые риски RAI, не все предпринимают активные шаги для их устранения. Такие риски, как неточность, соответствие нормативным требованиям и кибербезопасность, были главными для руководителей, и только 64%, 63% и 60% респондентов соответственно назвали их проблемами.
4. Во всем мире политики проявляют значительный интерес к RAI.
В 2024 году глобальное сотрудничество в области управления ИИ усилилось, с упором на формулирование согласованных принципов ответственного ИИ. Несколько крупных организаций, включая ОЭСР, Европейский союз, Организацию Объединенных Наций и Африканский союз, опубликовали фреймворки для формулирования ключевых проблем RAI, таких как прозрачность и объяснимость, а также надежность.
5. Объем общедоступных данных стремительно сокращается.
Модели ИИ опираются на огромные объёмы общедоступных веб-данных для обучения. Недавнее исследование показало, что ограничения на использование данных значительно возросли с 2023 по 2024 год, поскольку многие веб-сайты внедрили новые протоколы для ограничения сбора данных для обучения ИИ. В активно поддерживаемых доменах в наборе данных общего сканирования C4 доля ограниченных токенов выросла с 5–7% до 20–33%. Это снижение имеет последствия для разнообразия данных, согласования моделей и масштабируемости, а также может привести к новым подходам к обучению с ограничениями данных.
6. Прозрачность исследований модели фонда повышается, но предстоит ещё много работы.
Обновлённый индекс прозрачности модели Foundation — проект, отслеживающий прозрачность в экосистеме модели Foundation — показал, что средний показатель прозрачности среди основных разработчиков моделей вырос с 37% в октябре 2023 года до 58% в мае 2024 года. Хотя эти достижения многообещающие, все ещё есть куда расти.
7. Более точные критерии достоверности и правдивости.
Более ранние бенчмарки, такие как HaluEval и TruthfulQA, направленные на оценку фактичности и правдивости моделей ИИ, не получили широкого распространения в сообществе ИИ. В ответ появились новые и более комплексные оценки, такие как обновлённая таблица лидеров Hughes Hallucination Evaluation Model, FACTS и SimpleQA.
8. Дезинформация о выборах, связанная с ИИ, распространилась по всему миру, но ее влияние остаётся неясным.
В 2024 году многочисленные примеры дезинформации о выборах, связанной с ИИ, появились в более чем дюжине стран и на более чем 10 платформах социальных сетей, в том числе во время президентских выборов в США. Однако остаются вопросы об измеримых последствиях этой проблемы, поскольку многие ожидают, что кампании по дезинформации окажут на выборы более глубокое влияние, чем это произошло.
9. Магистры права, обученные быть явно беспристрастными, продолжают демонстрировать скрытую предвзятость.
Многие продвинутые LLM, включая GPT-4 и Claude 3 Sonnet, были разработаны с мерами по ограничению явных предубеждений, но они продолжают демонстрировать неявные. Модели непропорционально связывают отрицательные термины с чернокожими людьми, чаще связывают женщин с гуманитарными науками, а не со областями STEM, и отдают предпочтение мужчинам на руководящих должностях, усиливая расовые и гендерные предубеждения в принятии решений. Хотя показатели предубеждений улучшились по сравнению со стандартными контрольными показателями, предвзятость модели ИИ остается распространенной проблемой.
10. RAI привлекает внимание академических исследователей.
Количество статей RAI, принятых на ведущих конференциях по ИИ, увеличилось на 28,8% — с 992 в 2023 году до 1278 в 2024 году, продолжив устойчивый ежегодный рост с 2019 года. Эта тенденция к росту подчёркивает растущую значимость RAI в сообществе исследователей ИИ.
Ещё больше исследований на тему трендов и статистики по Искусственному интеллекта 2025 года читайте ваших статьях:
Искусственный интеллект 2025: Исследования и разработки - https://dzen.ru/a/aApZdMINgTm4mRFl
Искусственный интеллект 2025: Технические характеристики - https://dzen.ru/a/aApaM8emNy2seMPN
Искусственный интеллект 2025: Экономика - https://dzen.ru/a/aApbZtLLBmRzovVJ
Искусственный интеллект 2025: Наука и медицина - https://dzen.ru/a/aApcC99DmzM6_Wvu
Искусственный интеллект 2025: В политике и управление - https://dzen.ru/a/aApcjJV1pyEpmF51
Искусственный интеллект 2025: Образование - https://dzen.ru/a/aApc_J12FAAqSrQB
Искусственный интеллект 2025: Общественное мнение - https://dzen.ru/a/aApdYdZP_XeAZOMI
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
Почему стоит выбрать нас:
- Индивидуальный подход: мы создаем решения, адаптированные под уникальный дизайн вашего бизнеса.
- Высокое качество: наши разработки обеспечивают точность и надежность работы.
- Инновационные технологии: использовать передовые технологии и методы, чтобы предложить вам лучшее из мира ИИ.
- Экономия времени и ресурсов: автоматизация процессов и внедрение умных решений помогают снизить затраты и повысить производительность.
- Профессиональная поддержка: Наша команда экспертов всегда готова обеспечить качественную поддержку и консультации на всех этапах проекта.
В использовании искусственного интеллекта уже сегодня — будущее для вас!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru