Возраст: 12–14 лет (темы математики и информатики старших классов, но мы объясним всё доступно!) «А что, если ИИ можно кормить данными как котлетами — не больше и не меньше?» — именно так Нетупилкин утром тыкался носом в экран ноутбука, пока Максим читал новость про открытие учёных из МФТИ. Оказывается, они придумали, как определить идеальный объём данных для обучения искусственного интеллекта. Это как найти золотую середину между «мало» (ИИ глупеет) и «много» (учёные тратят годы на сбор информации). И да, тут замешан даже наш кот! Учёные Никита Киселев и Андрей Грабовой использовали два инструмента: расстояние Кульбака–Лейблера (KL-дивергенция) и s-score. Первый показывает, насколько результаты ИИ отличаются от идеальных, второй — насколько они стабильны. Чем больше данных, тем KL-дивергенция стремится к нулю (ошибки меньше), а s-score — к единице (результаты надёжнее). Что это значит?
Объяснение для Алины:
Представь, что ты учишься рисовать котиков. Сначала у тебя получаются каляки