Найти в Дзене
Коту понятно

Кот Нетупилкин и нейросети

Возраст: 12–14 лет (темы математики и информатики старших классов, но мы объясним всё доступно!) «А что, если ИИ можно кормить данными как котлетами — не больше и не меньше?» — именно так Нетупилкин утром тыкался носом в экран ноутбука, пока Максим читал новость про открытие учёных из МФТИ. Оказывается, они придумали, как определить идеальный объём данных для обучения искусственного интеллекта. Это как найти золотую середину между «мало» (ИИ глупеет) и «много» (учёные тратят годы на сбор информации). И да, тут замешан даже наш кот! Учёные Никита Киселев и Андрей Грабовой использовали два инструмента: расстояние Кульбака–Лейблера (KL-дивергенция) и s-score. Первый показывает, насколько результаты ИИ отличаются от идеальных, второй — насколько они стабильны. Чем больше данных, тем KL-дивергенция стремится к нулю (ошибки меньше), а s-score — к единице (результаты надёжнее). Что это значит?
Объяснение для Алины:
Представь, что ты учишься рисовать котиков. Сначала у тебя получаются каляки
Оглавление

Возраст: 12–14 лет (темы математики и информатики старших классов, но мы объясним всё доступно!)

«А что, если ИИ можно кормить данными как котлетами — не больше и не меньше?» — именно так Нетупилкин утром тыкался носом в экран ноутбука, пока Максим читал новость про открытие учёных из МФТИ. Оказывается, они придумали, как определить идеальный объём данных для обучения искусственного интеллекта. Это как найти золотую середину между «мало» (ИИ глупеет) и «много» (учёные тратят годы на сбор информации). И да, тут замешан даже наш кот!

Создано ИИ
Создано ИИ

Версия 1: Математика против кошачьего любопытства

Учёные Никита Киселев и Андрей Грабовой использовали два инструмента: расстояние Кульбака–Лейблера (KL-дивергенция) и s-score. Первый показывает, насколько результаты ИИ отличаются от идеальных, второй — насколько они стабильны. Чем больше данных, тем KL-дивергенция стремится к нулю (ошибки меньше), а s-score — к единице (результаты надёжнее).

Что это значит?
Объяснение для Алины:
Представь, что ты учишься рисовать котиков. Сначала у тебя получаются каляки (KL-дивергенция большая), но после 100 попыток рисунки становятся идеальными (KL → 0). А s-score — это бабушка, которая каждый раз говорит: «Да, это точно кот!» (s → 1).

Создано ИИ
Создано ИИ

Версия 2: А что говорит Нетупилкин?

«Мяу!» — переводит Алина. Оказывается, метод на основе KL-дивергенции требует больше данных, чем s-score. То есть иногда ИИ можно накормить «меньше котлет», но добиться той же надёжности. Это как если бы кот съел половину порции, но всё равно набрался сил поймать мышку!

Юмор от дедушки Эльдара:
«В моё время ИИ учили на газетных вырезках. А сейчас — целые формулы с котами! Хорошо, что Нетупилкин следит за наукой вместо меня».

Что говорят источники?

  1. «Наука и жизнь» (любимая газета Эльдара): «Это прорыв в оптимизации машинного обучения».
  2. ТГ-канал «Киберкоты»: «Теперь ИИ будет учиться быстрее, чем школьник на каникулах!»
  3. Анонимный эксперт (через Нетупилкина): «Метод особенно полезен для медицинских исследований, где данных часто мало».
Создано ИИ
Создано ИИ

3 факта, которые вы пропустили

  1. Синтетические данные — это «искусственная еда» для ИИ, созданная программой.
  2. Регрессионный набор данных — таблица, где ИИ учится предсказывать числа (например, цену на котят).