4052 читали · 3 года назад
Cross-Entropy в Машинном обучении простыми словами
Кросс-энтропия (Перекрестная энтропия) – это Функция потерь (Loss Function), которую можно использовать для количественной оценки разницы между двумя Распределениями вероятностей (Probability Distribution). Лучше всего это можно объяснить на примере. Предположим, у нас есть две модели, A и B, и мы хотели выяснить, какая из них лучше: Примечание. Цифры рядом с точками данных представляют вероятность того, что Наблюдение (Observation) принадлежит к соответствующему классу – цветовой зоне. Например,...
Бинарная кросс-энтропия (Binary Cross-Entropy): математические инсайты и реализация на Python
Бинарная кросс-энтропия, также известная как логарифмическая потеря, это функция потерь, используемая в машинном обучении для задач бинарной классификации. Она измеряет эффективность модели классификации, выход которой - это вероятностное значение между 0 и 1. Что такое бинарная кросс-энтропия? Бинарная кросс-энтропия - это метод, используемый для оценки ошибки прогнозирования классификатора. Потери на кросс-энтропии увеличиваются по мере того, как прогнозируемая вероятность отклоняется от фактической метки...