Прогнозно к 2026 году общий объём мировых данных достигнет 221 зеттабайта — это примерно 221 триллион гигабайт. Чтобы понять, насколько это много, представьте: Такие объёмы невозможно «просмотреть глазами», поэтому модели обучаются автоматически, анализируя закономерности. Проблема в том, что вместе с полезными закономерностями в этих данных полно искажения, стереотипов, случайных ошибок. Если в данных сохраняются перекосы, AI их повторяет. Классический пример — HR-системы: Массачусетский технологический институт провёл серию тестов и показал, что модели, обученные на несбалансированных данных, принимают предвзятые решения на 25–30 % чаще. Это не злой умысел машины — это отражение старых привычек, зашитых в цифры. Та же логика работает в прогнозах спроса, подборе кредитного рейтинга, даже в рекомендательных алгоритмах соцсетей — модель «любит» то, что видела чаще, и начинает подсовывать нам привычное, а не объективно лучшее. Прогнозируется, что к 2027 году 70 % компаний внедрят процес
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК ЗЕРКАЛО ОБЩЕСТВА: ЧЕМУ АЛГОРИТМЫ УЧАСТСЯ У НАС
5 сентября5 сен
13
2 мин