🌅 Почему ИИ "видит" не так, как мы: открытие от DeepMind Вспомните детскую игру "Найди лишнее" — оказывается, ИИ справляется с ней совсем иначе, чем человек. Современные модели компьютерного зрения определяют объекты в первую очередь по внешним характеристикам (цвет, форма, текстура), а люди мыслят категориями и смыслом. Например, среди морской звезды, кота и лисы человек скорее выделит морскую звезду как лишнюю, ведь это морской обитатель, а ИИ может выбрать кота — только потому что тот выделяется цветом. Это различие не просто теоретическое — оно влияет на надежность решений машинного интеллекта, особенно в сложных задачах. Суть эксперимента DeepMind: ➡️Сначала базовую модель обучили разгадывать "Найди лишнее" накормив ее примерами решения от людей ➡️Затем создали огромный датасет на этой основе ➡️И, наконец, улучшили другие модели, делая их "мышление" более похожим на наше. В итоге новые модели стали устойчивее в своих ответах даже при смене фона, освещения и других внешних де
🌅 Почему ИИ "видит" не так, как мы: открытие от DeepMind
22 ноября 202522 ноя 2025
~1 мин