Сегодня очень часто (и совершенно справедливо) критикуют искусственный интеллект. У него действительно очень много недостатков и слабых мест. Одно из них – гиперинтерпретация, суть которого заключается в том, что алгоритм ИИ делает уверенный прогноз на основе информации, которая не имеет никакого отношения к решаемой задаче. В статье «Безумие ИИ» приведены примеры, когда ИИ распознает объект с точностью выше 90% по фото, на котором отсутствует 95% исходного изображения (нижний ряд фото). «Это значит, что сети, на самом деле, вовсе не учатся распознавать собаку или панду, а вместо этого могут распознать животное просто по типу травы на заднем плане», - пишет автор статьи. «Из-за гиперинтерпретации автономный дрон-киллер способен классифицировать ребенка, как мужчину, на основе чего угодно: узора проплешин травы на газоне, тени деревьев на стене дома ... И такое решение автономного дрона-киллера будет окончательным». И в этом таится огромная опасность. Но давайте задумаемся вот о чем: а