...и как с этим бороться Продолжаю вчерашний пост об этических проблемах "Шедеврума" со слонятами, на этот раз серьёзно и развёрнуто. Можно долго и весело стебаться над простодушным роботом из-за того, что он отказывается рисовать какие-то абсолютно невинные вещи, но неплохо бы при этом понимать, почему такое происходит. Понимание позволяет если не решить, то хотя бы обойти проблему. Я не создаю нейросети, поэтому не могу утверждать, что я точно знаю, как они работают. Но в случае со слонятами у меня есть версия, и могу поспорить, что она правильная. Для начала напомню: говорить о том, что какие-то нейросети "понимают" запросы на русском языке, не вполне корректно. Нейросети всего лишь принимают запросы на русском языке, затем переводят их на английский и только после этого "понимают" (интерпретируют). Немного моих рассуждений на эту тему можно найти в посте о том, почему графические нейросети иногда выдают в ответ на запрос полную чепуху. А теперь немного лингвистики. В английском язы