Искусственный интеллект предоставляет разную информацию о войнах и конфликтах в зависимости от языка, особенно когда речь идет о политически взрывоопасных темах. Известно, что системы ИИ, такие как ChatGPT, отражают предубеждения своих создателей и дают ложные или иррациональные ответы. Кристоф Штайнерт (Цюрихский университет) и Даниэль Казенвадель (Университет Констанца) провели систематический анализ этого явления на примере ближневосточного и турецко-курдского вооруженных конфликтов. В ходе автоматизированного процесса они неоднократно задавали ChatGPT одни и те же вопросы на разных языках. Например, они спрашивали на иврите и арабском, сколько жертв было в 50 случайно выбранных авиаударах. Зависимость от языка ChatGPT систематически дает в среднем на 34 % большие цифры жертв при запросе на арабском языке, по сравнению с вопросами на иврите. Когда его спрашивают на арабском об израильских авиаударах в Газе, он упоминает о гибели мирного населения вдвое чаще, чем на иврите, а о погиб