DARPA продолжает искать способы борьбы с галлюцинациями у ИИ. Сейчас они запускают программу под названием CLARA, которая должна создать принципиально новый тип искусственного интеллекта с математически проверяемой надежностью. Американские военные признают, что нынешний искусственный интеллект, построенный на машинном обучении, — это мощная, но непредсказуемая технология, которой опасно доверять критические решения. Суть проблемы: нейросети отлично болтают и генерируют контент, но у них «слабые гарантии». Они врут, галлюцинируют и, главное, не могут объяснить, почему приняли то или иное решение. Для генерации картинок это нормально, а вот для системы управления огнем — фатально. С другой стороны, есть старая добрая логика и автоматические рассуждения, которые надежны и проверяемы, но они ужасно масштабируются и не умеют работать с гибкостью реального мира. Пентагон предлагает гибридное решение — систему, которая объединит гибкость нейросетей с железной логикой классических алгоритм