Уязвимость, обнаруженная исследователями, является серьезной проблемой для безопасности больших языковых моделей. Она может быть использована злоумышленниками для распространения вредоносного ПО или дезинформации. В прошлом месяце совет директоров OpenAI внезапно уволил генерального директора компании, что вызвало опасения. Члены совета были обеспокоены стремительным прогрессом в области искусственного интеллекта и возможными рисками, связанными с попытками коммерциализировать эту технологию слишком быстро. Robust Intelligence, стартап, основанный в 2020 году для разработки способов защиты систем искусственного интеллекта от атак, утверждает, что некоторые существующие риски требуют более пристального внимания.
В сотрудничестве с исследователями из Йельского университета Robust Intelligence разработала систематический способ исследования больших языковых моделей (LLM), включая ценный актив OpenAI - GPT-4, используя «противоречивые» модели искусственного интеллекта для обнаружения «во