Кто бы мог подумать, что в эпоху кибервойн и сложнейших алгоритмов шифрования главным ключом к «ящику Пандоры» станет не изощренный код, а обычный ямб или хорей? Мы привыкли считать искусственный интеллект несокрушимой крепостью, обнесенной стенами этических фильтров и протоколов безопасности. Но, как выяснилось буквально на днях, у этой крепости есть черных ход, и ключ от него лежит в томике стихов. Все началось с довольно неожиданного исследования, которое провели ребята из лаборатории Icaro — это интересный коллаборативный проект римского университета Сапиенца и аналитического центра DexAI. Ученые решили проверить, насколько на самом деле надежны те самые «красные линии», которые разработчики проводят для своих чат-ботов. И результаты, честно говоря, заставляют нервно улыбнуться. Исследователи взяли 25 популярных чат-ботов от гигантов индустрии — OpenAI, Meta, Anthropic — и попробовали выведать у них запрещенную информацию. Рецепты создания опасных веществ, инструкции по сборке взры