По идее сам искусственный интеллект не должен нести никакой опасности, посколько он не человек и не живое существо, который имеет какие-то свои интересы и мотивы.
Возможно, предполагаемые опасности чисто гипотетически могут быть связаны с конкретной заданной задачей и данными для ее решения)…так получается, что будущее за разработкой программ безопасности в отношении ИИ?