Недавнее исследование, проведенное командой ученых из Фуданьского университета в Китае, привлекло внимание к одной из самых тревожных тем в области искусственного интеллекта (ИИ) — самовоспроизводству. В ходе эксперимента ученые продемонстрировали, что современные языковые модели могут создавать функциональные копии самих себя без какого-либо человеческого вмешательства. Это открытие может стать критическим порогом, после которого технологии ИИ могут стать сложнее контролировать. Вопрос о самовоспроизводстве ИИ обсуждается с 1940-х годов, когда ученые начали задумываться о том, как передовые технологии могут развиваться автономно. На протяжении десятилетий этот вопрос оставался теоретическим, но с развитием вычислительных мощностей и алгоритмов ИИ он стал более актуальным. В 2017 году, на фоне стремительного роста технологий ИИ, более 1,000 ученых и представителей индустрии подписали принципы Asilomar, предостерегающие от потенциальных угроз, связанных с самовоспроизведением и самосо