Может ли один искусственный интеллект писать алгоритмы для другого искусственного интеллекта? Ответ - да. И это уже происходит. Так, ЧатGPT и Гигачат пишут код самостоятельно и вместе с живыми разработчиками. То есть вопроса возможности нет. Есть вопрос доверия.
Можно ли доверить одному искусственному интеллекту проверку результатов и выводов другого ИИ? Будет ли это безопасно? Команда миллионы на ИИ отмечает, что человек с детства учит вести себя безопасно, именно так и формируется безопасное общество. У искусственного интеллекта же нет сдерживающих факторов. Понимание, что можно, что нельзя, что хорошо, что плохо. Это во-первых. А во-вторых, чисто логически, проверяющий ИИ должен быть сильнее того, которого он проверяет. Но зачем тогда вообще использовать более слабый алгоритм, если есть более сильный? И кто проверит этот более сильный искусственный интеллект? Тот же GPT может не просто придумывать факты, но и выстраивать вокруг них доказательную теорию, фальсифицируя даже сноски на