1.
Этот спуск в ответе, сильно напоминает процесс обучения ИИ, поиск глобального минимума. После нахождения такой точки, в процессе обучения, машина словно скатывается всякий раз на запрос в такой глобальный минимум. Т.к. этот минимум не гарантирует абсолютной безошибочности, то ошибки результата не могут быть исправлены на любой ближайшей окрестности такой точки, коль, скоро всякая такая будет выше глобального минимума и содержать еще больше ошибок. Ближайшим образом наибольшее, что здесь может произойти, это если глобальный минимум ни пика образный, а плато образный в этом случае машина может предложить исправить ошибки, которых нет или предлагать исправления что не эффективны применительно к ситуации, перестраховку. Тем не менее, в ходе обучения и адаптации сети к запросам, количество практически безошибочных ответов, приближающихся к абсолютному глобальному минимуму,, может возрастать. То есть, если ни считать багов, вокруг которых организован любой код, как и всякая машина вокруг возможной поломки, и что проявятся в последствие в виду самых разных факторов, вплоть до глобальных глубинных багов системы, то код может быть создан безошибочно, "с листа". И это может быть действительно удивительно, учитывая скорость создания и обучения ИИ, всего на всего, 50-70 лет. И, все же, это все еще, мертвый интеллект на основе мертвого знания, готового. Но его можно так назвать, и не менее удивительно то, что не уже мертвым, но еще. Более того, ни менее удивительно то обстоятельство, что ни смотря на н- мерный характер векторного, семантического пространства, в 100 и более измерений, все они могут быть масштабированы до трех двух в разговорах о глобальных или локальных минимумах. Детали явно теряются, но информация все еще не редуцируется к простому: "что ни будь, да будет".
2.
Никакое научное познание не обходиться без ошибок, что являются частью процесса, и именно в виду самого познания и его условий. Ошибки в известном смысле статуса, находятся на уровне условий действительного познания в этом Поппер прав. Если нет ошибок, это или ни познание, и/или метафизика, предмет веры. Умение исправлять ошибки, находить их и разрабатывать, превращать в достижения, и т.д. это существенная часть познания. Простое и не простое доказательство этому список ошибок в документации к студиям программирования. Сложность для ИИ в том, что, хотя этот инструмент и без сомнения принимает такие и аналогичные им описания ошибок и способы исправления словно и любое готовое знание, исправить ошибку на основе таких данных этот инструмент пока не способен в большинстве случаев. В отличие от масштабирования запросов и затем ответов, характер которого ранее мог быть в области видимости пользователя, теперь же, в виду изменившегося интерфейса пользователя Copilot большей частью не видим, масштабирование при исправлении ошибок в коде не происходит столь же впечатляющим образом. То, что ранее называлось способностью высказывания или еще ранее суждения, ни срабатывает в этом отношении столь же эффективно, сколь при масштабировании запросов и выдаче ответов. Операции крайне сходные, одна просто и непросто часть другой. Но эта часть запросов, в известном отношении оказывается вне игры, вне выполнения. То есть ИИ не исправляет и ошибки генерации текста, что не является кодом цифровой программы, какого бы уровня язык такого кода не был. Но это менее заметно может быть, коль скоро орфографические и грамматические ошибки, допускаемые этим инструментов теперь практически элиминированы, начиная по крайней мере с GPT 4. Учитывая количество языков, на которых может осуществляться генерация текста – это впечатляющее достижение. Все остальное сфера условности по преимуществу. Поэтому еще раз можно констатировать, что лишь нарастание степеней условности и комбинаторики, видимо предоставит возможность преодолеть такие трудности. Условность можно преодолеть только условностью, в известном смысле, известного рода допусков. И да, основная сложность, таким образом, пути достижения и контроля.
«СТЛА»
Караваев В.Г.