Как говорится в новостях Пентагон решил не использовать ChatGPT4 в своих целях, а скорее разработать свой искусственный интеллект. Они несколько месяцев назад обсуждали этот вопрос и решили от него отказаться по простым по причинам того, что chatGPT не может точно высказать данные и может прививать, а для таких структур очень важно, чтобы данные были высокоточными и не имели каких-либо погрешностей.
По этой причине у них остается только создать свою собственную генеративную программу, которая будет базироваться на искусственном интеллекте. Они поняли, что им нужны те приспособления, которые могут собирать в целостную картину данные, которые, в свою очередь имеют колоссальное доверие.
Это программа не только должна обучаться на данных и цифрах Пентагона, но и её решения должны быть изложены понятным языком, а то иногда чат пишет, что квадратная катится, а круглое толкается и это они могут принять за чистую монету) Поэтому нужна точность для принятия верных решений.
Им нужно решить много задач, чтобы такую программу создать. Одна из главных проблем это то, чтобы программа научилась объяснять свои действия, иначе командир будет дальше гнуть свою линию и наказывать его нарядами внеочередями), хотя над этой проблемой также размышляют и создатели chatGPT. На первом же месте – это ручной отбор и разметка огромного набора материала и данных для его обучения. Это сложно из-за сложных внутренних данных, которые вообще могут быть и не связуемыми по причине безопасности самих данных. А когда бывает просто. Время покажет, что они смогут придумать, а пока мы валяемся на пляжу и греем свои пузики).
Спасибо за внимание, лайк и подписку, а также за комментарий, который вы оставили, чтобы продолжить обсуждение или же предложить то о чем вы хотели бы ещё почитать.