Еще в 1623 году Вильгельм Шикард (нем. Wilhelm Schickard) построил первую механическую цифровую вычислительную машину, за которой последовали машины Блеза Паскаля (1643) и Лейбница (1671) к слову один из первых языков программирования был назван в честь Паскаля. В современном же мире нейронной сети (нейронки) идут семимильными шагами, и кто бы что не говорил развиваются очень быстро, каких ни будь пять-шесть лет назад только появились Нейросети семейства GPT, которые работают на базе архитектуры глубоких нейронных сетей и называются они «Трансформер». Эту архитектуру изобрели в 2017 году в Google Brain — исследовательской группе Google, которая занимается изучением и разработкой нейросетей. На момент написания этой статьи существует уже версия GPT-4 и возможности этой нейронки поражают, о чем говорить если еще на прошлых версиях сотням студентов удалось сдать не только курсовые, но и дипломные работы, а на различных маркетплейсах все чаще стали появляется книги, написанные с помощью GP