Найти в Дзене
ТехноLOG

Исторрия развития Искусственного Интеллекта (upd 07 марта 2025)

2020-е годы 2010-е годы В мае 2011 года, в честь 150-летней годовщины Массачусетского технологического института, состоялся симпозиум «Brains, Minds and Machines» («Мозги, умы и машины»), на котором ведущие ученые-информатики, психологи и специалисты в области нейронаук собрались для обсуждения прошлого и будущего искусственного интеллекта и его связь с нейронауками. Выступление Ноама Хомского было критичным, для него новый ИИ — сфокусированный на использовании техник статистического обучения для лучшей обработки данных и выработки предсказаний на их основе — вряд ли даст нам общие выводы о природе разумных существ или о том, как устроено мышление. Эта критика вызвала подробный ответ Хомскому со стороны директора по исследованиям корпорации Google и известного исследователя в области ИИ, Питера Норвига, который защищал использование статистических моделей и спорил о том, что новые методы ИИ и само определение прогресса не так уж далеки от того, что происходит и в других науках. Хомский

2020-е годы

2010-е годы

В мае 2011 года, в честь 150-летней годовщины Массачусетского технологического института, состоялся симпозиум «Brains, Minds and Machines» («Мозги, умы и машины»), на котором ведущие ученые-информатики, психологи и специалисты в области нейронаук собрались для обсуждения прошлого и будущего искусственного интеллекта и его связь с нейронауками. Выступление Ноама Хомского было критичным, для него новый ИИ — сфокусированный на использовании техник статистического обучения для лучшей обработки данных и выработки предсказаний на их основе — вряд ли даст нам общие выводы о природе разумных существ или о том, как устроено мышление. Эта критика вызвала подробный ответ Хомскому со стороны директора по исследованиям корпорации Google и известного исследователя в области ИИ, Питера Норвига, который защищал использование статистических моделей и спорил о том, что новые методы ИИ и само определение прогресса не так уж далеки от того, что происходит и в других науках. Хомский ответил, что статистический подход может иметь практическую ценность, например, для полезной поисковой системы, и он возможен при наличии быстрых компьютеров, способных обрабатывать большие объемы данных. Но с научной точки зрения, считает Хомский, данный подход неадекватный, или, говоря более жестко, поверхностный.

"Пентагону нужен искусственный интеллект, чтобы предсказывать события раньше, чем они происходят"

2000-е годы

В 1970-х и 1990-х годах

Область ИИ стала больше фокусироваться на практических приложениях, таких как машинное обучение, компьютерное зрение и обработка естественного языка.

В 1998 году Яном Лекуном, Коринной Кортес и Кристофером Берджесом, был разработан (усовершенствован) набор данных MNIST.

Возрождение интереса к нейронным сетям и области искусственного интеллекта в 1980-х годах, были пересмотрены и усовершенствованы принципы, что привело к разработке более сложных архитектур нейронных сетей, способных решать нелинейные задачи. Появились алгоритмы обратного распространения, сверточные нейронные сети (CNNS), рекуррентные нейронные сети (RNNS). Эти достижения сыграли решающую роль в возрождении нейронных сетей и их широком применении в таких областях, как распознавание изображений и речи, обработка естественного языка и автономные транспортные средства.

В 1986 году Джеффри Хинтон существенно усовершенствовал алгоритм обратного распространения.

В 1986 год Терренсом Сейновски и Чарльзом Розенбергом разработана инновационная искусственная нейронная сеть NetTalk для решения сложной задачи преобразования текста в речь с особым упором на английский язык.

В 1985 году, вместе с Терри Сейновски, Джеффри Хинтон разработал машину Больцмана, модель стохастической нейронной сети.

В 1982 году в статье "Нейронные сети и физические системы с новыми коллективными вычислительными возможностями" была описана сеть Хопфилда, разновидность рекуррентной искусственной нейронной сети, разработанная Джоном Дж. Хопфилдом.

Набор данных NIST (MNIST) был создан в 1980-х годах группой исследователей из Национального института стандартов и технологий (NIST).

В 1979 году (сформулирована в 2011 году и опубликована в двух статьях в октябре 2017 года) Джеффри Хинтон предложил капсульные сети - новый тип архитектуры нейронных сетей.

А. И. Галушкин впервые в 1974 году описал метод вычисления градиента, который используется при обновлении весов многослойного перцептрона.

В 1973 году и далее Аллен Ньюэлл сыграл ключевую роль в разработке Soar, архитектуры для интеллектуальных агентов общего назначения.

А. И. Галушкин совместно с В. Х. Наримановым в начале 1970-х годов сконструировал собственную версию аппаратного перцептрона.

В 1969 году была впервые опубликована совместная работа Марвина Ли Мински и Сеймура Паперта, двухтомный труд "Персептроны: введение в вычислительную геометрию".

В 1969 опубликована работа "Науки об искусственном" Герберта Александра Саймона - всестороннее исследование искусственного интеллекта и его последствий.

В 1966 году Артур Сэмюэль опубликовал основополагающую статью под названием "Некоторые исследования в области машинного обучения с использованием игры в шашки" в IBM Journal of Research and Development.

С 1964 по 1974 год разрабатывалась одна из первых экспертных систем, предназначенных для оказания диагностической поддержки при инфекционных заболеваниях - MYCIN.

В 1962 году обновленная версия программы для игры в шашки сыграла вничью с чемпионом штата по шашкам.

В 1962 году Джон Маккарти основал Стэнфордскую лабораторию искусственного интеллекта, которая стала центром исследований и инноваций в области ИИ.В 1962 году Фрэнк Розенблатт опубликовал эпохальную статью "Принципы нейродинамики: перцептроны и теория механизмов мозга".

1950-е и 1960-е годы

Развитие машинного обучения и эпохи искусственного интеллекта.

В 1950-х годах в области искусственного интеллекта наблюдался всплеск активности и финансирования, а правительства и частные организации вкладывали значительные средства в исследования и разработки. В это время были разработаны некоторые из первых известных систем искусственного интеллекта, такие как ELIZA.

В 1959 году Артур Сэмюэль ввел термин "машинное обучение".

В 1959 году Артур Сэмюэль опубликовал статью под названием "Программирование компьютера для игры в шашки", в которой описал самообучающуюся программу и представил концепцию "обучения с подкреплением".

В 1958 году в статье "Программы со здравым смыслом" Джоном Маккарти была предложена гипотетическая компьютерная программа, представляющая собой систему, которая могла бы учиться на собственном опыте и со временем повышать свою производительность - The Advice Taker.

В 1958 году Джон МакКарти представил LISP как формальную нотацию для программирования искусственного интеллекта.

Модели персептрона - тип искусственного нейрона, который похож на MCP-нейрон, но использует другую функцию активации, предложенная Фрэнком Розенблаттом в 1958 году, была первой моделью нейронной сети, которую можно было обучить с помощью алгоритма обучения.

В 1957 году Аллен Ньюэлл, Герберт Саймон и Джей Си Шоу разработали General Problem Solver - программу, предназначенную для решения широкого спектра задач путем поиска в пространстве возможных решений с использованием анализа средств и целей.

В 1956 году Аллен Ньюэлл, Герберт Саймон и Джей Си Шоу разработали IPL, один из первых языков программирования высокого уровня, разработанный специально для приложений искусственного интеллекта.

В 1956 году Аллен Ньюэлл, Герберт Саймон и Джей Си Шоу создали The Logic Theorist, которая считается одной из первых программ искусственного интеллекта.

В 1956 году ученый-информатик Джон МакКарти (вместе с Марвином Мински, Натаниэлем Рочестером и Клодом Шенноном, организовав Дартмутскую конференцию) ввел в обиход выражение «искусственный интеллект» (ИИ) для описания науки изучения разума путем воссоздания его ключевых признаков на компьютере.

В 1955 году Джон Маккарти написал предложение для своей докторской диссертации под названием "Предложение для летнего исследовательского проекта в Дартмуте по искусственному интеллекту". Это предложение считается одним из основополагающих документов в области современного искусственного интеллекта.

В 1955 году Джон МакКарти предложил концепцию "языка программирования высокого уровня" LISP.

В 1951 году Уолтер Лиллиенфельд опубликовал влиятельную книгу "Структура личности", где описал модель личности, состоящую из эго, идентификации и суперэго, которая очень напоминает теорию структуры личности Фрейда.

В 1951 году Артур Сэмюэль создал игровую программу крестики-нолики (первоначально известную как "Решение общих задач"), она была написана на языке Фортран и работала на компьютере IBM 701

В 1951 году Артур Сэмюэль закончил разрабатывать самообучающуюся компьютерную программу для игры в шашки.

В 1951 году Артур Сэмюэль создал игровую программу крестики-нолики (первоначально известную как "Решение общих задач").

В 1930-е и 1950-е годы

Область кибернетики переживала расцвет.

В 1948 году Лоран Шварц начал конструировать механический калькулятор и завершил его в 1950 году, который оставался востребованным вплоть до 1980-х годов.

Особенно выделялась работа Уоррена Маккаллоха и Уолтера Питтса, которые в 1943 году разработали математическую модель нейронной сети (нейрон Маккаллоха-Питтса - упрощенное представление биологического нейрона, как фундаментального строительного блока для искусственных нейронных сетей).

В 1947 году опубликована работа Уолтера Лиллиенфельда "Модели реакции на стимул и методы линейной дискриминации".

В 1950-х годах Б. Ф. Скиннер разработал обучающие машины, которые представляли собой механические устройства, предназначенные для обучения студентов новым навыкам с помощью серии небольших шагов, с обратной связью после каждого шага.

Теория оперантного обусловливания, предложенная Б. Ф. Скиннером в 1930 - х годах заложила основу для разработки алгоритмов машинного обучения.

В 1870-е и 1900-е годы

В 1889 году Лоран Шварцшильд представил на Всемирной выставке в Париже аналитический механический калькулятор.

В 1810-е и 1860-е годы

В 1855 году была построена Первая разностная машина Виберга - небольшая машина с ручным приводом, которая могла вычислять значения тригонометрических функций. В 1859 году была построена более крупная и мощная разностная машина, которая могла вычислять более широкий спектр функций, выполнять полиномиальные вычисления вплоть до шестой степени и решать дифференциальные уравнения первого порядка, она была более точной, чем предыдущие механизмы, с точностью до 14 знаков после запятой.

Отец и сын Шутц создали две улучшенные (самостоятельно спроектированные) металлические версии Разностной машины. Первая из них, завершенная в Стокгольме в 1853 году, была доставлена в Англию, где была представлена Королевскому обществу. Вторая работа была завершена в Лондоне в 1859 году и была использована Главным регистрационным управлением Лондона для составления таблицы жизни англичан. Достигли того, что задумал, но не реализовал Чарльз Бэббидж.

В 1829 году в журнале российской Мануфактур-коллегии вышла заметка о "простом мужике, который сам изучил устройство жаккардового станка и затем собрал его копию" (Федор Кондрашов).

Чарльз Бэббидж разработал аналитическую машину, механический компьютер общего назначения, в 1830-х годах (начал работу в 1822).

В 1819 году Чарльз Бэббидж начал конструировать небольшую разностную машину, работы над которой были завершены с относительной готовностью в 1822.

В 1801 году Жозеф Мари Жаккард создал прототип ткацкого станка, а к 1804 году усовершенствовал конструкцию и получил патент на свое изобретение.

В начале 19 века Чарльз Ксавье Томас де Кольмар и Николя-Леонард Сади Карно объединили свой опыт для разработки дифференциальной машины. Это изобретение представляло собой механический калькулятор, способный решать дифференциальные уравнения, которые описывают скорость изменения и широко используются в физике, технике и математике.

В 1770-е и 1790-е годы

Разработанный Вольфгангом фон Кемпеленом, выдающимся изобретателем и эрудитом, Турк впервые появился на публике в 1770 году в Вене, Австрия.

Сконструированное в 1769 году (по некоторым данным в 1788) "Говорящая машина", или "Акустическая машина" устройство имитировало человеческую речь (по некоторым данным воспроизводила голос ребёнка 3-4 лет), механически воспроизводя движения голосовых органов.

В 1620-е и 1690-е годы

В книге "Трудовая этика" Барух Спиноза утверждал, что человеческий разум - это машина, способная обрабатывать информацию и принимать решения.

1 век до нашей эры (100 - 0)

2 век до нашей эры (200 - 100)

Древнегреческий уникальный артефакт Антикитерский механизм, которое использовалось для самых разных целей, включая астрономические наблюдения, хронометраж и даже прогнозирование погоды. Был создан древнегреческим философом, историком, географом и астроном - Посидонием или древнегреческим астрономом, механиком, географом и математиком Гиппархом Никейским (точно не известно).

3 век до нашей эры (300 - 200)

Эллинистический период, время великого интеллектуального и культурного расцвета Древней Греции.

Работы Аристотеля в области логики и категоризации непосредственно повлияли на развитие символьного искусственного интеллекта.

Математику Герону приписывают изобретение "машины Герона", которая была одним из первых примеров простой системы искусственного интеллекта, которая могла выполнять вычисления и принимать решения на основе набора правил.
Евклид также внес значительный вклад в эту область своей работой по автоматизированным доказательствам и алгоритмам, а его тринадцатитомник "Элементы" - это компиляция знаний и теорий ранних греческих математиков, включая Евдокса Книдского, Гиппократа Хиосского, Фалеса и Теэтета.