Добавить в корзинуПозвонить
Найти в Дзене
Умен и богат

В США хотят создать ИИ, который превзойдет человека. На это потратят $500 млрд. Получится? Вряд ли: пока нейросети «не умнее кошки»

Подпишитесь на канал "Жизнь Дурова: ЗОЖ, деньги, ИТ" - все самое главное о здоровье, технологиях и деньгах Общим (или сильным) искусственным интеллектом принято называть автономную ИИ-систему, которая сможет решать широкий спектр задач с минимальным участием человека. Считается, что она будет делать это не хуже, а возможно даже лучше своих создателей. Разработка подобной системы — первоочередная задача большинства компаний, занимающихся искусственным интеллектом, в том числе OpenAI (это прописано в ее уставе), Meta, Google DeepMind, xAI Илона Маска и многих других. Существующие генеративные модели относят к узкому (или слабому) ИИ. Несмотря на то, что разработчики довольно часто применяют в отношении таких систем слово «думают», на полноценные размышления они не способны. Генеративный искусственный интеллект ограничен тем объемом и качеством данных, который использовался в процессе его обучения. Такая система не просто повторяет известную ей информацию — она способна обобщать, интерпре
Оглавление

До сих пор непонятно, что считать сильным ИИ. Одно ясно точно — сейчас искусственный интеллект уступает даже домашним животным

Подпишитесь на канал "Жизнь Дурова: ЗОЖ, деньги, ИТ" - все самое главное о здоровье, технологиях и деньгах

Общим (или сильным) искусственным интеллектом принято называть автономную ИИ-систему, которая сможет решать широкий спектр задач с минимальным участием человека. Считается, что она будет делать это не хуже, а возможно даже лучше своих создателей. Разработка подобной системы — первоочередная задача большинства компаний, занимающихся искусственным интеллектом, в том числе OpenAI (это прописано в ее уставе), Meta, Google DeepMind, xAI Илона Маска и многих других.

Существующие генеративные модели относят к узкому (или слабому) ИИ. Несмотря на то, что разработчики довольно часто применяют в отношении таких систем слово «думают», на полноценные размышления они не способны.

Генеративный искусственный интеллект ограничен тем объемом и качеством данных, который использовался в процессе его обучения.

Такая система не просто повторяет известную ей информацию — она способна обобщать, интерпретировать и упрощать ее в соответствии с запросом пользователя. Но это не совсем соответствует тому, что принято считать «пониманием» информации.

Именно эту проблему и должен решить общий искусственный интеллект. Его разработчики мечтают, что в идеале AGI сможет продемонстрировать нечто похожее на человеческое сознание.

То есть, он не просто будет генерировать ответы на основе загруженных в него обучающих данных, но и рассуждать, обосновывать свои решения, выстраивать сложные логические цепочки, обладать определенными знаниями об окружающем мире, постоянно обучаться и развиваться, а также комбинировать все эти способности для решения сложных задач. В том числе тех, которые не были изначально предусмотрены разработчиками.

Впервые термин «сильный ИИ» использовал американский философ Джон Роджерс Сёрл в научном журнале Behavioral and Brain Sciences в 1980 году. В статье под названием «Minds, brains, and programs» он описывал мысленный эксперимент «Китайская комната» и использовал такое определение: «Согласно сильному ИИ, компьютер — это не просто инструмент для изучения разума; напротив, правильно запрограммированный компьютер — действительно разум в том смысле, что компьютеры, оснащенные соответствующими программами, буквально могут понимать и обладать другими когнитивными состояниями».

Термин AGI появился во второй половине 1990-х годов (его использовал ученый-физик Марк Губруд), а более широкое распространение получил уже в начале 2000-х. Этому предшествовали несколько десятилетий безуспешных попыток ученых создать полноценный искусственный интеллект, который мог бы заменить человека. Однако большинство оптимистичных прогнозов исследователей так и не сбылись — ни по срокам, ни по возможностям ИИ.

При этом в индустрии до сих пор нет единого мнения по поводу того, что конкретно скрывается за определением AGI и какими именно возможностями он должен обладать. В том числе потому, что помимо научных проблем исследователи часто сталкиваются с философскими.

Например, все еще непонятно, что вообще понимать под человеческим сознанием.

Достаточно ли общему ИИ пройти тест Тьюринга или он должен демонстрировать (точнее, имитировать) силу воли, эмоции и самосознание? Способна ли машина в принципе осознать себя как машина, или она может повторять лишь то, что в нее было заложено изначально разработчиками? И, наконец, нужно ли все это AGI на самом деле? Или для того, чтобы признать его существование, достаточно масштабировать возможности слабого ИИ до того предела, когда большинство пользователей не смогут отличить его возможности от человеческих?

На все эти вопросы нет однозначных ответов, чем пользуются некоторые современные разработчики искусственного интеллекта. Например, OpenAI дает пространное определение: «Наша миссия — гарантировать, что общий искусственный интеллект — ИИ-системы, которые в целом умнее человека — принесут пользу всему человечеству⁠». Под такую формулировку компания может подвести едва ли не любую свою разработку.

Например, в сентябре 2024 года компания представила новую модель искусственного интеллекта под названием OpenAI o1. Для ее создания применяли другой тип обучения. Предыдущие ИИ-модели используют в ответах готовые шаблоны, полученные из массивов загруженных в них данных. Для o1 использовали «обучение с подкреплением», в рамках которого систему поощряют или наказывают в ходе взаимодействия с внешней средой.

Некоторые исследователи внутри OpenAI считали эту систему прорывом в процессе создания AGI. По слухам, она даже стала причиной конфликта внутри компании и временного увольнения Сэма Альтмана с поста гендиректора. Он якобы слишком легкомысленно относился к этой разработке, а ученые, напротив, предупреждали о возможной опасности такой системы для человечества.

Однако OpenAI o1 все же вышла, более того, разработчики уже представили следующую модель в этом семействе, но человечеству они не навредили. Ян Лекун, один из ведущих исследователей искусственного интеллекта и вице-президент корпорации Meta, считает, что все опасения по поводу безопасности на данном этапе развития ИИ бессмысленны.

«Мне кажется, что прежде чем „срочно разбираться с тем, как контролировать ИИ-системы, которые намного умнее нас“, нам нужно хотя бы наметить дизайн системы, которая была бы умнее домашней кошки», — написал ученый в X в мае 2024 года.

Лекун отмечал, что кошки обладают ментальной моделью физического мира, устойчивой памятью, некоторыми способностями к рассуждению и умением планировать. Ни одна из передовых ИИ-систем до сих пор не обладает такими качествами. В том числе и те, которые разрабатывает сама Meta.

Многие предсказывают появление AGI в течение пяти лет. Но сложно сказать, будут ли такие системы по-настоящему продвинутыми

Представления об общем ИИ, которыми руководствуются сами компании, могут принципиально отличаться от того, что они транслируют на широкую публику. Например, в конце декабря 2024-го стало известно, что OpenAI и ее главный инвестор, компания Microsoft, дали собственное внутреннее определение AGI. И оно основано не на возможностях новой системы, а на финансовых показателях.

По данным The Information, еще в 2023 году компании подписали соглашение, в котором говорилось, что OpenAI достигнет AGI только тогда, когда разработанные ей ИИ-системы смогут генерировать не менее 100 миллиардов долларов прибыли. Никаких технических, и тем более философских определений этот документ не содержит. Пока OpenAI далека от этих показателей — по данным журналистов, компания не рассчитывает стать прибыльной как минимум до 2029 года.

Формально это внутреннее определение AGI — юридическая уловка со стороны Microsoft. В октябре 2024-го журналисты The New York Times рассказывали, что в контракте между партнерами есть особый пункт. В нем говорится, что если разработчики создадут общий ИИ, то Microsoft потеряет доступ к технологиям OpenAI. Такая формулировка позволяла правлению компании в любой момент отказаться от сотрудничества с Microsoft, представив под видом AGI более простую систему.

В последнее время сотрудники OpenAI все чаще жалуются на то, что их главный партнер не предоставляет достаточно вычислительных мощностей, пишет The New York Times со ссылкой на свои источники. Поэтому Альтман ищет разные способы, чтобы избавиться от контрактных ограничений, например, с помощью проекта Stargate.

Размытые определения общего искусственного интеллекта позволяют разработчикам делать довольно оптимистичные прогнозы по срокам появления AGI. Так, глава подразделения Microsoft AI Мустафа Сулейман считает, что на разработку такой системы может потребоваться пять-семь лет. Однако для этого необходимо более современное оборудование. Похожей оценки придерживается Илон Маск — по его прогнозам, AGI может появиться уже в 2029 году.

Сэм Альтман согласен, что пять лет — достаточно для создания общего ИИ. При этом он осторожно отметил, что эта технология вряд ли приведет к серьезным изменениям в обществе, как предполагалось изначально. Глава OpenAI считает AGI лишь первым шагом на пути к следующему этапу — созданию суперинтеллекта, который будет превосходить самых гениальных и одаренных представителей человечества.

Ян Лекун считает, что на создание ИИ, способного достичь человеческого уровня, могут уйти десятилетия. В том числе потому, что они существуют в двухмерной концепции. «Нам нужны машины, которые понимают мир, которые могут запоминать, которые обладают интуицией, имеют здравый смысл, которые могут рассуждать и планировать на том же уровне, что и люди», — отметил ученый.

Лекун предполагает, что для решения более сложных задач необходимо создавать трехмерные ИИ-модели с принципиально иным типом архитектуры. Но пока разработчики не достигли большого прогресса в воплощении подобных систем в реальность.

Подпишитесь на канал "Жизнь Дурова: ЗОЖ, деньги, ИТ" - все самое главное о здоровье, технологиях и деньгах