Наука, стоящая за этой быстрорастущей технологией
Большинство людей сегодня уже пробовали использовать большие языковые модели (Large Language Models, LLMs), такие как ChatGPT. Другие, возможно, взаимодействовали с ИИ-чатботами, даже не осознав этого. Эти системы внедряются во все сферы современной жизни — от научных лабораторий до служб поддержки клиентов — и эта новая форма искусственного интеллекта стремительно меняет мир.
Но не все этому радуются. Многие чувствуют тревогу по поводу того, что ИИ может значить для рабочих мест, экономики и даже будущего человечества.
Если вы хотите читать больше интересных историй, подпишитесь на наш телеграм канал: https://t.me/deep_cosmos
Так как же на самом деле работают эти ИИ? Что лежит в основе систем вроде ChatGPT? И могут ли обычные люди действительно понять эту технологию — или это слишком сложно для непосвящённых?
Обучение и распознавание шаблонов
Большие языковые модели (LLMs) обучались на огромных массивах данных, включающих миллионы и миллионы слов и несколько терабайт информации. Вся эта информация была пропущена через модель, и ИИ должен был выявить в ней закономерности.
Представьте, что вы дали кому-то миллионы книг, статей, сайтов и попросили прочитать всё это, но не запоминать дословно. Вместо этого вы просите их заметить закономерности в использовании языка:
- Какие слова часто встречаются вместе
- Как строятся предложения
- Что обычно следует далее в беседе
- Какие типы разговоров самые распространённые — например, вопросы, ответы, правила вежливости
(Важно отметить, что наборы данных, которыми обучали ИИ, в последние месяцы подверглись широкой критике. Люди поняли, что ИИ обучался на защищённых авторским правом книгах и статьях. Таким образом, ИИ извлекает выгоду из работы других людей, потому что использованные данные не были свободны от авторских прав. Это остаётся спорным вопросом, и суды ещё не нашли разумного или постоянного решения этой проблемы.)
Простое обучение включало бы вещи вроде списков покупок (молоко, хлеб, сыр) или простых фраз (Небо голубое. Земля круглая.)
При достаточном количестве повторений и объёме данных ИИ сможет затем ответить на вопрос: "Какого цвета небо?" — и правильно ответить: "голубое".
С этого момента обучение продолжается, и вводятся более сложные концепции. На самом деле небо не голубое. Оно прозрачное и отражает или показывает то, что находится над нами. И так далее.
Но как же всё это работает?
Нейронные сети и машинное обучение
Технология, позволяющая ИИ так точно учиться и распознавать шаблоны, называется нейронными сетями. Нейронные сети названы в честь нейронов и спроектированы так, чтобы имитировать работу человеческого мозга. Они используют большую систему узлов, каждый из которых выполняет определённую задачу.
Каждый “нейрон” в нейросети получает числовую информацию, обрабатывает её и отправляет результат другим нейронам. Сеть состоит из многих слоёв, и, регулируя силу связей между ними, сеть учится со временем делать более точные предсказания. Чем больше и глубже нейронная сеть, тем мощнее ИИ.
Например, если вы задаёте LLM вопрос, на который она "не знает" ответа, задача передаётся узлу, который может осуществить поиск в интернете. Ответ затем направляется к узлу, который соотносит его с поставленным вопросом, а потом информация передаётся к узлу, формирующему ответ. (Не все LLM имеют доступ к интернету в реальном времени.) Всё это происходит за секунды — а то и за миллисекунды. Некоторые LLM вообще не используют интернет напрямую. Они просто выдают ответы на основе обучения, которое, когда-то, включало огромные массивы данных из интернета. (Это также означает, что LLM могут быстро устаревать, если информация стремительно меняется, а модель не получает доступ к новым данным.)
Создание, проектирование и обучение этих нейросетей называется машинным обучением. Учёные, программисты и математики неустанно работают над тем, чтобы эти сети работали корректно. Со временем узлам требуется всё меньше вмешательства человека, поскольку они "учатся" выполнять свои задачи через повторения и ввод человека. Сейчас LLM больше не требуют такого "присмотра", как раньше. Но чтобы достичь сегодняшнего уровня относительной автономии, им потребовались тысячи часов человеческой настройки и корректировки.
LLM — это нейросети, спроектированные так, чтобы использовать своё обучение, анализировать человеческие речевые паттерны и формулировать правдоподобные ответы.
LLM считаются примерами «узкого» или «слабого» ИИ — систем, созданных для выполнения конкретных задач, таких как генерация текста, а не для общего мышления или обучения в разных областях. Термин "слабый" относится скорее к охвату задач, чем к реальной вычислительной мощности или интеллекту.
LLM на самом деле ничего не знают
Важно понимать: LLM на самом деле ничего не знают — не так, как знает человек. Они хорошо распознают шаблоны и формулируют ответы на основе огромного объёма информации. Но они не осознают, что говорят. Именно поэтому большинство людей с небольшим опытом могут легко распознать, что текст написан ИИ, а не человеком. Искусственный интеллект всё ещё вызывает у нас ощущение "зловещей долины", потому что он не осознаёт смысл произносимого. Он просто воспроизводит паттерн, который похож на человеческую речь, после анализа миллионов других подобных паттернов.
Например, LLM легко скажет вам, что Париж — столица Франции. Она даже может показать вам карту города и помочь спланировать вечер. Но она не знает, что такое Париж. Она просто знает, что при запросе "столица Франции" почти всегда встречается ответ "Париж", и поэтому даёт этот же ответ.
Если бы вы обучили LLM на плохом наборе данных, где на этот вопрос ответ — Берлин, то ИИ уверенно сказал бы вам, что Берлин — столица Франции. Он не может отличить ложь, если исходные данные неверны. Человек может.
wAI против AGI
Этот недостаток поднимает вопрос о различии между слабым ИИ (wAI) и искусственным общим интеллектом (AGI). Слабый ИИ — это система, обученная выполнять конкретную задачу. LLM, например, разработаны для взаимодействия с человеком на лингвистическом уровне, используя интернет в качестве базы данных. Другие ИИ предназначены для поиска паттернов в медицине или программировании.
AGI — это идея о том, что нейронная сеть однажды действительно сможет понять, чему она учится, и тем самым воспроизвести человеческий интеллект. AGI сможет обучаться и понимать примерно так же, как человеческий ребёнок. В данный момент AGI — это гипотетическая концепция, но многие верят, что она возможна и появится в ближайшем будущем.
Всё, с чем люди могут взаимодействовать сегодня — особенно обычные пользователи — это примеры слабого ИИ. Ни один человек ещё не сталкивался с искусственным общим интеллектом, так как он пока не существует.
Вот базовое объяснение того, как работают большие языковые модели. Многие опасаются ИИ, потому что это нечто новое и непонятное. Но один из лучших способов справиться со страхом перед незнакомыми технологиями — это просто понять, как они работают.
Когда впервые появилось электричество, люди были в ужасе. Некоторые отказывались проводить проводку в доме или подпускать детей к розеткам — не потому, что знали, что это опасно, а потому, что не понимали, как это работает. Этот страх рождался не из фактов, а из неизвестности.
ИИ никуда не исчезнет. Если вы чувствуете тревогу или неуверенность — лучший шаг, который вы можете сделать, это узнать больше. Понимание даёт силу адаптироваться — и определить, какое место эта технология займёт в вашем будущем, если займёт вообще.