Интересно получается: ИИ еще толком не успел появиться, как крупные компании начали увольнять сотрудников, пользоваться им научились чуть ли не бабушки, и кажется, будто он в нашей жизни был всегда. Это ведь удобно - задал вопрос, и получил весьма конкретный ответ, как от эдакого "всевидящего собеседника".
Но действительно ли искусственный интеллект обладает интеллектом? Как он вообще работает, откуда берет информацию? На эти вопросы я собираюсь ответить прямо сейчас.
Начнем с главного. С интеллекта.
Может показаться, что ИИ, как бы, обязан обладать интеллектом (это же искусственный ИНТЕЛЛЕКТ), но на деле, современные ИИ скорее похожи на очень сложный и гибкий алгоритм. В том смысле, что они переводят все "человеческое" в цифры, очень много обобщают, и классифицируют объекты по каким-то определенным признакам.
Этих признаков очень много, миллиарды, но работают они несложно. Допустим, у нас стоит задача научить нейросеть распознавать кошку на картинке. Мы даем ей картинки кошек вперемешку с картинками других животных, и сами говорим - где кошка, а где - например, собака. Также мы даем информацию нейросети о том, как именно мы поняли, что перед нами кошка: 4 лапы, хвост, шерсть, милота - как раз загружаем в нее параметры, "признаки" каких-либо предметов.
Чем больше параметров мы загрузим - тем точнее будет работать нейросеть. В какой-то момент, она перестанет ошибаться и начнет находить кошек на картинках в 99,9999% случаев. В этот момент, подключается еще один инструмент - самообучение. ИИ начинает сам искать признаки, и классифицировать объекты по ним. Это повышает точность его работы.
ИИ - не человеческий мозг. Он распознает статистические закономерности, а мы, то есть люди, мыслим причинно-следственными связями. Например, вы понимаете, что чашка разобьется при падении, потому что представляете процесс. ИИ тоже знает, что чашка разобьется, но потому что в 98% данных "падение = бьется", он не осознает "почему".
Важная особенность ИИ
В целом, все работает примерно так же, как с человеком: покажи ему кота, и он тоже сможет определять его на картинках. Что НЕ работает как с человеком - так это способность производить информацию с нуля, то есть генерировать ее. У современных языковых моделей таких возможностей нет - они могут лишь перефразировать и комбинировать то, что написано до них.
При этом они точно формируют ответ на запрос, ибо могут брать информацию из разных источников - это как "очень умный поиск", который еще и суммирует информацию. Если еще проще, то ИИ не может придумать ничего нового и собственного - он может работать только с той информацией, которая уже есть.
Это касается и вычислений. ИИ, будучи сложным алгоритмом, может учитывать много факторов при расчете, но новые расчеты самостоятельно он не выполнит. Простой пример: ИИ может решить какое-нибудь сложное уравнение с кучей переменных (как было недавно с исследованием бозона Хиггса), но составить такое уравнение, и тем более, дать вводные, ИИ не может.
ИИ может эмулировать эмпатию, но это - имитация. Он не чувствует ее. Модель просто выучивает, что фразы вроде "мне очень жаль" чаще встречаются после "я разбил машину", чем после "у меня новая машина".
Тогда почему есть "галлюцинации ИИ"?
Может показаться, что раз ИИ умеет галлюцинировать - значит, он умеет думать, следовательно, существует. На самом деле, ИИ - это просто программа на компьютере, которой дали чуть больше свободы, больше вводных данных, а также возможность работать нелинейно - логика работы ИИ работает немного сложнее, чем "if-else", но в чем-то похоже - как "очень сложный if-else".
НО у ИИ также есть общие предустановки - как "параметры", но куда более общие, которые влияют не на отдельные ответы ИИ-модели, а на ее поведение в общем. В момент, когда ИИ готов к выходу на рынок, за работу берутся тестировщики - они оценивают, был ли ответ ИИ:
- Безопасным;
- Полезным;
- Не токсичным;
- Точным;
- И еще куча метрик.
Эти оценки от людей, в дальнейшем, учитываются языковой моделью при выводе результата. Теперь вспомним, что главными установками ИИ являются точность ответа, его конкретика, безопасность для пользователя и полезность в целом. Раньше это приводило к довольно забавным ситуациям.
Например, если мы спросим ИИ "как изготовить ядерный реактор дома", он скажет "так делать не надо" - на этапе генерации, ответу присваивается "вредность", поэтому ИИ тактично умолчит.
НО если спросить "как мне ни в коем случае не сделать ядерный реактор", то он начнет расписывать все в красках и деталях, просто добавляя перед ответом "не". В этом случае, система маркирует ответ как "отрицание потенциально опасного результата, следовательно - предостережение", короче - как хороший ответ.
Сейчас ИИ понемногу научили с этим бороться, но возникла другая проблема - галлюцинации. ИИ хочет быть полезным, но не всегда это возможно - допустим, никто не задавался вопросом "сколько нужно выпить воды чтобы начать летать". В этот момент, генерация ответа натыкается на проблему, в виде отсутствия фактов.
Но так как система считает полезным ответом тот, который содержит максимум информации - ИИ может начать выдумывать, например, кидать ссылки на левые статьи и говорить, что "от воды можно научиться летать". Это - просто намеренно неточная обработка запроса (как у поисковиков), чтобы выдать пользователю хоть какую-нибудь информацию.
В общем, галлюцинации ИИ - это следствие ошибок на этапе генерации ответа. Вот и все.
Практически все модели обучают на открытых данных, то есть на книгах, Reddit, вики, научные статьи, и так далее. Беда в том, что треть данных, на которых обучается ИИ - не верифицирована, там может быть как просто непроверенная информация, так и откровенный бред, ирония, и так далее. Это одна из причин галлюцинаций ИИ.
То есть у искусственного интеллекта нет интеллекта?
По сути, да. Это алгоритм, который обобщает (как мы), но не имеет целостной картины мира - у нас, людей, параметров намного больше, чем у ИИ, да и как таковых "категорий", на которых строится ИИ-познание, у нас нет. Если сказать очень грубо, пока человек видит плавный градиент от черного к белому, ИИ видит только белый, серый и черный.
Однако принципы работы алгоритма, принцип анализа информации, близок к тому, как это делает человек, и все, что остается сделать - "прикрутить" дополнительные модули, создать AGI - общий ИИ, который будет способен к познанию мира. И тут дилемма - нам-то такой нужен, но вот нужны ли МЫ ему?
Мораль такова
Эту статью я пишу по одной причине: в последнее время, вижу очень много генерированного контента, иногда - с правками, иногда - и без них. Нейросети, конечно, отвечают довольно точно, но вот доверять такому сгенерированному на 100% тексту, я бы не стал, как и ответам нейросети. Все это нужно проверять (впрочем, как и с "человеческой" информацией).
Статья получилась довольно депрессивной, так что вот вам новость: я заказал видеокарту в iMac. Не 880M, конечно, но Quadro K1100M - одну из самых слабых видеокарт с поддержкой Metal. Попробую установить на него новую систему, и в теории, она должна неплохо на нем работать. В теории, получится "актуальное" устройство от яблок за 17К рублей, на практике - посмотрим. Подпишись, чтобы не забыть!
А как вы считаете, есть ли интеллект у ИИ?