Как бы это мягко сказать... Маск очень щедр на правду, особенно касательно его проектов в области ИИ. Кто из вас помнит 2016 год, когда он заявил: «На данный момент Model S и Model X могут передвигаться автономно с большей безопасностью, чем человек». А как насчет 2019 года, когда он утверждал, что к концу 2020 года у Tesla будет миллион роботакси? Эти утверждения совсем не выдержали испытание временем! Но недавно Маск еще больше подтолкнул свою репутацию в области ИИ, заявив на X, что ИИ «вероятно, будет умнее любого человека в следующем году» и что «к 2029 году ИИ, вероятно, будет умнее всех людей вместе взятых». Это вызвало реакцию одного из отцов-основателей ИИ, Яна ЛеКуна.
Ян ЛеКун — один из трех отцов-основателей ИИ. В 1990-х и 2000-х годах он разработал техники и технологии, лежащие в основе ИИ. Без его работы ИИ в любой форме сегодня не существовал бы. Неудивительно, что он может быть одним из наиболее уважаемых экспертов в области ИИ сегодня.
ЛеКун ответил на твит Маска: «Нет. Если бы это было так, у нас были бы системы ИИ, которые могли бы научиться водить машину за 20 часов практики, как любой 17-летний. Но у нас все еще нет полностью автономного, надежного самоуправляемого автомобиля, хотя у нас (у вас) есть миллионы часов маркированных тренировочных данных».
Его точка зрения очень метка: системы ИИ по-прежнему ужасно учатся и далеки от того уровня интеллекта, который мы им приписываем. Это не первый раз, когда ЛеКун поднимал эту проблему. В интервью с Observer он заявил, что у современных ИИ примерно столько же вычислительной мощности, сколько у мозга обычного домашнего кота, но они гораздо менее изобретательны, поскольку ИИ все еще не может понимать физический мир, планировать сложные действия или обладать уровнем рассуждений. Таким образом, по словам ЛеКуна, чтобы ИИ достиг сверхчеловеческого уровня интеллекта или просто человеческого уровня интеллекта (также известного как Искусственный общий интеллект или AGI), требуется нечто большее, чем просто масштабирование существующих технологий ИИ. Необходимо что-то новое для достижения этого глубокого уровня мышления, рассуждения и планирования.
ЛеКун далеко не одиночка в мире ИИ. Недавний мета-анализ, в котором были опрошены 1700 исследователей ИИ о том, когда произойдет AGI, показал, что большинство считает, что сверхчеловеческий ИИ либо никогда не случится, либо произойдет в следующем столетии. Другое исследование показало, что общий научный консенсус состоит в том, что высокоуровневый машинный интеллект, соответствующий умственным способностям человека, имеет 50% шанс появиться до 2059 года. Но предсказать это крайне сложно; на пути могут возникнуть непредвиденные тупики, препятствия или ошибочные предположения, которые могут задержать прогресс на десятилетия, так что эти прогнозы могут быть на самом деле очень оптимистичны. Как бы то ни было, эти тысячи экспертов точно не согласны с утверждениями Маска.
Но почему эти эксперты думают, что AGI может никогда не случиться? Дело всё в энергии и данных. Позвольте объяснить.
Начнем с энергии. Группа исследователей изучала, какие энергетические потребности потребовались бы для симуляции всего человеческого мозга с использованием нейронных сетей ИИ. Такая симуляция, по определению, была бы AGI и обладала бы глубоким уровнем мышления, рассуждения и планирования ЛеКуна. Они обнаружили, что питание только этой одной симуляции потребовало бы на порядки больше энергии, чем вся текущая производственная мощность США. Более того, используемая модель мозга, хотя и является наиболее полной из настоящих, далека от завершенности, так что это на самом деле огромное занижение! Чтобы напомнить, это не сверхчеловеческий ИИ; это только уровень интеллекта среднего человека. Таким образом, эти исследователи подытожили, что AGI вряд ли когда-либо воплотится в жизнь, если мы не найдем лучших, более эффективных способов обработки вычислений.
Но даже если мы решим проблему с энергией, у ИИ также есть проблема с данными. Для того чтобы сделать ИИ более продвинутым, его нужно тренировать на все больших и больших наборах данных. Таким образом, он сможет лучше идентифицировать и воспроизводить тенденции в данных, что на самом деле и есть все, что ИИ может делать в настоящее время. Это означает, что компании, занимающиеся ИИ, отчаянно пытаются собирать и использовать больше данных, зачастую обходя закон. Например, OpenAI сталкивается с несколькими исками за использование авторских текстов, таких как книги, для обучения ChatGPT. OpenAI также скребет данные с множества сайтов социальных сетей, и многие создатели видео и постов чувствуют, что им положено вознаграждение, так как именно их данные позволили моделям ИИ OpenAI приносить колоссальную прибыль. Правительства также догоняют эту проблему с законами о защите данных, такими как GDPR ЕС, которые могут остановить компании ИИ от кражи данных людей без разрешения или компенсации.
AGI потребовались бы наборы данных на порядки больше, чем у OpenAI или любой другой компании ИИ на данный момент. Сделать это этично и законно может оказаться чрезвычайно дорого и занять так много времени, что такой AGI окажется нежизнеспособным.
Так что нет, мистер Маск, вы не разблокируете сверхчеловеческий ИИ к концу десятилетия. Вы даже не можете создать самоуправляемый ИИ, который не проезжает на красный свет или не врезается в мосты, не говоря уже о базовых уровнях человеческого интеллекта. Но факт в том, что никто и близко не подойдет к AGI еще как минимум на десятилетия. Так почему же Маск делает эти явно ложные заявления? Ну, это почти как будто вся его личность и огромное богатство основаны на успехе этой технологии…