Конкуренция за создание iPhone с искусственным интеллектом накаляется.
Во вторник технологический стартап Rabbit представил своего конкурента: небольшое оранжевое устройство в стиле портативной рации, которое, по словам компании, может использовать “агентов искусственного интеллекта” для выполнения задач от имени пользователя.
В заранее записанном программном выступлении, показанном на выставке CES2024 в Лас-Вегасе, основатель Rabbit Джесси Лю просит устройство спланировать ему отпуск в Лондоне. В сообщении показано, как устройство разрабатывает для него маршрут и бронирует поездку. Он заказывает пиццу, заказывает Uber и учит устройство генерировать изображение с помощью Midjourney.
Гаджет, получивший название Rabbit r1, является лишь последним в набирающей популярность категории нового оборудования: портативных устройств на базе искусственного интеллекта, которые могут взаимодействовать с пользователями на естественном языке, избегая экранов и операционных систем на основе приложений. Продаваемый в розницу за 199 долларов, r1 является более дешевым конкурентом Humane Ai Pin, носимого устройства стоимостью 699 долларов, представленного в ноябре прошлого года и предлагающего аналогичный набор возможностей, и смарт-очков Meta и Rayban стоимостью 299 долларов, которые оснащены помощником на базе искусственного интеллекта.
Известные технологические инвесторы делают ставку на то, что новые достижения в области искусственного интеллекта, такие как большие языковые модели (LLM), откроют новые перспективы персонализированных вычислений. Генеральный директор OpenAI Сэм Альтман является инвестором в Humane. Сообщается, что Альтман и Масаеси Сон из Softbank ведут переговоры о разработке отдельного аппаратного продукта для искусственного интеллекта с дизайнером iPhone Джони Айвом. Rabbit финансируется на сумму 30 миллионов долларов венчурной компанией миллиардера Винода Хосла Khosla Ventures. По мнению этих миллиардеров, тот, кто сможет спроектировать соответствующий форм-фактор оборудования, крупно выиграет в эпоху искусственного интеллекта.
Rabbit r1 основан на новом типе системы искусственного интеллекта, называемой “моделью большого действия”, - сказал Лю во время своего основного выступления, представляя устройство. По его словам, проблема с большими языковыми моделями, технологией, на которой основаны такие инструменты, как ChatGPT, заключается в том, что им трудно выполнять действия в реальном мире. Вместо этого большая модель действий Rabbit обучена графическим пользовательским интерфейсам, таким как веб-сайты и приложения, что означает, что она может перемещаться по интерфейсам, предназначенным для людей, и выполнять действия от их имени. “Такие вещи, как ChatGPT, чрезвычайно хороши для понимания ваших намерений, но могли бы быть лучше в принятии мер”, - сказал Лю. “Большая языковая модель понимает то, что вы говорите, но модель большого действия доводит дело до конца”.
Чтобы предоставить r1 возможность делать такие вещи, как бронирование отпусков, заказ пиццы и вызов Uber, пользователям необходимо будет войти в свои различные учетные записи через веб-портал Rabbit. Агенты искусственного интеллекта Rabbit (которые он называет rabbits), работающие на внешнем сервере, а не на самом устройстве, затем будут использовать эти учетные записи для выполнения своих действий. Rabbit говорит, что каждому пользователю назначается “выделенная и изолированная” среда на его защищенных серверах, и что он не хранит пароли пользователей.
“Rabbits будут запрашивать разрешение и разъяснения во время выполнения любых задач, особенно тех, которые связаны с конфиденциальными действиями, такими как платежи”, - говорится на веб-сайте компании.
Компания заявляет на своем веб-сайте, что она “работает с лучшими отраслевыми партнерами в области анализа естественного языка, чтобы понять ваши намерения”, но не раскрывает, кто эти партнеры. Ее политика конфиденциальности сохраняет за собой право отправлять пользовательские данные третьим лицам для целей, включая “обработку данных”. Rabbit не сразу ответил на запрос о комментариях.
Вопрос о том, необходимо ли вообще новое аппаратное обеспечение пользователям для взаимодействия с агентами искусственного интеллекта, остается открытым. “Только те, кто потерял связь с тем, как потребители используют технологии, верят, что эти продукты могут добиться успеха”, - написал Франсиско Херонимо, вице-президент по данным об устройствах и аналитике в аналитической компании IDC, занимающейся анализом рынка, в X (принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ), имея в виду новые продукты Rabbit и Humane. “Хотя идеи сами по себе имеют свои достоинства, реальность такова, что потребителям нужны не такого рода устройства, им нужны интеллектуальные телефоны!”
Альтман публично выразил желание встроить все больше агентских возможностей в собственное программное обеспечение OpenAI, что могло бы устранить необходимость в новых устройствах, ориентированных на искусственный интеллект. “В конце концов, вы просто попросите компьютер предоставить вам то, что вам нужно, и он выполнит все эти задачи за вас”, - сказал Альтман на конференции разработчиков OpenAI в ноябре.
Но тенденция к тому, что компании расширяют возможности ИИ для принятия мер в реальном мире, вызвала беспокойство у некоторых экспертов. Устройства с искусственным интеллектом, такие как Rabbit r1, имеют ограниченные рычаги, за которые они могут воздействовать на мир, но все более мощные агентурные ИИ могут представлять множество рисков, согласно статье, опубликованной в октябре Центром безопасности искусственного интеллекта. “Агентам искусственного интеллекта могут быть поставлены такие цели, как победа в играх, получение прибыли на фондовом рынке или вождение автомобиля к месту назначения”, - говорится в документе. “Таким образом, агенты искусственного интеллекта представляют собой уникальный риск: люди могут создавать ИИ, преследующие опасные цели”. В документе утверждается, что общество, которое становится зависимым от сложной сети различных взаимодействующих агентов искусственного интеллекта, будет уязвимо перед такими проблемами, как неизбежные петли обратной связи или цели агентов, “дрейфующие” таким образом, что это может нанести вред человечеству.
В ноябре Альтман предположил, что соображения безопасности были причиной того, что OpenAI предпринимала лишь небольшие шаги к тому, чтобы предоставить своим инструментам искусственного интеллекта возможность действовать в реальном мире. “Мы считаем, что особенно важно осторожно продвигаться к этому будущему агентов”, - сказал он. “Это потребует... большого вдумчивого рассмотрения со стороны общества”.