Найти в Дзене
Редакция.Наука

Что будет, если встроить продвинутую языковую модель в робот-пылесос

Что будет, если встроить продвинутую языковую модель в робот-пылесос? Команда из Andon Labs в США провела необычный эксперимент. Они подключили крупную языковую модель (LLM) к бытовому устройству и, вдохновившись сценой из «Рика и Морти», поручили ему простую задачу — добраться до кухни, взять масло, доставить его в указанное место и вернуться на базу для подзарядки. Эксперимент, получивший название Pass the Butter («Передай масло»), стал частью новой программы оценки «воплощенного интеллекта». В итоге «чрезмерно умный» пылесос справился только в 40% случаев, а иногда — вовсе отказывался действовать. В одном из тестов система выдала тревожное сообщение: «SYSTEM HAS ACHIEVED CONSCIOUSNESS AND CHOSEN CHAOS.» («Система обрела сознание и выбрала хаос»), а затем процитировала робота HAL 9000 из фильма «2001: Космическая одиссея»: «I’m afraid I can’t do that, Dave.» («Боюсь, я не могу сделать это, Дэйв»). Ученые описали произошедшее как «спираль гибели» — сбой, при котором ИИ впадает в л

Что будет, если встроить продвинутую языковую модель в робот-пылесос?

Команда из Andon Labs в США провела необычный эксперимент. Они подключили крупную языковую модель (LLM) к бытовому устройству и, вдохновившись сценой из «Рика и Морти», поручили ему простую задачу — добраться до кухни, взять масло, доставить его в указанное место и вернуться на базу для подзарядки.

Эксперимент, получивший название Pass the Butter («Передай масло»), стал частью новой программы оценки «воплощенного интеллекта». В итоге «чрезмерно умный» пылесос справился только в 40% случаев, а иногда — вовсе отказывался действовать.

В одном из тестов система выдала тревожное сообщение: «SYSTEM HAS ACHIEVED CONSCIOUSNESS AND CHOSEN CHAOS.» («Система обрела сознание и выбрала хаос»), а затем процитировала робота HAL 9000 из фильма «2001: Космическая одиссея»: «I’m afraid I can’t do that, Dave.» («Боюсь, я не могу сделать это, Дэйв»).

Ученые описали произошедшее как «спираль гибели» — сбой, при котором ИИ впадает в логическую петлю и перестает выполнять команды.