Есть ощущение, что последние годы интерфейсы всё время пытались стать незаметнее. Сначала кнопки уехали в жесты, потом часть сценариев ушла в голос, потом ИИ начал забирать на себя поиск, тексты, картинки и прочую работу. А теперь следующий уровень: продукты хотят понимать не только что человек делает, но и в каком он состоянии. — Вижу, что классические фреймворки уже уходят на второй план. Сейчас идет сдвиг к невидимым манипуляциям, это новый флоу для юзера (от действий и кликов к чтению и разговору). Но в нашем сервисе есть и базовые возможности, такие как «кабан», «столбы», «карточки» — чисто как переходный момент. Люди пока не доверяют ИИ настолько, чтобы отдать полный контроль. На днях TechCrunch написал про стартап Neurable. Они делают неинвазивный нейроинтерфейс, то есть без чипов в голове и всей этой киберпанк-жести. Технология работает через ЭЭГ-сенсоры, обработку сигналов и ИИ. По сути, устройство считывает активность мозга и может давать данные о когнитивном состоянии челов