Через LLM, сенсоры и микрофоны Недавно в российских медиа обсуждали, может ли Яндекс через Алису слушать пользователей и использовать эти данные в своих целях. Яндекс в своём стремлении узнать о пользователе как можно больше не одинок, да и страхи о вмешательстве айти-компаний в личную жизнь одинаковы для всех стран. Apple, тем не менее, рискнули и поделились интересным исследованием о том, как узнать не просто о чём говорят люди, но чем физически занимаются в определённый момент – будь это мытьё посуды или игра в баскетбол. А, возможно, что-то более интимное? Apple взяли два источника данных: звук вокруг человека (через аудио-модель) и движения тела или устройства (акселерометр и гироскоп), обработали их небольшими специальными языковыми моделями, которые превращают сырые сигналы в текстовые описания и предварительно размечают данные. Потом большая языковая модель получает на вход уже не данные с сенсоров, а набор готовых подсказок, по ним угадывая, чем человек занят: готовит, стирае