Недавно писал про колоссальные перспективы Google в области ИИ и задумался об уже частично упущенном и нереализованном потенциале Google в массовых сервисах на базе AI. Ведь именно Google реализовал первые массовые кейсы использования ИИ задолго до создания OpenAI. В 2012 Google Voice Search уже работал на нейросетях (до этого стат. методы HMM и GMM). В Google Photos с 2015 сверточные нейронки (CNN) использовались для распознания лиц и классификации объектов. В 2016 году Google Translate перешел на нейросетевую архитектуру Google Neural Machine Translation, GNMT (до этого стат. метод SMT). Где-то в этот период, в районе 2014, в Apple начали внедрять deep learning и нейросетевые акустические модели в Siri для распознавания речи. Но Siri сегодня, спустя больше 10 лет, примерно там и осталась. То есть Google почти 13 лет был буквально в полушаге от создания универсального ИИ-ассистента, мультимодального чат-бота, имея для этого все данные мира.