Пока мы тут спорим, нужен ли ChatGPT в утюге, Meta взяла и научила свой искусственный интеллект понимать, что мир-то не плоский. Представили SAM 3 и SAM 3D - и это реально круто, если вы понимаете, о чем речь. Если нет - сейчас объясню так, что даже бабушка поймет. От плоской картинки к объемной реальности Давайте по порядку. У Meta была модель SAM (Segment Anything Model) - она умела вырезать любой объект на фотке по клику. Ткнул пальцем в кота - она вырезала кота. Ткнул в диван - вырезала диван. Магия, но двухмерная. А теперь вышла SAM 3 и SAM 3D. И вот тут начинается настоящий хардкор. Эти модели перестали воспринимать мир как плоскую картинку. Они понимают, что у предметов есть объем, глубина, форма. Что диван - это не просто пятно на фото, а реальный трехмерный объект, который можно повертеть, рассмотреть со всех сторон и даже виртуально засунуть к себе в комнату. Как это работает: объекты SAM 3D Objects - это когда вы делаете обычную фотку на телефон, а нейросетка превращает ее
Meta (запрещёна в России) научила ИИ видеть мир в 3D.
4 декабря4 дек
3 мин