В прошлую субботу мы писали новость о том, что OpenAI, компания, финансируемая Microsoft, готовится выпустить GPT-4. А вчера OpenAI официально представили новую версию, которая, как и было обещано, способна понимать не только текст, но и изображения. Глава компании назвал ее "самой способной" ИИ-моделью разработчика, однако признал, что у нее все еще есть недостатки и она ограничена. В GPT-4 также появилась функция "виртуальный волонтёр", которая позволяет пользователям отправлять изображения для анализа. Пока что ее тестируют с партнером Be My Eyes. В своем блоге они приводят пример того, как это работает: «Например, если пользователь отправит фотографию своего холодильника изнутри, виртуальный волонтер сможет не только правильно определить, что в нем находится, но и экстраполировать данные: анализировать, что можно приготовить из этих ингредиентов. Инструмент также может предложить ряд рецептов для этих ингредиентов и отправить пошаговое руководство по их приготовлению» Еще один шаг