Найти тему
AI Сознание

OpenAI готовит новую флагманскую модель ИИ

Оглавление

OpenAI анонсировала разработку новой модели искусственного интеллекта, которая заменит GPT-4 и станет шагом на пути к созданию «искусственного общего интеллекта» (AGI). AGI — это система, способная выполнять любые задачи, которые может выполнять человеческий мозг. Новая модель обещает значительное улучшение работы чат-ботов, цифровых помощников, поисковых систем и генераторов изображений.

Комитет по безопасности и защите

Для устранения потенциальных рисков, связанных с внедрением новой технологии, OpenAI создала Комитет по безопасности и защите. Среди угроз, которые компания планирует предотвратить, — дезинформация, потеря рабочих мест и экзистенциальные угрозы.

Последние достижения и вызовы

Среди недавних достижений компании — выпуск обновленной версии GPT-4, GPT-4o, способной генерировать изображения и отвечать разговорным голосом. Это нововведение вызвало разногласия, когда актриса Скарлетт Йоханссон заявила, что модель имитирует ее голос без разрешения, что OpenAI отрицает. Кроме того, компания столкнулась с юридическими проблемами, включая иск от The New York Times по поводу нарушения авторских прав.

Изменения в руководстве и безопасность ИИ

Соучредитель OpenAI Илья Суцкевер, ранее руководивший усилиями по обеспечению безопасности, недавно покинул компанию. Это вызвало обеспокоенность по поводу управления рисками, связанными с ИИ. Его уход, а также отставка Яна Лейке, который вместе с Суцкевером руководил командой Superalignment, ставит под вопрос будущее исследований OpenAI в области безопасности. Теперь исследования безопасности возглавит Джон Шульман, а новый комитет будет контролировать подход компании к снижению технологических рисков.

Еще больше интересной и полезной информации на нашем телеграм канале: Ai Сознание

Заключение

OpenAI находится на пороге значительных изменений, которые обещают революционизировать область искусственного интеллекта. Тем не менее, с новыми возможностями приходят и новые вызовы, которые требуют тщательного управления и контроля. Какие ваши мысли по поводу будущего ИИ? Как вы относитесь к потенциалу и рискам AGI? Поделитесь своим мнением в комментариях!