OpenAI распустиласвою команду, занимавшуюся долгосрочными рисками искусственного интеллекта, менее чем через год после ее создания, а уходящий руководитель предупредил, что безопасность в компании «отошла на второй план перед блестящими продуктами». Компания распустила команду «Superalignment», перед которой была поставлена задача создать меры безопасности для передовых систем общего интеллекта (AGI), которые «могут привести к лишению человечества возможностей или даже к его исчезновению». Роспуск команды, о котором впервые сообщилWired, произошел через несколько дней после того, как руководители OpenAI Илья Суцкевер и Ян Лейке объявили о своем уходе из компании, возглавляемой Сэмом Альтманом. «OpenAI берет на себя огромную ответственность от имени всего человечества, — написалЛейке на X. — Но за последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией. Нам давно пора серьезно отнестись к последствиям использования ОИИ». Суцкевер и Лей
OpenAI распустила команду безопасности, которая предотвращала риск «вымирания человечества» из-за ИИ
15 июня 202415 июн 2024
27
1 мин