Найти тему
technoDZEN

Группа экспертов компании OpenAL, занимающаяся защитой человечества от возможных рисков, связанных с искусственным интеллектом, распалась..

Уход одного из основателей стартапа OpenAI Ильи Суцкевера стал причиной распада команды по управлению долгосрочными рисками, связанными с искусственным интеллектом. Структурная единица, созданная для защиты человечества от угроз, не смогла продержаться даже год. Илья Суцкевер, который руководил научными исследованиями в OpenAI, проявлял беспокойство по поводу подобных рисков, а также возглавлял команду по управлению рисками вместе с Яном Лейке. Последний также покинул компанию на прошлой неделе. Команда была сформирована для минимизации рисков, связанных с развитием искусственного интеллекта, и OpenAI планировала выделить до 20% вычислительных ресурсов на эту цель. После ухода руководителей, оставшиеся члены команды были перераспределены внутри компании.

Илья Суцкевер
Илья Суцкевер

Ян Лейке заявил, что уходит из OpenAI из-за того, что "культура безопасности и процессы уступили место сияющим продуктам". Генеральный директор OpenAI Сэм Альтман выразил сожаление по поводу его ухода и признал, что они не смогли совпасть во взглядах на развитие компании. Лейке убежден, что безопасность должна быть важнейшим аспектом в разработке искусственного интеллекта. Он отметил, что команда внутри OpenAI сталкивалась с трудностями и ограничениями в ресурсах, и что компания должна придавать большее значение безопасности.