Илья Суцкевер, бывший главный научный сотрудник OpenAI, соучредитель стартапа Safe Superintelligence (SSI), привлек инвестиции в размере 1 миллиарда долларов для разработки безопасных систем искусственного интеллекта, способных превзойти возможности человека. Оценка компании достигла 5 миллиардов долларов благодаря участию известных фондов, включая Andreessen Horowitz, Sequoia Capital, DST Global и SV Angel, а также ведущего инвестора NFDG.
Согласно планам SSI, полученные средства пойдут на увеличение вычислительной мощности и привлечение лучших специалистов для исследований и разработок в области искусственного интеллекта. Компания планирует расширить свои офисы в Пало-Альто (Калифорния) и Тель-Авиве (Израиль).
Создание безопасного ИИ - актуальная проблема, особенно после того, как Суцкевер покинул OpenAI из-за разногласий с руководством. Теперь он сосредоточится на формировании небольшой, но высокопрофессиональной команды исследователей и инженеров, объединенных общей целью и ценностями.
В отличие от других компаний, работающих над крупномасштабными разработками ИИ, SSI намерена использовать другой подход к масштабированию, подчеркивая важность качественной работы над фундаментальными исследованиями. "Все говорят о масштабировании, но никто не спрашивает, что именно мы масштабируем", - сказал Суцкевер.
На данный момент в SSI работает около 10 сотрудников, которые готовятся к дальнейшему расширению. Инвестиции будут направлены на покупку вычислительных мощностей и наем талантливых специалистов.
]]>