14,7 тыс подписчиков
Илон Маск считает, что ИИ общего уровня будет создан через год. Глава NVIDIA Дженсен Хуанг, что через пять лет. Многие ученые и инженеры, занятые в этой сфере, более консервативны в своих прогнозах, кто-то ставит на десять или даже на двадцать лет. Возможно, что все они не правы, и вопрос создания ИИ общего уровня упрется в невидимую стену, но возможно и такое, что уже через несколько лет подобная система все-таки будет создана. А это значит, что полноценные массовые домашние (и не только домашние) роботы-помощники с автономным управлением можно ожидать в течение считанных лет или даже месяцев после появления первого ИИ общего уровня в публичном доступе. Фактически речь о том, что скорее всего это будет уже на нашем веку. Даже сейчас уже есть продвинутые роботы на базе ChatGPT, но это пока не AGI. А будет с AGI, способным оперировать на ином уровне.
Сейчас же есть и такой тренд, что буквально каждый год ИИ узкого уровня делают не шаг, а скачок вперед по своему развитию. И если сегодня дипфейк-видео еще можно отличить от реального в рамках специальной экспертизы, то через несколько лет могут появиться дипфейки, искусственность которых сможет быть подтверждена только благодаря специально добавленным "водным знакам". Но, кто может гарантировать, что такие же "водные знаки" будут в корпоративных и государственных ИИ узкого типа для генерации дипфейков, предназначенных для специальных нужд? У хакеров, вероятно, тоже эти варианты ИИ быстро появятся. И мы вступим в очень опасный период истории в плане права. Ведь подставить человека с помощью видео станет просто, как никогда в истории. В правоприменении встанет дилемма о достаточности видео или фото (даже множественных) в качестве доказательств. А в тех странах, где до сих пор не наложен мораторий на смертную казнь, не исключен рост ошибочных приговоров и с необратимыми последствиями (даже если в последствии реальный преступник будет пойман, а казненный окажется невинным, отменить такое наказание уже не получится). Впрочем, такие прецеденты регулярно происходят и сейчас, просто есть риск, что их станет больше (возможно, на порядки).
Песков заявил, что нейросети в руках недобросовестных людей или террористов могут стать грозным оружием, это требует системных мер. Невозможно с ним не согласиться. Однако нейросети это не только риски, но и возможности для развития общества. Важен не инструмент. А то, как он применяется. И государствам придется решить, как задать правила игры таким образом, чтобы ИИ помогали людям, а не вредили им.
2 минуты
27 марта 2024