[ Смотреть видео на сайте НТВ ] Мошенники все чаще стали использовать дипфейки, которые создают при помощи нейросетей для кражи денег. По оценкам аналитиков, преступники применяют сгенерированное изображение, чтобы получить доступ к интернет-банку и соцсетям. Для убедительности злоумышленники шантажируют и психологически манипулируют своими жертвами. Чтобы обезопасить людей, в Госдуме предложили маркировать подобные видео. Российские разработчики придумали, как заставить нейросеть работать на 40 процентов быстрее. Это расширит список задач, которые она будет выполнять, а также снизит траты на оборудование. Однако возможности искусственного интеллекта уже сейчас таковы, что в мире всерьез задумываются о необходимости юридически регулировать эту деятельность. В прошлом году во время массовой забастовки в Голливуде актеры требовали ограничить использование нейросетей при создании фильмов. А в России обсуждают, как обезопасить граждан от мошенников, которые все чаще прибегают к этим инстру