Найти в Дзене
Закреплено автором
TrueVision
Дипфейк — что это, как распознать, где используют и почему опасно?
2 месяца назад
TrueVision
Как сделать дипфейк
2 месяца назад
TrueVision
Как оживить старое фото с помощью нейросети быстро и бесплатно?
2 месяца назад
Чек-лист юриста: как распознать фейк,дипфейк и монтаж в фото, видео и переписках
Цифровые доказательства сегодня стали оружием — и против ваших клиентов, и против вас. Фото, видео, переписка в мессенджерах — всё это можно подделать с помощью ИИ за минуту. А вы узнаете об этом уже в суде, когда поздно что-то менять. Официальная экспертиза стоит десятки тысяч и занимает недели. А решение по делу нужно «вчера». Выход есть: предэкспертиза за минуты. Она помогает понять — стоит ли вообще нести материал в суд и можно ли на него опираться...
1 неделю назад
Как отличить реальное лицо от сгенерированного нейросетью на видео
Вам прислали видео. На нем ваш клиент (или его оппонент) делает что-то, что полностью меняет ход дела. Вы смотрите: лицо его, голос его. Но интуиция подсказывает — здесь что-то не так. Сегодня нейросети генерируют лица пугающе качественно. Но у технологии есть слабое место: она не понимает физиологию человека. Она просто рисует пиксели, пытаясь угадать, как мы выглядим. И в этом её главная ошибка. Вот 5 биологических признаков, по которым можно отличить живого человека от цифрового клона, даже без спецтехники...
1 неделю назад
Как проверить голосовое сообщение: это реальный человек или нейросеть?
«Мам, скинь 5000 на карту, срочно». Раньше такие сообщения приходили текстом, и мы знали: это мошенники. Теперь они приходят голосом. Голосом вашего сына, начальника или клиента. Голосовые сообщения (войсы) стали частью деловой переписки. В судах они всё чаще фигурируют как доказательства договоренностей или угроз. Но в 2025 году верить ушам стало опасно. Нейросети научились клонировать голос за секунды. Как понять, что с вами говорит бот, а не живой человек? Вот 4 признака, которые можно услышать даже без спецоборудования...
1 неделю назад
Как проверить фото и видео на дипфейк онлайн бесплтано
Truevision — это сервис, который помогает отличать настоящие фото, видео и аудио от подделок и дипфейков. Он нужен всем, кто получает «важные» файлы в мессенджерах, соцсетях, по почте и не хочет верить картинке вслепую. Сценарии, где он полезен: Задача Truevision — дать вам быстрый и понятный ответ: нормальный ли это файл или в нём есть признаки подделки. Сервис берёт на себя технический разбор медиаконтента и показывает результат в удобной форме, чтобы решение можно было принять за секунды, а не разбираться часами...
1 неделю назад
Паспорт с фото Тома Холланда: как мошенники обманули Ларису Долину — и как защититься обычным людям
Недавно стало известно, что Лариса Долина стала жертвой мошенников: ей показали «паспорт» якобы сотрудника, который должен был помочь с финансовыми вопросами. На первый взгляд документ выглядел официально, но позже журналисты заметили, что в паспорте стояло фото актера Тома Холланда, исполнителя роли Человека‑паука.​ Ситуация выглядит почти анекдотично, но на самом деле она отлично показывает, как сильно мы привыкли доверять картинке на экране, особенно если она подана в «правильной упаковке»: штампы, печати, серьёзный текст и срочные просьбы...
1 неделю назад
Жертва «признается» в инсценировке смерти: как дипфейк чуть не сорвал дело об убийстве
В мае 2025 года в суде штата Аризона (США) слушалось дело об убийстве. Ситуация казалась очевидной: есть тело, есть подозреваемый, есть мотив. Но у защиты был план, который еще 5 лет назад показался бы сценарием фантастического фильма. Адвокат обвиняемого встал и заявил: «Ваша честь, моя подзащитная невиновна. Жертва жива. Более того, она сама это спланировала». В качестве доказательства защитник достал видеозапись. На экране зала суда появилась... «погибшая» женщина. Она смотрела прямо в камеру и спокойным голосом говорила: «Я решила исчезнуть...
1 неделю назад
Дипфейк-аудио чуть не лишило отца детей: реальная история из суда США
Разводы бывают грязными. Но то, что случилось в суде по семейным делам в 2024 году, вывело понятие «грязная игра» на принципиально новый, технологический уровень. Представьте отца, который борется за право видеть своих детей. Он примерный семьянин, у него нет приводов в полицию. Его позиция в суде крепка. И вдруг, как гром среди ясного неба, адвокат бывшей жены достает козырь. Аудиозапись. Судья включает воспроизведение. Зал суда замирает. Из колонок доносится голос отца. Он звучит не просто раздраженным...
1 неделю назад
«Это мог быть дипфейк»: как защита Tesla пыталась оправдаться через AI-подделки
Вот статья для Дзена и VC.ru, разбирающая знаменитый кейс Tesla. Она идеально иллюстрирует новую юридическую проблему — «Дивиденд лжеца», и показывает, почему ваш сервис нужен не только для атаки, но и для защиты от ложных сомнений. Мы привыкли думать, что дипфейки — это когда создают поддельное видео, чтобы кого-то обвинить. Но что, если технологию используют наоборот? Чтобы объявить реальное видео подделкой и избежать ответственности? Именно это произошло в суде Калифорнии в деле против Tesla...
1 неделю назад
Видеодоказательства больше не аргумент? Как AI убивает веру глазам
Вот провокационная статья-размышление для Дзена и VC.ru. Она ставит под сомнение самую основу доказательного права («лучше один раз увидеть») и предлагает решение. Мы привыкли жить в мире, где видео — это королева доказательств. «Есть видеозапись? Значит, виновен». «Попал на камеру? Не отвертишься». Видеорегистраторы, камеры наблюдения, съемка на смартфон — всё это было гарантом правды. Если мы видели что-то своими глазами на экране, мы верили этому безоговорочно. Забудьте об этом. Эпоха «верю своим глазам» закончилась...
2 недели назад
«Это не мой голос»: как защитить клиента от сгенерированного аудиокомпромата
Вот статья для Дзена в формате практического гайда по самообороне от аудио-фейков. «Я этого не говорил!» — кричит ваш клиент, слушая аудиозапись. На ней его голос отчетливо предлагает взятку, угрожает партнеру или признается в изменах. Вы смотрите на клиента и не знаете, верить ли ему. Голос звучит пугающе знакомо: те же интонации, те же паузы, то же характерное «э-э-э» между словами. Добро пожаловать в реальность 2025 года. Сегодня, чтобы украсть голос человека, мошенникам достаточно 30 секунд его речи из сторис в Instagram или голосового сообщения в Telegram...
2 недели назад
Дипфейки уже в судах России: к чему готовиться юристам в 2026 году
Еще пару лет назад мы смеялись над видео, где лицо Илона Маска приклеивали к телу танцора. «Забавная игрушка», — думали мы. В 2024 году шутки кончились. В Арбитражном суде Москвы рассматривалось дело, где предметом спора стал рекламный ролик с дипфейком голливудского актера. Суд признал: да, это не реальный человек, а технология.​ Но это был спор об авторских правах. А что, если завтра дипфейк станет доказательством против вашего клиента? Представьте: в суд приносят видеозапись, где гендиректор подписывает кабальный договор...
2 недели назад
Как проверить скриншот переписки на фотошоп за 5 минут без эксперта
Как проверить скриншот переписки на фотошоп за 5 минут без эксперта Вам присылают скриншот: «Вот, смотри, ты же сам обещал вернуть деньги в четверг!» Или хуже: ваш клиент показывает переписку, где партнер якобы разрывает контракт. На первый взгляд всё выглядит идеально. Те же цвета WhatsApp, те же галочки, те же шрифты. Но что-то внутри вас сомневается. И правильно делает. Сегодня подделать скриншот переписки можно двумя способами: В судах количество таких подделок растет с каждым месяцем. Но есть хорошая новость: мошенники часто ленивы...
2 недели назад