Добавить в корзинуПозвонить
Найти в Дзене
ER10 MEDIA

Генеративный ИИ породит волну фейков в научном мире

Генеративный ИИ позволит недобросовестным ученым создавать фейковые доказательства своих открытий. И подобные случаи уже происходят. Генеративный ИИ позволит недобросовестным ученым создавать фейковые доказательства своих открытий. И подобные случаи уже происходят. Это создает серьезные проблемы для академических издателей, борющихся с мошенничеством в научных статьях. Опишите изображение для DALL-E, Stable Diffusion и Midjourney, и они создадут его за считанные секунды. За последние несколько лет нейросети быстро совершенствовались и теперь способны создавать реалистичные картинки. Модели преобразования текста в изображение сегодня широко доступны, дешевы в использовании, и они могут помочь хитрым ученым подделывать результаты и публиковать фиктивные исследования. Манипулирование изображениями уже вызывает серьезную озабоченность у академических издателей. Раньше авторы могли использовать всевозможные уловки, такие как переворачивание, поворот или обрезка частей одного и того же изобр

Генеративный ИИ позволит недобросовестным ученым создавать фейковые доказательства своих открытий. И подобные случаи уже происходят.

Генеративный ИИ позволит недобросовестным ученым создавать фейковые доказательства своих открытий. И подобные случаи уже происходят. Это создает серьезные проблемы для академических издателей, борющихся с мошенничеством в научных статьях.

Опишите изображение для DALL-E, Stable Diffusion и Midjourney, и они создадут его за считанные секунды. За последние несколько лет нейросети быстро совершенствовались и теперь способны создавать реалистичные картинки.

Модели преобразования текста в изображение сегодня широко доступны, дешевы в использовании, и они могут помочь хитрым ученым подделывать результаты и публиковать фиктивные исследования.

Манипулирование изображениями уже вызывает серьезную озабоченность у академических издателей. Раньше авторы могли использовать всевозможные уловки, такие как переворачивание, поворот или обрезка частей одного и того же изображения. Им нередко удавалось вводить в заблуждение редакторов. Но теперь недобросовестные исследователи могут создать любую картинку «с нуля».

Качество научных исследований ухудшится, если академические издатели не смогут найти способы обнаружения поддельных изображений, считают эксперты.

В настоящее время Управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило свою программу семантической криминалистики SemaFor, способную обнаруживать картинки, созданные нейросетью.

Она находится на стадии разработки, но специалисты надеются, что с помощью таких инструментов удастся эффективно бороться с мошенниками.

Источник - https://er10.kz/read/it-novosti/generativnyj-ii-porodit-volnu-fejkov-v-nauchnom-mire/