Изображение «взрыва» возле Пентагона, созданное искусственным интеллектом, вызвало огромную реакцию в социальных сетях. Фотография быстро разошлась в Твиттере и опубликовали ее множество заслуживающих доверия и крупных аккаунтов. Однако вскоре выяснилось, что это изображение было создано нейросетью и не имеет никакого отношения к реальным событиям. Такие случаи поднимают вопросы о том, как нейросети и их продукты могут использоваться для манипуляции общественным мнением. В настоящее время нейросети могут создавать реалистичные изображения и видео, которые могут быть использованы для распространения дезинформации, манипуляции общественным мнением и даже для создания фальшивых новостей. Это может привести к серьезным последствиям, включая потерю доверия к СМИ и ухудшение качества принимаемых решений в политике и других областях. Кроме того, необходимо отметить, что нейросети могут использоваться не только для создания фальшивых изображений, но и для принятия серьезных решений. Например,
Риски использования нейросетей: необходимость контроля. Одно фото посеяло панику.
24 мая 202324 мая 2023
4
2 мин