Найти в Дзене
Just Join

Искусственный интеллект не дремлет!

Инструмент ИИ, который может распознать текст, написанный машиной, может означать конец поддельных новостей, ложных обзоров и фальшивых аккаунтов в социальных сетях. Команда американских исследователей разработала программу, которая отсеивает фальшивые новости. Комната для тестирования модели языка-гиганта разработана ИТ-специалистами Гарвардского университета и Массачусетского технологического института (MIT) в целях противодействия недостоверной журналистике. Основанная на моделях прогнозирующих языков, которые позволяют компьютерам и ботам писать копии, система нацелена на машинные алгоритмы. Согласно результатам их собственных исследований, программа помогла улучшить показатель обнаружения поддельного текста с 54 до 72 процентов - это означает, что дни дезинформации могут быть сочтены. Благодаря своей мощи моделирования, автоматизированные языковые модели способны генерировать текстовый вывод, который неотличим от реальных вещей - АКА, это часто фальшивые новости Это также может п

Инструмент ИИ, который может распознать текст, написанный машиной, может означать конец поддельных новостей, ложных обзоров и фальшивых аккаунтов в социальных сетях.

Команда американских исследователей разработала программу, которая отсеивает фальшивые новости.

Фото из открытых источников
Фото из открытых источников

Комната для тестирования модели языка-гиганта разработана ИТ-специалистами Гарвардского университета и Массачусетского технологического института (MIT) в целях противодействия недостоверной журналистике.

Основанная на моделях прогнозирующих языков, которые позволяют компьютерам и ботам писать копии, система нацелена на машинные алгоритмы.

Согласно результатам их собственных исследований, программа помогла улучшить показатель обнаружения поддельного текста с 54 до 72 процентов - это означает, что дни дезинформации могут быть сочтены.

Благодаря своей мощи моделирования, автоматизированные языковые модели способны генерировать текстовый вывод, который неотличим от реальных вещей - АКА, это часто фальшивые новости

Это также может помочь выявить поддельные профили в учетных записях социальных сетей, таких как Twitter и Facebook, которые часто можно использовать для распространения неверных данных.

Программа предполагает, что сгенерированный компьютером текст использует наиболее вероятные слова в последовательности.

Напротив, человеческое письмо часто выбирает непредсказуемые слова, которые все еще имеют смысл и полностью актуальны, даже если они неожиданны в ритме предложения или предложения.

Система ищет эти шаблоны в окне из шестидесяти слов и выделяет наиболее предсказуемую последовательность слов как подозрительную.

Эти результаты имеют цветовую кодировку для простоты использования.

Слова, которые являются статистически более предсказуемыми и, следовательно, генерируются компьютером, выделяются зеленым цветом. Более спонтанные словосочетания в желтом, фиолетовом и красном.

Поэтому подлинная копия должна иметь сбалансированное сочетание желтых, красных и пурпурных цветов. Но подозрительный текст будет в основном зеленым с желтыми пятнами.

Оценка: слова, которые являются статистически более предсказуемыми и, следовательно, генерируются компьютером, выделены зеленым цветом. Более спонтанные словосочетания в желтом, фиолетовом и красном.

«Очевидно, что система не идеальна», - сказали его создатели.

«Её основное ограничение - ограниченный масштаб. Она не сможет автоматически выявлять масштабные злоупотребления, только отдельные случаи.

«Кроме того, требуется, по крайней мере, углубленное знание языка, чтобы знать, имеет ли необычное слово смысл в данной позиции.

Тем не менее, мы предполагаем, что это может спровоцировать развитие подобных идей, которые работают в большем масштабе».

Ставьте лайк и подписывайтесь на мой канал, чтобы не пропустить следующие посты, а также следить за новыми публикациями.
Благодарим Вас за прочитанный материал и нам очень важны Ваши комментарии. Хорошего настроения!