Российские ученые разрабатывают алгоритм для поиска манипуляций, который можно было бы использовать для автоматической проверки контента.
"В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций", - рассказала профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина в беседе с "Известиями".
По словам экспертов, если на основе алгоритма удастся обучить искусственный интеллект распознавать манипуляции и скрытый смысл сообщений, это позволит противодействовать информационным угрозам, отмечает издание.
Ранее разработчики создали алгоритм на базе нейронных сетей, способный исправлять неудачные фотографии, на которых человек моргнул и представлен с закрытыми глазами. По сути технология может "открывать" глаза на снимке. Во время тестирования разработчики натренировали нейронные сети с помощью изучения тысяч фотографий людей с открытыми и закрытыми глазами.