Несмотря на использование смайликов и восклицательных знаков, слишком легко неправильно истолковать сарказм, юмор, иронию или решительность в тексте или электронном сообщении. Все это может измениться благодаря усилиям Эдена Саига, студента факультета информатики Технион-Израильского технологического института, который разработал компьютеризированную систему обучения, способную распознавать эмоциональные чувства, выраженные в текстовом сообщении или электронном письме, на основе распознавания повторяющихся словосочетаний.
Его студенческий проект под названием "Классификация чувств в социальных сетях" стал победителем ежегодного конкурса "Лучший проект Amdocs", спонсором которого является компания Amdocs - поставщик программного обеспечения и услуг для более чем 250 провайдеров коммуникационных, медийных и развлекательных услуг в более чем 80 странах. Saig разработал систему в лаборатории обучения и разума Technion, пройдя курс по искусственному интеллекту под руководством профессора Шауля Марковича из факультета вычислительной техники Technion.
По словам Саига, тон голоса и интонации играют важную роль в передаче своего смысла в устном сообщении. В текстовых и электронных сообщениях эти нюансы теряются, а писатели, которые хотят выразить сарказм, сочувствие или сомнения, используют изображения или "смайлики", чтобы компенсировать их.
"Эти иконки в лучшем случае являются поверхностными подсказками", - сказал Сайг. "Они никогда не смогут выразить тонкие или сложные чувства, которые существуют в реальной жизни вербального общения".
Недавно страницы, предназначенные для юмористического общения в социальных сетях, таких как Фейсбук и Твиттер, были названы "превосходными и снисходительными людьми" или "обычными и здравомыслящими людьми". По словам Саига, такие страницы очень популярны в Израиле, и пользователям предлагается вносить предложения по фразам, которые могут быть обозначены как "стереотипные высказывания" для данной конкретной страницы. Десятки тысяч друзей и последователей присоединились к этим группам.
Наблюдая за сообщениями в этих группах, Сайг смог выявить существующие закономерности. Метод, который он разработал, позволяет системе обнаруживать будущие закономерности в любой социальной сети, добавил он.
Поскольку содержание этих разделов было разговорным, повседневным языком, Сайг понял, что "содержание может обеспечить хорошую базу данных для сбора однородных данных, которая, в свою очередь, может помочь "обучить" компьютеризированную систему распознавать покровительственные звучащие семантики или сленговые слова и фразы в тексте".
В рамках проекта были применены алгоритмы "машинного обучения" к содержанию этих страниц, а результаты были использованы для автоматического выявления стереотипов поведения, ежедневно встречающихся в общении в социальных сетях.
Количественная оценка была проведена путем изучения 5000 сообщений на страницах социальных сетей и, посредством статистического анализа, нацеливания системы обучения на распознавание структуры контента, которая может быть идентифицирована сленговая. Эта система была создана для выявления ключевых слов и грамматических привычек, которые характерны для структуры предложения, подразумеваемой чувствами содержания. Повторяющиеся модели изучаются автоматически с помощью системы анализа текста, разработанной специально для анализа популярных групп в социальных сетях. Сайг обнаружил, что наибольшую точность можно получить, если система сочетает поиск по ключевым словам с грамматическим структурным анализом. Он также обнаружил, что точность повышается, когда учитывается количество "лайков" полученных сообщением.
"Теперь система может распознавать шаблоны, которые являются либо снисходительными, либо заботливыми чувствами, и даже может послать текстовое сообщение пользователю, если система считает, что сообщение может быть высокомерным", - пояснил Сайг.
Метод, который он разработал, имеет много потенциальных прагматических применений, помимо прояснения эмоций или чувств в межличностном общении в социальных сетях.
При применении к другим сетевым страницам он может помочь обнаружить контент, который наводит на мысль о самоубийстве, например, или "зовет на помощь", или выражение восхищения или удовольствия".
"Я надеюсь, что в конечном итоге я смогу разработать механизм, который продемонстрирует писателю, как его слова могут быть истолкованы читателями, тем самым помогая людям лучше выразить себя и избежать неправильного понимания", - заключил он.