Найти в Дзене
СкопусБукинг

Испанский журнал в Скопус, четвёртый квартиль (искусственный интеллект), Inteligencia Artificial

Уважаемые коллеги, доброго времени суток! Представляем вам испанское научное издание Inteligencia Artificial. Журнал имеет четвёртый квартиль, издается в Asociacion Espanola de Inteligencia Artificial, находится в открытом доступе, его SJR за 2020 г. равен 0,149, электронный ISSN - 1137-3601, предметные области - Искусственный интеллект, Программное обеспечение. Вот так выглядит обложка:

Редактором является Мигель Салидо, контактные данные - msalido@ dsic.upv.es, editor@iberamia.org.

-2

Это ежеквартальный журнал, продвигаемый и спонсируемый Испанской ассоциацией искусственного интеллекта. К публикаци принимаются высококачественные оригинальные исследовательские работы, в которых сообщается о теоретических или прикладных достижениях во всех областях искусственного интеллекта. Журнал публикует высококачественные оригинальные исследовательские работы, в которых сообщается о теоретических или прикладных достижениях во всех областях искусственного интеллекта. В частности, журнал приветствует: Новые подходы, методы или методы для решения проблем искусственного интеллекта, которые должны включать демонстрации эффективности или улучшения по сравнению с существующими методами. Данные демонстрации должны быть воспроизводимыми. Интегрируются различные технологии или подходы для решения широких проблем в разных областях. Приложения искусственного интеллекта, должны подробно описывать проблему или сценарий и предлагать решение, подчеркивая его новизну и представляя оценку применяемых методов искусственного интеллекта. В дополнение к быстрой публикации и распространению незапрошенных материалов, журнал также стремится выпускать монографии, обзоры или специальные выпуски по темам, методам или техникам, имеющим особое значение для сообщества искусственного интеллекта. Приветствуются материалы, написанные на английском, испанском или португальском языках. Название, краткое изложение и ключевые слова на английском языке должны быть включены в каждую статью.

Адрес издания - https://journal.iberamia.org/index.php/intartif/index

Пример статьи, название - Morphological Skip-Gram: Replacing FastText characters n-gram with morphological knowledge. Заголовок (Abstract) - Natural language processing systems have attracted much interest of the industry. This branch of study is composed of some applications such as machine translation, sentiment analysis, named entity recognition, question and answer, and others. Word embeddings (i.e., continuous word representations) are an essential module for those applications generally used as word representation to machine learning models. Some popular methods to train word embeddings are GloVe and Word2Vec. They achieve good word representations, despite limitations: both ignore morphological information of the words and consider only one representation vector for each word. This approach implies the word embeddings does not consider different word contexts properly and are unaware of its inner structure. To mitigate this problem, the other word embeddings method FastText represents each word as a bag of characters n-grams. Hence, a continuous vector describes each n-gram, and the final word representation is the sum of its characters n-grams vectors. Nevertheless, the use of all n-grams character of a word is a poor approach since some n-grams have no semantic relation with their words and increase the amount of potentially useless information. This approach also increase the training phase time. In this work, we propose a new method for training word embeddings, and its goal is to replace the FastText bag of character n-grams for a bag of word morphemes through the morphological analysis of the word. Thus, words with similar context and morphemes are represented by vectors close to each other. To evaluate our new approach, we performed intrinsic evaluations considering 15 different tasks, and the results show a competitive performance compared to FastText. Moreover, the proposed model is $40\%$ faster than FastText in the training phase. We also outperform the baseline approaches in extrinsic evaluations through Hate speech detection and NER tasks using different scenarios. Keywords: Word Embeddings, Morphological Knowledge, Natural Language Processing, Character n-grams