Найти тему
СкопусБукинг

Сингапурский журнал в Скопус, четвертый квартиль (информационные системы), International Journal of Semantic Computing

Уважаемые коллеги, доброго времени суток! Представляем вам сингапурское научное издание International Journal of Semantic Computing. Журнал имеет четвертый квартиль, издается в World Scientific Publishing Co. Pte Ltd., его SJR за 2020 г. равен 0,163, импакт-фактор - 0,486, печатный ISSN - 1793-351X, электронный - 1793-7108, предметные области - Информационные системы, Искусственный интеллект, Компьютерные сети и коммуникации, Прикладные компьютерные науки, Программное обеспечение, Лингвистика и языкознание. Вот так выглядит обложка:

Редактором является Филлип Шеу, контактные данные - psheu@uci.edu.

Журнал объединяет дисциплины, связанные с соединением (часто неопределенно сформулированных) намерений людей с вычислительным контентом, который включает, но не ограничивается, структурированными и полуструктурированными данными, мультимедийными данными, текстом, программами, услугами и даже сетевым поведением. Международный журнал семантических вычислений (IAO) рассматривает вычислительные технологии (например, искусственный интеллект, естественный язык, разработку программного обеспечения, разработку данных и знаний, компьютерные системы, обработку сигналов и т. д.) и их взаимодействие, которые могут использоваться для извлечения или обработки вычислительного контента и описаний. В то время как некоторые области семантических вычислений появились в виде отдельных разделов в журналах, посвященных отдельным дисциплинам, данный журнал объединяет эти разделы в единую тему с синергетическими взаимодействиями. В нем рассматривается не только анализ и преобразование сигналов (например, пикселей, слов) в полезную информацию, но и то, как такая информация может быть синтезирована и доступна. К публикации принимаются обзорные статьи, тематические исследования, учебные пособия, сообщения, обзоры книг, отчеты о конференциях, отраслевые тенденции и обзоры продуктов.

Адрес издания - https://www.worldscientific.com/worldscinet/ijsc

Пример статьи, название - Convolutional Nonlinear Differential Recurrent Neural Networks for Crowd Scene Understanding. Заголовок (Abstract) - With the growth of crowd phenomena in the real world, crowd scene understanding is becoming an important task in anomaly detection and public security. Visual ambiguities and occlusions, high density, low mobility, and scene semantics, however, make this problem a great challenge. In this paper, we propose an end-to-end deep architecture, convolutional nonlinear differential recurrent neural networks (CNDRNNs), for crowd scene understanding. CNDRNNs consist of GoogleNet Inception V3 convolutional neural networks (CNNs) and nonlinear differential recurrent neural networks (RNNs). Different from traditional non-end-to-end solutions which separate the steps of feature extraction and parameter learning, CNDRNN utilizes a unified deep model to optimize the parameters of CNN and RNN hand in hand. It thus has the potential of generating a more harmonious model. The proposed architecture takes sequential raw image data as input, and does not rely on tracklet or trajectory detection. It thus has clear advantages over the traditional flow-based and trajectory-based methods, especially in challenging crowd scenarios of high density and low mobility. Taking advantage of CNN and RNN, CNDRNN can effectively analyze the crowd semantics. Specifically, CNN is good at modeling the semantic crowd scene information. On the other hand, nonlinear differential RNN models the motion information. The individual and increasing orders of derivative of states (DoS) in differential RNN can progressively build up the ability of the long short-term memory (LSTM) gates to detect different levels of salient dynamical patterns in deeper stacked layers modeling higher orders of DoS. Lastly, existing LSTM-based crowd scene solutions explore deep temporal information and are claimed to be “deep in time.” Our proposed method CNDRNN, however, models the spatial and temporal information in a unified architecture and achieves “deep in space and time.” Extensive performance studies on the Violent-Flows, CUHK Crowd, and NUS-HGA datasets show that the proposed technique significantly outperforms state-of-the-art methods. Keywords: CNDRNN, crowd scene, CNN, nonlinear dRNN