Уважаемые коллеги, доброго времени суток! Мы начинаем обзор изданий в области Психологии развития. Сегодня хотим представить вашему вниманию нидерландское научное издание Decision Support Systems. Журнал имеет первый квартиль, издается в Elsevier, его SJR за 2022 г. равен 2,076, импакт-фактор 7,5, электронный ISSN - 0167-9236, предметные области - Психология развития, Информационный менеджмент и системы, Информационные системы, Менеджмент информационных систем, Культура и искусство (общие вопросы). Вот так выглядит обложка:
Здесь два редактора - Эндрю Чен, контактные данные - andrewchen@ku.edu
и Виктория Юун - vyyoon@vcu.edu.
Общая черта статей, опубликованных в журнал, заключается в их актуальности для теоретических и технических вопросов, связанных с поддержкой расширенного процесса принятия решений. Рассматриваемые области могут включать основы, функциональность, интерфейсы, внедрение, воздействие и оценку систем поддержки принятия решений (DSS). Рукописи могут быть основаны на различных методах и методологиях, в том числе из теории принятия решений, экономики, эконометрики, статистики, совместной работы с компьютерной поддержкой, управления базами данных, лингвистики, науки об управлении, математического моделирования, операционного менеджмента, когнитивных наук, психологии, управления пользовательским интерфейсом и других. Однако рукопись, посвященная прямому вкладу в любую из этих смежных областей, должна быть отправлена в издание, соответствующее конкретной области.
Адрес издания - https://www.sciencedirect.com/journal/decision-support-systems
Пример статьи, название - Model-contrastive explanations through symbolic reasoning. Заголовок (Abstract) - Explaining how two machine learning classification models differ in their behaviour is gaining significance in eXplainable AI, given the increasing diffusion of learning-based decision support systems. Human decision-makers deal with more than one machine learning model in several practical situations. Consequently, the importance of understanding how two machine learning models work beyond their prediction performances is key to understanding their behaviour, differences, and likeness.
Some attempts have been made to address these problems, for instance, by explaining text classifiers in a time-contrastive fashion. In this paper, we present MERLIN, a novel eXplainable AI approach that provides contrastive explanations of two machine learning models, introducing the concept of model-contrastive explanations. We propose an encoding that allows MERLIN to work with both text and tabular data and with mixed continuous and discrete features. To show the effectiveness of our approach, we evaluate it on an extensive set of benchmark datasets. MERLIN is also implemented as a python-pip package.
Keywords: eXplainable AI; Contrastive explanation methods for XAI; Post-hoc explainability; XAI Interpretability