Найти тему
АРМК

Дело вкуса или новая веха ИИ.

«Электронный язык» как
первый шаг к искусственному
эмоциональному интеллекту.

Электронный датчик на основе графена, который может «ощущать» пять основных вкусовых профилей.
Электронный датчик на основе графена, который может «ощущать» пять основных вкусовых профилей.

Уже довольно давно наука пытается воссоздать электронную версию языка ‒ не того, на котором вы говорите, а того, которым вы распознаёте вкусы, и имитаторов этого сложного человеческого органа имеется не мало. Учёными только нашей страны в последние 15-20 лет предложены несколько моделей, и с появлением каждой из них рассказывается о пользе таких приборов. Это и анализы пригодности тех или иных пищевых продуктов (той же воды, например), и исследования в промышленных интересах, и криминалистика, и медицина с фармакологией, и множество других сфер применения.

То есть, в принципе, это исследовательский детектор ‒ такой же инструмент, как, скажем, электронный тестер, осциллограф, микроскоп или телескоп…

Однако сегодня у нас появился повод осветить этот вопрос в несколько ином ключе. Команда исследователей из Пенсильванского университета развивает свою модель электронного языка, которая станет лишь инструментом для куда более масштабного информационно-технологического проекта. Сейчас прорабатывается имитация влияния вкуса на то, что мы едим, в зависимости от наших потребностей и предпочтений, а в будущем это может вылиться в ИИ-систему по-человечески эмоциональной обработки данных. Это, конечно, вряд ли когда-то станет эмоцией в чистом виде, но всё-таки позволит нам приблизиться к реализации «понимающих» нас устройств.

«Основным направлением нашей работы было то, как мы можем привнести эмоциональную часть интеллекта в ИИ», ‒ говорит автор исследования, доцент кафедры инженерных наук и механики в Пенсильванском университете, Саптарши Дас. ‒ Эмоции ‒ это обширная область, <…> Человеческое поведение легко наблюдаемо, но трудно измеримо, что затрудняет его реализацию в роботе для эмоциональной разумности оного. Сейчас нет реального способа сделать это».

Однако то, как мы выбираем себе еду, может помочь нам сделать первые шаги в нужном направлении. Важно понимать, что участие психологических механизмов (предпочтений) в выборе блюда значительно отличается от голода ‒ наиглавнейшей, но чисто физиологической причины приёма пищи. Так что наши привычки питания ‒ действительно хороший пример эмоционального интеллекта как взаимодействия физиологического и психологического состояния организма.

Благодаря сведениям, полученным посредством технологий визуализации работы мозга, удалось построить упрощённую биомиметическую версию исследуемого природного процесса. Напомним, биомиметика занимается имитацией свойств биоматериалов и биологических принципов. Получившаяся система сделана из двумерных материалов толщиной от одного до нескольких атомов и включает в себя не только электронную версию «языка», но и такую же «вкусовую кору», обрабатывающую данные, собранные «языком». Вместе они образуют искусственную вкусовую систему.

Испытания показали, что процесс распознавания достаточно универсален, чтобы его можно было применять ко всем пяти основным вкусовым профилям: сладкому, солёному, кислому, горькому и умами.

«Мы пытаемся создать массивы графеновых устройств, чтобы имитировать около 10 000 вкусовых рецепторов, которые есть на нашем языке, каждый из которых немного отличается от других, что позволяет нам различать тонкую разницу во вкусах», ‒ делится планами Дас.

А ещё команда предполагает, что их концепция вкусового ЭИ в системе ИИ будет транслироваться и на другие чувства. Визуальный, звуковой, тактильный и обонятельный эмоциональный интеллект станет новой вехой в становлении более продвинутого искусственного интеллекта (может, назвать его ИсЭмИ? ‒ звучит, вроде бы, неплохо), который станет ещё лучше понимать нас. То есть он будет понимать не только то, что мы говорим, но и то, что мы имели в виду ‒ то, что мы хотели сказать.

Неужели непонятливый поисковик наконец-то будет искать то, что ты просил, а не то, что ему легче найти?!

По материалам АРМК.