Ученым из Японии удалось разработать алгоритм обучения машин, с помощью которого можно "следить" за мыслями человека, отображая их на экране. Инновационная технология получила название "реконструкция глубоких изображений".
По материалам The Next Web, эксперименты заняли 10 недель. На протяжении всего этого времени добровольцам демонстрировали разные изображения (фигуры, буквы, фотографии животных и птиц), а искусственный интеллект проводил анализ их мозговых волн. Мозговая активность первой группы добровольцев записывалась в реальном времени при созерцании ими изображения, а второй — когда они вспоминали увиденное.
После, эту информацию "скармливали" сети глубокого обучения для расшифровки полученных данных и визуализации человеческой мысли. К примеру, если испытуемый воссоздавал в уме букву "А", нейросеть "понимала", какие импульсы головного мозга в ответе за формирование буквы, хотя и не знала, как она выглядит. В итоге ИИ рисовал образ, не совсем четкий и расплывчатый, но довольно приближенный к его оригиналу.
Очень может быть, что в скором будущем данная технология даст возможность записывать сны и передавать эти образы другим людям. Теоретически, она может даже установить мгновенную коммуникацию машины и человека, передавая информацию напрямую в мозг.