Найти тему
Город будущего

​​Могут ли люди и роботы «мечтать» об одном и том же (спойлер: вряд ли)

Нашумевшая история об уволенном сотруднике Google, якобы обнаружившем признаки «разума» у ИИ, в очередной раз навело на мысли: а что такое, собственно, разум? 

«Наука не знает, что такое сознание, — говорит научный журналист Денис Тулинов. — И цена этого незнания будет расти. Из-за развития технологий вопрос о сознании перестал быть сугубо философским, все чаще придется отвечать на него практически. Ситуация, когда технические возможности опережают понимание, опасна».

Если перевести фокус с естественных наук на современные вычислительные системы, то, например, лингвист Эмили Бендер сравнивает языковые модели с осьминогом, который нашел подводный телеграфный кабель, связывающий два острова. Головоногое сначала подслушивает сообщения, идущие по кабелю в обе стороны (ничего в них не понимая, так как не знает языка). Затем выделяет паттерны и прочие закономерности, после чего учится предсказывать ответы (вариант китайской комнаты Сёрла в стиле «В мире животных»). Пример осьминога исключительно удачный, поскольку его щупальца обладают «памятью на минималках» (они не только тактильно изучают мир, но и чувствуют его запах и вкус). Еще большие языковые модели сравнивают с попугаями. Когда говорливая птица встречает гостей семиэтажным матом, это вызывает восторг — но лишь потому, что люди сами трактуют «послание» птицы, как содержащее смысл и намерение (ведь они слышат от попугая связный «спич», все слова в котором расставлены в правильном порядке).

«Сам термин «сознание» может вводить в заблуждение. У людей, кроме обычного ясного бодрствования, бывают и измененные состояния сознания. Целый спектр разных режимов работы психики, весьма отличных друг от друга: сознание бывает спутанным, фрагментарным или, наоборот, повышенным — теория должна объяснить их все. Бывает, что у человека не одно, а два сознания, как у пациентов с расщепленным мозгом. Или даже несколько личностей в одном нетронутом мозге…».

На рисунке: китайская комната Джона Сёрла — цифровая система не может «понимать» осуществляемые ею процессы, поскольку обрабатывает информацию, работая с формальными символами и такими же структурами.