Добавить в корзинуПозвонить
Найти в Дзене
Zettelkasten RU Community

## Чтобы задать вопрос умной машине, необходимо знать как минимум половину ответа

Сцена из кинофильма «Я, робот»[^1]: герой Уилла Смита стоит перед голограммой выброшенного из окна своей лаборатории профессора и задает ему вопрос: «Кто тебя убил?», на что голограмма отвечает: «Я не могу ответить на этот вопрос, задавай вопросы правильно». В 2004 году, когда вышел фильм по роману Айзека Азимова, я еще не знал, насколько комментарий голограммы убитого профессора окажется пророческим. *** В 1953 году Роберт Шекли написал рассказ «Ask a Foolish Question»[^2]. В этом рассказе некая сверхцивилизация получила в свое распоряжение свой вариант ChatGPT — машину, способную ответить на любой вопрос, какой ни спроси. Однако отвечала машина неадекватно, и многие думали, что дело в самой машине. Сегодня происходит ровно то же самое. Человек спрашивает ИИ, а ИИ выдает неадекватный ответ; человек копирует этот неадекват, который благодаря чудовищному объему данных кажется логичным, и выдает его за истину. Машина генерирует «неадекват» по той же причине, что и в рассказе Роберта

## Чтобы задать вопрос умной машине, необходимо знать как минимум половину ответа

Сцена из кинофильма «Я, робот»[^1]: герой Уилла Смита стоит перед голограммой выброшенного из окна своей лаборатории профессора и задает ему вопрос: «Кто тебя убил?», на что голограмма отвечает: «Я не могу ответить на этот вопрос, задавай вопросы правильно».

В 2004 году, когда вышел фильм по роману Айзека Азимова, я еще не знал, насколько комментарий голограммы убитого профессора окажется пророческим.

***

В 1953 году Роберт Шекли написал рассказ «Ask a Foolish Question»[^2]. В этом рассказе некая сверхцивилизация получила в свое распоряжение свой вариант ChatGPT — машину, способную ответить на любой вопрос, какой ни спроси. Однако отвечала машина неадекватно, и многие думали, что дело в самой машине.

Сегодня происходит ровно то же самое. Человек спрашивает ИИ, а ИИ выдает неадекватный ответ; человек копирует этот неадекват, который благодаря чудовищному объему данных кажется логичным, и выдает его за истину.

Машина генерирует «неадекват» по той же причине, что и в рассказе Роберта Шекли. Потому что вопросы, сформулированные человеком, очень часто основаны на неадекватных представлениях о реальности. Например, что ИИ может выполнить работу за человека — нет, не может. Может составить «прекрасный» исследовательский отчет — нет, не может. Точно так же ИИ не сможет гулять по утрам с собакой, заваривать кофе и делать что-то за пределами своих вычислительных мощностей.

Это всего лишь генератор случайных слов. Да, весьма умелый генератор, иногда его ответы могут быть очень похожи на правду, но это все еще генератор «случайных» слов, которые нужно понять и интерпретировать. Но самое главное — суметь задать «вопрос, который соответствует адекватному представлению о реальности.

А вы что думаете относительно "адекватности"?

***

П.С. Спунер, герой Уилла Смита, смог получить правильный ответ от голограммы профессора лишь тогда, когда правильно понял происходящие с ним и в мире события.

П.П.С, мы уже начали набирать в мартовскую группу Улилогики, как раз там, где мы учимся "адекватно" смотреть на реальность.