Найти в Дзене
Вечерняя Москва

Лебедев назвал интеллектуально неполноценными людей, просящих совета у нейросети

Блогер и дизайнер Артемий Лебедев в своем новостном обзоре охарактеризовал тех, кто обращается за советом к нейросети ChatGPT, как неполноценных. Выпуск доступен в социальной сети «ВКонтакте». Лебедев считает, что использование нейросетей в работе или повседневной жизни вполне приемлемо. Однако он подчеркнул, что важно проверять информацию, которую предоставляет искусственный интеллект, так как она порой может быть недостоверной. Он также отметил, что нейросеть не в состоянии предложить уникальные рекомендации, поскольку формирует свои ответы на основе множества материалов, доступных в интернете. — Когда вы встречаете человека, который ссылается на то, что он пообщался с каким-то ChatGPT (...) и получил какой-то ответ, вы имеете дело с интеллектуально неполноценным человеком, — сказал блогер. Нейросеть действительно порой может давать ошибочные и даже опасные советы. Так, житель США попал в психбольницу на принудительное лечение после того, как ChatGPT посоветовал ему употреблять броми
   Фото: roscongress / Сергей Лукин
Фото: roscongress / Сергей Лукин

Блогер и дизайнер Артемий Лебедев в своем новостном обзоре охарактеризовал тех, кто обращается за советом к нейросети ChatGPT, как неполноценных. Выпуск доступен в социальной сети «ВКонтакте».

Лебедев считает, что использование нейросетей в работе или повседневной жизни вполне приемлемо. Однако он подчеркнул, что важно проверять информацию, которую предоставляет искусственный интеллект, так как она порой может быть недостоверной.

Он также отметил, что нейросеть не в состоянии предложить уникальные рекомендации, поскольку формирует свои ответы на основе множества материалов, доступных в интернете.

— Когда вы встречаете человека, который ссылается на то, что он пообщался с каким-то ChatGPT (...) и получил какой-то ответ, вы имеете дело с интеллектуально неполноценным человеком, — сказал блогер.

Нейросеть действительно порой может давать ошибочные и даже опасные советы. Так, житель США попал в психбольницу на принудительное лечение после того, как ChatGPT посоветовал ему употреблять бромид вместо соли. Пациент поступил в больницу с паранойей, галлюцинациями. Он отказывался от воды, подозревая, что сосед его отравил.

Эксклюзивы "Вечерней Москвы"

Иппотерапия: чем верховая езда полезна для взрослых и детей

Можно сравнить с трехлетним ребенком: как обмануть мозг, чтобы сделать свою жизнь лучше