Добавить в корзинуПозвонить
Найти в Дзене

Стоит ли искусственный интеллект рассматривать как рассудочную деятельность или мышление

Стоит ли искусственный интеллект рассматривать как рассудочную деятельность или мышление❓ Само словосочетание «искусственный интеллект» может вводить многих в заблуждение, потому что его воспринимают, как некий сверхразум, обладающий огромными возможностями и лишённый человеческих недостатков. Многим искусственный интеллект представляется всезнающим оракулом, способным ответить на любой вопрос. На самом деле это всего лишь усовершенствованный инструмент, в принципе известный людям уже давно. ИИ можно сравнить со словарём или энциклопедией. Это массив данных, к которому добавлена программа, позволяющая задавать вопрос и быстро извлекать из этого массива ответ на него. Эта промпт-программа выполняет ту же роль, которую выполняет библиотекарь в библиотеке. Но в отличие от живого библиотекаря, она не может оценить правдивость, объективность и соответствие запросу той информации, которую выдаёт. У программы нет эмпатии, сочувствия и понимания того более широкого контекста, в котором задан

Стоит ли искусственный интеллект рассматривать как рассудочную деятельность или мышление❓

Само словосочетание «искусственный интеллект» может вводить многих в заблуждение, потому что его воспринимают, как некий сверхразум, обладающий огромными возможностями и лишённый человеческих недостатков.

Многим искусственный интеллект представляется всезнающим оракулом, способным ответить на любой вопрос. На самом деле это всего лишь усовершенствованный инструмент, в принципе известный людям уже давно. ИИ можно сравнить со словарём или энциклопедией. Это массив данных, к которому добавлена программа, позволяющая задавать вопрос и быстро извлекать из этого массива ответ на него. Эта промпт-программа выполняет ту же роль, которую выполняет библиотекарь в библиотеке. Но в отличие от живого библиотекаря, она не может оценить правдивость, объективность и соответствие запросу той информации, которую выдаёт. У программы нет эмпатии, сочувствия и понимания того более широкого контекста, в котором задан вопрос. Поэтому ответы искусственного интеллекта линейны и ограничены степенью разработанности самой программы, а значит он может совершать трагические ошибки.

Эти недостатки ИИ становятся особенно очевидными, когда люди пытаются поговорить с чат-ботом на личные темы и тем более использовать его в качестве своего рода онлайн-психолога.

Такое общение может даже закончиться трагедией. В прессе описаны случаи, когда под влиянием советов искусственного интеллекта люди кончали жизнь самоубийством или убивали своих близких. Уже звучат предостережения от пионеров разработки ИИ о том, что люди ожидают от этого инструмента решения несвойственных ему задач. Они призывают инвесторов не вкладывать чрезмерно большие суммы денег в такие разработки, а программистов – не сосредотачиваться исключительно на этой сфере. Проблемой остаётся и релевантность информации, предлагаемой искусственным интеллектом, особенно в случае с промптами, предполагающими сканирование больших сегментов интернета. ИИ выдаёт массив информации, которая не сравнивалась и не перепроверялась, и наряду с ценными мыслями там может содержаться абсолютная ересь. Поэтому нельзя без каких-либо ограничений использовать ИИ в тех областях, где речь идёт о здоровье или качестве жизни человека. В таких случаях обязательно должен работать человек-оператор, который бы перепроверял выводы чат-бота и подтверждал их обоснованность.

Период большого восхищения искусственным интеллектом сменится более сбалансированным отношением к этому инструменту.

Модели искусственного интеллекта, конечно, можно использовать как вспомогательный инструмент, но они не снимают вопросов о навыках и компетенциях самого человека, об ответственности за собственную жизнь. Если мы отдаём эту ответственность неким внешним акторам, мы зачастую играем в «русскую рулетку». Это рискованно и, как правило, неоправданно. Как показали наши собственные эксперименты с написанием текстов, переводом, анализом массивов финансовых данных, ИИ порой может выдавать критические ошибки. Поэтому при использовании таких продуктов всегда должен быть контроль специалиста.

👇