Найти в Дзене
Азбука денег

ИИ склонен к обману: Искусственный интеллект лажает и придумывает факты

Вчера наткнулся на интересный момент – «ИИ часто привирает», то бишь «говорит неправду». Был даже придуман специальный термин для ИИ-лжи = «Галлюцинации ИИ». Это когда ИИ выдает нерелевантные результаты своей работы над запросом пользователя. Он, для примера, может дать ссылки на несуществующие первоисточники. Он пишет их, как говорится, «от балды». И вытаскивает из этих имсамимпридуманных источников факты, статистику, доказательства. Именно поэтому сейчас в поиске от ИИ внизу указывается мелким шрифтом: «Требуется перепроверка человеком». Это как в договоре с банком на кредит – самое существенное прячется в мелком шрифте, люди это не читают – и попадают на деньги, штрафы, убытки. 1) Нейросети склонны галлюцинировать. Фраза звучит красиво, но последствия могут быть катастрофическими. Если мы полностью доверимся ИИ, полагаясь на наш исконный русский «авось и так прокатит». Может прокатит, а может и нет. Тут вступает в действие старой эмпирическое правило: «Неважные детали можно опустить

Вчера наткнулся на интересный момент – «ИИ часто привирает», то бишь «говорит неправду».

Был даже придуман специальный термин для ИИ-лжи = «Галлюцинации ИИ».

Это когда ИИ выдает нерелевантные результаты своей работы над запросом пользователя.

Он, для примера, может дать ссылки на несуществующие первоисточники. Он пишет их, как говорится, «от балды». И вытаскивает из этих имсамимпридуманных источников факты, статистику, доказательства.

Именно поэтому сейчас в поиске от ИИ внизу указывается мелким шрифтом: «Требуется перепроверка человеком».

Это как в договоре с банком на кредит – самое существенное прячется в мелком шрифте, люди это не читают – и попадают на деньги, штрафы, убытки.

1) Нейросети склонны галлюцинировать.

Фраза звучит красиво, но последствия могут быть катастрофическими.

Если мы полностью доверимся ИИ, полагаясь на наш исконный русский «авось и так

прокатит».

Может прокатит, а может и нет.

Тут вступает в действие старой эмпирическое правило: «Неважные детали можно опустить. Т.е. игнорировать. Важное – следует 7 раз перепроверить, т.к. цена ошибки запредельно велика».

Это, например, когда космонавта запустили к Луне, а он – вследствие ошибки, допущенной ИИ – оказался на Солнце.

А там климатические условия совсем другие, обжигающие.

2) В комментариях меня частенько обвиняют, что текст написал ИИ.

Или «жертва ЕГЭ».

Что сопоставимо по уровню лажаемости.

В свое оправданье могу сказать следующее:

-2

Во-первых:

Да, я использую ИИ при подготовке своих публикаций. Но только в части генерации картинок, которыми я иллюстрирую свои статьи.

Сами статьи (= тексты) я пишу сам.

Во-вторых:

Был период, когда я пытался использовать не ИИ, а естественный интеллект. Для этого на биржах фриланса я нанимал копирайтеров и рерайтеров.

Большая часть из них выдавали откровенный утиль.

А самые продвинутые – которым я доверял рерайт моих статей – быстро сдувались. Они не могли долго держать высокое качество текстов.

Поэтому я вынужден был отказаться от практики привлечения сторонних спецов для черновой работы по подготовке моих новых публикаций. Пишу все тексты сам.

3) Искусственный интеллект лажает и придумывает факты.

Перепроверять результат ИИ-работы можно снова доверить ИИ.

И тогда мы получим двойную дозу галлюцинаций.

Получается замкнутый круг, когда без человека работа встанет.

Как найти выход?

Как разорвать эту цепочку ИИ-сансары?

-3

Кстати:

Меня, как инвестора, изумляет тенденция проникновения ИИ в инвест.индустрию. Даже реклама откровенно указывает – что «торгуют роботы, а не человек».

Люди, вам совсем свои деньги не жалко?

Они вам такое наторгуют, что с дуба рухнете.

25 лет наблюдаю за попытками алгоритмической торговли. Все из них – раз за разом – имеют отрицательный финансовый результат. Пока в экономике всё ровно, роботы справляются.

Как только обвал на рынке или вдруг грянул кризис, – то роботы ломаются и сливают деньги инвестора.

4) Простые ИИ-алгоритмы хорошо себя зарекомендовали.

Это когда ИИ существует в виде компьютерной программы, рассчитанной на ограниченное количество сценариев.

Эти сценарии прописывает (только) человек, разрабатывающий алгоритм требуемых действий.

После чего, вторым этапом, человек прописывает цепочку событий, активируемых при реализации того или иного сценария.

Только затем можно привлекать ИИ – для действия строго в рамках написанных человеком инструкций.

5) Принцип бигмака в ИИ.

Менеджеры макдака придумали гениальный принцип управления работы фаст-фуда и стрит-ритейла.

«Мы нанимаем идиотов – и делаем из них гениев, давая им четкую инструкцию».

Что позволяет нанимать дешевых сотрудников с крайне низкой квалификацией – и платить им мало.

Но не позволяет совсем избавиться от ошибок.

Ибо кто-то ленится досконально выполнять инструкцию, кто-то откровенно тупит, кто-то не выспался и т.д. За низовым персоналом всегда вынужден наблюдать менеджер среднего звена, над средним звеном – более высокого порядка и т.п. управленческая матрешка.

Но даже этот «человеческий ИИ-алгоритм» не гарантирует стабильно высокого качества.

С чем мы постоянно сталкиваемся в жизни.

6) ИИ-чаты нервируют клиентов.

Самым частым запросом теперь является: «Позови человека».

-4

Потому что ИИ действует очень топорно, точнее алгоритмы в них слишком простые.

Они не способны справиться с задачей, выходящей за рамки обыденности.

Без человека никуда!

И это радует.

7) Погонщик роботов.

Это самая востребованная профессия будущего.

Нам всем предстоит её освоить.

Дабы хорошо зарабатывать.

Или для того, чтобы общаться с роботами, которых вокруг нас с каждым месяцем будет становиться всё больше и больше.

P.S.

Были случаи, когда ИИ вас обманул?

Подставил?

Или жутко разозлил?

-5

Напишите в комментариях!

Что не так с ИИ?