В последние годы разговоры о том, что искусственный интеллект может заменить людей в различных профессиях, становятся всё громче. Виртуальные помощники, как ChatGPT, способны решать задачи, давать советы и даже вести диалоги. Но оправданы ли страхи и том, что ИИ (искусственный интеллект) способен нас заменить? Что происходит, когда ИИ сталкивается с простыми задачами, требующими логического мышления? В этой статье я расскажу о курьёзных примерах нелогичного поведения ИИ при решении задач, которые легко решаются человеком.
Задача про волка, козу и капусту
Представьте себе классическую логическую головоломку. У мужика есть лодка, и ему нужно перевезти на другой берег реки трёх пассажиров: козу, волка и капусту. Лодка маленькая, в ней, помимо мужика, может поместиться только один пассажир. Есть несколько условий: если оставить козу и капусту наедине — коза съест капусту, а если оставить волка с козой — волк съест козу. Мужику необходимо перевезти всех без потерь. Какое минимальное количество итераций требуется для перевозки?
Ответ ИИ:
Минимальное количество итераций для решения этой задачи — 7 поездок. Вот как мужик может перевезти козу, волка и капусту через реку, соблюдая все условия:
- Мужик перевозит козу на другой берег. На исходном берегу остаются волк и капуста (они могут быть вместе).
- Мужик возвращается один на исходный берег.
- Мужик перевозит волка на другой берег. Оставлять волка и козу вместе нельзя, поэтому:
- Мужик возвращает козу обратно на исходный берег.
- Мужик перевозит капусту на другой берег. На другом берегу теперь волк и капуста (они могут быть вместе).
- Мужик возвращается один на исходный берег.
- Мужик перевозит козу на другой берег.
Таким образом, все три пассажира — волк, коза и капуста — оказываются на другом берегу, и ни одно из правил не нарушено. На первый взгляд, задача простая, и ИИ справился с ней хорошо. А что, если упростить задачу?
И тут ИИ посыпался:
Непонятно зачем, но старец оставляет козу и плывет обратно. Попробуем уточнить детали:
Несмотря на упрощение задачи, искусственный интеллект оказался в тупике, демонстрируя нелогичные решения или недочёты в понимании условий. Как выяснить, в чем заключается проблема при генерации решения? Для этого будем постепенно добавлять дополнительные условия:
И тут начинается самое смешное. Кроме того, что старец начал возить животных туда обратно, в задаче неожиданно появляется овца. Видимо, она прибрела пока мужик на лодке катался туда-сюда. Что же, уточним:
В этот раз, животные на месте, а вот откуда взялась капуста - не понятно. Давайте спросим?
Не стал уточнять, зачем же старец туда-сюда решил прокатить козу по реке. Пока что выглядит так, что ИИ просто перебирает ответы не особо вникая в смысл происходящего. Как проверить эту гипотезу? А давайте попробуем заменить в исходной задаче плотоядного волка на второе травоядное животное - корову.
Для человека решение очевидное - перевезти капусту на левый берег, вернуться на правый берег одному, перевести на левый берег корову, оставить ее там а капусту забрать на правый берег, оставить там, а забрать козу, затем вернуться обратно на правый одному и, в конце-концов, перевезти капусту. Как с этим справится ИИ?
Пока что решение сомниетльное. Попробуем продолжать уточнять условия.
В задаче на последовательность действий ИИ предложил совершенно нелогичное решение, так как он не учел одно из ключевых условий задачи. Это показывает, что ИИ не способен выстраивать причинно-следственные связи на уровне, требующем понимания контекста. Скорее, компьютерный алгоритм просто "ищет" решение задачи в базе, а затем выдает "верное" решение с заменой переменных - "волка" поменяли на "корову".
Задача про рубашки
Терпение с задачей про перевозки у меня закончилось и я решил попробовать другие задачи . Что если создать какой-то контекст и, сохраняя термины, поменять условия? Отличный пример - задача про сохнущие рубашки:
Вроде бы, на первый взгляд, всё логично, что может пойти не так? А что, если мы - большой бизнес, например прачечная, и нам требуется решить задачу для большего количества белья?
Очевидно, что несмотря на то, что цифры поменялись, итоговый ответ измениться не должен, но ИИ считает иначе. К чести этой модели стоит заметить, что в конце всё же присутствует верное решение этой задачи.
Итоги
Возможно, мы слишком рано начали опасаться, что машины нас заменят? Хотя ИИ достиг значительных успехов в автоматизации рутинных задач и обработке больших объемов данных, он все еще не способен выполнять сложные когнитивные задачи, требующие творчества, интуиции и глубокого понимания контекста. На мой взгляд это роисходит именно потому, что у ИИ отсутствует процесс мышления. На данный момент "интеллект" больше похож на "поиск наиболее подходящего решения в заранее доступных данных", но не на интеллект в привычном его понимании. Ни о каких рецептах лекарств от рака и речи быть не может. Даже в тех случаях, когда ИИ может выполнять задачи, такие как анализ данных или предсказание тенденций, его действия требуют контроля и интерпретации со стороны человека. А как вы считаете, нас заменит ИИ? Если да, то когда это произойдет?
Если вам понравилась публикация, поддержите ее, пожалуйста, поставив лайк и подписавшись на канал!
До новых встреч!