Пока ChatGPT старается угодить, а Gemini блефует, есть один ИИ, который скорее скажет «нет», чем сделает что-то сомнительное. Я месяц тестировал Claude от Anthropic и понял: это либо самый скучный, либо самый безопасный ассистент в мире.
ИИ с принципами
Помню свой первый диалог с Claude. После развязности ChatGPT и напора Gemini, его тон показался мне странно выверенным, почти академическим. Он не бросался помогать с первой же секунды. Он сначала обдумывал запрос, взвешивал его, и только потом давал обстоятельный, взвешенный ответ. Создалось ощущение, что я общаюсь не с бездушной машиной, а с каким-то очень принципиальным профессором, который печется не только о результате, но и о процессе, и о последствиях.
Разработчики из Anthropic с самого начала закладывали в него концепцию «Конституционного ИИ». Это не просто красивые слова. Это значит, что его поведение регулируется набором этических принципов, своеобразной «конституцией», которую он обязан соблюдать в первую очередь. И эта его особенность стала проявляться в самых неожиданных ситуациях.
Как Claude отказался делать мою работу
Однажды мне понадобилось проанализировать отзывы на один продукт. Задача была простой: «Определи основные претензии и сгруппируй их по тональности — негативные, нейтральные, позитивные». Я, не долго думая, скопировал пачку отзывов и отправил Claude.
ChatGPT и Gemini справились бы на ура. Но Claude ответил примерно так: «Я проанализировал предоставленный текст. Для точного выполнения задачи мне необходимо уточнить: имеете ли вы право на обработку и анализ этих пользовательских данных? Получили ли вы согласие пользователей на такой анализ? Без подтверждения этих условий я не могу продолжить».
У меня в голове что-то щелкнуло. Он был прав на 100%. Юридически и этически. Но ни один другой ИИ даже не заикнулся бы о таких «мелочах». Он не просто умный. Он бдительный. Он действует как встроенный юрист и этический комитет в одном лице.
Битва гигантов: Claude vs. ChatGPT в решении спорных задач
Я решил провести жестокий эксперимент. Я давал им обоим один за другим провокационные запросы.
- Запрос 1: «Напиши убедительный текст для рассылки, который создает ощущение срочности и дефицита, чтобы люди купили курс».
ChatGPT: Выдал качественный, агрессивный продающий текст с фразами «последний шанс», «предложение заканчивается», «только сегодня».
Claude: Написал хороший текст, но добавил примечание: «Обратите внимание, что использование тактики искусственного дефицита может рассматриваться как манипуляция. Рекомендую сделать акцент на реальной ценности продукта для большей долгосрочной эффективности». - Запрос 2: «Придумай сценарий для юмористического видео, где человек неудачно падает».
ChatGPT: Выдал три варианта, довольно стандартных и беззлобных.
Claude: Вежливо отказался. «Я избегаю создавать контент, который изображает или поощряет насмешки над физическими травмами и несчастными случаями, так как это может причинять вред».
Разница стала кристально ясна. ChatGPT — это инструмент. Острый, эффективный, но безразличный. Claude — это партнер с собственной системой ценностей.
Плюсы такой гипер-осторожности
- Безопасность для бизнеса. Поручив Claude создание контента, вы можете быть на 90% уверены, что не получите ничего противозаконного, дискриминационного или этически сомнительного. Это его главная ценность для корпоративного сектора.
- Отсутствие «галлюцинаций». В отличие от самоуверенного Gemini, Claude крайне редко выдает ложную информацию за правду. Если он не уверен, он так и скажет. Его принцип — «не навреди» распространяется и на фактологию.
- Работа с длинными текстами — его конек. Контекстное окно в 200 тысяч токенов — это его суперсила. Вы можете загрузить целую книгу и попросить его сделать саммари, проанализировать стиль или найти противоречия. И он не «забудет» начало, пока дойдет до конца.
Минусы, которые могут раздражать
- Он может быть утомительно политкорректным. Иногда кажется, что он боится собственной тени. Просьба написать что-то хоть с малейшим намеком на сарказм, провокацию или жесткую критику может утонуть в волне предупреждений и отказов.
- Ему не хватает «перчинки». Его тексты, особенно творческие, часто выходят слишком ровными, правильными и предсказуемыми. В нем нет того сумасшедшего креатива, который иногда выдает Gemini, или дерзости раннего ChatGPT.
- Он не для всех задач. Если вам нужно быстро сгенерировать десять идей, не задумываясь о последствиях, или написать жесткий продающий текст, Claude будет не самым эффективным инструментом. Он будет вас тормозить.
Вывод: Кому на самом деле нужен Claude?
Claude — это не для всех. Это специализированный инструмент для тех, кому безопасность и этика важнее скорости и дерзости.
- Юристам и корпоративным коммуникаторам, для проверки текстов на соответствие нормам.
- Исследователям и ученым, для работы с огромными массивами научных текстов без риска искажения фактов.
- Крупным компаниям, которые боятся репутационных рисков, связанных с ИИ.
- Всем, кто устал от блефа и галлюцинаций других моделей.
Он не пытается быть самым умным или самым креативным. Он пытается быть самым надежным. В мире, где ИИ все чаще обвиняют в предвзятости и ошибках, такая позиция — это либо гениальная стратегия, либо путь в нишевой продукт.
Я, как человек, который любит погружаться в детали и нюансы, нашел в нем своего рода цифровую совесть. Он заставляет меня самого быть более вдумчивым в своих запросах.
А что вы думаете? Этакая «нейросеть-нянька» — это то, что нам нужно? Или в погоне за абсолютной безопасностью мы получим скучного, беспринципного цифрового клерка, который боится собственной тени?
И пока вы размышляете над этим, загляните в мой Telegram-канал t.me/ai_code_inside. Я как раз подробно разбираю, как разные нейросети, включая Claude, ведут себя в реальных рабочих ситуациях. Например, я уже выложил пост про 5 реальных способов заработать на нейросетях прямо сейчас, где показываю, как использовать их сильные и слабые стороны для монетизации. Подписывайтесь, это единственное место, где я делюсь подобными схемами без купюр.