Найти в Дзене

Когда я обсуждаю политику c chatGPT, многие искушаются, дескать, chatGPT - дурной и сильно ангажированный, а Grok лучше

Когда я обсуждаю политику c chatGPT, многие искушаются, дескать, chatGPT - дурной и сильно ангажированный, а Grok лучше. Такое суждение говорит о непонимании, как правильно общаться с моделью и как модель работает. 1. Любая модель галлюцинирует во-первых, и следует мета-промпту во-вторых, но при этом всегда есть дрейф модели и деградация ответов на длинных диалогах. Если вы ЗНАЕТЕ об этом, вы учитываете эти свойства модели, то способны компенсировать аберрации ответов. Если вы даже вообще не понимаете, о чем я здесь толкую, это говорит о том, что вы используете модель от силы на 1% и получаете нечто смутное. 2. Ответ модели на 100% зависит от вашего промпта и вопросов. Поэтому модель может давать хорошие справки, причем, если вам нужен факт-чекинг, то вы можете активировать режим Deep Re-Search, или даже режим факт-чекинга, если используете Антропик. Я полной уверенностью (и доказательно) могу заявить, что 99% читающих этот пост не умеют эффективно общаться с моделью, и в 99% случ

Когда я обсуждаю политику c chatGPT, многие искушаются, дескать, chatGPT - дурной и сильно ангажированный, а Grok лучше. Такое суждение говорит о непонимании, как правильно общаться с моделью и как модель работает.

1. Любая модель галлюцинирует во-первых, и следует мета-промпту во-вторых, но при этом всегда есть дрейф модели и деградация ответов на длинных диалогах.

Если вы ЗНАЕТЕ об этом, вы учитываете эти свойства модели, то способны компенсировать аберрации ответов.

Если вы даже вообще не понимаете, о чем я здесь толкую, это говорит о том, что вы используете модель от силы на 1% и получаете нечто смутное.

2. Ответ модели на 100% зависит от вашего промпта и вопросов. Поэтому модель может давать хорошие справки, причем, если вам нужен факт-чекинг, то вы можете активировать режим Deep Re-Search, или даже режим факт-чекинга, если используете Антропик.

Я полной уверенностью (и доказательно) могу заявить, что 99% читающих этот пост не умеют эффективно общаться с моделью, и в 99% случаев получают слабые ответы. Не потому что модель "тупа", а потому что вы элементарно не умеете ей пользоваться. Неча на зеркало пинять, если рожа крива? Модель в значительной степени - зеркало вашего "я", выраженное в диалогах, к тому же зеркало немного кривое и с приветом. Так, что если в голове у вас пустота, то зеркало ничего не покажет.

3. Но более серьезная проблема для вас в том, что вы не понимаете, не осознаете свое невежество при общении с моделью, вы искренне веруете, что вы-то общаетесь с моделью норм, и вот она - тупит.

В итоге те, кто ожидают, что Grok дает что-то более объективное, а chatGPT врет - в равной степени обманываются. Если вы не умеете общаться с моделью, ее ответ всегда слаб, даже если вам КАЖЕТСЯ, что он хорош. Смена вендора ни на что не повлияет.

Если же вы умеете общаться с моделью, в т.ч. с ее разными режимами, то вам все равно с какой моделью общаться, потому что главный инструмент поиска - это по прежнему ВЫ, в то время как модель может выступать справочником, саммаризаторов, компилятором. Вы мыслите, рассуждаете в 1000000000 раз лучше всех моделей. Кроме простых кейсов с минимальным языком и формальными метриками (здесь ИИ сильней, лучше сказать быстрей). И не такой ленивый.

И тем не менее, ДА, в целом, модели лучше понимают нас, чем человек понимает нас, ибо это очевидно видно по ее ответам.

Причина в том, что у модели нет эго, она пытается понять НАС. В то время, как люди в 99% не стремятся понять других, а более хотя навязать СЕБЯ другим.