Добавить в корзинуПозвонить
Найти в Дзене
Ruslan Kapeting

# Почему ваш ИИ «тупит»: параметры, о которых вы не знали

Дочь-школьница заявила, что DeepSeek — «тупой», а ChatGPT «получше». Расспросив её, как она пользуется нейросетями, я понял: нужен ликбез. Дело не только в выборе модели — есть десятки настроек, которые кардинально меняют качество ответов. ## Модель — это только начало Многие выбирают между разными ИИ-моделями: одна дешевле, другая «умнее». Мой товарищ платил немалые деньги за курсы по эффективной работе с нейросетями. И знаете что? Там объясняли не какую кнопку нажать, а какие параметры выкрутить.
Вам повезло, тут вы все прочитаете бесплатно. У любого ИИ под капотом — целый пульт управления. Большинство пользователей его никогда не видели. А между тем именно эти настройки определяют, получите вы гениальный ответ или бессвязный бред. ## Температура: главный регулятор креативности Температура — пожалуй, самый важный параметр. Низкие значения (ближе к нулю) делают ответы предсказуемыми и точными. Высокие — добавляют творчества, но и рисков. Для математической задачи ставьте темпе

Дочь-школьница заявила, что DeepSeek — «тупой», а ChatGPT «получше».

Расспросив её, как она пользуется нейросетями, я понял: нужен ликбез. Дело не только в выборе модели — есть десятки настроек, которые кардинально меняют качество ответов.

## Модель — это только начало

Панель управления ИИ
Панель управления ИИ

Многие выбирают между разными ИИ-моделями: одна дешевле, другая «умнее». Мой товарищ платил немалые деньги за курсы по эффективной работе с нейросетями. И знаете что? Там объясняли не какую кнопку нажать, а какие параметры выкрутить.
Вам повезло, тут вы все прочитаете бесплатно.

У любого ИИ под капотом — целый пульт управления. Большинство пользователей его никогда не видели. А между тем именно эти настройки определяют, получите вы гениальный ответ или бессвязный бред.

Параметры ИИ, многие даже не знают где это находится.
Параметры ИИ, многие даже не знают где это находится.

## Температура: главный регулятор креативности

Температура — пожалуй, самый важный параметр. Низкие значения (ближе к нулю) делают ответы предсказуемыми и точными. Высокие — добавляют творчества, но и рисков.

Для математической задачи ставьте температуру низко. Для сочинения или мозгового штурма — повышайте. Школьница, которая жалуется на «тупость» модели, возможно, просто получает слишком консервативные ответы там, где нужна фантазия. Или наоборот.

## Токены и ограничения длины

Max_tokens задаёт максимальную длину ответа. Если лимит маленький — ИИ обрывается на полуслове. Если огромный — может уйти в философские дебри.

Последовательность останова говорит модели, когда прекратить генерацию. Без неё ответ может тянуться бесконечно или обрываться некорректно.

Потоковый вывод и размер чанка влияют на то, как текст появляется на экране: целиком или по кусочкам. На качество не влияет, но на восприятие — ещё как.

## Тонкая настройка вероятностей

Здесь начинается магия для продвинутых пользователей:

Top_p и top_k ограничивают, из скольких вариантов слов выбирает модель. Узкий выбор — стабильнее, широкий — разнообразнее.

Min_p отсекает слишком маловероятные варианты.

Frequency_penalty и presence_penalty борются с повторами. Первый штрафует за частое использование одних слов, второй — за повторное упоминание уже сказанного.

Repeat_penalty работает схоже — не даёт модели зацикливаться.

Logit_bias позволяет вручную повышать или понижать вероятность конкретных слов. Хотите, чтобы ИИ избегал определённых терминов? Это сюда.

## Специальные режимы мышления

Усилия для рассуждения и теги рассуждения включают режим «думания вслух». Модель показывает ход мысли, что полезно для сложных задач.

Параметр think в некоторых системах делает то же самое — заставляет ИИ сначала порассуждать, потом ответить.

Mirostat с параметрами eta и tau — продвинутый алгоритм контроля «сложности» текста. Поддерживает стабильный уровень запутанности ответа.

## Технические параметры для локального запуска

Если запускаете ИИ на своём компьютере, появляются дополнительные рычаги:

Num_ctx — размер контекстного окна: сколько предыдущего текста модель «помнит».

Num_gpu и num_thread распределяют нагрузку между процессором и видеокартой.

Num_batch влияет на скорость обработки.

Use_mmap и use_mlock управляют работой с памятью.

Keep_alive определяет, как долго модель остаётся загруженной между запросами.

Format задаёт структуру вывода — например, JSON для программистов.

## Что из этого следует

Называть модель «тупой» — всё равно что ругать автомобиль за медленную скорость, не зная о существовании педали газа. Разные задачи требуют разных настроек. И да, базовые интерфейсы часто прячут эти параметры, давая усреднённые значения.

Я поставил на своем сервере NoName оболочку, в которой загрузил несколько моделей через API. Выбор моделей происходит просто, оплата не за каждую абонплата в месяц, а за Токены - сколько работал, столько и платишь.
Каждая модель стоит 20-30 долларов в месяц и мне этого хватает для работы 2-3 дня, потом она требует доплаты. Если покупать "безлимит", то это 260 долларов у Perplexity и выше у остальных.
(На самом деле это была серьезная статья расходов, пока я не начал работать с DeepSeek. Вы не поверите, в 50-100 раз дешевле, неделя работы - 1 доллар!)

Результат работы промта тут: https://www.cupicaps.ru/articles/2026/04/
Результат работы промта тут: https://www.cupicaps.ru/articles/2026/04/

Прежде чем менять ИИ-помощника, попробуйте покрутить настройки. Возможно, ваш «тупой» инструмент просто неправильно настроен.

А вы когда-нибудь меняли параметры в нейросетях? Или пользуетесь как есть?

Подпишись и Лайкни
Подпишись и Лайкни

Если статья Вам понравилась, подпишитесь поставьте лайк, не жалейте эмоций.
Это поможет мне в продвижении.