27 подписчиков
ОГРАНИЧЕНИЯ ИИ для юристов (на примере GPT)
• Отсутствие встроенной правовой базы.
GPT не «знает» законы в классическом смысле — он не хранит их как справочник. Ответы генерируются на основе вероятностных моделей языка, что иногда приводит к убедительным, но вымышленным результатам («галлюцинациям»): несуществующим статьям, абзацам, ссылкам на «решения» судов.
• Слабое качество юридического ресёрча.
GPT не заменит полноценный поиск судебной практики или глубокий анализ узкоспециализированных вопросов. Особенно это актуально при подготовке legal opinion, проработке позиции по спору или поиске прецедентов. Кроме того, память большинства моделей GPT ограничена октябрём 2023 года (на момент написания настоящей статьи).
Показательный пример — в США два адвоката сослались на прецеденты, придуманные ChatGPT, за что получили штраф и публичный выговор.
Решения здесь могут быть следующими:
1. Отличные юридические заключения почти без галлюцинаций выдает функция Deep Research. Для эффективного использования нужен подробный промпт с максимальным количеством уточнений. Результат в большинстве случаев оказывается точным, актуальным и профессионально оформленным.
2. Работа с загруженными НПА и судебными актами. Модель GPT-o1 даёт хорошие результаты, если вы заранее «скармливаете» ей нужные документы: закон, договор, судебный акт и т.д. После загрузки можно задать узкий запрос:
«Проанализируй договор на предмет соответствия российскому федеральному закону о связи и правилам телефонной связи и дай краткое заключение».
Такой подход снижает вероятность ошибок, так как модель не «додумывает» положения, а работает с тем, что вы ей дали.
3. Уточнения и запросы на перепроверку: «Проанализируй свой ответ на предмет наличия галлюцинаций и соответствие НПА и конкретным пунктам». Еще лучше попросить другую модель перепроверить ответ.
1 минута
10 апреля 2025