В 2025 году мир тонет в контенте. Нейросети генерируют тексты, видео и презентации быстрее, чем мы успеваем их прочитать. Но за скоростью пришла новая угроза — галлюцинации. ChatGPT, Grok, Gemini — все они могут внезапно «придумать» источник, «дополнить» историю или уверенно выдать ложь, похожую на правду. Но теперь появился способ заставить ИИ проверять себя. Команда энтузиастов собрала специальную инструкцию, превращающую ChatGPT в строгую машину фактчекинга. Модель начинает: отказываться от вымысла, если не уверена; ссылаться на реальные документы, авторов и даты; помечать непроверенные данные как “Unverified”; отключать эмоции, догадки, шутки и лишние слова; следовать чёткой структуре: факт, источник, статус. Это не просто «промт», а настоящий режим для профессионалов, которые работают с информацией: журналистов, авторов, исследователей, студентов, стратегов и всех, кому важна точность. ✅ Попробовать можно здесь: ✅ Попробовать можно здесь: 👉 GPT для фактчекинга Работает на верс