Хабр, GPT, корпоративные блоги и БМЛы: оцениваем глубины ужаса Долго работая с LLM и GPT, неизбежно начинаешь замечать паттерны, обороты и формулировки, характерные для генеративного контента. Наткнувшись на очередную очевидно генеративную статью, автор решил исследовать это дело подробнее и желательно автоматически.
Статья на Хабре. 14го декабря в одном из самых авторитетных общенаучных журналов Nature была опубликована статья с, кажется, сенсационным заголовком: «ИИ-модели Google DeepMind превосходят математиков в решении нерешённых проблем». А в блогпосте дочки гугла и вовсе не постеснялся указать, что это — первые находки Больших Языковых Моделей (LLM) в открытых математических проблемах. Неужели правда? Или кликбейт — и это в Nature? А может мы и вправду достигли техносингулярности, где машины двигают прогресс?...