Список OpenSlopware, фиксировавший использование LLM-ботов в ПО с открытым исходным кодом, был удалён из-за травли, но быстро нашёл своё продолжение в виде форков. Критика ИИ-кода нарастает.
Великолепно названный проект «OpenSlopware» недолго просуществовал в виде списка проектов с открытым исходным кодом, использующих LLM-ботов. Из-за травли он исчез, но его форки продолжают жить.
«OpenSlopware» представлял собой репозиторий на европейском git-хабе Codeberg, содержащий перечень проектов со свободным и открытым исходным кодом, которые используют код, сгенерированный LLM-ботами, интегрируют большие языковые модели (LLM) или демонстрируют признаки использования «помощников по кодированию» в кодовой базе, например, через пул-реквесты, созданные или изменённые автоматизированными инструментами кодирования.
Однако его создатель — которого мы намеренно здесь не называем и не отмечаем — столкнулся с таким сильным давлением со стороны сторонников LLM, что удалил репозиторий, а также свой аккаунт в Bluesky, заявив, что на время уйдёт из социальных сетей. Теперь, если вы попытаетесь зайти по исходному URL, вы увидите только сообщение 404.
Впрочем, всё не потеряно. Поскольку это был Git-репозиторий, содержавший текст, читаемый человеком, его можно было форкнуть — то есть клонировать содержимое в другой репозиторий. Несколько человек сделали это до того, как создатель оригинального OpenSlopware удалил его, например, эта версия от Small-Hack, также размещённая на Codeberg. «The Register» связался с сопровождающим этого форка и попросил о комментарии, но пока он, по его словам, ещё обдумывает это. Другие планировали поддерживать копии, но решили объединить усилия с этой версией.
Примечательно, что это произошло, несмотря на то, что некоторые участники первоначальной инициативы извинились за своё участие и заявили, что его не следует возрождать.
Это один из растущего числа сайтов, групп и сообществ, созданных для критики всё более широкого использования и продвижения LLM-ботов и их результатов, для которых слово «slop» (отходы, макулатура) становится стандартным термином. Некоторые просто излагают свою критику, например, открытое письмо тем, кто уволил или не нанял технических писателей из-за ИИ. Другие идут дальше и называют виновных. Например, мы недавно видели этот пост в блоге «Авторы», использующие ИИ-отходы в своих книгах: небольшой список.
Один из примеров — сабреддит AntiAI, но также существует экземпляр Lemmy, посвящённый этой теме, под названием Awful.systems. (Для тех, кто не знаком, Lemmy — это инструмент для создания сайтов-агрегаторов новостей и дискуссионных площадок — вроде Reddit или недавно возрождённого, но наводнённого LLM Digg — основанный на тех же протоколах ActivityPub, что используются Mastodon и остальными частями Fediverse.)
Одним из администраторов сайта Awful.systems является системный администратор Unix и бывший сотрудник по связям с общественностью Википедии Дэвид Джерард, который ранее придерживался крайне скептической позиции в отношении мира криптовалют в своём материале «Атака 50-футового блокчейна» (который также вдохновил на книгу и продолжение). Теперь он ведёт столь же скептический блог о индустрии LLM-ботов — Pivot to AI. В посте на экземпляре Lemmy, а также в своей ленте Mastodon он заявляет, что Awful.systems также планирует курировать и поддерживать список в духе OpenSlopware — но они ищут сопоставимо броское название.
Те, кто всё ещё сомневается в достоинствах LLM-ботов и их результатов, могут удивиться уровню ожесточённости, которую это вызывает, но это один из самых спорных аспектов всего мира вычислений на сегодняшний день.
В разделе «Почему не LLM?» продолжение OpenSlopware упоминает последствия авторских прав и лицензирования, а также продолжает ссылаться на статью в Википедии, подробно описывающую воздействие искусственного интеллекта на окружающую среду.
Это обоснованные опасения, но есть и множество других. Как сообщал The Reg в июле, в единственном известном нам тесте такого рода, сайт, продвигающий LLM — Model Evaluation & Threat Research — обнаружил, что, хотя использование помощников по кодированию заставляло программистов думать, что они работают быстрее, на самом деле отладка кода, сгенерированного ботами, замедляла людей ровно настолько, насколько они думали, что ускоряется процесс. Последствия этого для качества кода очевидны. Что долгосрочное использование делает с аналитическими способностями программистов, пока не измерено, но влияние на социальные сети выглядит откровенно пугающим. Влияние на найм выглядело мрачным в начале прошлого года, и даже по мере того, как компании нанимают уволенных обратно, им платят меньше. Заявленный рост производительности нигде не виден.
Наряду с объективными, проверяемыми измерениями, такими как тестирование производительности как людей, так и кода, необходима открытая критика — независимо от того, насколько это расстраивает некоторых из тех, кого критикуют. ®
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Liam Proven