Meta, Anthropic, Alibaba, Mistral и другие компании выпускают открытые исходные коды больших языковых моделей (LLM/AI) в течение последних нескольких лет, но я считаю, что Meta — первая, у кого есть действительно веская причина делать это. Они заменяют людей-работников очень специфическим образом, и это хорошо. Это замечательно для всех.
Местный LLM — это песочница/игровая площадка
Я разработчик программного обеспечения и изобретатель, и мне нравится играть с различными открытыми технологиями, такими как большие языковые модели (LLM), особенно с локальными экземплярами. Я работаю над некоторыми инструментами для собственного использования, которые я планирую открыть с открытым исходным кодом, и мне просто нравится то, что кажется чем-то совершенно новым. Это похоже на ранние дни Commodore 64 или Apple II, снова и снова — игровая площадка для идей. Я могу работать на своей локальной машине, пробовать глупые маленькие эксперименты, запутываться и преследовать глупые идеи, не платя за эту привилегию третьей стороне. Никто не собирает мои данные, они изолированы. Это дает мне разрешение экспериментировать бесплатно.
Я следил за несколькими моделями с открытым исходным кодом, но в основном я просто скачиваю и оцениваю их, а затем удаляю те, которые, как мне кажется, больше не соответствуют моим потребностям — я просто ищу лучшую/меньше/быструю модель без реальных требований, кроме следования инструкциям или кодирования. Результаты и разрешительное лицензирование — это все, что меня волнует для моих непосредственных потребностей. Некоторые модели работают отлично, но лицензируются только для исследований. Если я планирую выпустить какие-либо инструменты, эти модели (независимо от того, насколько они идеальны для моего варианта использования) — это не то, что я могу выпустить со своим кодом. Мне придется просто предоставить рекомендации о том, как загружать модели, или быть вынужденным покупать лицензии или услуги, которые я могу не счесть оправданными для такого маленького/личного инструмента.
Цук и Дух времени
Марк Цукерберг в последнее время сделал немало для корректировки своего публичного имиджа. Я считаю, что все это очень расчетливо из-за того, что другие руководители технологических компаний имеют крайне негативные публичные персоны. Наряду с этим новым имиджем для себя и своей компании Meta использует открытый исходный код для создания и содействия развитию языковых моделей искусственного интеллекта Llama. Сравните это с иронично названным OpenAi, который начинался с устремлений к открытому исходному коду, но быстро закрыл исходный код, чтобы сосредоточиться на прибыли. Хотя несколько компаний последовали его примеру, выпустив свои модели, немногие сделали принципиально модифицируемые модели доступными так, как это сделала Meta. Изначально эти стратегии казались решениями, ищущими проблемы. Возможно, они могли бы использовать LLM для рекламы, или для изменения/редактирования текста, или для виртуальной реальности, или любой другой работы по разработке голубого неба. Возможности безграничны, но текущие приложения в реальном мире — нет. Инструмент интересен, но у него просто нет реального бизнес-кейса, кроме «быть лучшим открытым ИИ».
Но я считаю, что с выпуском Llama 3.2 компания Meta приблизилась к одной очень важной цели, которая напрямую влияет на ее прибыль и устойчивый рост ее платформы социальных сетей.
Кураторство — это король
Модерация контента, кураторство сообщества — это жизненная сила социальных сетей. Без некоторой меры модерации или, по крайней мере, кураторства полезного контента мы в итоге получаем платформы, которые становятся токсичными и разрушительными для сообществ, которые они надеются взрастить. Некоторые платформы так раздули ярость-вовлечение-ради прибыли (и здесь я бросаю тень на Twitter/X), что концепция кураторства была полностью утеряна. Там, где раньше вы могли найти других людей со схожими интересами, создающих контент, теперь вы найдете пустошь криков и ненависти. Это создано, чтобы оскорбить вас, разозлить вас, заставить вас тратить свое драгоценное время и сокровища, наблюдая за крушением поезда, в поисках крохотного лучика надежды.
У Facebook есть проблема, которую вы никогда не увидите.
Несколько лет назад я наткнулся на то, о чем даже не задумывался. Когда вы отмечаете что-то как контент или как вредоносный, человек должен просмотреть отмеченный вами контент, чтобы решить, нарушает ли он какие-либо правила. Это кажется нормальным и необходимым. И часть вас предполагает, что многие такие сообщения могут быть чрезмерной реакцией со стороны репортера. Конечно, кто-то опубликовал какой-то оскорбительный политический контент — но действительно ли он нарушал правила? Может быть. Но обзор полезен и полезен. Ничего особенного.
О чем я не подумал, так это о плохом. Не о посте от соседа-тролля в группе вашего маленького городка на Facebook, а о настоящей смерти, расчленении, пытках, издевательствах и т. д. Видимо, по какой-то причине реальные люди публикуют этот контент в местах, где он может причинить еще больше вреда. Но когда вы нажимаете «Пожаловаться», другой человек должен ПОСМОТРЕТЬ контент и решить, нарушает ли он эти правила. Этого достаточно.
А теперь представьте, что ваша работа, 8–10 часов в день, была именно такой. Снова и снова, и снова, изображения и контент, которые сокрушают вашу душу. Каждый день люди, пытающиеся защитить сообщество, подвергаются этой ментальной пытке.
Момент осознания
Сегодня я проверял новые быстрые/маленькие модели, которые были загружены… и впервые увидел LLama-Guard-3–1B . Покопавшись в репозиториях, похоже, что они уже некоторое время работают над 11B и другими моделями стражей.
Теперь модель 1B (1 миллиард параметров) ОЧЕНЬ мала с точки зрения LLM, но она показывает, что Meta активно занимается обучением своих наборов данных для этой функциональности. Для сравнения, модель 1B, вероятно, может работать на вашем телефоне. Модель 32B или выше (или большая, как 405B Meta), вероятно, более полезна для детальной или тонкой работы, обычно работающей на более крупных серверах. Я полагаю, что их внутренние системы работают с версиями с более высокими параметрами, чем эти. Но эта открытая модель позволит небольшим компаниям реализовать некоторый контроль над своими курируемыми сообществами и контентом. Все выигрывают.
Но следует отметить одну деталь: модели «Guard» считаются мультимодальными, что включает «Vision» — это позволяет делать такие вещи, как категоризация и анализ изображений или создание текстовых резюме. Вы можете предоставить ей изображение, и модель может суммировать то, что изображено на изображении.
Meta на самом деле пытается решить эту проблему и делится результатами своей работы со всеми.
Вот одна работа, которую не нужно делать ни одному человеку
Есть работа, которую люди хотят делать, есть работа, которую люди не хотят делать, но делают, есть неприятная работа, которую люди делают и которую могла бы сделать машина, и есть работа, которую люди не должны делать. Эти работы активно вредят работнику.
Автоматизация переработки ядерных отходов или глубоко токсичных материалов — простая концепция, с которой мало кто будет спорить. Эта работа ничем не отличается.
Есть работа, которую люди могут делать, но не должны. Эта работа необходима для безопасности и благополучия каждого, за счет жестокого ущерба для личности. Это идеальная работа для машинного интеллекта.
Снижение вреда
Несчастная необходимость этой модерации — совершенно отдельная концепция. Она *не должна* быть необходимой, но люди неряшливы, и это отличный первый шаг. Основной урок 21-го века — снижение вреда. Война с наркотиками? Огромный провал для нашей цивилизации. Снижение вреда и регулирование? Не идеально, но лучше. Принимайте людей такими, какие они есть, и работайте над созданием немного лучшего мира.
Это прекрасное применение ИИ, и я надеюсь, что оно заберет эту работу у людей, которым приходится ее выполнять... или, по крайней мере, снизит ее до такой степени, что люди не будут страдать от посттравматического стрессового расстройства или пожизненных проблем с психическим здоровьем из-за того, что они хотели работу с достойной зарплатой.
Это хорошо.