Mistral AI, стартап по разработке моделей с открытым исходным кодом, значительно отошел от традиционной тенденции выпуска моделей, предоставив ссылку на торрент для своей новой модели Large Language Model (LLM), MoE 8x7B
Этот подход вызвал значительный резонанс в сообществе искусственного интеллекта, контрастируя с более отточенными и профессиональными релизами таких компаний, как Google
Модель, называемая "уменьшенным GPT-4", была описана как небольшая, но мощная, адаптируемая ко многим вариантам использования и превосходящая Llama 2 13B по всем показателям производительности
Она также обладает естественными возможностями кодирования и длиной последовательности 8 кбайт
Модель выпущена под лицензией Apache 2.0, что упрощает ее развертывание на любом облачном или игровом графическом процессоре
Выпуск модели по торрент-ссылке был расценен как смелый шаг, и некоторые комментаторы отметили, что это делает практически невозможным цензурирование или удаление модели из Интернета
Однако были высказаны опасения по поводу отсутствия оценок безопасности или сообщений о безопасности от Mistral AI
Модель Mistral 7B, предыдущий выпуск компании, также была доступна для скачивания по различным каналам, включая торрент объемом 13,4 гигабайта
Эта модель получила высокую оценку за ее превосходную производительность для своего размера и лицензирование по лицензии Apache 2.0, которая позволяет любому использовать модель при условии, что он предоставит соответствующий кредит.