GPT-2 с нуля на MLX Train.py - это ~200 строк кода на Python, который определяет и обучает GPT-2 с нуля, используя mlx и numpy в качестве единственных зависимостей. В качестве примера модель обучена на ~1 миллионе символов Шекспира, содержащихся в файле input.txt, и на Macbook обучение занимает всего 10 минут. В результате вы получаете связанный текст, похожий на Шекспира. GitHub: https://github.com/pranavjad/mlx-gpt2 Платформа: разработка
GPT-2 (Generative Pre-trained Transformer 2) – это вторая версия модели GPT от компании OpenAI, выпущенная в феврале 2019 года. Именно с выхода GPT-2 началась новая эпоха в развитии искусственного интеллекта, вызвавшая большой общественный резонанс и привлекшая внимание к вопросам этики и безопасности ИИ. GPT-2 стала знаковой моделью, благодаря своим возможностям по генерации текстов и предсказаниям, которые значительно превзошли ожидания. До появления GPT-2 уже существовала первая версия модели...