Ниже сделала подборку со статьями на (почти) понятном русском - о том как там устроены эти ваши нейросетки.
Хабр
1. Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда
https://habr.com/ru/companies/ods/articles/716918/
С мемами и шутками для «шестилетних гуманитариев» объясняют, как работает чат GPT. Слово «линейная регрессия» - самое сложное (шутка/нет). Естественно, есть про архитектуру «Трансформера». На моменте прочтения, где описываются качественные скачки, которые никто не может объяснить (График сравнения количеств параметров в модели (в миллиардах) и качество модели, выраженное в проценте верно решенных математических примеров) – хочется воскликнуть – да это же Гегель! Переход количественного в качественное, диалектика, все дела. В общем, если вы «гуманитарий» с хорошим философским и социологическим бэкграундом – там очень много параллелей. И да, классическая философия уже все объяснила (нет).
2. Объясняем простым языком, что такое трансформеры
https://habr.com/ru/companies/mws/articles/770202/
Нейросетевая архитектура простыми словами – но с табличками и чуть- чуть скринов кода.
На английском. Зато разберетесь в энкодерах и декодерах. Здесь более продвинутые философы и логики будут вскрикивать – так вот, «анализ - синтез» (все дела). И будут правы. Любители семиотики – «кодирование -декодирование, означаемое-означающее!». И тоже будут правы. Нейросети такая штука. Тут все правы.
3. Supervised Fine-Tuning: как настроить LLM под конкретную задачу?
https://habr.com/ru/articles/829936/
Для тех, кто хочет разобраться в сокращениях (зачеркнуто) понятиях. АБЫРВАЛГ про нейросети 😊
Далее - вне Хабра тоже есть жизнь.
4. Шлифуем понимание instruction tuning с IBM (это те, которые сделали нам SPSS) - ИЛИ АБЫРВАЛГ на английском 😊
What is instruction tuning?
https://www.ibm.com/think/topics/instruction-tuning
5. Читаем информационные агентства
Зарубежный (на английском)
Наш (Коммерсант)
https://www.kommersant.ru/doc/5269024
Успехов!