Стохастический градиентный спуск (Stochastic Gradient Descent) – это простой, но очень эффективный подход к подгонке линейных классификаторов и регрессоров под выпуклые Функции потерь (Loss Function), такие как Метод опорных векторов (SVM) и Логистическая регрессия (Logistic Regression). Несмотря на то, что SGD существует в сообществе Машинного обучения (ML) уже давно, совсем недавно он привлек значительное внимание в контексте крупномасштабного обучения. SGD успешно применяется для решения крупномасштабных...
Вы наверняка заметили, что всё больше и больше в новостных лентах появляется постов и статей о нейросетях. Их количество медленно, но верно порождает страх у представителей интеллектуальных и творческих профессий — а что, если искусственный интеллект отберёт у всех работу? К счастью, AI пока не готов полностью заменить нас, людей. Но среди работодателей уже ценится умение работать с ним и таким образом ускорять процессы. Каждый месяц нейросети становятся всё более продвинутыми, и с помощью них мы можем достичь значительного прогресса...