Расскажите про оптимизаторы. Что это, зачем это. В чем особенность SGD, ADAM?
2. Расскажите что такое и для чего нужен слой batchnorm.
3. Какие архитектуры вы знаете для решения задач сегментации? Расскажите об FPN, U-net, DeepLabv3 в 2х словах.
4. Допустим вам нужно сделать сетку для сегментации, предназначенную для мобильных устройств, какую архитектуру с каким энкодером вы возьмете? Почему?
5. Что такое Focal Loss?
6. Механизм attention в компьютерном зрении.
7. Расскажите про возникновение и прогресс в сфере сеток для детекции. В чем разница сингл шот сеток от 2х стадийных? Знаете ли про RetinaNet, Faster R-CNN, Effdet, DETR? Расскажите в чем их особенность.
8. Расскажите про DW свертки
9. В чем основное отличие GAN от VAE
10. Если мы подадим картинку размером 32х32х3 на слой свертки, имеющий 5х5 фильтр, 16 выходных каналов, stride=1, pad= 0. Сколько получится обучаемых параметров у этого слоя?
2 блок вопросов
1. Расскажите, что знаете об LSTM слоях, GRU слоях? В чем их отличия? Сколько в них гейтов?
2. Что такое embeddings? История их развития. Как работает W2V архитектура?
3. Attention в NLP, positional encoding.
4. Трансформеры, что это, принцип работы.
5. Какие задачи решают с помощью NLP (NER, QA и тд). Какие подходы существуют к их решению?
6. Нормализация текста. Что это, и когда она нужна\не нужна?
7. Слышали про модель CLIP? Что это и какой принцип работы?
8. «Будешь делом заниматься или в слаке полдня сидеть?»
3 блок
1. Градиентный спуск, что это такое? Расскажите про проклятие размерности, локальные минимум и седловые точки, а так же как с ними бороться.
2. Что такое перцептрон? Что такое shallow networks, deep networks?
3. Что такое СNN? Расскажите историю развития сверточных нейросетей начиная с LeNet и до наших дней.
4. Что за такие гиперпараметры и как их подбирать?
#machinelearning #artificialintelligence #ai #datascience #python #programming #technology #deeplearning #нейронные сети #bigdata