Лекция в четверг (18.05) была посвящена работе с Spark (фреймворк для распределенной обработки данных) Spark позволяет работать с данными различных форматов (CSV, JSON), а также с различными базами данных (Hive, MySQL, PostgeSQL, Kafka, Amazon S3 и другими). Работа с Spark DataFrames во многом напоминает работу с pandas (хотя вывод данных не такой красивый как в pandas). В Spark есть много возможностей: работа с регулярными выражениями, датами, строками, числами. Также есть возможность создавать свои пользовательские функции. В конце занятия была лекция про то, как все устроено внутри Spark. Узнали, что использование Spark DataFrames дает выигрыш по скорости по сравнению со Spark RDD.