Сеня рядом и Белла пришел. Былое
PySpark для начинающих: полное руководство с примерами и заданиями
PySpark – это фреймворк для обработки больших объемов данных с использованием языка Python. Он основан на Apache Spark, который является одной из наиболее широко используемых платформ для работы с данными в масштабе веба. Начать работу с PySpark может быть сложно для начинающих, но в этом руководстве мы поможем вам освоить этот инструмент, рассказав об основных концепциях и функциональности PySpark. В этом руководстве вы получите все необходимые знания, чтобы начать работать с PySpark, начиная от установки и начального уровня до продвинутой обработки данных и машинного обучения...
Планы выполнения запросов при работе с API pandas в Apache Spark
Для чего смотреть планы выполнения запросов при работе с API pandas в Spark и как это сделать: примеры использования метода spark.explain() и его аргументов для вывода логических и физических планов. Разбираем на примере PySpark-скрипта. Мы уже писали, что PySpark, API-интерфейс Python в Apache Spark, позволяет работать с популярной библиотекой pandas, которая довольно известна, но по своей природе не очень хорошо работает с большим объемом данных. Тем не менее, многие аналитики данных и дата-инженеры по-прежнему используют pandas в своих PySpark-приложениях...