Для обработки пропущенных значений используют функцию dropna(), а также fillna(). Задача 1 Удалите из датафрейма пропущенные значения. Затем напечатайте на экране количество строк в датафрейме. import numpy as np import pandas as pd from pyspark.sql import SparkSession APP_NAME = "DataFrames" SPARK_URL = "local[*]" spark = SparkSession.builder.appName(APP_NAME) \ .config('spark.ui.showConsoleProgress', 'false') \ .getOrCreate() taxi = spark.read.load('/datasets/pickups_terminal_5.csv', format='csv', header='true', inferSchema='true') taxi = taxi.dropna() print(taxi.count()) Задача 2 Заполните пропущенные значения в датафрейме нулями. Функцией describe() выведите на экран результаты, чтобы убедиться в корректности заполнения значений. import numpy as np import pandas as pd from pyspark.sql import SparkSession APP_NAME = "DataFrames" SPARK_URL = "local[*]" spark = SparkSession.builder.appName(APP_NAME) \ .config('spark.ui.showConsoleProgress', 'false') \ .getOrCreate() taxi = spark.read.