3 подписчика
Для работы с xml нам понадобится модуль xml.etree.ElementTree, а для работы с csv - модуль csv. Исходный код: #Импорт необходимых модулей import xml.etree.ElementTree as et import csv #Открываем файл data.csv на чтение. Если его нет, то он интерпретатор его создаст автоматически result_data = open('data.csv', 'w') #Записываем в tree данные из xml tree = et.parse('products.xml') #Считываем содержимое корневого элемента root = tree.getroot() #Создаем список заголовков для записи первой строки в файл data.csv result_head = [] #Добавляем заголовки в список result_head.append('category') result_head...
4 года назад
14 подписчиков
Здравствуй 😊. Постараюсь без лишних строчек и акцентируя внимание на нюансах. Опишу два способа, которыми я пользуюсь. На их основе можно делать в скрапинге сайтов всё что угодно для рядового пользователя. Первым буду описывать BeautifulSoup , второй - Selenium. Формат описания способов парсинга в этой статье следующий: BeautifulSoup. Это модуль из каталога пакетов Python Package Index, ссылка на каталог ---> pypi.org. Как устанавливать пакеты(модули) в Python ---> тут. BeautifulSoup - это парсер для синтаксического разбора файлов HTML/XML...
4 года назад
1K подписчиков
В эпоху цифровых технологий доступ к данным имеет решающее значение для успеха любого бизнеса. Огромные объемы полезной информации содержатся на веб-сайтах, в социальных сетях и других онлайн источниках. Однако вручную собрать и проанализировать эти данные невозможно. Именно здесь на помощь приходит технология веб-парсинга или веб-скрапинга. С помощью парсинга можно автоматически извлекать нужную информацию с сайтов, преобразовывать и структурировать её. Это открывает огромные возможности для оптимизации бизнес-процессов...
4 месяца назад