2 подписчика
3 подписчика
Для работы с xml нам понадобится модуль xml.etree.ElementTree, а для работы с csv - модуль csv. Исходный код: #Импорт необходимых модулей
import xml.etree.ElementTree as et
import csv
#Открываем файл data.csv на чтение. Если его нет, то он интерпретатор его создаст автоматически
result_data = open('data.csv', 'w')
#Записываем в tree данные из xml
tree = et.parse('products.xml')
#Считываем содержимое корневого элемента
root = tree.getroot()
#Создаем список заголовков для записи первой строки в файл data.csv
result_head = []
#Добавляем заголовки в список
result_head.append('category')
result_head...
14 подписчиков
Здравствуй 😊. Постараюсь без лишних строчек и акцентируя внимание на нюансах. Опишу два способа, которыми я пользуюсь. На их основе можно делать в скрапинге сайтов всё что угодно для рядового пользователя. Первым буду описывать BeautifulSoup , второй - Selenium.
Формат описания способов парсинга в этой статье следующий: BeautifulSoup. Это модуль из каталога пакетов Python Package Index, ссылка на каталог ---> pypi.org. Как устанавливать пакеты(модули) в Python ---> тут. BeautifulSoup - это парсер для синтаксического разбора файлов HTML/XML...
1K подписчиков
В эпоху цифровых технологий доступ к данным имеет решающее значение для успеха любого бизнеса. Огромные объемы полезной информации содержатся на веб-сайтах, в социальных сетях и других онлайн источниках. Однако вручную собрать и проанализировать эти данные невозможно.
Именно здесь на помощь приходит технология веб-парсинга или веб-скрапинга. С помощью парсинга можно автоматически извлекать нужную информацию с сайтов, преобразовывать и структурировать её. Это открывает огромные возможности для оптимизации бизнес-процессов...