1K подписчиков
Доброго времени суток, читатели, зрители моего канала programmer's notes. Не забывайте подписываться и писать свои комментарии к моим статьям и видео. Парсинг страниц html с помощью модуля html.parser Для парсинга web-страниц есть разные библиотеки. И мы будем к ним обращаться. Но есть и совершенно замечательный стандартный модуль html.parser. Вот сегодня мы им и займёмся. Чтобы разбирать html-страницу, необходимо создать объект класса HTMLParser. У него есть целый набор методов, часть из которых запускается автоматически при отправке объекту текста html-страницы...
5 месяцев назад
5,9K подписчиков
Статья подготовлена для студентов курса «Разработчик Python» в образовательном проекте OTUS. Рано или поздно любой Python-программист сталкивается с задачей скопировать какой-нибудь материал с сайта. Так как страниц на нём достаточно много, терять время на ручное копирование — не самый лучший выход. К тому же, языки программирования затем и нужны, чтобы избавлять нас от рутинной работы, автоматизируя решение различных задач. Если же говорить о работе с HTML, то в Python есть отличные библиотеки для этого...
5 лет назад
361 подписчик
Учитывая современное развитие Интернета, было бы кощунством не написать приложение, взаимодействующее со всемирной паутиной. Сегодня мы напишем простенький html-парсер на Python. Наше приложение будет читать код указанной страницы сайта и сохранять все ссылки в ней в отдельный файл. Это приложение может помочь SEO-аналитикам и веб-разработчикам. Писать будем на Python 3, в котором есть встроенный класс для html-парсера из модуля html.parser from html.parser import HTMLParser Так же нам понадобится функция urlopen из модуля urllib from urllib...
4 года назад
2 подписчика
Вы можете использовать библиотеку BeautifulSoup для парсинга следующих элементов страницы: - Текст - Изображения - Таблицы - Формы - Ссылки - Заголовки - Списки - Комментарии - Метаданные Для парсинга текста вы можете использовать следующий код: ```python from bs4 import BeautifulSoup import requests url = 'https://example.com' page = requests.get(url) soup = BeautifulSoup(page.content, 'html.parser') # Получить все тексты на странице texts = soup.find_all('p') for text in texts:    print(text.text) ``` Для парсинга изображений вы можете использовать следующий код: ```python from bs4 import BeautifulSoup import requests url = 'https://example...
1 год назад