Найти в Дзене
Python Lab

3 простых Python‑скрипта, которые экономят вам по часу в день

Оглавление

Многие думают, что Python нужен только программистам в офисах. На деле это инструмент для автоматизации рутины, который может пригодиться каждому, кто работает с компьютером. Не надо быть Senior‑разработчиком — достаточно 10–15 строк кода.

Вот три реальных скрипта, которые я использую еженедельно. Каждый решает задачу, на которую раньше уходило 20–40 минут ручного труда.

Скрипт 1: Собирает цены с маркетплейсов

Вы ищете товар, но хотите знать, когда он подешевеет? Вместо ежедневной проверки вручную — один скрипт.

import requests
from bs4 import BeautifulSoup

url = "ссылка на товар"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
price = soup.find('span', class_='price').text

print(f"Цена сейчас: {price}")

Запускаете раз в день — получаете актуальную цену. Можно дописать: если цена ниже нужной → приходит уведомление в Telegram. Экономия: 15 минут в день на ручные проверки.

Скрипт 2: Переименовывает сотни файлов за секунды

У вас на рабочем столе куча файлов IMG_1234.jpg, document_final_v2.docx? Нужно добавить дату, префикс или порядковый номер? Вручную — это ад.

import os
folder = "C:/ВашиФайлы"
files = os.listdir(folder)

for i, filename in enumerate(files):
new_name = f"мой_проект_{i+1}_{filename}"
os.rename(f"{folder}/{filename}", f"{folder}/{new_name}")
print(f"Переименован: {new_name}")Запускаете — и за 2 секунды всё готово. Экономия: 20 минут на каждой массовой операции.

Скрипт 3: Парсит вакансии и сохраняет в Excel

Ищете работу? Вместо копирования вручную из HH или Авито — скрипт соберёт все подходящие вакансии в таблицу.

import requests
import pandas as pd
from bs4 import BeautifulSoup

url = "ссылка на поисковую выдачу"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')

vacancies = []
for item in soup.find_all('div', class_='vacancy'):
title = item.find('a').text
salary = item.find('span', class_='salary').text
link = item.find('a')['href']
vacancies.append([title, salary, link])

df = pd.DataFrame(vacancies, columns=['Должность', 'Зарплата', 'Ссылка'])
df.to_excel('вакансии.xlsx', index=False)
print("Готово! Откройте вакансии.xlsx")

Запускаете утром — к обеду у вас таблица из 100+ вакансий с зарплатами и ссылками. Экономия: 30–40 минут на ручной сбор.

Как начать использовать это сегодня

  1. Установите Python (официальный сайт, галочка "Add to PATH").
  2. В терминале/командной строке: pip install requests beautifulsoup4 pandas openpyxl.
  3. Скопируйте код в файл script.py, измените папку или ссылку — и запустите: python script.py.

Первый запуск может выдать ошибку (не найден модуль, неправильный путь). Это нормально — на ютубе полно 2‑минутных гайдов по каждой ошибке. Главное — не бросать после первой неудачи.

Python — это не магия, а инструмент. Он не заменит вас, но освободит от сотен часов рутины в год. Попробуйте хотя бы один скрипт из этой статьи — и вы поймёте, о чём я говорю.

Какой скрипт вам ближе всего? Напишите в комментариях — расскажу, как адаптировать под вашу задачу. В следующей статье покажу, как написать Telegram‑бота, который будет присылать вам уведомления с ценами или вакансиями.