Найти в Дзене
Разговоры о важном
На днях плохие парни скомпрометировали суперпопулярный ИИ-пакет litellm на PyPI, у которого около 3 млн скачиваний в день. Вредоносный код в свежих версиях целенаправленно пылесосил SSH-ключи, доступы к AWS, пайплайнам и даже криптокошелькам. В моем текущем стеке питона почти нет, но от этой новости я словил флешбэк. В моем прошлом проекте "Масштаб" ребята отхватили похожую проблему - поймали критическую уязвимость React2Shell, которая позволяла удаленно выполнять код. Глядя на такие факапы, я лишний раз убеждаюсь в правиле, которое стабильно экономит мне нервы: я никогда не ставлю самую последнюю версию библиотеки, прошивки и так далее...
23 часа назад
Скриншот - это грубо, больно, но это база
Пора и мне перестать романтизировать ИТ. Программисты, продакты, аналитики, QA не создают самостоятельную ценность из воздуха. ИТ - это высокооплачиваемый обслуживающий персонал для чужого бизнеса. Думаю, что 90% всей айтишки - это автоматизация бизнес-процессов. И это отлично! Я сам пилю B2B-автоматизацию найма масс-персонала в Самокате. Курьеры нужны всегда, объемы растут каждый год. И казалось бы, мы ядро. Но в этом году по моей команде прошлись сокращениями. Работы стало больше, а людей меньше...
2 дня назад
Мой экстеншен Speech 2 Text chromewebstore.google.com/...oih тихонько пробил отметку в 1000 активных пользователей в месяц (MAU). Никакой магии: на старте я три дня покрутил рекламу в Яндексе, чтобы дать проекту первый пинок, а дальше он уже полз сам на чистой органике Chrome Web Store. Теперь, с тысячей юзеров на борту, я хочу снова постучаться к Гуглу за бейджиком Featured. В прошлый раз они меня молча развернули без объяснения причин. С тех пор я выкатил редизайн и перебрал подкапотную часть. Посмотрим, сработает ли в этот раз комбинация «обновленный UI + доказанный спрос». Параллельно думаю, куда развивать проект дальше. Оставлять его просто плагином — путь в никуда. Сейчас план такой: Вырастить из этого полноценный веб-сервис, где расширение будет только одной из точек входа. Навесить полезный функционал поверх голой транскрибации: суммаризацию текста, перевод и выделение главного (то, что сейчас делают все AI-тулзы). Отсюда вопрос к тем, кто по работе часто расшифровывает созвоны, интервью или лекции: Вы за такие сервисы вообще платите или обходитесь бесплатными/встроенными решениями? Поделитесь в комментах, чем пользуетесь сейчас и за что готовы были бы занести денег. #bip #speech_2_text
2 недели назад
Заплатил Гуглу $100, чтобы продать подписку за $10. Иронично? Да, но есть нюанс: юзер купил подписку на приложение, которое в этот момент вообще не работало. Но обо всём по порядку. В конце января я нанял китайское агентство (писал тут t.me/...)), чтобы запустить Google Ads. Гугл моментально забанил наш новенький аккаунт как подозрительный. Агентство пожало плечами и ушло на месяц смотреть новогодние фейерверки (у них праздники, имеют право). И вот неделю назад китайцы наконец-то вышли с каникул, что-то докрутили, у меня рабочий аккаунт, но Гугл в упор не разрешает рекламировать бесплатное ПО (ныл об этом здесь t.me/...)). И вот вчера заявление на Free Software приняли, и кампания внезапно стартанула. Стартанула с ветерком: я забыл ограничить дневной бюджет, и Гугл радостно сожрал $100. Но есть и победа — случилась первая подписка на Photo Math t.me/...598 за $10! Правда, самое интересное ждало под капотом. У меня купили подписку на абсолютно мёртвый продукт. Там протух SSL-сертификат и отвалился API-ключ к LLM. Я планировал проверять работоспособность перед тем, как включить рекламу. Ага, проверил. Пришлось в мыле всё чинить на лету, пока клиент не понял, что заплатил за воздух (вроде пронесло, рефанд не попросил). Итог: сейчас всё работает, метрики докручены. А чтобы больше никогда не продавать лежачий прод, я наконец-то прикрутил Sentry в edge-функции Supabase. Теперь о том, что всё сломалось, я буду узнавать из логов, а не от заплативших пользователей.
3 недели назад
Cursor — это не чат в IDE
Я бекенд‑разработчик. И я с помощью Cursor собрал расширение для браузера: Speech‑to‑Text и Extract Text from Picture. До этого я честно пытался делать то же самое в чатах OpenAI / Grok / DeepSeek. Сценарий всегда один: контекст расползается, требования приходится повторять, а иногда чат просто зависает — и я делаю всё заново. После этого я перестал относиться к LLM как к переписке и начал относиться как к рабочему месту: проект + файлы + правила + Git. Мне не нужен «идеальный промпт». Мне нужен процесс, который не убивает мой день, когда модель поехала не туда...
1 месяц назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала