Группа сотрудников ИИ-компаний запустила проект Poison Fountain — они создают специально искажённые данные, чтобы ухудшать обучение нейросетей. Как это работает: — на сайтах публикуется контент с логическими ошибками и скрытыми искажениями — ИИ-скрейперы собирают эти данные — модели обучаются на «отравленном» датасете и теряют точность Зачем: — замедлить развитие ИИ — снизить риски «слишком мощных» моделей — этический протест против бесконтрольного обучения на данных интернета Риски: — падение качества будущих моделей — рост недоверия к ИИ — гонка между «очисткой данных» и их намеренной порчей Вывод: данные становятся полем войны, а качество обучения — ключевым конкурентным преимуществом. 🌠 Подписаться на Путеводная звезда 🤖 Чат бот фин. эксперт
⚠️ Poison Fountain: как изнутри пытаются «сломать» обучение ИИ
15 января15 янв
~1 мин