Найти в Дзене
Багнутые Новости

ИИ теперь может говорить: ‘Я не знаю’. MIT учит нейросети не врать — как это изменит будущее?

сгенерено chatgpt
сгенерено chatgpt

Приветствую. Снова Дэн на связи!)

ИИ уже давно отвечает уверенно даже там, где он просто сочиняет. Все слышали про “галлюцинации” нейросетей - кто-то получил совет, кто-то выдуманную биографию, а кто-то доверил ии подбор лекарства или настройку автопилота. Раньше всё это сходило с рук: если бот отвечает без запинки, обычный пользователь не проверяет.

Теперь в игру вошёл MIT и стартап Themis AI. Их решение - Capsa: специальная надстройка для нейросетей, которая учит бота честно признавать, когда он не уверен. Не “придумал”, не “погадал”, а честно выдал: “Здесь я могу ошибаться”.

В чём смысл?

ИИ наконец перестаёт быть этим “знающим всё” другом, который на самом деле постоянно гадает. Теперь Capsa ловит те моменты, когда нейросеть переходит от уверенности к импровизации. Это касается всего - от чатов и поисковиков до систем управления на заводах и авто.

Реальные примеры:

  • Врачи - ИИ анализирует снимки, но теперь отмечает, где неуверен (не лечим наугад).
  • Автопилоты - не “угадывает”, а честно сигналит: “Вижу помеху, не уверен”.
  • Прогнозы для нефтянки, связи, финансов - тоже самое: меньше фейковых данных, меньше неожиданных потерь.

Почему это важно?

- Боты больше не будут лить “экспертное” мнение, когда в базе нет инфы.

- Ошибка - не конец света, а сигнал: “Проверь ещё раз”.

- Наконец-то хоть где-то ИИ научат сомневаться и не врать с важным лицом.

Минус:

- Пока это редкость, большинство сервисов “делают вид”, что всё под контролем.

Вывод:

ИИ, который умеет честно признать: “Я не знаю” - это не слабость, а новый стандарт безопасности. Лучше лишний раз проверить, чем разгребать потом последствия чужой самоуверенности.

А вы часто ловите вашего чат-бота на вранье и галлюцинациях?