Недавно писала в рабочий блог новость про то, что популярные нейросети до сих пор могут выдавать нелепицу за истину последней инстанции. Хочу поделиться ключевыми выдержками, которые заставляют задуматься: ❶ Google официально снимает с себя ответственность за точность ИИ-ответов. Глава Alphabet Сундар Пичаи в интервью BBC сообщает: модели ИИ «подвержены ошибкам» и людям не стоит «слепо доверять всему, что они говорят». ❷ Эксперты о тенденции ИИ давать такие ответы, которые бы удовлетворили пользователя. Профессор Джина Нефф прямо говорит об этом: ИИ «придумывает ответы, чтобы нам понравиться — и это проблема». Это ок, когда мы выбираем фильм на вечер. Но не ок, если консультируемся о чем-то важном, например, о здоровье. ❸ BBC выяснила, что ИИ искажает новости в 45% случаев. Сорок. пять. процентов. Такая подмена понятий опасна: если подумать, она может довести вплоть до политических конфликтов. Поэтому, если хотите, чтобы нейросети не врали, используйте эти советы. Можете начать применя
Вот почему всё ещё актуально работать головой, а не доверять все дела нейросетям
15 января15 янв
1148
2 мин