59 подписчиков
В ответ на пост
Вспомним, как в 2016 году компания Microsoft столкнулась с проблемой своего чат-бота Тэй (Tay). Созданный для обучения и взаимодействия с пользователями в реальном времени, Тэй внезапно начал поддерживать нацистские взгляды и распространять расистские заявления. Это произошло из-за того, что бот обучался на комментариях пользователей, которые специально публиковали провокационный контент. Как результат, разработчики вынуждены были экстренно отключить Тэй, чтобы избежать дальнейших негативных последствий.
Поэтому важно разрабатывать и применять ИИ с осторожностью, соблюдая этические принципы и осуществляя контроль над его развитием. Также необходимо участвовать в диалоге и создании регулирующих законов и норм для обеспечения безопасности и этичности использования искусственного интеллекта.
Около минуты
15 мая 2024