Добавить в корзинуПозвонить
Найти в Дзене
Naked Science

Премьер Швеции стал первым мировым лидером, публично признавшим использование ИИ для принятия своих решений

Премьер-министр Швеции Ульф Кристерссон открыто признался, что использовал инструменты искусственного интеллекта (ИИ) для исполнения своих обязанностей. Его подход оказался довольно прост: политик применял ИИ, чтобы рассмотреть проблему с противоположной точки зрения. Это помогло ему оценивать различные ситуации с разных сторон, не полагаясь исключительно на собственные суждения. Кристерссон подчеркнул, что не загружал в системы ИИ конфиденциальные правительственные документы. Вместо этого он использовал ИИ так же, как врачи — для получения дополнительной информации и понимания ситуации. Несмотря на это, его признание вызвало шквал критики со стороны общественности. Избиратели справедливо указали, что они выбирали человека, а не алгоритм для принятия решений. К тому же, как подчеркнули эксперты, системы ИИ способны «галлюцинировать» — то есть часто генерировать правдоподобную, но неверную информацию, а модели обучены на данных, которые могут содержать предрассудки и устаревшую информа

Премьер-министр Швеции Ульф Кристерссон открыто признался, что использовал инструменты искусственного интеллекта (ИИ) для исполнения своих обязанностей.

   Премьер-министр Швеции Ульф Кристерссон / © Nariman Mehdiyev
Премьер-министр Швеции Ульф Кристерссон / © Nariman Mehdiyev

Его подход оказался довольно прост: политик применял ИИ, чтобы рассмотреть проблему с противоположной точки зрения. Это помогло ему оценивать различные ситуации с разных сторон, не полагаясь исключительно на собственные суждения.

Кристерссон подчеркнул, что не загружал в системы ИИ конфиденциальные правительственные документы. Вместо этого он использовал ИИ так же, как врачи — для получения дополнительной информации и понимания ситуации.

Несмотря на это, его признание вызвало шквал критики со стороны общественности. Избиратели справедливо указали, что они выбирали человека, а не алгоритм для принятия решений. К тому же, как подчеркнули эксперты, системы ИИ способны «галлюцинировать» — то есть часто генерировать правдоподобную, но неверную информацию, а модели обучены на данных, которые могут содержать предрассудки и устаревшую информацию. Поэтому попытка взглянуть на проблему с противоположной стороны с помощью ИИ может привести к принятию ошибочного решения