Эксперт Арлазаров развенчал миф о сильном ИИ АНАИТ САРКИСЯН Доктор технических наук Владимир Арлазаров рассказал RT, что люди зачастую находят ошибку у искусственного интеллекта (ИИ), хотя его математические расчёты всегда верны. Однако нейросети, в том числе ChatGPT, не предназначены для решения серьёзных задач. Они просто имитируют общение, что многим по-настоящему интересно. Минус ChatGPT в том, что этот бот потребляет колоссальные объёмы энергии. А если человечество создаст сильный ИИ, то он будет потреблять ещё больше, что превысит энергетические затраты какого-нибудь небольшого городка. Поэтому, как думает эксперт, акцент лучше сделать на создании нейросетей, решающих прикладные задачи в сфере распознавания документов, здравоохранении и т. д. Сильный ИИ для человека пока является утопией. И, по предположению Арлазарова, так будет в течение ближайших 20 лет. Тем более, что искусственный интеллект не так уж и безопасен. В 2023 году житель Бельгии после общения с чат-ботом покончил
Учёный рассказал, почему "зловещий" ChatGPT часто ошибается
29 ноября 202429 ноя 2024
2
1 мин