На прошедшем президиуме Российской академии наук обсуждалась очень важная тема, связанная с технологиями искусственного интеллекта. Так в ходе обсуждения ученые пытались понять, насколько можно доверять искусственному интеллекту (ИИ) и где проходит та грань, после которой человек должен принимать решение самостоятельно.
Верить или нет Искусственному интеллекту
Так, по словам президента РАН А. Сергеева, ИИ - это так называемый «черный ящик», что даже сами создатели его до конца не понимают, как он работает. И поэтому возникает вполне логичный вопрос: Можно ли доверять выводам ИИ, если мы не можем проследить цепочку логических выводов, совершенную этой «машиной»?
Ведь, по сути, искусственный интеллект уже сейчас делает достаточно большое количество операций лучше и быстрее человека.
И вполне может возникнуть соблазн в принципе отказаться от науки, ведь задавать определенные задачи и считывать ответы с ИИ может и специалист средней компетенции.
Вот только в случае полного и огульного доверия решениям ИИ можно получить сильно искаженную картину, которая может стоить достаточно дорого.
Все дело в том, что человек излишне склонен доверять технике, но вот с искусственным интеллектом все гораздо сложнее. Все дело в том, что человечество до сих пор до конца не может объяснить, как же работает человеческий мозг.
И точно так же нет понимания того, как работает ИИ, который построен по аналогии с человеческим мозгом. Ведь в основе нейросетей лежит достаточно простое уравнение одного нейрона.
Вот только в том случае, когда в работу вовлечено, например, сразу 600 миллиардов таких компонентов, абсолютно никто с точностью не скажет, какие связи формируются в нейросети.
Кроме этого, ученые отметили, что по мере развития нейросетей обнаруживается все больше минусов. Ведь на старте ИИ обучается на миллионах различных примеров.
Вот только зачастую даже при небольшом отклонении от «заученных» в ходе обучения параметров система начинает выдавать неверные результаты.
Так достаточно ярким примером выступает нейросеть, созданная IBM, целенаправленно создаваемая для медицинских нужд. Так вот, оказалось, что ИИ IBM ставит диагнозы на уровне достаточно среднего врача. А значит, что хоть ИИ технологи и позволяют создавать умные системы, но они далеко не безупречны.
И завершая обсуждение, ученые пришли к выводу, что, учитывая все нарастающий тренд на разработку и использование искусственного интеллекта, просто необходимо создать некий аналог ГОСТа, который позволит полноценно использовать ИИ только после того, как система пройдет целый комплекс проверок, и ученые убедятся в том, что ИИ не будет совершать ошибки.
Напишите в комментариях, как лично вы относитесь к применению ИИ в повседневной жизни. Если же вам понравился материал, то оцените его и не забудьте подписаться на канал. Спасибо за ваше внимание!