ПЕРМЬ, 16 февраля. /ТАСС/. Ученые Пермского национального исследовательского политехнического университета (ПНИПУ), проведя исследование о стереотипном мышлении искусственного интеллекта, сделали вывод, что нейросети в своих ответах часто выбирают правдоподобное вместо вероятного. А их ошибочные ответы могут иметь фатальные последствия для человека, рассказали ТАСС в пресс-службе вуза. По словам ученых, языковая модель представляет собой математическую систему, анализирующую частотность событий. То есть алгоритмы выбирают не достоверный вариант, а тот, который наиболее правдоподобный и часто встречающийся. У этой проблемы нет чисто технического решения. Невозможно написать код, который научит искусственный интеллект критически мыслить, сделает его этичным. Например, в настоящее время технологии искусственного интеллекта применяются для диагностики заболеваний или в управлении беспилотными автомобилями. Однако их ошибки могут привести к неверному назначению лечения, авариям и ущербам, в