Возможности искусственного интеллекта поражают с каждым днем все больше и больше. Теперь нейросеть научили предсказывать вероятность рисков смерти. Программу обучили на данных шести миллионов жителей Дании. Искусственный интеллект показал результаты, которые оказались более точными, чем формулы агентов страховых компаний.
В теории нейросеть можно будет использовать в сфере здравоохранения и социальной работы. Тем не менее, разработчики предупреждают о том, что нейросеть можно обратить и «во зло», увеличить негативные последствия и в целом неэтично использовать блага технологий.
Алгоритмика позволяет прогнозировать события и их вероятность с высокой точностью. Для прогнозирования используются алгоритмы, которые обучаются на данных и затем используют эти знания для создания прогнозов на основе новой информации. Распространенные алгоритмы включают регрессионные модели, временные ряды, Байесов анализ и искусственные нейронные сети. Алгоритмы могут предсказывать различные вещи, такие как цены, доходы, климатические условия, временные ряды и многое другое. Они также могут использоваться для распознавания речи, изображений и других сложных задач. Само собой, социология и демография тоже поддаются измерению – тем более в эпоху социальных сетей.
Впрочем, предсказать социальные явления или характеристики, не говоря уже о биологических показателях – это гораздо более сложное дело. Демографические показатели нельзя использовать при прогнозировании личной траектории жизни человека – они недостаточно точны.
Специалисты Технического университета Дании (Danmarks Tekniske Universitet, DTU) выдвинули гипотезу о том, что искусственный интеллект способен справиться с данной задачей при условии получения необходимого количества информации. В научном издании Nature Computational Science группа исследователей опубликовала статью о проведенных исследованиях. Исследователи рассматривали вопрос прогнозирования индивидуальных жизненных сценариев, основываясь на цепочке произошедших событий.
Для этого группа ученых «перевела» информацию в цепочки слов, на которых обучалась языковая модель под названием Life2vec. Так, модель способна проанализировать последовательность событий, присущих тому или иному человеку, и на основе полученной выдержки предположить, какое событие произойдет следующим.
Искусственный интеллект, в отличие от человека, способен на замечание неочевидных закономерностей в массе неструктурированных данных. Дело в «трансформаторах» - так называют одну из систем языковых моделей, которая позволяет нейросетям прогнозировать и анализировать слова, текста, изображения и прочее, не обращаясь к методам упорядочивания. Такая архитектура работы хорошо проявила себя при работе с обезличенными областями – с географией и климатом, например, но не с социально-экономическими данными. Исследователи пишут о том, что они в корне меняют это положение.
Обширность данных, на которых обучался искусственный интеллект, позволяет получать относительно аккуратный результат именно потому, что нейросеть основывается на подробном описании жизненных событий человек. Данные датчан представляют собой шесть миллионов записей о гражданах от 35 до 65 лет. Записи собирались за период в 10 лет. Информация включает обширный список характеристик: общее состояние здоровья, профессия, рабочий график, зарплата, местожительство, степень образования и так далее. Ученые дали нейросети задачу определить, кто из представленных датчан умрет, а кто продолжит жить. Стоит заметить, что ровно половина человек, чьи данные использовали в исследовании, умерла с 2016 по 2020 год.
Результаты приятно удивили исследователей: Life2vec оказался надежнее любых других инструментов или языковых моделей. Отрыв составляет целых 11%. Нейросеть также успешнее справилась с личностным тестированием – и снова Life2vec опередила остальных. Разработчики объясняют успех искусственного интеллекта тем, что у него было множество данных для обучения, что позволило нейросети точнее обрабатывать социальные и медицинские факторы, влияющие на жизнь человека.
Можно предположить, что систему могут использовать в профилактических работах или для социологических исследований. Вместе с этим есть риск неэтичного использования нейросети. Разработчики выражают опасения по поводу использования искусственного интеллекта страховыми компаниями. Если в подобные компании попадет столь мощный инструмент, образуется несправедливое и аморальное отношение к клиентам. Впрочем, помимо страховщиков есть и другие изощренные способы использования этой информации – тогда идея авторов исследования о предотвращении социального неравенства с треском провалится, лишь усугубив проблему.