Некоторые исследователи видят в искусственном интеллекте сверхчеловеческие качества. Все ученые должны быть внимательны к рискам, которые это создает.
Ученые всех мастей осваивают искусственный интеллект (ИИ) — от разработки «самоуправляемых» лабораторий , в которых роботы и алгоритмы работают вместе для разработки и проведения экспериментов, до замены людей в социальных экспериментах ботами.
Обсуждались многие недостатки систем искусственного интеллекта. Например, генеративный искусственный интеллект, такой как ChatGPT, имеет тенденцию выдумывать или «галлюцинировать», а работа систем машинного обучения непрозрачна.
В статье «Перспектива, опубликованной в журнале Nature на этой неделе, социологи говорят, что системы искусственного интеллекта представляют собой дополнительный риск: исследователи считают, что такие инструменты обладают сверхчеловеческими способностями, когда дело касается объективности, производительности и понимания сложных концепций. Авторы утверждают, что это подвергает исследователей опасности упустить из виду ограничения инструментов, такие как возможность сузить фокус науки или заставить пользователей думать, что они понимают концепцию лучше, чем на самом деле.
Ученые, планирующие использовать ИИ, должны оценить эти риски сейчас, пока приложения ИИ еще только зарождаются, потому что с ними будет гораздо труднее справиться, если инструменты ИИ глубоко внедрятся в исследовательский процесс.
Рецензируемая статья является своевременным и тревожным предупреждением о том, что можно потерять, если ученые примут системы искусственного интеллекта без тщательного рассмотрения таких опасностей. К нему должны прислушиваться исследователи и те, кто определяет направление и объем исследований, включая спонсоров и редакторов журналов. Есть способы снизить риски. Но для этого необходимо, чтобы все научное сообщество смотрело на системы искусственного интеллекта широко открытыми глазами.
Для обоснования своей статьи авторы изучили около 100 рецензируемых статей, препринтов, материалов конференций и книг, опубликованных в основном за последние пять лет. На основании этого они составили картину того, как ученые рассматривают системы искусственного интеллекта как средство расширения человеческих возможностей.
В одном «видении», которое они называют ИИ Oracle, исследователи рассматривают инструменты ИИ как способные неустанно читать и переваривать научные статьи и, таким образом, изучать научную литературу более исчерпывающе, чем это могут сделать люди. И в Oracle, и в другой концепции, называемой ИИ как арбитр, системы воспринимаются как оценивающие научные результаты более объективно, чем люди, потому что они с меньшей вероятностью будут выбирать литературу для поддержки желаемой гипотезы или проявлять фаворитизм в экспертной оценке. В третьем видении, ИИ как квант, инструменты ИИ, похоже, превосходят пределы человеческого разума при анализе огромных и сложных наборов данных. В четвертом, ИИ как суррогат, инструменты ИИ моделируют данные, которые слишком сложно получить.
Опираясь на данные антропологии и когнитивной науки, ученые предсказывают риски, возникающие из этих видений. Одна из них — это иллюзия глубины объяснения, при которой люди, полагающиеся на другого человека — или, в данном случае, на алгоритм — в поисках знаний, имеют тенденцию ошибочно принимать эти знания за свои собственные и думать, что их понимание глубже, чем оно есть на самом деле.
Другой риск заключается в том, что исследования становятся перекошенными в сторону изучения того, что могут тестировать системы ИИ — исследователи называют это иллюзией исследовательской широты. Например, в социальных науках представление об ИИ как о суррогате может стимулировать эксперименты, включающие человеческое поведение, которое можно смоделировать с помощью ИИ, — и препятствовать экспериментам по поведению, которое не может быть смоделировано, например, к чему-либо, что требует физического воплощения.
Существует также иллюзия объективности, при которой исследователи считают, что системы ИИ представляют все возможные точки зрения или не имеют точки зрения. Фактически, эти инструменты отражают только точки зрения, обнаруженные в данных, на которых они обучались, и, как известно, принимают предвзятости, обнаруженные в этих данных. Существует риск того, что мы забудем, что есть определенные вопросы, на которые мы просто не можем ответить, касающиеся людей, использующих инструменты ИИ. Иллюзия объективности вызывает особую тревогу, учитывая преимущества включения в исследования различных точек зрения.
Если вы ученый, планирующий использовать ИИ, вы можете уменьшить эти опасности с помощью ряда стратегий. Один из них — сопоставить предлагаемое вами использование с одним из видений и подумать, в какие ловушки вы, скорее всего, попадете. Другой подход — обдуманно подходить к использованию ИИ. Развертывание инструментов искусственного интеллекта для экономии времени на том, в чем ваша команда уже имеет опыт, менее рискованно, чем использование их для предоставления знаний, которых у вас просто нет, считают ученые.
Редакторы журналов, получающие материалы, в которых декларируется использование систем ИИ, также должны учитывать риски, связанные с этим видением ИИ. То же самое должны делать спонсоры, рассматривающие заявки на гранты, и учреждения, которые хотят, чтобы их исследователи использовали ИИ. Журналы и спонсоры также должны следить за балансом исследований, которые они публикуют и за которые платят, и следить за тем, чтобы перед лицом бесчисленных возможностей ИИ их портфолио оставалось широким с точки зрения задаваемых вопросов, используемых методов и изложенных точек зрения.
Все члены научного сообщества должны рассматривать использование ИИ не как неизбежность для какой-либо конкретной задачи и не как панацею, а скорее как выбор, сопряженный с рисками и преимуществами, которые необходимо тщательно взвесить. На протяжении десятилетий, и задолго до того, как ИИ стал реальностью для большинства людей, социологи изучали ИИ. Теперь все, включая исследователей всех мастей, должны прислушаться.
Nature: https://doi.org/10.1038/d41586-024-00639-y