Законы всегда опаздывают на любую вечеринку, и правда в том, что с искусственным интеллектом все будет иначе. На самом деле прогресс искусственного интеллекта еще в зачаточном состоянии пугает, он превосходит человека практически во всем и предвещает, что, поскольку это только начало, будущее выглядит еще более неопределенным в отношении его возможностей и того, как он будет интегрирован в нашу жизнь и/или нашу работу.
Конечно, эту ситуацию придется решать экспертам в будущем, хотя уже сейчас есть исследования, которые предсказывают, как будут вести себя ИИ по мере своего роста, обучения и развития, как в данном случае недавний обзор в Futurism, который рассказывает нам о все более совершенном ИИ, который все больше склонен ко лжи.
Разумеется, речь не идет о машине, которая говорит неправду как таковую, поскольку пока это все еще обучаемые ИИ, но в исследовании делается вывод, что по мере совершенствования большие языковые модели становятся все более похожими на людей, способными лучше имитировать владение знаниями.
В оригинальном исследовании, опубликованном в журнале Nature, рассматривались некоторые из ведущих коммерческих LLM - моделей, которые с каждой итерацией становятся все мощнее, но по мере роста оказываются все менее надежными по простой причине.
Самые современные и мощные чат-боты считают себя слишком умными, поэтому они тратят свое время на придумывание фактов и ответов, а не на отказ от вопросов, для которых они не знают правильного решения. Разумеется, речь идет о GPT от OpenAI, LLaMA от Meta (признана в России экстремистской организацией и запрещена) или BLOOM от BigScience - трех наиболее важных вариантах.
Вот как описывает это Хосе Эрнандес-Оралло, эксперт Валенсийского института исследований искусственного интеллекта и соавтор оригинального исследования:
«Сегодня [ИИ] реагирует практически на все, а это значит, что правильных ответов стало больше, но и неправильных тоже».
Конечно, ИИ становятся все более точными и умными, но это имеет непредвиденное последствие: они также лучше умеют притворяться, что хорошо обучены, и поэтому смогут давать нам убедительные ответы, которые будут совершенно ложными.
По мнению специалистов, проблема заключается не столько в том, чтобы задавать им очень сложные вопросы, поскольку по мере обучения они становятся все более способными отвечать на них, сколько в том, что они по-прежнему не справляются с простыми вопросами, а уровень точности в исследовании составляет около 60%.
Последнее обстоятельство вызывает беспокойство, поскольку люди, участвовавшие в исследовании, воспринимали ответы ИИ как точные, но во многих случаях ошибались от 10 до 40% времени из-за того, насколько убедительным был ИИ.
«Можно установить порог, чтобы при более сложном вопросе [чатбот] мог сказать «я не знаю» и избежать неправильного ответа».
Исследователи уверены, что в идеале чат-боты и LLM должны быть запрограммированы на то, чтобы не отвечать на все вопросы систематически, особенно когда они не понимают контекста или не могут проверить или перепроверить правильность своей информации.
Однако это противоречило бы интересам индустрии, компаний и многомиллиардного бизнеса, в котором каждый хочет позиционировать себя как стандарт фактического уровня, и где чат-бот, который честно говорит, что не знает определенных вещей, будет рассматриваться как ограниченный, что затруднит его проникновение на рынок по отношению к другим вариантам, которые отвечают на все вопросы, даже рискуя ошибиться.