Найти тему
SM NEWS

Искусственный интеллект ChatGPT может создавать искусственную правду

ИА SM-News📷
ИА SM-News📷

ChatGPT рекламируется как сверхмощный искусственный интеллект из области научной фантастики, способный разжечь академическую нечестность, сделать рабочие места устаревшими и увековечить политическую предвзятость. Об этом говорится в материале Fox News.

Неудивительно, что правительства сейчас принимают жесткие меры для борьбы с этой предполагаемой проблемой искусственного интеллекта.

Недавний запрет ChatGPT в Италии побудил несколько стран, включая Францию, Ирландию, Германию и Канаду, рассмотреть аналогичные меры, блокирующие популярную программу искусственного интеллекта OpenAI. По данным итальянского управления по защите данных, у ChatGPT нет "какой-либо правовой основы, которая оправдывает массовый сбор и хранение персональных данных". Агентство дало компании 20 дней на внесение изменений, в противном случае ей грозит крупный многомиллионный штраф. Тем временем Илон Маск и лидеры отрасли призывают к "паузе в ИИ".

Чат-боты, обученные на больших языковых моделях, таких как GPT-4 от OpenAI, Bard от Google и Bing Chat от Microsoft, подпадают под более широкое распространение генеративного ИИ, который использует системы машинного обучения для создания видео, аудио, изображений, текста и других форм мультимедиа. В то время как регулирующие органы США столкнулись с вопросами, связанными с алгоритмической предвзятостью, часто в контексте систем принятия решений, которые помогают в найме и кредитовании, генеративный ИИ ставит множество новых вопросов и проблем.

Например, Dall-E может создавать реалистичные изображения и рисунки на основе пользовательских подсказок. В качестве модели машинного обучения Dall-E создает новый контент, "обучаясь" на больших массивах данных, иногда присваивая произведения искусства и человеческие изображения.

Эксперты в области здравоохранения прогнозируют, что генеративный ИИ может использоваться в административных целях и улучшать качество обслуживания пациентов.

Что касается ChatGPT, существует значительное несоответствие между общественным восприятием чат-бота и его реальными возможностями и точностью. Его "обучение" гораздо больше напоминает имитацию и подражание, чем подлинное понимание. Хотя программа склонна генерировать ответы, кажущиеся человеческими, им может не хватать глубины и, в худшем случае, они могут быть сфабрикованными фактами. Несмотря на эти недостатки, многие пользователи не проверяют правдивость ответов ChatGPT и вместо этого рассматривают их как достоверность, основанную на данных.

Ранее сообщалось, что The Economist предложил контролировать искусственный интеллект на государственном уровне. Сегодняшние достижения ученых в области ИИ вызывают беспокойство. Поэтому авторы статьи предлагают контролировать развитие искусственного интеллекта на государственном уровне.