Хотя генеративный искусственный интеллект прорвался как технология для создания контента, он также задает реальные вопросы об этике и ответственном внедрении.
В марте опрос Salesforce более чем 500 руководителей IT-отделов показал, что хотя треть респондентов назвала это важнейшим приоритетом развития на следующие 18 месяцев, почти две трети (63%) заметили наличие предубеждений в результатах генеративного ИИ.
Три из десяти респондентов опроса заявили, что их компании должны установить этические указания для успешной реализации генеративного ИИ внутри бизнеса.
Масштабные случаи недостоверной или ложной информации, плагиат и нарушение авторских прав, нарушение конфиденциальности, мошенничество и искажение фактов, а также невозможность гарантировать достоверность выводов - всего лишь несколько практических этических проблем, которые возникают в связи с технологией генеративного ИИ.
"Генеративный ИИ, как и любой ИИ, имеет потенциал непреднамеренной дискриминации или унижения и может заставить людей чувствовать себя менее ценными на основе данных, на которых он обучен", - объясняет Энди Парсонс, старший директор Инициативы по подлинности контента в Adobe. "Поэтому крайне важно, чтобы ИИ разрабатывался ответственно, включая обучение на безопасных и инклюзивных наборах данных и проведение тщательного и непрерывного тестирования с механизмами обратной связи".
Кроме того, генеративный ИИ вызывает опасения своей способностью создавать убедительный синтетический контент в мире, который уже переполнен дезинформацией.
"Вот почему мы должны обеспечивать прозрачность относительно контента, который производят модели генеративного ИИ, чтобы дать возможность создателям и потребителям получить информацию и решить, доверять им контенту или нет", - добавляет Парсонс.
Он говорит, что необходимо, чтобы платформы, издатели, поставщики инструментов и правительства работали вместе, чтобы создать более доверительное цифровое пространство.
"Мы также должны продолжать обучать создателей ответственному использованию и потребителей - быть разборчивыми в отношении цифрового контента", - отмечает он. "Делая обмен bewt-практиками и придерживаясь стандартов ответственной разработки генеративного ИИ, мы можем разблокировать невероятные возможности этой технологии".
Таким образом, создание доверительного цифрового пространства требует совместных усилий всех заинтересованных сторон, включая правительства, компании, создателей и потребителей, для того, чтобы развивать и использовать генеративный ИИ ответственно и этично.
Разработка действенной этики в области искусственного интеллекта
Набор принципов действенной этики в области искусственного интеллекта и формальный процесс проверки, внедренные в инженерную команду компании, могут помочь обеспечить ответственную разработку технологий ИИ с уважением к клиентам и обществу.
Кимберли Невала, стратегический советник и менеджер по решениям бизнес-консультации в SAS, говорит, что существует постоянно растущее сообщество сторонников, исследователей и практиков в области ИИ, многие из которых уже несколько лет поднимают тревогу и выступают за значимое управление.
"Организации, внедряющие эти системы, не только выявляют потенциальное злоупотребление или вред, но и активно избегают или смягчают предвидимый вред или риск любыми необходимыми средствами, включая недеплоимость систем, когда их безопасность или устойчивость не могут быть надежно гарантированы", - объясняет она.
Однако, она добавляет, что это не собирается происходить, пока это не станет обязательным, поэтому создание и применение значимых юридических и регулирующих мер - крайне важно.
"Хорошо или плохо, но на сегодняшний день рынки и маркетинг по-прежнему определяют большую часть широкой публичной дискуссии", - говорит Невала. "Однако время медленно меняется".
Анураг Малик, главный технолог в ContractPodAI, говорит, что когда компания решает принять технологию ИИ, она должна делать это в рамках структурированной системы с четко определенными принципами, основанными на ценностях. "Это создает прозрачность и устанавливает доверие между клиентом, конечным пользователем и компанией", - говорит он. "Эти ценности должны поощрять команды следовать прецедентам и стандартизированным процессам при интеграции моделей ИИ в существующие процессы - нет необходимости полностью переизобретать колесо".
Малик добавляет, что важно также измерять результаты; например, отслеживать производительность ИИ в основных бизнес-функциях и использовать аналитику в реальном времени для бенчмаркинга. "Это может помочь дать голистическое представление о том, где технология оказывает влияние, и гарантировать, что эта технология используется этично и ответственно", - говорит он.
Брайан Платц, генеральный директор и сооснователь Fluree, говорит, что на индивидуальном уровне для бизнеса важно, чтобы руководители, принимающие бизнес-решения, четко понимали все проблемы, связанные с принятием генеративного ИИ. "Эти проблемы могут возникать от сотрудников, не знакомых с технологией, и не чувствующих себя комфортно при ее использовании, или заинтересованных сторон, которые хотят держать ее вне своих операций", - объясняет он.
Руководители бизнеса должны установить границы для инструментов, таких как ChatGPT, в своем бизнесе, чтобы избежать проблем, таких как плагиат или предвзятость, повлиявших на их работу. "Основная проблема заключается в том, что существующие инструменты, такие как ChatGPT, используют алгоритмы, которые агрегируют любые данные, в том числе потенциально ненадежную информацию, без проверки на точность, предвзятость, качество или смысл", - говорит он.
Это может привести к тому, что вывод ChatGPT может звучать невероятно гладко, но содержать серьезные неточности, что вызывает другие проблемы вокруг плагиата.
"Если ИИ создает контент, который используется дословно или даже как вдохновение, этика использования этого контента, как будто он оригинальный, под вопросом", - говорит Платц.
По мере того, как технологии искусственного интеллекта становятся более мощными, возникают новые вызовы
Недавнее открытое письмо, составленное владельцем Tesla и Twitter Илоном Маском и группой экспертов по искусственному интеллекту и руководителей отрасли, призвало приостановить разработку более мощных систем ИИ, чем GPT-4, поддерживаемый Microsoft, предупредив о "глубоких рисках" для общества и человечества.
Парсонс говорит, что, как и любые мощные технологии, ИИ имеет свой уникальный набор проблем.
"Будет ли приостановка развития реалистичной или нет, нам всем нужно внимательно мыслить о будущем и задавать себе вопросы - каковы последствия этой технологии для наших клиентов и общества? Что мы можем сделать сейчас, чтобы оставаться впереди вызовов?" - он спрашивает. "Это основа, на которой мы работаем, и мы считаем, что это должна быть основа, на которой должны работать все компании."
Он добавляет, что все заинтересованные стороны должны внимательно относиться к тому, как технологии ИИ выходят на рынок - от правильного источника контента до обеспечения прозрачности для потребителей и создателей.
"В конечном итоге, мы считаем, что правильно примененный ИИ усилит творчество и интеллект человека на новые уровни, но человеческий создатель должен оставаться в центре всего, что мы делаем", - говорит Парсонс.
С точки зрения Невала, не реалистично полагать, что развитие ИИ - генеративного или другого типа - может быть полностью остановлено. "Это не означает, что лошадь сбежала и нам не остается ничего, кроме как держать поводья как можно крепче", - она добавляет.
Она говорит, что значительный прогресс потребует спектра действий, включая, но не ограничиваясь, существенное регулирование/правовое управление, дополнительные исследования по созданию прозрачных, надежных и управляемых систем искусственного интеллекта и ограничение определенных видов использования.
"Это вместе с, надеюсь, увеличением фокуса на обсуждение философских, социальных и политических последствий этих социотехнических систем", - говорит Невала.
Ссылка на сайт канала: n2.ru
Телеграм канала: https://t.me/n2_news
Читать оригинальную статью (eng): www.informationweek.com