Расшифровка ответственного искусственного интеллекта

Искусственный интеллект (ИИ) сейчас очень популярен. ChatGPT, DALL-E и другие платформы на базе искусственного интеллекта предоставляют нам совершенно новые способы работы. Генеративный ИИ пишет все: от сопроводительных писем до стратегий кампаний и создает впечатляющие изображения с нуля. Если отбросить забавные картинки, международные регулирующие органы, мировые лидеры, исследователи и представители технологической индустрии задают реальные вопросы о рисках, связанных с ИИ. ИИ поднимает большие этические проблемы, отчасти потому, что люди — существа предвзятые. Это примеры реального вреда ИИ, когда перед запуском не были оценены соответствующие сдержки и противовесы ИИ. Дезинформация, создаваемая искусственным интеллектом, такая как галлюцинации и дипфейки, также находится в центре внимания правительств, мировых лидеров и пользователей технологий. Большой вопрос: как мы можем использовать ИИ во благо, предотвращая при этом вред? Введите «ответственный ИИ» Лимин Чжу и Цинхуа Лу — лидеры исследования ответственного ИИ в CSIRO и соавторы книги « Ответственный ИИ: лучшие практики создания надежных систем ИИ». Они определяют ответственный ИИ как практику разработки и использования систем ИИ таким образом, чтобы приносить пользу отдельным лицам, группам и обществу в целом, сводя при этом к минимуму риск негативных последствий. По согласованию с сообществами, правительством и промышленностью наши исследователи разработали восемь добровольных принципов этики ИИ. Чтобы предотвратить вред, разработчикам ИИ необходимо подумать о потенциальном воздействии своих технологий — положительном и отрицательном — чтобы можно было расставить приоритеты и управлять ими. Человекоориентированные ценности Системы искусственного интеллекта должны уважать права человека , разнообразие и автономию людей. Это создает прозрачные и объяснимые системы искусственного интеллекта, основанные на человеческих ценностях . Наши исследователи обнаружили, что это выгодно компаниям: негативные отзывы были связаны с игнорированием человеческих ценностей, таких как наслаждение жизнью или послушание для пользователей Alexa от Amazon. Справедливость Системы искусственного интеллекта должны быть инклюзивными и доступными.Android-robot.com
Эта новость в СМИ