Найти в Дзене
OVERCLOCKERS.RU

OpenAI и Salesforce подписали обязательство создавать ИИ исключительно на благо человечества

В последнее время наблюдается растущая озабоченность среди технологических компаний и стартапов по поводу необходимости ответственного подхода к созданию и использованию технологий искусственного интеллекта (ИИ). Эта тенденция отражена в открытом письме, подписанном такими гигантами, как OpenAI, Salesforce и десятками других фирм, сообщает сегодня Bloomberg.

Изображение: @Levart_Photographer

В письме подчеркивается "коллективная ответственность" технологических компаний за максимизацию пользы от ИИ при одновременной минимизации потенциальных рисков, которые эти технологии несут для общества. Это очередная попытка игроков рынка призвать к более взвешенному и осторожному подходу к созданию "умных" технологий.Поводов для беспокойства действительно немало. За последний год, после выхода ChatGPT от OpenAI, мир увидел впечатляющие возможности ИИ в области обработки естественного языка. Однако одновременно выявились и серьезные риски использования этих инструментов, такие как распространение фейковых новостей и дезинформации, угрозы конфиденциальности личных данных и т.д. Ряд экспертов предупреждают о еще более масштабных угрозах от неконтролируемого развития ИИ, вплоть до гипотетических сценариев вымирания человечества. Хотя большинство ученых считают подобные опасения преувеличенными, очевидно, что необходимы определенные рамки и правила игры для обеспечения безопасного и этичного использования технологий ИИ.В этой связи письмо SV Angel и других технологических фирм является позитивным шагом в плане демонстрации готовности отрасли к саморегулированию и выработке стандартов ответственного подхода к ИИ. Подписавшиеся компании признают свою роль в формировании баланса между преимуществами и рисками от этих технологий.Однако пока неясно, каким образом эти принципы будут реализованы на практике. В письме не указаны какие-либо конкретные меры или механизмы для обеспечения ответственного подхода к ИИ. Это вызывает вопросы о том, насколько серьезны намерения подписавшихся компаний. Возможно, это просто декларация о "правильных" принципах без реальной готовности что-то менять в собственной политике и продуктах.В то же время, некоторые конкретные шаги в этом направлении уже делаются. Например, OpenAI внедрила систему модерации контента в ChatGPT, чтобы избежать генерации вредоносной или неэтичной информации. Кроме того, ряд компаний инвестируют в исследования по обеспечению безопасности ИИ и разработку соответствующих стандартов.Тем не менее, по-прежнему остается много открытых вопросов о том, как регулировать эту сферу, не подавляя при этом инновации. Нынешняя саморегуляция отрасли вряд ли будет достаточной. Скорее всего, потребуется выработка государственной политики и законодательных норм для создания баланса между развитием ИИ и управлением рисками.