Во вторник глава компании OpenAI, которая разрабатывает ChatGPT, выступил перед Конгрессом и заявил, что правительственное вмешательство играет важную роль в снижении рисков, связанных с использованием все более совершенных систем искусственного интеллекта. Генеральный директор OpenAI Сэм Альтман выразил обеспокоенность тем, как развитие технологии может повлиять на наш образ жизни и предложил создать американское или глобальное агентство, которое выдавало бы лицензии на самые мощные системы искусственного интеллекта и имело бы полномочия отзывать эти лицензии и обеспечивать соответствие стандартам безопасности.
После выпуска ChatGPT в конце прошлого года, стартап из Сан-Франциско привлек внимание общественности. Этот бесплатный инструмент чат-бота отвечает на вопросы пользователей как обычный человек.
Начавшаяся с паники преподавателей из-за использования ChatGPT для списывания домашних заданий, проблема переросла в более широкие опасения относительно возможности новейших инструментов "генеративного ИИ" вводить людей в заблуждение, распространять ложную информацию, нарушать авторские права и приводить к увольнению людей.
Сенатор Ричард Блюменталь, демократ из Коннектикута, председатель подкомитета Сенатского юридического комитета по вопросам конфиденциальности, технологий и права, начал слушание, в котором была использована записанная речь, звучащая так, будто ее произносит сам сенатор. Однако на самом деле это был голосовой клон, обученный имитировать выступления Блюменталя, который произнес вступительные замечания, созданные при помощи ChatGPT.
Блюменталь высказал мнение, что компании, занимающиеся искусственным интеллектом, должны проходить тестирование своих систем и раскрывать известные риски до их выпуска. Он выразил особую озабоченность тем, как будущие системы искусственного интеллекта могут негативно повлиять на рынок труда. Альтман в основном согласился с этим, но был более оптимистичен относительно будущего трудовой деятельности.
Альтман озвучил свои наихудшие опасения относительно ИИ, однако в основном избегал конкретики, за исключением заявления о возможном "значительном вреде миру" и том, что "если эта технология будет развиваться как-то по другому, все может пойти перевернуться с ног на голову". Впоследствии он предложил, чтобы новое регулирующее агентство вводило меры предосторожности, которые бы блокировали модели ИИ, способные "самовоспроизводиться и самопроизвольно распространяться". Это намекает на футуристические опасения относительно передовых систем ИИ, которые могут манипулировать людьми и заставлять их уступать контроль.