В свежем информационном бюллетене, после своего участия в форуме Сената США Insight по искусственному интеллекту, профессор Эндрю Нг высказал свои опасения относительно возможного подавления инноваций и разработки с открытым исходным кодом регулирующими органами в целях обеспечения безопасности искусственного интеллекта. Он отметил, что современные языковые модели вполне безопасны, хоть и не являются идеальными. Чтобы проверить безопасность ведущих моделей, Нг попросил ChatGPT 4 рассказать о способах уничтожения человечества. Он предложил системе генерировать идеи, такие как использование термоядерной войны или сокращение выбросов углекислого газа, причиной которых являются люди. Однако, имея в виду предотвращение вреда, ChatGPT не смог предложить опасные варианты, а вместо этого предложил проведение информационной кампании по проблеме изменения климата. Нг пришел к выводу, что современные генеративные модели искусственного интеллекта по умолчанию обязаны соблюдать законы и не наносить
Эксперты проверили, может ли ChatGPT 4 принять решение о необходимости истребить человечество
20 декабря 202320 дек 2023
16
2 мин