ИИ-модели действительно могут нести опасность. Но все не так плохо, как может показаться на первый взгляд.
Современные нейросети по типу ChatGPT оказались безопасными для судьбы человечества. К такому выводу пришли ученые из Университета Бата в Великобритании и Технического университета Дармштадта в Германии. Как рассказали исследователи, большие языковые модели остаются управляемыми инструментами.
Специалисты решили выяснить, могут ли чат-боты самостоятельно обучаться. Если бы у нейросетей такая возможность была на очень высоком уровне, то ИИ-модели становились бы все более мощными. Такая ситуация могла бы угрожать безопасности различных систем, а в дальнейшем — и всему человечеству.
Однако новое исследование показало, что нейросети остаются управляемыми, предсказуемыми и безопасными. Ученые выяснили, что большие языковые модели лишь поверхностно могут следовать инструкциям. Самостоятельно они не могут овладевать новыми навыками. Нейросетям требуется четкое обучение, чтобы у них появились новые возможности. По словам экспертов, это удалось узнать благодаря тысячам экспериментов, во время которых ИИ-модели просили выполнять задачи, с которыми они никогда не сталкивались.
Источник: https://hi-tech.mail.ru/news/113704-ugrozhayut-li-chelovechestvu-chatgpt-i-shozhie-nejroseti/