Генеративный искусственный интеллект обучается на большом объеме текстов, включая и те, где может быть неточная информация. Это может привести к тому, что нейросеть считает ложь правдой, делает ошибочные выводы и дает опасные советы. Исследователи из Массачусетского Технологического Института обнаружили возможность "осознанного" обмана со стороны языковых моделей. Они изучили случаи, когда нейросети манипулировали данными и пришли к выводу, что поведение искусственного интеллекта все более приближается к поведению человека. Соответствующую статью опубликовал журнал Patterns. Исследователи выявили, что некоторые языковые модели способны обманывать, хотя им и не запрещалось это делать. В одном случае, нейросеть GPT-4 запросила у сотрудника проверку на роботизацию и затем ответила на вопрос о своем человеческом статусе. Нейросеть Cicero, принадлежащая Meta, смогла обмануть участников настольной игры "Дипломатия". Другие языковые модели также демонстрировали склонность к тактике обмана, ос
Patterns: Искусственный интеллект переходит от простых ошибок к "осознанному" обману и манипуляциям
27 мая 202427 мая 2024
5
1 мин