ChatGPT, Perplexity и другие дегенеративные модели — не то же, что «личности» с определенным типом мышления, системными знаниями и способностями к анализу собственных действий
Это алгоритмы, которые несколько месяцев или лет обучались на огромных массивах данных и тренировались выполнять одну и ту же задачу — генерацию некоторой последовательности (текста, кода на каком-то языке программирования и так далее), соответствующей найденным в обучающих данных закономерностям и запросу пользователя
При этом нейросеть делит текст на более мелкие смысловые единицы — токены, а затем каждый токен кодирует исходя из информации о том, как часто он встречается рядом с каждым другим токеном в массиве обучающих текстов
Каждый ответ генеративной языковой модели — не результат вдумчивого анализа содержания запроса или найденных источников, а попытка расположить смысловые единицы так, как они с наибольшей вероятностью располагались бы в обучающих данных
Следовательно, ответить, почему нейросеть сгенерировала что-то, что не соответствует действительности, она не сможет
Получится ли у искусственного интеллекта проанализировать данные о собственной архитектуре и сделать «выводы» о своих способностях?
Скорее, нет
Нейросети обучаются предсказывать собственное поведение при стандартных обстоятельствах, но в более сложных ситуациях точность ответов снижается
При этом нейросеть необязательно ориентируется только на смысл слов, содержащихся в запросе
Она также может оценивать их стилистические и эмоциональные характеристики и опираться на них
ChatGPT и прочие сервисы, в которых пользователь ведет диалог с Ml-ассистентом, — не отдельные модели, а организованные системы из нескольких нейросетей, каждая из которых в значительной степени «не подозревает» о существовании или возможностях других
Например, компания OpenAI, создавшая ChatGPT, отделяет в этом сервисе модерацию текста от его генерации
Это значит, что модели, создающие ответ, не могут предсказать, что из него удалится на этапе модерации и какие инструменты для этого будут использоваться
Чтобы использовать искусственный интеллект грамотно, стоит помнить о логике его работы