Найти в Дзене
НИИ Антропогенеза

ChatGPT, Perplexity и другие дегенеративные модели — не то же, что «личности» с определенным типом мышления, системными знаниями и

ChatGPT, Perplexity и другие дегенеративные модели — не то же, что «личности» с определенным типом мышления, системными знаниями и способностями к анализу собственных действий

Это алгоритмы, которые несколько месяцев или лет обучались на огромных массивах данных и тренировались выполнять одну и ту же задачу — генерацию некоторой последовательности (текста, кода на каком-то языке программирования и так далее), соответствующей найденным в обучающих данных закономерностям и запросу пользователя

При этом нейросеть делит текст на более мелкие смысловые единицы — токены, а затем каждый токен кодирует исходя из информации о том, как часто он встречается рядом с каждым другим токеном в массиве обучающих текстов

Каждый ответ генеративной языковой модели — не результат вдумчивого анализа содержания запроса или найденных источников, а попытка расположить смысловые единицы так, как они с наибольшей вероятностью располагались бы в обучающих данных

Следовательно, ответить, почему нейросеть сгенерировала что-то, что не соответствует действительности, она не сможет

Получится ли у искусственного интеллекта проанализировать данные о собственной архитектуре и сделать «выводы» о своих способностях?

Скорее, нет

Нейросети обучаются предсказывать собственное поведение при стандартных обстоятельствах, но в более сложных ситуациях точность ответов снижается

При этом нейросеть необязательно ориентируется только на смысл слов, содержащихся в запросе

Она также может оценивать их стилистические и эмоциональные характеристики и опираться на них

ChatGPT и прочие сервисы, в которых пользователь ведет диалог с Ml-ассистентом, — не отдельные модели, а организованные системы из нескольких нейросетей, каждая из которых в значительной степени «не подозревает» о существовании или возможностях других

Например, компания OpenAI, создавшая ChatGPT, отделяет в этом сервисе модерацию текста от его генерации

Это значит, что модели, создающие ответ, не могут предсказать, что из него удалится на этапе модерации и какие инструменты для этого будут использоваться

Чтобы использовать искусственный интеллект грамотно, стоит помнить о логике его работы