Разработчики GPT не понимают, как модель смогла выучить китайский Представьте ситуацию. Ваш ребенок отучился в английской школе, где: Однако, закончив школу, ваш ребенок, помимо английского, еще бегло и со смыслом говорит по-китайски. Причем говорит лучше, чем любой выпускник китайской школы. С людьми подобная история невозможна. А с нечеловеческим интеллектом больших языковых моделей наблюдается именно это. Что подтверждается скрупулезным тестированием SuperCLUE benchmark. Итог тестирования поражает: общий балл GPT-4 по SuperCLUE (76,67) на 23 балла выше, чем у самой эффективной китайской модели SparkDesk от iFlytek [星火认知大模型], набравшей лишь 53,58 балла (включение в список тестируемых моделей модели Ernie от Baidu планируется, но предварительная оценка также сильно не в пользу Ernie). Совершенно необъяснимым является тот факт, что: Как такое могло случиться, не понимают и сами разработчики GPT из OpenAI. «Мы до сих пор этого не понимаем. И я бы очень хотел, чтобы кто-нибудь разобрался