Основная мысль: подобные ИИ-системы неспособны к независимому мышлению, демонстрируя вместо этого «банальность зла: плагиат, апатию и уклончивость».
Соавторы сравнили ChatGPT с человеческим разумом, называя первого «неуклюжим статистическим механизмом для сопоставления с образцом», который поглощает сотни терабайт данных и «экстраполирует наиболее вероятностный разговорный ответ».
Человеческий разум оперирует значительно меньшими объемами информации, но при этом стремится не выводить грубые корреляции между точками данных, а создавать объяснения. Поэтому он эффективнее ИИ.
У ChatGPT нет одной из ключевых способностей реального интеллекта: рассказать не только о том, что есть, что было и что будет (описание и предсказание), но и то, чего нет и что могло бы быть. ChatGPT не способен отличить возможное от невозможного. Системы машинного обучения могут в равной степени «узнать» о том, что земля плоская, так и о том, что земля круглая. Они «торгуют вероятностями», которые постоянно меняются. Поэтому предсказания таких систем всегда будут не только поверхностными, но и сомнительными.