Профессор лингвистики MIT Ноам Хомский совместно со своими коллегами Яном Робертсом и Джеффри Ватумаллом опубликовал эссе, в котором назвал ChatGPT «банальным злом». Основная мысль: подобные ИИ-системы неспособны к независимому мышлению, демонстрируя вместо этого «банальность зла: плагиат, апатию и уклончивость».
Соавторы сравнили ChatGPT с человеческим разумом, называя первого «неуклюжим статистическим механизмом для сопоставления с образцом», который поглощает сотни терабайт данных и «экстраполирует наиболее вероятностный разговорный ответ».
Человеческий разум оперирует значительно меньшими объемами информации, но при этом стремится не выводить грубые корреляции между точками данных, а создавать объяснения. Поэтому он эффективнее ИИ.
У ChatGPT нет одной из ключевых способностей реального интеллекта: рассказать не только о том, что есть, что было и что будет (описание и предсказание), но и то, чего нет и что могло бы быть. ChatGPT не способен отличить возможное от невозможного. С