Искусственный интеллект (ИИ) не способен мыслить так же, как человек, и новое исследование раскрывает, как это различие влияет на принятие решений алгоритмами. Опубликованная в феврале 2025 года работа в журнале Transactions on Machine Learning Research показала, что крупные языковые модели (LLM) значительно уступают людям в способности к аналогиям. Как ИИ справляется с простыми задачами Эксперименты включали два типа задач: буквенные аналогии и цифровые матрицы. В первом случае участникам предлагалось продолжить последовательность, например: «Если abcd переходит в abce, то что получится из ijkl?» Люди легко давали ответ «ijkm», тогда как ИИ часто ошибался в более сложных вариациях, таких как удаление повторяющихся элементов. «ИИ хорошо распознает шаблоны, но не способен обобщать их», — объясняет Марта Льюис, соавтор исследования и профессор нейросимволического ИИ в Университете Амстердама. В тестах с цифровыми матрицами, где требовалось определить пропущенный элемент, GPT-4 и другие м
Ученые обнаружили фундаментальные различия в мышлении людей и ИИ
5 апреля 20255 апр 2025
1
2 мин