Возникает новый и растущий интерес к психолингвистике в ментальном представлении (не обязательно фразовом) лексических последовательностей и в том, как знание этих последовательностей соотносится со знанием слов, фраз и предложений.
Исследования обработки предложений, разрешения контекстных неясностей, произношения речи и сложных текстовых операций дают косвенные доказательства частотных эффектов для лексических последовательностей. Недавние исследования поведения взрослых читателей более непосредственно касались влияния целостной частоты чтения на результаты чтения.
Стремление анализировать язык редукционистским образом проявилось с самых ранних психолингвистических экспериментов. Язык давно задумывался как поток дискретных слов, которые могут быть разбиты на их компоненты (морфемы, слоги, фонемы и буквы) или объединены вместе для получения фраз или предложений.
Хотя слова и предложения были тщательно изучены психолингвистами, концепция лексических последовательностей как поведенчески релевантной единицы является относительно новой. Эта концепция получила множество названий со стороны различных исследователей.
Некоторые термины, которые использовались (не совсем одинаково), включают:
- лексические связки
- формулы
- коллокации
- прилагательные
- идиомы
- многословные выражения
- многословные последовательности
- Куски
- голофразы
- готовые программы
- лексические узоры
Теория информации и обучения
Одним из первых, кто заинтересовался вероятностной природой языка, был Клод Шеннон. Он продемонстрировал, что строки букв, сгенерированные случайным образом с тем ограничением, что они следуют за реальными распределениями биграмов, производят слова, похожие на слова и произносимые, и что предложения, созданные путем сшивания слов одинаковым образом, создают предложения, которые иногда читаемы.
Вычислительные ресурсы, которыми он располагал для этой работы, были, конечно, крошечными по сравнению с теми, которые существуют сегодня. После обсуждения того, как предложения могут быть аппроксимированы с использованием двухсловных вероятностей перехода, Шеннон отметила:
"Было бы интересно, если бы дальнейшие приближения могли быть построены, но на следующем этапе трудозатраты становятся огромными".
Теория обучения
Многое из того, что мы знаем о том, как организмы обращаются со статистически структурированной информацией, происходит из традиционной теории обучения. Теория изучения и использования языка в значительной степени расчленялись десятилетиями, отчасти из-за веры в "нищету стимулов" - утверждения, первоначально выдвинутого Хомским, что в языковом потоке недостаточно информации для овладения языком пользователем, особенно при отсутствии или ограниченности негативных доказательств.
Следствием этого утверждения (или, точнее, презумпции) является то, что язык является особым средством, что он требует специальных ресурсов для изучения и обработки и что поэтому изучение языка никогда не может быть объяснено теми же самыми теориями обучения, которые используются для объяснения других форм обучения.
Эмпирические данные N-граммовой обработки
Теория обучения и теория информации обеспечивают теоретическую основу для построения модели того, как n-граммы могут быть достаточными для построения модели языка.
Данные исследований памяти
Исследования в области памяти были посвящены ассоциации слов и тому, как теории эпизодической памяти могут применяться для изучения ассоциаций. Точность повторного вызова используется в качестве показателя того, насколько хорошо была изучена ассоциация.
Путем манипулирования априорным совпадением двух слов можно сделать вывод о том, влияют ли априорные вероятности на силу ассоциации этих слов и, следовательно, были ли они уже связаны в сознании человека или нет. Путем манипулирования контекстом воспоминаний можно сделать вывод о том, зависит ли эта ассоциация от контекста.
Данные исследований лингвистической двусмысленности
Исследования лексической двусмысленности языка также позволили получить эмпирические данные, свидетельствующие о том, что мы чувствительны к частоте повторения слов. Доказательства того, что статистические данные о повторении слов связаны с интерпретацией неоднозначного предложения, могут означать, что n-граммовые вероятности доступны и используются при нормальной языковой обработке.
Одним из первых исследований по подходу к эффектам семантической неоднозначности с этой точки зрения было исследование Макдональда. Профсоюз сказал журналистам, что каждую весну на складе увольняют многих рабочих, не уведомив их должным образом. Он пришел к выводу, что существует явная тенденция к неправильному толкованию двусмысленных предложений в тех случаях, когда существует поддерживающая тенденция к их неправильному толкованию.
Время считывания приговоров в этой категории достоверно сокращается. Как вероятность того, что первое слово будет заголовком или модификатором, так и, самое главное, вероятность совместного употребления двух слов обусловили расхождения в задачах разрешения двусмысленности.
Доказательства, полученные в ходе исследования приемлемости решения суда
Суждения о приемлемости тесно связаны с суждениями о неоднозначности, и та же логика применима и к использованию суждений о приемлемости при изучении формульных последовательностей: доказательства того, что слово встречается в нескольких словах и влияет на суждения о приемлемости, принимаются в качестве доказательства того, что эти совпадения доступны и обычно используются в языковой обработке.
Тем не менее, решения о приемлемости также представляют особый интерес, поскольку они затрагивают важный теоретический спорный вопрос, а именно бедность аргумента стимула.
Ключом к преодолению идеи о том, что не встреченные предложения не содержат никакой информации, является идея статистического сглаживания.
Статистическое сглаживание - это набор методов, изобретенный инженерами по обработке естественных языков, который позволяет им присваивать вероятности больше нуля строкам слов, которые никогда не встречались в их языковых моделях и поэтому имеют эмпирическую вероятность нуля с точки зрения модели.