Необходимым условием того, чтобы результаты какого бы то ни было статистического исследования представляли интерес для лингвистики, является разграничение между различными видами обусловленности. Как мы видели выше, синтагматические отношения могут быть линейными или нелинейными; поэтому и обусловленность может быть линейной или нелинейной. Если х и у линейно связаны, то при любой рх (у) мы имеем дело с прогрессивной обусловленностью в тех случаях, когда у предшествует х, и с регрессивной в тех случаях, когда у следует за х. Независимо от того, является ли обусловленность прогрессивной или регрессивной, х и у могут непосредственно соседствовать (находиться рядом в линейно упорядоченном синтагматическом комплексе); в этом случае, если х обусловлен у, мы говорим о переходной (transitional) обусловленности. Многие популярные описания статистической структуры языка склонны изображать дело так, будто условные вероятности, действующие на всех уровнях языковой структуры, непременно предполагают линейную, переходную и прогрессивную обусловленность. Это, разуме ется, не так. Например, условная вероятность появления определенного существительного в качестве субъекта или объекта при определенном глаголе в латыни не зависит от относительного порядка, с каким слова встречаются во временной последовательности (ср. § 2.3.5); употребление префиксов un- и in- в английском языке (в таких словах, как unchanging 'неизменный' и invariable 'неизменный') регрессивно обусловлено; возможность появления определенной единицы выражения в начале слова может быть «положительно» или «отрицательно» обусловлена наличием некоторой единицы выражения в конце слова (или наоборот) и т. д.
Конечно, в принципе можно подсчитать условную вероятность любой единицы относительно любого контекста. Существенно, однако, правильно выбрать контекст и направление обусловленности (то есть, скажем, подсчитывать рх (у), а не рy (x)) в свете того, что уже известно об общей синтагматической структуре языка. (Определенный класс единиц X может предполагать или допускать появление единиц другого, синтагматически связанного с ним класса Y на определенном по отношению к нему месте (и может также исключать возможность появления единиц третьего класса Z). При условии, что это так, можно подсчитать условную вероятность отдельного члена класса Y). Результаты будут иметь статистический интерес тогда, и только тогда, когда рх (у) или рy (x) будут существенно отличаться от рх и рy.
2.4.9. ПОЗИЦИОННЫЕ ВЕРОЯТНОСТИ АНГЛИЙСКИХ СОГЛАСНЫХ *
Вероятности можно также подсчитывать для отдельных структурных позиций. Например, в таблице 4 для каждого из 12 согласных устной английской речи приводятся 3 ряда вероятностей: (i) априорная вероятность, средняя для всех позиций; (ii) вероятность в позиции начала слова перед гласными; (iii) вероятность в позиции конца слова после гласных.
Таблица 4
Вероятности некоторых английских согласных в различных позициях в слове
| «Абсолютная» | Начальная | Конечная |
[t] | 0,070 | 0,072 | 0,105 |
[n] | 0,063 | 0,042 | 0,127 |
[l] | 0,052 | 0,034 | 0,034 |
[d] | 0,030 | 0,037 | 0,039 |
[h] | 0,026 | 0,065 | - |
[m] | 0,026 | 0,058 | 0,036 |
[k] | 0,025 | 0,046 | 0,014 |
[v] | 0,019 | 0,010 | 0,048 |
[f] | 0,017 | 0,044 | 0,010 |
[b] | 0,016 | 0,061 | 0,0005 |
[p] | 0,016 | 0,020 | 0,008 |
[g] | 0,015 | 0,027 | 0,002 |
Можно заметить существенные различия частотностей отдельных согласных в разных позициях в слове. Например, из перечисленных единиц [v] — наименее частая в позиции начала слова, но третья по частотности в позиции конца слова; с другой стороны, [b] — третья по частотности единица в начальной позиции слова, но наименее частая в позиции конца слова (за исключением [h], который вообще не встречается на конце. NB: мы говорим о звуках, а не буквах). Другие (как [t]) имеют высокую вероятность или (как [g] и [р]) низкую вероятность для обеих позиций. Также заметим, что диапазон колебаний между наивысшей и наименьшей вероятностью больше для конца слова, чем для начала. Факты этого рода получают отражение в описании статистической структуры фонологических слов английского языка.
Выше мы говорили (в связи с «законом Ципфа»; см. § 2.4.6), что число звуков или букв в слове не является непосредственной мерой его синтагматической длины, определяемой в терминах теории информации. Причина этого, конечно, в том, что не все звуки или буквы равновероятны в одном контексте. Если бы вероятность фонологического или орфографического слова была прямо связана с вероятностями составляющих его элементов выражения, можно было бы получить вероятность слова перемножением вероятностей элементов выражения для каждой структурной позиции в слове. Например, если х в два раза вероятнее у в начальной позиции, а а вдвое вероятнее b в конечной позиции, можно ожидать, что хра будет встречаться в два раза чаще, чем yra или xpb, и в четыре раза чаще, чем ypb. Но это предположение не оправдывается в конкретных случаях, что ясно из рассмотрения нескольких английских слов. Элементы выражения, реализуемые посредством [k] и [f], более или менее равновероятны в начале слова, но слово call встречается намного чаще, чем fall (как показывают различные опубликованные частотные списки для английских слов); хотя элемент, реализуемый посредством [t], имеет вероятность появления в конечной позиции слова почти в 50 раз большую, чем вероятность элемента, реализуемого посредством [g], слово big встречается примерно в 4 раза чаще, чем bit, и т. д.