
Пиотровский
.pdfление того или иного элемента в позиции п также |
рассматривается |
|||||||
в качестве |
случайной |
величины, |
принимающей |
значение |
jk |
( 1 ^ |
||
sSC k ^ |
S). |
Для каждого значения |
i, которое может принять |
bn~] |
||||
имеется |
условная вероятность р (jith/b^~l) |
того, |
что Ln |
примет |
||||
значение jh . |
энтропия Нп, |
|
|
|
|
|
||
Средняя |
условная |
количественно равная |
инфор- |
мации /п , получается в результате осреднения энтропии, подсчи- |
||||
танной по |
всем значениям |
Ь"~х с весами, соответствующими ве- |
||
роятностям |
цепочки b n ~ l . Таким образом, имеем |
|
||
= |
bn~ I |
p(b7~l)j* |
р(и,н1Ьяг1№рЩк/Ы-\ |
(5.34) |
|
|
|
|
Равенство (5.34) показывает, какова в среднем мера неопределенности и количество информации от выбора лингвистического элемента в позиции п, когда известна цепочка bn~l.
Если взаимосвязи элементов распространяются как угодно далеко, то энтропия (информация) на один лингвистический элемент составляет
ЯОО =а! /оо == lim Нп (дв. ед.). |
(5.35) |
П-+00 |
|
Так как величины средней условной энтропии зависят от распределения вероятностей элементов на л-м шаге текста и от вероят-
ностей появления |
б ? - 1 , то эти величины могут быть определены |
|||
из статистики многоэлементных |
сочетаний. Расчетная |
формула |
||
в этом случае имеет следующий вид: |
|
|
||
Нп = 1п = |
Я (ЦЬпГ') = Я ФЪ - |
Н (&?"') (дв. ед.). |
(5.36) |
|
Формула (5.36) |
используется |
для |
определения информации, |
которую несет буква при условиях, что: предшествующая ей буква
известна |
(информация второго порядка |
/п); |
известны |
две пред- |
|
шествующие буквы (информация третьего порядка /ш) |
и т. д. [23, |
||||
с. 10]/ |
|
|
|
|
|
Объем |
работы при вычислении |
/ц, |
/ ш , |
/iv для |
буквенного |
и фонемного алфавита сравнительно велик. Существуют также реалистичные способы оценки h для слов, словоформ и даже словосочетаний. Однако число комбинаций из пяти, шести и т. д. букв (фонем), не говоря уже о комбинациях из четырех, пяти и т. д. слов (слогов, морфем), растет так быстро, что для определения их условной энтропии требуется колоссальная счетная работа.
Поэтому необходимо искать косвенные методы, с помощью которых можно было бы достаточно быстро определить энтропию и информацию в различных частях текста. Этому требованию отвечает эксперимент по предсказанию букв неизвестного текста, опирающийся на субъективные оценки условных вероятностей этих букв (ср. § 3, п. 1) со стороны угадчика.
140
В основе этого метода лежит предположение, что в сознании носителя языка заложены достаточно полные сведения о вероятност- ных характеристиках нормы языка. На основании его лингвисти- ческого опыта в сознании угадчика формируется степень убежден- ности по поводу того, какие лингвистические единицы встречаются чаще, а какие — реже, и хотя «ранжирование» лингвистических элементов в сознании разных носителей языка может быть неоди- наковым, оно приближается при достаточно хорошем знании языка к некоторой оптимальной схеме.
Испытуемый или коллектив испытуемых угадывает текст, опираясь каждый раз на ранжированный спектр лингвистических единиц. Поэтому всю совокупность предсказаний можно рассматривать как некоторую систему лингвистических реакций, более или менее полно отражающую статистические процессы образования текста, за которыми стоят вероятностные свойства нормы языка.
Если осуществляется коллективное угадывание, то результаты его обрабатываются по формуле (5.33), причем вероятность опреде-
ляется |
здесь из равенства pt = |
nt/N, |
где аргументом |
nt является |
|
число |
угадчиков, |
предложивших ту |
или иную букву (независимо |
||
от того, правильна |
она или нет), |
а N есть общее число |
угадчиков. |
При индивидуальном угадывании по полной программе используются две формулы: по одной определяется верхняя граница интервала, в котором находится истинное значение информации:
7 = (1 -<7„) log(1 - q 0 |
) - 2 <?< logЯь |
(5.37) |
|
<=i |
|
а по другой — нижняя граница: |
|
|
2(qt-qi+1)t\ogl. |
(5.38) |
|
i = 2 |
|
|
Величины qi указывают на вероятность правильно угадать букву
сг-й попытки, a q0 есть вероятность достоверного продолжения. Результаты сокращенной программы угадывания обрабатывают-
ся по формуле
Т = Я,„ (1 - q0 - Ql) + (1 - q0) log (1 - q0) |
- |
— tfJog <7i — (1 — qQ — qi) log (1 — qQ — <7i), |
(5.39) |
где Нщ есть неопределенность (энтропия) третьего порядка, значения остальных символов те же, что и в выражениях (5.37) и (5.38). Подробнее о психо-лингвистической стороне угадывания см. [23, с. 12—14].
Кроме того, делаются попытки выработать новые приемы расчета информации [23, с. 53—55]; [41, с. 258], в том числе и такие, которые не предусматривают обращения к вероятностному или тео- ретико-множественному подходу [53, с. 131—150].
5. Синтактическая информация и особенности ее распределе-
ния в тексте и слове. Полученные при алгоритмическом и вероят-
141
ностном подходе иформационные величины не измеряют семантики сообщения. Они ничего не говорят и о том, как интерпретирует содержание текста его получатель (прагматика сообщения).
Получаемые в результате психо-лингвистического или просто комбинаторно-статистического эксперимента величины являются синтактической (по иной терминологии — статистической или селективной) информацией и служат количественной мерой струк- турно-статистического разнообразия и свободы выбора лингвистического варианта. Это разнообразие и свобода выбора задаются в каждом участке текста системой и нормой языка. Вместе с тем результаты нашего эксперимента отражают и то разнообразие, которое существует внутри самой системы и нормы языка (ср. в этом смысле оценки энтропии распределений длин слогов и морфем, которые будут приведены в гл. 6).
Наблюдения над распределением синтактической информации
в тексте |
и в отдельно взятом слове, о которых уже говорилось выше |
|
(см. гл. |
1, § 8; гл. 2, § 4; гл. 4, § 2 и 3), раскрывают |
некоторые |
важные |
особенности функционирования языка в речи. |
|
В частности, выясняется, что текст дает квантовое распределение информации. Очевидно, письменная и устная речь воспринимается и перерабатывается нашей памятью не непрерывно, а путем ритмической отдачи накопленных порций информаций. Периодичность обнаруживается и в информационном построении длинных слов. Похоже, что в качестве кванта синтактической информации выступает морфема — элементарная смыслонесущая единица текста (см. гл. 1, § 9, п. 3).
Выше было показано, что в письменном тексте основная часть информации размещается в начале слова. Концы слов, а у длинных слов и средние участки оказываются избыточными. Такое распределение объясняет не только механизм аббревиации, но проясняет также вопрос об установлении границы слова в тексте. Интерпретант текста (читатель или слушатель), принимая решение о правой границе слова, не опирается на граничные комбинации графем или фонем, а прогнозирует положение конца слова, исходя из его информационно нагруженного начала.
Неравномерностью распределения синтактической информации в слове можно объяснить и особенности развития некоторых языков. Сюда относится фонетическое выветривание середин и особенно концов слов, приводящее к ослаблению и разрушению флексий, а одновременно значительная сопротивляемость фонетическим изменениям начал слов и препозитивных служебных форм [27]; [37]; [58].
6. Контекстная обусловленность и избыточность текста. Если синтактическая информация выступает в качестве меры свободы выбора лингвистического варианта в данном участке текста, то контекстная обусловленность используется в качестве меры тех ограничений, которые накладывают на данный участок текста система и норма языка.
Контекстная обусловленность задается уже известным нам вы-
142
ражением (5.31), которое применительно к синтактической |
инфор- |
мации, полученной вероятностным путем, имеет вид |
|
/С = / 0 - / „ . |
(5.40) |
Значения синтактической информации и контекстной обусловленности сильно зависят от объема лингвистического алфавита (числа букв, фонем, слогов и т. п.), использующегося в данном языке. Поэтому при сравнении разных языков удобнее пользоваться взвешенной величиной контекстной обусловленности, которая не зависит от длины алфавита. Эта взвешенная величина называется избыточностью в данном участке текста:
Rn = (/о - 1п)Но- |
(5.41) |
Общая избыточность текстов данного языка или его разновидности определяется из равенства
tf = ( / o - / J / / o . |
(5.42) |
Значения избыточности, полученные для семи языков и их разновидностей из экспериментальных значений 1Х и 1Ж [см. формулы (5.37) и (5.38)], показаны в табл. 5.5. Легко заметить, что все исследованные языки в целом имеют близкие значения избыточности. Вместе с гем явные расхождения обнаруживаются между^значениями
|
|
|
|
|
|
|
Т а б л и ц а |
5.5 |
|
Избыточность (в %) некоторых индоевропейских |
и тюркских |
языков |
н их |
||||||
разновидностей по |
нижней |
(R) и верхней (R) |
границам |
|
|||||
|
Языкзыки |
Русский |
Польский |
Английский |
Немецкий |
||||
|
|
|
|
|
|
|
|
|
|
Разновидности |
v . |
R |
R |
R |
R |
R |
R |
R |
R |
Разговорная |
речь |
72,0 |
83,4 |
76,3 |
86,3 |
69,4 |
81,2 |
73,9 |
84,4 |
Беллетристика |
76,3 |
86,0 |
74,5 |
83,6 |
77,1 |
86,5 |
71,4 |
82,5 |
|
Деловая речь (науч- |
83,4 |
90,1 |
83,6 |
89,5 |
82,9 |
92,1 |
79,6 |
88,2 |
|
но-технические и пуб- |
|
|
|
|
|
|
|
|
|
лицистические |
тексты) |
|
83,6 |
74,7 |
85,0 |
71,9 |
84,5 |
71,4 |
85,1 |
Язык в целом |
72,1 |
||||||||
|
|
|
|
|
|
/7родолжение |
табл. |
5.5 |
|
|
Языки |
Французский |
|
Румынский |
Казахский |
||||
|
|
|
|
|
|
|
|
|
|
Разновидности |
|
R |
R |
|
R |
R |
R |
|
R |
|
|
|
|
||||||
Разговорная |
речь- |
68,5 |
82,9 |
74,2 |
85,4 |
76,5 |
85,0 |
||
Беллетристика |
71,0 |
83,6 |
73,8 |
83,8 |
75,0 |
85,0 |
|||
Деловая речь (науч- |
83,9 |
90,4 |
74,4 |
85,7 |
78,5 |
88,0 |
|||
чсьтехнические |
и пуб- |
|
|
|
|
|
|
|
|
лицистические |
тексты) |
70,6 |
83,4 |
72,1 |
85,0 |
71,9 |
85,0 |
||
Язык в целом |
143
избыточности, характеризующими отдельные разновидности языка. В частности, высокую избыточность показывает в некоторых языках деловая речь. Вопрос о существенности расхождений в численных значениях избыточности по отдельным стилям мы рассмотрим в гл. 9.
7. Измерение смысловой информации в тексте. Колйчёствбнные оценки смысловой информации, содержащейся в тексте и в образующих его словах и словосочетаниях, можно получить, опираясь на значения синтактической информации и пользуясь идеей контекстной обусловленности.
В ходе эксперимента по угадыванию букв неизвестного текста было замечено, что свои гипотезы о наиболее вероятных продолжениях текста испытуемые строят, исходя из двух типов комбинаторных ограничений: комбинаторики фигур (букв и слогов) и комбинаторики знаков (морфем, слов, словосочетаний).
Эксперимент показывает, что уже на 4-м или 5-м буквенных
шагах текста комбинаторика букв и слогов подавляется |
ограни- |
||
чениями, связанными с сочетаемостью морфем |
и |
слов. |
Затем |
по мере развертывания текста на комбинаторику |
слов |
напластовы- |
ваются ограничения в сочетаемости словосочетаний и предложений, затем появляются ограничения, связанные с комбинаторикой параграфов, глав, частей книги или статьи.
Таким образом, при угадывании букв, находящихся на достаточном удалении от начала текста, испытуемый опирается не на статистическую комбинаторику букв и слогов, а на смысловое (лекси- ко-грамматическое) построение текста. Поэтому если информация, извлеченная из начального участка экспериментального текста, выступает как количественная оценка дистрибуции (распределения) и статистики букв, то синтактическая информация, которая получается с удаленных от начала текста участков, служит отражением смысловой (семантико-прагматической) информации.
Эти соображения позволяют предложить некоторые приемы для
количественной оценки |
смысловой |
информации, содержащейся |
|
в тексте и его сегментах. |
|
|
|
Начнем с оценки смысловой лексико-грамматической |
информа- |
||
ции, содержащейся в отдельном слове. |
|
||
Пусть имеется текст, |
представляющий собой цепочку |
слов |
|
щ, |
щ, Ws, |
wk |
|
и мы хотим оценить количество информации, содержащееся в слове
щ.
Для решения этой задачи проведем коллективное угадывание сегмента текста W^s-Wk. Первый раз коллективу сообщено слово ы>1, стоящее перед контрольным сегментом. Второй раз угадывание начинается прямо со слова w2 (само собой разумеется, что между обоими угадываниями должно пройти достаточно времени, чтобы испытуемые забыли содержание текста; либо угадывания должны быть проведены в двух разных, но идентичных коллективах).
Естественно, что оба угадывания дадут разные результаты.
144
Получаемая в первом случае от контрольного сегмента информация
I (w2+wh) = Н (w2+wk) (дв. ед.) |
(5.43) |
будет больше информации
I (w2 ~ whlwx) = Н (w2~- wjwj |
(дв. ед.), |
(5.44) |
полученной при условии, что испытуемым было известно слово wx. Разность
И (йух) = / (а>2 -г- wh) — / {w2-r- wh/wx) (дв. ед.) |
(5.45) |
представляет собой количественную оценку той смысловой (семан- тико-прагматической) информации, которая содержится в слове Wi. Именно эта информация уменьшила неопределенность конт-
рольного сегмента |
[ср. неравенство Н (w2 -г- wJw^)<.H |
(w2 |
wh)\ |
||
и облегчила второе угадывание. |
|
|
|
||
Результаты первых пробных экспериментов по количественной |
|||||
оценке |
значений |
отдельных слов в |
четырех языках |
показаны |
|
в табл. |
5.6. Для |
того чтобы проводить строгое сравнение оценок |
|||
информаций по разным словам внутри |
одного языка и по одному |
слову для разных языков, необходимо иметь средние оценки смысловой информации. Такие данные можно получить, усредняя оценки, снятые с большого количества разных контекстов. Однако даже предварительные результаты показывают, что в аналитических языках (французском и болгарском) слово несет меньше смысловой информации, чем это имеет место в синтетических (флективном русском и агглютинирующем эстонском) языках. Эти наблюдения согласуются с традиционными предположениями об информационной нагруженности слов в указанных языках.
Теперь попробуем оценить ту лексико-грамматическую информацию, которую содержит контекст. Для этого с помощью приемов, описанных в работах [23, с. 69—73, 81—82] и [26], определим количество синтактической информации, приходящееся на слово средней длины I, взятое вне контекста, т. е. 7 (ш^, и в контексте, т. е. 7 (wh). Кроме того, с помощью выражения
I (w0) = 11о (дв. ед.)
определим то количество информации, которое может нести цепочка длиной в I символов (букв) при условии, что все символы алфавита данного языка равновероятны и обладают неограниченными возможностями сочетаемости.
Тогда общая сумма контекстных ограничений, накладывающихся на слово в контексте, для верхней границы информации сос-
тавит |
|
|
K(wh)^7{w0)-7{wk) |
(дв. ед.), |
(5.46) |
145
CD lO
ГА
Я
s
ч
о
га
4
о
<о
и
5
а;
о
о
>>
а
х
3
а.
о
(-
о
^
V
X
а
в S
« ч 3 О =9 * * s о. з в * ?!S (!) S
Я Я
в „
•I*&§
S >, Я я _ В •5 м о а и ^ а> SP S (- «Я
S
S
ж
S а>
я
о
и
3 S a а>
а
н
о
й>
т
S 4
о
*
147
S
£ «
о
ч
и
+В
В«
"ПГ а:+
5:""
N JJ
IS
ю |
8 |
(М |
(N |
СО |
ю |
о |
us |
СО |
сч |
(М |
00 |
8 |
о |
|
со |
со |
в |
, (- |
О Ь Q, |
|
Б|1н |
|
CJ (- « |
|
<и из я- |
|
о, <и <и |
|
a * в |
|
s |
s |
ю |
|
<м
00
( - |
|
я |
|
=t |
|
я |
|
о |
|
с |
Л |
и |
|
ф |
н |
о. |
СО |
о. |
3" |
о |
ф |
* |
с |
со
о
оч
со U5 ^ |
СО |
m |
|
|
|
|
|
СО СО 00 |
СО |
|
m |
|
|
|
|
оо г» о |
со |
|
оо оо |
|
|
|
|
к Щ J3 |
|
f- |
|
|
|
|
|
ч |
ш |
|
|
|
|
||
О О (" |
|
ч <и |
|
|
|
|
|
о сига « о; |
о о ч |
|
|
|
|
||
<0га>> К fa |
|
|
|
|
|||
|
|
Э о. я |
|
|
|
|
|
ч § ч ЯЯ _га |
|
|
|
|
|||
К >iC |
СО^о Й |
|
|
|
|
||
о о |
а. |
= о. |
|
|
|
|
|
О id |
с |
|
|
|
|
||
'О} СО |
|
|
S |
|
|
|
|
счсо —I |
—t |
|
|
|
|
||
00 О Г-~ |
С- |
|
|
|
|
||
-н СЧ — |
—< — |
|
|
|
|
||
00 <N ^ |
|
|
|
|
|
|
|
«сэто |
|
|
|
|
|
|
|
1ЛОЧП |
|
|
S |
|
|
|
|
СО Ю СО |
|
|
|
|
|
||
t^ 1Л 00 |
1Я |
|
|
|
|
|
|
t—00 —00 |
|
|
|
|
|
||
СО О) (N |
|
|
|
|
|
|
|
00 с- ю |
|
|
|
|
|
|
|
» » 5 |
|
И |
|
|
|
|
|
о.™ 5 |
СО |
|
|
|
|
||
« |
> |
|
|
|
|
|
|
л<ц |
|
|
|
|
(N |
|
о |
|
|
|
CS |
|
|
||
|
|
|
|
to |
|
со |
|
|
|
|
г~ |
|
|
— |
|
|
|
|
|
|
|
|
|
|
|
|
оо |
|
со |
|
о |
|
|
|
о> |
|
СО |
|
ч* |
|
|
|
8 |
|
ю |
|
|
|
|
|
|
<N |
|
со |
|
|
|
|
О) |
|
in |
|
о |
|
|
|
00 |
|
со |
|
t- |
|
|
|
|
<м |
|
1Л |
|
|
|
|
i |
н |
1 |
. |
н |
|
|
|
Н |
ja |
|||
|
|
|
S ; |
я в 5 |
|||
|
|
|
л С У с? S |
||||
|
|
|
» 5 t ( o S |
||||
|
|
|
С |
erf Си <73 Ф |
|||
|
|
|
|
|
с |
Ч |
Q . |
Ю1ЛЮ § (МОЮ из
8 ?r |
S3 |
\n — (N со
сЗ in оо
О! а> со 00 со Tt" СО
ю о |
со |
i-i |
00 ш |
m |
со |
со г- |
СО |
|
ю ю |
тс |
•ч- |
сч |
f- |
(N |
t— из |
О) |
|
со со |
со |
(N |
о ю |
|
_ |
со t^ |
(N |
О) |
тс <м |
• из |
|
ЧГ |
|
со |
г |
В |
си |
|
|
|
|
|
|
V |
.2-а |
Е |
|
> |
Си'Ш |
|
СО СО О- 3 |
a >4) |
5Ь |
|
— — К |
о |
ф |
|
U 'ф СУ |
йо |
а. с. |
|
|
|
ф <и |
|
Контекстные ограничения К (wь) включают информацию, ко- торая характеризует вероятностную дистрибуцию букв и слогов (см. выше), а также ту синтактическую информацию, которая оце-
нивает среднюю величину смысловой |
информации, |
содержащейся |
||
в лексико-грамматических |
связях контекста |
-J- Wh-i, пред- |
||
шествующего |
слову WkЭта |
лексико-грамматическая информация, |
||
определяющая |
предсказуемость слова |
wk, может |
быть получена |
|
из равенства |
|
|
|
|
|
K(wl) = /(wl)~7(wk) |
(дв. ед.), |
(5.47) |
поскольку, уже начиная со второго слова, угадывание текста осуществляется на основе смысловой информации.
Доля лексико-грамматических связей контекста относительно общей суммы ограничений, накладывающихся на текстовое слово, т. е. выражение
А = _ к к ) -100%, |
(5.48) |
K(wh)
может служить оценкой степени аналитичности языка. Значения А и другие контекстные оценки относительно четырех европейских языков приведены в табл. 5.7.
Т а б л и ц а 5.7
Контекстные оценки и процент аналитизма в некоторых индоевропейских языках
|
|
Языки |
|
|
|
Информацион- |
Русский |
Английский |
Французский |
Румынский |
|
|
|
|
|
||
вые |
величины |
|
|
|
|
(в |
дв ед ) |
|
|
|
|
|
1 (w0) |
3 1 , 8 5 |
2 5 , 9 7 |
2 5 , 2 3 |
2 7 , 0 7 |
|
7 ( a > i ) |
1 3 , 5 0 |
1 2 , 5 9 |
1 0 , 8 8 |
1 3 , 0 2 |
|
I (Wk) |
8 , 1 5 |
5 , 4 1 |
6 , 4 6 |
7 , 7 7 |
|
|
5 , 3 5 |
7 , 1 8 |
4 , 4 2 |
5 , 2 5 |
|
K(.wh) |
2 3 , 7 0 |
2 0 , 5 6 |
1 8 , 7 7 |
1 9 , 3 0 |
|
A (%) |
2 2 , 5 7 |
3 5 , 0 0 |
2 3 , 5 5 |
2 7 , 0 1 |
То, что значение коэффициента аналитичности А для английского языка.в полтора раза превосходит его значение в русском языке, хорошо согласуется с нашими представлениями о соотношении аналитизма и синтетизма в этих языках. Несколько неожиданным кажется малая величина коэффициента А в аналитическом
147
французском языке. Этот парадокс следует отнести за счет флективности таких частотных служебных слов, как артикль, неударные личные местоимения 3-го лица, притяжательные местоимения, которые дают строю французского языка флективно-аналитический характер.
Рассматриваемая лексико-грамматическая информация является по своей природе семантико-прагматической информацией. При этом степень и качество прагматизма зависит от организации эксперимента. При индивидуальном эксперименте речь идет о прагматизме угадчика, коллективное угадывание отражает прагматизм угадывающего коллектива. Последнее обстоятельстве дает возможность использовать эксперимент по угадыванию для количественных оценок субъективного и коллективного (профессионального, социального, возрастного) восприятия смысловой информации, содержащейся в тексте.
ГЛАВА б
ВЕРОЯТНОСТНОЕ МОДЕЛИРОВАНИЕ ПОРОЖДЕНИЯ ТЕКСТА
ИСОСТАВЛЯЮЩИХ ЕГО ЕДИНИЦ
§1. Повторение независимых испытаний в тексте
Как уже говорилось (см. гл. 5), при исследовании механизмов порождения текста результаты отдельного лингвистического испытания не представляют большого интереса. Изучение взаимо- действия системы, нормы и ситуации эксплицируется с помощью моделей теории вероятностей, предусматривающих осуществление массового эксперимента, при котором одно и то же лингвистическое испытание повторяется много раз. Эти повторяющиеся испытания образуют серии, в каждой из которых интересующее нас событие появляется или не появляется определенное число раз.
Так, например, при вероятностном исследовании норм употребления слова море в произведениях А. С. Пушкина нас не будет интересовать, употреблено ли это слово, скажем, в первом предложении на 100-й странице первого тома Академического издания сочинений поэта. Зато нам важно будет дать прогноз общего числа появлений этого слова в определенном числе (серии) предложений, СОСТАВЛЯЮЩИХ, например, текст «Евгения Онегина», либо образующих некоторую выборочную последовательность из писем поэта и т. д.
Выбор той или иной модели описания текста зависит от построения вероятностно-лингвистического,испытания и, в частности, от того, как организовано извлечение из текста отдельных его единиц.
1. .Повторная и бесповторная выборки. Рассмотрим следующий элементарный пример. Пусть из текста взято N фонем, среди которых п гласных и т согласных, и каждая из фонем записана на отдельную карточку; карточки положены в урну и перемешаны. Испытания, состоящие в извлечении из урны одной карточки, могут осуществляться по двум схемам.
Согласно условиям первой схемы каждая извлеченная карточка в о з в р а щ а е т с я в урну, после того как в протоколе фиксируется результат каждого испытания. При каждом последующем испытании вероятности появления гласной или согласной остаются неизменными. (Эти вероятности соответственно равны n/N и т!N.) Вероятностно-лингвистический эксперимент, оперирующий с последствиями взаимно независимых испытаний, в каждом из которых лингвистические события сохраняют свои безусловные вероят-
ности, |
называется |
повторной |
выборкой. |
При |
реализации |
второй схемы извлеченные из урны карточки |
|
н е в о з в р а щ а ю т с я . |
Вероятность появления гласной и |
согласной при каждом последующем испытании зависит от результатов предшествующих извлечений. Таким образом, мы имеем здесь дело с зависимыми испытаниями, а вероятность исхода каж-
149