Cтраница 3
Заметим, что из равенства KXY 0, вообще говоря, не следует независимость случайных величин X и У. [31]
Привести пример, показывающий, что из равенства нулю коэффициента корреляции не следует независимость соответствующих случайных величин. [32]
Относительно формул (1.3.5) (1.3.6) и (1.3.10) заметим, что выражения для дисперсии справедливы только в предположении независимости случайных величин ay, a для справедливости формул для математического ожидания эта независимость не требуется. [33]
Таким образом, для системы случайных величин, подчиненных нормальному закону, равенство нулю коэффициента корреляции свидетельствует не только о некоррелированности, но и о независимости случайных величин, поэтому важность роли коэффициента корреляции как показателя связи в этом случае существенно возрастает. [34]
Эти состояния интерпретируются как число частиц; в начальный момент времени имеется одна частица; Х выражает число частиц n - го поколения начальной частицы; независимость случайных величин Y; означает независимость размножения частиц одного поколения ( это предположение является основным математич. [35]
Однако корреляция обращается в нуль, если, например, и ( ti-t 2) - я / 2, хотя соответствующие случайные величины X ( 1г) и X ( tz) зависимы: X ( ti) X ( t2) а, Это еще раз иллюстрирует утверждение ( § 2.4) о том, что отсутствие корреляции является необходимым, но не достаточным условием независимости случайных величин. [36]
Понятие независимости случайных величин специально вводилось таким образом, чтобы сделать тривиальным переход от дискретного случая к общему. Определение 3.4 и теорема 3.5 сохраняются без изменений, только числовые множества А и В надо считать борелевски-ми, а функции f и g - измеримыми по Борелю. [37]
Случайные величины называются некоррелированными, если их коэффициент корреляции равен нулю. Таким образом, из независимости случайных величин следует их некоррелированность. [38]
Определение независимости случайных величин выбрано в форме определения 3.4 для того, чтобы оно ничем не отличалось от определения независимости IB общем ( недискретном) случае. Полезно пояснить наглядный смысл этой теоремы: независимость случайных величин означает, что, зная одну из них, мы ничего дополнительно не можем сказать о другой. [39]
Но комбинация ( 2) и неравенства Чебышева автоматически приводят к доказательству закона больших чисел. Таким образом, фактически одно лишь правильное понимание независимости случайных величин в общем случае ( совместное распределение есть прямое произведение одномерных) сразу позволяет обобщить ( с дискретного случая на общий) закон больших чисел. [40]
Следовательно, р 0, хотя случайные величилы зависимы. Таким образом, условие р 0 не обязательно означает независимость случайных величин. Оно лишь является необходимым условием независимости. [41]
Следовательно, р 0, хотя случайные величины зависимы. Таким образом, условие р 0 не обязательно означает независимость случайных величин. Оно лишь является необходимым условием независимости. [42]
Неравенство Колмогорова из гл. Детальный анализ этих доказательств показывает, что предположение о независимости случайных величин было использовано только при выводе некоторых неравенств для математических ожиданий, и поэтому основные результаты могут быть перенесены на мартингалы и субмартингалы. Такое обобщение имеет важное значение для многих приложений, оно проливает свет на природу наших теорем. [43]
![]() |
Корреляция, близкая к линейной функциональной связи. [44] |
Следует заметить, что понятие некоррелированности случайных величин параметров не адекватно понятию независимости. Равенство нулю коэффициента корреляции - необходимое, но недостаточное условие независимости случайных величин параметров. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величин еще не следует их независимость. Условие независимости случайных величин параметров - более жесткое, чем условие некоррелированности. [45]