Cтраница 1
Метод Шеннона - Мура обобщается на случай произвольной логической схемы, содержащей N контактов, которые должны быть все одновременно-замкнуты или разомкнуты. [1]
Метод Шеннона применим лишь в случае, когда все вероятности положительны. [2]
Метод Шеннона математически проще, но метод Фэно легче понять. [3]
Применяя же метод Шеннона - Фано к кодированию всевозможных двухбуквенных комбинаций ( вероятности которых определяются правилом умножения вероятностей для независимых событий; см. стр. [4]
Таким образом, метод Шеннона оказывается явно недостаточным для определения различий в удельной энтропии ( приходящейся на одну букву) для различных языков, хотя существование различия в средней длине слов для разных языков и различия в длине параллельных текстов на разных языках, имеющих одно и то же содержание ( ср. Субрама н и а н [90], а также последнюю из работ [89])), создают впечатление, что эти различия в удельной энтропии вполне могут иметь порядок 10 - 20 %, То же самое можно сказать и о различиях в энтропии текстов различного характера ( в частности, принадлежащих различным авторам), написанных на одном и том же языке: представляется довольно очевидным, что различия эти могут быть довольно большими, - но и они могут быть обнаружены с помощью метода Шеннона только в самых крайних исключительных случаях ( вроде того, к которому относятся работы Фрика и Самби или ФрицаиГрайера, указанные на стр. [5]
Для более крупных узлов метод Шеннона - Мура непосредственно не применяется. [6]
Одним из способов является использование метода Шеннона - Фэно для передачи сигнала ошибки. [7]
Метод Фано отличается чрезвычайной простотой конструкции, метод Шеннона позволяет получать довольно точные оценки. [8]
Эта оценка существенно лучше той, которую дает метод Шеннона. [9]
Наибольшего приближения к указанным оптимальным условиям можно добиться построением кода методом Шеннона - Фэно. В этом случае обеспечивается максимально возможная ( в данном конкретном коде) равновероятность повторения отдельных символов. [10]
Перейдем теперь к рассмотрению метода Лупанова), дающего еще более экономную реализацию, чем метод Шеннона. [11]
С этой целью пользуются кодированием блоками: по данному е выбирают натуральное число s и делят каждое сообщение на равные части - блоки, содержащие по s букв. Затем эти блоки кодируют методом Шеннона - Фэно в тот же алфавит. [12]
Да и не для того пишутся научно-популярные книги, чтобы заменить учебники и научные обзоры. Известно, что если изучать различные тексты, пытаясь угадать последующие знаки на основе предыдущих ( метод Шеннона - Колмогорова), то чисто научные публикации разгадываются до обидного легко. Значит, то, что пишут ученые о своей науке, содержит минимум информации в расчете на один знак текста и представляет собой наименее калорийную пищу для читательского ума. [13]
Таким образом, метод Шеннона оказывается явно недостаточным для определения различий в удельной энтропии ( приходящейся на одну букву) для различных языков, хотя существование различия в средней длине слов для разных языков и различия в длине параллельных текстов на разных языках, имеющих одно и то же содержание ( ср. Субрама н и а н [90], а также последнюю из работ [89])), создают впечатление, что эти различия в удельной энтропии вполне могут иметь порядок 10 - 20 %, То же самое можно сказать и о различиях в энтропии текстов различного характера ( в частности, принадлежащих различным авторам), написанных на одном и том же языке: представляется довольно очевидным, что различия эти могут быть довольно большими, - но и они могут быть обнаружены с помощью метода Шеннона только в самых крайних исключительных случаях ( вроде того, к которому относятся работы Фрика и Самби или ФрицаиГрайера, указанные на стр. [14]
Ввиду большой важности сформулированной здесь основной теоремы о кодировании мы приведем ниже два совершенно разных ее доказательства ( оба они фактически принадлежат К. Первое из них, по существу, опирается на использование метода кодирования Шеннона-Фано, хотя, как мы увидим ниже, прямой аппелля-ции к этому методу доказательство не содержит. Предположим сначала, что при составляющем основу метода Шеннона - Фано последовательном делении совокупности кодируемых букв ( под которыми могут пониматься также и целые блоки) на все меньшие и меньшие группы нам каждый раз удается добиться того, чтобы вероятности двух получаемых групп были точно равны между собой. [15]