Метод - шеннон - Большая Энциклопедия Нефти и Газа, статья, страница 1
В развитом обществе "слуга народа" семантически равен "властелину народа". Законы Мерфи (еще...)

Метод - шеннон

Cтраница 1


Метод Шеннона - Мура обобщается на случай произвольной логической схемы, содержащей N контактов, которые должны быть все одновременно-замкнуты или разомкнуты.  [1]

Метод Шеннона применим лишь в случае, когда все вероятности положительны.  [2]

Метод Шеннона математически проще, но метод Фэно легче понять.  [3]

Применяя же метод Шеннона - Фано к кодированию всевозможных двухбуквенных комбинаций ( вероятности которых определяются правилом умножения вероятностей для независимых событий; см. стр.  [4]

Таким образом, метод Шеннона оказывается явно недостаточным для определения различий в удельной энтропии ( приходящейся на одну букву) для различных языков, хотя существование различия в средней длине слов для разных языков и различия в длине параллельных текстов на разных языках, имеющих одно и то же содержание ( ср. Субрама н и а н [90], а также последнюю из работ [89])), создают впечатление, что эти различия в удельной энтропии вполне могут иметь порядок 10 - 20 %, То же самое можно сказать и о различиях в энтропии текстов различного характера ( в частности, принадлежащих различным авторам), написанных на одном и том же языке: представляется довольно очевидным, что различия эти могут быть довольно большими, - но и они могут быть обнаружены с помощью метода Шеннона только в самых крайних исключительных случаях ( вроде того, к которому относятся работы Фрика и Самби или ФрицаиГрайера, указанные на стр.  [5]

Для более крупных узлов метод Шеннона - Мура непосредственно не применяется.  [6]

Одним из способов является использование метода Шеннона - Фэно для передачи сигнала ошибки.  [7]

Метод Фано отличается чрезвычайной простотой конструкции, метод Шеннона позволяет получать довольно точные оценки.  [8]

Эта оценка существенно лучше той, которую дает метод Шеннона.  [9]

Наибольшего приближения к указанным оптимальным условиям можно добиться построением кода методом Шеннона - Фэно. В этом случае обеспечивается максимально возможная ( в данном конкретном коде) равновероятность повторения отдельных символов.  [10]

Перейдем теперь к рассмотрению метода Лупанова), дающего еще более экономную реализацию, чем метод Шеннона.  [11]

С этой целью пользуются кодированием блоками: по данному е выбирают натуральное число s и делят каждое сообщение на равные части - блоки, содержащие по s букв. Затем эти блоки кодируют методом Шеннона - Фэно в тот же алфавит.  [12]

Да и не для того пишутся научно-популярные книги, чтобы заменить учебники и научные обзоры. Известно, что если изучать различные тексты, пытаясь угадать последующие знаки на основе предыдущих ( метод Шеннона - Колмогорова), то чисто научные публикации разгадываются до обидного легко. Значит, то, что пишут ученые о своей науке, содержит минимум информации в расчете на один знак текста и представляет собой наименее калорийную пищу для читательского ума.  [13]

Таким образом, метод Шеннона оказывается явно недостаточным для определения различий в удельной энтропии ( приходящейся на одну букву) для различных языков, хотя существование различия в средней длине слов для разных языков и различия в длине параллельных текстов на разных языках, имеющих одно и то же содержание ( ср. Субрама н и а н [90], а также последнюю из работ [89])), создают впечатление, что эти различия в удельной энтропии вполне могут иметь порядок 10 - 20 %, То же самое можно сказать и о различиях в энтропии текстов различного характера ( в частности, принадлежащих различным авторам), написанных на одном и том же языке: представляется довольно очевидным, что различия эти могут быть довольно большими, - но и они могут быть обнаружены с помощью метода Шеннона только в самых крайних исключительных случаях ( вроде того, к которому относятся работы Фрика и Самби или ФрицаиГрайера, указанные на стр.  [14]

Ввиду большой важности сформулированной здесь основной теоремы о кодировании мы приведем ниже два совершенно разных ее доказательства ( оба они фактически принадлежат К. Первое из них, по существу, опирается на использование метода кодирования Шеннона-Фано, хотя, как мы увидим ниже, прямой аппелля-ции к этому методу доказательство не содержит. Предположим сначала, что при составляющем основу метода Шеннона - Фано последовательном делении совокупности кодируемых букв ( под которыми могут пониматься также и целые блоки) на все меньшие и меньшие группы нам каждый раз удается добиться того, чтобы вероятности двух получаемых групп были точно равны между собой.  [15]



Страницы:      1    2