<< Предыдущая

стр. 50
(из 50 стр.)

ОГЛАВЛЕНИЕ

Литература

[1] С. Е. Shenon: A mathematical theory of communication Bell Sys.
Tech. J., vol 27, 1948, S.379-423, (Имеется перевод: Шеннон К.
Математическая теория связи.-В сб.: Работы по теории инфор-
мации и кибернетики. -М.: ИЛ, 1963)

[2] С. Berrou, A. Glavieux: "Near Optimum Error-Correcting Coding
and Decoding: Turbo Codes."IEEE Trans. Commun. Vol. 44, 1996,
S.1261-1270

[3) C. Berrou, A. Glavieux, P.Thitimajshima: "Near Shannon Limit
Error-Correcting Coding and Decoding: Turbo Codes."Proc. IEEE
Int. Conf. Commun., May 1993, S. 1064-1070

[4) R. E. Blahut: Principles and practice of information theory, Reading,
Mass.: Addison-Wesley Publishing Company,1987

[5] R. E. Blahut: Principles and practice of error control coding,
Addison-Wesley Publishing Company,1984 (Имеется перевод: Блей-
хут. Р. Теория и практика кодов, контролирующих ошибки. -М.:
Мир, 1986)

[6] D. A. Huffman: "A method for the Construction of Minimum
Redunduncy Codes."Proc. IRE, vol. 40,1952,S.1098-1101, (Имеет-
ся перевод: Хаффман Д . А. Методы построения кодов с мини-
мальной избыточностью.-Кибернетический сб. вып. З.-М.: ИЛ,
1961)

[7] S. Lin, D. J. Costello: Error control coding: Fundamentals and
Applications, Englewood Cliffs, NJ,: Prentice- Hall Inc., 1983

[8] F. J. MacWilliams, N. J. Sloane: The Theory of Error-Correcting j
Codes. Amsterdam: North-Holland, 1977, (Имеется перевод: Мак-
Вильямс Ф. Д ж . , Слоэн Н. Д ж . А. Теория кодов исправляющих
ошибки. -М.: Связь, 1979)

[9] N. Wiener: Cybernetics or Control and Communication in the
Animal and the Mashine. Paris: Hermann, 1948
282 Литература
V




[10] R. G. Gallager: Information Theory and Reliable Communication.
New York: John Willey and Sons Inc. 1968, (Имеется перевод: Га-
лагер Р. Теория информации и надежная связь.-М.: Сов. радио,
1974)
[11] W. W. Peterson, E. J. Weldon: Error- Correcting Codes. 2nd ed.
-Cambrige (Mass.): MIT Press, 1971 (Имеется перевод: Питерсен
У., Уэлдон Э. Коды, исправляющие ошибки. -М.: Мир, 1976)

[12] G. Ungerbock: Channel Coding with Multilevel/phase Signals.
IEEE Trans. Inform. Theory, IT-28,1982, S.55-67.

[13] J. G.Proakis: Digital Communications. New York: McGraw-Hill,
2000.
Литература, добавленная при переводе
[14] I. Chisar, J. Кёгпег: Information theory, Coding theorems for dis-
crete memory less systems. Akademiai Budapest, 1981 (Имеется
перевод: Чисар И., Кернер Я. Теория информации, теоремы
кодирования для дискретных систем без памяти. -М.: Мир,
1985)

[15] W. Feller: An introduction to probabilistic theory and its applica-
tion. John Willey & Sons, NY, 1970 (Имеется перевод: Феллер
В. Введение в теорию вероятностей и ее приложения. -М.: Мир,
1984)

[16] J. M. Wozencraft, I. Jacobs: Principles of communication en-
gineering. John Willey & Sons, NY, 1965 (Имеется перевод:
Возенкрафт Дж., Джекобе И. Теоретические основы техники
связи. -М.: Мир, 1969)

[17] J. J. Stiffler: Theory of synchronous communications. NJ: Pren-
tice Hall Inc., 1971, (Имеется перевод: Стиффлер Дж. Теория
синхронной связи. -М.: Связь, 1978)

[18] G. С. Klark, J. В. Cain: Error correction coding for digital commu-
nication, Plenum press, 1982 (Имеется перевод: Кларк Дж., Кейн
Дж. Кодирование с исправлением ошибок в системах цифровой
связи. -М.: Радио и связь, 1987)

[19] Д. Сэломон: Практическое руководство по методам сжатия
данных. М.: Техносфера, 2003

[20] Е. R. Berlekamp: Algebraic Coding Theory. NY, McGraw-Hill, 1968
(Имеется перевод: Берлекэмп Э. Алгебраическая теория коди-
рования. -М.: Мир, 1971)

[21] G. D. Jr. Forney: Concatenated Codes, Cambrige, Mass., MHT
Press,1963 (Имеется перевод: Форни Д. Каскадные коды. -М.:
Мир, 1970)
Предметный указатель

АБГШ, 115 источник, 44
Алгоритм Витерби, 245 источник без памяти, 12
деления Евклида, 171 источник с памятью, 44
Алфавит, 12 Длина кодового ограничения,
224
Аналоговый источник, 44
кодового слова, средняя, 32
Апостериорная вероятность, 36
Арифметическое кодировани-
ие, 77 Избыточность, 20, 75
Избыточность относительная,
20
Векторное пространство, 138,
141 Импульсный отклик, 221
Информационная последова-
Вероятность необнаружимой
тельность, 221
ошибки, 145
Информационное слово, 131
ошибки, 128
Информационные символы, 135
Взаимная информация, 36
Информация, 15, 111
Витерби алгоритм, 245
несущественная, 75
Входные последовательности,
221
Выходные последовательности,
Код CRC, 198
221
Абрамсона, 198
Голлея, 198
Гауссовское распределение, 113
Файера, 200
Гомогенная цепь Маркова, 52,
Хэмминга, 148
53, 55
Хэмминга циклический, 196
Граница Хэмминга. 145
без запятой, 29
Шеннона, 117
дуальный, 175
катастрофический, 241
Двоичный симметричный ка- линейный двоичный блоко-
нал (ДСК), 85 вый, 133
Декодер Меггитта, 193 префиксный, 24, 25
максимального правдоподо- систематический, 134, 243
бия, 248 циклический, 163
с вылавливанием ошибок, 198 циклический укороченный,
Диаграмма канала, 95 200
Дискретный во времени стоха- Кода скорость, 224
стический процесс, 44 Кодер, 133
Предметный указатель

Кодирование Хаффмана, 68, 76 Память, 58
арифметическое, 77 кодера, 224
избыточное j 133 Переходные вероятности, 50
источника, 68 Порождающая матрица, 134,
энтропийное, 77 172
Кодовая последовательность, Порождающий многочлен, 167
221 Последовательное декодирова-
Кодовое слово, 131, 134, 163 ние, 245
Кодовый многочлен, 165 Предельная матрица, 55
Колмогорова - Чэпмена урав- Префиксный код, 29
нение, 51 Принятое слово, 132
Корректирующая способность, Проверочные символы, 135
144 Пропускная способность, 100,
Крафта неравенство, 25 115

Лагранжа метод, 100 Распределение предельное, 55
Логарифмическая функция стационарное, 55
правдоподобия, 249 Расстояние Хэмминга, 143
Расширенный код Хэмминга,
152
Мак-Миллана утверждение, 26
Регистр сдвига, 163
Марковский источник, 58
стационарный, 62
Свободное расстояние, 240
процесс, 51
Сжатие данных, 75
Математическое-ожидание, 16
Синдром, 136, 184
Матрица переходных вероятно-
Скорость кода, 133
стей, 52
Случайные события, 12
порождающая, 138
Собственный вектор, 54
проверочная, 138, 175
Совершенные коды, 144
Метрика, 249
Совместная энтропия, 38, 45
Минимальное кодовое расстоя-
Состояние, 50
ние, 143
Многочлен кодовый, 226 Спектральная плотность мощ-
ности, 118
неприводимый, 158, 196
порождающий ,225 Стационарная цепь Маркова,
примитивный, 1598, 196 54
Невозможное событие, 15 Стационарный источник, 45
Неопределенность, 12 Степень сжатия, 76
Ошибка декодирования, 132 Стохастическая матрица, 52
Ошибки необнаружимые, 140
Предметный указатель

Теорема Шеннона, 108 Циклический сдвиг, 163
кодирования, 48, 108
кодирования источников, 67 Энергетический выигрышт
да, 148
Условная информация, 37 Энергия, 118
Условная энтропия, 39, 46 ' Энтропия, 6, 15, 16, 62, 99,
двоичного источника, 21
Фактор сжатия, 32 дифференциальная, 112
Эргодичность, 16
Эффективность кода, 32
Цепь Маркова регулярная, 55,
56 .,

<< Предыдущая

стр. 50
(из 50 стр.)

ОГЛАВЛЕНИЕ