
Тео́рия вероя́тностей — раздел математики, изучающий случайные события, случайные величины, их свойства и операции над ними.
Гипо́теза — предположение или догадка, утверждение, которое, в отличие от аксиом, постулатов, требует доказательства. Гипотеза считается научной, если она, в соответствии с научным методом, объясняет факты, охватываемые этой гипотезой; является логически непротиворечивой; принципиально опровергаема, то есть потенциально может быть проверена критическим экспериментом; не противоречит ранее установленным законам и, скорее всего, приложима к более широкому кругу явлений.
Идеа́льный газ — теоретическая модель, широко применяемая для описания свойств и поведения реальных газов при умеренных давлениях и температурах. В этой модели, во-первых, предполагается, что составляющие газ частицы не взаимодействуют друг с другом, то есть их размеры пренебрежимо малы, поэтому в объёме, занятом идеальным газом, нет взаимных неупругих столкновений частиц. Частицы идеального газа претерпевают столкновения только со стенками сосуда. Второе предположение: между частицами газа нет дальнодействующего взаимодействия, например, электростатического или гравитационного. Дополнительное условие упругих столкновений между молекулами и стенками сосуда в рамках молекулярно-кинетической теории приводит к термодинамике идеального газа.

Влади́мир Алекса́ндрович Коте́льников — советский и российский учёный в области радиофизики, радиотехники, электроники, информатики, радиоастрономии и криптографии. Один из основоположников советской секретной радио- и телефонной связи. Академик АН СССР (23.10.1953), академик РАН, вице-президент АН СССР (1970—1988). Дважды Герой Социалистического Труда. 4-й кавалер ордена «За заслуги перед Отечеством» I степени (2003).
Цифрова́я обрабо́тка сигна́лов — способы обработки сигналов на основе численных методов с использованием цифровой вычислительной техники.

Иога́нн Карл Фри́дрих Га́усс — немецкий математик, механик, физик, астроном и геодезист. Считается одним из величайших математиков всех времён, «королём математиков».
Зако́н сохране́ния эне́ргии — фундаментальный закон природы, установленный эмпирически и заключающийся в том, что для изолированной физической системы может быть введена скалярная физическая величина, являющаяся функцией параметров системы и называемая энергией, которая сохраняется с течением времени. Эта энергия может быть представлена в виде комбинации разных форм, таких как механическая, тепловая, электромагнитная, ядерная и других, для различных систем, таких как элементарные частицы, макроскопические тела, звёзды и галактики, но оставаться неизменной универсальной сохраняющейся величиной. Видимое нарушение закона сохранения энергии требует рассматривать альтернативные объяснения.

Радиоприёмник — устройство, соединяемое с антенной и служащее для осуществления радиоприёма, то есть для выделения сигналов из радиоизлучения.

Серге́й Васи́льевич Фоми́н — советский математик и педагог.
Конструктивная математика — абстрактная наука о мыслительных конструктивных процессах, человеческой способности осуществлять их, и об их результатах — конструктивных математических объектах. Является результатом развития конструктивного направления в математике — математического мировоззрения, которое в отличие от теоретико-множественного направления считает основной задачей математики исследование конструктивных процессов и конструктивных объектов.

Дми́трий Васи́льевич Аге́ев — советский учёный и педагог в области радиотехники. Доктор технических наук, профессор. Заслуженный деятель науки и техники РСФСР.

Цифрово́й звук — результат преобразования аналогового сигнала звукового диапазона в цифровой аудиоформат.
Хронология событий, связанных с
теорией информации,
сжатием данных,
кодами коррекции ошибок и смежных дисциплин:
- 1872
— Людвиг Больцман представляет свою H-теорему, а вместе с этим формулу Σpi log pi для энтропии одной частицы газа. - 1878
— Джозайя Уиллард Гиббс, определяет энтропию Гиббса: вероятности в формуле энтропии теперь взяты как вероятности состояния целой системы. - 1924
— Гарри Найквист рассуждает о квантификации «Интеллекта» и скорости, на которой это может быть передано системой коммуникации. - 1927
— Джон фон Нейман определяет фон Неймановскую энтропию, расширяя Гиббсовскую энтропию в квантовой механике. - 1928
— Ральф Хартли представляет формулу Хартли как логарифм числа возможных сообщений, с информацией, передаваемой, когда приёмник может отличить одну последовательность символов от любой другой. - 1929
— Лео Силард анализирует демона Максвелла, показывают, как двигатель Szilard может иногда преобразовывать информацию в извлечение полезной работы. - 1940
— Алан Тьюринг представляет deciban как единицу измерения информации в немецкой машине Энигма с настройками, зашифрованными процессом Banburismus. - 1944
— теория информации Клода Шеннона в основном завершена. - 1947
— Ричард Хемминг изобретает Код Хемминга для обнаружения ошибок и их исправления, но не публикует их до 1950 года. - 1948
— Клод Шеннон публикует Математическую теорию связи - 1949
— Клод Шеннон публикует Передачу Информации в виде шумов, в которой описаны Теорема отсчётов и Теорема Шеннона — Хартли. - 1949
— Рассекречена Теория связи в секретных системах Клода Шеннона. - 1949
— Роберт Фано опубликовал отчет, в котором независимо от Клода Шеннона описан Алгоритм Шеннона — Фано. - 1949
— опубликовано Неравенство Крафта — Макмиллана. - 1949
— Марсель Голей вводит коды Голея для исправления ошибок методом упреждения. - 1950
— Ричард Хемминг публикует коды Хемминга для исправления ошибок методом упреждения. - 1951
— Соломон Кульбак и Ричард Лейблер вводят понятие расстояния Кульбака-Лейблера. - 1951
— Дэвид Хаффман изобретает кодирование Хаффмана, метод нахождения оптимальных префиксных кодов для сжатия данных без потерь. - 1953
— опубликован Sardinas–Patterson algorithm. - 1954
— Ирвинг Рид и Дэвид E. Мюллер вводит коды Рида-Мюллера. - 1955
— Питер Элиас вводит свёрточные коды. - 1957
— Юджин Прандж первый обсуждает циклический избыточный код. - 1959
— Алексис Хоквингем, и самостоятельно в следующем году Радж Чандра Боуз и Двайджендра Камар Рей-Чоудхури, представляют коды Боуза-Чоудхури-Хоквингема (БЧХ-коды). - 1960
— Ирвинг Рид и Густав Соломон вводят коды Рида-Соломона. - 1962
— Роберт Галлагер предлагает код с малой плотностью проверок на чётность; их не использовали в течение 30 лет из-за технических ограничений. - 1966
— опубликована статья Дэвида Форнея Concatenated error correction code. - 1967
— Эндрю Витерби открывает алгоритм Витерби, делающий возможным декодирование свёрточных кодов. - 1968
— Элвин Берлекэмп изобретает алгоритм Берлекэмпа — Мэсси; его применение к расшифровке БЧХ-кодов и кода Рида-Соломона, указанный Джеймсом Мэсси в последующем году. - 1968
— Крис Уоллис и Дэвид М. Бутон издают первый из многих докладов о Сообщениях минимальной длины (СМД) — их статистический и индуктивный вывод. - 1972
— опубликована статья о Justesen code. - 1973
— Дэвид Слепиан и Джек Волф открывают и доказывают Код Слепиана-Вольфа, кодирующего пределы распределённого источника кодирования. - 1976
— Готфрид Унгербоэк публикует первую статью о Треллис-модуляции. - 1976
— Йорма Риссанен разрабатывает и позднее патентует арифметическое кодирование для IBM. - 1977
— Абрахам Лемпель и Яаков Зив разрабатывают алгоритм сжатия Лемпеля-Зива (LZ77) - 1982
— Готфрид Унгербоэк публикует более подробное описание Треллис-модуляции, что приводит к увеличению скорости аналогового модема старой обычной телефонной службы от 9.6 кбит/сек до 36 кбит/сек. - 1989
— Фил Кац создаёт .zip формат, включая формат сжатия DEFLATE ; позже это становится наиболее широко используемым алгоритмом сжатия без потерь. - 1993
— Клод Берроу, Алэйн Главиукс и Punya Thitimajshima вводят понятие Турбо-кодов. - 1994
— Майкл Барроуз и Дэвид Уилер публикуют теорию преобразования Барроуза-Уилера, которая далее найдет своё применение в bzip2. - 1995
— Benjamin Schumacher предложил термин Кубит. - 1998
— предложен Fountain code. - 2001
— описан алгоритм Statistical Lempel–Ziv. - 2008
— Erdal Arıkan предложил Полярные коды.
Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных, которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли.

Сэр Рудольф Эрнст Па́йерлс — английский физик-теоретик немецкого происхождения.

Лев Матве́евич Финк — советский учёный в области теории связи и теории передачи сигналов. Доктор технических наук, профессор. Лауреат Сталинской премии первой степени. Внёс фундаментальный вклад в теорию оптимального приёма и теорию потенциальной помехоустойчивости.

«Математическая теория связи» — статья, опубликованная Клодом Шенноном в 1948 году в реферативном журнале американской телефонной компании «Bell System» и сделавшая его всемирно известным. Содержит в себе большое количество инновационных и плодотворных идей, эта работа инициировала многие научные исследования по всему миру, продолжающиеся по сей день, положив начало развитию методов обработки, передачи и хранения информации.
Теория потенциальной эффективности — это синтез теории надежности, теории информации и теории игр, наследница междисциплинарной кибернетики — с той же областью определения, но построенная на единой концептуальной и математической основе. Основное понятие — эффективность, обобщая понятия надежности, помехоустойчивости и управляемости, определяется как вероятность достижения цели при ограниченных ресурсах. Фундаментальное понятие — целенаправленный выбор. Основные требование к моделям — конструктивность и вероятностная осуществимость инженерных систем. Впервые сформулирована Б. С. Флейшманом в книге «Элементы теории потенциальной эффективности сложных систем» (1971). Соотношения теории потенциальной эффективности были использованы им для оценки потенциальной эффективности сложных инженерных и экологических систем.