Информацио́нная энтропи́я — мера неопределённости некоторой системы, в частности, непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.
Теоремы Шеннона для канала с шумами связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю.
Контра́ст — в оптике разница в характеристиках различных участков изображения, способность фотографического материала или оптической системы воспроизводить эту разницу, а также характеристика чувствительности глаза относительно яркости и цвета.
Дробово́й шум или пуассоновский шум — беспорядочные флуктуации числа частиц относительно их среднего значения, связанные с их дискретностью. Для электрически заряженных частиц — электронов, ионов проявляется как флуктуации токов в электрических цепях и электрических приборах. Перемещение каждого носителя заряда в цепи через воображаемую поверхность секущую провод сопровождается всплеском тока в цепи, обусловленного дискретностью носителей электрического заряда. Для незаряженных частиц, например фотонов, возникает при регистрации числа фотонов детектором.
Быстрое преобразование Фурье — алгоритм ускоренного вычисления дискретного преобразования Фурье, позволяющий получить результат за время, меньшее чем . Иногда под быстрым преобразованием Фурье понимается один из алгоритмов, называемый алгоритмом прореживания по частоте — времени, имеющий сложность .
Отношение сигнал/шум — безразмерная величина, равная отношению мощности полезного сигнала к мощности шума:
Цифровой водяной знак (ЦВЗ) — технология, созданная для защиты авторских прав мультимедийных файлов. Обычно цифровые водяные знаки невидимы. Однако ЦВЗ могут быть видимыми на изображении или видео. Обычно это информация представляет собой текст или логотип, который идентифицирует автора.
Метод главных компонент — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках.
Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных, которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли.
Мера разнообразия — безразмерный показатель, применяемый в биологии для определения степени равномерности распределения признаков объектов выборки. Двойственным понятием для разнообразия является понятие однородности или концентрации. Меры разнообразия являются унарными мерами близости.
Меры разнообразия имеет смысл использовать исключительно для оценки инвентаризационного разнообразия, то есть разнообразия внутри объекта.
По-видимому, первой мерой разнообразия, использованной в биологии был индекс Шеннона, адаптированный Робертом Макартуром для исследования пищевых сетей:
k-d-дерево — это структура данных с разбиением пространства для упорядочивания точек в k-мерном пространстве. k-d-деревья используются для некоторых приложений, таких как поиск в многомерном пространстве ключей. k-d-деревья — особый вид двоичных деревьев поиска.
В комбинаторной оптимизации под линейной задачей о назначениях на узкие места понимается задача, похожая на задачу о назначениях.
Метод Куттера-Джордана-Боссена - стеганографический метод, осуществляющий внедрение цифрового водяного знака в изображение. Метод был представлен Мартином Куттером, Фредериком Джорданом и Фрэнком Боссеном в журнале Journal of Electronic Imaging в апреле 1998 года.
Анализ независимых компонент, называемый также Метод независимых компонент (МНК) — это вычислительный метод в обработке сигналов для разделения многомерного сигнала на аддитивные подкомпоненты. Этот метод применяется при предположении, что подкомпоненты являются негауссовыми сигналами и что они статистически независимы друг от друга. АНК является специальным случаем слепого разделения сигнала. Типичным примером приложения является задача вечеринки с коктейлем — когда люди на шумной вечеринке выделяют голос собеседника, несмотря на громкую музыку и шум людей в помещении: мозг способен фильтровать звуки и сосредотачиваться на одном источнике в реальном времени.
Round5 — это постквантовая система шифрования с открытым ключом, основанная на общей задаче обучения с округлением. Данная система является альтернативой для алгоритма RSA и эллиптических кривых и предназначена для защиты от квантовых компьютеров. Round5 состоит из алгоритмов для реализации механизма инкапсуляции ключей и схемы шифрования с открытым ключом. Данные алгоритмы попадают под категорию криптография на решётках.
Быстрое преобразование Хафа — модификация преобразования Хафа, позволяющая параметрически идентифицировать прямые с меньшей вычислительной сложностью за счет использования факта самопересечения рассматриваемых дискретных прямых.