
UTF-8 — распространённый стандарт кодирования символов, позволяющий более компактно хранить и передавать символы Юникода, используя переменное количество байт, и обеспечивающий полную обратную совместимость с 7-битной кодировкой ASCII. Стандарт UTF-8 официально закреплён в документах RFC 3629 и ISO/IEC 10646 Annex D.
Сжа́тие да́нных — алгоритмическое преобразование данных, производимое с целью уменьшения занимаемого ими объёма. Применяется для более рационального использования устройств хранения и передачи данных. Синонимы — упаковка данных, компрессия, сжимающее кодирование, кодирование источника. Обратная процедура называется восстановлением данных.
Энтропийное кодирование — кодирование последовательности значений с возможностью однозначного восстановления с целью уменьшения объёма данных с помощью усреднения вероятностей появления элементов в закодированной последовательности.
Преобразование Барроуза — Уилера — это алгоритм, используемый в техниках сжатия данных для преобразования исходных данных. BWT используется в архиваторе bzip2. Алгоритм был изобретён Майклом Барроузом и Дэвидом Уилером.
Кодирование длин серий или кодирование повторов — алгоритм сжатия данных, заменяющий повторяющиеся символы (серии) на один символ и число его повторов. Серией называется последовательность, состоящая из нескольких одинаковых символов. При кодировании строка одинаковых символов, составляющих серию, заменяется строкой, содержащей сам повторяющийся символ и количество его повторов.
Арифметическое кодирование — один из алгоритмов энтропийного сжатия.
Код — взаимно однозначное отображение конечного упорядоченного множества символов, принадлежащих некоторому конечному алфавиту, на иное, не обязательно упорядоченное, как правило более обширное множество символов для кодирования передачи, хранения или преобразования информации.
LZ77 и LZ78 — алгоритмы сжатия без потерь, опубликованные в статьях израильских математиков Авраама Лемпеля и Яакова Зива в 1977 и 1978 годах. Эти алгоритмы — наиболее известные варианты в семействе LZ*, которое включает в себя также LZW, LZSS, LZMA и другие алгоритмы.
PPM — адаптивный статистический алгоритм сжатия данных без потерь, основанный на контекстном моделировании и предсказании. Модель PPM использует контекст — множество символов в несжатом потоке, предшествующих данному, чтобы предсказывать значение символа на основе статистических данных. Сама модель PPM лишь предсказывает значение символа, непосредственное сжатие осуществляется алгоритмами энтропийного кодирования, как например, алгоритм Хаффмана, арифметическое кодирование.
RSASSA-PSS (RSA Signature Scheme with Appendix-Probabilistic Signature Scheme) — асимметричный алгоритм цифровой подписи. Основан на принципе кодирования PSS, предложенном в 1996 году авторами Mihir Bellare и Phillip Rogaway. Внесён в стандарт PKCS#1 v2.1 от 2002 года, выработанный RSA Laboratories, США.
LZJB — алгоритм сжатия данных без потерь, изобретённый Джефом Бонвиком в 1998 году для сжатия аварийных дампов программ и данных в файловой системе ZFS. Основан на методе сжатия с использованием словаря. Этот алгоритм включает множество исправлений к алгоритму LZRW1, который в свою очередь является вариантом LZRW, являющимся членом семейства алгоритмов сжатия Lempel-Ziv. Этот алгоритм нацелен на увеличение скорости сжатия.
Адаптивное кодирование Хаффмана — адаптивный метод, основанный на кодировании Хаффмана. Он позволяет строить кодовую схему в поточном режиме, не имея никаких начальных знаний из исходного распределения, что позволяет за один проход сжать данные. Преимуществом этого способа является возможность кодировать на лету.
Интервальное кодирование — энтропийный метод кодирования, предложенный Г. Найджелом и Н. Мартином в 1979 году. Это разновидность арифметического кодирования.

Анна Р. Карлин — учёный в области информатики, профессор Вашингтонского университета. Имеет индекс Хирша 45, а на её самую цитируемую статью ссылаются более полутора тысяч других академических статей и книг, и сотни — на не менее известные статьи по когерентности кэша в мультипроцессорах, одновременному управлению несколькими уровнями иерархии памяти, алгоритмам для прокси-серверов и хеш-таблицам с постоянным худшим временем доступа. Прежде всего Карлин известна работами в области создания и анализа алгоритмов, применением вероятностных методов в информатике, операционных системах, распределённых системах, вычислительной сложности, анализе производительности, компьютерной музыке и цифровым аудиосигналам. Её вклад касается так называемых онлайн-алгоритмов, то есть алгоритмов, которым входящие данные нужны последовательно, так как они способны обрабатывать их один за другим, без необходимости знать общий размер или другие общие свойства. Традиционно онлайн-алгоритмы оцениваются с помощью соревновательного анализа — проще говоря, путём сравнения производительности с аналогичными офлайн-алгоритмами. Анализ онлайн-алгоритмов и вероятностных алгоритмов Карлин применяет к задачам алгоритмической теории игр, распределённым вычислениям и добыче данных.
DMC — алгоритм сжатия данных без потерь, разработанный Горданом Кормаком и Нигелем Хокспулом. Метод построен аналогично методу PPM: сам алгоритм является предиктором, а непосредственное сжатие производится энтропийным кодировщиком. В отличие от PPM, метод DMC как правило работает на уровне бит, тогда как PPM — на уровне байт. DMC обеспечивает сопоставимые с PPM уровни сжатия и скорость обработки, но требует больше памяти и не так распространён, как PPM. Некоторыми из современных реализаций являются: компрессор hook от Нании Франческо Антонио, компрессор ocamyd от Франка Швеллингера, также DMC используется в качестве одной из моделей в компрессоре Мета Матони paq8l. Все перечисленные компрессоры основаны на оригинальной реализации 1993 года на языке C от Гордона Кормака.
Snappy — библиотека для быстрого сжатия и распаковки данных, написанная на C++ в Google на основе LZ77; открыта в 2011 году. Основной целью стало достижение высокой скорости сжатия, при этом задач наибольшего сжатия или совместимости с другими библиотеками не ставилось. В 2011 году скорость сжатия на одном ядре Core i7 достигала 250 МБ/с и 500 МБ/с для распаковки, однако при этом коэффициент сжатия оказался на 20 — 100 % ниже, чем у gzip.
LZ4 — алгоритм сжатия данных без потерь, ориентированный на высокую скорость сжатия и распаковки. Он относится к семейству методов сжатия LZ77, работающих с байтовыми потоками. Отличается компактным кодом для распаковки.
LZSS — алгоритм сжатия данных без потерь, производный от метода LZ77. Создан в 1982 году Джеймс Сторером и Томасом Шиманским. LZSS был описан в статье «Data compression via textual substitution», опубликованной в журнале АСМ.

Рябко Борис Яковлевич — российский учёный-математик, профессор, доктор технических наук. Научные интересы лежат в области прикладной математики, теории информации, криптографии и математической биологии. Опубликовал свыше 200 научных работ и 10 монографий. Один из ведущих в мире специалистов в области теории информации.
Алгоритм Sequitur — рекурсивный алгоритм, разработанный Крейгом Невиллом-Мэннингом и Ианом Виттеном в 1997 году. Алгоритм создаёт иерархическую структуру из последовательности дискретных символов. Алгоритм работает в линейном пространстве за линейное время. Он может быть использована в приложениях сжатия данных.