Математи́ческое ожида́ние — понятие в теории вероятностей, означающее среднее значение случайной величины. В случае непрерывной случайной величины подразумевается взвешивание по плотности распределения. Математическое ожидание случайного вектора равно вектору, компоненты которого равны математическим ожиданиям компонентов случайного вектора.
Стоимость под риском — стоимостная мера риска. Это выраженная в денежных единицах оценка величины, которую не превысят ожидаемые в течение данного периода времени потери с заданной вероятностью.

Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений, для поиска решения в случае обычных нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.
Шаблон:Карточка стандарта
Расстояние Ку́льбака — Ле́йблера, РКЛ, информационное расхождение, различающая информация, информационный выигрыш, относительная энтропия — неотрицательнозначный функционал, являющийся несимметричной мерой удалённости друг от друга двух вероятностных распределений, определённых на общем пространстве элементарных событий. Часто применяется в теории информации и математической статистике.
Фи́льтр Ка́лмана — эффективный рекурсивный фильтр, оценивающий вектор состояния динамической системы, используя ряд неполных и зашумленных измерений. Назван в честь Рудольфа Калмана.
Логистическая регрессия или логит-модель — статистическая модель, используемая для прогнозирования вероятности возникновения некоторого события путём его сравнения с логистической кривой. Эта регрессия выдаёт ответ в виде вероятности бинарного события.
Действие в физике — скалярная физическая величина, являющаяся мерой движения физической системы. Действие является математическим функционалом, который берёт в качестве аргумента траекторию движения физической системы и возвращает в качестве результата вещественное число.

Статистическая механика или статистическая термодинамика — механика больших ансамблей относительно простых систем, таких как атомы в кристалле, молекулы в газе, фотоны в лазерном пучке, звёзды в галактике, автомобили на шоссе. Статистическая механика использует статистические методы для определения свойств и поведения макроскопических физических систем, находящихся в термодинамическом равновесии, на основе их микроскопической структуры и законов движения, которые считаются заданными. Статистические методы были введены в этом контексте Максвеллом в серии из трех статей (1860—1879) и Больцманом в серии из четырёх статей (1870—1884), которые заложили основы кинетической теории газов. Классическая статистическая механика была основана Гиббсом (1902); а позднее описание микроскопических состояний на основе классической механики было исправлено и дополнено в соответствии с квантовой механикой. Термодинамика, кинетическая теория и статистическая механика — это дисциплины, связанные объектом исследования, но отличающиеся используемыми методами; часто они представлены вместе под общим названием статистической физики. Последовательное построение неравновесной статистической механики было выполнено Н. Н. Боголюбовым в 1946 году. При описании систем в рамках статистической механики используется понятие среднего по ансамблю. Основными уравнениями статистической механики являются уравнения Лиувилля и цепочка уравнений Боголюбова.
Обучение на примерах — вид обучения, при котором интеллектуальной системе предъявляется набор положительных и отрицательных примеров, связанных с какой-либо заранее неизвестной закономерностью. В интеллектуальных системах вырабатываются решающие правила, с помощью которых происходит разделение множества примеров на положительные и отрицательные. Качество разделения, как правило, проверяется экзаменационной выборкой примеров.
Авторегрессионная условная гетероскедастичность — применяемая в эконометрике модель для анализа временных рядов, у которых условная дисперсия ряда зависит от прошлых значений ряда, прошлых значений этих дисперсий и иных факторов. Данные модели предназначены для «объяснения» кластеризации волатильности на финансовых рынках, когда периоды высокой волатильности длятся некоторое время, сменяясь затем периодами низкой волатильности, причём среднюю волатильность можно считать относительно стабильной.
Оптимальное управление — задача проектирования системы, обеспечивающей для заданного объекта управления или процесса закон управления или управляющую последовательность воздействий, обеспечивающих максимум или минимум заданной совокупности критериев качества системы.
Нейроуправление — частный случай интеллектуального управления, использующий искусственные нейронные сети для решения задач управления динамическими объектами. Нейроуправление находится на стыке таких дисциплин, как искусственный интеллект, нейрофизиология, теория автоматического управления, робототехника. Нейронные сети обладают рядом уникальных свойств, которые делают их мощным инструментом для создания систем управления: способностью к обучению на примерах и обобщению данных, способностью адаптироваться к изменению свойств объекта управления и внешней среды, пригодностью для синтеза нелинейных регуляторов, высокой устойчивость к повреждениям своих элементов в силу изначально заложенного в нейросетевую архитектуру параллелизма. Термин «нейроуправление», впервые был использован одним из авторов метода обратного распространения ошибки Полом Дж. Вербосом в 1976 году. Известны многочисленные примеры практического применения нейронных сетей для решения задач управление самолетом, вертолетом, автомобилем-роботом, скоростью вращения вала двигателя, гибридным двигателем автомобиля, электропечью, турбогенератором, сварочным аппаратом, пневмоцилиндром, системы управления вооружением легкобронированных машин, моделью перевернутого маятника.
Критическая динамика — раздел теории критического поведения и статистической физики, описывающий динамические свойства физической системы в или вблизи критической точки. Является продолжением и обобщением критической статики, позволяя описывать величины и характеристики системы, которые нельзя выразить лишь через одновременны́е равновесные функции распределения. Такими величинами являются, например, коэффициенты переноса, скорости релаксации, разновременны́е корреляционные функции, функции отклика на зависящие от времени возмущения.
Принцип максимума энтропии утверждает, что наиболее характерными распределениями вероятностей состояний неопределенной среды являются такие распределения, которые максимизируют выбранную меру неопределенности при заданной информации о «поведении» среды. Впервые подобный подход использовал Д.Гиббс для нахождения экстремальных функций распределений физических ансамблей частиц. Впоследствии Э.Джейнсом был предложен формализм восстановления неизвестных законов распределения случайных величин при наличии ограничений из условий максимума энтропии Шеннона.
Теория оценивания — раздел математической статистики, решающий задачи оценивания непосредственно не наблюдаемых параметров сигналов или объектов наблюдения на основе наблюдаемых данных. Для решения задач оценивания применяется параметрический и непараметрический подход. Параметрический подход используется, когда известна математическая модель исследуемого объекта и характер возмущений и требуется лишь определить в ней неизвестные параметры. В этом случае используются метод наименьших квадратов, метод максимального правдоподобия и метод моментов. Непараметрический подход используется для изучения объектов неизвестной структуры и с неизвестными возмущениями. Теория оценивания применяется в приборах для физических и других измерений, при моделировании физических, экономических, биологических и других процессов.
Обучение с частичным привлечением учителя (также полуавтоматическое обучение или частичное обучение — способ машинного обучения, разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки — обычно небольшое количество размеченных данных и большое количество неразмеченных данных.
Анализ независимых компонент, называемый также Метод независимых компонент (МНК) — это вычислительный метод в обработке сигналов для разделения многомерного сигнала на аддитивные подкомпоненты. Этот метод применяется при предположении, что подкомпоненты являются негауссовыми сигналами и что они статистически независимы друг от друга. АНК является специальным случаем слепого разделения сигнала. Типичным примером приложения является задача вечеринки с коктейлем — когда люди на шумной вечеринке выделяют голос собеседника, несмотря на громкую музыку и шум людей в помещении: мозг способен фильтровать звуки и сосредотачиваться на одном источнике в реальном времени.