Байесовская сеть — графовая вероятностная модель, представляющая собой множество переменных и их вероятностных зависимостей по Байесу. Например, байесовская сеть может быть использована для вычисления вероятности того, чем болен пациент, по наличию или отсутствию ряда симптомов, основываясь на данных о зависимости между симптомами и болезнями. Математический аппарат байесовых сетей создан американским учёным Джудой Перлом, лауреатом Премии Тьюринга (2011).
Рекуррентные нейронные сети — вид нейронных сетей, где связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки. В отличие от многослойных перцептронов, рекуррентные сети могут использовать свою внутреннюю память для обработки последовательностей произвольной длины. Поэтому сети RNN применимы в таких задачах, где нечто целостное разбито на части, например: распознавание рукописного текста или распознавание речи. Было предложено много различных архитектурных решений для рекуррентных сетей от простых до сложных. В последнее время наибольшее распространение получили сеть с долговременной и кратковременной памятью (LSTM) и управляемый рекуррентный блок (GRU).
Причи́нность — философское и физическое понятие; причинная взаимообусловленность событий во времени. Детерминация, при которой при воздействии одного объекта (причина) происходит соответствующее ожидаемое изменение другого объекта (следствие). Одна из форм отношения, характеризующаяся генетичностью, необходимостью. На основании её понятия строились механистическая картина мира, концепции детерминизма.
Графовая вероятностная модель — это вероятностная модель, в которой в виде графа представлены зависимости между случайными величинами. Вершины графа соответствуют случайным переменным, а рёбра — непосредственным вероятностным взаимосвязям между случайными величинами. Графические модели широко используются в теории вероятностей, статистике, а также в машинном обучении.
Джуда Перл — американский и израильский учёный в области информатики, автор математического аппарата байесовских сетей, создатель математической и алгоритмической базы вероятностного вывода, автор алгоритма распространения доверия для графических вероятностных моделей, do-исчисления и исчисления контрфактических условных.
OpenCog — проект с открытым исходным кодом, направленный на создание инструментов для разработки искусственного интеллекта. OpenCog Prime — это когнитивная архитектура, которая, если этот проект будет полностью реализован, позволит создать искусственный интеллект эквивалентный человеческому и, в конечном итоге, его превосходящий. Дизайн OpenCog Prime выполнен по большей части Беном Герцелем, а фреймворк OpenCog, в свою очередь, создан как площадка для более глубоких исследований в области сильного искусственного интеллекта. Исследования возможностей фреймворка OpenCog были опубликованы в журналах, а также представлены на различных конференциях и семинарах, в том числе, и на конференциях Artificial General Intelligence. Права на OpenCog защищены лицензией GNU AGPL.
Длинная цепь элементов краткосрочной памяти — разновидность архитектуры рекуррентных нейронных сетей, предложенная в 1997 году Зеппом Хохрайтером и Юргеном Шмидхубером. Как и большинство рекуррентных нейронных сетей, LSTM-сеть является универсальной в том смысле, что при достаточном числе элементов сети она может выполнить любое вычисление, на которое способен обычный компьютер, для чего необходима соответствующая матрица весов, которая может рассматриваться как программа. В отличие от традиционных рекуррентных нейронных сетей, LSTM-сеть хорошо приспособлена к обучению на задачах классификации, обработки и прогнозирования временных рядов в случаях, когда важные события разделены временными лагами с неопределённой продолжительностью и границами. Относительная невосприимчивость к длительности временных разрывов даёт LSTM преимущество по отношению к альтернативным рекуррентным нейронным сетям, скрытым марковским моделям и другим методам обучения для последовательностей в различных сферах применения. Из множества достижений LSTM-сетей можно выделить наилучшие результаты в распознавании несегментированного слитного рукописного текста, и победу в 2009 году на соревнованиях по распознаванию рукописного текста (ICDAR). LSTM-сети также используются в задачах распознавания речи, например LSTM-сеть была основным компонентом сети, которая в 2013 году достигла рекордного порога ошибки в 17,7 % в задаче распознавания фонем на классическом корпусе естественной речи TIMIT. По состоянию на 2016 год ведущие технологические компании, включая Google, Apple, Microsoft и Baidu, используют LSTM-сети в качестве фундаментального компонента новых продуктов.
Ограниченная машина Больцмана, сокращённо RBM — вид генеративной стохастической нейронной сети, которая определяет распределение вероятности на входных образцах данных.
В искусственных нейронных сетях функция активации нейрона определяет выходной сигнал, который определяется входным сигналом или набором входных сигналов. Стандартная компьютерная микросхема может рассматриваться как цифровая сеть функций активации, которые могут принимать значения «ON» (1) или «OFF» (0) в зависимости от входа. Это похоже на поведение линейного перцептрона в нейронных сетях. Однако только нелинейные функции активации позволяют таким сетям решать нетривиальные задачи с использованием малого числа узлов. В искусственных нейронных сетях эта функция также называется передаточной функцией.
Причинная динамическая триангуляция (ПДТ) — разновидность теории квантовой гравитации, основанная на математической гипотезе о двумерной структуре пространства-времени и его фрактальной структуре на сечениях постоянного времени при расстояниях порядка планковской длины и интервалах времени порядка планковского времени.
Канонический корреляционный анализ — это способ получения информации из матриц взаимной корреляции. Если у нас есть два вектора и случайных величин, и имеются корреляции среди этих переменных, тогда канонический корреляционный анализ найдёт линейную комбинацию X и Y, которая имеет максимум корреляции. Т. Р. Кнапп заметил, что «практически все общеупотребительные параметрические тесты значимости могут трактоваться как специальный случай канонического корреляционного анализа, который является общей процедурой для исследования связей между двумя наборами переменных». Первым метод представил Гарольд Хотеллинг в 1936.
Индукция грамматики — процедура машинного обучения, которая восстанавливает формальную грамматику языка на основе набора наблюдений (примеров) с известной принадлежностью этому языку. В результате процедуры строится модель наблюдаемых объектов в виде набора правил вывода или порождающих правил, конечного автомата или автомата другого вида. В более общем смысле, грамматический вывод — это одно из направлений машинного обучения, в котором пространство примеров состоит из дискретных комбинаторных объектов, таких как строки, деревья, графы.
Ориентация неориентированного графа — это назначение направлений каждому ребру, что превращает исходный граф в ориентированный граф.
Показатель центральности или близости к центру в теории графов и анализе сетей определяет наиболее важные вершины графа. Приложения показателя применяются для выявления наиболее влиятельного лица (лиц) в социальной сети, ключевых узлов инфраструктуры в интернете или городских сетей и разносчиков болезни. Концепции центральности первоначально развивались в анализе социальных сетей и многие термины центральности используются для измерения социологических первоисточников. Не следует путать эти показатели с метриками влияния узлов, которые ищут количественные характеристики влияния каждого узла в сети.
Ложная зависимость или ложная корреляция в статистике — это математическая зависимость, в которой два или более события или переменные связаны, но не причинно, а вследствие совпадения, или из-за наличия определенного третьего, скрытого фактора, называемого «общей переменной отклика», «спутывающим фактором» или «скрытой переменной».
В статистике модель медиации стремится идентифицировать и объяснить механизм, лежащий в основе наблюдаемой связи между независимой переменной и зависимой переменной, путем включения третьей гипотетической переменной, известной как переменная-медиатор, или промежуточная переменная. Вместо прямой причинно-следственной связи между независимой и зависимой переменной модель медиации предполагает, что независимая переменная влияет на ненаблюдаемую переменную-медиатор, которая, в свою очередь, влияет на зависимую переменную. Таким образом, переменная-медиатор служит для выяснения характера взаимосвязи между независимыми и зависимыми переменными.
Каузальная модель, причинная модель — это концептуальная модель, описывающая причинные механизмы системы. Каузальные модели могут повысить качество исследования, предоставляя чёткие правила включения независимых переменных в анализ. Они могут позволить ответить на некоторые вопросы на основе существующих данных наблюдений без необходимости интервенционного исследования, такого как рандомизированное контролируемое испытание. Некоторые интервенционные исследования не подходят по этическим или практическим причинам, а это означает, что без каузальной модели некоторые гипотезы не могут быть проверены.
Каузальная циклическая диаграмма (CLD) — это каузальная диаграмма, которая помогает визуализировать взаимосвязь различных переменных в системе. Схема состоит из множества узлов и ребер. Узлы представляют переменные, а ребра — связи, которые представляют связь или отношение между двумя переменными. Ссылка, отмеченная положительно, указывает на положительное отношение, а ссылка, отмеченная отрицательно, указывает на отрицательное отношение. Положительная причинно-следственная связь означает, что два узла изменяются в одном направлении, то есть если узел, в котором начинается связь, уменьшается, другой узел также уменьшается. Аналогично, если узел, в котором начинается связь, увеличивается, то увеличивается и другой узел. Отрицательная причинно-следственная связь означает, что два узла изменяются в противоположных направлениях, то есть если узел, в котором начинается связь, увеличивается, то другой узел уменьшается и наоборот.
Причинные множества — направление исследований в квантовой гравитации, основанное на математической гипотезе о дискретной структуре пространства-времени и о частичной упорядоченности его точек, физически означающей причинно-следственные связи между событиями в них с сохранением лоренцевской инвариантности.
Спутывающая переменная, спутывающий фактор, конфаундер — переменная в статистике, которая влияет как на зависимую, так и на независимую переменные, результатом чего является ложная зависимость. Спутывание — это причинная концепция, элемент каузальной модели, и как таковая она не может быть описана в терминах корреляций или ассоциаций. Конфаундеры являются одним из видов переменных в причинном анализе наряду с модераторами, медиаторами и коллайдерами.