Логика первого порядка — формальное исчисление, допускающее высказывания относительно переменных, фиксированных функций и предикатов. Расширяет логику высказываний.
Нейро́нная сеть — математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети У. Маккалока и У. Питтса. После разработки алгоритмов обучения получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.
Уравне́ние Шрёдингера — линейное дифференциальное уравнение в частных производных, описывающее изменение в пространстве и во времени чистого состояния, задаваемого волновой функцией, в гамильтоновых квантовых системах.
Квазикласси́ческое приближе́ние, также известное как метод ВКБ — пример квазиклассического вычисления в квантовой механике, в котором волновая функция представлена как показательная функция, квазиклассически расширенная, а затем или амплитуда, или фаза медленно изменяются. Метод назван в честь физиков Г. Вентцеля, Х. А. Крамерса и Л. Бриллюэна, которые развили его в 1926 году независимо друг от друга.
Метод Галёркина — метод приближённого решения краевой задачи для дифференциального уравнения . Здесь оператор может содержать частные или полные производные искомой функции.
Перцептро́н — математическая или компьютерная модель восприятия информации мозгом, предложенная Фрэнком Розенблаттом в 1957 году и впервые воплощённая в виде электронной машины «Марк-1» в 1960 году. Перцептрон стал одной из первых моделей нейросетей, а «Марк-1» — первым в мире нейрокомпьютером.
Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв. Особенностью является наличие более чем одного обучаемого слоя. Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование.
Теорема сходимости перцептрона — это теорема, описанная и доказанная Ф. Розенблаттом. Она показывает, что элементарный перцептрон, обучаемый по методу коррекции ошибки, независимо от начального состояния весовых коэффициентов и последовательности появления стимулов всегда приведёт к достижению решения за конечный промежуток времени. Ф. Розенблаттом также были представлены доказательства ряда сопутствующих теорем, следствия из которых позволяли сделать вывод о том, каким условиям должны соответствовать архитектура искусственных нейронных сетей и методы их обучения.
Оператор — линейное отображение в одной из областей физики — квантовой механике, которое действует на волновую функцию, являющуюся комплекснозначной функцией, дающей наиболее полное описание состояния системы. Операторы обозначаются большими латинскими буквами с циркумфлексом наверху:
Перцептроны с обратной связью — наиболее общий вид перцептронов, некоторые виды которых были описаны Ф. Розенблаттом. Они отличаются от простых перцептронов наличием обратной связи. Благодаря этому слои элементов, находящихся сравнительного далеко от сенсорных входов, могут воздействовать на активность слоёв, расположенных ближе к входу. Согласно современной классификации этот тип нейронной сети относится к рекуррентным нейронным сетям.
Перцептрон с переменными S-A связями — перцептрон Розенблатта с несколькими R-элементами и переменными (обучаемыми) S-A и A-R связями. В названии акцент сделан на S-A связи, так как это последнее снятое Розенблаттом ограничение при рассмотрении элементарного перцептрона, в результате чего получена система самого общего вида с топологической структурой S -> A -> R. Данный перцептрон является эквивалентом многослойного перцептрона Румельхарта, хотя самим Розенблаттом под этим названием был рассмотрен случай только с двумя слоями связей. Но этого достаточно, чтобы охарактеризвать этот подвид перцептронов в том же отношении, что было сделано Румельхартом. Для более сложного анализа возможностей перцептронов Розенблатт переходит к четырёхслойным перцептронам, считая только их многослойными перцептронами.
G — матрица перцептрона — используется для анализа перцептронов. Имеет следующий вид:
Перцептрон является одной из первых моделей искусственной нейронной сети. Несмотря на то, что модель предложена Фрэнком Розенблаттом в 1957 году, о её возможностях и ограничениях до сегодняшнего дня не всё известно. В 1969 году Марвин Минский и Сеймур Паперт посвятили критике перцептрона целую книгу, которая показала некоторые принципиальные ограничения одной из разновидности перцептронов.
Книга «Перцептроны» — написана Марвином Минским и Сеймуром Папертом, издана в 1969. Выпуск с рукописными исправлениями и дополнениями был выпущен в начале 1970-х. Расширенный выпуск был далее выпущен в 1987 году, содержал главу, в которой снимались критические замечания, сделанные в 1980-х.
Технология графосимволического программирования — это технология проектирования и кодирования алгоритмов программного обеспечения, базирующаяся на графическом способе представления программ, преследующую цель полной или частичной автоматизации процессов проектирования, кодирования и тестирования ПО.
Индуктивный предел — конструкция, возникшая первоначально в теории множеств и топологии, а затем нашедшая широкое применение во многих разделах математики. Двойственное понятие — проективный предел.
Структурное прогнозирование, или структурное обучение — собирательный термин для техник машинного обучения с учителем, вовлекающих предвидение структурных объектов, а не скалярных дискретных или вещественных значений.
В теории множеств и его приложениях к логике, математике и информатике форма записи множества — это математические обозначения для описания множества путём перечисления его элементов или указания свойств, которым элементы множества должны удовлетворять.