Нейро́нная сеть — математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети У. Маккалока и У. Питтса. После разработки алгоритмов обучения получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.
Нейрокомпьютер — устройство переработки информации на основе принципов работы естественных нейронных систем. Эти принципы были формализованы, что позволило говорить о теории искусственных нейронных сетей. Проблематика же нейрокомпьютеров заключается в построении реальных физических устройств, что позволит не просто моделировать искусственные нейронные сети на обычном компьютере, но так изменить принципы работы компьютера, что станет возможным говорить о том, что они работают в соответствии с теорией искусственных нейронных сетей.
Обуче́ние с учи́телем — один из способов машинного обучения, в ходе которого испытуемая система принудительно обучается с помощью примеров «стимул-реакция». С точки зрения кибернетики, является одним из видов кибернетического эксперимента. Между входами и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она неизвестна. Известна только конечная совокупность прецедентов — пар «стимул-реакция», называемая обучающей выборкой. На основе этих данных требуется восстановить зависимость, то есть построить алгоритм, способный для любого объекта выдать достаточно точный ответ. Для измерения точности ответов, так же как и в обучении на примерах, может вводиться функционал качества.
Обучение без учителя — один из способов машинного обучения, при котором испытуемая система спонтанно обучается выполнять поставленную задачу без вмешательства со стороны экспериментатора. С точки зрения кибернетики, это является одним из видов кибернетического эксперимента. Как правило, это пригодно только для задач, в которых известны описания множества объектов, и требуется обнаружить внутренние взаимосвязи, зависимости, закономерности, существующие между объектами.
Перцептро́н — математическая или компьютерная модель восприятия информации мозгом, предложенная Фрэнком Розенблаттом в 1957 году и впервые воплощённая в виде электронной машины «Марк-1» в 1960 году. Перцептрон стал одной из первых моделей нейросетей, а «Марк-1» — первым в мире нейрокомпьютером.
Модель мозга — любая теория, которая стремится объяснить физиологические функции мозга с помощью известных законов физики и математики, а также известных фактов нейроанатомии и нейрофизиологии. Существуют по меньшей мере два основных положения, играющих фундаментальную роль в теории функционирования мозга, в отношении которых сходится мнение большинства современных теоретиков:
- 1. Основные свойства мозга определяются топологической структурой сети нервных клеток (нейронов) и динамикой распространения импульсов в этой сети.
- 2. Способности биологических сетей перерабатывать информацию не зависят от каких-нибудь особых виталистических сил, которые не могут быть воспроизведены устройством, созданным руками человека.
Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв. Особенностью является наличие более чем одного обучаемого слоя. Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование.
Фрэнк Розенблатт — американский учёный в области психологии, нейрофизиологии и искусственного интеллекта.
Человеческая память ассоциативна, то есть некоторое воспоминание может порождать большую связанную с ним область. Один предмет напоминает нам о другом, а этот другой о третьем. Если позволить нашим мыслям, они будут перемещаться от предмета к предмету по цепочке умственных ассоциаций. Например, несколько музыкальных тактов могут вызвать целую гамму чувственных воспоминаний, включая пейзажи, звуки и запахи. Напротив, обычная компьютерная память является локально адресуемой, предъявляется адрес и извлекается информация по этому адресу.
Теорема сходимости перцептрона — это теорема, описанная и доказанная Ф. Розенблаттом. Она показывает, что элементарный перцептрон, обучаемый по методу коррекции ошибки, независимо от начального состояния весовых коэффициентов и последовательности появления стимулов всегда приведёт к достижению решения за конечный промежуток времени. Ф. Розенблаттом также были представлены доказательства ряда сопутствующих теорем, следствия из которых позволяли сделать вывод о том, каким условиям должны соответствовать архитектура искусственных нейронных сетей и методы их обучения.
Метод коррекции ошибки — метод обучения перцептрона, предложенный Фрэнком Розенблаттом. Представляет собой такой метод обучения, при котором вес связи не изменяется до тех пор, пока текущая реакция перцептрона остается правильной. При появлении неправильной реакции вес изменяется на единицу, а знак (+/-) определяется противоположным от знака ошибки.
Перцептроны с обратной связью — наиболее общий вид перцептронов, некоторые виды которых были описаны Ф. Розенблаттом. Они отличаются от простых перцептронов наличием обратной связи. Благодаря этому слои элементов, находящихся сравнительного далеко от сенсорных входов, могут воздействовать на активность слоёв, расположенных ближе к входу. Согласно современной классификации этот тип нейронной сети относится к рекуррентным нейронным сетям.
Многослойный перцептрон Розенблатта — перцептрон с дополнительными слоями А — элементов, расположенными между S- и R-элементами. Определение Розенблатта отличается от многослойного перцептрона Румельхарта и является более общим случаем по отношению к нему. Так как элементарный перцептрон уже обладал двумя слоями связей и тремя слоями элементов (нейронов), то такой перцептрон не считался многослойным, и многослойность подразумевалась только при наличии минимум четырёх слоёв элементов. Другое важное отличие состояло в том, что у Розенблатта необязательно все связи были обучаемые, часть из них могла быть случайно выбрана и фиксирована. Румельхарт же предполагал, что все связи многослойного перцептрона обучаемы. Поэтому полным эквивалентом многослойного перцептрона Румельхарта у Розенблатта является перцептрон с переменными S-A связями.
Перцептрон с переменными S-A связями — перцептрон Розенблатта с несколькими R-элементами и переменными (обучаемыми) S-A и A-R связями. В названии акцент сделан на S-A связи, так как это последнее снятое Розенблаттом ограничение при рассмотрении элементарного перцептрона, в результате чего получена система самого общего вида с топологической структурой S -> A -> R. Данный перцептрон является эквивалентом многослойного перцептрона Румельхарта, хотя самим Розенблаттом под этим названием был рассмотрен случай только с двумя слоями связей. Но этого достаточно, чтобы охарактеризвать этот подвид перцептронов в том же отношении, что было сделано Румельхартом. Для более сложного анализа возможностей перцептронов Розенблатт переходит к четырёхслойным перцептронам, считая только их многослойными перцептронами.
Метод коррекции с обратной передачей сигнала ошибки — стохастический метод обучения персептрона, необходимый, чтобы гарантировать сходимость при переменных связях больше, чем у одного слоя. Метод был предложен Розенблаттом для перцептрона с переменными S-A связями и может быть использован для бинарных многослойных перцептронов. Является альтернативой методу обратного распространения ошибки, но, в отличие от него, гарантирует процесс сходимости.
G — матрица перцептрона — используется для анализа перцептронов. Имеет следующий вид:
Марвин Минский изучал свойства параллельных вычислений, частным случаем которых на то время был перцептрон. Для анализа его свойств ему пришлось переизложить теорию перцептронов на язык предикатов.
Перцептрон является одной из первых моделей искусственной нейронной сети. Несмотря на то, что модель предложена Фрэнком Розенблаттом в 1957 году, о её возможностях и ограничениях до сегодняшнего дня не всё известно. В 1969 году Марвин Минский и Сеймур Паперт посвятили критике перцептрона целую книгу, которая показала некоторые принципиальные ограничения одной из разновидности перцептронов.
«Марк-1» — первый в мире нейрокомпьютер, созданный в 1958 году Фрэнком Розенблаттом. Эта машина основана на понятии перцептрона — одной из первых моделей нейросетей. Несмотря на свою простоту, перцептрон способен обучаться и решать довольно сложные задачи.
А́льфа-систе́ма подкрепле́ния — система подкрепления, при которой веса всех активных связей , которые оканчиваются на некотором элементе , изменяются на одинаковую величину , или с постоянной скоростью в течение всего времени действия подкрепления, причём веса неактивных связей за это время не изменяются. Перцептрон, в котором используется α-система подкрепления, называется α-перцептроном. Подкрепление называется дискретным, если величина изменения веса является фиксированной, и непрерывным, если эта величина может принимать произвольное значение.