
Иску́сственный интелле́кт в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами. Это область исследований в области компьютерных наук, которая разрабатывает и изучает методы и программное обеспечение, позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимально увеличивают их шансы на достижение поставленных целей. Такие машины можно назвать искусственным интеллектом.
Сильный и слабый искусственные интеллекты — гипотеза в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы.
- теория сильного искусственного интеллекта предполагает, что искусственная система может приобрести способность мыслить и осознавать себя как отдельную личность, хотя и не обязательно, что их мыслительный процесс будет подобен человеческому.
- теория слабого искусственного интеллекта предназначен для решения какой-либо одной интеллектуальной задачи или их небольшого множества, которые не подразумевают наличия у компьютера подлинного сознания.
Дартмутский семинар — двухмесячный научный семинар по вопросам искусственного интеллекта, проведённый летом 1956 года в Дартмутском колледже.
Отчёт Лайтхилла — документ, подготовленный в 1973 году британским прикладным математиком Джеймсом Лайтхиллом, в котором были даны крайне пессимистические прогнозы для основных направлений исследований в области искусственного интеллекта.
Machine Intelligence Research Institute — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Элиезера Юдковского о создании дружественного ИИ. Юдковский исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.

Элие́зер Шло́мо Юдко́вский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. Ключевая фигура сообщества рационалистов.

Borrelia recurentis (лат.) — вид бактерий рода боррелий. Открыт в 1868 году О. Обермейером. Является этиологическим агентом эпидемического возвратного тифа. Боррелии возвратного тифа обычно переносятся от человека к человеку вшами.
Поиск «лучший — первый» — алгоритм поиска, исследующий граф путём расширения наиболее перспективных узлов, выбираемых в соответствии с указанным правилом.
Универсальный решатель задач — компьютерная программа, созданная в 1959 году Гербертом Саймоном, Клиффордом Шоу и Алленом Ньюэллом, предназначенная для работы в качестве универсальной машины для решения задач, сформулированных на языке хорновских дизъюнктов. В качестве примеров использования приводились доказательства теорем евклидовой геометрии и логики предикатов, решение шахматных задач.

Сеть радиально-базисных функций — искусственная нейронная сеть, которая использует радиальные базисные функции как функции активации.
Нейро-нечёткие системы или Нечёткие нейронные сети — это системы из области искусственного интеллекта, были предложены Ж. С. Р. Чангом, которые комбинируют методы искусственных нейронных сетей и систем на нечёткой логике. Нейро-нечёткие системы являются результатом попытки создания гибридной интеллектуальной системы, которая бы давала синергетический эффект этих двух подходов путём комбинирования человекоподобного стиля рассуждений нечётких систем с обучением и коннекционистской структурой нейронных сетей. Основная сила нейро-нечётких систем состоит в том, что они являются универсальными аппроксиматорами со способностью запрашивать интерпретируемые правила ЕСЛИ-ТО.

Теорема о внешнем угле треугольника — одна из основных теорем планиметрии.
Поиск восхождением к вершине — это техника математической оптимизации, принадлежащая семейству алгоритмов локального поиска. Алгоритм является методом итерации, который начинается с произвольного решения задачи, а затем пытается найти лучшее решение путём пошагового изменения одного из элементов решения. Если решение даёт лучшее решение, делается приращение для получения нового решения и оно делается, пока не достигнем момента, в котором улучшение найти не удаётся.
Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, связанный с сокращением финансирования и общим снижением интереса к проблематике. Термин был введён по аналогии с термином «ядерная зима». Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя.

Стюарт Джонатан Рассел — английский ученый в области искусственного интеллекта.
Prentice Hall — крупное американское издательство, специализирующееся на образовательной тематике. Принадлежит компании Savvas Learning Company. Публикует печатные и электронные издания для рынка высшего и среднего образования, монографии для специалистов, фантастику. Prentice Hall также распространяет свои технические издания через электронную справочную службу Safari Books Online.
В информатике B* — это алгоритм поиска по графу, использующий поиск по первому наилучшему совпадению, который находит наименее затратный путь от заданного начального узла до любого целевого узла. Впервые опубликованный Хансом Берлинером в 1979 году, он связан с алгоритм поиска A*.
Проблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.
Инструментальная сходимость — это гипотетическая тенденция для большинства достаточно разумных существ к достижению сходных промежуточных целей, даже если их конечные цели ощутимо различаются. Такие агенты преследуют инструментальные цели, которые при этом не являются конечными целями. Инструментальная сходимость утверждает, что разумный агент с неограниченными, но на первый взгляд безобидными целями может предпринимать весьма небезопасные действия для их достижения. Например, ИИ с единственной и неограниченной целью решения невероятно сложной математической задачи, такой как гипотеза Римана, может попытаться превратить Землю в гигантский компьютер, в попытке увеличить свою вычислительную мощность, для ее решения.

Управление возможностями искусственного интеллекта — ограничения и контроль искусственного интеллекта (ИИ) различными средствами.