
Иску́сственный интелле́кт в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами. Это область исследований в области компьютерных наук, которая разрабатывает и изучает методы и программное обеспечение, позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимально увеличивают их шансы на достижение поставленных целей. Такие машины можно назвать искусственным интеллектом.

Технологи́ческая сингуля́рность — гипотетический момент в будущем, когда технологическое развитие становится в принципе неуправляемым и необратимым, что порождает радикальные изменения характера человеческой цивилизации.
AI-полная задача, по аналогии с NP-полным классом задач в теории сложности, — проблема, решение которой предполагает создание «сильного AI», то есть решения главной проблемы искусственного интеллекта: сделать компьютеры такими же умными, как люди. Иначе говоря, решение любой AI-полной проблемы требует создания «действительно мыслящего» агента. В отличие от строгого понятия NP-полноты, AI-полнота используется как неформальный термин.
Глобальная катастрофа — событие, которое полностью уничтожает возникшую на Земле разумную жизнь или необратимо ограничивает её потенциал.
Игровой искусственный интеллект — набор программных методик, которые используются в компьютерных играх для создания иллюзии интеллекта в поведении персонажей, управляемых компьютером. Игровой ИИ, помимо методов традиционного искусственного интеллекта, включает также алгоритмы теории управления, робототехники, компьютерной графики и информатики в целом.
Machine Intelligence Research Institute — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Элиезера Юдковского о создании дружественного ИИ. Юдковский исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.

Элие́зер Шло́мо Юдко́вский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. Ключевая фигура сообщества рационалистов.

Майкл Вассар — американский учёный, футуролог, активист, предприниматель и президент Института Сингулярности. Он имеет степени магистра и бакалавра в области биохимии. Как президент Института Сингулярности, он развивает научно-исследовательский потенциал института и увеличивает его роль в качестве форума для обсуждения перспектив, преимуществ и недостатков искусственного интеллекта. Он выступает за безопасное развитие новых технологий на благо человечества. Майкл Вассар также отвечает за организацию Саммита Сингулярности. Он занимал различные должности в Aon, Корпусе мира, а также в Национальном Институте Стандартов и Технологий. Он является основателем и главным управляющим SirGroovy.com, фирмы, занимающейся лицензированием онлайн музыки. Он является соавтором статьи с Робертом Фрейтасом по рискам молекулярных производств, и написал «Corporate Cornucopia» для Center for Responsible Nanotechnology.

Бен Герцель — американский учёный, главный научный сотрудник компании Aidyia Holdings, футуролог, специалист по финансовому прогнозированию, председатель частной компании по программному обеспечению искусственного интеллекта Novamente LLC, а также биоинформационной компании Biomind LLC, которая предоставляет искусственный интеллект для биоинформационного анализа данных ; председатель Artificial General Intelligence Society и OpenCog Foundation; вице-председатель футуристической некоммерческой организации Humanity+; научный консультант биофармакологической компании Genescient Corp.; консультант Singularity University; профессор-исследователь интеллектуальных систем в Fujian Key Lab университета Xiamen, Китай; и генеральный председатель конференций, посвящённых изучению искусственного интеллекта, автор и исследователь в области искусственного интеллекта. Также он является консультантом в Machine Intelligence Research Institute, где он был руководителем исследований.
Искусственный интеллект (ИИ) в медицине — использует алгоритмы и программное обеспечение для аппроксимации человеческих знаний при анализе сложных медицинских данных. Основной целью приложений, связанных со здоровьем человека, является анализ взаимосвязи между методами профилактики или лечения и результатами лечения пациентов. Были разработаны и применены на практике программы искусственного интеллекта, которые проводят диагностику процессов, разработку протоколов лечения, разработку лекарственных средств, мониторинг состояния пациента. Здравоохранение остается одной из главных областей инвестирования в ИИ.
Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, связанный с сокращением финансирования и общим снижением интереса к проблематике. Термин был введён по аналогии с термином «ядерная зима». Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя.
Этика искусственного интеллекта является частью этики технологий, характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и машинную этику, которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).
Рационалисты составляют современное интеллектуальное движение, выступающее за систематическое применение рационального подхода к познанию и принятию решений, а также утилитаристской этики. На основании этих принципов рационалисты считают необходимым уделять особое внимание рискам глобальных катастроф, в частности и в особенности риску появления сверхразумного искусственного интеллекта.
Проблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.

Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта — книга шведско-американского космолога Макса Тегмарка из Массачусетского технологического института. «Жизнь 3.0» обсуждает искусственный интеллект (ИИ) и его влияние на будущее жизни на Земле и за её пределами.
Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence — книга Кейт Кроуфорд, вышедшая в свет 6 апреля 2021 года, и посвящённая проблемам, связанным с искусственным интеллектом.
Инструментальная сходимость — это гипотетическая тенденция для большинства достаточно разумных существ к достижению сходных промежуточных целей, даже если их конечные цели ощутимо различаются. Такие агенты преследуют инструментальные цели, которые при этом не являются конечными целями. Инструментальная сходимость утверждает, что разумный агент с неограниченными, но на первый взгляд безобидными целями может предпринимать весьма небезопасные действия для их достижения. Например, ИИ с единственной и неограниченной целью решения невероятно сложной математической задачи, такой как гипотеза Римана, может попытаться превратить Землю в гигантский компьютер, в попытке увеличить свою вычислительную мощность, для ее решения.

Управление возможностями искусственного интеллекта — ограничения и контроль искусственного интеллекта (ИИ) различными средствами.
Регламент об искусственном интеллекте — это нормативный акт Европейского союза об искусственном интеллекте. Принят Европейским парламентом 13 марта 2024 года и одобрен Советом ЕС 21 мая 2024 года.
Искусственный интеллект. Этапы. Угрозы. Стратегии — книга философа Ника Бострома вышедшая в 2014 году, в которой рассматриваются возможные последствия создания искусственного сверхинтеллекта. Основным посылом книги является экзистенциальный риск связанный с высокой вероятностью выхода из-под контроля искусственного сверхинтеллекта, как системы способной к самоулучшению и достижению промежуточных целей. В отличие от слабого ИИ такую систему станет трудно, или даже невозможно контролировать, что может привести к непредсказуемым последствиям для человеческого вида. В книге рассматриваются такие сценарии как использование сверхразумной системы своей силы для захваты власти и ресурсов, с целью достижения собственных целей. Также рассматриваются варианты при которых будет создан сверхинтеллект работающий на благо человечества.