Иску́сственный интелле́кт — свойство искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека ; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ.
Технологи́ческая сингуля́рность — гипотетический момент в будущем, когда технологическое развитие становится в принципе неуправляемым и необратимым, что порождает радикальные изменения характера человеческой цивилизации.
Вопрос о равенстве классов сложности P и NP — это одна из центральных открытых проблем теории алгоритмов, сформулированная в начале 1970-х годов и до сих пор не имеющая доказательного ответа. Если будет дан утвердительный ответ, это будет означать, что существует теоретическая возможность решать многие сложные задачи существенно быстрее, чем сейчас.
Сильный и слабый искусственные интеллекты — гипотеза в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы.
- теория сильного искусственного интеллекта предполагает, что искусственная система может приобрести способность мыслить и осознавать себя как отдельную личность, хотя и не обязательно, что их мыслительный процесс будет подобен человеческому.
- теория слабого искусственного интеллекта предназначен для решения какой-либо одной интеллектуальной задачи или их небольшого множества, которые не подразумевают наличия у компьютера подлинного сознания.
Дартмутский семинар — двухмесячный научный семинар по вопросам искусственного интеллекта, проведённый летом 1956 года в Дартмутском колледже.
Игровой искусственный интеллект — набор программных методик, которые используются в компьютерных играх для создания иллюзии интеллекта в поведении персонажей, управляемых компьютером. Игровой ИИ, помимо методов традиционного искусственного интеллекта, включает также алгоритмы теории управления, робототехники, компьютерной графики и информатики в целом.
Machine Intelligence Research Institute — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Элиезера Юдковского о создании дружественного ИИ. Юдковский исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.
Компьютерное го — направление искусственного интеллекта по созданию компьютерных программ, играющих в го.
Дружественный искусственный интеллект — концепция философии ИИ, гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на человеческую цивилизацию. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что ИИ обязательно будет испытывать к человечеству чувства привязанности и близости.
Элие́зер Шло́мо Юдко́вский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. Ключевая фигура сообщества рационалистов.
Аппроксимационный алгоритм — в исследовании операций алгоритм, использующийся для поиска приближённого решения оптимизационной задачи.
В теории вычислительной сложности сложность алгоритма в среднем — это количество неких вычислительных ресурсов, требуемое для работы алгоритма, усреднённое по всем возможным входным данным. Понятие часто противопоставляется сложности в худшем случае, где рассматривается максимальная сложность алгоритма по всем входным данным.
Символический искусственный интеллект — собирательное название для всех методов исследования искусственного интеллекта, основанных на высокоуровневом «символическом» (человекочитаемом) представлении задач, логики и поиска. Символический ИИ лёг в основу доминирующей парадигмы исследований ИИ с середины 1950-х до конца 1980-х.
Вычислительное право — это отрасль правовой информатики, касающаяся механизации юридической аргументации. Она выделяет явные поведенческие проблемы и не рассматривает имплицитные правила поведения. Важно отметить, что в обществе существует приверженность достаточному уровню строгости в определении законов, для того, чтобы контроль за их соблюдением можно было полностью автоматизировать.
Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, связанный с сокращением финансирования и общим снижением интереса к проблематике. Термин был введён по аналогии с термином «ядерная зима». Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя.
Этика искусственного интеллекта является частью этики технологий, характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и машинную этику, которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).
Гэри Ф. Маркус — американский учёный, писатель и предприниматель, профессор кафедры психологии Нью-Йоркского университета. Основатель и генеральный директор компании Geometric Intelligence, занимающейся машинным обучением.
Проблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.
Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence — книга Кейт Кроуфорд, вышедшая в свет 6 апреля 2021 года, и посвящённая проблемам, связанным с искусственным интеллектом.
Инструментальная сходимость — это гипотетическая тенденция для большинства достаточно разумных существ к достижению сходных промежуточных целей, даже если их конечные цели ощутимо различаются. Такие агенты преследуют инструментальные цели, которые при этом не являются конечными целями. Инструментальная сходимость утверждает, что разумный агент с неограниченными, но на первый взгляд безобидными целями может предпринимать весьма небезопасные действия для их достижения. Например, ИИ с единственной и неограниченной целью решения невероятно сложной математической задачи, такой как гипотеза Римана, может попытаться превратить Землю в гигантский компьютер, в попытке увеличить свою вычислительную мощность, для ее решения.