Иску́сственный интелле́кт в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами. Это область исследований в области компьютерных наук, которая разрабатывает и изучает методы и программное обеспечение, позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимально увеличивают их шансы на достижение поставленных целей. Такие машины можно назвать искусственным интеллектом.
Сильный и слабый искусственные интеллекты — гипотеза в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы.
- теория сильного искусственного интеллекта предполагает, что искусственная система может приобрести способность мыслить и осознавать себя как отдельную личность, хотя и не обязательно, что их мыслительный процесс будет подобен человеческому.
- теория слабого искусственного интеллекта предназначен для решения какой-либо одной интеллектуальной задачи или их небольшого множества, которые не подразумевают наличия у компьютера подлинного сознания.
Питер Норвиг — американский учёный в области вычислительной техники. В данный момент работает директором по исследованиям в корпорации Google.
Дартмутский семинар — двухмесячный научный семинар по вопросам искусственного интеллекта, проведённый летом 1956 года в Дартмутском колледже.
Игровой искусственный интеллект — набор программных методик, которые используются в компьютерных играх для создания иллюзии интеллекта в поведении персонажей, управляемых компьютером. Игровой ИИ, помимо методов традиционного искусственного интеллекта, включает также алгоритмы теории управления, робототехники, компьютерной графики и информатики в целом.
Machine Intelligence Research Institute — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Элиезера Юдковского о создании дружественного ИИ. Юдковский исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.
Элие́зер Шло́мо Юдко́вский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. Ключевая фигура сообщества рационалистов.
Сэр Майкл Джеймс Лайтхилл — английский учёный в области прикладной математики, основоположник аэроакустики.
Джуда Перл — американский и израильский учёный в области информатики, автор математического аппарата байесовских сетей, создатель математической и алгоритмической базы вероятностного вывода, автор алгоритма распространения доверия для графических вероятностных моделей, do-исчисления и исчисления контрфактических условных.
OpenCog — проект с открытым исходным кодом, направленный на создание инструментов для разработки искусственного интеллекта. OpenCog Prime — это когнитивная архитектура, которая, если этот проект будет полностью реализован, позволит создать искусственный интеллект эквивалентный человеческому и, в конечном итоге, его превосходящий. Дизайн OpenCog Prime выполнен по большей части Беном Герцелем, а фреймворк OpenCog, в свою очередь, создан как площадка для более глубоких исследований в области сильного искусственного интеллекта. Исследования возможностей фреймворка OpenCog были опубликованы в журналах, а также представлены на различных конференциях и семинарах, в том числе, и на конференциях Artificial General Intelligence. Права на OpenCog защищены лицензией GNU AGPL.
Бен Герцель — американский учёный, главный научный сотрудник компании Aidyia Holdings, футуролог, специалист по финансовому прогнозированию, председатель частной компании по программному обеспечению искусственного интеллекта Novamente LLC, а также биоинформационной компании Biomind LLC, которая предоставляет искусственный интеллект для биоинформационного анализа данных ; председатель Artificial General Intelligence Society и OpenCog Foundation; вице-председатель футуристической некоммерческой организации Humanity+; научный консультант биофармакологической компании Genescient Corp.; консультант Singularity University; профессор-исследователь интеллектуальных систем в Fujian Key Lab университета Xiamen, Китай; и генеральный председатель конференций, посвящённых изучению искусственного интеллекта, автор и исследователь в области искусственного интеллекта. Также он является консультантом в Machine Intelligence Research Institute, где он был руководителем исследований.
Символический искусственный интеллект — собирательное название для всех методов исследования искусственного интеллекта, основанных на высокоуровневом «символическом» (человекочитаемом) представлении задач, логики и поиска. Символический ИИ лёг в основу доминирующей парадигмы исследований ИИ с середины 1950-х до конца 1980-х.
Искусственный интеллект (ИИ) в медицине — использует алгоритмы и программное обеспечение для аппроксимации человеческих знаний при анализе сложных медицинских данных. Основной целью приложений, связанных со здоровьем человека, является анализ взаимосвязи между методами профилактики или лечения и результатами лечения пациентов. Были разработаны и применены на практике программы искусственного интеллекта, которые проводят диагностику процессов, разработку протоколов лечения, разработку лекарственных средств, мониторинг состояния пациента. Здравоохранение остается одной из главных областей инвестирования в ИИ.
Роберт Энтони Ковальский — американский логик и ученый, который провел большую часть своей карьеры в Соединенном Королевстве.
Искусственный интеллект и закон — подобласть искусственного интеллекта (ИИ), в основном касающаяся приложений ИИ к проблемам правовой информатики и оригинальных исследований по этим проблемам. Другое направление — перенос инструментов и методов, разработанных в контексте решения правовых задач, на сферу искусственного интеллекта в целом. Например, теории правовых решений, особенно модели аргументации, способствовали развитию представления знаний и рассуждений; модели социальной организации на основе норм способствовали развитию многоагентных систем; рассуждения в рамках делопроизводства способствовали развитию доказательной базы; необходимость хранения и извлечения больших объёмов текстовых данных повлекла за собой существенный вклад в концептуальный информационный поиск и интеллектуальные базы данных.
Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, связанный с сокращением финансирования и общим снижением интереса к проблематике. Термин был введён по аналогии с термином «ядерная зима». Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя.
Стюарт Джонатан Рассел — английский ученый в области искусственного интеллекта.
Этика искусственного интеллекта является частью этики технологий, характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и машинную этику, которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).
Леона́рд Во́льфганг Би́бель — немецкий ученый, математик и почетный профессор факультета компьютерных технологий в Дармштадтском техническом университете. Он один из первых исследователей искусственного интеллекта в Германии и Европе. Бибель основал необходимые институты, конференции и научные журналы, а также продвигал необходимые исследовательские программы для создания исследовательской области искусственного интеллекта как научной дисциплины.
Проблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.