OpenCog

OpenCog
Тип Сильный искусственный интеллект
Разработчик OpenCog Foundation
Написана на C++, Python, Scheme
Первый выпуск 21 января 2008 (2008-01-21)[1]
Аппаратная платформа GNU/Linux
Последняя версия
Репозиторий github.com/opencog/atoms…
Состояние активный
Лицензия GNU AGPLv3
Сайт opencog.org

OpenCog — проект с открытым исходным кодом, направленный на создание инструментов для разработки искусственного интеллекта. OpenCog Prime [3] — это когнитивная архитектура, которая, если этот проект будет полностью реализован, позволит создать искусственный интеллект эквивалентный человеческому и, в конечном итоге, его превосходящий. Дизайн OpenCog Prime выполнен по большей части Беном Герцелем, а фреймворк OpenCog, в свою очередь, создан как площадка для более глубоких исследований в области сильного искусственного интеллекта. Исследования возможностей фреймворка OpenCog были опубликованы в журналах, а также представлены на различных конференциях и семинарах, в том числе, и на конференциях Artificial General Intelligence (англ. Conference on Artificial General Intelligence). Права на OpenCog защищены лицензией GNU AGPL.

Определение

[править | править код]

OpenCog первоначально (в 2008 году), был основан на исходном коде, который принадлежит Novamente Cognition Engine (NCE) от Novamente LLC. Исходный код NCE подробно описывается в книге Probabilistic Logic Networks (авторы Goertzel, B., Iklé, M., Goertzel, I.F., Heljakka, A.). Текущее развитие OpenCog происходит усилиями AGIRI (англ. Artificial General Intelligence Research Institute) и прочим организациям.

Компоненты

[править | править код]

OpenCog состоит из:

  • Структуры графов, которые строятся на основании предложений (логика), атомов (логика) и реляционной модели связей гиперграфов, что дает вероятностное определение истинной оценки и называется AtomSpace.
  • Решений выполнимости формул в теориях, которые строятся на основании запросов для определения шаблонов графов и гиперграфов (изоморфическая теория графов).
  • Системы принятия решений на основе вероятностных логических сетей (PLN).
  • Системы вероятностных генетических программ, называемой Meta-Optimizing Semantic Evolutionary Search (MOSES), автором которой является Moshe Looks, который в настоящее время[когда?] работает в Google.
  • Системы распределения внимания, основанной на экономической теории ECAN.
  • Системы взаимодействия и самообучения основанной на OpenPsi и Unity3D.
  • Системы ввода данных на естественном языке, которая состоит из en:Link Grammar и RelEx, которые в свою очередь образуют AtomSpace.
  • Системы ввода данных на естественном языке нового поколения SegSim, с внедренными NLGen и NLGen2.
  • Psi-теории, которая ответственна за эмоции и побуждения, и дублирует OpenPsi.
  • Моделирования эмоций с помощью OpenPsi применяется в интерфейсе роботов en:Hanson Robotics.

SIAI спонсировал OpenCog в 2008 году, что привело к принятию на полный рабочий день Джоэла Питта (Joel Pitt) в качестве системного инженера. Большой вклад был сделан сообществом с тех пор как OpenCog был представлен на Google Summer of Code в 2008 и 2009 годах. В настоящее время SIAI (и позднее MIRI) больше не поддерживает OpenCog. Сегодня OpenCog финансируется и поддерживается из различных источников, включая правительство Гонконга, политехнический институт Гонконга и фонд en:Jeffrey Epstein VI Foundation.

Примечания

[править | править код]
  1. OpenCog Release (21 января 2008). Дата обращения: 21 января 2008. Архивировано 28 января 2016 года.
  2. Release 5.0.3 — 2016.
  3. OpenCog Prime - OpenCog. Дата обращения: 9 июля 2015. Архивировано 4 ноября 2015 года.

Литература

[править | править код]
  • Hart, D; B Goertzel (2008). OpenCog: A Software Framework for Integrative Artificial General Intelligence (PDF). Proceedings of the First AGI Conference. Архивная копия от 1 декабря 2014 на Wayback Machine
  • Goertzel, B., Iklé, M., Goertzel, I.F., Heljakka, A. Probabilistic Logic Networks, A Comprehensive Framework for Uncertain Inference Архивная копия от 13 мая 2008 на Wayback Machine, Springer, 2009, VIII, 336 p., Hardcover ISBN 978-0-387-76871-7