Saltar para o conteúdo

Cyc

Origem: Wikipédia, a enciclopédia livre.
Autor original Douglas Lenat
Desenvolvedora Cycorp, Inc.
Lançamento 1984
Versão estável
6.1 / 27 de novembro de 2017
Escrito em Lisp, CycL, SubL
Tipo Linguagem de representação de conhecimento
e motor de inferência
Website www.cyc.com

Cyc (pronuncia-se /ˈsk/) é um projeto de inteligência artificial de longo prazo que visa montar uma ontologia abrangente e uma base de conhecimento que abrange os conceitos e regras básicas sobre como o mundo funciona. Na esperança de capturar o conhecimento do senso comum, o Cyc se concentra no conhecimento implícito. O projeto começou em julho de 1984 na MCC e foi desenvolvido posteriormente pela empresa Cycorp.

O nome "Cyc" (de "enciclopédia") é uma marca registrada de propriedade da Cycorp. O CycL tem uma especificação lançada publicamente, e dezenas de módulos HL (Nível Heurístico) foram descritos no livro didático de Lenat e Guha,[1] mas o código do mecanismo de inferência Cyc e a lista completa de módulos HL são de propriedade da Cycorp.[2]

É considerado o mais ambicioso sistema de inteligência artificial baseado em enquadre, envolvendo de forma híbrida milhões de regras atreladas a milhares de representações para conceitos e objetos do cotidiano, que se organizam conforme uma ontologia de conceitos fundamentais, como "indivíduo" ou "objeto".[3]

Diferente dos LLMs, que não têm um processo explícito de raciocínio por não possuírem conhecimento semântico ou gramatical ou regras lógicas,[4] o Cyc, contra a tendência atual dos modelos de IA, é um sistema simbólico de inteligência artificial que emprega uma ampla ontologia que representa o pensamento lógico.[5]

O projeto começou em julho de 1984 por Douglas Lenat como um projeto da Microelectronics and Computer Technology Corporation (MCC), um consórcio de pesquisa iniciado por duas corporações sediadas nos Estados Unidos "para combater um então ameaçador esforço japonês em IA, o chamado projeto de 'quinta geração'".[6] Os EUA aprovaram a Lei Nacional de Pesquisa Cooperativa de 1984, que pela primeira vez permitiu que empresas norte-americanas "conspirassem" em pesquisas de longo prazo. Desde janeiro de 1995, o projeto está em desenvolvimento ativo pela Cycorp, onde Douglas Lenat era o CEO.

A linguagem de representação CycL começou como uma extensão da RLL[7][8] ("Representation Language Language", desenvolvida em 1979–1980 por Lenat e seu aluno de pós-graduação Russell Greiner enquanto estava na Universidade de Stanford). Em 1989,[9] CycL expandiu seu poder expressivo para lógica de ordem superior (HOL).

A ontologia do Cyc cresceu para cerca de 100.000 termos em 1994 e, em 2017, continha cerca de 1.500.000 termos. A base de conhecimento Cyc envolvendo termos ontológicos foi amplamente criada por meio da escrita manual de axiomas; era de cerca de 1 milhão em 1994 e, em 2017, era de cerca de 24,5 milhões.

Em 2008, os recursos do Cyc foram mapeados para muitos artigos da Wikipédia.[10] Cyc está atualmente conectado ao Wikidata.

Base de conhecimento

[editar | editar código-fonte]

A base de conhecimento é dividida em microteorias. Diferentemente da base de conhecimento como um todo, cada microteoria deve estar livre de contradições monótonas. Cada microteoria é um objeto de primeira classe na ontologia Cyc; ela tem um nome que é uma constante regular. Os nomes dos conceitos em Cyc são termos ou constantes CycL.[9] As constantes começam com um #$ opcional e diferenciam maiúsculas de minúsculas. Existem constantes para:

  • Itens individuais conhecidos como indivíduos, como #$BillClinton ou #$France.
  • Coleções, como #$Tree-ThePlant (contendo todas as árvores) ou #$EquivalenceRelation (contendo todas as relações de equivalência). Um membro de uma coleção é chamado de instância dessa coleção.[1]
  • Funções que produzem novos termos a partir de termos fornecidos. Por exemplo, #$FruitFn, quando fornecido com um argumento descrevendo um tipo (ou coleção) de plantas, retornará a coleção de suas frutas. Por convenção, constantes de função começam com uma letra maiúscula e terminam com a string Fn.
  • Funções de verdade, que podem ser aplicadas a um ou mais outros conceitos e retornar verdadeiro ou falso. Por exemplo, #$siblings é o relacionamento de irmãos, verdadeiro se os dois argumentos forem irmãos. Por convenção, as constantes da função verdade começam com uma letra minúscula.

Para cada instância da coleção #$ChordataPhylum (ou seja, para cada cordado), existe um animal fêmea (instância de #$FemaleAnimal), que é sua mãe (descrita pelo predicado #$biologicalMother).[1]

Motor de inferência

[editar | editar código-fonte]

Um motor de inferência é um programa de computador que tenta derivar respostas de uma base de conhecimento. O mecanismo de inferência Cyc realiza dedução lógica geral.[11] Ele também realiza raciocínio indutivo, aprendizado de máquina estatístico e aprendizado de máquina simbólico, além de raciocínio abdutivo.

O mecanismo de inferência Cyc separa o problema epistemológico do problema heurístico. Para este último, o Cyc usou uma arquitetura de comunidade de agentes na qual módulos especializados, cada um com seu próprio algoritmo, eram priorizados se pudessem progredir no subproblema.

A primeira versão do OpenCyc foi lançada na primavera de 2002 e continha apenas 6.000 conceitos e 60.000 fatos. A base de conhecimento foi lançada sob a licença Apache . A Cycorp declarou sua intenção de lançar o OpenCyc sob licenças paralelas e irrestritas para atender às necessidades de seus usuários. O interpretador CycL e SubL (o programa que permite aos usuários navegar e editar o banco de dados, bem como tirar inferências) foi lançado gratuitamente, mas apenas como um binário, sem código-fonte. Foi disponibilizado para Linux e Microsoft Windows. O projeto de código aberto Texai[12] lançou o conteúdo compatível com RDF extraído do OpenCyc.[13] A versão OpenCyc 4.0 foi lançada em junho de 2012. O OpenCyc 4.0 continha 239.000 conceitos e 2.093.000 fatos; no entanto, essas são principalmente afirmações taxonômicas.

Em julho de 2006, a Cycorp lançou o executável do ResearchCyc 1.0, uma versão do Cyc destinada à comunidade de pesquisa, sem nenhum custo. (O ResearchCyc estava em fase beta de desenvolvimento durante todo o ano de 2004; uma versão beta foi lançada em fevereiro de 2005.) Além das informações taxonômicas, o ResearchCyc inclui mais conhecimento semântico; ele também inclui um grande léxico, ferramentas de análise e geração de inglês e interfaces baseadas em Java para edição e consulta de conhecimento. Ele contém um sistema para integração de dados baseado em ontologia.

Durante mais de uma década, a Glaxo utilizou o Cyc para integrar semiautomaticamente os grandes tesauros de termos da indústria farmacêutica.[14] Anteriormente, eles usavam funcionários para fazer isso manualmente. A Cleveland Clinic usou o Cyc para desenvolver uma interface de consulta em linguagem natural de informações biomédicas sobre cirurgias cardiotorácicas .[15] Uma consulta é analisada em um conjunto de fragmentos CycL com variáveis abertas.[16] A Base de Conhecimento sobre Terrorismo era uma aplicação do Cyc que tentava conter conhecimento sobre descrições relacionadas a "terroristas". O conhecimento é armazenado como declarações na lógica matemática.[17][18]

Um aplicativo Cyc tem como objetivo declarado ajudar os alunos a fazer matemática no nível da 6ª série.[19] A aplicação, denominada MathCraft,[20] deveria desempenhar o papel de um colega estudante que está um pouco mais confuso do que o utilizador sobre o assunto. Conforme o usuário dá bons conselhos, o Cyc permite que o avatar cometa menos erros.

O projeto Cyc foi descrito como "um dos empreendimentos mais controversos da história da inteligência artificial".[21] Catherine Havasi, CEO da Luminoso, diz que o Cyc é o projeto predecessor do Watson da IBM.[22] O cientista de aprendizagem de máquina Pedro Domingos refere-se ao projeto como um "fracasso catastrófico" devido à quantidade infinita de dados necessários para produzir quaisquer resultados viáveis e à incapacidade do Cyc de evoluir por si próprio.[23]

Gary Marcus, um cientista cognitivo e cofundador de uma empresa de IA chamada Geometric Intelligence, diz que "representa uma abordagem muito diferente de todas as coisas de aprendizagem profunda que têm aparecido nas notícias".[24] Isso é consistente com a posição de Doug Lenat de que "Às vezes, o verniz da inteligência não é suficiente".[25]

Funcionários notáveis

[editar | editar código-fonte]

Esta é uma lista de algumas pessoas notáveis que trabalham ou trabalharam no Cyc enquanto ele era um projeto na MCC (onde o Cyc foi iniciado) ou na Cycorp.

Referências

  1. a b c Lenat, Douglas B.; Guha, R. V. (1989). Building Large Knowledge-Based Systems; Representation and Inference in the Cyc Project 1st ed. Boston, MA, USA: Addison-Wesley Longman Publishing Co., Inc. ISBN 978-0201517521  Erro de citação: Código <ref> inválido; o nome ":3" é definido mais de uma vez com conteúdos diferentes
  2. Lenat, Douglas. «Hal's Legacy: 2001's Computer as Dream and Reality. From 2001 to 2001: Common Sense and the Mind of HAL» (PDF). Cycorp, Inc. Consultado em 26 de setembro de 2006. Arquivado do original (PDF) em 9 de dezembro de 2019 
  3. Thagard, Paul (4 de fevereiro de 2005). Mind, second edition: Introduction to Cognitive Science (em inglês). [S.l.]: MIT Press 
  4. Krause, Stefanie; Stolzenburg, Frieder (20 de janeiro de 2024). «Commonsense Reasoning and Explainable Artificial Intelligence Using Large Language Models». In: Nowaczyk, Sławomir; Biecek, Przemysław; Chung, Neo Christopher; Vallati, Mauro; Skruch, Paweł; Jaworek-Korjakowska, Joanna; Parkinson, Simon; Nikitas, Alexandros; Atzmüller, Martin. Artificial Intelligence. ECAI 2023 International Workshops: XAI^3, TACTIFUL, XI-ML, SEDAMI, RAAIT, AI4S, HYDRA, AI4AI, Kraków, Poland, September 30 – October 4, 2023, Proceedings, Part I (em inglês). [S.l.]: Springer Nature 
  5. Lenat, Doug; Marcus, Gary (31 de julho de 2023). «Getting from Generative AI to Trustworthy AI: What LLMs might learn from Cyc». arXiv 
  6. Wood, Lamont (2002). «The World in a Box». Scientific American. 286 (1): 18–19. Bibcode:2002SciAm.286a..18W. doi:10.1038/scientificamerican0102-18 
  7. «A Representation Language Language». www.aaai.org. Consultado em 27 de novembro de 2017 
  8. Russell, Greiner (October 1980). RLL-1: A Representation Language Language (Relatório) (em inglês). Arquivado do original em February 8, 2015  Verifique data em: |arquivodata=, |data= (ajuda)
  9. a b Lenat, Douglas B.; Guha, R. V. (June 1991). «The Evolution of CycL, the Cyc Representation Language». ACM SIGART Bulletin. 2 (3): 84–87. ISSN 0163-5719. doi:10.1145/122296.122308  Verifique data em: |data= (ajuda) Erro de citação: Código <ref> inválido; o nome ":2" é definido mais de uma vez com conteúdos diferentes
  10. «Integrating Cyc and Wikipedia: Folksonomy meets rigorously defined common-sense» (PDF). Consultado em 10 de maio de 2013 
  11. «cyc Inference engine». Consultado em 4 de junho de 2015. Arquivado do original em 9 de dezembro de 2019 
  12. «The open source Texai project». Cópia arquivada em 16 de fevereiro de 2009 
  13. «Texai SourceForge project files» 
  14. HILTZIK, MICHAEL A. (21 de junho de 2001). «Birth of a Thinking Machine». Los Angeles Times (em inglês). ISSN 0458-3035. Consultado em 29 de novembro de 2017 
  15. «Case Study: A Semantic Web Content Repository for Clinical Research». www.w3.org (em inglês). Consultado em 28 de fevereiro de 2018 
  16. Lenat, Douglas; Witbrock, Michael; Baxter, David; Blackstone, Eugene; Deaton, Chris; Schneider, Dave; Scott, Jerry; Shepard, Blake (28 de julho de 2010). «Harnessing Cyc to Answer Clinical Researchers' Ad Hoc Queries». AI Magazine (em inglês). 31 (3): 13. ISSN 0738-4602. doi:10.1609/aimag.v31i3.2299Acessível livremente 
  17. Chris Deaton; Blake Shepard; Charles Klein; Corrinne Mayans; Brett Summers; Antoine Brusseau; Michael Witbrock; Doug Lenat (2005). «The Comprehensive Terrorism Knowledge Base in Cyc». Proceedings of the 2005 International Conference on Intelligence Analysis. CiteSeerX 10.1.1.70.9247Acessível livremente 
  18. Douglas B. Lenat; Chris Deaton (April 2008). TERRORISM KNOWLEDGE BASE (TKB) Final Technical Report (Relatório técnico). AFRL-RI-RS-TR-2008-125  Verifique data em: |data= (ajuda)
  19. Lenat, Douglas B.; Durlach, Paula J. (1 de setembro de 2014). «Reinforcing Math Knowledge by Immersing Students in a Simulated Learning-By-Teaching Experience». International Journal of Artificial Intelligence in Education (em inglês). 24 (3): 216–250. ISSN 1560-4292. doi:10.1007/s40593-014-0016-xAcessível livremente 
  20. «Mathcraft by Cycorp». www.mathcraft.ai. Consultado em 29 de novembro de 2017 
  21. Bertino, Piero & Zarria 2001, p. 275
  22. Havasi, Catherine (Aug 9, 2014). «Who's Doing Common-Sense Reasoning And Why It Matters». TechCrunch (em inglês). Consultado em 29 de novembro de 2017  Verifique data em: |data= (ajuda)
  23. Domingos, Pedro (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. [S.l.]: Basic Books. ISBN 978-0465065707  Verifique o valor de |url-access=registration (ajuda)
  24. Knight, Will (Mar 14, 2016). «An AI that spent 30 years learning some common sense is ready for work». MIT Technology Review (em inglês). Consultado em 29 de novembro de 2017 
  25. Doug Lenat (May 15, 2017). «Sometimes the Veneer of Intelligence is Not Enough». CogWorld (em inglês). Consultado em 29 de novembro de 2017  Verifique data em: |data= (ajuda)

Leitura adicional

[editar | editar código-fonte]