Saltar ao contido

Axente intelixente

Na Galipedia, a Wikipedia en galego.
Axente Intelixente
Escrito enVarias linguaxes de programación
Sistema operativoVariados
Plataforma/sVariadas
Lingua/sInicialmente en inglés, con adaptacións posteriores para múltiples linguas
TipoSoftware de Intelixencia Artificial
LicenzaVarias

En intelixencia artificial, un axente intelixente (IA, polas siglas en inglés de intelligent agent) é un axente que actúa de forma intelixente; Percibe ou ten sensación do seu contorno, realiza accións de forma autónoma para acadar os obxectivos e pode mellorar o seu rendemento coa aprendizaxe ou a adquisición de coñecementos. Un axente intelixente pode ser simple ou complexo: un termostato ou outro sistema de control considérase un exemplo de axente intelixente, como o é un ser humano, como calquera sistema que cumpra a definición, como unha organización ou empresa, un Estado ou un bioma, etc.[1]

Os axentes intelixentes son unha tecnoloxía en constante evolución dentro do campo da intelixencia artificial (IA), que está revolucionando a forma en que interactuamos coa tecnoloxía.[2]

Definición

[editar | editar a fonte]
Diagrama dun axente intelixente interactuando co seu contorno a través dun ciclo de percepción-acción. Os sensores do axente recollen información externa, que logo é procesada para tomar decisións baseadas en regras condicionais. Finalmente, os actuadores executan accións que impactan no contorno, nun ciclo de retroalimentación.

Os principais libros de texto de IA definen a "intelixencia artificial" como o "estudo e deseño de axentes intelixentes", unha definición que considera que o comportamento dirixido a obxectivos é a esencia da intelixencia. Os axentes dirixidos a obxectivos tamén se describen mediante un termo tomado da economía, "axente racional".[1]

Os axentes intelixentes adoitan describirse esquematicamente como un sistema funcional abstracto semellante a un programa informático. As descricións abstractas dos axentes intelixentes chámanse axentes intelixentes abstractos (AIA) para distinguilos das súas aplicacións no mundo real. Un axente intelixente autónomo está deseñado para funcionar en ausencia de intervención humana. Os axentes intelixentes tamén están moi relacionados cos axentes software (un programa informático autónomo que realiza tarefas en nome dos usuarios).

Terminoloxía e etimoloxía

[editar | editar a fonte]

O termo axente intelixente (IA) refírese a sistemas informáticos avanzados dentro do campo da intelixencia artificial. Deriva das palabras "axente" e "intelixente", ambas con raíces no latín.[3][4]

  • A palabra "axente" vén do latín agentis, "o que leva a cabo a acción".[5] Componse do verbo agĕre (mover, facer actuar, levar adiante, actuar) e do sufixo -nte (participio presente, axente, o que fai a acción).
  • "intelixente" provén do latín intelligens, significando "o que sabe escoller, o que sabe ler entre liñas".[6] Os seus compoñentes léxicos son o prefixo inter- (entre) e legere (ler, escoller), xunto co sufixo -ente (axente).

Siglas IA e AI

[editar | editar a fonte]

As siglas AI (axente intelixente) e IA (intelixencia artificial) en lingua galega coinciden coas siglas en lingua inglesa, aínda que se usan de xeito inverso (AI de Artificial Intelligence e IA de Intelligente Agent).

Peter Norvig, exdirector de investigación e calidade en Google e do departamento de computación na NASA.[7] coautor xunto con Stuart J. Russell de Artificial Intelligence: A Modern Approach , o máis popular libro de texto sobre intelixencia artificial, usado por máis de 1500 universidades en 135 Estados-nación.[8]

Como definición de intelixencia artificial

[editar | editar a fonte]

Artificial Intelligence: A Modern Approach [1] [9] [10] define un "axente" como

"Calquera cousa que se pode ver como percibir o seu ambiente a través de sensores e actuar sobre ese ambiente a través de actuadores"

Define un "axente racional" como:

"Un axente que actúa para maximizar o valor esperado dunha medida de rendemento baseada na experiencia e coñecementos pasados".

Tamén define o campo da "investigación en intelixencia artificial" como:

"O estudo e deseño de axentes racionais"

Padgham e Winikoff (2005) coinciden en que un axente intelixente está situado nun ambiente e responde de forma oportuna (aínda que non necesariamente en tempo real) aos cambios no ambiente. Non obstante, os axentes intelixentes tamén deben perseguir obxectivos de forma proactiva de forma flexíbel e robusta.[11] Os desiderata opcionais inclúen que o axente sexa racional e que o axente sexa capaz de analizar crenza-desexo-intención.[12]

Kaplan e Haenlein definen a intelixencia artificial como "a capacidade dun sistema para interpretar correctamente datos externos, aprender de tales datos e utilizar esas aprendizaxes para acadar obxectivos e tarefas específicas mediante unha adaptación flexíbel".[13] Esta definición está moi relacionada coa de axente intelixente.

Definicións alternativas

[editar | editar a fonte]

"Axente intelixente" tamén se usa a miúdo como un termo de mercadotecnia vago, ás veces sinónimo de "asistente persoal virtual".[14] Algunhas definicións do século XX caracterizan a un axente como un programa que axuda a un usuario ou que actúa en nome dun usuario.[15] Estes exemplos coñécense como axentes de software, e ás veces un "axente de software intelixente" (é dicir, un axente de software con intelixencia) denomínase "axente intelixente".

Segundo Nikola Kasabov, os sistemas de IA deberían presentar as seguintes características:[16]

  • Acomodar as novas regras de resolución de problemas gradualmente
  • Adaptación en liña e en tempo real
  • Son capaces de analizarse a si mesmos en termos de comportamento, erro e éxito.
  • Aprender e mellorar a través da interacción co medio ( Axente encarnado, emboided agent)
  • Aprende rapidamente de grandes cantidades de datos
  • Ter capacidades de almacenamento e recuperación de exemplares baseadas na memoria
  • Ter parámetros para representar a memoria a curto e longo prazo, a idade, o esquecemento, etc.

Características

[editar | editar a fonte]

Os axentes intelixentes diferéncianse doutros sistemas automatizados na súa capacidade para aprender, adaptarse e tomar decisións autónomas. Mentres que os sistemas automatizados seguen instrucións predefinidas, os axentes intelixentes son capaces de aprender da experiencia e tomar decisións baseadas na análise de datos. As habilidades clave destes axentes inclúen a aprendizaxe automática, o procesamento da linguaxe natural, a visión por computadora e a toma de decisións autónomas.[2]

Un axente ten unha "función obxectiva" que engloba todos os obxectivos da IA. Este axente está deseñado para crear e executar calquera plan que, ao rematar, maximize o valor esperado da función obxectivo.[10] Por exemplo, un axente de aprendizaxe de reforzo ten unha "función de recompensa" que permite aos programadores dar forma ao comportamento desexado do IA, e o comportamento dun algoritmo evolutivo está conformado por unha "función de aptitude".[17]

Os axentes intelixentes en intelixencia artificial están estreitamente relacionados cos axentes en economía, e as versións do paradigma dos axentes intelixentes estúdanse na ciencia cognitiva, ética, filosofía da razón práctica, así como en moitos modelos socio-cognitivos interdisciplinarios e simulacións sociais informáticas.

Conversa co chatbot ELIZA.
Despois de desenvolver ELIZA, Weizenbaum tornouse crítico coa intelixencia artificial ao observar como as persoas se enganchaban emocionalmente co programa. Preocupouse pola tendencia das persoas a atribuír cualidades humanas ás máquinas e advertiu contra a substitución de interaccións humanas por interaccións con máquinas. Tamén expresou preocupacións éticas sobre o uso da IA, especialmente en ámbitos militares e na toma de decisións importantes.[18]

A historia dos axentes intelixentes comeza na década de 1960 co desenvolvemento de programas pioneiros de IA. Un dos primeiros e máis notábeis foi ELIZA, creado por Joseph Weizenbaum no MIT.[19] A pesar de ser un programa simple, ELIZA é considerado unha das primeiras tentativas de simular unha conversa humana, actuando como un terapeuta que responde a entradas do usuario.

Na mesma época, o Stanford Research Institute, naquela altura parte da Universidade Stanford, desenvolveu Shakey the Robot, un dos primeiros robots en combinar mobilidade, percepción e planificación para navegar e realizar tarefas de forma autónoma nun contorno físico.[20] Nos anos 70 e 80, os sistemas expertos comezaron a emerxer como unha forma primitiva de axentes intelixentes. Estes sistemas estaban deseñados para simularen a toma de decisións dun experto nun campo específico. Un exemplo destacado é o sistema MYCIN, desenvolvido na Universidade de Stanford, deseñado para axudar na toma de decisións médicas.[21]

Estes desenvolvementos iniciais sentaron as bases para a complexidade crecente dos axentes intelixentes modernos, que agora abranguen desde asistentes virtuais até sistemas autónomos avanzados en diversas industrias.

Desafíos éticos

[editar | editar a fonte]

Os desafíos éticos dos axentes intelixentes IA estanse abordando a través da implementación de principios éticos e regulacións. Estanse desenvolvendo normas e estándares para garantir que estes axentes actúen de maneira responsábel e ética. Ademais, realízanse investigacións e debates sobre os aspectos éticos da intelixencia artificial.[22]

Desafíos éticos

[editar | editar a fonte]

Os desafíos éticos dos axentes intelixentes IA estánse abordando a través da implementación de principios éticos e regulacións. Estanse desenvolvendo normas e estándares para garantir que estes axentes actúen de maneira responsábel e ética. Ademais, realízanse investigacións e debates sobre os aspectos éticos da intelixencia artificial.[2]

  Filosoficamente, esta definición de intelixencia artificial evita varias liñas de crítica. A diferenza da proba de Turing, non se refire de ningún xeito á intelixencia humana. Así, non hai que discutir se é intelixencia "real" fronte a intelixencia "simulada" (é dicir, intelixencia "sintética" fronte a intelixencia "artificial") e non indica que esa máquina teña unha mente, unha conciencia ou unha verdadeira comprensión (é dicir, non implica a "hipótese de IA forte" de John Searle). Tampouco tenta trazar unha liña divisoria nítida entre comportamentos "intelixentes" e comportamentos "non intelixentes": os programas só deben medirse en función da súa función obxectiva.

Máis importante aínda, ten unha serie de vantaxes prácticas que axudaron a avanzar na investigación da IA. Ofrece unha forma fiábel e científica de probar programas; os investigadores poden comparar directamente ou mesmo combinar diferentes enfoques para problemas illados, preguntando que axente é mellor para maximizar unha determinada "función obxectivo". Tamén lles proporciona unha linguaxe común para comunicarse con outros campos, como a optimización matemática (que se define en termos de "obxectivos") ou a economía (que usa a mesma definición de "axente racional").[23]

Función obxectiva

[editar | editar a fonte]

Un axente ao que se lle asigna unha "función de obxectivo" explícita considérase máis intelixente se realiza de forma consistente accións que maximizan con éxito a súa función de obxectivo programada. O obxectivo pode ser sinxelo ("1 se o IA gaña unha partida de Go, 0 no caso contrario") ou complexo ("Realiza accións matematicamente similares ás que tiveron éxito no pasado"). A "función de obxectivos" encapsula todos os obxectivos nos que o axente é impulsado a actuar; no caso dos axentes racionais, a función tamén encapsula os compromisos aceptábeis entre a consecución de obxectivos en conflito. (A terminoloxía varía; por exemplo, algúns axentes buscan maximizar ou minimizar unha "función de utilidade", "función obxectivo" ou "función de perda").[9] [10]

Os obxectivos poden ser definidos ou inducidos de forma explícita. Se a IA está programada para a "aprendizaxe de reforzo", ten unha "función de recompensa" que fomenta algúns tipos de comportamento e castiga outros. Alternativamente, un sistema evolutivo pode inducir obxectivos usando unha función de aptitude (fitness function) para mutar e replicar preferentemente sistemas de IA de alta puntuación, de xeito similar a como evolucionaron os animais para desexar innatamente certos obxectivos, como atopar comida.[24] Algúns sistemas de IA, como o veciño máis próximo (k-nearest neighbors, k-NN), en lugar de razoar por analoxía, estes sistemas xeralmente non reciben obxectivos, excepto na medida en que os obxectivos están implícitos nos seus datos de adestramento.[24]

Estes sistemas aínda poden ser avaliados con benchmarks[25] aínda que o sistema non obxectivo se defina como un sistema cuxo 'obxectivo' é cumprir coa súa tarefa específica de clasificación.[26]

Os sistemas que tradicionalmente non se consideran axentes, como os sistemas de representación do coñecemento, ás veces subsúmense ao paradigma enmarcándoos como axentes que teñen como obxectivo (por exemplo) responder preguntas coa maior precisión posible; o concepto de "acción" esténdese aquí para abarcar o "acto" de dar resposta a unha pregunta. Como extensión adicional, os sistemas impulsados por mimetismo pódense enmarcar como axentes que optimizan unha "función de obxectivos" en función do grao de éxito do IA en imitar o comportamento desexado.[9] [10] Nas redes adversarias xerativas da década de 2010, un compoñente "codificador"/"xerador" tenta imitar e improvisar a composición do texto humano. O xerador está tentando maximizar unha función que encapsula o ben que pode enganar a un compoñente "preditor"/"discriminador" antagónico.[27]

Aínda que os sistemas de intelixencia artificial simbólicas adoitan aceptar unha función obxectivo explícita, o paradigma tamén se pode aplicar ás redes neuronais e á computación evolutiva. A aprendizaxe por reforzo pode xerar axentes intelixentes que parecen actuar de xeitos destinados a maximizar unha "función de recompensa". Ás veces, en lugar de configurar a función de recompensa para que sexa directamente igual á función de avaliación de referencia desexada, os programadores de aprendizaxe automática utilizarán a configuración da recompensa para darlle inicialmente recompensas á máquina polo progreso de incremento na aprendizaxe.[28] Yann LeCun afirmou en 2018 que "A maioría dos algoritmos de aprendizaxe que a xente inventou consiste esencialmente en minimizar algunha función obxectiva".[29] O programa de xadrez AlphaZero tiña unha función obxectivo sinxela; cada vitoria contou como +1 punto, e cada derrota contou como -1 punto. Unha función obxectiva para un coche autónomo tería que ser máis complicada. A computación evolutiva pode facer evolucionar axentes intelixentes que parecen actuar de xeitos destinados a maximizar unha "función de aptitude" que inflúe na cantidade de descendentes que cada axente pode deixar.[30]

O deseño AIXI teórico e incomputábel é un axente de máxima intelixencia neste paradigma;[31] porén, no mundo real, o AI está limitado por tempo finito e recursos de hardware, e os científicos compiten para producir algoritmos que poidan acadar puntuacións progresivamente máis altas en probas de referencia con hardware do mundo real.[32][33]

Clases de axentes intelixentes

[editar | editar a fonte]

Clasificación de Russel e Norvig

[editar | editar a fonte]

Russell & Norvig (2003) agruparon os axentes en cinco clases ou categorías baseadas no seu grao de intelixencia e capacidade percibidas.[34]

Axentes reflexos simples

[editar | editar a fonte]
Axente reflexo simple

Os axentes reflexos simples actúan só sobre a base da percepción actual, ignorando o resto da historia da percepción. A función do axente baséase na regra condición-acción : "se condición, entón acción".

Esta función de axente só ten éxito cando o ambiente é totalmente observábel. Algúns axentes reflexos tamén poden conter información sobre o seu estado actual que lles permite ignorar condicións cuxos actuadores xa están activados.

Os bucles infinitos adoitan ser inevitábeis para axentes reflexos simples que operan en ambientes parcialmente observábeis. Se o axente pode aleatorizar as súas accións, pode escapar de bucles infinitos.

Axentes reflexos baseados en modelos

[editar | editar a fonte]
Axente reflexo baseado en modelos

Un axente baseado en modelos pode manexar ambientes parcialmente observábeis . O seu estado actual almacénase dentro do axente mantendo algún tipo de estrutura que describe a parte do mundo que non se pode ver. Este coñecemento sobre "como funciona o mundo" chámase modelo do mundo, de aí o nome de "axente baseado en modelos".

Un axente reflexo baseado en modelos debería manter algún tipo de modelo interno que dependa da historia da percepción e, polo tanto, reflicta polo menos algúns dos aspectos non observados do estado actual. A historia da percepción e o impacto da acción no medio ambiente pódense determinar mediante o modelo interno. Despois escolle unha acción do mesmo xeito que o axente reflexo.

Un axente tamén pode utilizar modelos para describir e predicir os comportamentos doutros axentes no ambiente.[35]

Axentes baseados en obxectivos

[editar | editar a fonte]
Axente baseado en modelos e obxectivos

Os axentes baseados en obxectivos amplían aínda máis as capacidades dos axentes baseados en modelos, utilizando información de "obxectivos". A información do obxectivo describe situacións desexables. Isto proporciona ao axente un xeito de escoller entre múltiples posibilidades, seleccionando aquela que acade un estado obxectivo. A busca e a planificación son os subcampos da intelixencia artificial dedicados a atopar secuencias de acción que consigan os obxectivos do axente.

Axentes baseados en utilidades

[editar | editar a fonte]
Axente baseado en modelos, baseado en utilidades

Os axentes baseados en obxectivos só distinguen entre estados obxectivos e estados non obxectivos. Tamén é posible definir unha medida do desexable que é un estado particular. Esta medida pódese obter mediante o uso dunha función de utilidade que asigna un estado a unha medida da utilidade do estado. Unha medida de rendemento máis xeral debería permitir unha comparación de diferentes estados mundiais segundo o ben que satisfacían os obxectivos do axente. O termo utilidade pódese usar para describir o "feliz" que é o axente.


Un axente baseado na utilidade racional escolle a acción que maximiza a utilidade esperada dos resultados da acción, é dicir, o que o axente espera derivar, de media, dadas as probabilidades e utilidades de cada resultado. Un axente baseado na utilidade ten que modelar e facer un seguimento do seu contorno, tarefas que implicaron unha gran cantidade de investigación sobre a percepción, a representación, o razoamento e a aprendizaxe.

Axentes de aprendizaxe

[editar | editar a fonte]
Un axente xeral de aprendizaxe

A aprendizaxe ten a vantaxe de que permite aos axentes operar inicialmente en contornas descoñecidas e facerse máis competentes do que poderían permitir o seu coñecemento inicial. A distinción máis importante é entre o "elemento de aprendizaxe", que se encarga de facer melloras, e o "elemento de rendemento", que se encarga de seleccionar as accións externas.

O elemento de aprendizaxe utiliza a retroalimentación do "crítico" sobre como o está facendo o axente e determina como se debe modificar o elemento de actuación, ou "actor", para facelo mellor no futuro. O elemento de actuación é o que antes consideramos como o axente completo: toma as percepcións e decide sobre as accións.

O último compoñente do axente de aprendizaxe é o "xerador de problemas". Encárgase de suxerir accións que desemboquen en experiencias novas e divulgativas.

Clasificación de Weiss

[editar | editar a fonte]

Weiss (2013) define catro clases de axentes:

  • Axentes baseados na lóxica: nos que a decisión sobre que acción realizar tómase mediante a dedución lóxica.
  • Axentes reactivos: nos que a toma de decisións se implementa nalgunha forma de mapeo directo da situación á acción.
  • Axentes de crenza-desexo-intención: nos que a toma de decisións depende da manipulación de estruturas de datos que representan as crenzas, desexos e intencións do axente; e finalmente,
  • Arquitecturas en capas: nas que a toma de decisións realízase a través de varias capas de software, cada unha das cales razoa de forma máis ou menos explícita sobre o ambiente en diferentes niveis de abstracción.

En 2013, Alexander Wissner-Gross publicou unha teoría relativa á liberdade e a intelixencia para axentes intelixentes.[36] [37]

Xerarquías de axentes

[editar | editar a fonte]

Para realizar activamente as súas funcións, os axentes intelixentes hoxe en día están normalmente reunidos nunha estrutura xerárquica que contén moitos "subaxentes". Os subaxentes intelixentes procesan e realizan funcións de nivel inferior. En conxunto, o axente intelixente e os subaxentes crean un sistema completo que pode realizar tarefas ou obxectivos difíciles con comportamentos e respostas que amosan unha forma de intelixencia.

Xeralmente, un axente pódese construír separando o corpo en sensores e actuadores, e para que opere cun complexo sistema de percepción que toma a descrición do mundo como entrada para un controlador e emite ordes ao actuador. Porén, moitas veces é necesaria unha xerarquía de capas de controlador para equilibrar a reacción inmediata desexada para tarefas de baixo nivel e o lento razoamento sobre obxectivos complexos de alto nivel.[38]

Función de axente

[editar | editar a fonte]

Un programa de axente simple pode definirse matematicamente como unha función f (chamada "función de axente")[39] que mapea todas as secuencias de percepcións posíbeis a unha acción posíbel que o axente pode realizar ou a un coeficiente, elemento de retroalimentación (feedback), función ou constante que afecta a accións eventuais:

A función de axente é un concepto abstracto xa que podería incorporar varios principios de toma de decisións como o cálculo da utilidade de opcións individuais, a dedución sobre regras lóxicas, a lóxica difusa, etc.[40]

O axente do programa, en cambio, asigna cada percepción posíbel a unha acción.[41]

Usamos o termo percepción para referirnos ás entradas perceptivas do axente nun instante dado. Nas seguintes figuras, un axente é calquera cousa que se pode ver como percibir o seu ambiente a través de sensores e actuar sobre ese ambiente a través de actuadores.

Aplicacións

[editar | editar a fonte]

Hallerbach et al. discutiron a aplicación de enfoques baseados en axentes para o desenvolvemento e validación de sistemas de condución automatizados mediante un xemelgo dixital do vehículo en proba e a simulación de tráfico microscópica baseada en axentes independentes.[42] Waymo creou unha contorna de simulación multiaxente Carcraft para probar algoritmos para coches autónomos.[43] Simula as interaccións de tráfico entre condutores humanos, peóns e vehículos automatizados. O comportamento das persoas é imitado por axentes artificiais baseados en datos do comportamento humano real. Xa en 2003 discutiuse a idea básica de usar modelos baseados en axentes para entender os coches autónomos.

  1. 1,0 1,1 1,2 Russell & Norvig 2003.
  2. 2,0 2,1 2,2 "Agentes inteligentes IA: transformando el futuro". dispositivosinteligentes.org. Arquivado dende o orixinal o 23 de novembro de 2023. 
  3. "axente". Dicionario da Real Academia Galega. Consultado o 2023-11-23. 
  4. "intelixente". Dicionario da Real Academia Galega. Consultado o 2023-11-23. 
  5. "AGENTE". etimologias.dechile.net.  (en castelán)
  6. "INTELIGENTE, radicación". etimologias.dechile.net. 
  7. "Peter Norvig's home page". Norvig.com. Consultado o 2020-04-01. 
  8. "1464 Schools Worldwide That Have Adopted AIMA". Computer Science Division at UC Berkeley. Artificial Intelligence: A Modern Approach. 22 August 2022. Consultado o 29 February 2020. 
  9. 9,0 9,1 9,2 Russell & Norvig (2003)
  10. 10,0 10,1 10,2 10,3 Bringsjord, Selmer (12 July 2018). Edward N. Zalta, ed. Artificial Intelligence. 
  11. A definición de Padgham & Winikoff cubre explicitamente só os axentes sociais que interactúan con outros axentes.
  12. Lin Padgham and Michael Winikoff. Developing intelligent agent systems: A practical guide. Vol. 13. John Wiley & Sons, 2005.
  13. Kaplan, Andreas; Haenlein, Michael (2019-01-01). "Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons 62 (1): 15–25. ISSN 0007-6813. doi:10.1016/j.bushor.2018.08.004. 
  14. Fingar, Peter. "Competing For The Future With Intelligent Agents... And A Confession". Forbes (en inglés). Consultado o 2023-11-23. 
  15. Burgin, Mark, and Gordana Dodig-Crnkovic. "A systematic approach to artificial agents." arXiv preprint arXiv:0902.3513 (2009).
  16. Kasabov 1998.
  17. Bull, L. (1999-09-01). "On Model-Based Evolutionary Computation". Soft Computing (en inglés) 3 (2): 76–82. ISSN 1432-7643. doi:10.1007/s005000050055. 
  18. Tarnoff, Ben (2023-07-25). "Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI". The Guardian (en inglés). ISSN 0261-3077. Consultado o 2023-11-23. 
  19. harvardgazette (2012-09-13). "Alan Turing at 100". Harvard Gazette (en inglés). Consultado o 2023-11-23. 
  20. International, S. R. I. (2021-11-22). "The man, the myth, the legend: Meet Shakey the robot, the world’s first AI-based robot". SRI International (en inglés). Consultado o 2023-11-23. 
  21. "MYCIN". Encyclopaedia Britannica.  (en inglés)
  22. "Agentes inteligentes IA: transformando el futuro". dispositivosinteligentes.org. Arquivado dende o orixinal o 23 de novembro de 2023. 
  23. Russell & Norvig 2003, p. 27.
  24. 24,0 24,1 Domingos 2015.
  25. Punto de referencia ou un estándar contra o cal se mide e compara o rendemento ou a calidade dun sistema ou compoñente.
  26. Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Selective sampling for nearest neighbor classifiers. Machine learning, 54(2), 125–152.
  27. "Generative adversarial networks: What GANs are and how they’ve evolved". VentureBeat (en inglés). 2019-12-26. Consultado o 2023-11-23. 
  28. Andrew Y. Ng, Daishi Harada e Stuart Russell. "Policy invariance under reward transformations: Theory and application to reward shaping." In ICML, vol. 99, pp. 278-287. 1999.
  29. Martin Ford. Architects of Intelligence: The truth about AI from the people building it. Packt Publishing Ltd, 2018.
  30. Bull, L. (1999-09-01). "On Model-Based Evolutionary Computation". Soft Computing (en inglés) 3 (2): 76–82. ISSN 1432-7643. doi:10.1007/s005000050055. 
  31. Adams, Sam S.; Arel, Itamar; Bach, Joscha; Coop, Robert; Furlan, Rod; Goertzel, Ben; Hall, J. Storrs; Samsonovich, Alexei; Scheutz, Matthias (2012-03). "Mapping the Landscape of Human‐Level Artificial General Intelligence". AI Magazine (en inglés) 33 (1): 25–41. ISSN 0738-4602. doi:10.1609/aimag.v33i1.2322. 
  32. Hutter, Marcus (2005). Universal Artificial Intelligence. Springer. ISBN 978-3-540-22139-5. 
  33. Hutter, Marcus (2012). "Approximations of AIXI". Journal of Artificial General Intelligence 3 (2): 1–22. doi:10.2478/v10229-011-0015-1. 
  34. Russell & Norvig 2003, p. 46–54
  35. Stefano Albrecht and Peter Stone (2018). Autonomous Agents Modelling Other Agents: A Comprehensive Survey and Open Problems. Artificial Intelligence, Vol. 258, pp. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  36. Box, Geeks out of the (2019-12-04). "A Universal Formula for Intelligence". Geeks out of the box (en inglés). Consultado o 2023-11-23. 
  37. Wissner-Gross, A. D.; Freer, C. E. (2013-04-19). "Causal Entropic Forces". Physical Review Letters 110 (16): 168702. doi:10.1103/PhysRevLett.110.168702. 
  38. "Artificial Intelligence: Foundations of Computational Agents --- Slides". artint.info. Consultado o 2023-11-23. 
  39. Russell & Norvig 2003, p. 33
  40. s.r.o, PIPNI. "PIPNI.cz - Moderní hosting". pipni.cz (en checo). Consultado o 2023-11-23. 
  41. Nilsson, Nils J. (1996-04-01). "Artificial intelligence: A modern approach: Stuart Russell and Peter Norvig, (Prentice Hall, Englewood Cliffs, NJ, 1995); xxviii + 932 pages". Artificial Intelligence 82 (1): 369–380. ISSN 0004-3702. doi:10.1016/0004-3702(96)00007-0. 
  42. Hallerbach, Sven; Xia, Yiqun; Eberle, Ulrich; Koester, Frank (2018-04-03). "Simulation-Based Identification of Critical Scenarios for Cooperative and Automated Vehicles". SAE International Journal of Connected and Automated Vehicles (en inglés) 1 (2): 93–106. ISSN 2574-075X. doi:10.4271/2018-01-1066. 
  43. Madrigal, Alexis C. (2017-08-23). "Waymo Built a Secret World for Self-Driving Cars". The Atlantic (en inglés). Consultado o 2023-11-23. 

Véxase tamén

[editar | editar a fonte]

Bibliografía

[editar | editar a fonte]

Outros artigos

[editar | editar a fonte]

Ligazóns externas

[editar | editar a fonte]