You are on page 1of 69

INSTITUTO TECNOLOGICO DE LAZARO CARDENAS.

INGENIERIA EN SISTEMAS COMPUTACIONALES.

MATERIA:
INTELIGENCIA ARTIFICIAL

TRABAJO:
UNIDADES 1-2-3-4

CATEDRATICO:
ME. JOSE ANTONIO LOPEZ TELLO

ALUMNO:
ALDO ESAU SOLORZANO VAZQUEZ

CD Y PUERTO DE LAZARO CARDENAS.MICH, MEXICO


1 INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL.
1.1 Introducción a la Inteligencia Artificial.

1.2 Historia de la Inteligencia Artificial.

1.3 Las habilidades cognoscitivas según la psicología. Teorías de la inteligencia (conductismo, Gardner, etc.).

1.4 El proceso de razonamiento según la lógica (Axiomas, Teoremas, demostración).

1.5 El modelo de adquisición del conocimiento según la filosofía.

1.6 El modelo cognoscitivo.

1.7 El modelo del agente inteligente, Sistemas Multi Agentes, Sistemas Ubicuos.

1.8 El papel de la heurística.

1.8.1 Algoritmos de exploración de alternativas.

1.8.2 Algoritmo A*.

1.8.3 Algoritmos de búsqueda local.

2 REPRESENTACIÓN DEL CONOCIMIENTO, RAZONAMIENTO Y LOS ASPECTOS METODOLÓGICOS EN


INTELIGENCIA ARTIFICIAL.
2.1 Principios y Metodología de la Inteligencia Artificial.

2.2 Paradigmas de la Inteligencia Artificial.

2.3 Mapas conceptuales.

2.4 Redes semánticas.

2.5 Razonamiento monótono.

2.6 Conocimiento no-monótono y otras lógicas.

2.7 Razonamiento probabilístico.

2.8 Teorema de Bayes.

3 REGLAS Y BÚSQUEDA.
3.1 Representación de conocimiento mediante reglas

3.2 Métodos de Inferencia en reglas

3.3 Reglas de producción.

3.4 Sintaxis de las reglas de producción.

3.5 Semántica de las reglas de producción

3.6 Arquitectura de un sistema de Producción (SP) o sistemas basados en reglas, (SBR).

3.6.1 Hechos.

3.6.2 Base de conocimientos.

3.6.3 Mecanismo de control.


3.7 Espacios de estados determinísticos y espacios no determinísticos.

3.8 Búsqueda sistemática.

3.8.1 Búsqueda de metas a profundidad.

3.8.2 Búsqueda de metas en anchura.

4 APLICACIONES CON TÉCNICAS DE IA.


4.1. Robótica.

4.1.1. Conceptos básicos.

4.1.2. Clasificación.

4.1.3. Desarrollos actuales y aplicaciones.

4.2. Redes Neuronales (RN).

4.2.1. Conceptos básicos.

4.2.2. Clasificación.

4.2.3. Desarrollos actuales y aplicaciones.

4.3. Visión artificial.

4.3.1. Conceptos básicos.

4.3.2. Desarrollos actuales y aplicaciones.

4.4. Lógica difusa (Fuzzy Logic).

4.4.1. Conceptos básicos.

4.4.2. Desarrollos actuales y aplicaciones.

4.5. Procesamiento de Lenguaje Natural (PLN).

4.5.1. Conceptos básicos.

4.5.2. Desarrollos actuales y aplicaciones.

4.6. Sistemas Expertos (SE).

4.6.1. Conceptos básicos.

4.6.2. Clasificación.

4.6.3. Desarrollos actuales y aplicaciones.


UNIDAD 1.- INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL.
1.1 INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL.
¿Qué es la Inteligencia Artificial?

 Es un área de la ciencia bastante nueva (1956)


 Su objetivo son las capacidades que consideramos Inteligentes
 Las aproximaciones siguen diferentes puntos de vista
 Sus influencias son diversas (Filosofía, Matemática, Psicología, Biología)
 Involucra una gran cantidad de áreas tanto genéricas (aprendizaje, percepción, resolución de problemas) como específicas
(jugar al ajedrez, diagnosticar enfermedades, conducir coches, ...)

Definición de la IA

Sistemas que actúan como humanos.

“El estudio de cómo hacer computadoras que hagan cosas que, de momento, la gente hace mejor” (Rich y Knight, 1991).

 El modelo es el hombre, el objetivo es construir un sistema que pase por humano.


 Test de Turing: Si un sistema lo pasa es inteligente (?).
 Capacidades necesarias: Procesamiento del Lenguaje Natural, Representación del conocimiento, Razonamiento, Aprendizaje.
 No es el objetivo primordial de la IA pasar el test.
 La interacción de programas con personas hace que sea necesario que estos actúen como humanos.

Sistemas que piensan como humanos.

“El esfuerzo por hacer a las computadoras pensar ... máquinas con mentes en el sentido amplio y literal” (Haugeland, 1985)

 El modelo es el funcionamiento de la mente humana.


 Intentamos establecer una teoría sobre el funcionamiento de la mente (experimentación psicológica).
 A partir de la teoría podemos establecer modelos computacionales.
 Ciencias Cognitivas.

Sistemas que actúan racionalmente.

“Un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales” (Schalkoff,
1990)

 Actuar racionalmente significa conseguir unos objetivos dadas unas creencias


 El paradigma es el agente
 Un agente percibe y actúa, siempre según el entorno en el que está situado
 Las capacidades necesarias coinciden con las del test de turing: Procesamiento del Lenguaje Natural, Representación del
conocimiento, Razonamiento, Aprendizaje, Percepción.
 Su visión es más general, no centrada en el modelo humano.

Sistemas que piensan racionalmente.

“El estudio de las facultades mentales a través del estudio de modelos computacionales” (Charniak y McDermott, 1985)

 Las leyes del pensamiento racional se fundamentan en la lógica.


 La lógica formal está en la base de los programas inteligentes (Logicismo).
 Se presentan dos obstáculos:
- Es muy difícil formalizar el conocimiento
- Hay un gran salto entre la capacidad teórica de la lógica y su
- realización práctica

Bases de la Inteligencia Artificial


 Economía
- ¿Como debemos tomar decisiones ...

que nos beneficien?

en contra de competidores?

cuando el beneficio no es inmediato?

- Teoría de la decisión/Teoría de juegos/Investigación operativa

 Neurociencia
- ¿Como procesa el cerebro la información?
- Neuronas/Especialización del cerebro

 Psicología
- ¿Como piensan y actúan las personas?
- Psicología cognitiva/ciencias cognitivas: Teorías sobre la conducta, bases del comportamiento racional

 Computación
- Para la existencia de la IA es necesario un mecanismo para soportarlo (Hardware)
- También son necesarias herramientas para desarrollar programas de IA

 Teoría de control/Cibernética
- Construcción de sistemas autónomos

 Lingüística
- Chomsky: Representación del conocimiento, gramática de la lengua
- Lingüística computacional

Áreas de trabajo de la IA
 Áreas Básicas
- Representación del conocimiento
- Resolución de problemas, Búsqueda

 Áreas Específicas
- Planificación de tareas
- Tratamiento del Lenguaje Natural
- Razonamiento Automático
- Sistemas Basados en el Conocimiento
- Percepción
- Aprendizaje Automático
- Agentes autónomos
1.2 HISTORIA DE LA INTELIGENCIA ARTIFICIAL.

La Inteligencia Artificial surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran
repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias
de la información.

Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos
antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales
suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de
solución.

Punto de inflexión de la tierra

En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una máquina?» era demasiado filosófica para tener
valor y, para hacerlo más concreto, propuso un «juego de imitación». En la prueba de Turing intervienen dos personas y una computadora.
Una persona, el interrogador, se sienta en una sala y teclea preguntas en la terminal de una computadora. Cuando aparecen las respuestas
en la terminal, el interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si actúa de manera inteligente,
según Turing es inteligente. Turing, señaló que una máquina podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían
superar la prueba a finales del siglo XX.

De todas maneras, esta prueba no tuvo el valor práctico que se esperaba, aunque sus repercusiones teóricas son fundamentales. El
enfoque de Turing de ver a la inteligencia artificial como una imitación del comportamiento humano no fue tan práctico a lo largo del tiempo
y el enfoque dominante ha sido el del comportamiento racional, de manera similar, en el campo de la aeronáutica se dejó de lado el
enfoque de tratar de imitar a los pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde luego, el enfoque
del comportamiento humano y el del pensamiento humano siguen siendo estudiados por las ciencias cognitivas y continúan aportando
interesantes resultados a la Inteligencia Artificial, y viceversa.

Disciplinas sobre las que se apoya

La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial las dos fuerzas más importantes fueron la
lógica matemática, la cual se desarrolla rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los avances en
electrónica que permitieron la construcción de los primeros computadores en 1940. También son fuente de la inteligencia artificial: la
filosofía, la neurociencia y la lingüística. La lógica matemática ha continuado siendo un área muy activa en la inteligencia artificial. Incluso
antes de la existencia de los ordenadores con los sistemas lógicos deductivos.

Orígenes y evolución cronológica

Los juegos matemáticos antiguos, como el de las Torres de Hanói (hacia el 3000 a. C.), muestran el interés por la búsqueda de un
modo resolutor, capaz de ganar con los mínimos movimientos posibles.

Cerca de 300 a. C., Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen
una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas
dadas.

En 250 a. C. Ctesibio de Alejandría construyó la primera máquina autocontrolada, un regulardor del flujo de agua que actuaba
modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento.

En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.

En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún
algo poco potente.

En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión
y es utilizada universalmente en la actualidad.

En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.

En 1936 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases
teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo
introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la
precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las
operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible
resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles,
de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la teoría de la computabilidad.

En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera
computadora programable y el primer lenguaje de programación de alto nivel Plankalkül. Las siguientes máquinas más potentes, aunque
con igual concepto, fueron la ABC y ENIAC.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del
campo de inteligencia artificial, aun cuando todavía no existía el término.

1950´s

En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso
una prueba concreta para determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el padre
de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular el pensamiento
humano a través de la computación y fue coautor del primer programa para jugar ajedrez.

En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más
rápidas y pequeñas.

En 1956 se dio el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron,
entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que
provocó el abandono casi total de las investigaciones durante quince años.

Décadas 60-70´s

El obstáculo que enfrenta la mayoría de los proyectos de investigación, consistió en que aquellos métodos que demostraban funcionar
en uno o dos ejemplos sencillos, fallaban en problemas más variados o de mayor dificultad.

El primer tipo de obstáculo, fue que los programas contaban con poco o ningún conocimiento de la materia u objeto de estudio. Cuando
se intentaba la traducción automatizada para traducir, era necesario contar con un conocimiento general del tema respectivo, lo que
permite discernir lo correcto en casos de ambigüedad y así precisar el contenido de una oración.

El segundo obstáculo fue el de la intratabilidad de muchos de los problemas que se estaban intentando resolver mediante inteligencia
artificial. Que un programa sea capaz de encontrar una solución no implica que tal programa encierre todos los mecanismos necesarios
para encontrar la solución en la práctica.

El tercer obstáculo derivo de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta
inteligente.

La naturaleza de la resolución de problemas de la investigación en la inteligencia artificial residía en un mecanismo de búsqueda de


propósito general en el que se entrelazaban pasos del razonamiento elementales para encontrar soluciones complejas. Estos métodos
son llamados débiles, debido a que la información sobre el dominio con que cuentan es débil. Para resolver un problema prácticamente
es necesario saber de antemano la respuesta respectiva.

Dendral fue el primer sistema de conocimiento intensivo que lograba funcionar: sus conocimientos se basaban en importantes
cantidades de reglas para propósitos especiales. Se incorporó la separación del conocimiento (en forma de regla) y la parte
correspondiente al razonamiento.

Década de 1980

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que
no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito
(no solo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de
investigación enormes y diferenciadas. Dichos atributos del agente inteligente son:
1.- Tiene actitudes mentales tales como creencias e intenciones.

2.- Tiene la capacidad de obtener conocimiento, es decir, aprender.

3.- Puede resolver problemas, incluso descomponiendo problemas complejos en otros más simples.

4.- Capaz de realizar operaciones más complejas.

5.- Entiende. Posee la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.

6.- Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)

7.- Conoce los límites de sus propias habilidades y conocimientos.

8.- Puede distinguir a pesar de la similitud de las situaciones.

9.- Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.

10.- Puede generalizar.

11.- Puede percibir y modelar el mundo exterior.

12.- Puede entender y utilizar el lenguaje y sus símbolos.

Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la
autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.

Década de 1990

En los 90 surgen los agentes inteligentes al paso de los años eso fue evolucionando

Década de 2000

El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot más humano en 2000, 2001 y
2004, y en 2007 el programa Ultra Hal Assistant ganó el premio.

Década de 2010

Muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de
la máquina que lo ejecute, computador o cerebro»:

2010: El programa Suzette ganó el premio Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse, Alice, Paula
SG, Virtual woman millenium.

2011: Un ordenador de IBM gana el concurso de preguntas y respuestas 'Jeopardy!': El ordenador de IBM Watson ha salido victorioso
de su duelo contra el cerebro humano. ¡La máquina ha ganado el concurso de preguntas y respuestas Jeopardy!, que emite la cadena de
televisión estadounidense ABC, al imponerse a los dos mejores concursantes de la historia del programa. Watson les ha vencido en la
tercera ronda, contestando preguntas que le obligaban a pensar como una persona.

2014: Un ordenador ha logrado superar con éxito el test de turing: Un ordenador ha logrado superar con éxito el test de Turing haciendo
creer a un interrogador que es una persona quien responde sus preguntas- en un certamen organizado en Londres por la Universidad de
Reading (Reino Unido). El ordenador, con el programa Eugene desarrollado en San Petersburgo (Rusia), se ha hecho pasar por un chico
de 13 años, y los responsables de la competición consideran que es un “hito histórico de la inteligencia artificial”.

2016: Un ordenador de Google vence al campeón mundial de un juego milenario “Go”: Un programa informático desarrollado por la
compañía británica Google DeepMind había conseguido vencer, por primera vez, a un campeón profesional de un milenario juego de
origen oriental llamado Go. El reto era enorme para una máquina, ya que la prueba de estrategia encierra una gran complejidad.
1.3 LAS HABILIDADES COGNOSCITIVAS SEGÚN LA PSICOLOGÍA. TEORÍAS DE LA INTELIGENCIA
(CONDUCTISMO, GARDNER, ETC.).

Habilidad

Capacidad y disposición para algo.

Gracia y destreza en ejecutar algo que sirve de adorno a la persona, como bailar, montar a caballo, etc.

Cognoscitivo, Que es capaz de conocer.

Cognitivo: Perteneciente o relativo al conocimiento.

El concepto de "habilidades cognitivas" proviene del campo de la Psicología cognitiva. Las habilidades cognitivas son operaciones del
pensamiento por medio de las cuales el sujeto puede apropiarse de los contenidos y del proceso que usó para ello.

Otra definición nos dice que “Las habilidades cognitivas son un conjunto de operaciones mentales cuyo objetivo es que la persona
integre la información adquirida básicamente a través de los sentidos, en una estructura de conocimiento que tenga sentido para él.”

1. Dirección de la atención

A través de la atención y de una ejercitación constante de ésta, se favorecerá el desarrollo de habilidades como: observación,
clasificación, interpretación, inferencia, anticipación.

Percepción

La percepción es el proceso que permite organizar e interpretar los datos que se perciben por medio de los sentidos y así desarrollar
una conciencia de las cosas que nos rodean. Esta organización e interpretación se realiza sobre la base de las experiencias previas que
el individuo posee.

2. Procesos del pensamiento

Los procesos del pensamiento se refieren a la última fase del proceso de percepción. En este momento se deciden qué datos se
atenderán de manera inmediata con el fin de comparar situaciones pasadas y presentes y de esa manera, realizar interpretaciones y
evaluaciones de la información.

En realidad, la clasificación de las habilidades difiere según los autores; por ejemplo, algunos proponen la siguiente secuencia:
observación, comparación, relación, clasificación, ordenamiento, clasificación jerárquica, análisis, síntesis y evaluación.

Observar: Es dar una dirección intencional a nuestra percepción e implica subhabilidades como atender, fijarse, concentrarse, identificar,
buscar y encontrar datos, elementos u objetos.

Analizar: Significa destacar los elementos básicos de una unidad de información e implica subhabilidades como comparar, destacar,
distinguir, resaltar.

Ordenar: Es disponer de manera sistemática un conjunto de datos, a partir de un atributo determinado. Ello implica subhabilidades como
reunir, agrupar, listar, seriar.

Clasificar: Se refiere al hecho de disponer o agrupar un conjunto de datos según categorías. Las subhabilidades que se ponen en juego
son, por ejemplo, jerarquizar, sintetizar, esquematizar, categorizar...

Memorizar: Implica procesos de codificación, almacenamiento y recuperación de una serie de datos. Este hecho supone también retener,
conservar, archivar, evocar, recordar...

Interpretar: Es atribuir significado personal a los datos contenidos en la información recibida. Interpretar implica subhabilidades como
razonar, argumentar, deducir, explicar, anticipar.

Teoría de la Inteligencia de Gardner.

El Dr. Howard Gardner, profesor de ciencias de la educación en la Universidad de Harvard, ha llevado a cabo investigaciones acerca
del desarrollo de la capacidad cognitiva humana durante muchos años.
Dichas investigaciones lo han apartado de las teorías tradicionales respecto de la inteligencia humana que se basan en dos supuestos
fundamentales: que la cognición humana es unitaria y que es posible describir adecuadamente a los individuos como poseedores de una
inteligencia única y cuantificable.

En su estudio referido a la capacidad humana, Gardner estableció criterios que permiten medir si un talento constituye una inteligencia.
Cada inteligencia debe poseer una característica evolutiva, debe ser observable en grupos especiales de la población tales como prodigios
o "tontos sabios", debe proporcionar alguna evidencia de localización en el cerebro y disponer de un sistema simbólico o representativo.

Gardner define la inteligencia como:

La capacidad para resolver problemas cotidianos.

La capacidad para generar nuevos problemas para resolver.

La capacidad de crear productos u ofrecer servicios valiosos dentro del propio ámbito cultural.

Es una corriente psicológica en la que su teoría está basada en que a un estímulo le sigue una respuesta, siendo este el resultado de
la interacción entre el individuo y su medio.

El conductismo se desarrolla a principios del siglo XX, a partir de la obra del psicólogo norteamericano John B. Watson, época en la
cual la psicología era considerada predominantemente como el estudio de las experiencias internas o sentimientos, de los fenómenos de
la conciencia, a través de métodos subjetivos o introspectivos, y donde precisamente por las limitaciones de sus medios metodológicos,
la conciencia no pudo convertirse en objeto de análisis experimental.

El conductismo surge proponiendo una psicología basada en los hechos observables, en la conducta del hombre, que sustenta que lo
principal es lo que el hombre hace, no lo que piensa.

En este sentido, Watson no negaba la existencia de experiencias internas o emociones, pero insistía que estas experiencias no podían
ser estudiadas porque eran imposibles de observar.

Para el conductismo las diferencias individuales son un resultado del propio condicionamiento del sujeto, resultantes de la diversidad
de estímulos a lo largo de la vida, por lo que no tiene sentido la constancia del cociente de inteligencia (I.Q.), pues este depende del tipo
de estímulos que el individuo reciba, y donde la transformación del medio conlleva asimismo la transformación de la inteligencia.

1.4 EL PROCESO DE RAZONAMIENTO SEGÚN LA LÓGICA (AXIOMAS, TEOREMAS, DEMOSTRACIÓN).


El proceso de razonamiento en un sistema basado en reglas es una progresión desde un conjunto inicial de afirmaciones y reglas
hacia una solución, respuesta o conclusión. Como se llega a obtener el resultado, sin embargo, puede variar significativamente:

Se puede partir considerando todos los datos conocidos y luego ir progresivamente avanzando hacia la solución. Este proceso se lo
denomina guiado por los datos o de encadenamiento progresivo (forward chainning).

Se puede seleccionar una posible solución y tratar de probar su validez buscando evidencia que la apoye. Este proceso se denomina
guiado por el objetivo o de encadenamiento regresivo (backward chainning).

En el caso del razonamiento progresivo, se empieza a partir de un conjunto de datos colectados a través de observación y se
evoluciona hacia una conclusión. Se chequea cada una de las reglas para ver si los datos observados satisfacen las premisas de alguna
de las reglas. Si una regla es satisfecha, es ejecutada derivando nuevos hechos que pueden ser utilizados por otras reglas para derivar
hechos adicionales. Este proceso de chequear reglas para ver si pueden ser satisfechas se denomina interpretación de reglas.

Lógica: Ciencia formal y una rama de la filosofía que estudia los principios de la demostración e inferencia válida.

Demostración: Sucesión coherente de pasos que, tomando como verdadero un conjunto de premisas llamado hipótesis, permite asegurar
la veracidad de una tesis

Estos pasos deben estar fundamentados en la aplicación de reglas de deducción (fundadas ya sea en axiomas o en teoremas
anteriormente demostrados o en reglas básicas de deducción del sistema en cuestión). El hecho de no conocer ninguna demostración de
un teorema no implica su no veracidad; sólo la demostración de la negación de este resultado implica que es falso.
Teoría de la Demostración o Teoría de la Prueba

Es una rama de la lógica matemática que trata a las demostraciones como objetos matemáticos, facilitando su análisis mediante
técnicas matemáticas. Las demostraciones suelen presentarse como estructuras de datos inductivamente definidas que se construyen de
acuerdo con los axiomas y reglas de inferencia de los sistemas lógicos.

Axioma: Es una "verdad evidente" que no requiere demostración.

Ejemplos:

1+1=2

A es hermano de B

C es hijo de A

Entonces podemos decir que B es tío de C, o bien C es sobrino de B

Teorema: Es una afirmación que puede ser demostrada como verdadera dentro de un marco lógico. Demostrar teoremas es el asunto
central en la matemática.

Ejemplo: Si dos rectas paralelas se cortan con una recta secante se cumple la relación de ángulos siguiente:

1 - Los ángulos alternos/internos son iguales.

2 - Los ángulos alternos/externos son iguales.

3 - Los ángulos correspondientes son iguales.

4 - Los ángulos colaterales internos son suplementarios.

5 - Los ángulos colaterales externos son suplementarios.

1.5 EL MODELO DE ADQUISICIÓN DEL CONOCIMIENTO SEGÚN LA FILOSOFÍA.

Es el intento intelectual de explicar la forma en la que adquirimos el conocimiento del mundo y los procedimientos por los que es
generado ese conocimiento, de tal forma que pueda ser valorado ya como verdadero o como falso.

Conocer

Unos de los grandes temas de la filosofía, es explicar en qué consiste el acto de conocer, cual es la esencia del conocimiento, cual es
la relación cognoscitiva entre el hombre y las cosas que lo rodean.

La definición más sencilla nos dice que conocer consiste en obtener una información acerca de un objeto. Conocer es conseguir un
dato o una noticia sobre algo.

Elementos del conocimiento

1.- En todo conocimiento podemos distinguir cuatro elementos:

2.- El sujeto que conoce.

3.- El objeto conocido.

4.- La operación misma de conocer.

5.- El resultado obtenido que es la información recabada acerca del objeto.


LOS TRES NIVELES DE CONOCIMIENTOS.

El ser humano puede captar un objeto en tres diferentes niveles, sensible, conceptual y holístico.

Conocimiento sensible:

Es aquel que se adquiere a través de la captación de un objeto por medio de los sentidos, que en el caso de los seres humanos los
más desarrollados son el oído y la vista, de este modo, somos capaces de almacenar en nuestra memoria las imágenes de todos los
objetos que observamos a diario, con sus características particulares.

Conocimiento conceptual:

Se trata de aquel que se forma a partir de un conjunto de representaciones definidas como invisibles, inmateriales, universales y
esenciales. La diferencia más significativa entre el conocimiento sensible y el conceptual radica en que el primero es un conocimiento
particular de cada persona, en el que cada uno ve y define los conceptos y los objetos con las características propias, mientras que el
conceptual hace referencia a la universalidad de los conceptos y objetos, aquellos que todos comprendemos de la misma manera, sin
añadirle características propias.

Conocimiento holístico:

(También llamado intuitivo, con el riesgo de muchas confusiones, dado que la palabra intuición se ha utilizado hasta para hablar de
premoniciones y corazonadas). En este nivel tampoco hay colores, dimensiones ni estructuras universales como es el caso del
conocimiento conceptual. Intuir un objeto significa captarlo dentro de un amplio contexto, como elemento de una totalidad, sin estructuras
ni límites definidos con claridad. La palabra holístico se refiere a esta totalidad percibida en el momento de la intuición (holos significa
totalidad en griego).

La principal diferencia entre el conocimiento holístico y conceptual reside en las estructuras. El primero carece de estructuras, o por lo
menos, tiende a prescindir de ellas. El concepto, en cambio, es un conocimiento estructurado. Debido a esto, lo percibido a nivel intuitivo
no se puede definir, (definir es delimitar), se capta como un elemento de una totalidad, se tiene una vivencia de una presencia, pero sin
poder expresarla adecuadamente.

1.6 EL MODELO COGNOSCITIVO.

En toda situación de aprendizaje ( Pozo, 1999), espontáneo o generado en una experiencia educativa, puede identificarse tres
componentes básicos:

El qué se aprende (resultados), el cómo se aprende (los procesos cognitivos) y las condiciones del aprendizaje (la acción educativa)
que responde a las preguntas cuándo, cuánto, donde, con quién etc. Estos tres componentes se pueden mirar ya sea desde un enfoque
conductual o socialcognoscitivo. Desde el enfoque conductual los resultados de aprendizaje son las conductas, los procedimientos
cognoscitivos no son importantes para este enfoque y las condiciones se refieren a la forma de organizar situaciones estimulantes y
refuerzos continuos a las conductas adecuadas. Desde el enfoque cognoscitivo los resultados de aprendizaje se refieren a
representaciones cognitivas internas o estructuras cognoscitivas que pueden tener un correlato en una representación simbólica externa
para comprobar su presencia, los procesos cognitivos se refieren a toda aquella actividad mental que hace posible la constitución de
representaciones y las condiciones se refieren a las acciones educativas de carácter social educativo o interaccional y a los diferentes
recursos culturales con que se apoya el aprendizaje.

Desde el punto de vista social cognoscitivo los resultados de aprendizaje se refieren a la manera como se construye significado al
conjunto de categorías que constituyen un discurso disciplinar. Los resultados de aprendizaje no se refieren en especificidad a un saber
sino al significado que un aprendiz le da a ese saber. La construcción de esos significados se hace en especial cuando el conocimiento
se presenta estructurado.

Los procesos cognoscitivos en términos de aprendizaje se dan por niveles de complejidad ya sea en relación con el desarrollo (edad)
o con los niveles de complejidad en una tarea. En términos del desarrollo, las teorías de Piaget o de Vigotsky definen una serie de
características según ciclos de vida de los individuos y según la complejidad de las tareas, los enfoques computacionales
representacionales, definen una serie de procesos y subprocesos subyacentes a la solución de problemas y a la toma de decisiones. En
relación con la complejidad como se estructura un conocimiento se pueden definir 4 grandes procesos básicos: conceptualización,
interpretación, transferencia, creatividad.

Conceptualización se refiere a la manera como se define un concepto en relación con una experiencia asociada o con otro concepto
en una proposición o estructura conceptual. La interpretación se refiere a la manera como un concepto o conjunto de conceptos o
proposiciones toma significados en relación con un contexto lingüístico o discursivo o en relación con un fenómeno. Dentro de la
interpretación se juegan procesos cognoscitivos como la deducción, la inferencia, el análisis, la síntesis y diferentes modalidades de
categorización. La transferencia se refiere a la manera como se aplica un conocimiento a la solución de problemas surgidos en contextos
diferentes a aquellos en donde se dio la situación de aprendizaje. La creatividad se refiere a la manera como se reestructura o se proponen
estructuras diferentes a las aprendidas. Los niveles cognoscitivos del aprendizaje no son totalmente lineales y su recorrido se puede dar
en espiral. Lo cierto es que en términos de organización de las experiencias educativas definir niveles de aprendizaje permite organizar
una educación para el desarrollo de habilidades cognitivas.

Las condiciones de aprendizaje se refieren a la organización de las experiencias educativas para la consecución de aprendizajes. Las
experiencias educativas son de carácter interaccional y los aprendizajes cognoscitivos, desde el punto de vista social cognoscitivo. Las
condiciones de aprendizaje desde el punto de vista social cognoscitivo se refieren a la manera como se organiza un modelo curricular-
pedagógico y una serie de acciones educativas para la consecución de aprndizajes cognoscitivos con referencia a un tema de
conocimiento (Parra, 2000).

1.7 EL MODELO DEL AGENTE INTELIGENTE, SISTEMAS MULTI AGENTES, SISTEMAS UBICUOS.

Un agente es todo aquello que puede considerarse que percibe su ambiente mediante sensores y que responde o actúa por medio de
efectores.

Los agentes humanos tienen ojos, oídos y otros órganos que les sirven de sensores, así como manos, piernas, boca y otras partes
del cuerpo que sirven de efectores. En el caso de los agentes robóticos, los sensores son sustituidos por cámaras y los efectores
reemplazados mediante motores. En el caso de un agente de software, sus percepciones y acciones vienen a ser las cadenas de bits
codificados.

Origen de los sistemas multiagente

Tendencias en la historia de la computación

- Ubicuidad
- Interconexión
- Inteligencia
- Delegación
- Orientación a las personas

Tendencias

Ubicuidad

- La capacidad de computación se ha introducido en multitud de elementos y aparatos gracias al abaratamiento de su coste.


- El aumento la potencia de cálculo permite que la sofisticación (e inteligencia) sea ubicua.

Interconexión

- Los sistemas de computación ya no son elementos aislados, sino que están conectados en red formando sistemas distribuidos.
- Esta tendencia lleva a la idea de modelar la computación como un proceso de interacción

Inteligencia

- La complejidad de las tareas automatizables y delegables ha ido


- creciendo (llegando a poder ser consideradas inteligentes)

Delegación
- Más tareas se realizan automáticamente (sin supervisión)
- Esto sucede incluso en tareas críticas

Orientación a las personas

- Los conceptos de programación se alejan de la visión centrada en computador y se acercan a nuestra visión de las cosas.
- La creación de programas se basa en abstracciones y metáforas de cada vez más alto nivel

Agentes y sistemas multiagente

Agente: primera definición Un sistema computacional capaz de actuar de manera independiente como representante de su usuario
(satisfaciendo unos objetivos de diseño y sin supervisión)

Sistema multiagente: Un sistema computacional compuesto de múltiples agentes que interaccionan entre ellos

Cada agente tendrá sus propios objetivos y motivaciones.

El éxito de la interacción requerirá de cooperación, coordinación y negociación (precisamente las cualidades de las personas)

Dos visiones: Micro y macro

Esta metáfora nos lleva a plantear los sistemas software basados en agentes desde dos perspectivas: Individuos y sociedades.

1 Diseño de agentes: ¿Cómo diseñamos agentes capaces de resolver de manera autónoma las tareas que se les delegan?

2 Diseño de sociedades: ¿Cómo diseñamos agentes capaces de interaccionar con otros de manera que resuelvan sus tareas,

especialmente en caso de objetivos conflictivos?

Áreas relacionadas: Filosofía, Lógica, Teoría de juegos, Economía, Ciencias sociales, Ecología

Múltiples Perspectivas

Agentes como paradigma de ingeniería de software

- La interacción es la característica más importante en los sistemas software complejos.


- Es clave en computación el desarrollo de herramientas y técnicas para entender, modelar e implementar sistemas donde la
interacción es la norma

Agentes como herramienta para entender las sociedades humanas

- Los sistemas multiagente como herramienta de simulación de sociedades y sus procesos

Agente: segunda definición

Sistemas computacionales capaces de realizar acciones de manera autónoma en algún entorno, con el propósito de alcanzar una
serie de objetivos que tiene delegados.

- El principal interés de los agentes es que son autónomos (capaces de actuar de manera independiente).
- Un agente está fuertemente ligado y en continua interacción con su entorno:

percepción – decisión – acción – percepción – decisión –

- Agentes Simples: Termostato, demon unix


- No estamos interesados en agentes simples

Agente: tercera definición


Sistemas computacionales capaces de realizar acciones de manera autónoma y flexible en algún entorno, con el propósito de alcanzar

una serie de objetivos que tiene delegados.

Entendiendo como flexible: Reactivo, proactivo y social

1.8 EL PAPEL DE LA HEURÍSTICA.

Desde el inicio de la IA, el término “heurística” osciló entre dos sentidos fundamentales vinculados a la utilización de información del
dominio de problemas (con el fin de hacer una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un
problema.

La capacidad heurística es un rasgo característico de los humanos, que puede describirse como el arte y la ciencia del descubrimiento
y de la invención o de resolver problemas mediante la creatividad y el pensamiento.

La base de la heurística surge de la experiencia de resolver problemas y ver cómo otros lo hacen. De lo anterior podemos deducir que
un método heurístico aplicado correctamente puede devolver soluciones falsas, positivas o negativas. En las ciencias de la computación,
el método heurístico es usado en determinadas circunstancias, cuando no existe una solución óptima bajo las restricciones dadas.

En general la manera de actuar de los programas heurísticos consiste en encontrar algoritmos con buenos tiempos de ejecución y
buenas soluciones. Muchos algoritmos en la inteligencia artificial son heurísticos por naturaleza, o usan reglas heurísticas. Un ejemplo
claro son los programas que detectan si un correo electrónico es o no spam. Cualquiera de las reglas usadas de forma independiente
puede llevar a errores de clasificación, pero cuando se unen múltiples reglas heurísticas, la solución es más robusta y creíble.

Tipos de algoritmos heurísticos

En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser:

 Simples: tienden a tener reglas de terminación bien definidas y se detienen en un óptimo local.
 Complejos: pueden no tener reglas de terminación estándar y buscan soluciones mejores hasta alcanzar un punto de parada
arbitrario.

Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación, esta vez orientada a la funcionalidad de los
mismos:

Aquellos algoritmos que fueron diseñados para dar solución a problemas de búsqueda de óptimos o clasificación Aquellos algoritmos
que tratan de deducir conocimiento a partir de un conjunto de axiomas, conocidos como sistemas basados en el conocimiento.

Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:

1. Búsqueda Tabú

2. Temple Simulado

3. Algoritmos Genéticos

4. Redes Neuronales

Los sistemas basados en el conocimiento definen un área muy concreta dentro de la inteligencia artificial, conocida como Ingeniería
del conocimiento. Los sistemas desarrollados en este campo siguen un patrón heurístico similar al razonamiento humano.

1. Búsqueda Tabú

La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de Glover, y que está teniendo grandes éxitos y
mucha aceptación en los últimos años. Según su creador, es un procedimiento que “explora el espacio de soluciones más allá del óptimo
local”, (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución, una vez que se llega a un óptimo local.
Simultáneamente los últimos movimientos se califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a
soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de inhibición a algo debido a connotaciones culturales
o históricas y que puede ser superada en determinadas condiciones (Glover).

2. Temple Simulado

El uso del temple simulado en problemas de Optimización se ha extendido desde mediados de los ochenta hasta ahora, a partir de los
trabajos de Kirpatrick, Gelatt & Vecchi. Los algoritmos Temple Simulado están basados en una estrecha analogía entre los procesos físicos
termodinámicos y los elementos de un problema de optimización combinatoria. Aunque asintóticamente estos algoritmos se comportan
como exactos, (un análisis exhaustivo de esta afirmación se puede encontrar en el trabajo de Aarts & Korst), en la práctica se diseñan
como heurísticos. El campo de aplicaciones se ha extendido durante estos años. En problemas de rutas destacan las aportaciones de
Osman, para el VRP; y Aarts y otros, para el problema del viajante de comercio.

3. Algoritmos Genéticos

En los años 70, de la mano de John Holland, surgió una de las líneas más prometedoras de la inteligencia artificial, la de los algoritmos
genéticos. Son llamados así porque se inspiran en la evolución biológica y su base genético molecular. Estos algoritmos hacen evolucionar
una población de individuos sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones y
recombinación genética), así como también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles son los
individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son descartados.

4. Redes Neuronales

En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de aprendizaje y procesamiento automático basado
en el funcionamiento del sistema nervioso animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas a
través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados, ordenadores…). Con las RNA se pretende
conseguir que las máquinas den repuestas similares a las del cerebro humano, caracterizadas por su generalización y robustez.

El objetivo principal de la heurística es reconocer virus nuevos y desconocidos. Como dice Andrew J. Lee, CTO de Eset Software:

"la Heurística es un término muy amplio y no existe una definición acordada entre los fabricantes antivirus, pero básicamente describe un
rango de técnicas predictivas o proactivas para detectar nuevo software malicioso sin la necesidad de liberar una actualización".

Cada fabricante antivirus aplica distintas técnicas en la implementación heurística de sus productos, que permiten detectar mayor o
menor cantidad de virus desconocidos.

Dada la gran rapidez con la que los nuevos gusanos de Internet se reproducen, alcanzando niveles epidémicos en cuestión de horas,
contar con una protección heurística eficiente a nivel corporativo es esencial.

1.8.1 ALGORITMOS DE BÚSQUEDA DE ALTERNATIVAS

Un algoritmo de búsqueda tratará de encontrar un camino óptimo entre dos nodos como por ejemplo un camino que minimice el coste
de desplazamiento, o el número de pasos a realizar. La principal diferencia entre los algoritmos es la información que guardan acerca del
grafo. Algunos de ellos no guardan información alguna, simplemente expanden la búsqueda desde el nodo inicial, hasta que se llega al
nodo final, otros guardan el coste de viajar desde el origen hasta ese nodo, o incluso una estimación de lo prometedor que es un nodo
para conducir el camino a su objetivo. La expansión de la búsqueda se realiza en forma de árbol. Partiendo del nodo inicial, se extenderá
la búsqueda a sus nodos vecinos, de cada uno de estos nodos vecinos, a sus respectivos nodos vecinos, y así hasta que uno de los nodos
a los que se expande la búsqueda es el nodo objetivo.

El objetivo del recorrido es encontrar soluciones para algún problema. Esto se consigue construyendo soluciones parciales a medida
que progresa el recorrido; estas soluciones parciales limitan las regiones en las que puede encontrar una solución completa. El recorrido
tiene éxito si, procediendo de esta forma, se puede definir por completo una solución. En este caso el algoritmo puede, o bien detenerse
(si lo único que se necesita es una solución del problema) o bien seguir buscando soluciones alternativas (si deseamos examinarlas todas).
Por otra parte, el recorrido no tiene éxito si en alguna etapa la solución parcial construida hasta el momento no se puede completar. En
tal caso, el recorrido vuelve atrás exactamente igual que en un recorrido en profundidad, eliminando sobre la marcha los elementos que
se hubieran añadido en cada fase. Cuando vuelve a un nodo que tiene uno o más vecinos sin explorar, prosigue el recorrido de una
solución.
Ejemplo:

La mayoría de los juegos tales como el ajedrez y las damas, ofrecen un número finito de alternativas de juego y pueden ser descritos
totalmente por un árbol, existiendo un procedimiento algorítmico para evaluar las alternativas que se presentan a partir de las posiciones
terminales (ya sea victoria para alguno de los oponentes o un empate), que da como resultado la estrategia optima (aquella de da la mejor
recompensa) a seguir: el procedimiento minimax de la teoría de juegos consiste en considerar alternativamente las movidas propias y del
adversario.

En la figura se supone un partida de ajedrez donde blancas debe mover a partir de A contando con 5 alternativas: I a V, a las cuales
quien juega negras puede replicar con “a” o “b”,” c” o “d”, “e” o “f”, “g”, “h” o “i” y “j”, “k” o “l” respectivamente.

Supongamos que en la figura, “B” significa que blancas gana, “E” un empate y “N” que gana negras. El análisis de minimax consiste
en lo siguiente: si blancas juega I, de acuerdo con la movida de negras se dará que empate o pierda, si juega II cualquiera que sea la
respuesta de su contrincante se llegara a un empate; si juega II, perderá seguramente, y en caso de jugar IV y V corre el riesgo de que su
enemigo juegue “g” o “k” con lo habría perdido el juego. Blancas difícilmente correrá el riesgo de jugar IV, y por lo tanto seguramente
jugara II, con lo que se habrá asegurado un empate.

Supongamos que en la figura, “B” significa que blancas gana, “E” un empate y “N” que gana negras. El análisis de minimax consiste
en lo siguiente: si blancas juega I, de acuerdo con la movida de negras se dará que empate o pierda, si juega II cualquiera que sea la
respuesta de su contrincante se llegara a un empate; si juega II, perderá seguramente, y en caso de jugar IV y V corre el riesgo de que su
enemigo juegue “g” o “k” con lo habría perdido el juego. Blancas difícilmente correrá el riesgo de jugar IV, y por lo tanto seguramente
jugara II, con lo que se habrá asegurado un empate.

SOLUCIONAR PROBLEMAS

Para poder solucionar un problema y llegar a la solución óptima en el razonamiento del algoritmo necesitamos de 3 pasos
fundamentales.

• Identificación y definición del problema

• Identificación del criterio de evaluación

• Generación de alternativas

La solución de muchos problemas en Inteligencia artificial es básicamente búsqueda y evaluación

REPRESENTACIÓN DEL ESPACIO DE ESTADOS

Para llegar a una solución en los algoritmos se tienen que definir los espacios de estados (explícito / implícito), además se especifica
los estados iniciales y los estados finales (metas). También es importante recalcar las reglas que definen las acciones disponibles para
moverse de un estado a otro.

El proceso de solución de problemas = encontrar una secuencia de operaciones que transformen al estado inicial en uno final. Se
requiere una estrategia de búsqueda.

La estrategia de búsqueda define el criterio para seleccionar el siguiente nodo a expandir. La estrategia se avalúa atendiendo a cuatro
aspectos:

- Completitud: ¿Garantiza la estrategia encontrar una solución cuando esta exista?


- Complejidad del tiempo: ¿Cuánto tiempo requiere encontrar una solución?
- Complejidad del espacio: ¿Cuánta memoria se necesita para realizar la búsqueda?
- Optimalidad: ¿Encuentra la estrategia la solución de mayor calidad cuando haya varias soluciones diferentes?

Algoritmo de búsqueda general


- function General_Search(Problem, Strategy) return Solucion;
- Inicializar el árbol de búsqueda usando el estado inicial o Fallar
- Loop do
- if no hay nodo que expandir then return Falla
- Seleccionar un nodo hoja a expandir de acuerdo a la estrategia.
- if el nodo contiene un estado objetivo
- then return Solucion
- else expandir el nodo y añadir los nodos resultantes al
- espacio de búsqueda.
- end loop.
- end

Búsqueda exhaustiva

En la búsqueda exhaustiva la idea es examinar el espacio de estado completamente de una manera ordenada, usando todos los
operadores y generando todos los sucesores posibles para encontrar la solución deseada.

Búsqueda a ciegas

La búsqueda a ciegas es aquella donde no existe ninguna información para decidir que nodo expandir, no se conoce la cantidad de
pasos o el costo del camino desde el estado actual hasta el objetivo. También se denomina búsqueda no informada. En el otro caso,
cuando existe información para decidir, la búsqueda se denomina informada o heurística. El conjunto de métodos que utilizan la estrategia
de búsqueda a ciegas se consideran métodos débiles pues imponen restricciones mínimas a la búsqueda y su alta generalidad implica
cierta debilidad.

Búsqueda dirigida

- En la búsqueda dirigida por datos los nodos contienen los hechos dados como datos iniciales y los que se van infiriendo, mientras
en la búsqueda dirigida por objetivos los nodos contienen los objetivos y sub-objetivos.
- La idea principal es realizar simultáneamente dos búsquedas, una dirigida por dato y otra por objetivo y parar cuando ambas se
encuentren. Entonces el camino desde el estado inicial se concatena con el inverso del camino desde el estado objetivo para
formar el camino solución.

En conclusión, la búsqueda es el mecanismo de solución de problemas universal en la IA. En los problemas de la IA, la secuencia de
pasos requeridos para dar solución a un problema no es conocidos a priori, ellos son determinados mediante la exploración de alternativas.

1.8.2 ALGORITMO A*
Algoritmo a* Algoritmo de Búsqueda A. Conocido también como A asterisco o A estrella fue presentado por Peter E. Hart, Nils J.
Nilsson y Bertram Raphael en el año 1968, se clasifica dentro de los algoritmos de búsqueda en grafos. Su función es encontrar siempre
y cuando se cumplan determinadas condiciones, el camino de menor costo entre un nodo origen y uno objetivo, es la forma más
ampliamente conocida de la búsqueda primero el mejor, siendo la búsqueda A* tanto completa como óptima. Características Principales

Como todo algoritmo de búsqueda en anchura, A* es un algoritmo completo: en caso de existir una solución, siempre dará con ella.

Si para todo nodo n del grafo se cumple g(n) = 0, nos encontramos ante una búsqueda voraz. Si para todo nodo n del grafo se cumple
h(n) = 0, A* pasa a ser una búsqueda de coste uniforme no informada.

Para garantizar la optimalidad del algoritmo, la función h(n) debe ser admisible, o sea que no sobrestime el coste real de alcanzar el
nodo objetivo.

De no cumplirse dicha condición, el algoritmo pasa a denominarse simplemente A, y a pesar de seguir siendo completo, no se asegura
que el resultado obtenido sea el camino de coste mínimo. Asimismo, si garantizamos que h(n) es consistente (o monótona), es decir, que
para cualquier nodo n y cualquiera de sus sucesores, el coste estimado de alcanzar el objetivo desde n no es mayor que el de alcanzar el
sucesor más el coste de alcanzar el objetivo desde el sucesor.

La complejidad computacional está relacionada con la calidad de la heurística que se utilice en el problema. En el caso peor, con una
heurística de pésima calidad, la complejidad será exponencial, mientras que en el caso mejor, con una buena h'(n), el algoritmo se
ejecutará en tiempo lineal.
El espacio requerido por A* para ser ejecutado es su mayor problema. Dado que tiene que almacenar todos los posibles siguientes
nodos de cada estado, la cantidad de memoria que requerirá será exponencial con respecto al tamaño del problema. Para solucionar este
problema, se han propuesto diversas variaciones de este algoritmo, como pueden ser RTA*, IDA* o SMA*.

El rendimiento de los algoritmos de búsqueda heurística depende de la calidad de la función heurística.

El algoritmo A* es un algoritmo de búsqueda que puede ser empleado para el cálculo de caminos mínimos en una red. Se va a tratar
de un algoritmo heurístico, ya que una de sus principales características es que hará uso de una función de evaluación heurística, mediante
la cual etiquetará los diferentes nodos de la red y que servirá para determinar la probabilidad de dichos nodos de pertenecer al camino
óptimo. Aplicaciones del algoritmo A* De manera general este algoritmo se utiliza para encontrar el camino más corto entre dos puntos
dados, pero dentro de sus otras aplicaciones se utiliza en juegos para determinar el recorrido que un objeto debe realizar; un ejemplo de
ello es el videojuego pacman en el que se aplicaba al comportamiento de los fantasmitas y en la resolución de los problemas de Sudoku
de 8 variables. También se puede utilizar para resolver el cubo Rubik mostrándonos cómo hacerlo con la menor cantidad de movidas.
Debemos tener en cuenta que hay circunstancias en las que no es sencillo encontrar una buena función heurística pero también es válido
especificar que sea cero ya que la misma debe ser estimada por defecto.

1.8.3 ALGORITMOS DE BÚSQUEDA LOCAL.


Se han descrito búsquedas que solo realizan una exploración sistemática, en este tipo de búsquedas no tan complejas importaba
llegar al objetivo más que cómo llegar, si bien es cierto, las búsquedas informadas son efectivas a la hora de encontrar un resultado, nada
asegura que este resultado sea el más factible.

En vista de que existen problemas en los que se deben satisfacer restricciones y llegar al mejor de todos los objetivos, surgen los
algoritmos de búsqueda local y problemas de optimización en los cuales el camino hacia la solución del problema es irrelevante y lo que
importa es la solución final.

Los algoritmos que se han desarrollado son:

- Búsqueda de ascensión de colinas


- Temple simulado
- Por haz local
- Genéticos

Algoritmos de búsqueda local

Los algoritmos de búsqueda local no se preocupan por los caminos, sino que se enfocan en su gran parte en el estado actual y se mueve
de un estado vecino hacia otro, este tipo de algoritmos tienen ventajas importantes como:

Son ahorrativos: Ya que usan poca memoria en donde no se guarda la secuencia de estados.

Razonables: Ofrecen buenas soluciones a un problema cuando el espacio de los estados es infinito.

Óptimos: Encuentran el mejor estado posible en base a una función objetivo.

La forma en la que funcionan los algoritmos de búsqueda local es intentando mejorar una solución ya dada y encontrar la mejor de las
soluciones posibles en el menor tiempo, pero para ello se necesitan de operadores, estos pueden maximizar o minimizar la solución
combinando también las restricciones del problema.
Maximización

Se maximiza un problema cuando su solución corresponde directamente al objetivo, es decir que para hacer más óptima una respuesta
se trata de maximizar el objetivo.

Minimización

Se minimiza un problema cuando su solución se basa en los costos, por lo cual es necesario hacerlos lo más mínimos posibles.

Características

Paisaje de estados: es donde se encuentra el conjunto de soluciones y sirve para comprender mejor la búsqueda local, su posición se
basa en el estado y la elevación se basa en la función de coste del objetivo o de la heurística.

Estado inicial: es en donde comienza la búsqueda de la solución.

Operadores: La maximización o minimización, si la solución corresponde al costo entonces se intenta encontrar el mínimo global y si
corresponde al objetivo se intenta encontrar el máximo global.

Estados finales y soluciones: Es la resolución del problema en sí.

Heurística

En computación, dos objetivos fundamentales son encontrar algoritmos con buenos tiempos de ejecución y buenas soluciones,
usualmente las óptimas.

Una heurística es un algoritmo que abandona uno o ambos objetivos.

Normalmente encuentran buenas soluciones, aunque no hay pruebas de que la solución no pueda ser arbitrariamente errónea en
algunos casos; o se ejecuta razonablemente rápido, aunque no existe tampoco prueba de que siempre será así. Las heurísticas
generalmente son usadas cuando no existe una solución óptima bajo las restricciones dadas (tiempo, espacio, etc.), o cuando no existe
del todo.

Problemas de optimización

Para definir un problema de manera correcta primero es necesario tener en claro 4 aspectos indicados y explicados en el siguiente gráfico.

Búsqueda de ascensión de colinas

Es un algoritmo basado en iteraciones que intenta dar una solución arbitraria a un problema para encontrar una mejor solución
modificando un elemento incrementalmente (Ceccaroni, 2007).

Este tipo de búsquedas tienen este nombre ya que se asemeja a subir una colina o montaña, es decir que se realiza una búsqueda
cuesta arriba y termina cuando alcanza el lugar más alto de la montaña, es decir, la cima.
Este tipo de algoritmos tienen una condición para avanzar la cual es que si el cambio propone una solución factible se realiza un
cambio incremental a la nueva solución repitiendo esto varias veces como un ciclo.

Pese a que es un algoritmo simple y muy conocido en inteligencia artificial por ser bueno para encontrar un óptimo local no garantiza
encontrar la mejor solución entre el sin número de soluciones posibles. (Ceccaroni, 2007).

Tipos

Los tipos de algoritmos de búsqueda de ascensión de colinas son 3.

búsqueda de temple simulado

El algoritmo de temple simulado surge como una alternativa al algoritmo de ascensión de colinas ya que este no es muy completo
debido a que solo verifica los caminos cuesta arriba y no pasa por estados bajos donde el costo es más alto y se estanca en máximos
locales.

El temple simulado es una combinación de la ascensión de colinas y la aleatoriedad que establezca completitud, esta clase de
algoritmos no escogen el mejor movimiento si no que más bien hacen un aleatorio y si esta mejora la situación actual entonces es aceptada.

Búsqueda por haz local

A diferencia de las otras búsquedas en las cuales los estados expandidos y sus nodos no son guardados en la memoria, la búsqueda
por haz local guarda la pista de K estados, y se generan sucesores aleatorios para cada uno de ellos, por lo que se seleccionan cuáles
son los mejores sucesores y en caso de ser el objetivo el algoritmo se para (Pérez, s.f).

La gran diferencia con el algoritmo de reinicios aleatorios es que la búsqueda por haz local no es independiente, por ejemplo, un
estado generado aleatoriamente puede generar a su vez muchos estados considerados buenos, y otro estado puede generar el mismo
número de estados pero malos y solo uno bueno, esto puede indicar claramente que el estado a elegir sería el primero.(Pérez, s.f).

Búsqueda de haz estocástica

Debido a que podría haber pocos estados, la búsqueda de haz estocástica propone escoger a los sucesores aleatoriamente como una
función que haga más y más grande su valor.

Algoritmos genéticos

Es muy parecida a la búsqueda de haz estocástica con la diferencia de que esta trata de una reproducción sexual más que asexual,
es decir que hace una combinación de los estados de los nodos padre para generar un nuevo sucesor o hijo (Ruiz, J. 2015).
UNIDAD 2.- REPRESENTACIÓN DEL CONOCIMIENTO, RAZONAMIENTO
Y LOS ASPECTOS METODOLÓGICOS EN INTELIGENCIA ARTIFICIAL.

2.1 PRINCIPIOS Y METODOLOGÍA DE LA INTELIGENCIA ARTIFICIAL.

La inteligencia Artificial es una parte central de uno de los más profundos avances científicos e intelectuales de los últimos 60 años: el
estudio de la información y del conocimiento; y, cómo estos pueden ser adquiridos, almacenados, entendidos, manipulados, usados y
transmitidos. La investigación ha permitido desarrollar una nueva ciencia para el estudio de los principios por los cuales: conocimiento es
adquirido y utilizado, metas son generadas y logradas, información es comunicada, colaboración es alcanzada, conceptos formados, y el
lenguaje es utilizado. A ésta se la puede llamar la ciencia del conocimiento o la ciencia de la inteligencia. Igualmente, la creciente necesidad
de desarrollar aplicaciones capaces de resolver problemas complejos, ejecutando procesos que se pueden llamar inteligentes, ha dado
lugar al aparecimiento de la ingeniería de sistemas inteligentes. Acorde con estas consideraciones, en términos simples, se puede decir
que:

Dada su complejidad, el desarrollo de la investigación científica y tecnológica de los sistemas inteligentes, requiere del apoyo de otras.
La Inteligencia Artificial comprende la investigación científica y tecnológica de los sistemas inteligentes.

Se denomina sistema inteligente a una entidad capaz de percibir, razonar, aprender, adaptarse, tomar decisiones y actuar
racionalmente para satisfacer sus metas, en un determinado entorno.

Dada su complejidad, el desarrollo de la investigación científica y tecnológica de los sistemas inteligentes, requiere del apoyo de otras
áreas del conocimiento, tales como: Filosofía, Psicología, Lingüística, Ciencias de Computación, Biología, Neurociencias, Matemática,
Física, Química, Cibernética, Electrónica y Comunicaciones.

Desde la perspectiva filosófica, muchos teóricos de IA creen que ciertos procesos computacionales son necesarios y suficientes para
la inteligencia. John Searle llama esta creencia Inteligencia Artificial Fuerte y sostiene que es fundamentalmente equivocada. La tesis
central de la inteligencia artificial fuerte es que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y
por lo tanto se puede deducir que, si el cerebro genera conciencia, también las computadoras deben ser conscientes. En su opinión, las
aplicaciones de IA tratan únicamente con la sintaxis, no con la semántica, por lo que un computador no puede explicar la intencionalidad
o significado de lo que está procesando. La IA fuerte actualmente cae dentro de la ciencia ficción y la Especulación futurista. El campo de
la robótica es uno de los que más ha impulsado el estudio de la inteligencia general (Inteligencia Artificial Fuerte46). Si bien se han logrado
importantes avances, también se han evidenciado las dificultades de tratar de generar modelos de procesos mentales que todavía los
seres humanos no se ha logrado entenderlos a un nivel suficiente como para ser capaces de describirlos, representarlos y modelarlos.

Desde la perspectiva tecnológica, en cambio los sistemas inteligentes no necesariamente deben emular los procesos característicos
de los seres inteligentes. A esta premisa se la denomina Inteligencia Artificial Débil.

En las ciencias de la computación comprenden una amplia variedad de tópicos, que van desde el análisis abstracto de algoritmos,
teoría de la computación y gramáticas formales, hasta temas como lenguajes de programación, software y hardware.
Los sistemas inteligentes son parte de las ciencias de computación, que cubren una serie de tópicos teóricos – experimentales que
sirven de base para la ingeniería de aplicaciones inteligentes.

En un campo de investigación tan amplio y relativamente joven como la Inteligencia Artificial, no es raro que prevalezcan muchas
controversias, tanto científicas como filosóficas. Según lo señala Margaret Goden47,

actualmente, la mayoría de investigadores en IA utilizan ya sea el modelo clásico o el modelo conexionista. Sin embargo, debido a que
ambos modelos tienen debilidades y fortalezas complementarias, hay un creciente interés en los modelos híbridos que tratan de obtener
lo mejor de ambos mundos.

La IA a inicios del Siglo XXI es intrigantemente diversa. Varias apuestas científicas se están realizando y no es obvio si alguna
propuesta híbrida eventualmente resultará ganadora. Además, a medida que avance la investigación, nuevos conceptos de IA, surgirán
sin lugar a dudas. Por otro lado, tampoco está claro cómo las dificultades filosóficas afectarán la investigación científica de IA, en términos
de su relación con la sociedad y la naturaleza.

Teoría de la Complejidad

En el proceso de observación inscrito en los fundamentos de la ciencia clásica se considera al sujeto cognoscente como un observador
neutro, separado del objeto y despojado de sus emociones, intereses y creencias.

Desde este paradigma, el objeto por conocer, es entendido de forma múltiple y diversa (multidisciplinar), como las disciplinas que lo
abordan, y aún más, en el interior de cada disciplina se presentan divergencias para entenderlo.

La complejidad surgió, a fines de los años 60, a partir de la Teoría de la Información, la Cibernética y la Teoría de Sistemas. Importantes
avances en los más diversos dominios científicos en las últimas décadas, han puesto en evidencia que la realidad lejos de ser un simple
agregado de partes en el que se puede ir añadiendo o quitando elementos para explicar sus características y construir totalidades
ordenadas y predecibles, es más bien una trama de relaciones en dinámica permanente, regida por la incertidumbre y el caos.

Efectivamente, el saber contemporáneo se presenta al observador como una torre de babel, cuya multitud de objetos, métodos, posiciones,

perspectivas, teorías, concepciones sobre el mundo y lenguas en las que se describen unos y otras, convierten el panorama en algo
complejo.

Edgar Morin65, sociólogo y filósofo francés, sostiene que el pensamiento complejo está basado en dos aspectos clave:

•Integra todos los elementos que puedan aportar orden, claridad, distinción, precisión en el conocimiento, pero rechaza las consecuencias
mutilantes, reduccionistas, unidimensionalizantes que puede producir una simplificación que oculte todos los vínculos, las interactuaciones,
las interferencias que hay en el mundo real.

•Reconoce que el conocimiento completo es imposible. En este sentido se formula uno de los axiomas de la complejidad: la imposibilidad,
incluso teórica, de una omniciencia. Esto implica la afirmación de un principio de incompletitud y de incertidumbre.
2.2 PARADIGMAS DE LA INTELIGENCIA ARTIFICIAL.

Aunque desde muy atrás en la historia personalidades como Descartes, Hobbes y Leibniz comenzaban a desarrollar la concepción de
que la inteligencia humana funciona como un mecanismo y Von Kempelen y Charles Babbage desarrollaron maquinarias que eran capaces
de jugar ajedrez y calcular logaritmos respectivamente, no es hasta 1943 que se perfila de una forma concreta la Inteligencia Artificial con
la propuesta de Warren McCulloch y Walter Pitts de un modelo de neurona de cerebro humano y animal que brindaba una representación
simbólica de la actividad cerebral. Norbert Wiener retomando esta idea y fusionándola con otras dentro del mismo campo dio origen a la
"cibernética"; naciendo de esta en los años 50 la Inteligencia Artificial (IA).

Uno de los primeros postulados, basándose en la propuesta de la neurona de McCulloch planteaba que: "El cerebro es un solucionador
inteligente de problemas, de modo que imitemos al cerebro". Analizando la complejidad del cerebro y el hardware tan primitivo que existía
era casi imposible realizar estos sueños.

En la propia década del 50 se desarrolla con cierto éxito un sistema visual de reconocimiento de patrones llamado Perceptrón de
Rossenblatt. Todos los esfuerzos en la construcción de esta aplicación estuvieron concentrados en lograr resolver una amplia gama de
problemas.

Ya en los 60 a partir de trabajos realizados en demostraciones de teoremas y el ajedrez por computador de Alan Newell y Herbert
Simon se logra crear el GPS (General Problem Solver; sp: Solucionador General de Problemas). Este programa era capaz de resolver
problemas como los de las Torres de Hanoi, trabajar con criptoaritmética y otros similares. Su limitación fundamental es que operaba con
microcosmos formalizados que representaban parámetros dentro de los que se podían resolver las problemáticas. Además, no podía
resolver situaciones del mundo real, ni médicas, ni tomar decisiones importantes.

Al girar un poco las primeras ideas de crear un sistema que fuera capaz de resolver todos los problemas que se plantearan, hacia la
idea de darle solución a problemas que se centraran en ámbitos específicos, surgen los Sistemas Expertos. En 1967 sale a la luz el
Dendral y en 1974 el Mycin que realizaba diagnósticos de sangre y recetaba los medicamentos necesarios.

A partir de la década de los 80 se comienzan a desarrollar lenguajes especiales para programar descriptivamente, basados
fundamentalmente en predicados, sobresalen el Prolog y el Lisp. La IA se ha desarrollado vertiginosamente en las últimas dos décadas
surgiendo sistemas cada vez más potentes y aplicables en una amplia gama de esferas, sociales, económicas, industriales y médicas por
solo citar algunas.

- El trabajo de k. Craik titulado the Nature of explanation introduce los fundamentos DEL PARADIGMA SIMBÓLICO (IAS) O
REPRESENTACIONAL AL INTERPRETAR EL CONOCIMIENTO HUMANO en términos de descripciones declarativas y
modulares de entidades simbólicas de alto nivel y de reglas de inferencia usadas para manipular dichas descripciones
simbólicas.

- En 1943, Warren McCulloch Y Walter Pitts publicaron el trabajo titulado: A Logical calculus of che ideas inmanent in nervous
activity, que señala el comienzo del PARADIGMA CONEXIONISTA (IAC) (la neuro computación) en dicho trabajo se muestra
que incluso las formas más simples de redes neuronales artificiales pueden computar, en principio , funciones , aritméticas y
lógicas. Dicho paradigma está inspirado en el conocimiento actual que tenemos del funcionamiento del cerebro.

- Rosenblueth, N. Wiener y J. Bigelow, en su trabajo titulado Behavior, and Teleology, introdujeron los fundamentos del
PARADIGMA SITUADO O REACTIVO, basado en el comportamiento, al interpretar comportamiento inteligente en términos de
un conjunto de mecanismo de realimentación. Se pone énfasis en el hecho de que toda percepción y toda acción están acopladas
a través de sensores y efectores concretos. Por ejemplo, un robot que se mueve, gira a la derecha y evita un obstáculo.

- La mayor parte de los problemas son de naturaleza hibrida, por lo que su solución tendrá que ser también hibrida. Surge así el
PARADIGMA HIBRIDO (IAH). Es decir, en el control de un robot podremos necesitar técnicas simbólicas, difusas y neuronales.

- (Ortiz, 2006) nos indica que dentro de los paradigmas se encuentra EL PARADIGMA DISTRIBUIDA (IAD) está aparece en la
década de los 80's donde intenta resolver problemas en donde una conducta colectiva es más eficiente que una conducta
individual, como lo estudia la inteligencia artificial que hace el análisis de un único agente que se encuentra en un ambiente no
cambiante y que intenta resolver todo el problema con solo esta entidad.
- (Alan, 2007) describe que también se encuentra el PARADIGMA EVOLUTIVA (IAE) donde este surgió al final de los años 60,
cuando se comenzó a estudiar la incorporación de mecanismos de selección natural para la solución de problemas. Como
resultados se crearon una serie de algoritmos que, basados en la Teoría de la Evolución de Charles Darwin, conducen una
búsqueda estocástica de la solución de un problema, haciendo evolucionar a un conjunto de estructuras y seleccionando de
modo iterativo.

- (Delgado S Hernando A., 2013) describen que existe el PARADIGMA DE REDES NEURONALES (IAN) para el aprendizaje y
procesamiento automático, inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema
de interconexiones de neuronas que colaboran entre sí para producir una salida.

- (GONZALEZ, 2008) En los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los SISTEMAS EXPERTOS”,
cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no es
sustituir a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

- (Mateos, 2013) explica que el PARADIGMA DE ALGORITMOS GENETICOS son estrategias de búsqueda estocástica basados
en el mecanismo de selección natural y en algunos casos se involucran aspectos de genética natural, imitando a la evolución
biológica como estrategia para resolver problemas.

- En particular, los investigadores Michael Crouse y Errin Fulp de la universidad de Harvard están creando la primera computadora
que de forma automática ajusta su configuración para defenderse de ataques informáticos. Ellos utilizan los algoritmos para
seleccionar las mejores configuraciones; configuraciones adaptables, que van mejorando de generación en generación según
explica (Lazalde, 2012)

- UNED, 2010 nos dicen que el PARADIGMA DE LA NEUROCOMPUTACION está inspirada en la biología, de resolver algunas
tareas encontradas frecuentemente cuando se trata de reproducir mediante computadoras habilidades atribuidas a la inteligencia humana.

2.3 MAPAS CONCEPTUALES.

Los mapas conceptuales son instrumentos de representación del conocimiento sencillo y práctico, que permiten transmitir con claridad
mensajes conceptuales complejos y facilitar tanto el aprendizaje como la enseñanza. Para mayor abundamiento, adoptan la forma de
grafos. Mapa conceptual es una técnica usada para la representación gráfica del conocimiento o es una red de conceptos.

En la red, los nudos representan los conceptos, y los enlaces las relaciones entre los conceptos en forma de flechas etiquetadas El
mapa conceptual pueden tener varios propósitos:

- Generar ideas (lluvia de ideas, etc.)


- Diseñar una estructura compleja (textos largos, hipermedia, páginas web grandes, etc.)
- Comunicar ideas complejas
- Contribuir al aprendizaje integrando explícitamente conocimientos nuevos y antiguos
- Evaluar la comprensión o diagnosticar la incomprensión
- Explorar el conocimiento previo y los errores de concepto
- Fomentar el aprendizaje significativo para mejorar el éxito de los estudiantes
- Medir la comprensión de conceptos.

La técnica de elaboración de mapas conceptuales es un medio didáctico poderoso para organizar información, sintetizarla y presentarla
gráficamente. También nos permite apreciar el conjunto de la información que contiene un texto y las relaciones entre sus componentes,
lo que facilita su comprensión, que es el camino más satisfactorio y efectivo para el aprendizaje.

Otra utilidad es que pueden servir para relatar oralmente o para redactar textos en los que se maneje lógica y ordenadamente cierta
información; de ahí que sean considerables como organizadores de contenido de gran valor para diversas actividades académicas y de
la vida práctica.

Elementos de los mapas conceptuales:


- Los conceptos: Desde el punto de vista gramatical los conceptos se identifican como nombres, adjetivos y pronombres, los que
representan hechos, objetos, ideas, etc.

- Palabras de enlace: Que se utilizan para unir los conceptos y para indicar el tipo de relación que se establece entre ellos.

- Las proposiciones: Dos o más términos conceptuales unidos por palabras para formar una unidad semántica.

Técnica de construcción de los mapas conceptuales:

Es muy sencilla pero compleja a la vez, porque requiere realizar varias operaciones mentales. Se puede utilizar didácticamente para
desarrollar ideas y mostrar las relaciones que hay entre ellas.

La técnica consta de los siguientes pasos:

- Leer cuidadosamente el texto y entenderlo claramente. En caso de haber palabras que no se comprendan o no conozcan, habrá
que consultarlas y comprobar cómo funcionan en el contexto en que se encuentran.

- Localizar las ideas o palabras más importantes (palabras clave) con las que se construirá el mapa; por lo general, son nombres
o sustantivos.

- Determinar la jerarquización de dichas ideas o palabras clave.

- Establecer las relaciones entre ellas.

- Utilizar correctamente la simbología

Simbología de un Mapa Conceptual

a) Ideas o conceptos: Cada una se presenta escribiéndola encerrada en un óvalo o en un rectángulo; es preferible utilizar óvalos.

b) Conectores: La conexión o relación entre dos ideas se representa por medio de una línea inclinada, vertical u horizontal llamada conector
o línea ramal que une ambas ideas.

Para conexiones y relaciones

c) Flechas: se pueden utilizar en los conectores para mostrar que la relación de significado entre las ideas o conceptos unidos se expresa
primordialmente en un solo sentido; también se usan para acentuar la direccionalidad de las relaciones, cuando se considera
indispensable.

Para indicar la direccionalidad de las relaciones

d) Descriptores: son la palabra (s) que describen la conexión; se escriben cerca de los conectores o sobre ellos. Estos descriptores sirven
para “etiquetar” las relaciones. Tiene gran importancia elegir la palabra correcta; o sea, la que mejor caracterice la relación de que se trate,
de acuerdo con el matiz de significado que debe darse con precisión.

2.4 REDES SEMÁNTICAS.

Una red semántica o esquema de representación en Red es una forma de representación de conocimiento lingüístico en la que los
conceptos y sus interrelaciones se representan mediante un grafo. En caso de que no existan ciclos, estas redes pueden ser visualizadas
como árboles. Las redes semánticas son usadas, entre otras cosas, para representar mapas conceptuales y mentales. Estos sistemas de
organización del conocimiento estructuran conceptos, no como jerarquía sino como una red o una web.

Los conceptos son como nodos, con varias relaciones que se ramifican hacia fuera de ellas.

Pueden incluir relaciones tipo todo-parte, causa-efecto, padre-niño. Existen diversos tipos de relaciones semánticas como la hiponimia,
hiperonimia, la meronimia. Dado un conjunto de conceptos, elementos semánticos o términos relacionados semánticamente mediante
alguna relación semántica, una red semántica representa estas relaciones en forma de grafo.
Los responsables de los primeros esquemas de representación formalizados fueron Quillian (1968) y Shapiro & Woddmansee (1971).
Los esquemas de redes semánticas tienen una fundamentación psicológica muy sólida.

Las redes semánticas han sido muy utilizadas en IA para representar el conocimiento y por tanto ha existido una gran diversificación
de técnicas. Los elementos básicos que encontramos en todos los esquemas de redes son:

- Estructuras de datos en nodos, que representan conceptos, unidas por arcos que representan las relaciones entre los conceptos.

- Un conjunto de procedimientos de inferencia que operan sobre las estructuras de datos.

Básicamente, podemos distinguir tres categorías de redes semánticas:

- Redes IS-A, en las que los enlaces entre nodos están etiquetados.

- Grafos conceptuales: en los que existen dos tipos de nodos: de conceptos y de relaciones

- Redes de marcos: en los que los puntos de unión de los enlaces son parte de la etiqueta del nodo.

Redes IS-A

Sin duda el tipo de red semántica por excelencia es el de redes IS-A. De hecho, muchas veces se menciona este tipo como sinónimo
de "red semántica", y los restantes tipos también incorporan este tipo de enlaces o arcos (links). Esto ha dado lugar a que existan casi
tantos significados para un enlace IS-A como los hay para sistemas de KR (Brachman, 1983).

Una red IS-A es una jerarquía taxonómica cuya espina dorsal está constituida por un sistema de enlaces de herencia entre los objetos
o conceptos de representación, conocidos como nodos. Estos enlaces o arcos pueden estar etiquetados "IS-A", también "SUPERC",
"AKO", "SUBSET", etc. Los restantes tipos de redes semánticas son en realidad especializaciones de redes IS-A, por lo que siguen y
amplían los conceptos fundamentales que exponemos en este apartado.

Las redes IS-A son el resultado de la observación de que gran parte del conocimiento humano se basa en la adscripción de un
subconjunto de elementos como parte de otro más general. Las taxonomías clásicas naturales son un buen ejemplo: un perro es un
cánido, un cánido es un mamífero, un mamífero es un animal. Obteniendo un número de proposiciones:

x (perro (x)) cánido (x);

x (cánido (x)) mamífero (x);

x (mamífero (x)) animal (x);

La estructuración jerárquica facilita que la adscripción de propiedades a una determinada categoría se reduzca a aquellas que son
específicas a la misma, heredando aquellas propiedades de las categorías superiores de la jerarquía, tradicionalmente de una forma
monotónica. El siguiente ejemplo de red IS-A , tomado de (Brachman 1983) ejemplifica una red semántica típica con herencia de
propiedades.
El concepto de herencia es fundamental para entender el funcionamiento de las redes semánticas, así como el del modelo de datos
orientado al objeto, que toma prestados estos mecanismos desarrollados en el ámbito de la IA. Siguiendo a Shastri (1988), definimos la
herencia como el sistema de razonamiento que lleva a un agente a deducir propiedades de un concepto basándose en las propiedades
de conceptos más altos en la jerarquía.

En el ejemplo jerárquico de la Figura, el agente23 sería capaz de atribuir las propiedades "breathes" o "has gills" al concepto "shark"
sin que éstas se encuentren específicamente mencionadas. La herencia, por tanto, puede ser definida como el proceso mediante el cual
se determinan unas propiedades de un concepto C, buscando las propiedades atribuidas localmente a C, si esta información no se
encuentra a nivel local, buscando las propiedades atribuidas a conceptos que se encuentran en los niveles superiores a C en la jerarquía
conceptual.

Como Brachman (1983) recuerda, los nodos de las estructuras IS-A se han usado para representar muchas cosas, pero la división
más importante es la interpretación genérica o específica de los nodos, es decir, si éstos representan un sólo individuo o varios. Los nodos
situados en lo más bajo de la jerarquía y que denotan individuos son llamados tokens, mientras que los nodos superiores, que denotan
clases de individuos son considerados types. Puesto que en una misma jerarquía podemos obtener nodos de ambos tipos, se debe hacer
explícita una distinción de los tipos de enlaces. Por un lado, existen enlaces que conectan categorías (genéricas) con otras categorías, y
por otro, enlaces entre categorías e individuos. Las primeras pueden expresar las siguientes relaciones:

- Subconjunto/superconjunto
- Generalización/especificación
- AKO, esto es, "a kind of"
- Contenido conceptual
- Restricción de valores
- Tipo característico del conjunto

Las relaciones genérico/individuales también son de varios tipos:

- Pertenencia al conjunto
- Predicación
- Contenido conceptual
- Abstracción

Grafos conceptuales

Los grafos conceptuales (conceptual graphs), propuestos por Sowa (1984), se diferencian de las redes IS-A en que los arcos no están
etiquetados, y los nodos son de dos tipos:

Nodos de concepto, que pueden representar tanto una entidad como un estado o proceso.

Nodos de relación, que indican cómo se relacionan los nodos de concepto.

Por tanto, son los nodos de relación los que hacen el papel de enlaces entre las entidades.

Existen dos notaciones para los grafos conceptuales, la forma lineal (textual) y los diagramas o display form, que presentan tres tipos
de elementos notacionales:

- rectángulos, que marcan los nodos de concepto,


- círculos, que marcan los nodos de relación,
- flechas direccionadas, que marcan los arcos.

Este tipo de modelado conceptual debe mucho al modelo de Entidad/Relación

La intención del uso de los grafos conceptuales para la representación del lenguaje natural es mencionada por el propio Sowa, quien
dedica un capítulo completo de su obra a la aplicación de su esquema al análisis del lenguaje. La representación semántica de la frase
"man biting dog" que nos muestra en el capítulo introductorio es indicativo del uso que se le puede dar. Sowa apunta que sus grafos
conceptuales ponen el énfasis en la representación semántica (en el sentido lingüístico de la palabra).

Esquemas de marcos
Los marcos (frames), también conocidos como «estructuras» o «unidades», introducidos por Minsky (1974) [66], son una forma de
expresar las redes semánticas textualmente, pero además pueden incluir representaciones de conocimiento procedimental. En efecto,
cada nodo correspondiente a un objeto o a una clase se convierte en un marco, que consta de una primera línea con el nombre del marco
y una sucesión de líneas, llamadas «ranuras» (slots) con la sintaxis:

<ranura> ::= <nombre de relación>: <objeto relacionado> |

<nombre de relación>: <clase relacionada> |

<nombre de propiedad>: <valor de la propiedad> |

<nombre de propiedad>: (excep) <valor de la propiedad> |

<nombre de propiedad>: if_needed <procedimiento> |

<nombre de propiedad>: if_added <procedimiento>

<nombre de relación> ::= es_un |

tipo_de |

<relacion específica de la aplicación>

Como se puede observar la fundamentación psicológica de los marcos es parecida a la de los scripts de Schank: cuando nos
enfrentamos con una situación determinada, intentamos ajustarla a otra parecida de la que ya tenemos experiencia previa y esperamos
que aparezcan un número de elementos comunes y se sucedan algunas situaciones.

Por ejemplo, si entramos en una habitación de hotel, esperamos encontrar una cama, un armario, un baño, etc. Nuestra mente
reconocerá las instancias específicas de la nueva habitación y los acomodará al estereotipo que ya poseemos. La base de la teoría la
conforman, por tanto, las situaciones estereotipadas.

La organización jerárquica de los marcos es una de sus características más destacables. Los marcos se organizan en jerarquías que
presentan los mismos sistemas de herencia que encontrábamos en las redes IS-A. De hecho, una estructura de marcos no es más que
una ampliación de una estructura de redes IS-A básica (de redes semánticas tradicionales), donde los nodos han sido reemplazados por
grupos estructurados de información (los marcos).

Una jerarquía de marcos es un árbol en el que cada uno de los nodos es un marco. Para cada nodo hijo, el enlace con el nodo padre
es un enlace de herencia. El nodo hijo hereda todos los slots de su padre a menos que se especifique lo contrario (sobrecontrol). Esta es
una gran diferencia con las redes IS-A, donde la herencia es siempre monotónica, es decir no hay posibilidad de negar la herencia de
propiedades en un contexto o situación determinada (que puede ser especificada por el resultado de una operación de triggering). Los
nodos pueden ser de dos tipos: nodos de clase y nodos de instancia. Todos los nodos internos (no terminales) han de ser nodos de clase.

La característica que la herencia trae consigo es el concepto de valores por defecto (defaults). En un marco se puede especificar un
valor determinado o bien un valor por omisión (también llamados valores locales y valores heredados), en cuyo caso heredará sin más el
valor de su antecesor. Por ejemplo, la clase (nodo de clase) ave, tendrá el valor por omisión vuela como "cierto", aunque algunos nodos
de instancia hijos, por ejemplo, avestruz, no posean esta propiedad. Esta instancia concreta puede ser obligada a no heredar esta
propiedad asignándole el valor "falso", mientras que otras propiedades, como tiene_alas, sí serían heredadas por defecto (aunque en
otras instancias, como en el caso de kiwi, ésta habría de ser negada).

Podemos resumir las principales características de los marcos en las siguientes (Minsky 1975; Winograd 1975):

- Precisión (Explicitness): se precisan los objetos, las relaciones entre objetos y sus propiedades; en ausencia de evidencia
contraria se usan valores por omisión.

- Activación dinámica de procesos (Triggering): se pueden adjuntar procedimientos a un marco o alguno de sus componentes y
ser llamados y ejecutados automáticamente tras la comprobación de cambio de alguna propiedad o valor (p. ej. if-needed, if-
added)
- Herencia por defecto no-monotónica: los marcos están conceptualmente relacionados, permitiendo que atributos de objetos
sean heredados de otros objetos predecesores en la jerarquía

- Modularidad: la base de conocimiento está organizada en componentes claramente diferenciados

2.5 RAZONAMIENTO MONOTONO


Un razonamiento se llama monótono cuando a lo largo del proceso el conjunto de “cosas sabidas» es siempre creciente. Pero en la
realidad suele ocurrir que, a medida que avanza el proceso de inferencias, nuevas evidencias o acciones del mismo sistema anulan
premisas o conclusiones anteriores, y para formalizar esto se necesita una lógica no monótona. Un proceso frecuente es el razonamiento
por defecto: suponer que algo es verdadero (o falso) mientras no haya evidencia de lo contrario.

El sistema que razona debe tener en cuenta que la aparición de esa evidencia puede tener un efecto retroactivo sobre las conclusiones
obtenidas anteriormente, para lo que debe incluir un sistema de mantenimiento de la verdad. A veces se escriben las premisas pensando
más en el proceso que en su semántica declarativa. Es necesario asegurarse de que el proceso será exactamente el que estamos
pensando. Un ejemplo es la regla 5 , que puede parecer contradictoria(«si no está endosado, entonces está endosado» ).

Desde el punto de vista declarativo, veremos en que es lógicamente equivalente a decir «siempre está endosado». Pero naturalmente
no estamos pensando así al enunciar la regla: suponemos que en el proceso puede darse la situación de que el cheque, aunque completo,
no esté endosado; la regla dice que en tal caso se pedirá la firma (se supone que esta acción da siempre un resultado positivo) y el cheque
pasará a estar endosado. Ahora bien, declarativamente (lógicamente), la regla es equivalente a la conjunción de estas dos:(5a) Si talón
cumplimentado y NO talón endosado entonces pedir firma(5b) Si talón cumplimentado entonces talón endosado Y es evidente que el
resultado es incorrecto si se aplica (5b) antes que (5a)

2.6 CONOCIMIENTO NO-MONÓTONO Y OTRAS LÓGICAS.

El razonamiento no monótono es una forma de razonamiento que contrasta con el razonamiento deductivo estándar. La mayoría de
los sistemas lógicos tienen una relación de consecuencia monótona, lo que quiere decir que el agregar una fórmula a una teoría nunca se
produce una reducción de su conjunto de consecuencias. Intuitivamente, la monotonicidad indica que el agregar nuevos conocimientos
no se reduce el conjunto de las cosas conocidas.

Simbólicamente:

Donde A es una fórmula cualquiera y à y Ä son conjuntos de fórmulas cualesquiera.

Una lógica monótona no puede manejar varios tipos de razonamiento tales como el razonamiento por defecto (los hechos pueden ser
conocidos únicamente por la carencia de evidencia de lo contrario), el razonamiento abductivo (los hechos sólo se deducen en calidad de
explicaciones probables), el razonamiento acerca del conocimiento (la ignorancia de un hecho debe ser retractada cuando el hecho sea
conocido), y la revisión de creencias (nuevo conocimiento puede contradecir creencias anteriores, obligando a revisarlas). Estas
limitaciones son un inconveniente en gran cantidad de problemas que se presentan en inteligencia artificial, que tienen un carácter no
monótono.

Un razonamiento se llama monótono cuando a lo largo del proceso el conjunto de «cosas sabidas» es siempre creciente. Pero en la
realidad suele ocurrir que, a medida que avanza el proceso de inferencias, nuevas evidencias o acciones del mismo sistema anulan
premisas o conclusiones anteriores, y para formalizar esto se necesita una lógica no monótona. Un proceso frecuente es el razonamiento
por defecto: suponer que algo es verdadero (o falso) mientras no haya evidencia de lo contrario. El sistema que razona debe tener en
cuenta que la aparición de esa evidencia puede tener un efecto retroactivo sobre las conclusiones obtenidas anteriormente, para lo que
debe incluir un sistema de mantenimiento de la verdad.

Dentro de la IA, el estudio del razonamiento no monótono y sus aplicaciones, son sinónimos de estudios y técnicas formales de
razonamiento por default, esto quiere decir, que para poder formalizar los procesos de omitir conclusiones que son razonables, al tener
ausencia de información o lo contrario, que los hechos conocidos no son estrictamente garantizables como ciertos.
Existen sistemas de razonamiento (Monótono y no Monótono), los cuales son utilizados para inferir conclusiones a partir de una
información dada, y son representados por medio de programas lógicos, pero ellos no se servirían, si no existiera algún método que nos
permitiera inferir lo que es cierto y lo que es falso, dicho de otra forma, su semántica. Dentro del razonamiento no monótono se encuentra
la completitud de Clark.

La inteligencia artificial se interesó desde sus comienzos por desarrollar teorías acerca del comportamiento de agentes que deben
extraer conclusiones a partir de información dada. Dicho artefacto debe poseer varias formas de conocimiento y creencias acerca de su
mundo, y debe usar esa información ulterior acerca de aquel mundo con el fin de tomar decisiones, planificar y realizar acciones, responder
a otros agentes, etc. El problema técnico para la es caracterizar los patrones de razonamientos que requiere semejante artefacto inteligente
y realizarlos computacionalmente.

Existen diversos enfoques para analizar estos patrones y entre ellos está el de las lógicas no monótonas, el campo del razonamiento
no monótono es la derivación de conclusiones dignas (pero no infalibles) a partir de una base de conocimiento considerada como un
conjunto de fórmulas en una lógica conveniente.

Algunos de los enfoques más importantes son (Brewka, 1991): lógica no monótono modal, lógica autoepistémica, lógicas de
condicionales revocables, sistemas basados en reglas. A estos enfoques deben agregarse otras teorías emparentadas con el
razonamiento revocable como la argumentación rebatible y la teoría de cambio de creencias.

2.7 RAZONAMIENTO PROBABILÍSTICO.

Un agente lógico se puede considerar como una entidad que posee conocimiento de su mundo, y que también es capaz de razonar
sobre las posibles acciones que puede emprender para el logro de sus objetivos, además que tienen la posibilidad de aceptar nuevas
tareas.

Una de las limitaciones de la lógica de primer orden y, por lo tanto, del método del agente lógico, es que los agentes casi nunca tienen
acceso a toda la verdad acerca de su ambiente.

En algunos casos las soluciones a las tareas que debe realizar el agente se averiguan directamente a partir de las percepciones del
agente, en tanto que otras se infieren a partir de percepciones actuales y previas junto con lo que se sabe sobre las propiedades del
ambiente.

Habrá preguntas importantes a las que el agente no pueda dar una respuesta categórica. Por lo tanto, el agente debe actuar bajo
condiciones de incertidumbre.

¿Qué es incertidumbre?

Se entiende por incertidumbre una situación en la cual no se conoce completamente la probabilidad de que ocurra un determinado evento.

Por lo tanto, para que el agente realice lo correcto, es decir tome una decisión racional, dependerá tanto de la importancia relativa de
las diversas metas, así como de la posibilidad y grado correspondiente en que esperamos que sean logradas.

Manejo del Conocimiento Incierto

Ejemplo

Si nos interesara elaborar un sistema para diagnósticos odontológicos recurriendo a la lógica pondríamos reglas como:

El problema es que esta regla está equivocada. No todos los pacientes que tienen dolor de dientes, también tienen caries; algunos
quizá tengan algún padecimiento de las encías, o muelas del juicio afectadas. Esto provoca que tengamos una lista casi ilimitada de
posibles causas. En este caso el empleo de la lógica de primer orden en un dominio como el del diagnóstico médico es un intento fallido,
debido a las siguientes tres razones:

Pereza: El listar el conjunto completo de antecedentes o consecuencias necesarios para garantizar una regla sin excepciones implica
demasiado trabajo, y también sería muy difícil emplear las enormes reglas resultantes.

Ignorancia teórica: La ciencia médica no cuenta aún con una teoría completa de este dominio.
Ignorancia práctica: Aun conociendo todas las reglas, cuando no es posible realizar en un paciente todas las pruebas que sea necesario
hacer, albergaríamos ciertas dudas en el caso particular de ese paciente.

La relación entre dolor de dientes y caries no implica una consecuencia lógica en ambos sentidos. En estos casos lo que el agente
puede ofrecer es solo un grado de creencia en las oraciones correspondientes. La herramienta para manejar los grados de creencia es la
teoría de la probabilidad, mediante la que se le asigna a las proposiciones un grado numérico de creencia entre 0 y 1.

La probabilidad 0 asignada a una determinada oración corresponde a la inequívoca creencia de que la oración es falsa, en tanto que
una probabilidad de 1 corresponde a la creencia de que la oración es verdadera.

Las probabilidades situadas entre 0 y 1 correspondes a grados intermedios de creencia en la verdad de la oración.

Si un agente asigna una probabilidad de 0.8 a una oración, entonces espera que en el 80% de los casos indiferenciables de la situación
actual por lo que al conocimiento del agente se refiere, la oración resultara en efecto verdadera.

La teoría de la probabilidad parte de los mismos supuestos ontológicos que los de la lógica, es decir, que los hechos en realidad son
o no son válidos. La probabilidad que un agente asigna a una proposición dependerá de las percepciones que éste haya recibido hasta
ese momento.

Por lo tanto, en todas las afirmaciones probabilísticas deberá indicarse la evidencia en la que se basa la probabilidad que se está
calculando. Conforme el agente vaya recibiendo nuevas percepciones los cálculos de probabilidad se van actualizando, de manera que
reflejen nuevas evidencias.

Previo a la obtención de evidencias se habla de probabilidad a priori o incondicional; después de obtener evidencias se habla de
probabilidad posterior o condicional. En la mayoría de los casos, el agente contara con cierta evidencia que le aportan sus percepciones
y le interesará calcular probabilidades condicionales de los resultados que son de su interés, en otros casos será necesario calcular las
probabilidades condicionales en relación con la evidencia con la que se cuenta además de la evidencia que se espera obtener durante el
curso de la ejecución de una determinada secuencia de acciones.

Probabilidad y las decisiones racionales

La Teoría general de decisiones racionales conocida también como teoría de decisiones se puede expresar con la siguiente fórmula:

Teoría de decisiones = Teoría de la probabilidad + Teoría de la utilidad

La idea básica de la teoría de decisiones es que un agente será racional si y solo si elige una acción que le produzca la mayor de las
utilidades esperadas, tomando en cuenta todos los resultados posibles de la acción. Es decir, para evaluar una acción, probabilidades y
utilidades se combinan ponderando la utilidad de un resultado en particular con base en la probabilidad de que este se produzca.

Probabilidad a priori o incondicional

La notación P(A) indica en la probabilidad a priori o incondicional que la proposición A es verdadera. Por ejemplo, si Caries representa
la proposición de que un determinado paciente tiene una caries entonces:

Significa que, de no existir más información, el agente asignará la probabilidad de 0.1 (10% de posibilidad) al evento de que el paciente
tenga una caries.

Es importante destacar que P(A) se utiliza sólo cuando no se dispone de más información. En cuanto se disponga de información
adicional B, será necesario razonar con la probabilidad condicional de A considerando B.

En las proposiciones puede también haber desigualdades que involucren lo conocido como variables aleatorias. Por ejemplo, si nuestro
objeto de atención es la variable aleatoriaEstadoDelTiempo, tendríamos que:

Los signos de las preposiciones pueden considerarse también como variables aleatorias, y se supone que su dominio es
<verdadero,falso>. Por lo tanto, una expresión como P(Caries) podría considerarse como una abreviación de P(Caries=verdadero). Por
otra parte, P(¬Caries) es una abreviación de P(Caries = falso).

Podemos utilizar también expresiones como P(EstadoDelTiempo,Caries) para representar las probabilidades de todas las posibles
combinaciones de valores de un conjunto de variables aleatorias.
Además, podemos utilizar conectores lógicos para construir oraciones más complejas y asignarles probabilidades, por ejemplo:

Dice que hay 6% de posibilidades de que un paciente tenga caries y no esté asegurado.

Probabilidad condicional

Una vez que el agente cuenta con evidencias respecto a las proposiciones que constituyen el dominio, las probabilidades a priori pierden
vigencia. En vez de éstas, se utilizan las probabilidades condicionales o posteriores, representadas como y que se interpreta como “la
probabilidad de A, considerando que todo lo que sabemos es B”. Por ejemplo:

Indica que, si se descubre que un paciente padece de dolor dental, y todavía no se dispone de mayor información, la probabilidad de que
el paciente tenga una caries es de 0.8 (80% de posibilidad).

Es importante tener presente que sólo puede emplearse cuando todo lo que se sabe es B. En cuanto sabemos C, debemos calcular
P(A|B^C) en lugar de P(A|B) En el caso extremo C podría decirnos directamente si A es verdadera o falsa.

La probabilidad condicional se obtiene a través de la siguiente ecuación:

Esta ecuación también puede escribirse de la siguiente manera:

Esta ecuación expresa que: “Para que A y B sean ciertas, es necesario que B sea cierta, y luego que A sea cierta considerando B”.

También se puede expresar como:

Ejemplo de probabilidad condicional:

Se lanza un dado, si el número que se obtuvo es impar. ¿Cuál es la probabilidad de que sea primo?

Solución:

La probabilidad de que un número sea impar es de 1/2 dado que los números impares pueden ser 1,3 y 5.

Es decir, P(impar)=1/2

Así mismo vemos que la probabilidad de que sea primo e impar es de 1/3 ya que se incluyen los números 3 y 5.

Es decir P(primo ^ impar)=2/6=1/3

2.8 TEOREMA DE BAYES.

Thomas Bayes nacido en Londres en 1702 fue un matemático británico que estudió el problema de la determinación de la probabilidad
de las causas a través de los efectos observados. El teorema que lleva su nombre se refiere a la probabilidad de un suceso que se
presenta como suma de diversos sucesos mutuamente excluyentes.

Sea A1, A2,…,An un sistema completo de sucesos mutuamente excluyentes (no pueden ocurrir dos de ellos a la vez), tales que la
probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquiera del que se conocen las probabilidades condicionales
P(B/Ai). Entonces la probabilidad P(Ai/B) viene dada por la expresión:

El Teorema de Bayes es un cálculo de probabilidades que se utiliza para representar el grado de creencia o confianza que los eventos
tienen antes de que sucedan tal y como suceden.

Sea A1, A2, …,An un sistema completo de sucesos, tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso
cualquier del que se conocen las probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por la expresión: La
fórmula del Teorema de Bayes es:

Tratar de explicar estar fórmula con palabras es un galimatías, así que vamos a intentar explicarla con un ejemplo.

Ejemplo del uso del Teorema de Bayes.


El parte meteorológico ha anunciado tres posibilidades para el fin de semana:

a) Que llueva: probabilidad del 50%.

b) Que nieve: probabilidad del 30%

c) Que haya niebla: probabilidad del 20%.

Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es la siguiente:

a) Si llueve: probabilidad de accidente del 20%.

b) Si nieva: probabilidad de accidente del 10%

c) Si hay niebla: probabilidad de accidente del 5%.

Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no sabemos qué tiempo hizo (llovió, nevó o hubo
niebla). El teorema de Bayes nos permite calcular estas probabilidades:}

Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se denominan “probabilidades a priori” (lluvia con
el 50%, nieve con el 30% y niebla con el 20%).

Una vez que incorporamos la información de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son
probabilidades condicionadas P (A/B), que se denominan “probabilidades a posteriori”.

Vamos a aplicar la fórmula:

a) Probabilidad de que estuviera lloviendo:

La probabilidad de que efectivamente estuviera lloviendo el día del accidente (probabilidad a posteriori) es del 71,4%.

b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%.

c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1%

UNIDAD 3.- REGLAS Y BÚSQUEDA.

3.1 REPRESENTACIÓN DE CONOCIMIENTO MEDIANTE REGLAS


CONOCIMIENTO MEDIANTE REGLAS

Permite lograr una búsqueda de aserciones lógicas en el estudio de los sistemas basados o encaminados en una serie de instrucciones
permitiendo de este modo lograr las vías de ejecución del programa de forma similar a las construcciones tradicionales de control como
If, Then, Else. Las cuales definen los caminos de ejecución de los programas tradicionales.

CONOCIMIENTO PROCEDIMENTAL Y CONOCIMIENTO DECLARATIVO

Conocimiento procedimental: Es aquel donde radica y se encuentra la información, por ejemplo:

* Hombre (Marco Antonio)

* Hombre (Cesar)

* Persona (Cleopatra)

Ax: Hombre (X) (Persona)


CONOCIMIENTO DECLARATIVO

Es aquella en la que el conocimiento está especificado en cuanto lo que debe hacerse con el conocimiento y de que debe hacerse. Estos
caminos de razonamiento definen las posibles soluciones.

SISTEMAS BASADOS EN CONOCIMIENTO

Los denominados Sistemas Basados en Conocimiento y al aparecimiento de la Ingeniería Cognoscitiva, como una rama de la Inteligencia
Artificial, que estudia los sistemas basados en el conocimiento.

Definición SBC

Es un sistema computarizado capaz de resolver problemas en el dominio en el cual posee conocimiento específico.

Conceptos fundamentales

Primero, la separación del conocimiento y el modo en que es usado.

Segundo, la naturaleza del conocimiento empleado (heurística antes que algorítmica).

Tercero, El uso de conocimiento específico de un determinado dominio.

CARACTERÍSTICAS

• Amplia difusión del conocimiento.

• Fácil modificación.

• Respuestas coherentes.

• Disponibilidad casi completa.

• Conservación del conocimiento.

• Capacidad de resolver problemas disponiendo de información incompleta.

• Capacidad de explicar los resultados y la forma de obtenerlos.

SISTEMAS DE REPRESENTACIÓN DE CONOCIMIENTOS

Lógica Simbólica Formal:

* Lógica preposicional

* Lógica de predicados.

* Reglas de producción.

Lógica proposicional

La lógica proposicional es la más antigua y simple de las formas de lógica. Utilizando una representación primitiva del lenguaje, permite
representar y manipular aserciones sobre el mundo que nos rodea. La lógica proposicional permite el razonamiento, a través de un
mecanismo que primero evalúa sentencias simples y luego sentencias complejas, formadas mediante el uso de conectivos
proposicionales, por ejemplo Y (AND), O (OR).

Una proposición es una sentencia simple que tiene un valor asociado ya sea de verdadero (V), o falso (F). Por ejemplo:

* Hoy es viernes

* Ayer llovió

* Hace frío
Lógica de predicados

La lógica de predicados está basada en la idea de las sentencias realmente expresan relaciones entre objetos, así como también
cualidades y atributos de tales objetos. Los objetos pueden ser personas, objetos físicos, o conceptos. Tales cualidades, relaciones o
atributos, se denominan predicados. Los objetos se conocen como argumentos o términos del predicado.

Ejemplo:

Un predicado puede ser verdadero para un conjunto de términos, pero falso para otro. Por ejemplo, el siguiente predicado es verdadero:

*color (hierba, verde).

El mismo predicado, pero con diferentes argumentos, puede no ser verdadero:

*color (hierba, azul) o color (cielo, verde).

Los predicados también pueden ser utilizados para asignar una cualidad abstracta a sus términos, o para representar acciones o
relaciones de acción entre dos objetos.

Por ejemplo:

*clima (martes, lluvioso)

*ave (gaviota)

*ama (Roberto, Vanesa)

*lee (Alex, novela)

*mordió (boby, cartero)

Reglas de producción

Las reglas representan el conocimiento utilizando un formato SI-ENTONCES (IF-THEN), es decir tienen 2 partes:

* La parte SI (IF), es el antecedente, premisa, condición o situación.

* La parte ENTONCES (THEN), es el consecuente, conclusión, acción o respuesta.

Las reglas pueden ser utilizadas para expresar un amplio rango de asociaciones, por ejemplo:

* SI está manejando un vehículo Y se aproxima una ambulancia, ENTONCES baje la velocidad Y hágase a un lado para permitir el paso
de la ambulancia.

* SI su temperatura corporal es de 39º, ENTONCES tiene fiebre.

INTELIGENCIA ARTIFICIAL EMPAREJAMIENTO

* Búsqueda inteligente

* Saber elegir entre las diferentes reglas que se pueden aplicar

* Emparejamiento entre el estado actual y las precondiciones de las reglas

Clases de emparejamiento

* Indexación: Realiza una búsqueda sencilla a través de todas las reglas, comparando las precondiciones de cada con el estado actual.

* Emparejamiento con variables: En los sistemas basados en reglas se necesita calcular todo el conjunto de reglas que emparejan con la
descripción del estado actual.

* Emparejamiento complejo y aproximado: En este caso se debe utilizar un conjunto de reglas separado para describir el modo en que
algunas propiedades pueden derivarse de otras.

Resolución de conflictos
El resultado del proceso de emparejamiento es una lista de reglas que han emparejado la descripción del estado actual con
cualesquiera que sean los enlaces de variables que se generaron, el método de búsqueda debe decidir el orden en que se aplicarán las
reglas, pero es útil incorporar alguna parte de esta decisión en el proceso de emparejamiento

* Preferencias basadas en reglas: Se les da prioridad a las reglas según el orden en que aparecen, este sistema se llama PROLOG. Otro
esquema de preferencia más común es el de dar prioridad a las reglas de casos especiales por encima de las reglas que sean más
generales.

* Preferencias basadas en objetos: Este método simplifica los mecanismos de búsqueda y consiste en ordenar a los emparejamientos
basándose en la importancia de los objetos que están emparejados.

* Preferencias basadas en estados: Cuando existen distintas reglas para ser aplicadas, una manera de seleccionar una de ellas consiste
en activarlas todas y observar los resultados que se obtienen, y utilizar la función heurística para elegir uno de ellas.

CONOCIMIENTO DE CONTROL

Cuando existen diferentes caminos posibles de razonamiento, resulta fundamental que se pierda el menor tiempo posible en aquellas
que no vayan a ofrecer los frutos deseados.

Aquel conocimiento que informa sobre qué caminos son los más apropiados para alcanzar rápidamente un estado objetivo.

Formas de presentar el control de búsqueda:

* Conocimiento acerca de qué estados son preferibles a otros.

* Conocimiento acerca de qué reglas se pueden aplicar en una situación dada.

* Conocimiento acerca del suborden en que se deben tratar los sub objetivos

* Conocimiento acerca de las secuencias de reglas más útiles para aplicar

SISTEMAS DE REPRESENTACIÓN DEL CONOCIMIENTO

* SOAR: Está basado en un conjunto de hipótesis específicas, cognoscitivas y motivadas, similares a la estructura de la resolución de
problemas por los humanos

* PRODIGY: Es un sistema resolutor de problemas de propósito general que incorpora diferentes mecanismos de aprendizaje; su principal
característica consiste en la construcción automática de un conjunto de reglas de control para mejorar la búsqueda en un dominio
determinado.

3.2 MÉTODOS DE INFERENCIA EN REGLAS


La inferencia es la forma en la que obtenemos conclusiones en base a datos y declaraciones establecidas.

En lógica, especialmente en lógica matemática, una regla de inferencia es un esquema para construir inferencias válidas. Estos
esquemas establecen relaciones sintácticas entre un conjunto de fórmulas llamados premisas y una aserción llamada conclusión. Una
inferencia puede ser: Inductiva, deductiva, transductiva y abductiva.

INDUCTIVA (DE LO PARTICULAR A LO GENERAL)

Aquí por ejemplo si durante la primera semana el maestro llega 10 minutos tarde, podemos concluir que todo el semestre va a llegar
tarde. Esta conclusión no necesariamente es válida porque puede ser que el maestro algún día llegue temprano. En general una inferencia
inductiva es la que se desprende de una o varias observaciones y en general no podemos estar seguros de que será verdadero lo que
concluimos.

En este caso podemos mencionar el ejemplo el mentiroso: Un joven le dice a un amigo, tu todos los días dices mentiras, y el contesta,
no es cierto, ayer en todo el día no dije una sola mentira.

Resumiendo, la inferencia inductiva es la ley general que se obtiene de la observación de uno o más casos y no se puede asegurar
que la conclusión sea verdadera en general.

DEDUCTIVA (DE LO GENERAL A LO PARTICULAR)


Cuando se conoce una ley general y se aplica a un caso particular, por ejemplo, se sabe que siempre que llueve hay nubes, concluimos
que el día de hoy que está lloviendo hay nubes. También se conoce como inferencia deductiva cuando tenemos un caso que analiza todos
los posibles resultados y de acuerdo a las premisas sólo hay una posible situación, en este caso decimos que la situación única es la
conclusión. Es este caso estamos seguros de que si las premisas son verdaderas entonces la conclusión también lo es.

En este caso se encuentran MPP: Modus PonendoPonens y MTT: Modus TollendoTollens que de acuerdo a la tabla de verdad de la
condicional son dos formas de establecer una inferencia válida. La inferencia deductiva es la única aceptada como válida en matemáticas
y computación para hacer comprobaciones y sacar conclusiones.

TRANSDUCTIVA (DE PARTICULAR A PARTICULAR O DE GENERAL A GENERAL)

Con el mismo caso del maestro que llega tarde durante los primeros días y concluimos que el lunes siguiente también llegará tarde. O
del amigo que varias veces nos ha mentido y concluimos que lo que nos dice es ese momento es mentira.

El anterior sería de particular a particular, un caso de general a general es por ejemplo de un compañero maestro que la primera vez
que impartió matemáticas discretas observó que todos los alumnos estudiaban, concluyó que para el siguiente semestre todos los alumnos
iban a estudiar.

Este es un caso donde como en el caso inductivo, no podemos estar seguros de que la conclusión es verdadera.

ABDUCTIVA

Es semejante a la deductiva, también utiliza la estrategia de analizar todas las posibilidades, pero en este caso hay varios casos que
se pueden presentar, como por ejemplo si se sabe que siempre que llueve hay nubes y se sabe que hay nubes se puede concluir que
llueve, pero no se tiene la certeza, al igual que el caso inductivo y transductivo no es una forma válida de obtener conclusiones en
matemáticas o en lógica y es necesario conocer más información para poder verificar la validez.

PRINCIPALES REGLAS DE INFERENCIA

Modus ponendo ponens (pp)

En lógica, modus ponendoponens (en latín, modo que afirmando afirma), también llamado modus ponens y generalmente abreviado
MPP o MP, es una regla de inferencia que tiene la siguiente forma:

Si A, entonces B

Por lo tanto, B

Por ejemplo, un razonamiento que sigue la forma del modus ponens podría ser:

Si está soleado, entonces es de día.

Está soleado.

Por lo tanto, es de día.

Otro ejemplo sería

Si Javier tiene rabia, es una nube.

Javier tiene rabia.

Por lo tanto, Javier es una nube.

Otra manera de presentar el modus ponens con el condicional es:

En la axiomatización de la lógica proposicional propuesta por JanŁukasiewicz, el modus ponens es la única regla de inferencia primitiva.
Esto ha motivado que mucha de la discusión en torno al problema de la justificación de la deducción se haya centrado en la justificación
del modus ponens.

p → q “Si llueve, entonces las calles se mojan” (premisa)

p “Llueve” (premisa)

______________________________________________

q “Luego, las calles se mojan” (conclusión)

El condicional o implicación es aquella operación que establece entre dos enunciados una relación de causa-efecto. La regla
‘ponendoponens’ significa, “afirmando afirmo” y en un condicional establece, que si el antecedente (primer término, en este caso p) se
afirma, necesariamente se afirma el consecuente (segundo término, en este caso q).

Modus tollendo tollens (tt)

‘Tollendotollens’ significa “negando, niego”, y se refiere a una propiedad inversa de los condicionales, a los que nos referíamos en primer
lugar.

p → q “Si llueve, entonces las calles se mojan”

¬q “Las calles no se mojan”

______________________________________

¬p “Luego, no llueve”

Si de un condicional, aparece como premisa el consecuente negado (el efecto), eso nos conduce a negar el antecedente (la causa),
puesto que si un efecto no se da, su causa no ha podido darse.

Esto nos permite formular una regla combinada de las ambas anteriores, consecuencia ambas de una misma propiedad de la
implicación; la regla ponendoponens sólo nos permite afirmar si está afirmado el antecedente (el primer término de la implicación), y la
regla tollendotollenssólo nos permite negar a partir del consecuente (segundo término de la implicación); ambas consecuencias se derivan
de que la implicación es una flecha que apunta en un único sentido, lo que hace que sólo se pueda afirmar a partir del antecedente y negar
sólo a partir del consecuente.

Doble negación (dn)

¬¬p ↔ p

El esquema representa, “p doblemente negada equivale a p”. Siguiendo el esquema de una inferencia por pasos, la representaríamos así:

¬¬p “No ocurre que Ana no es una estudiante”

_____________________________________________________

p “Ana es una estudiante”

La regla ‘doble negación’, simplemente establece que, si un enunciado está doblemente negado, equivaldría al enunciado afirmado.

Adjunción y simplificación

Adjunción (A): Si disponemos de dos enunciados afirmados como dos premisas separadas, mediante la adjunción, podemos unirlos en
una sola premisa utilizando el operador Λ(conjunción).

p “Juan es cocinero”

q “Pedro es policía”

__________________________________

p Λ q “Juan es cocinero y Pedro es policía”


Simplificación (S):

Obviamente, es la operación inversa. Si disponemos de un enunciado formado por dos miembros unidos por una conjunción, podemos
hacer de los dos miembros dos enunciados afirmados por separado.

p Λ q “Tengo una manzana y tengo una pera”

_____________________________________

p “Tengo una manzana”

q “Tengo una pera”

Modus tollendo ponens (tp)

La disyunción, que se simboliza con el operador V, representa una elección entre dos enunciados. Ahora bien, en esa elección, forma
parte de las posibilidades escoger ambos enunciados, es decir, la verdad de ambos enunciados no es incompatible, si bien, ambos no
pueden ser falsos.

A partir de lo anterior, se deduce la siguiente regla, denominada tollendoponens (negando afirmo): si uno de los miembros de una
disyunción es negado, el otro miembro queda automáticamente afirmado, ya que uno de los términos de la elección ha sido descartado.

p V q “He ido al cine o me he ido de compras”

¬q “No he ido de compras”

______________________________________

p “Por tanto, he ido al cine”

Ley de la adición (la)

Dado un enunciado cualquiera, es posible expresarlo como una elección (disyunción) acompañado por cualquier otro enunciado.

a “He comprado manzanas”

____________________________________________

a V b “He comprado manzanas o he comprado peras”

Silogismo hipotético (sh)

Dados dos implicaciones, de las cuales, el antecedente de la una sea el consecuente de la otra (el mismo enunciado), podemos
construir una nueva implicación cuyo antecedente sea el de aquella implicación cuya consecuencia sea el antecedente de la otra
implicación, y cuyo consecuente sea el de ésta última, cuyo antecedente era consecuencia del primero.

Expresado de otro modo, si una causa se sigue una consecuencia, y ésta consecuencia es a su vez causa de una segunda
consecuencia, se puede decir que esa primera causa es causa de esa segunda consecuencia, del mismo modo que, si una bola de billar
roja golpea a otra bola blanca que a su vez golpea a una bola negra, la bola roja es causa del movimiento de la bola negra. Expresado en
forma de inferencia lógica:

p → q “Si la bola roja golpea a la bola blanca, la bola blanca se mueve”

q → r “Si la bola blanca golpea a la bola negra, la bola negra se mueve”

__________________________________________________________

p → r “Si la bola roja golpea a la bola blanca, la bola negra se mueve”

Silogismo disyuntivo (ds)

Dadas tres premisas, dos de ellas implicaciones, y la tercera una disyunción cuyos miembros sean los antecedentes de los
condicionales, podemos concluir en una nueva premisa en forma de disyunción, cuyos miembros serían los consecuentes de las dos
implicaciones. Lógicamente, si planteamos una elección entre dos causas, podemos plantear una elección igualmente entre sus dos
posibles efectos, que es el sentido de esta regla.

p → q “Si llueve, entonces las calles se mojan”

r → s “Si la tierra tiembla, los edificios se caen”

p V r “Llueve o la tierra tiembla”

________________________________________

q V s “Las calles se mojan o los edificios se caen”

Simplificación disyuntiva (sd)

Si disponemos de dos premisas que corresponden a dos implicaciones con el mismo consecuente, y sus antecedentes se
corresponden con los dos miembros de una disyunción, podemos concluir con el consecuente de ambas implicaciones.

p V q “Helado de fresa o helado de vainilla”

p → r “Si tomas helado de fresa, entonces repites”

q → r “Si tomas helado de vainilla, entonces repites”

____________________________________________________

r Luego, repites

Ley conmutativa

Esta ley, no es válida para la implicación, pero sí para conjunción y para la disyunción. Una conjunción es afirmar que se dan dos
cosas a la vez, de modo que el orden de sus elementos no cambia este hecho. Igualmente, una disyunción es presentar una elección
entre dos cosas, sin importar en qué orden se presente esta elección. Así pues,

p Λ q ↔ q Λ p “«p y q» equivale a «q y p»”

p V q ↔ q V p “«p ó q» equivale a «q ó p»

Leyes de Morgan (dm)

Esta ley permite transformar una disyunción en una conjunción, y viceversa, es decir, una conjunción en una disyunción. Cuando se
pasa de una a otra, se cambian los valores de afirmación y negación de los términos de la disyunción/conjunción así como de la propia
operación en conjunto, como podemos observar aquí:

pΛq pVq

________ ________

¬(¬p V ¬q) ¬(¬p Λ ¬q)

3.3 REGLAS DE PRODUCCIÓN


Por regla se entiende como una proposición lógica que relaciona 2 o más objetos e incluye 2 partes, la premisa y la conclusión. Cada
una de estas partes consiste en una expresión lógica con una o más afirmaciones objeto-valor conectadas mediante los operadores lógicos
y, o, no.

REGLAS DE PRODUCCIÓN.

Es un método procedimental de representación del conocimiento, pone énfasis en representar y soportar las relaciones inferenciales del
algoritmo, en contraposición a los métodos declarativos (hechos).

La estructura de una regla es:


SI <antecedentes>

ENTONCES <consecuentes>

Los antecedentes son las condiciones y los consecuentes las conclusiones, acciones o hipótesis.

Cada regla por si misma constituye un gránulo completo de conocimiento.

La inferencia en los Sistemas Basados en Reglas se realiza mediante emparejamiento. Hay dos tipos, según el sentido:

 Sistemas de encadenamiento hacia adelante: una regla es activada si los antecedentes emparejan con algunos hechos del
sistema.
 Sistemas de encadenamiento hacia atrás: una regla es activada si los consecuentes emparejan con algunos hechos del sistema.

Arquitectura de los Sistemas Basados en Reglas:

 Base de Conocimientos: reúne todo el conocimiento del sistema (Hechos + Reglas).


 Memoria Activa: contiene los hechos que representan el estado actual del problema (iniciales + inferidos a posteriori) y las reglas
activadas (en condiciones de ser ejecutadas).
 Motor de Inferencias: decide que reglas activadas se ejecutarán.

3.4 SINTAXIS DE LAS REGLAS DE PRODUCCIÓN

Método procedimental de representación del conocimiento

Estructura

SI <condiciones>

ENTONCES <conclusiones, acciones, hipótesis>

Cada regla SI-ENTONCES establece un granulo completo de conocimiento

Regla: Operador valido en un espacio de estados

condiciones (premisas, precondiciones, antecedentes)

Formadas por clausulas y conectivas (AND, OR, NOT)

Representación clausal debe corresponderse con conocimiento del dominio

Formato típico:

<parámetro/relación/valor>

Parámetro: característica relevante del dominio.

Relación: entre parámetro y valor.

Valor: numérico, simbólico o literal.

También en forma de predicados lógicos

CONCLUSIONES, ACCIONES, HIPÓTESIS (consecuentes)

Conclusiones, Hipótesis: conocimiento declarativo

Acciones: Acción procedimental (actualiza conocimiento, interacción con exterior)

Reglas especiales
Reglas IF ALL: equivalen a reglas con las cláusulas de las condiciones conectadas con AND

Reglas IF ANY/ IF SOME: equivalen a reglas con las cláusulas de las condiciones conectadas con OR

EJEMPLO

IF: temperatura = alta

AND sudoración = presente

AND dolor_muscular = presente

THEN: diagnostico_preliminar = gripe

IF: diagnostico_preliminar = gripe

AND descompos_organos_internos = presente

THEN: diagnostico_preliminar = ebola

SISTEMAS BASADOS EN REGLAS DE PRODUCCIÓN

Reglas: Operadores en búsquedas en espacio de estados.

Inferencia similar al MODUS PONENS (con restricciones).

Sintaxis relajada.

Se permiten acciones en los consecuentes.

Mecanismo de control determina que inferencias se pueden realizar.

TIPOS DE SISTEMAS

 En función de sintaxis de reglas y de mecanismos de control (_búsqueda)


 Sistema encadenamiento hacia adelante (dirigidos por los datos)
 Regla ACTIVADA si antecedentes emparejan con algunos hechos del sistema
 En IF ALL, todos. En IF ANY, al menos uno.
 Se parte de los hechos ya confirmados en el sistema
 Se razona hacia adelante buscando antecedentes que emparejen
 Sistema encadenamiento hacia atrás (dirigido por los objetivos)
 Regla ACTIVADA si consecuentes emparejan con algunos hechos del sistema
 Se comienza con una hipótesis
 Se razona hacia atrás buscando consecuentes que emparejen
 Motor de inferencias elige que reglas ACTIVADAS ejecutar (resolución de conflictos)

Consecuentes y antecedentes pueden verse como submetas a verificar a partir de los hechos o hipótesis, respectivamente.

CARACTERÍSTICAS

 Modularidad: reglas = pequeñas cantidades de conocimiento (relativamente) independiente.


 Incrementalidad/Modificabilidad: posible añadir/cambiar reglas con relativa independencia
 Naturalidad y Transparencia: representación del conocimiento próxima y comprensible por personas
 Capacidad de generar explicaciones

GENERACIÓN de EXPLICACIONES

 Posibilidad de \explicar" el porqué de un resultado


 Devolver a usuario la cadena de reglas empleadas
 Combinar reglas y hechos del árbol de búsqueda según las conectivas Incrementan la \aceptación" del resultado ofrecido
(dominios críticos)

3.5 SEMÁNTICA DE LAS REGLAS DE PRODUCCIÓN


Es una representación formal de una relación, una información semántica o una acción condicional. Una regla de producción tiene,
generalmente, la siguiente forma:

SI Premisa

ENTONCES Consecuencia

Ofrecen una gran facilidad para la creación y la modificación de la base de conocimiento. Permite introducir coeficientes de verosimilitud
para ponderar el conocimiento (estos coeficientes se van propagando durante el proceso de razonamiento mediante unas fórmulas de
cálculo establecidas) y, en teoría, el método asegura que cuantas más reglas posea más potente es. Sin embargo, aunque es la forma de
representación más intuitiva y rápida, cuando el número de reglas es grande aumenta la dificultad de verificación de todas las posibilidades
con el consiguiente riesgo de perder la coherencia lógica en la base de conocimiento.

Los hechos y las reglas asociadas de la base de conocimiento normalmente no son exactos; es decir se tiene incertidumbre sobre el
grado de certeza de algunos hechos y también sobre el campo de validez de algunas de las reglas. Para el manejo de la incertidumbre en
los sistemas de reglas se han utilizado varios sistemas; los tres más conocidos son los Factores de Certeza (utilizados en MYCIN), la
lógica de Dempster Shafer, y la Lógica Difusa (Fuzzy Logic). El método de tratar la incertidumbre es una de las características más
importantes de las herramientas de desarrollo, y actualmente se encuentra en discusión la validez de estas lógicas para tratar con la
incertidumbre. En sustitución se han propuesto las Redes Bayesianas que tienen una base matemática más firme. De todas formas, es
un campo actual de investigación que permanece abierto.

CONOCIMIENTO CAUSAL

Relación que vincula dos ideas a través de una conexión supuestamente necesaria. Es uno de los tres principios de asociación.

La causalidad no tiene carácter necesario cuando se aplica a las cuestiones de hecho, sino que se funda en la costumbre: la repetición
(o conjunción constante) no es más que una creencia; es algo que esperamos que suceda, no algo que deba suceder necesariamente
sino algo que debe ser evaluado en términos de posibilidad.

En la medida en que el concepto de causalidad no puede aplicarse a hechos que todavía no han sucedido, porque no tenemos
evidencia lo todavía no acaecido, la falta de un concepto de causalidad nos conduce necesariamente al escepticismo.

CONOCIMIENTO DE DIAGNÓSTICO

El problema del diagnóstico ha sido, desde los comienzos de la IA, uno de los más estudiados y donde los investigadores han
cosechado tanto satisfacciones como fracasos.

El diagnostico en el campo de la medicina es sin duda, una de las áreas de la IA que supone todavía una gran desafió. Una de las
características más frecuentes en resolución del problema del diagnóstico en dominios reales es la necesidad de trata con la dimensión
temporal. Así, una vez propuesto un modelo teórico, una tendencia cada vez más habitual a la hora de desarrollar sistemas de diagnóstico
temporal es necesario abordar el problema del diagnóstico temporal desde diferentes enfoques, permitiendo seleccionar cual es la
aproximación más adecuada para cada problema concreto es simplificar el dominio para que el modelo inicial sea aplicable.

3.6 ARQUITECTURA DE UN SISTEMA DE PRODUCCIÓN (SP) O SISTEMAS BASADOS EN REGLAS, (SBR).

Los primeros S.B.R. se remontan a los años 70:

 Newell y Simon, (1972)

Modelan el comportamiento inteligente mediante reglas (las pautas de actuación de un “agente inteligente” son reglas).

 Buchanan y Feigen, (1978)


Primer sistema basado en reglas. Generación de estructuras químicas que expliquen los resultados espectrográficos. Sistema MYCIN.
El primer sistema en el que se usan las reglas tal como se entienden hoy día.

 Buchanan y Shortliffe, (1984)

Los componentes fundamentales de un sistema de producción, que son: una base de hechos, una base de reglas de producción (a
veces llamada base de conocimientos del dominio del sistema), una maquina deductiva (motor de inferencia) y un módulo de explicación.

3.6.1 HECHOS
La base de hechos es el conjunto de información invariable de una a otra resolución. Los hechos se diferencian de los datos en el sentido
que los hechos forman parte del SP, mientras que los datos, al poder variar de una solución a otra, conviene agruparlos en archivos
externos al SP.

Algunos autores no consideran a la base de hechos en forma independiente. Los conocimientos y los hechos pueden aparecer
conjuntamente en una sola base, la de conocimientos.

Ejemplo:

Unos de los tantos hechos que pueden constituir un sistema de producción para realizar un diagnóstico médico y producir un tratamiento,
son los siguientes:

Fiebre, tose, dolor muscular y no tiene úlcera, etc.

3.6.2 BASE DE CONOCIMIENTOS.


Contiene el conocimiento del dominio en el cual el programa es competente. El conocimiento tiene que estar representado en la forma
que resulte más adecuada para el dominio de su competencia. Adicionalmente hay que tratar que esa representación sea:

 Sencilla.
 Independiente.
 Fácil de modificar.
 Transparente: justificación de soluciones y explicación de los procesos.
 Relacional.
 Potente: poder expresivo y eficiencia de cálculo.

Un aspecto importante de una base de conocimientos es su capacidad, expresada sobre la base del número de reglas que posee:

 Demostración interesante: 50 reglas.


 Prototipo funcional: 250 reglas.
 SE operacional medio: 500 – 1000 reglas.
 SE operacional especial: 4000 reglas.

Una base de conocimientos debe ser coherente, rápida, modular, fácil de desarrollar y mantener.

Ejemplo:

Como una base de conocimientos está dada por un conjunto de reglas, se puede aplicar estas reglas para un sistema que deduzca la
enfermedad y el tratamiento de un paciente.

R1: si el paciente tiene fiebre, y tose, y tiene dolores musculares entonces tiene gripe.

R2: si el paciente tiene gripe o resfriado, y no tiene úlcera entonces recomendar aspirina y coñac.

Motor de Inferencia

Selecciona, decide, interpreta y aplica el conocimiento de la base de conocimientos sobre la base de hechos con el fin de obtener la
solución buscada. Un mecanismo de inferencia debe ser independiente del conocimiento y de los hechos.

Está caracterizado por:


 El lenguaje en que ha sido escrito.
 La velocidad de trabajo: Inferencias/segundo.
 Las estrategias de búsqueda de soluciones:

o No Ordenada: aleatoria, heurística.

o Ordenada: Encadenamiento hacia adelante (guiado por los datos, deductivo), encadenamiento hacia atrás (guiado por los objetivos,
inductivo).

 La forma en que elige el conocimiento.


 La posibilidad de incorporar metaconocimiento.
 El tipo de lógica que emplea en el razonamiento: Booleana, trivalente, multivalente, difusa, monotónica o no monotónica,
atemporal o temporal, lógica de orden 0, orden 0+, orden 1.
 El método que utiliza para la evaluación del conocimiento incompleto o incierto: Determinístico, probabilístico, aproximado,
difuso.

Encadenamiento hacia delante

Este método es usado cuando los datos iniciales son muy pocos y/o existen muchas posibles conclusiones.

Los pasos para realizar el encadenamiento hacia delante son:

 Matching: Búsqueda de las reglas para las que es cierto su antecedente


 Resolución de conflictos: Selección, entre las reglas encontradas no redundantes, de aquella que se va a ejecutar.

Criterios de selección (estrategia de búsqueda)

 Mayor número de premisas en el antecedente


 Prioridad más alta
 Búsqueda en profundidad
 Búsqueda en anchura
 Ejecución: Se dispara la regla, por lo que ampliamos los datos conocidos.

Encadenamiento hacia atrás

Características del encadenamiento hacia atrás:

 Método muy útil en aplicaciones con muchos datos disponibles de partida, de los que solo una pequeña parte son relevantes.
 Sistema interactivo, solo pregunta lo estrictamente necesario a diferencia del encadenamiento hacia delante que no pregunta
nada.

Los pasos para realizar el encadenamiento hacia atrás son:

1.- Se forma una pila inicial compuesta por los objetivos iniciales.

2.- Considerar el primer objetivo de la pila. Localizar todas las reglas que lo satisfagan.

3.- Examinar las premisas de dichas reglas, en orden:

4.- Si todas las premisas se satisfacen. Ejecutamos las reglas y se derivan sus conclusiones. Si se derivó un valor para el objeto actual
entonces se elimina de la pila y se vuelve al paso 2.

5.- Si una premisa de una regla no se satisface (tiene un valor desconocido en la base de conocimientos), se mira si existen reglas que
concluyan un valor para ella. Si existen se inserta en el tope de la pila de objetos y se vuelve al paso 2.

6.- Si por b) no se encontró ninguna regla que concluya un valor para la premisa actual. Entonces se pregunta al usuario por dicho valor
y se añade a la base de conocimientos.

7.- Si el valor satisface la premisa actual se continúa examinando el resto del antecedente.
8.- Si no, se considera la siguiente regla que concluya un valor para el objeto actual. Si se han eliminado todas las reglas que concluyen
un valor para el objetivo actual y todas fallaron entonces se marca el objetivo como indeterminado, se extrae de la pila y se vuelve al paso

9.- Si la pila está vacía el proceso finaliza

3.6.3 MECANISMOS DE CONTROL


Los mecanismos de control para un sistema de producción permiten que el contenido de la información permanezca en perfecto orden,
esto es, que las reglas más específicas y las que tratan con excepciones deben de aplicarse antes que las generales, además el dialogo
entre el sistema y el usuario debe de hacer preguntas siguiendo una línea de razonamiento clara y no debe de preguntar lo que no puede
deducir.

Para controlar un SP se requiere lo siguiente:

 Ordenar las reglas.


 Poco elegante.
 Difícil de mantener.
 Solo aplicable en sistemas simples en los que las reglas se almacenan en una lista que se recorre cíclicamente.
 Ordenar las conclusiones de cada regla.
 Valido solo en encadenamiento hacia atrás.
 Colocar primero las que tienen más posibilidades de fallar.
 Añadir nuevas premisas para controlar las reglas a aplicar en cada punto de la inferencia

Ejemplo:

Si hielo_en_la_carretera y velocidad > 70 entonces recomendación = reducir_velocidad

Si situación = coche_en_marcha y hielo_en_la_carretera y velocidad > 70 entonces recomendación = reducir_velocidad

Aunque obedeciendo siempre al esquema conceptual general, los mecanismos de control pueden clasificarse, dependiendo del
momento en que se realice la acción de control, en la forma que se indica a continuación:

a) Control Direccional

El mecanismo de control actúa antes de que la actividad este totalmente concluida. En este caso el control se realiza de modo continuo
y no en puntos determinados, de modo que cada elemento de la acción sea el resultado de la rectificación casi instantánea de la acción
anterior.

Es lo que ocurre, por ejemplo, con un conductor de carro, al orientar su trayectoria de acuerdo con los obstáculos que se encuentran
en el camino. El espacio de tiempo entre la percepción de la nueva situación, la evaluación de la rectificación a efectuar, la decisión y la
acción correctiva debe ser mínimo, so pena de ocasionar un accidente.

En proyectos, este tipo de control se puede realizar cuando se tiene estructurado un sistema, que permita controlar los diferentes
factores de manera continua.

b) Control aprobado – reprobado

En este caso, el receptor del control se somete a un examen después de concluidas determinadas actividades. En caso de aprobación
se permite la realización de la actividad siguiente. Si hubiera una rectificación, el proceso se interrumpe definitivamente o hasta que se
subsanen las irregularidades.

Este es el caso típico del control de calidad. Una pieza de la línea de producción se somete periódicamente a inspección, la que se
realiza de acuerdo con especificaciones preestablecidas por el órgano encargado del diseño técnico del producto. Al pasar la inspección,
la pieza se libera para someterse a la próxima operación. Al ser reprobada, se la encamina hacia un campo de recuperación, si esto fuera
posible. Al no ocurrir esto último, la pieza se desecha.
En proyectos ocurre algo similar, si se realiza este control y, se detectan fallas en alguna de las actividades, lo más recomendable es
encaminarla (s) correctamente, para que no se presenten problemas posteriores.

c) Control post-operacional

El mecanismo de control sólo se pone en funcionamiento después de concluida toda la operación. La información para la acción
correctiva en este tipo de control, solo se utilizará en un periodo (proyecto) futuro cuando se inicie la planificación para un nuevo ciclo de
actividades.

Ocurre, por ejemplo, en la evaluación final de un curso de capacitación, o cuando el entrenador de un equipo de fútbol evalúa el
desempeño de sus jugadores después del juego. Este tipo de control se utiliza también con la finalidad de dar premios e incentivos a los
agentes que participaron en la actividad.

Estos controles se pueden hacer al interior del proyecto (control por dentro) o por intermedio de firmas, externas al proyecto,
especializadas en control (control por fuera).

Vale la pena mencionar que estos tres tipos de control no son mutuamente excluyentes, sino que más bien, deben ser
complementarios. La decisión de emplear un tipo aislado de control o una combinación de los tipos antes mencionados, está en función
del carácter del sistema que se desea controlar y del nivel de complejidad que se intenta introducir en los mecanismos de control.

En algunos casos, los contratistas exigen que se haga un control externo al proyecto, para asegurarse de la buena marcha del mismo.

El esquema de búsqueda del sistema cognitivo, sin embargo, no es tan monótono como puede parecer, pues no efectúa la búsqueda
de reglas de modo aleatorio.

También, además del mecanismo inferencial, los sistemas cognitivos de cualquier tamaño incorporan un mecanismo de control como
el que se muestra en la figura, el mecanismo de control gobierna la búsqueda y evita que el sistema cognitivo derroche su tiempo buscando
exhaustivamente a través de reglas irrelevantes de forma aleatoria.

En un sistema cognitivo, las reglas y las estrategias son características del mecanismo de control. Las reglas, conocidas como meta-
reglas que tratan de reglas y del mejor modo de aplicarlas, y no tratan de los modos de aplicar los conocimientos. Generalmente, se usan
para dirigir el orden en que se han de intentar tanto las hipótesis como las diferentes líneas de razonamiento.

Por ejemplo, una meta-regla puede decir que <<para averiguar por qué no arranca un coche, primero use las reglas del sistema para
intentar determinar si tiene gasolina, imprimir las conclusiones encontradas y después verifique el motor de arranque>>. Esta meta-regla
establece las prioridades del sistema. Otra meta-regla puede indicar que <<si el motor de arranque hace girar vigorosamente el motor del
coche no hay necesidad de comprobar la batería n el alternador>>.

Meta-reglas similares a ésta mejoran las prestaciones de un sistema cognitivo, pues esto plantea la resolución de un problema como
una búsqueda a través de un espacio de posibles soluciones. Por tanto, si hay un gran espacio de soluciones posibles a un problema, las
meta-reglas ayudan a reducir el espacio de búsqueda.

En el Drilling Advisor, un modo por el que el intérprete basado en reglas controla las búsquedas, es mediante la selección de las reglas
más pertinentes. Determinará el grado de aplicabilidad basándose en sus propias reglas sobre cómo buscar reglas y construyendo un
sistema indexado que clasifica la información que los especialistas han plasmado en las reglas.

En otra técnica, algunos sistemas basados en reglas (por ejemplo, Mycin, un sistema experto de diagnóstico médico) evitan una
búsqueda exhaustiva utilizando heurísticos para evaluar las reglas que tiene que usar para confirmar la verdad de una hipótesis. Según
el sistema cognitivo efectúa su búsqueda, elimina las reglas de mayor puntuación de su espacio de búsqueda de posibles conclusiones.
Seguidamente, retiene y basa sus posteriores búsquedas de una conclusión en las reglas de más baja calificación que corroboran el
objetivo.

Por tanto, un sistema cognitivo usa factores de certidumbre para orientar la búsqueda hacía las reglas que tienen más posibilidades
de tener éxito, al mismo tiempo que poda las ramificaciones poco probables del árbol de decisiones de las posibles soluciones del
problema.

Un método común de representar conocimientos de control, especialmente en grandes programas, es mediante el uso de
procedimientos convencionales. Una estructura de control para diagnosticar una avería en un disco de ordenador puede ser semejante a
ésta
3.7 ESPACIOS DE ESTADOS DETERMINÍSTICOS Y ESPACIOS NO DETERMINÍSTICOS.
Como se mencionó en el tema anterior, el espacio de estados es la representación de un problema que abarca todas las posibles
situaciones que se pueden presentar en la solución del problema.

Los espacios de estados pueden clasificar en dos tipos: los implícitos y los explícitos, como se muestra en el diagrama siguiente.

Los espacios de estados implícitos normalmente utilizan un sistema de producción para generar sobre la marcha los posibles estados
siguientes de un estado dado. Los juegos suelen crear un espacio de estados implícito ya que un juego puede variar dependiendo de las
reglas que lo describen.

Los espacios de estados explícitos son aquellos en los se define, previo al inicio de la búsqueda, todos los estados posibles y las
conexiones entre ellos.

La representación de los espacios de estados explícitos se puede dar o no determinísticamente, esto es, que los espacios de estados
determinísticos contienen un único estado inicial y seguir la secuencia de estados para la solución, mientras que el no determinístico
contiene un amplio número de estados iniciales y sigue la secuencia de estados perteneciente al estado inicial del espacio.

Los espacios de estados determinísticos son usados por los sistemas expertos, mientras que los no determinísticos son usados por
sistemas de lógica difusa.

Espacios de Estado

En la actualidad se aplican técnicas de inteligencia artificiales que pueden sufrir muchos problemas. Tomando diferentes puntos de
vista y de forma simbólica y discreta definiendo las configuraciones posibles dicho universo estudiado. Estos problemas se plantean en
los términos de la búsqueda de una meta que, aunque no tengan el mismo contexto que el anterior, se derivará de una aplicación,
transformaciones válidas según el modelo del universo. La respuesta en sí, la secuencia completa de transformaciones por sucesión lleva
a la deseada.

¿Qué son los espacios de estado?

La búsqueda de espacios de estados se considera un proceso, en el cual se consideran sucesivos estados de una instancia, con la
meta de encontrar el estado final con respectivas características de este. Los problemas se modelan como un espacio de estado, que no
es más que un conjunto de estados que contienen problemas, este conjunto de estados forma un grafo donde los dos estados están
conectados. Hay una operación que se puede llevar a cabo. ornar el primer estado en el segundo. La búsqueda en el espacio de estado
difiere de los métodos de búsqueda tradicionales porque el espacio de tiempo está implícito: el Grafo del espacio de estados típicos es
mucho más grande para generarlo y guardarlo en memoria. En su lugar los nodos son generados en el momento de su ejecución y estos
son descartados después. En otras palabras, un espacio de estados, es un formalismo para representar problemas:

Abstraer el problema reduciendo a un conjunto de estados y operadores.

Resolver problemas revisando posibles alternativas (todas).

O Analogía con forma de actuar de los humanos.

Estado:

Representación completa de la situación del mundo y / o problema en un momento dado.

Contiene toda la información relevante.

Operador:

Transforman un estado en otro

Se suponen deterministas

O Se sabe de antemano cómo será el estado del mundo / problema después de aplicarlos.

Se suponen discretos
O No es relevante

lo que "pasa" mientras se ejecutaran.

Como se mencionó anteriormente, el espacio de los estados es la representación de un problema que abarca todas las situaciones
posibles que se pueden presentar en la solución del problema. Los espacios abiertos pueden clasificarse en los siguientes dos tipos: los
implícitos y los demás, como se muestra en el diagrama siguiente.

Desarrollo

Los espacios de estados implícitos utilizan un sistema de producción para generar sobre la marcha los posibles estados de un estado
dado. Por ejemplo, los juegos suelen crear, un espacio de estados implícitos que pueden cambiar las reglas que lo describen.

Y los espacios de ejemplos explícitos son aquellos en los que se define, al inicio de la búsqueda, todos los estados posibles y como
conexiones entre ellos.

Los ejemplos más usuales de problemas para los juegos o dicho de otra forma universos restringidos de fácil moldeo. En un juego, las
configuraciones del universo se corresponden directamente con las configuraciones del tablero. Cada elemento es un estado que puede
ser esquematizado gráficamente y simbólicamente. Las transformaciones permitidas corresponden a las reglas y / o las movidas del juego,
llamadas transiciones de estado.

Entonces, para plantear formalmente un problema, imprescindible realizar una representación simbólica de los estados y definir las
reglas del tipo de acción para cada una de las transiciones válidas dentro del universo modelado. Ejecutar una regla indica como modificar
el estado actual para generar un estado nuevo. La condición impone restricciones a las reglas para aplicarlas o no según el estado actual,
el historial de estados completos del proceso es la solución.

En un juego el espacio de estados se determina como un grafo donde sus nodos representan las armas alcanzables y los arcos son
las movidas posibles. En principio, se puede obtener cualquier espacio de estados para el inicio inicial, aplicar cada una de las reglas para
generar los sucesos inmediatos, y así sucesivamente con cada uno de llos nuevos estados generados (en prácticas reales ). Cuando un
problema se puede representar con un espacio de estados, una solución computacional puede encontrar un camino desde el estado inicial
al a un estado objetivo.

Espacios de Estado Determinístico

El espacio de estados deterministas contiene un único estado inicial y la secuencia de estados para la solución. Los espacios de
estados determinísticos son usados por los sistemas expertos. Se puede describir a su vez, que un sistema es determinístico si, para un
estado dado, al menos aplicar una regla a él y de solo una manera. Una gran característica del espacio de estados determinísticos, es
decir en usado por los sistemas expertos. El espacio de estados llamados determinantes siempre tiene un único estado inicial y sigue una
secuencia de estados trascendente para la solución. Los espacios de estados determinísticos son usados por los sistemas expertos. Se
puede describir que un sistema es determinístico si, para un estado dado, al menos se aplica una regla a él y de solo una única manera.

Espacios de Estado No Determinístico

El no determinístico contiene un amplio número de estados iniciales y sigue la secuencia de estados pertenecientes al estado inicial
del espacio. Son usados por sistemas de lógica difusa. El espacio de estados llamado no determinístico contiene más de un estado inicial
y sigue la secuencia de estados pertenecientes al estado inicial del espacio. Son usados por sistemas de lógica ica difusa. En otras
palabras, si más de una aplicación de registro es un estado específico del sistema, o si una regla aplica un estado particular del sistema
en más de una manera, entonces el sistema no es determinístico. En otras palabras, Si MAS De Una regla APLICA un any estado en
particular de l Sistema, o Si Una regla APLICA un estado especial de la ONU del Sistema en Mas De Una Manera, ENTONCES El Sistema
es sin determinístico. Una de las características de este es que son usado por sistemas de lógica difusa, esté presente en problemas más
grandes para el agente.

3.8 BÚSQUEDA SISTEMÁTICA


Los problemas de búsquedas, que generalmente encontramos en Ciencias Computacionales, son de un estado determinístico. Por
ejemplo, en los algoritmos de búsqueda de anchura y de búsqueda de profundidad, uno sabe la secuencia de los nodos visitados en un
árbol.
Sin embargo, los problemas de búsqueda, los cuales siempre tendremos que tratar en Inteligencia artificial, son no determinísticos y
el orden de elementos visitados en el espacio de búsqueda depende completamente en el conjunto de datos.

Dependiendo de la metodología de expansión de un espacio de estado y consecuentemente el orden de los estados visitados los
problemas de búsqueda se nombran diferentes:

Búsqueda de Metas a Profundidad.

Búsqueda de Metas en Anchura.

Búsqueda Óptima.

3.8.1 BÚSQUEDA DE METAS A PROFUNDIDAD

El algoritmo de más utilizado es el de búsqueda de metas por profundidad. Es llamado así porque sigue cada camino hasta su mayor
profundidad antes de moverse al siguiente camino.

Asumiendo que iniciamos desde el lado izquierdo y trabajamos hacia la derecha, la búsqueda de metas por profundidad involucra
trabajar todos los caminos debajo del camino de árbol más a la izquierda hasta que un nodo hoja es alcanzado. Si esta es una meta de
estado, la búsqueda es completada y reportada como exitosa.

Si el nodo hoja no representa la meta de estado, la búsqueda se dirige atrás y arriba al siguiente nodo más alto que tiene un camino
no explorado.

La búsqueda de profundidad es un ejemplo de la búsqueda de fuerza bruta, o la búsqueda exhaustiva. La búsqueda de profundidad
es usada por computadoras a menudo para los problemas de búsqueda como ubicar archivos en un disco.

Complejidad de espacio

Se requiere mayor cantidad de memoria en la búsqueda de profundidad, cuando alcanzamos la mayor profundidad a la primera vez.

Complejidad de tiempo

Si encontramos la meta en la posición más a la izquierda de profundidad (D), entonces el número de nodos examinados es (d+1). De
otra forma, si encontramos la meta en el extremo derecho a una profundidad (D), entonces el número de nodos examinados incluyen
todos los nodos en el árbol.

3.8.2 BÚSQUEDA DE METAS EN ANCHURA

Una alternativa para la búsqueda de profundidad es la búsqueda de metas de anchura (amplitud). Como su nombre indica, este
enfoque supone atravesar un árbol por anchura más que por profundidad. El algoritmo de anchura empieza examinando todos los nodos
de un nivel (a veces llamado hebra uno) abajo del nodo raíz.

Si una meta de estado es alcanzada aquí, el éxito es reportado. De otra forma, la búsqueda continúa ampliando caminos de todos los
nodos del nivel en curso, para posteriormente bajar al próximo nivel. De este modo, la búsqueda continúa revisando nodos en un nivel
especial, e informará sobre el éxito cuando un nodo meta es encontrado, y reportar una falla si todos los nodos han sido revisados y
ningún nodo meta ha sido encontrado.

Comparativa de casos de búsqueda de profundidad y por anchura

3.8.3 BÚSQUEDA OPTIMA

La búsqueda heurística, trata de resolver los problemas mediante una nueva técnica. Podemos expandir nodos por selección juiciosa,
seleccionado el nodo más prometedor, donde estos nodos estarán identificados por el valor de su fuerza comparada con sus competidores
homólogos con la ayuda de funciones intuitivas especializadas, llamadas funciones heurísticas.

En algunos casos los algoritmos de búsqueda heurística, son también llamados OR-graphs o “Best First Algorithms” (Algoritmo de
búsqueda óptima).

La mayoría de los problemas de razonamiento pueden ser representados por un OR-graph, donde un nodo en el grafo denota un
problema de estado y un arco representa una aplicación o regla para el estado actual para causar transición de estados. Cuando un
número de reglas son aplicables a un estado actual, podemos seleccionar un mejor estado entre el nodo hijo y el siguiente estado.
Ejemplo de algoritmo de búsqueda óptima

Inicio

1. Identificar los posibles estados iníciales y medir la distancia (f) del más cercano con a la meta; ponerlos en una lista (L)

2. Mientas L no esté vacía has

Inicia

a) Identificar el nodo n de L que tenga el mínimo f; Si existe más de un nodo con un f mínimo, seleccionar uno de ellos, (tomar n,
arbitrariamente)

b) Si n es la meta

Entonces regresar n a lo largo del camino desde el nodo inicial; salir con éxito.

Si no remover n de L y agregar todos los hijos de n a L, junto con su camino etiquetado desde el nodo inicial

Fin del mientras;

FIN.

UNIDAD 4.- APLICACIONES CON TÉCNICAS DE IA.


4.1. ROBÓTICA.
¿Qué es Robótica?

La Robótica es la ciencia encaminada a diseñar y construir aparatos y sistemas capaces de realizar tareas propias de un ser humano.

Con esta definición tan general, la palabra 'robótica' cubre muchos conceptos diferentes, pero todos giran en torno a la misma idea.

Con la aparición del concepto 'robot' a principios de siglo XX, se dio el pistoletazo de salida para el desarrollo de sistemas cada vez más
autónomos.

Un robot autónomo es un dispositivo robótico capaz de operar por sí mismo, en la robótica de servicio es donde más se están
prodigando los robots de servicio. ¿En qué tipo de situaciones puede ser interesante un robot que sea completamente autónomo? por
ejemplo en entornos hostiles:

Conflictos bélicos.

Exploración espacial.

Exploración submarina.

Rescate en catástrofes.

Pero sin irnos tan lejos, la robótica de servicio combinada con la robótica inteligente nos permitirá en un futuro tener conductores
autónomos para nuestros coches, entre otras cosas. Que estas metas se consigan antes o después dependerá de la financiación que las
instituciones y mecenas sitúen en los diferentes proyectos de investigación que se desarrollan en el mundo.

4.1.1. CONCEPTOS BÁSICOS.


Robótica: es una ciencia o rama de la tecnología, que estudia el diseño y la construcción de máquinas capaces de desempeñar tareas
realizadas por el ser humano o que requieren del uso de inteligencia. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra,
los autómatas programables, las máquinas de estados, la mecánica o la informática.

Robot: es una máquina programable que puede manipular objetos y realizar operaciones que antes sólo podían realizar los seres humanos.

4.1.2. CLASIFICACIÓN.
Según su Tipo

Robots Físicos

Robótica Industrial: Es la parte de la Ingeniería que se dedica a la construcción de máquinas capaces de realizar tareas mecánicas y
repetitivas de una manera muy eficiente y con costes reducidos.

Robótica de Servicio: Es la parte de la Ingeniería que se centra en el diseño y construcción de máquinas capaces de proporcionar servicios
directamente a los miembros que forman sociedad.

Robótica Inteligente: Son robots capaces de desarrollar tareas que, desarrolladas en un ser humano, requieren el uso de su capacidad de
razonamiento.

Robótica Humanoide: Es la parte de la ingeniería que se dedica al desarrollo de sistemas robotizados para imitar determinadas
peculiaridades del ser humano.

Robots Software

Robótica de Exploración: Es la parte de la Ingeniería del Software que se encarga de desarrollar programas capaces de explorar
documentos en busca de determinados contenidos. Existen diversos servicios en Internet dedicados a esta parcela de la robótica.

Según su Generación

1ª Generación.

Manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia
variable.

2ª Generación.

Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de
hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.

3ª Generación.

Robots con control sensorizado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador
para que realice los movimientos necesarios.

4ª Generación.

Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control
sobre el estado del proceso. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real.

Según su Arquitectura

La arquitectura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. El concepto de metamorfismo, de
reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el
propio Robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta
los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos
que pueden agruparse bajo la denominación genérica del Robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer
una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los Robots, con base en su
arquitectura, se hace en los siguientes grupos: Poliarticulados, Móviles, Androides, Zoomórficos e Híbridos.

Poliarticulados

En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios
(aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos
terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de
libertad. En este grupo se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso
abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio
ocupado en el suelo.
Móviles

Son Robots con gran capacidad de desplazamiento, basadas en carros o plataformas y dotados de un sistema locomotor de tipo
rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots
aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la
radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar
a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.

Androides

Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. Actualmente los
androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y
experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la
locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener
simultáneamente el equilibrio del Robot.

Zoomórficos

Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase
caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica
de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y
no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentados efectuados en
Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los
Robots zoomórficos caminadores multípedos son muy numeroso y están siendo experimentados en diversos laboratorios con vistas al
desarrollo posterior de verdaderos vehículos terrenos, piloteando o autónomos, capaces de evolucionar en superficies muy accidentadas.
Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.

Híbridos

Estos Robots corresponden a aquellos de difícil clasificación cuya estructura se sitúa en combinación con alguna de las anteriores ya
expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo
tiempo uno de los atributos de los Robots móviles y de los Robots zoomórficos. De igual forma pueden considerarse híbridos algunos
Robots formados por la yuxtaposición de un cuerpo formado por un carro móvil y de un brazo semejante al de los Robots industriales. En
parecida situación se encuentran algunos Robots antropomorfos y que no pueden clasificarse ni como móviles ni como androides, tal es
el caso de los Robots personales.

4.1.3. DESARROLLOS ACTUALES Y APLICACIONES.


Los robots son utilizados en una diversidad de aplicaciones, desde robots tortugas en los salones de clases, robots soldadores en la
industria automotriz, hasta brazos tele operados en el transbordador espacial.

Cada robot lleva consigo su problemática propia y sus soluciones afines; no obstante que mucha gente considera que la automatización
de procesos a través de robots está en sus inicios, es un hecho innegable que la introducción de la tecnología robótica en la industria, ya
ha causado un gran impacto. En este sentido la industria Automotriz desempeña un papel preponderante.

Aplicaciones en diversos sectores:

Industria

Los robots son utilizados por una diversidad de procesos industriales como lo son : la soldadura de punto y soldadura de arco, pinturas
de spray, transportación de materiales, molienda de materiales, moldeado en la industria plástica, máquinas-herramientas, y otras más.

A continuación, se hará una breve explicación de algunas de ellas.

Aplicación de transferencia de material

Las aplicaciones de transferencia de material se definen como operaciones en las cuales el objetivo primario es mover una pieza de una
posición a otra. Se suelen considerar entre las operaciones más sencillas o directas de realizar por los robots. Las aplicaciones
normalmente necesitan un robot poco sofisticado, y los requisitos de enclavamiento con otros equipos son típicamente simples.
Carga y descarga de máquinas.

Estas aplicaciones son de manejos de material en las que el robot se utiliza para servir a una máquina de producción transfiriendo
piezas a/o desde las máquinas. Existen tres casos que caen dentro de esta categoría de aplicación:

1. Carga/Descarga de Máquinas. El robot carga una pieza de trabajo en bruto en el proceso y descarga una pieza acabada. Una operación
de mecanizado es un ejemplo de este caso.

Carga de máquinas. El robot debe de cargar la pieza de trabajo en bruto a los materiales en las máquinas, pero la pieza se extrae mediante
algún otro medio. En una operación de prensado, el robot se puede programar para cargar láminas de metal en la prensa, pero las piezas
acabadas se permiten que caigan fuera de la prensa por gravedad.

Descarga de máquinas. La máquina produce piezas acabadas a partir de materiales en bruto que se cargan directamente en la máquina
sin la ayuda de robots. El robot descarga la pieza de la máquina. Ejemplos de esta categoría incluyen aplicaciones de fundición de troquel
y moldeado plástico.

La aplicación se tipifica mejor mediante una célula de trabajo con el robot en el centro que consta de la máquina de producción, el
robot y alguna forma de entrega de piezas.

Operaciones de procesamiento.

Además de las aplicaciones de manejo de piezas, existe una gran clase de aplicaciones en las cuales el robot realmente efectúa
trabajos sobre piezas. Este trabajo casi siempre necesita que el efector final del robot sea una herramienta en lugar de una pinza.

Por tanto, la utilización de una herramienta para efectuar el trabajo es una característica distinta de este grupo de aplicaciones. El tipo
de herramienta depende de la operación de procesamiento que se realiza.

Soldadura por puntos.

Como el término lo sugiere, la soldadura por puntos es un proceso en el que dos piezas de metal se soldán en puntos localizados al
hacer pasar una gran corriente eléctrica a través de las piezas donde se efectúa la soldadura.

Soldadura por arco continua.

La soldadura por arco es un proceso de soldadura continua en oposición a la soldadura por punto que podría llamarse un proceso
discontinuo. La soldadura de arco continua se utiliza para obtener uniones largas o grandes uniones soldadas en las cuales, a menudo,
se necesita un cierre hermético entre las dos piezas de metal que se van a unir. El proceso utiliza un electrodo en forma de barra o alambre
de metal para suministrar la alta corriente eléctrica de 100 a 300 amperes.

Recubrimiento con spray

La mayoría de los productos fabricados de materiales metálicos requieren de alguna forma de acabado de pintura antes de la entrega al
cliente. La tecnología para aplicar estos acabados varia en la complejidad desde métodos manuales simples a técnicas automáticas
altamente sofisticadas. Se dividen los métodos de recubrimiento industrial en dos categorías:

1.- Métodos de recubrimiento de flujo e inmersión.

2.- Métodos de recubrimiento al spray.

Los métodos de recubrimiento mediante flujo de inmersión se suelen considerar que son métodos de aplicar pintura al producto de
baja tecnología. La inmersión simplemente requiere sumergir la pieza o producto en un tanque de pintura liquida.

Además de la soldadura por punto, la soldadura por arco, y el recubrimiento al spray existe una serie de otras aplicaciones de robots
que utilizan alguna forma de herramienta especializada como efector final. Operaciones que están en ésta categoría incluyen:

Taladro, acanalado, y otras aplicaciones de mecanizado.

Rectificado, pulido, desbarbado, cepillado y operaciones similares.

Remachado, Corte por chorro de agua.


Taladro y corte por láser.

Laboratorios

Los robots están encontrando un gran número de aplicaciones en los laboratorios. Llevan a cabo con efectividad tareas repetitivas
como la colocación de tubos de pruebas dentro de los instrumentos de medición. En esta etapa de su desarrollo los robots son utilizados
para realizar procedimientos manuales automatizados. Un típico sistema de preparación de muestras consiste de un robot y una estación
de laboratorio, la cual contiene balanzas, dispensarios, centrifugados, racks de tubos de pruebas, etc.

Las muestras son movidas desde la estación de laboratorios por el robot bajo el control de procedimientos de un programa.

Los fabricantes de estos sistemas mencionan tener tres ventajas sobre la operación manual: incrementan la productividad, mejoran el
control de calidad y reducen la exposición del ser humano a sustancias químicas nocivas.

Las aplicaciones subsecuentes incluyen la medición del pH, viscosidad, y el porcentaje de sólidos en polímeros, preparación de plasma
humano para muestras para ser examinadas, calor, flujo, peso y disolución de muestras para presentaciones espectromáticas.

Manipuladores cinemáticos

La tecnología robótica encontró su primera aplicación en la industria nuclear con el desarrollo de teleoperadores para manejar material
radiactivo. Los robots más recientes han sido utilizados para soldar a control remoto y la inspección de tuberías en áreas de alta radiación.
El accidente en la planta nuclear de Three Mile Island en Pennsylvania en 1979 estimuló el desarrollo y aplicación de los robots en la
industria nuclear. El reactor número 2 (TMI-2) predio su enfriamiento, y provocó la destrucción de la mayoría del reactor, y dejo grandes
áreas del reactor contaminadas, inaccesible para el ser humano. Debido a los altos niveles de radiación las tareas de limpieza solo eran
posibles por medios remotos. Varios robots y vehículos controlados remotamente han sido utilizados para tal fin en los lugares donde ha
ocurrido una catástrofe de este tipo. Esta clase de robots son equipados en su mayoría con sofisticados equipos para detectar niveles de
radiación, cámaras, e incluso llegan a traer a bordo un minilaboratorio para hacer pruebas.

Agricultura

Para muchos la idea de tener un robot agricultor es ciencia ficción, pero la realidad es muy diferente; o al menos así parece ser para
el Instituto de Investigación Australiano, el cual ha invertido una gran cantidad de dinero y tiempo en el desarrollo de este tipo de robots.
Entre sus proyectos se encuentra una máquina que esquila a la ovejas. La trayectoria del cortador sobre el cuerpo de las ovejas se planea
con un modelo geométrico de la oveja.

Para compensar el tamaño entre la oveja real y el modelo, se tiene un conjunto de sensores que registran la información de la
respiración del animal como de su mismo tamaño, ésta es mandada a una computadora que realiza las compensaciones necesarias y
modifica la trayectoria del cortador en tiempo real.

Debido a la escasez de trabajadores en los obradores, se desarrolla otro proyecto, que consiste en hacer un sistema automatizado de
un obrador, el prototipo requiere un alto nivel de coordinación entre una cámara de vídeo y el efector final que realiza en menos de 30
segundos ocho cortes al cuerpo del cerdo.

Por su parte en Francia se hacen aplicaciones de tipo experimental para incluir a los robots en la siembra, y poda de los viñedos, como
en la pizca de la manzana.

Espacio

La exploración espacial posee problemas especiales para el uso de robots. El medio ambiente es hostil para el ser humano, quien
requiere un equipo de protección muy costoso tanto en la Tierra como en el Espacio. Muchos científicos han hecho la sugerencia de que
es necesario el uso de Robots para continuar con los avances en la exploración espacial; pero como todavía no se llega a un grado de
automatización tan precisa para esta aplicación, el ser humano aún no ha podido ser reemplazado por estos. Por su parte, son los
teleoperadores los que han encontrado aplicación en los transbordadores espaciales.

En Marzo de 1982 el transbordador Columbia fue el primero en utilizar este tipo de robots, aunque el ser humano participa en la
realización del control de lazo cerrado.

Algunas investigaciones están encaminadas al diseño, construcción y control de vehículos autónomos, los cuales llevarán a bordo
complejos laboratorios y cámaras muy sofisticadas para la exploración de otros planetas.
En noviembre de 1970 los rusos consiguieron el alunizaje del Lunokhod 1, el cual poseía cámaras de televisión, sensores y un pequeño
laboratorio, era controlado remotamente desde la tierra. En Julio de 1976, los Norteamericanos aterrizaron en Marte el Viking 1, llevaba a
bordo un brazo robotizado, el cual recogía muestras de piedra, tierra y otros elementos las cuales eran analizados en el laboratorio que
fue acondicionado en el interior del robot. Por supuesto también contaba con un equipo muy sofisticado de cámaras de vídeo.

Vehículos submarinos

Dos eventos durante el verano de 1985 provocaron el incremento por el interés de los vehículos submarinos. En el primero - Un avión
de la Air Indian se estrelló en el Océano Atlántico cerca de las costas de Irlanda - un vehículo submarino guiado remotamente, normalmente
utilizado para el tendido de cable, fue utilizado para encontrar y recobrar la caja negra del avión. El segundo fue el descubrimiento del
Titanic en el fondo de un cañón, donde había permanecido después del choque con un iceberg en 1912, cuatro kilómetros abajo de la
superficie. Un vehículo submarino fue utilizado para encontrar, explorar y filmar el hallazgo.

En la actualidad muchos de estos vehículos submarinos se utilizan en la inspección y mantenimiento de tuberías que conducen
petróleo, gas o aceite en las plataformas oceánicas; en el tendido e inspección del cableado para comunicaciones, para investigaciones
geológicas y geofísicas en el suelo marino.

La tendencia hacia el estudio e investigación de este tipo de robots se incrementará a medida que la industria se interese aún más en
la utilización de los robots, sobra mencionar los beneficios que se obtendrían si se consigue una tecnología segura para la exploración del
suelo marino y la explotación del mismo.

Educación

Los robots están apareciendo en los salones de clases de tres distintas formas. Primero, los programas educacionales utilizan la
simulación de control de robots como un medio de enseñanza. Un ejemplo palpable es la utilización del lenguaje de programación del
robot Karel, el cual es un subconjunto de Pascal; este es utilizado por la introducción a la enseñanza de la programación.

El segundo y de uso más común es el uso del robot tortuga en conjunción con el lenguaje LOGO para enseñar ciencias
computacionales. LOGO fue creado con la intención de proporcionar al estudiante un medio natural y divertido en el aprendizaje de las
matemáticas.

En tercer lugar, está el uso de los robots en los salones de clases. Una serie de manipuladores de bajo costo, robots móviles, y
sistemas completos han sido desarrollados para su utilización en los laboratorios educacionales. Debido a su bajo costo muchos de estos
sistemas no poseen una fiabilidad en su sistema mecánico, tienen poca exactitud, no existen los sensores y en su mayoría carecen de
software.

Es necesario hacer mención de los problemas de tipo social, económicos e incluso político, que puede generar una mala orientación de
robotización de la industria. Se hace indispensable que la planificación de los recursos humanos, tecnológicos y financieros se realice de
una manera inteligente. El mercado de la robótica y las perspectivas futuras que se tienen son diversos.

Las ventas anuales para robots industriales han ido creciendo en Estados Unidos a razón del 25% de acuerdo a estadísticas del año
1981 a 1992. El incremento de ésta tasa se debe a factores muy diversos. En primer lugar, hay más personas en la industria que tienen
conocimiento de la tecnología y de su potencial para sus aplicaciones de utilidad. En segundo lugar, la tecnología de la robótica mejorará
en los próximos años de manera que hará a los robots más amistosos con el usuario, más fáciles de interconectar con otro hardware y
más sencillos de instalar.

En tercer lugar, que crece el mercado, son previsibles economías de escala en la producción de robots para proporcionar una reducción
en el precio unitario, lo que haría los proyectos de aplicaciones de robots más fáciles de justificar. En cuarto lugar se espera que el mercado
de la robótica sufra una expansión más allá de las grandes empresas, que ha sido el cliente tradicional para ésta tecnología, y llegue a las
empresas de tamaño mediano, pequeño y por que no; las microempresas. Estas circunstancias darán un notable incremento en las bases
de clientes para los robots.

La robótica es una tecnología con futuro y también para el futuro. Si continúan las tendencias actuales, y si algunos de los estudios
de investigación en el laboratorio actualmente en curso se convierten finalmente en una tecnología factible, los robots del futuro serán
unidades móviles con uno o más brazos, capacidades de sensores múltiples y con la misma potencia de procesamiento de datos y de
cálculo que las grandes computadoras actuales. Serán capaces de responder a ordenes dadas con voz humana. Así mismo serán capaces
de recibir instrucciones generales y traducirlas, con el uso de la inteligencia artificial en un conjunto específico de acciones requeridas
para llevarlas a cabo. Podrán ver, oír, palpar, aplicar una fuerza media con precisión a un objeto y desplazarse por sus propios medios.

En resumen, los futuros robots tendrían muchos de los atributos de los seres humanos. Es difícil pensar que los robots llegarán a
sustituir a los seres humanos en el sentido de la obra de Carel Kapek, Robots Universales de Rossum. Por el contrario, la robótica es una
tecnología que solo puede destinarse al beneficio de la humanidad. Sin embargo, como otras tecnologías, hay peligros potenciales
implicados y deben establecerse salvaguardas para no permitir su uso pernicioso.

El paso del presente al futuro exigirá mucho trabajo de ingeniería mecánica, ingeniería electrónica, informática, ingeniería industrial,
tecnología de materiales, ingenierías de sistemas de fabricación y ciencias sociales.

4.2. REDES NEURONALES (RN).


Las Redes Neuronales (RN) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, formados por un
conjunto de unidades llamadas "neuronas" o "nodos" conectadas unas con otras. Estas conexiones tienen una gran semejanza con las
dendrítas y losaxones en los sistemas nerviosos biológicos.

En términos generales, el Primer modelo de red neuronal fue propuesto en 1943 por McCulloch y Pitts en términos de un modelo
computacional de "actividad nerviosa". El modelo de McCulloch-Pitts es un modelo binario, y cada neurona tiene un escalón o umbral
prefijado. Este primer modelo sirvió de ejemplo para los modelos posteriores de Jhon Von Neumann, Marvin Minsky, Frank Rosenblatt, y
muchos otros.

Historia de las redes neuronales.

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros
teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un
matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente
Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos
eléctricos.

1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde
un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de
las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en
una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb
formaron las bases de la Teoría de las Redes Neuronales.

1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino
que era distribuida encima de él.

1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red neuronal más antigua; utilizándose hoy en día para
aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de
patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar
clases no separables linealmente.

1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron
convergía hacia un estado finito (Teorema de Convergencia del Perceptron).

1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal
aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante
varias décadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas (memoria asociativa). 1969 - Marvin
Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron
(matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función
no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en
computación y en los problemas del mundo real.
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado
quedó definitivamente aclarado en 1985.

1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que
se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.

1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas
de optimización.”

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). A partir de
1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son
numerosos los trabajos que se realizan y publican cada año, las aplicaciones nuevas que surgen (sobretodo en el área de control) y las
empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación).

4.2.1. CONCEPTOS BÁSICOS.


Redes Neuronales: son una rama de la Inteligencia Artificial. En las redes neuronales el conocimiento se incorpora mediante el aprendizaje
a partir de ejemplos.

4.2.2. CLASIFICACIÓN.
Una primera clasificación de los modelos de RN podría ser, atendiendo a su similitud con la realidad biológica:

Los modelos de tipo biológico. Este comprende las redes que tratan de simular los sistemas neuronales biológicos, así como las
funciones auditivas o algunas funciones básicas de la visión.

El modelo dirigido a aplicación. Estos modelos no tienen por qué guardar similitud con los sistemas biológicos. Sus arquitecturas están
fuertemente ligadas a las necesidades de las aplicaciones para las que son diseñados.

Redes Neuronales de tipo Biológico

Se estima que el cerebro humano contiene más de cien mil millones de neuronas y sinapsis en el sistema nervioso humano. Estudios
sobre la anatomía del cerebro humano concluyen que hay más de 1000 sinapsis a la entrada y a la salida de cada neurona. Es importante
notar que, aunque el tiempo de conmutación de la neurona (unos pocos milisegundos) es casi un millón de veces menor que en los
actuales elementos de las computadoras, ellas tienen una conectividad miles de veces superior que las actuales supercomputadoras.

El objetivo principal de las redes neuronales de tipo biológico es desarrollar un elemento sintético para verificar las hipótesis que
conciernen a los sistemas biológicos.

Las neuronas y las conexiones entre ellas (sinapsis) constituyen la clave para el procesado de la información.

La mayor parte de las neuronas poseen una estructura de árbol llamadas dendritas que reciben las señales de entrada que vienen de
otras neuronas a través de las uniones llamadas sinapsis. Algunas neuronas se comunican solo con las cercanas, mientras que otras se
conectan con miles. Hay tres partes en una neurona:

1.- el cuerpo de la neurona

2.- ramas de extensión llamadas dentrías para recibir las entradas, y

3.- un axón que lleva la salida de la neurona a las desdirías de otras neuronas.

La forma que dos neuronas interactúan no está totalmente conocida, dependiendo además de cada neurona. En general, una neurona
envía su salida a otras por su axón. El axón lleva la información por medio de diferencias de potencial, u ondas de corriente, que depende
del potencial de la neurona. Este proceso es a menudo modelado como una regla de propagación representada por la función de red u(.).
La neurona recoge las señales por su sinapsis sumando todas las influencias excitadoras e inhibidoras. Si las influencias excitadoras
positivas dominan, entonces la neurona da una señal positiva y manda este mensaje a otras neuronas por sus sinapsis de salida. En este
sentido la neurona puede ser modelada como una simple función escalón f(.). Como se muestra en la próxima figura, la neurona se activa
si la fuerza combinada de la señal de entrada es superior a un cierto nivel, en el caso general el valor de activación de la neurona viene
dado por una función de activación f(.).

Redes Neuronales para aplicaciones concretas


Las RN dirigidas a aplicación están en general poco ligadas a las redes neuronales biológicas. Ya que el conocimiento que se posee
sobre el sistema nervioso en general no es completo, se han de definir otras funcionalidades y estructuras de conexión distintas a las
vistas desde la perspectiva biológica. Las características principales de este tipo de RN son los siguientes:

Auto Organización y Adaptabilidad: utilizan algoritmos de aprendizaje adaptativo y auto organización, por lo que ofrecen posibilidades de
procesado robusto y adaptativo.

Procesado No Lineal: aumenta la capacidad de la red de aproximar, clasificar y su inmunidad frente al ruido.

Procesado paralelo: normalmente se usa un gran número de células de procesado por el alto nivel de interconectividad.

Estas características juegan un importante papel en las RN aplicadas al procesado de señal e imagen. Una red para una determinada
aplicación presenta una arquitectura muy concreta, que comprende elementos de procesado adaptativo masivo paralelo combinadas con
estructuras de interconexión de red jerárquica.

4.2.3. DESARROLLOS ACTUALES Y APLICACIONES.


Las redes neuronales pueden utilizarse en un gran número y variedad de aplicaciones, tanto comerciales como militares. Se pueden
desarrollar redes neuronales en un periodo de tiempo razonable, con la capacidad de realizar tareas concretas mejor que otras tecnologías.
Cuando se implementan mediante hardware (redes neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y
proporcionan un alto grado de paralelismo en el procesamiento de datos. Esto posibilita la inserción de redes neuronales de bajo coste en
sistemas existentes y recientemente desarrollados.

Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene una aplicación particular más apropiada. Algunas
aplicaciones comerciales son:

Biología:

- Aprender más acerca del cerebro y otros sistemas.

- Obtención de modelos de la retina.

Empresa:

- Evaluación de probabilidad de formaciones geológicas y petrolíferas.

- Identificación de candidatos para posiciones específicas.

- Explotación de bases de datos.

- Optimización de plazas y horarios en líneas de vuelo.

- Optimización del flujo del tránsito controlando convenientemente la temporización de los semáforos.

- Reconocimiento de caracteres escritos.

- Modelado de sistemas para automatización y control.

Medio ambiente:

- Analizar tendencias y patrones.

- Previsión del tiempo.

Finanzas:

- Previsión de la evolución de los precios.

- Valoración del riesgo de los créditos.

- Identificación de falsificaciones.

- Interpretación de firmas.
Manufacturación:

- Robots automatizados y sistemas de control (visión artificial y sensores de presión, temperatura, gas, etc.).

- Control de producción en líneas de procesos.

- Inspección de la calidad.

Medicina:

- Analizadores del habla para ayudar en la audición de sordos profundos.

- Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos (electrocardiograma, encefalogramas, análisis sanguíneo, etc.).

- Monitorización en cirugías.

- Predicción de reacciones adversas en los medicamentos.

- Entendimiento de la causa de los ataques cardíacos.

Militares:

- Clasificación de las señales de radar.

- Creación de armas inteligentes.

- Optimización del uso de recursos escasos.

- Reconocimiento y seguimiento en el tiro al blanco.

La mayoría de estas aplicaciones consisten en realizar un reconocimiento de patrones, como ser: buscar un patrón en una serie de
ejemplos, clasificar patrones, completar una señal a partir de valores parciales o reconstruir el patrón correcto partiendo de uno
distorsionado. Sin embargo, está creciendo el uso de redes neuronales en distintos tipos de sistemas de control.

Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales reside en el procesado paralelo, adaptativo y
no lineal. El dominio de aplicación de las redes neuronales también se lo puede clasificar de la siguiente forma: asociación y clasificación,
regeneración de patrones, regresión y generalización, y optimización.

4.3. VISIÓN ARTIFICIAL.


La visión artificial, también conocida como visión por computador (del inglés computer vision) o visión técnica, es un subcampo de la
inteligencia artificial. El propósito de la visión artificial es programar una computadora para que "entienda" una escena o las características
de una imagen.

Los objetivos típicos de la visión artificial incluyen:

- La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes (por ejemplo, caras humanas).
- La evaluación de los resultados (por ejemplo, segmentación, registro).
- Registro de diferentes imágenes de una misma escena u objeto, es decir, hacer concordar un mismo objeto en diversas
imágenes.
- Seguimiento de un objeto en una secuencia de imágenes.
- Mapeo de una escena para generar un modelo tridimensional de la escena; este modelo podría ser usado por un robot para
navegar por la escena.
- Estimación de las posturas tridimensionales de humanos.
- Búsqueda de imágenes digitales por su contenido.

Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje estadístico, geometría de proyección,
procesamiento de imágenes, teoría de grafos y otros campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva
y la computación biológica.
4.3.1. CONCEPTOS BÁSICOS.
Se puede definir la “Visión Artificial” como un campo de la “Inteligencia Artificial” que, mediante la utilización de las técnicas adecuadas,
permite la obtención, procesamiento y análisis de cualquier tipo de información especial obtenida a través de imágenes digitales.

La visión artificial la componen un conjunto de procesos destinados a realizar el análisis de imágenes. Estos procesos son: captación
de imágenes, memorización de la información, procesado e interpretación de los resultados.

4.3.2. DESARROLLOS ACTUALES Y APLICACIONES.


Con la visión artificial se pueden:

- Automatizar tareas repetitivas de inspección realizadas por operadores.


- Realizar controles de calidad de productos que no era posible verificar por métodos tradicionales.
- Realizar inspecciones de objetos sin contacto físico.
- Realizar la inspección del 100% de la producción (calidad total) a gran velocidad.
- Reducir el tiempo de ciclo en procesos automatizados.
- Realizar inspecciones en procesos donde existe diversidad de piezas con cambios frecuentes de producción.

Las principales aplicaciones de la visión artificial en la industria actual son:

- Identificación e inspección de objetos.


- Determinación de la posición de los objetos en el espacio.
- Establecimiento de relaciones espaciales entre varios objetos (guiado de robots)
- Determinación de las coordenadas importantes de un objeto.
- Realización de mediciones angulares.
- Mediciones tridimensionales.

4.4. LÓGICA DIFUSA (FUZZY LOGIC).


Fuzzy Logic tiene sus raíces en la teoría de conjuntos difusos desarrollada por Zadeh en la década de los 60, la que propone que un
elemento siempre pertenece en un cierto grado a un conjunto y nunca pertenece del todo al mismo, esto permite establecer una manera
eficiente para trabajar con incertezas, así como para acondicionar el conocimiento en forma de reglas hacia un plano cuantitativo, factible
de ser procesado por computadores.

Toda lógica consiste en formalizar el pensamiento humano, desde este punto de vista,

Lógica Clásica: Establece que cualquier enunciado o proposición puede tener un valor lógico verdadero o falso, en definitiva 1 y 0. De
esta forma es posible desarrollar toda una lógica basada en leyes de este tipo.

Lógica Difusa: En vez de trabajar con el clásico concepto de inclusión o exclusión, introduce una función que expresa el grado de
“pertenencia” de una variable hacia un atributo o “variable lingüística” tomando valores en el rango de 0 a 1.

Conjunto Difuso: Par Variable lingüística – función de pertenencia

A = {x / µ A (x) ∀ x ∈ X}

Ventajas

La principal ventaja de utilizar términos lingüísticos como: a medias, bastante, casi, un poco, mucho, algo, etc, está en que permite
plantear el problema en los mismos términos en los que lo haría un experto humano.

El éxito de esta técnica radica en que “El mundo es Fuzzy”. En otras palabras, no tiene sentido buscar la solución a un problema no
perfectamente definido por medio de un planteamiento matemático muy exacto, cuando es el ser humano el primero que razona empleando
la inexactitud.

En inteligencia artificial, la lógica difusa, o lógica borrosa se utiliza para la resolución de una variedad de problemas, principalmente
los relacionados con control de procesos industriales complejos y sistemas de decisión en general, la resolución y la compresión de datos.
Los sistemas de lógica difusa están también muy extendidos en la tecnología cotidiana, por ejemplo, en cámaras digitales, sistemas de
aire acondicionado, lavarropas, etc. Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos, con la
ventaja de ser mucho más rápidos. Estos sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de
entrada. Algunos lenguajes de programación lógica que han incorporado la lógica difusa serían por ejemplo las diversas implementaciones
de Fuzzy PROLOG o el lenguaje Fril.

Consiste en la aplicación de la lógica difusa con la intención de imitar el razonamiento humano en la programación de computadoras.
Con la lógica convencional, las computadoras pueden manipular valores estrictamente duales, como verdadero/falso, sí/no o
ligado/desligado. En la lógica difusa, se usan modelos matemáticos para representar nociones subjetivas, como caliente/tibio/frío, para
valores concretos que puedan ser manipuladas por los ordenadores.

En este paradigma, también tiene un especial valor la variable del tiempo, ya que los sistemas de control pueden necesitar
retroalimentarse en un espacio concreto de tiempo, pueden necesitarse datos anteriores para hacer una evaluación media de la situación
en un período anterior.

4.4.1. CONCEPTOS BÁSICOS.


La lógica difusa es una extensión de la lógica tradicional (Booleana) que utiliza conceptos de pertenencia de sets mas parecidos a la
manera de pensar humana.

La lógica difusa no usa valores exactos como 1 o 0 pero usa valores entre 1 y 0 (inclusive) que pueden indican valores intermedios
(Ej. 0, 0.1, 0.2, …,0.9,1.0, 1.1, …etc.)

La lógica difusa también incluye los valores 0 y 1 entonces se puede considerar como un superset o extensión de la lógica exacta.

El concepto de un subset difuso fue introducido por L.A. Zadeh en 1965 como una generalización de un subset exacto (crisp subset)
tradicional.

Los subsets exactos usan lógica Booleana con valores exactos como por ejemplo la lógica binaria que usa valores de 1 o 0 para sus
operaciones.

4.4.2. DESARROLLOS ACTUALES Y APLICACIONES.


La lógica difusa se utiliza cuando la complejidad del proceso en cuestión es muy alta y no existen modelos matemáticos precisos, para
procesos altamente no lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido (impreciso o subjetivo).

En cambio, no es una buena idea usarla cuando algún modelo matemático ya soluciona eficientemente el problema, cuando los
problemas son lineales o cuando no tienen solución.

Esta técnica se ha empleado con bastante éxito en la industria, principalmente en Japón, extendiéndose sus aplicaciones a multitud
de campos. La primera vez que se usó de forma importante fue en el metro japonés, con excelentes resultados. Posteriormente se
generalizó según la teoría de la incertidumbre desarrollada por el matemático y economista español Jaume Gil Aluja.

A continuación, se citan algunos ejemplos de su aplicación:

- Sistemas de control de acondicionadores de aire


- Sistemas de foco automático en cámaras fotográficas
- Electrodomésticos familiares (frigoríficos, lavadoras...)
- Optimización de sistemas de control industriales
- Sistemas de escritura
- Mejora en la eficiencia del uso de combustible en motores
- Sistemas expertos del conocimiento (simular el comportamiento de un experto humano)
- Tecnología informática
- Bases de datos difusas: Almacenar y consultar información imprecisa. Para este punto, por ejemplo, existe el lenguaje FSQL.

...y, en general, en la gran mayoría de los sistemas de control que no dependen de un Sí/No.

4.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN).


El recurso más importante que posee la raza humana es conocimiento, o sea información. En la época actual de información, del
manejo eficiente de este conocimiento depende el uso de todos los demás recursos naturales, industriales y humanos.
Durante toda la historia de humanidad el conocimiento, en su mayor parte se comunica, se guarda y se maneja en la forma de lenguaje
natural –griego, latín, inglés, español, etc. La época actual no es ninguna excepción: el conocimiento sigue existiendo y creándose en la
forma de documentos, libros, artículos, aunque éstos se guardan en forma electrónica, o sea digital. El gran avance es que en esta forma,
las computadoras ya pueden ser una ayuda enorme en el procesamiento de este conocimiento.

Sin embargo, lo que es conocimiento para nosotros –los seres humanos– no lo es para las computadoras. Son los archivos, unas
secuencias de caracteres, y nada más. Una computadora puede copiar tal archivo, respaldarlo, transmitirlo, borrarlo –como un burócrata
que pasa los papeles a otro burócrata sin leerlos. Pero no puede buscar las respuestas a las preguntas en este texto, hacer las inferencias
lógicas sobre su contenido, generalizar y resumirlo –es decir, hacer todo lo que las personas normalmente hacemos con el texto. Porque
no lo puede entender.

Para combatir esta situación, se dedica mucho esfuerzo, sobre todo en los países más desarrollados del mundo, al desarrollo de la
ciencia que se encarga de habilitar a las computadoras a entender el texto. Esta ciencia, en función del enfoque práctico versus teórico,
del grado en el cual se espera lograr la comprensión y de otros aspectos tiene varios nombres: procesamiento de lenguaje natural,
procesamiento de texto, tecnologías de lenguaje, lingüística computacional. En todo caso, se trata de procesar el texto por su sentido y
no como un archivo binario.

El esquema general de la mayoría de los sistemas y métodos que involucran el procesamiento de lenguaje es el siguiente:

Primero, el texto no se procesa directamente si no se transforma en una representación formal que preserva sus características
relevantes para la tarea o el método específico (por ejemplo, un conjunto de cadenas de letras, una tabla de base de datos, un conjunto
de predicados lógicos, etc.).

Luego, el programa principal manipula esta representación, transformándola según la tarea, buscando en ella las subestructuras
necesarias, etc.

Finalmente, si es necesario, los cambios hechos a la representación formal (o la respuesta generada en esta forma) se transforman
en el lenguaje natural.

Entre las tareas principales del procesamiento de lenguaje natural se puede mencionar:

- Recuperación de información,
- Interfaces en lenguaje natural,
- Traducción automática.

4.5.1. CONCEPTOS BÁSICOS.


Lenguaje: Sistema de signos complejo, estructurado.

(PLN o NLP, Natural Language Processing): Rama de la inteligencia artificial que analiza, entiende y genera los lenguajes que los humanos
usan naturalmente para relacionarse con la computadora.

Lingüística: Es la disciplina que se ocupa del estudio científico del lenguaje.

Lenguaje formal: es un lenguaje artificial o sea creado por el hombre que esta formado por símbolos y formulas y que tiene como objetivo
fundamental formalizar la programación de computadoras o representar simbólicamente un conocimiento.

4.5.2. DESARROLLOS ACTUALES Y APLICACIONES.


Proceden de la fusión de dos disciplinas: la lingüística y la informática.

Surgen del procesamiento automático de la lengua natural: los elementos de la lengua –fonemas, morfemas, palabras, oraciones,
textos y las reglas que rigen el funcionamiento comienzan a sistematizarse para ser informatizados, consiguiéndose con ello realizar
automáticamente tareas lingüísticas.

Estas aplicaciones tienen en cuenta la disciplina o disciplinas lingüísticas dentro de las cuales puedan encuadrarse. a pesar de que
muchas de ellas convergen en un mismo producto: por ejemplo, en el caso de la traducción automática se necesitan analizadores
morfológicos, sintácticos y semánticos, además de reconocimiento y síntesis de voz.

TECNOLOGÍAS DEL HABLA


Las tres áreas básicas que configuran las tecnologías del habla son:

1.- La síntesis del habla (el ordenador proporciona información oral). Este tipo de aplicaciones informáticas Permite la generación de
mensajes hablados a partir de un texto escrito almacenado en formato electrónico. Suelen emplear los sistemas de conversión de texto
en habla, que constan por lo general de un módulo de procesamiento lingüístico, en el que se llevan a cabo una trascripción fonética y un
análisis lingüístico más o menos detallado del texto de entrada y de otro que se ocupa de los aspectos más ligados al tratamiento
informático de la señal sonora. Las personas con discapacidad visual pueden por ejemplo acceder a la información a través de los sistemas
que convierten el texto escrito en texto hablado.

2.- El reconocimiento del habla (el ordenador procesa los enunciados emitidos por un interlocutor). Este tipo de aplicaciones procede
realizando a una operación inversa a la llevada a cabo en la síntesis: la onda sonora portadora de un mensaje se convierte en una
representación simbólica, que suele ser un texto escrito. El ordenador recibe los sonidos del habla en forma de ondas analógicas que se
analizan para identificar las unidades que constituyen las palabras (fonemas).

3.- Los sistemas de diálogo (comunicación bidireccional). Constan de un módulo de reconocimiento automático del habla, un sistema
de comprensión que se ocupa de la interpretación del enunciado, un módulo de generación que crea un texto con los resultados de una
consulta a una base de datos o con la respuesta adecuada a la conversación entre usuario y sistema, y de un conversor de texto en habla
que transforma esta respuesta en su equivalente sonoro. Estas operaciones están coordinadas por un módulo de gestión del diálogo,
responsable de los turnos de palabra, de la coherencia entre preguntas y respuestas y de todos aquellos aspectos que hacen que la
interacción entre la persona y el ordenador sea lo más natural posible. El módulo de reconocimiento debe procesar la información acústica
que contiene el mensaje que recibe del usuario para poder interpretarlo semánticamente.

TECNOLOGÍAS DEL TEXTO

Aplicaciones informáticas basadas en el análisis morfológico, sintáctico y semántico del texto:

Analizadores morfológicos / Generadores

Analizadores sintácticos

Correctores

Desambiguadores

Traductores

Textos predictivos

4.6. SISTEMAS EXPERTOS (SE).


Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a
través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez,
demostrara teoremas matemáticos, etc.

No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar
trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no es sustituir a los expertos, sino que estos
sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un
enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por
subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas
que contienen. Sin embargo, la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la
separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas
adecuadas (Motor de inferencias).

Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de
Inferencias (MI). Por otra parte, estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas
que hay contenida en su Base de Conocimientos.
Para desarrollar los sistemas expertos primero es necesario abordar un área de interés, dentro de esta área se seleccionan a los
expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de las empresas de
proyectos, son precisamente los proyectos y un especialista podría ser un arquitecto, un ingeniero civil, etc. Ahora bien, casi siempre estos
especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia (Dominio de
Experticidad), por ejemplo, un Ing. civil especializado en cimientos.

Una vez seleccionado al experto o a los expertos y estos estén de acuerdo en dar sus conocimientos, comienza a jugar su papel el
“Ingeniero de Conocimientos”, que es el encargado de extraerle los conocimientos al experto y darle una representación adecuada, ya
sea en forma de reglas u otro tipo de representación, conformando así la base de conocimientos del sistema experto.

Formas de representación de los conocimientos:

Reglas de producción

Redes semánticas

Marcos (Frames).

La forma de representación más usada es por reglas de producción, también llamadas reglas de inferencias. Casi todos los sistemas
expertos están basados en este tipo de representación, ahora nos ocuparemos de los sistemas basados en reglas.

Las reglas de producción son del tipo:

SI Premisa ENTONCES Conclusión (SI A ENTONCES B).

Donde tanto las premisas como la conclusión, no son más que una cadena de hechos conectados por “Y” o por “O”, de forma general
sería:

SI Hecho1 Y/O Hecho2 Y/O… HechoN ENTONCES Hecho1 Y/O … HechoN

Los hechos son afirmaciones que sirven para representar conceptos, datos, objetos, etc. Y el conjunto de hechos que describen el
problema es la base de hechos.

Ejemplo de hechos:

Juan es un estudiante

Juan tiene 8 años

el perro es blanco

a María le gusta el cine

Pedro prefiere la película

la edad de Luis es de 25 años

Pedro tiene un salario de 200 pesos

Una regla es una combinación de hechos que permite representar conocimientos y sacar inferencias de los mismos.

Ejemplo de reglas:

R1: SI Juan es estudiante Y Juan tiene 8 años Entonces Juan estudia en la primaria.

R2: SI el perro es blanco Y el perro se llama Dinky ENTONCES el perro es de Juan.

R3: SI a María le gusta la película Y Juan prefiere la pelota ENTONCES hacen falta e televisores

Observe como partiendo de hechos conocidos que describen algún conocimiento se pueden inferir nuevos hechos (nuevos
conocimientos), por otra parte la regla #2 (R2), no tiene porque ser totalmente cierta, existe la posibilidad de que el perro sea de Juan,
quizás se puede afirmar, si fuéramos a cuantificar esa posibilidad, que el perro pertenece a Juan con una certeza de un 80%, y por último
la regla #3 (R3) es dependiente del contexto, ya que aquí se supone que ambos viven juntos y que los programas de TV coinciden.
La Base de Conocimientos (BC).

Son el conjunto de reglas que permiten representar los conocimientos del dominio de experto donde cada regla aisladamente tiene
significado propio. Normalmente los conocimientos son de tipo declarativo por lo cual la BC casi siempre es una descripción de los
conocimientos del experto, por lo tanto, requiere de algún mecanismo que obtenga las inferencias adecuadas para resolver el problema,
alguien que seleccione las reglas y las vaya ejecutando, ese alguien es el motor de inferencias.

El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para
ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.

Estrategias de control sistemático:

- Encadenamiento hacia adelante o hacia atrás.


- Búsqueda en profundidad o a lo ancho.
- Régimen de control irrevocable o por tentativa.

Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático
es un programa de control hecho de forma “algorítmica” que aplican una heurística de propósito general cuya función es una exploración
exhaustiva y metódica de la base de conocimientos.

Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado
rígida, para resolver esto se idearon las estrategias de control heurísticas.

Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección
más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma
el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control
nuevamente al sistemático.

Estrategias de control heurísticas:

- Orden de las reglas.


- Mayor credibilidad en las reglas.
- Menor número de cláusulas no instanciadas.
- Mayor número de conclusiones en las reglas.

Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de
conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado
dominio del saber.

4.6.1. CONCEPTOS BÁSICOS.


Un Sistema Experto (SE), es básicamente un programa de computadora basado en conocimientos y raciocinio que lleva a cabo tareas
que generalmente sólo realiza un experto humano; es decir, es un programa que imita el comportamiento humano en el sentido de que
utiliza la información que le es proporcionada para poder dar una opinión sobre un tema en especial.

Un experto humano es una persona que es competente en un área determinada del conocimiento o del saber. Un experto humano es
alguien que sabe mucho sobre un tema determinado y que puede dar un consejo adecuado.

4.6.2. CLASIFICACIÓN.
Por la naturaleza de la tarea a realizar: así se tiene cuatro posibilidades:

* Diagnostico o Clasificación: se conocen soluciones y se tratan de clasificarlas o diagnosticarlas en función de una serie de datos. Por
ejemplo:

sistema de diagnóstico médico.

* Monitorización: análisis del comportamiento de un sistema buscando

posibles fallos, en este caso es importante contemplar la evolución del


sistema pues no siempre los mismos datos dan lugar a idénticas soluciones.

* Diseño: se busca la construcción de la solución a un problema, que en

principio es desconocida, a partir de datos y restricciones a satisfacer.

* Predicción: se estudia el comportamiento de un sistema.

Por la interacción del usuario:

* Apoyo: el sistema aconseja el usuario, que mantiene la capacidad de una

última decisión. Por ejemplo, el diagnóstico médico.

* Critica: Su misión es analizar y criticar decisiones tomadas por el usuario.

Por la limitación de tiempo para tomar decisiones:

* Tiempo ilimitado: por ejemplo, aquellos que emplean conocimiento casual,

que busca orígenes de un problema que ha ocurrido y cuyo análisis no

necesita ser inmediato.

* Tiempo limitado (tiempo real): sistemas que necesitan actuar controlando o

monitorizando dispositivos y que han de tomar decisiones inmediatas frente

a los problemas que surjan. Por ejemplo, el control de una red de

comunicaciones.

Por la variabilidad temporal del conocimiento:

* Estáticos: la base del conocimiento no se altera durante el proceso de decisión.

* Dinámicos: ocurren cambios en la base de conocimiento durante la toma de

decisiones. Estos cambios pueden ser predecibles o impredecibles y además

pueden, bien añadir información, bien modificar la información ya existente.

Por la naturaleza del conocimiento almacenado:

* Basado en experiencia: el conocimiento se basa en experiencias o hechos

ocasionados conocidos por el experto, pero sin que existe una causa clara

para los efectos que se observan.

* Basado en relaciones causa-efecto.

Por la certeza de la información:

*Completa o perfecta: se conocen todos los datos y reglas necesarios para la decisión.
* Imperfecta: que puede ser incompleta (falta información para tomar

decisiones), Datos inciertos (o no confirmados), Conocimientos incierto

(reglas no siempre validas), Terminología ambigua (dobles sentidos, etc.).

4.6.3. DESARROLLOS ACTUALES Y APLICACIONES.


Las principales aplicaciones de los sistemas expertos son las relacionadas con el mundo empresarial. Esto se debe a que resultan
muy útiles en funciones como la contabilidad, tesorería, gestiones internas…El campo que más aplicaciones de sistemas expertos esta
realizando es el de la auditoría.

Pero los sistemas expertos son aplicados en muchas más áreas con resultados satisfactorios. Algunas de las principales son:
telecomunicaciones, medicina, militar, derecho, aeronáutica, geología, electrónica…

A continuación, se presentan algunos Sistemas Expertos que se han desarrollado para la solución de diversos problemas.

MYCIN es un Sistema Experto para la realización de diagnósticos en el área de la medicina, iniciado por Ed Feigenbaum y posteriormente
desarrollado por E. Shortliffe y sus colaboradores. Su función es la de aconsejar a los médicos en la investigación y determinación de
diagnósticos en el campo de las enfermedades infecciosas de la sangre[CRIA].

XCON es un Sistema Experto para configuraciones, desarrollado por la Digital Equipment Corporation. Según los deseos individuales del
cliente se configuran redes de ordenadores VAX. Ya que el abanico de productos que se ofrecen en el mercado es muy amplio, la
configuración completa y correcta de un sistema de estas características es un problema de gran complejidad. Responde esencialmente
a dos preguntas: ¿Pueden conjugarse los componentes solicitados por el cliente de forma conveniente y razonable? Y ¿Los componentes
de sistema especificados son compatibles y completos? Las respuestas a estas preguntas son muy detalladas. XCON es capaz de
comprobar y completar los pedidos entrantes mucho más rápido y mejor que las personas encargadas de hacerlo antes que él [CRIA].

DELTA, sistema experto que ayuda a los mecánicos en el diagnóstico y reparación de locomotoras diésel-eléctricas, DELTA no sólo da
consejos expertos, sino que también presenta informaciones por medio de un reproductor de vídeo [IBAR].

En 1978 se desarrolló otro sistema experto de éxito: PROSPECTOR. Este quizás impulso más la carrera por desarrollar mejores
sistemas expertos, dado que su misión era predecir la posibilidad de encontrar depósitos de minerales en una región en concreto.
Minerales como petróleo, gas natural, helio.

La composición de un Sistema Experto, sus aplicaciones, ventajas y desventajas, y algunos ejemplos sobre estos; han sido los puntos
generales que se han tratado a lo largo de este artículo, con el fin de crear una mayor conciencia del uso real de este tipo de sistemas.

Un sistema experto puede, sin duda alguna, darnos el mismo resultado que un experto humano; lo que sí debemos reconocer es que
ningún sistema experto, hasta ahora, puede resolver diferentes problemáticas dentro de una empresa, ya que estos son siempre muy
específicos. Sin embargo, es de esperarse que con los avances que tienen las herramientas tecnológicas se produzcan un desarrollo
cercano al comportamiento humano en muchas áreas, con estos avances en el terreno de los negocios se podría ser más eficiente y
productivo.

A pesar de los dramáticos avances logrados, la inteligencia artificial no ha sido capaz de desarrollar sistemas capaces de resolver
problemas de tipo general, de aplicar sentido común para la solución de situaciones complejas, de manejar situaciones ambiguas ni de
utilizar efectivamente información incompleta. Estas últimas son características inherentes de la inteligencia natural.

You might also like