You are on page 1of 5

INTRODUCCIN

Una de las nuevas herramientas con que cuenta el desarrollo de productos electrnicos, es
la Inteligencia Artificial (IA), a travs de ella, se implementan una serie de algoritmos que
permiten realizar prototipos, llamados inteligentes, pues usan procesos de aprendizaje
autnomo y adaptable, generando avances tecnolgicos cada vez ms verstiles.
El objeto de estudio es la implementacin de los algoritmos usados en inteligencia
artificial, para comprobar su desempeo, luego generar el material didctico que permita su
divulgacin, usando los diseos elaborados, fruto de la investigacin. En ste caso se toman
dos referentes, uno las Redes Neuronales, dado su impacto e importancia en el desarrollo de
algoritmos, que emulan el comportamiento del cerebro humano, frente a los algoritmos
genticos, los cuales se adaptan a la situacin que se enfrentan, obedeciendo a las leyes de
la gentica evolutiva en la arquitectura del programa.
La Inteligencia Artificial (IA), nace en la dcada de los 40, con la mquina de Alan
Turing3, comprobndose que un proceso puede implementarse en un dispositivo
electrnico. A travs de su historia, se han concebido ideas que se llevan a la prctica,
mediante algoritmos, cada uno de ellos con caractersticas especficas, pero que buscan el
mismo objetivo, generar dispositivos inteligentes, que suplan las tareas que para el ser
humano, son repetitivas o que requieren de alta precisin, alta velocidad de procesamiento
y respuesta, aunque la teora va un paso delante de la aplicacin, hoy en da se han
efectuado un sinnmero de aplicaciones. En nuestro pas, el desarrollo tecnolgico se da en
los procesos de investigacin, mercadeo de innovaciones, tecnologas de la informacin y
telecomunicaciones, asistencia tcnica y consultora, ingeniera y diseo industrial, entre
otros, requiriendo profesionales con experiencia en las ltimas tendencias, usadas en
mencionado campo del desarrollo tecnolgico (Inteligencia Artificial).
La vida artificial es conceptualmente parecida a la inteligencia artificial, aunque -por
supuesto- existen una serie de diferencias clave. Mientras la ltima intenta comprender y
abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y abstraer la

esencia conceptual de los sistemas vivos. No obstante, la lnea divisoria entre ellas es
bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto que muchos
investigadores predicen que convergern en el futuro. La inteligencia, en definitiva, es un
producto de la evolucin; y dado que la vida biolgica y la inteligencia son mutuamente
dependientes, tambin la vida artificial y la inteligencia artificial exhiben una cierta
codependencia.
La arquitectura bsica de estos sistemas consiste en un abrumador nmero de criaturas
relativamente simples, que forman densas redes de interaccin y operan paralela y
simultneamente sin que exista un control central. Los comportamientos individuales no
estn programados implcitamente; los cientficos slo se limitan a darles un conjunto
reducido de reglas de interaccin que especifican lo que debe hacer cada una de ellas de
acuerdo con la situacin en que se encuentre. Nadie es capaz de saber con precisin qu
actitud tomar cualquiera de ellas en un momento dado.
El uso de la inteligencia artificial se ha convertido en ms comn en los sistemas de control
industriales y de procesos de fabricacin en los ltimos aos. Las ventajas de los sistemas
de inteligencia artificial incluyen: la rpida transferencia de conocimiento experto en toda
una industria, especialmente las industrias jvenes que no cuentan con suficientes expertos
disponibles; una reduccin de los costes laborales debido a la automatizacin de todas las
funciones primarias; la estabilidad y la mejora de la eficiencia del proceso; y una mejor
comprensin del proceso a travs del desarrollo y las pruebas de las reglas.
Una meta fundamental de la inteligencia artificial (IA), es la manipulacin del lenguaje
natural utilizando herramientas de computacin (programas). Los lenguajes formales
(programacin) juegan un papel importante, ya que facilitaran el enlace necesario entre los
lenguajes naturales y su manipulacin por una mquina.
El presente proyecto es una estrategia pertinente, que busca dar respuesta a la imperante
necesidad de apoyar a los estudiantes, de los programas de Ingeniera Agroindustrial, para
explorar los algoritmos relacionados con la inteligencia artificial, dada la necesidad
evidente, abriendo los espacios y ofreciendo como objeto de estudio la comparacin de los
niveles de desempeo de los algoritmos usados en inteligencia artificial, generando material
didctico que permita evidenciar dicho parmetro de comparacin, inicialmente usando los
algoritmos de las redes neuronales y los algoritmos genticos.

ANTECEDENTES
Se puede considerar que el primer estudio sitemtico sobre redes neuronales se debe a
MacCulloch y Pitts los cuales publicaron en 1943 y 1947 el primero modelo computacional
de una neurona biolgica.
El trabajo de MacCulloch y Pitts se centr bsicamente en modelizar una neurona
describiendo los elementos bsicos de una nica neurona artificial si bien nunca dieron el
paso a construir redes de neuronas artificiales.
El siguiente paso relevante lo constituye el trabajo de Donald Hebb, el cual public en 1961
su obra titulada La organizacin de la conducta en la cual aparece enunciado su famoso
principio de aprendizaje por refuerzo. El conocido como aprendizaje hebbiano defiende
que el peso o la intensidad de una conexin sinpticas e incrementa siempre que se activan
simultneamente el input y el output de una neurona.
Este modelo de aprendizaje propuesto por Hebb constituir la base de todos los sistemas de
aprendizaje por refuerzo de las distintas redes neuronales tambin denominados
aprendizaje no supervisado.
El siguiente paso fue dado por Rosenblatt el cual public un trabajo centrado en lo que se
denominar aprendizaje supervisado. Si en los modelos basados en el aprendizaje
hebbiano no se tiene en cuenta la seal deseada, ahora, en estos nuevos modelos de
aprendizaje ser fundamental la salida que se quiere obtener.
La diferencia entre la seal producida por la red neuronal y la seal deseada ser el error de
salida el cual ser necesario ir corrigiendo disminuyendo dicho error hasta que ambos
outputs coincidan en cuyo caso la red habr aprendido. Dicha disminucin del error se
produce mediante sucesivas iteraciones en las que, en cada una de ellas, se lanza un patrn
de inputs y en las sucesivas iteraciones se van corrigiendo el valor de los pesos sinpticos
hasta que se encuentre una combinacin de dichos pesos que produce el output buscado. A
este tipo de redes con la regla de aprendizaje supervisado se les denominar perceptrones
o perceptrn de Rossenbalt.

Por las mismas fechas, a inicios de los 60, Widrow

y Hoff publicaron sus trabajos

proponiendo lo que se denomina ADALINE (ADAptive LINear Elements) con el algoritmo


de aprendizaje denominado LMS (Least Mean Square) dentro del grupo de sistemas de
aprendizaje supervisado y basado en perceptrones.
Pero si el programa conexionista pareca avanzar con fuerza, el trabajo de Minsky y Papert
mostr qu clases de funciones no eran computables por los perceptrones lo cual supuso un
serio revs para esta lnea de investigacin. Uno de los ejemplos de funcin no compatible
que pusieron de manifiesto Minsky y Papert fue la funcin XOR (disyuncin exclusiva)
dado que no es una funcin linealmente separable.
Si bien la crtica de Minsky y Papert supuso un parn importante en el desarrollo de este
programa de investigacin debido tambin a su enorme prestigio, la existencia de este
problema ya era conocida por lo que se propuso el denominado perceptrn multicapa o
MLP (Multi Layer Perceptron). No obstante, Minsky y Papert alegaban que incluso en el
caso de perceptrones multicapa los algoritmos de aprendizaje no eran bien conocidos. Por
todo ello la investigacin dentro de esta lnea se paraliz durante casi veinte aos.
A pesar de dicha paralizacin, despus del parn mencionado, se pudo demostrar que
empleando funciones sigmoideas como funcin de salida de cada neurona es posible llevar
a cabo cualquier clase de clasificacin. Es cierto, como argumentaban Minsky y Papert, que
los perceptrones de una sola capa no funcionan ms que como meros discriminadores. No
obstante,

con

la

introduccin

del

algoritmo

de

aprendizaje

conocido

como

retropropagacin (backpropagation) y el empleo de funciones sigmoideas, el hecho es


que las redes multicapa se convierten en aproximadores resolviendo cualquier problema
de clasificacin.
Se puede decir que el desarrollo del algoritmo de retropropagacin super el parn
generado por lacrtica de Minsky y Papert dando nuevo vigor al programa conexionista.
Dicho algoritmo fue desarrollado de manera independiente por autores como Werbos,
Rumelhart et al. (conocido como Grupo PDP Parallel Distributed Processing Research
Group-) y Parker en fechas casi simultneas.

You might also like