You are on page 1of 32

Universidad Tecnológica de Honduras

Asignatura:
Procesos de manufactura II

Catedrático:
Ing. Guillermo Miralda Pérez

Tarea:
Investigación

Alumnos:
Amilcar Pérez López 201510010174
Gezer Ismael Figueroa 201510011107
Mario Eduardo Alvarez 201310010997

11 de Noviembre del 2018


Índice

Introducción ............................................................................................................ 3

Objetivos ................................................................................................................ 4

Marco teórico ………………………………………………………...…………………....5

Manufactura Holonica ………………………………………………………….………...5

Redes neuronales artificiales …………………………………………………………..14

Lógica Difusa ………………………...…………………………………………………..19

Nanotecnología ……………………………………………...…………………………..25

Conclusión ............................................................................................................ 32

2
Introducción

En el presente trabajo se realizará una investigación, posteriormente un estudio


sobre numerosos temas, estos de tipo innovador y tecnológico, los cuales son:
Manufactura Holonica, Redes neuronales Artificiales, Lógica Difusa &
Nanotecnología donde mencionaremos la definición, la arquitectura, el
funcionamiento, las técnicas de visualización, abordaremos las tareas que cumple
estas tecnologías, todo esto lo elaboramos de una forma resumida para que sea
mas atractiva para el lector, resaltando los puntos que creemos son los mas
importantes para poder adentrarse en estos mundos tecnológicos y poder aprender
de estos sistemas de forma concreta.

3
Objetivos Generales

 Dar a conocer las diferentes tecnologías Manufactura Holonica, Redes


neuronales Artificiales, Lógica Difusa & Nanotecnología

Objetivos Específicos

 Identificar las características, componentes y arquitectura de las


tecnologías.
 Mostrar en que campo se utilizan o se desarrollan cada una de las
tecnologías ya mencionadas
 Mostrar las técnicas de aplicación de cada unas las tecnologías ya
mencionadas.

4
Manufactura Holonica
El elemento central de este paradigma es el holón, término acuñado por Koestler.
Este filósofo húngaro observó que los organismos vivos y las organizaciones
sociales autosuficientes estaban formados por diferentes unidades fácilmente
identificables, que podían a su vez estar divididas en otras unidades y/o pertenecer
a otras unidades mayores. Estas entidades que poseen a la vez las características
del todo y de las partes, se denominaron holones.

El consorcio HMS (Holonic Manufacturing System) ha traducido los conceptos que


Koestler desarrolló para las organizaciones y organismos vivos en un conjunto de
conceptos apropiados para los sistemas de fabricación.

El consorcio del HMS desarrolló la siguiente lista de definiciones para ajustar los
conceptos de Koestler al campo de la fabricación:

 Holón: bloque autónomo y cooperativo de un sistema de fabricación que


transforma, transporta, almacena y/o valida información. Un holón puede ser
también una parte física del proceso. Un holón puede, incluso ser parte de
otro holón.

 Autonomía: capacidad de una entidad para crear y para controlar la


ejecución de sus propios planes y/o estrategias.

 Cooperación: mecanismo por el que un conjunto de entidades desarrolla y


ejecuta planes mutuamente aceptables.

 Holarquía: conjunto de holones que pueden cooperar para alcanzar una


meta o un objetivo. La holarquía define las reglas básicas para la cooperación
de los holones limitando su autonomía.

 Sistema de fabricación holónico (HMS): holarquía que integra el conjunto


de actividades de fabricación desde el aprovisionamiento hasta la
comercialización pasando por el diseño y la producción.

 Cualidades holónicas: cualidades de una entidad que hacen de ella un


holón. El conjunto mínimo es autonomía y capacidad de cooperación.

 Holonomía: grado por el cual una entidad exhibe cualidades holónicas.

MANUFACTURA HOLONICA

5
Un sistema de fabricación holónico es un sistema de fabricación en el cual los
diferentes elementos que lo componen son modelados como holones, siendo estos
unas entidades autónomas y cooperantes. Desde este punto de vista, pueden
desarrollarse sistemas de programación y control de la producción más eficientes,
robustos ante posibles perturbaciones y adaptables a cambios

La manufactura holónica es un nuevo concepto que describe una organización única


de unidades de manufactura. El término holonica proviene del griego hatos (que
significa "conjunto") y del sufijo on (que significa "parte de"). De ahí que cada
componente en un sistema de manufactura holónica sea al mismo tiempo una
entidad independiente (o un todo) y una parte subordinada de una organización
jerárquica. Dicho sistema tiene un benéfico impacto potencial en las operaciones de
manufactura integradas por computadora.
Es un nuevo concepto que describe una organización única de unidades de
manufactura.
Una perspectiva de los sistemas holónicos de las operaciones de manufactura
consiste en crear un ambiente de trabajo de manufactura desde los niveles básicos.

Desde la década de 1960 se estudian los sistemas organizacionales holónicos y


existen muchos ejemplos en sistemas biológicos. Se pueden señalar tres
observaciones fundamentales sobre estos sistemas:

1. Los sistemas complejos se desarrollan a partir de sistemas simples mucho


más rápidamente si hay formas intermedias estables que si no las hay.
También, por su evolución, los sistemas estables y complejos requieren un
sistema jerárquico.
2. Los holones son simultáneamente un todo independiente para sus partes
subordinadas, y partes dependientes de otros sistemas. Son unidades
autónomas que tienen un alto grado de independencia y pueden manejar
contingencias sin pedir instrucciones a sus superiores jerárquicos. Al mismo
tiempo, los holones se someten al control de múltiples niveles de sistemas
superiores.
3. Una holarquía consiste en (a) conjuntos autónomos a cargo de sus propias
partes;(b) partes dependientes controladas por superiores jerárquicos, y (e)
se coordinan de acuerdo con su ambiente local.

6
En los sistemas biológicos, las jerarquías tienen las características de estabilidad
frente a perturbaciones, uso óptimo de los recursos disponibles y alto nivel de
flexibilidad cuando su ambiente cambia.

Un holón de manufactura es un bloque de construcción autónomo y cooperativo de


un sistema de manufactura para la producción, el almacenamiento y la transferencia
de objetos o de información. Consta de una parte de control y una parte opcional de
procesamiento físico. Por ejemplo, un holón puede ser la combinación de una
fresadora CNC y un operador que interactúa por medio de una interfaz apropiada.
Un holón también puede constar de otros holones que proporcionan el
procesamiento, la información e interfaces humanas necesarios para el mundo
exterior, como un grupo de celdas de manufactura. Las holarquías se pueden crear
y disolver en forma dinámica, dependiendo de las necesidades actuales del proceso
específico de manufactura.

Una perspectiva de los sistemas holónicos de las operaciones de manufactura


consiste en crear un ambiente de trabajo de manufactura desde los niveles básicos.
La máxima flexibilidad se puede lograr proporcionando inteligencia dentro de los
holones para (a)dar soporte a todas las funciones de producción y control requeridas
a fin de completarlas tareas de producción, y (b) manejar el equipo y los sistemas
correspondientes. El sistema de manufactura se puede reconfigurar de manera
dinámica en jerarquías operativas para producir en forma óptima los productos
deseados, con holones o elementos que se adicionan o eliminan según sea
necesario.

Los sistemas de manufactura holárquicos se basan en la comunicación rápida y


efectiva entre holones, en oposición al control jerárquico tradicional en el que es
fundamental la potencia individual de procesamiento. Se ha propuesto una gran

7
cantidad de arreglos específicos y algoritmos de software para los sistemas
holárquicos. Una descripción detallada de éstos se encuentra más allá del alcance
de este libro. Sin embargo, la secuencia general de eventos se puede resumir de la
siguiente manera:

1. Una fábrica consta de varios holones de recursos, disponibles como


entidades separadas en una agrupación de recursos. Por ejemplo, los
holones disponibles pueden constar de (a) una fresadora CNC y un operador;
(b) una rectificadora CNC y un operador, y (e) un torno CNC y un operador.

2. Al recibir una orden o instrucción de superiores jerárquicos de la fábrica, se


forma un holón de orden y empieza a comunicarse y negociar con los holones
de recursos disponibles.

3. Las negociaciones conducen a una agrupación auto-organizada de holones


de recursos, que se asignan de acuerdo con los requisitos de los productos,
la disponibilidadde los holones de recursos y los requisitos del cliente. Por
ejemplo, cierto productopuede requerir un torno CNC, rectificadora CNC y
estación automatizada de inspección para organizados en un holón de
producción.

4. En caso de descompostura, falta de disponibilidad de máquinas o


requerimientos de cambio del cliente, se pueden agregar o eliminar holones
de la agrupación de holones según se necesite, permitiendo que se
reorganice el holón de producción. Los obstáculos para la producción se
pueden identificar y eliminar mediante la comunicación y negociación entre
los holones en la agrupación de recursos.

8
Estudio de Problemas para la implementación de los
sistemas Flexibles de Manufactura
Hoy en día las empresas tienden a proponer sus productos en los ámbitos
nacionales e internacionales y estamos en un mundo globalizado donde se deben
de producir de una más eficientes, rápidas y flexibles. Para ello se debe realizar el
estudio del problema desde un enfoque hacia el mejoramiento, las estrategias de
planeación estratégica gerencial, de producción, las decisiones de no inversión en
tecnología de punta e informática, etc.
Entre los problemas más comunes que se pueden presentar tenemos:
 Resistencia al cambio.
 Resistencia del aprendizaje.
 Ausencia de estrategias de planeación.
 Ausencia de un modelo de un sistema de producción
 Estructura organizacional demasiado vertical
 Mano de obra directa no entrenada suficientemente.
 Toma de decisión en invertir tecnología en algunos sectores de producción
 y operacionales
 Tiempos de ciclos y cálculo de operadores mal estimados.
 Falta de respeto a la ergonomía dentro de las áreas operacionales.
 Ausencia de mantenimiento al equipo operacional

Por esta razón muchas empresas han optado como complemento la


automatización, donde se usan los sistemas o elementos computarizados y
electromecánicos para controlar maquinarias y/o procesos industriales
sustituyendo a operadores humanos. Los PLCs surgen en 1969 con la División
Hydramatic de la General Motors, que instaló el primer PLC para reemplazar los
sistemas inflexibles alambrados usados hasta entonces en sus líneas de
producción. Los PLCs pequeños son compactos y contienen en un solo cajón
todos los componentes, por lo que se les llama "cajas de zapatos". En cambio, los
mayores son de tipo modular y sus diferentes partes se conectan de manera que
puedan ser reemplazadas individualmente.
La productividad, depende de factores internos y externos; por eso se propone un
enfoque holístico para analizar los factores que determinan la productividad y
centrando la atención en los factores internos que se relacionan con los procesos
dinámicos de la empresa, como los que despliegan los trabajadores, empleados y
directivos.

9
Tipos de procesos holonicos

Unidad holónica de producción: sistema holónica embebido

En un sistema holónica de producción, el objetivo es lograr un espectro completo


del rango de la función de control que va desde los planes de producción que
controlan al nivel más alto hasta los procesos/máquinas que controlan el más bajo
nivel [9, 10].
La automatización integral de sistemas plantea tener una visión global del proceso
productivo, donde cada elemento que interviene en la producción debe ser tomado
en cuenta para poder controlar, supervisar y gestionar la producción. El
esquema de automatización se basa en la construcción de modelos que
representan la Unidad de Producción tanto en su aspecto estructural, como en
su dinámica. Los esquemas de control aseguran que el comportamiento del
sistema esté dentro de lo deseado, para lo cual el conocimiento que se tiene del
estado del sistema permite evaluar cuáles deben ser las acciones de control
viables, con el fin de asegurar que el sistema alcance el estado deseado. En el
sistema, el control está supeditado al objetivo fijado a la Unidad de Producción, y
los objetivos están determinados en base a lo que la UP puede hacer. Cada
proceso que conforma la UP tiene un comportamiento propio que depende de las
leyes físicas-químicas ante una condición de operación dada, concibiendo
modelos continuos, discretizados, o discretos. El conjunto de estos procesos
describe una dinámica que se puede plasmar formalmente como un Sistema
Dinámico Híbrido, pero clásicamente se describe mediante Sistemas Dinámicos a
Eventos Discretos. Al tener esta descripción dinámica, el comportamiento puede
ser controlado por un sistema supervisorio automático o mediante la intervención
humana.

Holón con lazo de control u Holón Lazo Controlado

La unidad funcional básica para la automatización de un sistema de producción es


el lazo de control. Si al lazo de control se le agrega como parte de su inteligencia,
el diagnóstico y la tolerancia a fallas de los elementos que lo conforman y de los
procesos que en él se llevan a cabo, se puede redefinir al lazo control como el Holón
Lazo Controlado (HLC). El Holón Lazo Controlado está conformado por un cuerpo
que contiene al proceso físico en el cual están implícitos los actuadores y el conjunto
de sensores que permiten medir variables de estado y cuyo modelo, sin perder
generalidad, se puede describir por medio de ecuaciones dinámicas de estado
propias. El cuello está conformado por toda la arquitectura teleinformática y las
aplicaciones que son capaces de capturar, tratar, almacenar, adecuar y transferir
información tanto del sensor, como hacia el actuador. La cabeza o controlador
tolerante a fallos está conformada por un mecanismo de toma de decisiones y por
un mecanismo de auto-diagnóstico. Ambos mecanismos son algoritmos que deben
ser implementarles en computadores. El mecanismo de toma de decisiones puede
tener una forma rígida (por ejemplo PID) o no (por ejemplo red neuronal) diseñada
a partir del modelo físico del proceso (modelo de conocimiento) que es capaz de

10
regular a un punto de operación y cuyo modelo, sin perder generalidad puede ser
descrito por ecuaciones dinámicas y/o algebraicas dependientes del punto de
operación, del estado o salida y de parámetros que se establecen por la región de
operación. Así descrito, el Holón Lazo Controlado es un sistema autónomo en donde
entran productos y tiene como objetivo generar productos, su consigna es
información sobre el tipo de controlador a usar, a qué punto de operación debe llegar
y cuáles son los parámetros del controlador a usar. La información que se genera
da como resultado la información requerida para establecer la negociación, así
como el seguimiento del cumplimiento de la consigna dada por el punto de
operación. Está información es mostrada en pertinentes variables de estado.

Holón con proceso supervisado u Holón Proceso Supervisado

Como se sabe un proceso posee más de un lazo de control. Cada lazo de control
se ha redefinido como el Holón Lazo Controlado. Todos los Holones Lazos
Controlados conforman el proceso controlado. La gestión del proceso controlado
recae en un supervisor. El mecanismo de toma de decisiones de un supervisor
convencional se encarga de asignar: consignas, tipos de controlador o parámetros
para un controlador, a partir de un método de producción instanciado. Si se le
agrega como parte de la inteligencia del supervisor, el diagnóstico de los elementos
que conforman el proceso controlado y de la gestión entre ellos incluyendo
tolerancia a fallas, entonces se puede redefinir al proceso supervisado como el
Holón Proceso Supervisado (HPS).
Sin perder generalidad, el proceso controlado es un proceso que tiene i modelos
(quizás más de uno por lazo controlado), cada modelo tiene un conjunto m de
valores nominales de operación que pueden ser alcanzados con un conjunto j de
tipos de controladores, los cuales son ajustados bajo un criterio determinado por el
lazo con n de parámetros.

Así, el Holón Proceso Supervisado está conformado por un cuerpo que contiene al
proceso controlado, cuya salida es el estado de los equipos y desviaciones de las
consignas, y cuya entrada son: las consignas, tipo y parámetros de los
controladores a usar, en función de un conjunto de tareas a cumplir, evaluadas y
negociadas previamente. El cuello está conformado por toda la arquitectura
teleinformática y aplicaciones que permiten detectar y enviar eventos, es decir, son
capaces de capturar, tratar, almacenar y adecuar información continua en eventos
y viceversa. Envía consignas a partir del método de producción instanciado y
detecta los estados generados por el proceso controlado. La cabeza o supervisor
tolerante a fallas, está conformada por el mecanismo de toma de decisiones
capaces de, a partir del conocimiento del estado del proceso controlado y del
conjunto de actividades por cumplir debido al método instanciado, establecer por
acuerdo el conjunto de tareas a cumplir por el proceso controlado.
El modelo del mecanismo de toma de decisiones es visto de forma natural como
un modelo de sistema hibrido, que generalmente es implantado como un Sistema
Dinámico a Eventos Discretos (SDED) descrito por la quintupla (X, U, Y, f (.), g (.)),
donde X es el conjunto no vació finito de estados, U es un conjunto no vació finito
del conjunto o alfabeto de controles y Y es el conjunto no vació de valores de

11
salida.

Holón unidad de producción o Unidad Holónica de Producción

En procesos industriales complejos es posible tener más de un supervisor, de


modo que es necesario un coordinador que gestione a todos los supervisores.
Debido a la complejidad del proceso de producción mencionado, la gestión de
todos los HPS recae sobre un coordinador. Al conjunto de HPS se le denomina
Proceso de Producción Supervisado.

Sin perder generalidad, el Proceso de Producción Supervisado puede tener i


modelos (quizás más de un proceso de producción supervisado), cada modelo
tiene un conjunto m de tareas nominales instanciadas del método de producción
que pueden ser alcanzados con un conjunto j de tipos de configuraciones, los
cuales son ajustados bajo un criterio determinado por el supervisor con n
parámetros.

Aplicaciones

 La teoría holónica ha sido aplicada, hasta ahora, en procesos de producción


en masa, bien sea por lotes, donde los materiales circulan en pasos
discretos, que agregan valor al producto en la cadena de producción, o en
procesos continuos, que son aquellos que no se paralizan durante el año y
el producto transita a lo largo de la producción en cantidad constante.
Ejemplos elaboración de medicamentos, camisas entre otros.

 Sus aplicaciones se caracterizan por tener procesos de producción


continuos, ha tenido éxito al generar un plan de automatización que
transforma la empresa en un ente sistémico ágil, capaz de responder de
forma rápida y eficiente ante cambios inadvertidos en su entorno, haciendo
adaptaciones de sus elementos de manera individual sin tener que alterar el
medio en forma general.

12
Ventajas de la manufactura holonica
 La necesidad de personalización masiva lo cual se basa en producción de
pedidos y no de existencias
 Combinación hibrida en volumen y en variedad de producción en un único
piso de una planta
 La necesidad de tener cadenas de suministros estrechamente integrados y
contar con almacenes con mínima existencia
 Permite el uso de metodologías que permiten expresar las especificaciones
del sistema.

Desventajas de la manufactura holonica

 La primera de ellas deriva del hecho de que los niveles altos de la jerarquía
no están conectados directamente a los sensores por lo que el sistema
responde lentamente ante las perturbaciones.

 Para realizar sus funciones cada elemento de la jerarquía debe poseer un


modelo del sistema de fabricación si el sistema se modifica se debe modificar
cada uno de sus elementos.

Observaciones fundamentales

 Los sistemas complejos se desarrollan a partir de sistemas simples mucho


más rápidamente si hay formas intermedias estables que si no las hay.
 Los Holones son simultáneamente un todo independiente para sus partes
subordinadas, y partes dependientes de otros sistemas.
 Una holarquía consiste en (a) conjuntos autónomos a cargo de sus propias
partes; (b) partes dependientes controladas por superiores jerárquicos, y (c)
se coordinan de acuerdo con su ambiente local.

13
Redes Neuronales Artificiales
Las Redes Neuronales Artificiales (RNA) se inspiran en el funcionamiento de las
Redes Neuronales Biológicas. Comenzaremos con una breve descripción de la
estructura y funcionamiento de los sistemas biológicos. Esto servirá para comprobar
el paralelismo que se intenta establecer en los sistemas artificiales.
El sistema nervioso es un sistema complejo, formado por unidades individuales
denominadas neuronas, unidas entre sí por una malla de fibras nerviosas. Las
neuronas están separadas estructural, metabólica y funcionalmente y pueden tener
tamaños y formas muy variados. Forman redes entretejidas muy elaboradas, cuyas
funciones varían en diferentes regiones del sistema. Estas diferencias de formas y
tamaños reflejan el modo en que las neuronas procesan la información. Aunque,
como hemos dicho, las neuronas puedan presentar múltiples formas, muchas tienen
un aspecto similar al representado en esta figura.
En todas las neuronas se identifican 3 partes principales:
 El cuerpo celular, donde se encuentra el núcleo; es el centro de síntesis de
la célula, procesa las señales que le llegan de otras células, en forma de
impulsos, generando un nuevo impulso si se cumplen ciertas condiciones.
 Las dendritas: ramas fibrosas que emanan del cuerpo celular.
 El axón: fibra principal que emana del cuerpo celular. Es el canal transmisor
de los impulsos generados por la célula. Se ramifica en su extremo final para
conectar con otras neuronas, a través de las dendritas de éstas, que actúan
como canales receptores de información.
La conexión entre neuronas se realiza por medio de uniones especiales
denominadas sinapsis. La transmisión de un lado a otro de estas uniones es de
naturaleza química. La cantidad de señal transferida depende de la cantidad de
química aportada por el axón y recibida por las dendritas. La intensidad sináptica es
la que resulta modificada cuando decimos que el cerebro aprende. Las sinapsis,
combinadas con el proceso de información de la neurona, forman el mecanismo
básico de la memoria.
Una Red Neuronal Artificial (RNA) se puede definir como un dispositivo diseñado a
imitación de los sistemas nerviosos de los humanos, consistente en una
interconexión de unidades, denominadas neuronas artificiales o elementos de
proceso, cuyo funcionamiento se inspira en el de las neuronas biológicas.
Simplificando, podemos decir que la función básica de una neurona es sumar sus
entradas y producir una salida si la suma es mayor que un umbral determinado (a
través de la función de activación). Cada elemento de proceso tiene un conjunto de
entradas y una sola salida por las que circulan las señales. Tanto las entradas como
la salida dependen del instante de tiempo considerado.
Las variables de entrada y de salida de una neurona pueden ser discretas o
continuas, dependiendo del modelo de neurona considerada y de la aplicación que

14
se le vaya a dar. Cuando las salidas pueden tomar valores continuos, se suelen
limitar a un intervalo definido, como [-1,+1] o [0,1].
Las entradas a una neurona pueden ser las salidas de otras neuronas conectadas
a ella. Así mismo, su salida puede ser una entrada a otros elementos de proceso
(neuronas).
Cada conexión de entrada tiene asociado un número, denominado peso o fuerza de
conexión, que determina el efecto cuantitativo de unas unidades sobre otras y
corresponde a las sinapsis biológicas. Los pesos se suelen representar con una “w”
y 2 subíndices que indican la neurona y la entrada a dicha neurona a la que están
asociados, respectivamente. Por tanto, cada neurona tendrá tantos pesos como
entradas.
La entrada total a un elemento de proceso, o entrada neta, , se determina aplicando
una determinada función, se basa en la suma ponderada de las entradas por los
pesos, donde i representa el elemento de proceso cuya entrada neta se calcula, n
(la parte superior del sumatorio) es el número de entradas de dicho elemento de
proceso, las entradas se representan con una x y los pesos con w.
Se pueden distinguir dos fases en la operación de la red: la fase de aprendizaje y la
fase de recuerdo o ejecución. En la primera, la red aprende a resolver el problema
para el que se ha diseñado. Para ello, los pesos de las conexiones se irán
actualizando, permitiendo así aprender a la red. En la segunda fase los pesos
permanecen fijos, se presentarán entradas a la red y ésta dará salidas.
Existen dos capas típicas en toda red: la capa de entrada y la capa de salida. La
capa de entrada generalmente sirve para distribuir las entradas de la red, por lo que
no se tiene en cuenta a la hora de contabilizar el número de capas de ésta. El resto
de capas existentes entre ambas (entrada y salida) se denominan capas ocultas.
Pueden existir varios tipos de conexiones entre neuronas:
 Conexiones intracapa: entre las neuronas de una misma capa.
 Conexiones intercapa: entre neuronas de diferentes capas.
 Conexiones realimentadas: van en sentido contrario a entrada-salida.
Con todo un conjunto de neuronas y conexiones formaríamos una red, creada al
conectar unos nodos con otros y consiguiendo una arquitectura escrita en forma
matemática. Bueno, y podríamos profundizar más, pero con esto ya es suficiente
para poder entender el análisis que vamos a hacer a nuestra base de datos.
Las Redes Neuronales son una red compuesta de muchas unidades de
procesamiento simple cada una puede tener una cantidad pequeña de memoria
local las unidades están comunicadas atreves de conexiones que usualmente
transportan información numérica.

15
Donde surgen las redes neuronales artificiales
1958 – Perceptron:

Entre las décadas de 1950 y 1960 el científico


Frank Rosenblatt, inspirado en el trabajo de
Warren McCulloch y Walter Pitts creó el
Perceptron, la unidad desde donde nacería y
se potenciarían las redes neuronales
artificiales.

Un perceptron toma varias entradas binarias


x1, x2, etc y produce una sola salida binaria.
Para calcular la salida, Rosenblatt introduce el
concepto de “pesos” w1, w2, etc, un número
real que expresa la importancia de la respectiva entrada con la salida. La salida de
la neurona será 1 o 0 si la suma de la multiplicación de pesos por entradas es
mayor o menor a un determinado umbral.Sus principales usos son decisiones
binarias sencillas.
1965 – Multilayer Perceptron
Como se imaginarán, el multilayer
perceptron es una “amplicación”
del percepción de una única
neurona a más de una. Además
aparece el concepto de capas de
entrada, oculta y salida. Pero con
valores de entrada y salida
binarios. No olvidemos que tanto el
valor de los pesos como el de
umbral de cada neurona lo
asignaba manualmente el

16
científico. Cuantos más perceptrones en las capas, mucho más difícil conseguir
los pesos para obtener salidas deseadas.

2014 – Generative Adversarial Networks


Estas redes pueden aprender a
crear muestras, de manera similar a
los datos con las que las
alimentamos.La idea detrás de GAN
es la de tener dos modelos de redes
neuronales compitiendo. Uno,
llamado Generador, toma
inicialmente “datos basura” como
entrada y genera muestras. El otro
modelo, llamado Discriminador,
recibe a la vez muestras del Generador y del conjunto de entrenamiento (real) y
deberá ser capaz de diferenciar entre las dos fuentes. Estas dos redes juegan una
partida continua donde el Generador aprende a producir muestras más realistas y
el Discriminador aprende a distinguir entre datos reales y muestras artificiales.
Estas redes son entrenadas simultáneamente para finalmente lograr que los datos
generados no puedan detectarse de datos reales.

Aplicaciones
 Detección de patrones.
 Filtrado de señales.
 Segmentación de datos.
 Control.
 Identificación.

17
Ventajas
 Aprendizaje Adaptativo: Capacidad de aprender a realizar tareas basadas
en un entrenamiento o en una experiencia inicial.
 Auto-organización: Una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de
aprendizaje.
 Tolerancia a fallos: La destrucción parcial de una red conduce a una
degradación de su estructura; sin embargo, algunas capacidades de la red
se pueden retener, incluso sufriendo un gran daño.
 Operación en tiempo real: Los cómputos neuronales pueden ser realizados
en paralelo; para esto se diseñan y fabrican máquinas con hardware
especial para obtener esta capacidad.
 Fácil inserción dentro de la tecnología existente: Se pueden obtener chips
especializados para redes neuronales que mejoran su capacidad en ciertas
tareas. Ello facilitará la integración modular en los sistemas existentes.

Desventajas

 Complejidad de aprendizaje para grandes tareas, cuantas más cosas se


necesiten que aprenda una red, más complicado será enseñarle.
 Tiempo de aprendizaje elevado. Esto depende de dos factores: primero si
se incrementa la cantidad de patrones a identificar o clasificar y segundo si
se requiere mayor flexibilidad o capacidad de adaptación de la red neuronal
para reconocer patrones que sean sumamente parecidos, se deberá invertir
más tiempo en lograr que la red converja a valores de pesos que
representen lo que se quiera enseñar.
 No permite interpretar lo que se ha aprendido, la red por si sola proporciona
una salida, un número, que no puede ser interpretado por ella misma, sino
que se requiere de la intervención del programador y de la aplicación en si
para encontrarle un significado a la salida proporcionada.
 Elevada cantidad de datos para el entrenamiento, cuanto mas flexible se
requiera que sea la red neuronal, mas información tendrá que enseñarle
para que realice de forma adecuada la identificación.

18
Lógica Difusa
Básicamente la Lógica Difusa es una lógica multivaluada que permite representar
matemáticamente la incertidumbre y la vaguedad, proporcionando herramientas
formales para su tratamiento.
Como indica Zadeh “Cuando aumenta la complejidad, los enunciados precisos
pierden su significado y los enunciados útiles pierden precisión.”, que puede
resumirse como que “los árboles no te dejan ver el bosque”.
Básicamente, cualquier problema del mundo puede resolverse como dado un
conjunto de variables de entrada (espacio de entrada), obtener un valor adecuado
de variables de salida (espacio de salida).
La lógica difusa permite establecer este mapeo de una forma adecuada, atendiendo
a criterios de significado (y no de precisión).
Le término Lógica Difusa fue utilizado por primera vez en 1974. Actualmente se
utiliza en un amplio sentido, agrupando la teoría de conjunto difusos, reglas si-
entonces, aritmética difusa, cuantificadores, etc. En este curso emplearemos este
significado extenso el término.
Diferencias con Probabilidad
Los conceptos empleados en Lógica Difusa y Probabilidad están relacionados en
cierto modo, pero son totalmente diferentes. De forma resumida, la probabilidad
representa información sobre frecuencia de ocurrencias relativas de un evento bien
definido sobre el total de eventos posible. Por su parte, el grado de pertenencia
difuso representa las similitudes de un evento con respecto a otro evento, donde las
propiedades de esos eventos no están definidas de forma precisa.
Veamos un ejemplo, un superviviente de un accidente de avión se encuentra en
medio del desierto. Hace dos días que está caminando sin agua en busca de algún
poblado cercano donde puedan socorrerle. De repente encuentra dos botellas de
líquido, etiquetadas como se muestra. La botella A difusa está etiquetada como que
contiene líquido potable con un grado de pertenencia 0.8, mientras que la botella B
probabilista está etiquetada como que contiene con probabilidad 0.8 un líquido
potable. ¿Cuál debería elegir el superviviente?

19
La botella A indica que el líquido que contiene es bastante similar a otros que son
potables. Naturalmente este valor numérico depende de la función de pertenencia
asociada al concepto de “líquido potable”. Supongamos que la función de
pertenencia asocia 1 al agua pura, por lo que un valor de 0.8 indicaría que la
botella A contiene agua no totalmente pura, pero todavía potable (o al menos no
es un veneno, o algún líquido perjudicial para el organismo).
La probabilidad asociada a la botella B indica que, tras realizar un alto número de
experimentos, el contenido de la botella B es potable el 80 % de las veces. Pero,
¿qué ocurre el otro 20 % de las veces? En estas ocasiones, el líquido no era
potable y, por tanto, hay un 20 % de probabilidad de que mueras bebiendo el
líquido de esa botella porque contenga amoniaco en lugar de agua.
¿Qué debería elegir el superviviente si las botellas estuvieran etiquetadas con
valores de 0?5 fuzzy y 0.5 de probabilidad? En este caso debería rechazar A
porque un grado de pertenencia de 0.5 indicaría que el contenido de la botella no
es muy parecido a los líquidos potables en ese dominio de conocimiento. La
botella B tendría 0.5 de probabilidad de ser potable (también es incertidumbre
total), pero tendría un 50 % de probabilidad de que el líquido fuera potable, por lo
que debería jugársela y elegir la botella B.
Historia

El concepto de Lógica Difusa fue creado por Lofti A. Zadeh, catedrático de la


Universidad de Berkeley (California) [2]. En su propuesta, la lógica difusa fue
presentada como una forma de procesamiento de información en la que los datos
podrían tener asociados un grado de pertenencia parcial a conjuntos. Fue a
mediados de los 70 cuando esta teoría se aplicó a los sistemas de control (cuando
los pequeños ordenadores empotrados tuvieron suficiente potencia como para
permitir su ejecución). Desde entonces el número de aplicaciones industriales y su
utilización en productos de consumo (como veremos en la sección 1.5) ha crecido
exponencialmente.
En una primera etapa (entre 1965 y 1974), Zadeh describió el concepto general de
conjunto difuso y su función de pertenencia asociada que toma valores en el
intervalo unitario. En esta primera etapa no se describieron en profundidad los
mecanismos de razonamiento y la lógica asociada a esta representación.
En la segunda etapa (desde 1972 hasta el 2000) se introducen dos conceptos
importantes: la variable lingüística y el concepto de reglas if-then. En la actualidad,
la mayoría de aplicaciones de conjuntos difusos utilizan estos conceptos. Gracias al
desarrollo de los conceptos de esta segunda etapa evolucionaron rápidamente
aplicaciones de control difuso (espcialmente en Japón). El término de Soft
Computing apareció en 1981 en el BISC (Berkeley Initiative in Soft Computing), y
puede ser definido como el uso de metodologías que proporcionan los fundamentos
para el diseño, desarrollo y uso de sistemas inteligentes. Las principales
metodologías que forman este grupo son la Lógica Difusa, la Computación
Evolutiva,

20
Métodos Probabilísticos y Aprendizaje Máquina. En general estas métodologías y
técnicas se combinan ofreciendo mejores resultados.
La tercera etapa de desarrollo (desde 1996) se centra en la computación con
palabras, empleando procesamiento del lenguaje natural para la búsqueda en
internet y el desarrollo de respuesta automáticos.
En la actualidad existen multitud de líneas de investigación que emplean
intensivamente la teoría de la lógica difusa en diversidad de áreas de aplicación.

Características
El Principio de Incompatibilidad [3] dice que la descripción del comportamiento de
un sistema complejo no puede realizarse de forma absolutamente precisa. Para
solucionar este problema Zadeh plantea la necesidad de obtener herramientas
capaces de manejar de forma rigurosa y fiable información imprecisa, lo cual obliga
a desarrollar dos aspectos:

 Representación de la información imprecisa: Para esto lo que propone es


el empleo de la Teoría de conjuntos difusos. Así como describir la experiencia
de los sistemas complejos en sus relaciones entrada-salida mediante
proposiciones condicionales del tipo Si-Entonces (Ejemplo: Si la presión es
muy alta Entonces vaciamos el recipiente) de manera que las variables de
entrada y las variables de salida quedan ligadas.
 Inferencia sobre información imprecisa: Ahora se necesita una forma de
combinar esta información para obtener nuevos hechos. Entonces Zadeh
establece la necesidad de un método de inferencia generalizado e introduce
lo que se conoce como Regla Composicional de Inferencia.

A partir de este principio, se pueden describir las principales características


esenciales de la lógica difusa y los sistemas difusos:
1. El razonamiento exacto puede verse como un caso particular del
razonamiento aproximado. Cualquier sistema lógico puede ser
fuzzificado. Mediante lógica difusa se puede formular el conocimiento
humano de una forma sistemática, y puede ser fácilmente incluido en
sistemas de ingeniería.
2. El conocimiento se interpreta como una colección de restricciones
difusas sobre una colección de variables. Los sistemas difusos son
especialmente interesantes para la definición de sistemas cuyo
modelo exacto es difícil de obtener (es necesario introducir una
aproximación).
3. La inferencia puede verse como un proceso de propagación de estas
restricciones difusas.

21
4. Se utiliza ampliamente en sistemas de ayuda a la decisión. La lógica
difusa permite obtener decisiones con valores incompletos o
información incierta.
Los sistemas difusos son muy recomendables en aquellos problemas muy
complejos donde no existe un modelo matemático simple asociado. Igualmente, en
procesos que obedecen a un comportamiento no lineal, la solución difusa plantea
grandes ventajas. La solución difusa requiere que el conocimiento experto sea
expresado lingüísticamente, requisito que es normalmente fácil de obtener.

22
Aplicaciones

 Desde mediados de los años 70, la lógica difusa se ha utilizado ampliamente


debido a varios factores. Uno de ellos es que el uso de conocimiento experto
permite la automatización de tareas. En muchas áreas de aplicación se
reduce considerablemente la necesidad de operadores que basan su
conocimiento en la experiencia (y que difícilmente podría ser expresado con
ecuaciones diferenciales). De este modo, si existe un conocimiento del
proceso, es posible modelarlo mediante lógica difusa.
 Los sistemas basados en lógica difusa son fáciles de diseñar, modificar y
mantener. Pese a la pérdida de precisión, la reducción de tiempo de
desarrollo y mantenimiento es muy relevante para su uso industrial.
 Otro factor a tener en cuenta es que el control difuso permite diseñar
soluciones de alta calidad que eviten las patentes existentes en otros
sistemas de control. En Japón este tipo de controladores se asocia a
modernidad, alta calidad y tecnológicamente potente. En Europa sin embargo
se trata de ocultar el término “difuso” por su significado negativo. En la
actualidad multitud de productos de electrónica de consumo emplean lógica
difusa (ver Figura 1.4).
 Por citar algunos ejemplos de uso, la empresa Japonesa Matsuhita utiliza en
sus lavadoras un sistema de control que determina automáticamente el ciclo
de lavado según el tipo, cantidad de suciedad y tamaño de la colada. Los
estabilizadores de imágenes en sus cámaras digitales incorporan reglas que
eliminan las vibraciones involuntarias de la mano del operario, comparando
la imagen actual con las imágenes anteriores de la memoria. En el ámbito de
la automoción, Mitsubishi y General Motors emplean sistemas de transmisión
automática y control de temperatura basados en lógica difusa.
 Otro caso de éxito es el metro de Sendai (Japón), que cuenta con 16
estaciones. El sistema de control difuso está dividido en dos módulos, uno
para el control de la velocidad (similar al de [1]) y otro para la parada
automática. Este controlador difuso ofrece importantes ventajas sobre los
controladores convencionales, como el mayor confort en el viaje para los
pasajeros y menor consumo de energía.
 Sistemas de control de acondicionadores de aire
 Sistemas de foco automático en cámaras fotográficas
 Electrodomésticos familiares (frigoríficos, lavadoras...)
 Optimización de sistemas de control industriales
 Sistemas de escritura.

23
Ventajas

 La principal ventaja de este sistema de control es su facilidad de


implementación.
 Este tipo de sistemas están dando muy buenos resultados en procesos no
lineales y de difícil modelación
 El modo de funcionamiento es similar al comportamiento humano.
 Es una forma rápida y económica de resolver un problema.
 No se necesita conocer el modelo matemático que rige su funcionamiento.
 Capacidad de simplificar la asignación de soluciones previas a problemas sin
resolver.
 No depende de ecuaciones matemáticas complejas o extensas

Desventajas

 En las redes neuronales se precisa de un tiempo de aprendizaje para obtener


los mejores resultados en la salida. (Al igual que ocurre con los humanos).
 Ante un problema que tiene solución mediante un modelo matemático,
obtenemos peores resultados usando Lógica Difusa .
 No hay actualmente un análisis matemático riguroso que garantice que el uso
de un sistema experto difuso, para controlar un sistema, dé cómo resultado
un sistema estable.
 Dificultad de interpretación de valores difusos
 Múltiples definiciones de operadores y reglas de inferencia difusas

24
Nanotecnología
La nanotecnología trabaja en procesos científicos sobre tamaños de un
nanómetro, o lo que es lo mismo, en tamaños mil veces más pequeños que un
cabello humano, lo que le permite trabajar con átomos, moléculas y células. La
nanotecnología se inserta directamente en el campo del diseño, lo que quiere
decir, que conforman y sintetizan materiales a través del control de la materia a
nano escala para construir nanopartículas que tengan diferentes utilidades a las
de la materia original. La nanotecnología aprovecha los nuevos fenómenos físicos
relacionados con los efectos cuánticos que se presentan a esa escala de
manipulación de la materia. La nanotecnología es una nueva tecnología
convergente, lo que quiere decir que puede ser relacionada con otros tipos de
conocimientos, lo que estimula a que aumente la potencialidad de sus
aplicaciones.
Las propiedades electrónicas, magnéticas, ópticas o mecánicas de las
nanopartículas son muy sensibles a su tamaño y se pueden modificar variando la
forma y dimensiones del compuesto. Por este motivo las nanopartículas resultan
muy atractivas para fabricar dispositivos electrónicos y están destinados a tener un
papel estelar en las nuevas tecnologías del siglo XXI [3]. Este es el principio de
toda esta revolución llamada nanotecnología, y aunque el premio Nobel de Física
1965 Richard Feynman planteó una idea sobre la manipulación de la materia a
escala manométrica en su famosa conferencia llamada En el fondo hay espacio
de sobra, tuvo problemas ya que en esa época no tenia los recursos tecnológicos
para hacerlo, a pesar de ello, su idea quedó y por ello se lo llama el padre de la
nanotecnología.
Nanociencia
La nanociencia es distinta a las otras ciencias porque aquellas propiedades que no
se pueden ver a escala macroscópica adquieren importancia, como por ejemplo
propiedades de mecánica cuántica y termodinámicas. En vez de estudiar
materiales en su conjunto, los científicos investigan con átomos y moléculas
individuales. Al aprender más sobre las propiedades de una molécula, es posible
unirlas de forma muy bien definida para crear nuevos materiales con nuevas e
increíbles características [4]. Ahora bien, con el concepto anterior claro podemos
definir que las nanociencias se enfocan en el estudio de las propiedades de los
átomos y moléculas, tanto propiedades físicas, biológicas y químicas de las
nanopartículas, además de la forma de producirlos y la manera de ensamblarlos
con el fin de poder crear los nano-objetos.
Identificación de nanomateriales
 Materiales Nanoestructurados
Una fracción de material comúnmente posee en su interior moléculas organizadas
en granos de dimensiones por lo general de micrómetros y milímetros de diámetro,
estos granos están constituidos habitualmente con poblaciones de miles de
millones de átomos. Una misma fracción de material nanoestructurado, posee

25
poblaciones granulares inferiores a un par de miles de átomos y en donde los
granos moleculares alcanzan un tamaño máximo de 100 nanómetros de diámetro.
Entonces, los materiales nanoestructurados poseen el 0.001 por ciento de átomos
en comparación con un material común de igual volumen, además los granos
nanoestructurados son entre mil y cien veces más pequeños que los del material
original. Todo esto conlleva a una mayor ligereza de peso y ahorro de materia,
además de las nuevas características que adquieren y que potencian
enormemente el material.
Aplicaciones
Cerámicas nanoestructuradas, imanes permanentes de alta temperatura para
motores de aviones; materiales ferromagnéticos, almacenamiento de información,
refrigeración; catalizadores basados en hidrógeno; materiales para
almacenamiento de hidrógeno; sensores y actuadores.
 Nanopartículas y Nanopolvos
Las Nanopartículas tienen unidades más grandes que las de los átomos y las
moléculas, cuando menos una dimensión menos de los 100nm, obviamente estas
nanoparticulas son creadas artificialmente en los laboratorios. Además otra de sus
particularidades es que poseen características propias, es decir que no obedecen
a la química cuántica, ni a las leyes de la física clásica.
En la actualidad el estudio de las nanopartículas es un área de intensa
investigación científica, debido a una extensa variedad de potenciales
aplicaciones. Entre los campos mas prometedores están los campos biomédicos,
electrónicos y ópticos. Aunque por lo general las nanoparticulas están sirviendo
para el perfeccionamiento e innovación de materiales ya existentes, existen
también en el campo de la biomedicina nanoparticulas que han demostrado ser
capaces de eliminar tumores y además de que éstas son biodegradables y
orgánicas.

Aplicaciones.
En la Biomedicina, sirve para la liberación de fármacos, tratamientos contra el
cáncer. En la Ingeniería como sensores químicos, vidrios autolimpiables, tintas
magnéticas y conductoras. Para el tratamiento de aguas con procesos
fotocatalíticos, sirve para recubrimientos textiles repelentes de agua y suciedad.
En el área de la electrónica para crear memorias de alta densidad, pantallas con
dispositivos de emisión basados en óxidos conductores.

26
 Nanocápsulas
La mayor aplicación de las nanocápsulas está sin duda en el campo de la
medicina, ya sea para combatir enfermedades o ayudar con la liberación de
fármacos en puntos específicos dentro del cuerpo humano. Además el desarrollo
de las nanocápsulas se enfoca en intervenir las mismas para que se acumulen en
un punto deseado, la principal vía para lograr este objetivo es posiblemente
modificar las propiedades físico-químicas de las nanocápsulas. La investigación
acerca de las nanocápsulas aspira solucionar los problemas que aparecen, como
son los efectos secundarios de los fármacos además de complicaciones en el
tratamiento de la enfermedad.

Aplicaciones
Liberación de fármacos, industria de la alimentación, cosméticos, tratamiento de
aguas residuales, componentes de adhesivos, aditivos aromáticos en tejidos,
fluidos magnéticos.
 Nanotubos de Carbono
Tal vez uno de los nanomateriales mas interesantes y con mayor potencial de
aplicación sean los nanotubos. Son estructuras cilíndricas con diámetro
nanométrico. Aunque pueden ser de distinto material, los más conocidos son los
de silicio pero principalmente, los de carbono ya que unas de las principales
características de este último son su gran conductividad, y sus propiedades
térmicas y mecánicas. Existen diferentes tipos de estructuras para formar un
nanotubo, siendo la estructura, la influencia principal que decida las características
finales como lo son las eléctrica, térmicas o mecánicas del nanotubo.
Debido a la importancia de los nanotubos, aquí se presenta brevemente su
historia; en 1991 Sumio Iijima, descubrió los nanotubos que desde ahí han
revolucionado la nanociencia. Él encontró un cilindro hueco que se había formado
en la punta de un electrodo de grafito, tenía un diámetro de unos pocos
nanómetros y una longitud de unas cuantas micras. Estaba hecha de carbono
puro, había descubierto los nanotubos de carbono. Desde su descubrimiento
hasta la actualidad, las aplicaciones reales y potenciales de los nanotubos van
creciendo de forma impresionante. En su conjunto el material constituido es un
perfecto semiconductor por lo que es posible que los nanotubos de carbono
desempeñen el mismo papel que realizo el silicio en los circuitos electrónicos en
su debido momento, pero ahora a escala molecular, donde los demás
semiconductores dejan de funcionar.

27
Estas características auguran que los nanotubos representan el futuro de los
dispositivos en la electrónica debido a su alta velocidad de funcionamiento y
además de otros usos relacionados que se les pueden dar. De momento, con los
nanotubos de carbono ya se han fabricado componentes básicos de los
ordenadores, siendo el próximo paso, construir circuitos electrónicos y siendo
optimistas en pocos años fabricar ordenadores basados en nanotecnología.

Propiedades de los nanotubos de Carbono


Propiedades eléctricas
Al tener en cuenta la complejidad electrónica de los nanotubos, además de las
reglas cuánticas que rigen la conductividad, la conducción en los nanotubos de
carbono se transforma a un tipo de conducción cuántica, en ocasiones los
nanotubos incluso pueden presentar superconductividad. Normalmente en un
dispositivo común si se representa voltaje frente a intensidad de corriente se
obtiene una línea recta, o sea, V=IR, cosa diferente sucede con los nanotubos de
carbono y la conducción cuántica que muestra no es directamente proporcional,
sino que ahora su gráfica presenta una línea escalonada ya que la conductividad
de los nanotubos es 3 órdenes de magnitud mayor que la de los materiales
actualmente usados (respecto al cobre que es el material mas usado). Su
conductividad depende de relaciones geométricas, o sea, del número de capas, su
torsión o diámetro. Otro aspecto importante a resaltar es que estos valores
además de la resistencia del nanotubo no dependen de su longitud, a diferencia
de lo que ocurre con los cables normales en donde su resistencia es directamente
proporcional a su longitud.
Propiedades mecánicas
Actualmente es la fibra más resistente que se puede fabricar, esta capacidad se
debe a la estabilidad y robustez de los enlaces entre los átomos de carbono.
Ahora bien, al hablar de deformación también este nanomaterial posee grandes
ventajas ya que frente a esfuerzos de deformación muy intensos son capaces de
hacerlo enormemente y de mantenerse en un régimen elástico. Esta última
característica también se puede mejorar al hacer que varios tubos se unan como
una cuerda, de este modo al romperse un nanotubo, la fractura no se propagaría a
los demás nanotubos ya que son independientes. En general, ante pequeños
esfuerzos los nanotubos pueden funcionar como resortes extremadamente firmes
o pueden deformarse drásticamente y volver posteriormente a su forma original
frente a cargas mayores. En general es común aceptar que los nanotubos son 100
veces más resistentes que el acero, y 6 veces más ligeros.

28
Propiedades térmicas
Son enormemente estables térmicamente, tanto para valores en el vacío como
para mediciones en el aire, estas mediciones están referenciadas a valores
estándar utilizados para la medición de materiales de cualquier tipo. Además, las
propiedades de los nanotubos pueden modificarse atrapando metales o inclusive
gases en su interior.
Aplicaciones
Polímeros conductores, cerámicas altamente tenaces, apantallamientos
electromagnéticos, componentes para membranas y células solares, nano-
osciladores en orden de giga-Hertz, puntas nanoscópicas, músculos artificiales.
 Materiales Nanoporosos
Los materiales nanoporosos vendrían a ser como esponjas pero con poros
nanométricos, materiales en donde los poros ocupan una gran fracción de su
volumen total y presentan una significativa cantidad de superficie por gramo.
Un material tan poroso en un área lo tan pequeña posible sirve para, por un lado,
porque muchas reacciones ocurren más rápido sobre determinadas superficies, y
por otro, porque podemos rellenar los poros con lo que queramos: polímeros,
metales o diferentes tipos de moléculas lo que lleva a descubrir peculiares
comportamientos del material. Esta posibilidad de combinación de materiales abre
las puertas a una variedad asombrosa de aplicaciones.

Aplicaciones
Catalizadores para reducir la emisión de contaminantes, aislantes, en aplicaciones
medioambientales como purificación de aguas, eliminación de contaminantes,
atrapadas y eliminación de metales pesados, células solares orgánicas,
supercondensadores para almacenar energía, almacenamiento de gases.
 Nanofibras
Una nanofibra es una fibra con diámetro menor a 500 nanómetros. Cuando los
átomos de carbono se unen para construir un diamante lo hacen mediante cuatro
enlaces covalentes y forman una rígida red tridimensional que le confiere a la
preciada gema su proverbial dureza. Cuando se unen para construir grafito, los
átomos de carbono lo hacen a través de tres enlaces covalentes situados en un
plano; la estructura sigue siendo muy resistente en este plano pero es débil en
dirección perpendicular. Una forma de aprovechar esta resistencia es orientar
estos planos de forma que las direcciones de máximo esfuerzo estén contenidas

29
en ellos. Basta imaginar unas mil hojas y tirar en la dirección paralela a las hojas
en vez de hacerlo en dirección perpendicular. Arrollando estas hojas, como si
fueran las de un cigarro puro, se pueden obtener fibras de carbono muy
resistentes [3].
Desde hace tiempo se han venido produciendo fibras de carbono con este
material, la cuales se utilizan para fabricar implementos deportivos como palos de
golf, cañas de pescar, para elaborar ciertas partes de bólidos de fórmula uno o
incluso para diferentes partes aviones de combate.
Otra aplicación es la de protección contra bacterias, los agentes que componen la
nanofibra absorben los elementos dañinos desconocidos y los descomponen por
medios químicos, pero el problema radica en que se hace difícil desechar los
agentes tóxicos producidos.

Aplicaciones.
Filtros, tejidos, cosméticos, esterilización, separaciones biológicas, ingeniería de
tejidos, biosensores, órganos artificiales, implantes, liberación controlada de
fármacos [12]. Purificar el agua obteniendo la energía para hacerlo por medio de la
luz del sol.
 Nanohilos
Un nanohilo es un cable con un diámetro del orden de un nanómetro. Los
nanohilos pueden ser definidos como estructuras que tienen un tamaño lateral
restringido a diez o menos nanómetros por lo general, aunque científicos turcos en
la Universidad Bilkent de Ankara están logrando crear nanohilos de 15 nanómetros
de diámetro y de una longitud libre.
Los nanohilos debido a su relación longitud–ancho han sido considerados como
materiales unidimensionales, por lo que presentan llamativas propiedades que no
se han visto en materiales de 3 dimensiones, ya que en estos nanohilos no se
producen efectos físicos cuánticos en los bordes. Por ello también se los llama
hilos cuánticos.
Existen varios tipos de nanohilos, hilos metálicos semiconductores y aisladores,
estos dependen del elemento con que se los produzca que puede variar desde el
níquel a oro, platino, titanio o silicio... Los electrones, que transmiten la corriente,
necesitan cierta cantidad de átomos juntos para transmitirse de forma fluida;
cuando la anchura de su 'carretera' es menor, su movimiento se ve obstaculizado
por los átomos del borde del material y se ralentiza [5]. Esto lleva a pensar que se
obtendrán grandes velocidades de transmisión.

30
Aplicaciones
Tiene gran potencial para ser aplicados en electrónica, dispositivos
optoelectrónicos, así como a dispositivos nanoenectromecanicos.

31
Conclusión
Para concluir esta investigación se ha podido observar que todos los temas
mencionados e investigados en este informe en la actualidad son una herramienta
muy avanzada e importante en sus respectivas áreas de trabajo, podemos concluir
que en base a estas tecnologías estudiadas se irán realizando avances para así
mejorar nuestras vidas y en los procesos de producción de cada empresa cada vez
más y mas.

32

You might also like