UN POCO DE
HISTORIA
1950. El nacimiento real de la IA se produjo en este año,
cuando Norbet Wiener desarrolló el principio de la retroalimentación. Esta técnica
consiste, por ejemplo, en la tecnología del termostato, comparar la temperatura
actual del entorno con la deseada y, según los resultados aumentarla o
disminuirla.
1955. Newell y Simon desarrollan la Teoría de la lógica. Este
desarrollo permitió desarrollar un programa que exploraba la solución a un
problema utilizando ramas y nudos, seleccionando únicamente las ramas que más
parecían acercarse ala solución correcta del problema.
1956. En una conferencia en Vermont, John McCarthy propone el término
“Inteligencia Artificial” para denominar el estudio del tema. Después se
prepara el terreno par el futuro en la investigación de la IA.
1957. Aparece la primera versión de “The General Problem
Solver” (GPS), un programa capaz de solucionar problemas de sentido común. El
GPS utilizaba la teoría de la retroalimentación de Wiener.
1958. McCarthy anuncia su nuevo desarrollo el lenguaje LISP
(LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores
inmersos en el estudio de la IA.
1963. El MIT recibe una subvención de 2,2 millones de dólares
del gobierno de los Estados Unidos en concepto de investigación en el campo de
la IA.
1970. Se produce el advenimiento de los Sistemas Expertos. Los
Sistemas Expertos se han utilizado para ayudar a los médicos a diagnosticar
enfermedades e informar a los mineros a encontrar vetas de mineral. Al mismo
tiempo Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento
visual de las diferentes máquinas.
1972. Aparece el
lenguaje PROLOGUE basado en las teorías de Minsky.
1980. Las ventas de
hardware y software relacionados con la IA se contabilizan por 425 millones de dólares
sólo en 1986. Compañías como DuPont, General Motors, y Boeing utilizan
sistemas expertos a principios de la década de los 80 y éstos sistemas
expertos se convertirán en un standard a finales de la misma.
En los 90. La IA se utiliza
de forma efectiva en la Guerra del Golfo sobre sistemas de misiles visores para
los soldados y otros avances, y al mismo tiempo, invade nuestros hogares y vida
cotidiana en muchos más lugares.
LA HEURÍSTICA
La heurística es el análisis y la extrapolación de datos basados en
experiencias pasadas y en sus consecuencias, este apartado es de una importancia
vital para la IA interna en los juegos de ordenador.
Por ejemplo, un enemigo podrá intentar una aproximación, grabando los
resultados de esa aproximación en su memoria. Si fracasa en su intento de
eliminar al jugador, la próxima vez que intente algo parecido sabrá que, bajo
las mismas circunstancias, ha fracasado una vez e intentará otra ruta de
aproximación al jugador. Si por el contrario
tiene éxito, aún podrá obtener un aprendizaje de sus actos,
y extrayendo aquellas acciones que más han contribuido a la consecución
del fin, que es eliminar al jugador; así la próxima vez que el ordenador se
encuentre en semejante situación. La heurística, por tanto, permite tener
enemigos con memoria.
LOS SISTEMAS EXPERTOS
Un
sistema experto puede definirse como un sistema basado en los conocimientos que
imita el pensamiento de un experto para resolver problemas de un terreno
particular de aplicación.
Una
de las características principales de los sistemas expertos es que están
basados en reglas, es decir, contienen conocimientos predefinidos que se
utilizan para tomar todas las decisiones.
Un
sistema experto genérico consta de dos módulos principales:
La base de conocimientos del sistema experto con respecto a
un tema específico para el que se diseña el sistema. Este conocimiento se
codifica según una notación específica que incluye reglas, predicados, redes
semánticas y objetos.
El motor de inferencia que es el que combina los hechos y
las preguntas particulares, utilizando la base de conocimiento, seleccionando
los datos y pasos apropiados para presentar los resultados.
Historia de los sistemas expertos:
1965 DENDRAL, el
primer sistema experto
- En 1965 Feigenbaum entra a formar parte del
departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el
cual quería averiguar cual era la estructura de las moléculas orgánicas
completas. El objetivo de DENDRAL fue éste estudiar un compuesto químico. El
descubrimiento de la estructura global de un compuesto exigía buscar en un árbol
las posibilidades, y por esta razón su nombre es DENDRAL que significa en
griego “árbol”.
- Antes de DENDRAL los químicos solo tenían una
forma de resolver el problema, esta era tomar unas hipótesis relevantes como
soluciones posibles, y someterlas a prueba comparándolas con los datos.
- La realización de DENDRAL duró más de diez años
(1965-1975). Se le puede considerar el primer sistema experto.
1972 MYCIN
- MYCIN se trataba de un sistema experto para el diagnóstico
de enfermedades infecciosas. Desde los resultados de análisis de sangre,
cultivos bacterianos y demás datos, el programa era capaz de determinar, o en
lo menos, sugerir el microorganismo que estaba causando la infección. Después
de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba
perfectamente a las características de la persona, tales como el peso corporal
de este. Después del reconocido éxito que tuvo.
1973 TIERESIAS
- El cometido de este sistema experto
era el de servir de intérprete
entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos
conocimientos en su base de datos. El especialista debía utilizar MYCIN de una
forma normal, y cuando este cometiera un error en un diagnóstico (hecho
producido por la falta o fallo de información en el árbol de desarrollo de
teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o
ampliándola si es eso lo que se necesita.
1979
XCON, primer programa que sale del laboratorio
- Su usuario fue la Digital Equipament Corporation (DEC).
- El cometido de XCON sería configurar todos los ordenadores que
saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a
trabajar en el proyecto más en serio en diciembre de 1978.
- En abril de 1979 el equipo de investigación que lo había diseñado
pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una
prueba real, esperando resolver positivamente un 95% de las configuraciones,
este porcentaje tal alto se quedó
en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde
fue revisado y a finales de ese mismo año
funcionó con resultados positivos en la DEC.
- En 1980 se instauró totalmente en DEC y en 1984 el XCOM había crecido
hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares
al año para la DEC.
80-8 La revolución de los Sistemas Expertos
- En estos 5 años se crearon diversos sistemas expertos como el DELTA,
de General Electric Company, para la reparación de locomotoras diesel y eléctricas.
“Aldo en Disco” para la reparación de calderas hidróstaticas giratorias
usadas para la eliminación de bacterias.
- Se crearon multitud de empresas dedicadas a los sistemas expertos como
Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking
Machines Corporation, Cognitive Systems Inc.... formando una inversión total de
300 millones de dólares. Los productos más importantes que creaban estas
nuevas compañías eran las “máquinas Lisp”, que se trataba de unos
ordenadores que ejecutaban programas LISP con la misma rapidez que en un
ordenador central, y el otro producto fueron las “herramientas de desarrollo
de sistemas expertos”.
1987 XCON empieza a no ser rentable
- Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose
a gastar más de dos millones de dólares al año para mantenimiento y algo
parecido ocurrió con el DELTA.
1987 El fin del LISP
- En 1987 aparecieron los
microordenadores Apple y compatibles IBM con una potencia parecida a los LISP.
El software se transfirió a máquinas convencionales utilizando el lenguaje
“C” lo que acabó con el LISP.
REDES NEURONALES
- Las redes neuronales son dispositivos inspirados en la funcionalidad de
las neuronas biológicas, aplicados al reconocimiento de patrones que las
convierten aptas para modelar y efectuar predicciones en sistemas muy complejos.
-
Es un conjunto de técnicas matemáticas para modelar las conexiones /
relaciones entre un conjunto de datos.
-
Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con
la IA simbólica o tradicional. La IA simbólica se basa en que todo
conocimiento se puede representar mediante combinaciones de símbolos, derivadas
de otras combinaciones que representan verdades incuestionables o axiomas. Así
pues, la IA tradicional asume que el conocimiento es independiente de la
estructura que maneje los símbolos, siempre y cuando la 'máquina' realice
algunas operaciones básicas entre ellos.
- Una Red Neuronal: el Perceptrón unicapa
- Es un conjunto de neuronas no
unidas entre sí, de manera que cada una de las entradas del sistema se conectan
a cada neurona, produciendo cada una de ellas su salida individual.
- Existen tres métodos de aprendizaje para un Perceptrón:
Aprendizaje supervisado: se
presentan al Perceptrón unas entradas con las correspondientes salidas que se
quiere que sean aprendidas.
Aprendizaje no supervisado:
solo se presentan al Perceptrón las entradas y, para esas entradas, la red debe
dar una salida parecida.
Aprendizaje por refuerzo: se
combinan los dos anteriores, y cada cierto tiempo se presenta a la red una
valoración global de como lo está haciendo.
- Podría parecer que el Perceptrón tiene una potencia ilimitada para
aprender, pero Minsky y Paper pusieron graves deficiencias del Perceptrón en su
libro “Perceptrons”. Según ellos el Perceptrón unicapa era incapaz de
aprender las funciones que no fuesen linealmente separables.
-
Las redes neuronales todavía se han de desarrollar mucho. Aún se debe estudiar
para que sirven realmente, conocer en que tareas pueden resultar realmente útiles,
ya que por ejemplo es difícil saber cuánto tiempo necesita una red para
aprender cierta tarea, cuántas neuronas necesitamos como mínimo para realizar
cierta tarea, etc...
-
En la robótica, las redes neuronales también parecen prometer mucho, sobre
todo en su sensorización.
ROBÓTICA
- Son unas máquinas controladas por ordenador y programada
para moverse, manipular objetos y realzar trabajos a la vez que interacciona con
su entorno. Los robots son capaces de realizar tareas repetitivas de forma más
rápida, barata y precisa que los seres humanos.
- El diseño de un manipulador robótico se inspira en el brazo humano.
Las pinzas están diseñadas para imitar la función y estructura de la mano
humana. Muchos robots están equipados con pinzas especializadas para agarrar
dispositivos concretos.
- Las articulaciones de un brazo robótico suelen moverse mediante
motores eléctricos. Una computadora calcula los ángulos de articulación
necesarios para llevar la pinza a la posición deseada.
- En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se
empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados
Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o
desagradables para los humanos. En los laboratorios médicos, los robots manejan
materiales que conlleven posibles riesgos, como muestras de sangre u orina. En
otros casos, los robots se emplean en tareas repetitivas en las que el
rendimiento de una persona podría disminuir con el tiempo. Los robots pueden
realizar estas operaciones repetitivas de alta precisión durante 24 horas al día.
- Uno de los principales usuarios de robots es la industria del automóvil.
La empresa General Motors utiliza aproximadamente 16.000 robots para trabajos
como soldadura, pintura, carga de máquinas, transferencia de piezas y montaje.
El montaje industrial exige una mayor precisión que la soldadura o la pintura y
emplea sistemas de sensores de bajo costo y computadoras potentes y baratas. Los
robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar
microchips.
- Se emplean robots para ayudar a los cirujanos a instalar caderas
artificiales, y ciertos robots especializados de altísima precisión pueden
ayudar en operaciones quirúrgicas delicadas en los ojos. La investigación en
telecirugía emplea robots controlados de forma remota por cirujanos expertos;
estos robots podrían algún día efectuar operaciones en campos de batalla
distantes.
- Los robots crean productos manufacturados de mayor calidad y menor
costo. Sin embargo, también pueden provocar la pérdida de empleos,
especialmente en cadenas de montaje industriales.
- Las máquinas automatizadas ayudarán cada vez más a los humanos en la
fabricación de nuevos productos, el mantenimiento de las infraestructuras y el
cuidado de hogares y empresas. Los robots podrán fabricar nuevas autopistas,
construir estructuras para edificios, limpiar corrientes subterráneas o cortar
el césped.
- Puede que los cambios más espectaculares en los robots del futuro
provengan de su capacidad de razonamiento cada vez mayor. El campo de la
inteligencia artificial está pasando rápidamente de los laboratorios
universitarios a la aplicación práctica en la industria, y se están
desarrollando máquinas capaces de realizar tareas cognitivas como la
planificación estratégica o el aprendizaje por experiencia. El diagnóstico de
fallos en aviones o satélites, el mando en un campo de batalla o el control de
grandes fábricas correrán cada vez más a cargo de ordenadores inteligentes. |