Inteligencia artificial.
Tema:
Inteligencia artificial (IA)
Inteligencia artificial (IA)
Juan José Duarte López
Curso propedéutico: Etapa 4
Eja 4, Actividad 1
Eja 4, Actividad 1
División de Ciencias Exactas, Ingeniería
y Tecnología – DCEIT
Universidad Abierta y a Distancia de México
- UnADM
2016
Introducción.
Hablar de ciencia y tecnología resulta un
tema de gran interés para la humanidad, no solo para científicos y(o) filósofos.
La inquietud del ser humano ha llevado al hombre a sumergirse en un mundo de
investigaciones, buscando más allá de lo que pueden mirar sus propios ojos. Ha
encaminado al hombre a un Universo de conocimientos y nuevos descubrimientos,
pero hay algo que aún lo inquieta, la inteligencia y la capacidad del cerebro
humano.
Si bien, el cerebro humano es capaz de
guardar grandes cantidades de información, también es capaz de procesarla a
grandes velocidades, ya que este contiene redes neuronales que van de un lugar
a otro, interconectándose. De esta manera es que la información fluye en
nuestro cerebro, llevando a cabo las ordenes de alguna acción a nuestro cuerpo.
El cerebro humano es capaz de procesar la
información adquirida previamente de manera automática, piensa por sí mismo.
Esto hace que el cerebro logre resolver problemas simples o con cierto grado de
dificultad, aun si fueran problemas muy complejos, el mismo cerebro tiene la
capacidad de idear nuevas alternativas, tomando en cuenta sus experiencias y conocimientos
previos.
A todos esos resultados que han inquietado
al hombre y lo han llevado al estudio e investigación, le llaman inteligencia.
Pero, ¿qué es la inteligencia? Una definición dada por el científico John McCarthy dice que: “la inteligencia es la capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios”.
Pero, ¿qué es la inteligencia? Una definición dada por el científico John McCarthy dice que: “la inteligencia es la capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios”.
Entonces, “la inteligencia” es la razón
que inquieta tanto al hombre. Por ende se creó el deseo de investigar más acerca
de la mente humana, su funcionamiento y comportamiento, cosa que incluye a la
inteligencia.
En los años 50, época donde incursiono la
computación, se especulaba sobre las posibilidades de otorgar las cualidades de
la inteligencia humana a las maquinas, de manera artificial, pero esto demostró
que es algo mucho más complejo de lo que se pensaba. De ahí que se inicia el
estudio de la Inteligencia Artificial (IA) cuyo nombre se dio formalmente en
1956, durante una Conferencia en la Universidad Dartmouth College (en inglés:
the Dartmouth Summer Research Proyect on Artificial Intelligence), ubicada en: Hanover,
New Hampshire (Estados Unidos).
Los avances de la tecnología y el deseo
incansable por resolver las grandes incógnitas de la naturaleza y el
funcionamiento del cuerpo humano, han alcanzado en nuestros días grandes
logros.
Más de 50 años de investigaciones e
invenciones de grandes hombres de ciencia, están llevando a la humanidad a un
mundo lleno de nuevas oportunidades tecnológicas y médicas, por mencionar
algunos campos donde se puede aplicar estos conocimientos.
Estos años de arduo trabajo han dado la
pauta de crear nuevas definiciones y nuevos campos de estudio, el mundo entero
está incursionando en un nuevo ciclo, donde deberá esforzarse aún más para
incrementar su amplia gama de conocimientos, y de ésta forma generar un mejor
porvenir para todos los seres de este planeta.
Veamos como la historia ha sido fiel
testigo y ha guardado en sus años el testimonio de grandes personajes, que han
aportado sus conocimientos, cualidades, habilidades y descubrimientos a lo
largo de los años.
Historia de la inteligencia Artificial.
Aristóteles -
Silogismos.
Desde tiempos muy remotos en escritos
históricos, se pone de manifiesto lo que al hombre le ha causado tanta
inquietud. Esto nos remonta a tiempos antes de cristo, donde las primeras ideas básicas hacen referencia a
los griegos.
Aristóteles (384-322 a. C.) fue un
polímata: filósofo, lógico y científico de la Antigua Grecia cuyas ideas han
ejercido una enorme influencia sobre la historia intelectual de Occidente por
más de dos milenios.
Este hombre escribió cerca de 200 tratados con una enorme variedad de temas incluyendo lógica, metafísica, filosofía de la ciencia, ética, filosofía política, estética, retórica, física, astronomía y biología.
Fue el primero en describir un conjunto de
reglas que describen una parte del funcionamiento de la mente para obtener
conclusiones racionales.
Esto nos dice que, de seguir paso a paso,
bajo la comparación de un conjunto de reglas o premisas se puede obtener un
nuevo juicio o conclusión. Esto se obtiene de la comparación de dos conceptos
extraídos de la propia experiencia o bien de forma lógica.
Ctesibio - Reloj
de agua y la maquina auto-controlada.
Aunque se sabe muy poco de este personaje
es indiscutible que era una persona que dedicaba su vida a la investigación
dado de su nivel de inteligencia, este personaje también surge en Grecia,
contribuyendo a la humanidad con sus conocimientos.
Ctesibio
(285-222 a. C.) fue un inventor y matemático griego de Alejandría. Se
sabe poco de su obra y vida, pero sus contribuciones a la investigación de los
fenómenos naturales, así como de la geometría, son sólo inferiores a los de
Arquímedes. Escribió el primer tratado científico acerca del aire comprimido,
empleando para su elaboración bombas neumáticas e incluso cañones. Estas
investigaciones, junto con los ensayos de elasticidad del aire (Pneumática), le
concedieron la fama de ser "padre de la neumática". Gracias a sus
aportes intelectuales se diseñó la primer maquina auto-controlada y el reloj de agua o clepsidra.
Una prueba más de la inquietante búsqueda
del origen del funcionamiento de las cosas.
Ramon Llull -
Razonamiento artificial.
Ciertamente España también contribuyo con
otro hombre de ciencia, el cual aporto a la ciencia con 280 obras.
Ramon Llull (1232-1315) fue una de las
figuras más avanzadas de los campos espiritual, teológico y literario de la
Edad Media y fue escritor, cabalista, divulgador científico, misionero,
teólogo, fraile franciscano, alquimista entre otras cosas.
Uno de sus grandes creaciones lleva el
nombre de Ars Generallis Ultima (Última Arte General) o Ars Magna (Gran Arte),
este artefacto es una fusión de tecnología y filosofía. Así pues, Llull se
dedicó a diseñar y construir una máquina lógica. De naturaleza mecánica, en
ella las teorías, los sujetos y los predicados teológicos estaban organizados
en figuras geométricas de las consideradas "perfectas" (por ejemplo
círculos, cuadrados y triángulos). Al operar unos diales y palancas, girando
manivelas y dando vueltas a un volante, las proposiciones y tesis se movían a
lo largo de unas guías y se detenían frente a la postura positiva (certeza) o
negativa (error) según correspondiese. Según Llull, la máquina podía probar por
sí misma la verdad o mentira de un postulado.
George Boole -
Lógica proposicional.
Reino unido vio nacer sistema de cálculo
lógico, que póstumamente seria llamado álgebra de Boole. Aunque fue un siglo
más tarde se tomaría como campo de aplicación en la informática y
microprocesadores que dado que su funcionamiento está basado en la lógica de
Boole.
George
Boole (1815- 1864) fue un matemático y lógico británico.
Como inventor del álgebra de Boole, que
marca los fundamentos de la aritmética computacional moderna, resume la lógica
en álgebra simple.
Boole es considerado como uno de los
fundadores del campo de las Ciencias de la Computación.
Desarrolló un sistema de reglas que le
permitían expresar, manipular y simplificar problemas lógicos y filosóficos
cuyos argumentos admiten dos estados (verdadero o falso) por procedimientos
matemáticos. Se podría decir que es el padre de los operadores lógicos
simbólicos y que gracias a su álgebra hoy en día es posible operar
simbólicamente para realizar operaciones lógicas.
Gottlob Frege -
Lógica matemática moderna.
Sin lugar a dudas Europa ha sido un
continente que ha dado grandes exponentes de ciencia, filosofía, etc. En este
caso toca mencionar a Gottlob Frege, este hombre presento una nueva plataforma
en la disciplina que no había sido alterada desde los tiempos de Aristóteles.
Gottlob
Frege (1848-1925) Matemático filósofo y lógico alemán.
Se le considera el padre de la lógica
moderna, ya que aporto con sus conocimientos a la realización de un nuevo
sistema lingüístico, evitando ambigüedad y asistematicidad del lenguaje común,
llevando así la expresión del razonamiento deductivo a su máxima expresión.
Además
contribuyo con obra: Los fundamentos de la aritmética, donde integro la
aritmética sobre la base de la lógica.
François Anatole
- Serie Fibonacci y las torres de Hanói.
Paris - la ciudad de la luz, vio nacer un
importante personaje que fue el creador de la serie de Fibonacci y el test de
primalidad, inventor del juego recreativo matemático muy conocido, las Torres
de Hanói.
François
Édouard Anatole Lucas (1842-1891) Matemático Francés.
Debido al
interés por mostrar un sistema resolutorio y encontrar una solución,
este hombre creo la serie de Fibonacci, resumiendo en una formula o ecuación la
forma de obtener el n-ésimo término de la serie omitiendo calcular todos los
términos predecesores.
Una prueba fehaciente de la inteligencia y
la lógica humana, plasmada en formulas y métodos de solución de problemas.
La máquina de
Turing y la inteligencia artificial.
La inteligencia y conocimientos de Turing
surgieron en la comunidad británica, Este personaje mostró interés por los
numero la lectura y los rompecabezas desde temprana edad.
Alan Mathison Turing, (1912- 1954), fue un
matemático, lógico, científico de la computación, criptógrafo, filósofo,
maratoniano y corredor de ultra distancia británico.
Es considerado uno de los padres de la
ciencia de la computación y precursor de la informática moderna. Proporcionó
una influyente formalización de los conceptos de algoritmo y computación: la
máquina de Turing.
Sus ansias de conocimiento y
experimentación llegaban hasta tal punto que a los ocho años, atraído por la
química, diseñó un pequeño laboratorio en su casa. Su carrera escolar estuvo
marcada, por un lado, por sus aptitudes y su facilidad por las matemáticas y,
por el otro, por su carácter inconformista que le llevaba a seguir sus propias
ideas y apartarse del rígido (e ilógico, según su parecer) sistema educativo.
Se cuenta que aprendió a leer por sí solo
en tres semanas y que desde el principio mostró un gran interés por los números
y los rompecabezas.
El funcionamiento de su sistema se basaba
en enviar señales electromagnéticas para mover partes mecánicas, el tiempo de
respuesta tenía un promedio de 3 a 5 segundos por cada cálculo. La máquina
ejecutaba operaciones de matemáticas básicas y cálculos complejos de ecuaciones
sobre el movimiento parabólico.
Konrad Zuse y la
computadora Z3.
1941 fue el año en que Konrad Zuse creo la
primer maquina programable y completamente automática, estas características
fueron utilizadas para darle nombre y definirla como computador.
Konrad
Zuse (1910-1995), fue un ingeniero alemán y un pionero de la computación.
Su logro más destacado fue terminar la
primera computadora controlada por programas que funcionaban, la Z3 en 1941,
esta máquina realizaba cálculos con aritmética en coma flotante puramente
binaria. También diseñó un lenguaje de
programación de alto nivel, el Plankalkül.
Zuse debió hacer muchos cálculos
rutinarios a mano, lo que él encontró aburrido. Esta experiencia lo llevó a
soñar con una máquina que pudiera hacer cálculos.
Modelo de
neuronas artificiales.
En 1943 McCulloch-Pitts presentaron su
modelo de neuronas artificiales, el cual se considera el primer trabajo del
campo de inteligencia artificial, aun cuando todavía no existía el término.
Warren
Sturgis McCulloch (1898-1969) era un neurólogo y cibernético estadounidense.
Walter
Harry Pitts, hijo. (1923-1969) era un lógico quién trabajó en el campo de neurociencia
computacional.
La neurona de McCulloch-Pitts es una
unidad de cálculo que intenta modelar el comportamiento de una neurona
"natural", similares a las que constituyen del cerebro humano. Ella
es la unidad esencial con la cual se construye una red neuronal artificial. Fue
el primer modelo neuronal moderno, y ha servido de inspiración para el
desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios
en que refieren a este modelo, no se interpreta correctamente el sentido que
quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o
funciones que no fueron descritas por sus autores, o restándole importancia a
la capacidad de procesamiento del modelo. Por otro lado, el modelo
McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de
los pocos modelos digitales en tiempo discreto y, como para realizar
implantaciones electrónicas o computacionales de las neuronas artificiales en
la actualidad se utilizan sistemas digitales, con la mayoría de los modelos
analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al
momento de implantarlos, lo que dificulta y hace imprecisa a dicha implantación
con respecto al comportamiento teórico derivado del modelo.
Test de Turing.
Turing propuso esta prueba en su ensayo
“Computing Machinery and Intelligence” en 1950.
El test de Turing (o prueba de Turing) es
una prueba de la habilidad de una máquina de exhibir un comportamiento
inteligente similar, o indistinguible, del de un humano. Alan Turing propuso
que un humano evaluara conversaciones en lenguaje natural entre un humano y una
máquina diseñada para generar repuestas similares a las de un humano. El
evaluador sabría que uno de los miembros de la conversación es una máquina y
todos los participantes serían separados de otros. La conversación estaría
limitada a un medio únicamente textual como un teclado de computadora y un
monitor por lo que sería irrelevante la capacidad de la máquina de transformar
texto en habla. En el caso de que el evaluador no pueda distinguir entre el
humano y la máquina acertadamente (Turing originalmente sugirió que la máquina
debía convencer a un evaluador, después de 5 minutos de conversación, el 70%
del tiempo), la máquina habría pasado la prueba. Esta prueba no evalúa el
conocimiento de la máquina en cuanto a su capacidad de responder preguntas
correctamente, solo se toma en cuenta la capacidad de ésta de generar
respuestas similares a las que daría un humano.
Inteligencia
artificial en Dartmouth.
Verano de 1956, el encuentro ahora
conocido como la conferencia de Dartmouth, se llevó a cabo con tal éxito que el
evento acuñó el término Inteligencia Artificial y con él una nueva área
científica de conocimiento.
En 1956 se dio el término
"inteligencia artificial" en Dartmouth durante una conferencia
convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y
Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años
que jamás se cumplieron, lo que provocó el abandono casi total de las
investigaciones durante quince años.
Marvin Lee Minsky (1927-2016), fue un
científico estadounidense. Es considerado uno de los padres de las ciencias de
la computación y cofundador del laboratorio de inteligencia artificial del
Instituto Tecnológico de Massachusetts o MIT.
Allen Newell (19 de marzo de 1927 - 19 de
julio de 1992) fue un investigador en informática y psicología cognitiva en la
corporación WWE.
Herbert Alexander Simon (15 de junio de
1916 – 9 de febrero de 2001), economista, politólogo y teórico de las ciencias
sociales estadounidense.
“LISP” Lenguaje
de alto nivel.
El nombre LISP deriva del "List
Processing" (Proceso de Listas). Las listas encadenadas son una de las
estructuras de datos importantes del LISP, y el código fuente del LISP en sí
mismo está compuesto de listas.
El LISP es una familia de lenguajes de
programación de computadora de tipo multiparadigma con una larga historia y una
sintaxis completamente entre paréntesis.
El LISP fue creado originalmente como una
notación matemática práctica para los programas de computadora, basada en el
cálculo lambda de Alonzo Church. Se convirtió rápidamente en el lenguaje de
programación favorito en la investigación de la inteligencia artificial (AI).
Como uno de los primeros lenguajes de
programación, el LISP fue pionero en muchas ideas en ciencias de la
computación, incluyendo las estructuras de datos de árbol, el manejo de
almacenamiento automático, tipos dinámicos, y el compilador auto contenido.
Especificado originalmente en 1958 por
John McCarthy y sus colaboradores en el Instituto Tecnológico de Massachusetts,
el LISP es el segundo más viejo lenguaje de programación de alto nivel de
extenso uso hoy en día; solamente el FORTRAN es más viejo.
Los programas de LISP pueden manipular el
código fuente como una estructura de datos, dando lugar a los macro sistemas
que permiten a los programadores crear una nueva sintaxis de lenguajes de
programación de dominio específico empotrados en el LSIP.
Frank Rosenblatt
y la red tipo perceptrón.
Su intención era ilustrar algunas
propiedades fundamentales de los sistemas inteligentes en general, sin entrar
en mayores detalles con respecto a condiciones específicas y desconocidas para
organismos biológicos concretos.
Frank
Rosenblatt (julio 11, 1928 - julio 11, 1971) fue un psicólogo estadounidense
notable en el campo de la inteligencia artificial.
El perceptrón dentro del campo de las
redes neuronales tiene dos acepciones. Puede referirse a un tipo de red
neuronal artificial desarrollado por Frank Rosenblatt y, dentro de la misma
teoría de Rosenblatt, también puede entenderse como la neurona artificial o
unidad básica de inferencia en forma de discriminador lineal, es decir, un
algoritmo capaz de generar un criterio para seleccionar un sub-grupo de un
grupo de componentes más grande. La limitación de este algoritmo es que si
dibujamos en un plot estos elementos, se deben poder separar con un hiperplano
los elementos "deseados" de los "no deseados". El
perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona
artificial, para formar redes neuronales más complicadas.
Computadoras
contra humanos.
En 1968, el MI David Levy realizó una
famosa apuesta, en la cual afirmaba que ninguna computadora de ajedrez sería
capaz de derrotarle en diez años, bajo condiciones de torneo. Ganó la apuesta
en 1978, venciendo por 3'5-1'5 en un match de cinco partidas a la computadora
más fuerte por aquel entonces, Chess 4.7.
A principios de los años 2000, los
programas comercialmente disponibles como Junior y Fritz eran capaces de
entablar matches contra el campeón del mundo Garry Kasparov y el campeón del
mundo de ajedrez clásico Vladímir Krámnik.
Las computadoras, desde sus inicios,
analizaban completamente las posiciones de los finales. Las bases de datos de
finales10 están generadas por adelantado usando el análisis retrospectivo,
empezando con posiciones donde el resultado final es conocido (por ejemplo en
posiciones donde un bando ha ganado por jaque mate), y analizar qué movimientos
han conducido a la combinación final de piezas. Ken Thompson, más conocido por
ser uno de los creadores del sistema operativo UNIX, fue uno de los pioneros en
este tema.
Dr. Joseph
Weizenbaum y el Programa ELIZA.
Sobre los años 50, trabajó en computación
analógica, y ayudó a crear un ordenador digital para la Universidad Wayne
State. En 1955 trabajó para General Electric en el primer ordenador utilizado
por un banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos
años después creó allí su célebre departamento de ciencias de la computación.
Joseph
Weizenbaum (1923-2008), fue profesor emérito de Informática en el Instituto
Tecnológico de Massachusetts y se le considera uno de los padres de la
cibernética.
En 1966 publicó un aparentemente simple
programa llamado ELIZA que utilizaba el procesamiento del lenguaje natural para
dar la sensación de cierta empatía. El programa aplicaba reglas de concordancia
de patrones a las frases de los humanos para calcular sus respuestas.
Weizenbaum se sorprendió del impacto que este programa tuvo, al tomarse en
serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le
hizo pensar sobre las implicaciones filosóficas de la Inteligencia Artificial y
más adelante se convirtió en uno de sus más fervientes críticos.
Victor Scheinman
y El brazo Stanford.
A finales de los 1950, y mientras se
encontraba en el instituto, Scheinman diseñó una máquina para convertir voz a
texto en un proyecto para una feria de ciencias.
En 1972 (algunas fuentes citan 1969),
mientras estaba en la Universidad Stanford, Scheinman inventó el Stanford arm,
un brazo robot articulado de 6-ejes totalmente eléctrico, que era capaz de
alcanzar cualquier posición en el espacio bajo el control de una computadora,
ampliando el uso de los robots a aplicaciones más complejas como el ensamblaje
y la soldadura por arco.
Victor Scheinman es un pionero en el campo
de la robótica.
Se demuestran las propiedades de la visión
artificial para vehículos autoguiados en el Stanford Research Institute. Este
mismo año s e desarrollaron los brazos Boston y Stanford, este último dotado de
una cámara y controlado por computador. Sobre el brazo Stanford se desarrolló
un experimento en el que el manipulador apilaba bloques según determinados
criterios.
En 1973 Scheinman creó Vicarm Inc. para
manufacturar sus brazos robot.
En 1977, Scheinman vendió su diseño a
Unimation, quien lo mejoró, con ayuda de General Motors, creando el brazo Robot
PUMA.
Alain Colmerauer
y Philippe Roussel – Proyecto PROLOG.
El Prolog (o PROLOG), proveniente del
francés PROgrammation en LOGique,1 es un lenguaje para programar artefactos
electrónicos mediante el paradigma lógico con técnicas de producción final
interpretada. Es bastante conocido en el área de la Ingeniería Informática para
investigación en Inteligencia Artificial.
Diseñado para aplicaciones de inteligencia
artificial, gran parte de la reciente atención al Prolog se debe al proyecto
japonés para la creación de una computadora de quinta generación. Sin embargo,
el interés por la programación de inteligencia artificial ha llevado al
desarrollo de muchas implementaciones recientes. De hecho, Alain Colmerauer
creó en 1984 la compañía PrologIA para explotar el desarrollo de uno de los
prologs creados con anterioridad.
Alain Colmerauer (Nacido en 1941), es un
francés científico de la computación y el creador de la programación lógica
lenguaje Prolog.
Philippe Roussel (Nacido en 1945), es
Doctor en Informática, y creador junto con Alain Colmerauer y Robert Kowalski
del lenguaje de programación Prolog.
Prolog (PROgramming in LOGic) es un
lenguaje de programación para inteligencia artificial que hace uso de la lógica
de predicados. Fue desarrollado por Philippe Roussel y Alain Colmerauer en la
Universidad de Marsella en 1972. No obstante, el primer compilador lo construyó
el matemático Robert Kowalski, del Imperial College de Londres.
Ichiro Kato –
Robot WAP-1.
A mediados del siglo XX, el profesor
Ichiro Kato de la Universidad de Waseda estudió robots humanoides.
Hizo "WABOT-1", un robot
humanoide a gran escala en 1973. WABOT-1 tenía dos brazos, caminaba sobre dos
piernas y ve con dos ojos de la cámara. El WAP-3 se diseñó posteriormente
realizando movimientos en superficies planas, subiendo y bajando escaleras y
rampas, inclusive podía girar mientras caminaba.
Actualmente en Japón hay muchas
variaciones de la robótica.
Algunos diferentes tipos de robots son:
Humanoide Entretenimiento robots, androides, Animal (cuatro patas) Robots, Robots Sociales, Guardia Robots, y muchos más.
Humanoide Entretenimiento robots, androides, Animal (cuatro patas) Robots, Robots Sociales, Guardia Robots, y muchos más.
Hay también una variedad de
características para estos robots.
Desarrollo del
Sistema Experto (SE).
Los sistemas expertos son llamados así
porque emulan el razonamiento de un experto en un dominio concreto, y en
ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor
calidad y rapidez en las respuestas, dando así lugar a una mejora de la
productividad del propio experto al usar este tipo de sistemas informáticos.
Es una aplicación informática capaz de
solucionar un conjunto de problemas que exigen un gran conocimiento sobre un
determinado tema. Un sistema experto es un conjunto de programas que, sobre una
base de conocimientos, posee información de uno o más expertos en un área
específica. Se puede entender como una rama de la inteligencia artificial,
donde el poder de resolución de un problema en un programa de computadora viene
del conocimiento de un dominio específico. Estos sistemas imitan las
actividades de un humano para resolver problemas de distinta índole (no
necesariamente tiene que ser de inteligencia artificial). También se dice que
un “SE” se basa en el conocimiento declarativo (hechos sobre objetos,
situaciones) y el conocimiento de control (información sobre el seguimiento de
una acción).
Los Sistemas Expertos, con su capacidad
para combinar información y reglas de actuación, han sido vistos como una de
las posibles soluciones al tratamiento y recuperación de información, no sólo
documental. La década de 1980 fue prolija en investigación y publicaciones
sobre experimentos de este orden, interés que continua en la actualidad.
Japón y la 5ta.
Generación de computadoras.
La quinta generación de computadoras,
también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer
Systems). Fue un ambicioso proyecto propuesto por Japón a finales de la década
de 1970.
A través de las múltiples generaciones
desde los años 50, Japón había sido el seguidor en términos del adelanto y
construcción de las computadoras basadas en los modelos desarrollados en los
Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía,
Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los
líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un
futuro en la industria de la informática. El Centro de Desarrollo y Proceso de
la Información de Japón (JIPDEC) fue el encargado de llevar a cabo un plan para
desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para
realizar estudios más profundos con la participación conjunta de empresas de la
industria dedicadas a la tecnología e instituciones académicas, a instancias de
Hazime Hiroshi. Fue durante este período cuando el término "computadora de
quinta generación" comenzó a ser utilizado.
Redes de neuronas
artificiales.
Como ya hemos visto, los primeros modelos
de redes neuronales datan de 1943 por los neurólogos Warren McCulloch y Walter
Pitts. En 1958, Rosenblatt desarrolló el perceptrón simple, y en 1966 surgió un
programa llamado ELIZA creado por Joseph
Weizenbaum.
Años más tarde en la década de 1980
volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en
especial, al algoritmo de aprendizaje de retropropagación (BackPropagation)
ideado por Rumelhart y McClelland en 1986 que fue aplicado en el desarrollo de
los perceptrones multicapa.
Las redes de neuronas artificiales
(denominadas habitualmente como RNA o en inglés como: "ANN"1), son un
paradigma de aprendizaje y procesamiento automático inspirado en la forma en
que funciona el sistema nervioso biológico.
Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Una red neuronal se compone de unidades
llamadas neuronas. Cada neurona recibe una serie de entradas a través de
interconexiones y emite una salida.
Las redes neuronales artificiales (RNA)
tienen muchas ventajas debido a que están basadas en la estructura del sistema
nervioso, principalmente el cerebro.
Martin Fischels y
Oscar Firschein – (IA) I. Artificial y el (AI) Agente Inteligente.
En 1987 Martin Fischles y Oscar Firschein
describieron los atributos de un agente inteligente. Al intentar describir con
un mayor ámbito (no sólo la comunicación) los atributos de un agente
inteligente, la IA se ha expandido a muchas áreas que han creado ramas de
investigaciones enormes y diferenciadas.
Un agente inteligente, es una entidad capaz
de percibir su entorno, procesar tales percepciones y responder o actuar en su
entorno de manera racional, es decir, de manera correcta y tendiendo a
maximizar un resultado esperado. Es capaz de percibir su medio ambiente con la
ayuda de sensores y actuar en ese medio utilizando actuadores (elementos que
reaccionan a un estímulo realizando una acción).
Podemos entonces decir que la IA posee
características humanas tales como el aprendizaje, la adaptación, el
razonamiento, la autocorrección, el mejoramiento implícito, y la percepción
modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la
IA. En los 90´s surgen los agentes inteligentes al paso de los años eso fue
evolucionando.
Los
agentes inteligentes se han definido de diferentes maneras. Según Nikola
Kasabov los sistemas de IA deben exhibir las siguientes características:
v Aprender
nuevos problemas e incrementar normas de solución.
v Capacidad
de adaptación en línea y en tiempo real.
v Ser
capaz de analizar condiciones en términos de comportamiento, el error y el
éxito.
v Aprender
y mejorar a través de la interacción con el medio ambiente (realización).
v Aprender
rápidamente de grandes cantidades de datos.
v Deben
estar basados en memoria de almacenamiento masivo y la recuperación de dicha
capacidad.
Programa ALICE.
El programa se desarrolló prioritariamente
para solucionar tres problemas fundamentales del software educativo.
Alice es lenguaje de programación
educativo, libre y abierto orientado a objetos con un entorno de desarrollo
integrado (IDE).
Está programado en Java.
Utiliza un entorno sencillo basado en
“arrastrar y soltar” para crear animaciones mediante modelos 3D. Este software
fue desarrollado por investigadores de la Universidad Carnegie Mellon, entre
los que destaca Randy Pausch.
En estudios realizados en el Ithaca
College y en Saint Joseph's University, las notas medias de estudiantes sin
experiencia de programación y en su primer curso de informática subieron de
suficiente a notable y su retención del 47% al 88%.3 este es mi escritura.
Aldebaran
Robotics y Nao.
Nao es un robot humanoide programable y
autónomo, desarrollado por Aldebaran Robotics, una compañía de robótica
francesa con sede en París subsidiaria del grupo Softbank. El desarrollo del
robot comenzó en 2004 con el lanzamiento del Proyecto Nao.
El 15 de agosto de 2007, Nao sustituye al
perro robot Aibo de Sony como la plataforma estándar para la Robocup (Robot
Soccer World Cup), un concurso internacional de robótica. Nao se utilizó en
RoboCup 2008 y 2009, y el NaoV3R fue elegido como la plataforma para el SPL en
RoboCup 2010.
En diciembre de 2011, se liberó Nao Next
Gen, con mejoras de hardware y software, tales como cámaras de alta definición,
una mayor robustez, sistemas anticolisión y una velocidad al caminar más
rápida
Bruce Wilcox y la
tecnología Chatbot.
Wilcox trabajó en un chatbot tecnología
para Avatar Reality llamada CHAT-L. Su chatterbot Suzette se libera en el
Chatterbox Challenge 2009 y le fue bien, ganando Mejor Nuevo Motor de búsqueda
y que viene en el segundo más popular.
Bruce
Wilcox (nacido en 1951), es una inteligencia artificial programador.
Obtuvo
el Premio Loebner, engañando a uno de los cuatro jueces humanos. La entrada
Loebner fue escrito en script chat, un lenguaje nuevo diseño del CHAT-L.
El
motor es un proyecto de código abierto en SourceForge.
Ganó el Premio Loebner 2011, con un nuevo
chatbot, Rosette.
Su bot Angela llegó en segundo en 2012.
En 2013 su bot Rose entró tercero.
Rose bot de Bruce ganó el Premio Loebner
2014 y de nuevo en 2015.
Veselov, Demchenko, y Ulasen - Chatbot Eugene.
Eugene Goostman es un bot
conversacional. Desarrollado
por primera vez por un grupo de tres programadores; el ruso Vladimir Veselov,
el ucraniano Eugene Demchenko, y el ruso Sergey Ulasen en San Petersburgo en
2001.
El 7 de junio de 2014, en un concurso con motivo del 60 aniversario de
la muerte de Turing, el 33 % de los jueces del evento pensó que Goostman era
humano; el organizador del evento Kevin Warwick consideró que “pasó” la prueba
de Turing, en consecuencia, por la predicción de Turing que para el año 2000,
las máquinas serían capaces de engañar a un 30 % de los jueces humanos después
de cinco minutos de interrogatorio.
Eugene Goostman es retratado como un niño
de 13 años de edad, de Odessa, Ucrania, que tiene como mascota un conejillo de
india y un padre que es un ginecólogo.
Veselov declaró que Goostman fue diseñado
para ser un “personaje con una personalidad creíble”. La elección de la edad
fue intencional, en opinión de Veselov, como un niño de trece años de edad, “no
es demasiado viejo para saber todo y no demasiado joven para saber nada”.
La corta edad de Goostman también induce a
la gente que “dialoga” con él para perdonarle los errores gramaticales menores
en sus respuestas.
En 2014, el trabajo se hizo en la mejora
del “controlador de diálogo” del bot, lo que permite a Goostman una arranque en
el diálogo más parecido a los humanos.
Sistema Operativo
Android.
En octubre de 2003, en la localidad de
Palo Alto, Andy Rubin, Rich Miner, Chris White y Nick Sears fundan Android Inc.
con el objetivo de desarrollar un sistema operativo para móviles basado en
Linux.
En julio de 2005, la multinacional Google
compra Android Inc. El 5 de noviembre de 2007 se crea la Open Handset Alliance,
un conglomerado de fabricantes y desarrolladores de hardware, software y
operadores de servicio. El mismo día se anuncia la primera versión del sistema
operativo: Android 1.0 Apple Pie.
Los terminales con Android no estarán
disponibles hasta el año 2008.
Google lanza el primer teléfono con
sistema operativo Android. Basado en Linux y otros componentes de código
abierto, Android se convierte rápidamente en el sistema operativo de
preferencia de los fabricantes de equipos móviles, permitiéndoles enfocarse en
el hardware para desarrollar teléfonos con un ecosistema de miles de
aplicaciones compatibles.
Inteligencia y su definición.
La inteligencia (del latín, intellegentĭa)
es la capacidad de pensar, entender, razonar, asimilar, elaborar información y
emplear el uso de la lógica.
Cicerón incluyo la palabra inteligencia,
bajo el concepto de capacidad intelectual, dando así el significado.
El Diccionario de la lengua española de la
Real Academia Española define la inteligencia, entre otras acepciones, como la
«capacidad para entender o comprender» y como la «capacidad para resolver
problemas».
Sin embargo, de acuerdo con los
especialistas no existe una definición universalmente aceptada de qué es
inteligencia, por lo que no resulta fácil reducir el campo de estudio a una
definición simple.
La inteligencia es el término global,
mediante el cual se describe una propiedad de la mente, en la que se relacionan
habilidades tales como las capacidades del pensamiento abstracto, el
entendimiento, la comunicación, el raciocinio, el aprendizaje, la planificación
y la solución de problemas.
Facultad de la mente que permite aprender,
entender, razonar, tomar decisiones y formarse una idea determinada de la
realidad.
La American Psychological Association
(APA), una organización científica y profesional de psicólogos de EEUU, lo
expuso así: |os individuos difieren los unos de los otros en habilidad de
comprender ideas complejas, de adaptarse eficazmente al entorno, así como el de
aprender de la experiencia, en encontrar varias formas de razonar, de 1420
superar obstáculos mediante la reflexión.
A pesar de que esas diferencias
individuales puedan ser sustanciales, éstas nunca son completamente
consistentes: las características intelectuales de una persona variarán en
diferentes ocasiones, en diferentes dominios, y juzgarán con diferentes
criterios. El concepto de «inteligencia» es una tentativa de aclarar y
organizar este conjunto complejo de fenómenos.
Inteligencia artificial y su definición.
En el ámbito de las ciencias de la
computación se denomina como inteligencia artificial a la facultad de
razonamiento que ostenta un agente que no está vivo, tal es el caso de un
robot, por citar uno de los ejemplos más populares, y que le fue conferida
gracias al diseño y desarrollo de diversos procesos gestados por los seres
humanos. Cabe destacarse que además del poder de razonar, estos dispositivos
son capaces de desarrollar muchas conductas y actividades especialmente humanas
como puede ser resolver un problema dado, practicar un deporte, entre otros.
Las investigaciones e ideas fundamentales
sobre inteligencia nos remontan hasta los griegos, en años antes de cristo. El
concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales
del siglo XIX se obtienen lógicas formales suficientemente poderosas y a
mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales
lógicas y algoritmos de solución.
En 1943 cuando Warren McCulloch y Walter
Pitts propusieron un modelo de neurona del cerebro humano, se dio el nacimiento
de La Inteligencia Artificial, ya que estas eran la simbólica representación de
la actividad en el cerebro.
Ahora bien, es importante destacar que nos
podremos encontrar con diversos tipos de inteligencia artificial, como:
Sistemas que piensan como los seres
humanos (se ocupan de imitar el pensamiento humano, siendo un ejemplo las redes
neuronales artificiales, que justamente imitan el funcionamiento del sistema
nervioso).
Sistemas que actúan como los humanos (son
aquellos que imitan el comportamiento del hombre, el ejemplo más claro es el
del robot).
Sistemas que piensan de modo racional (se
caracterizan por imitar el pensamiento lógico de los humanos, es decir, en una
cuestión concreta razonan como expertos. Se los emplea especialmente a la hora
de buscar mejoras en la calidad y en la rapidez de un servicio).
Sistemas que actúan de manera racional
(imitan de manera racional el comportamiento de una persona, siendo capaces de
percibir el entorno y actuar en consecuencia).
La IA reúne varios campos como la robótica
o sistemas expertos y se encuentran ejemplos de IA en software capaces de responder
a diagnósticos, reconocimiento de escritura, habla, patrones y actualmente son
rutinarios en campos como la economía, la medicina, ingeniería, militar, juegos
de estrategia como el ajedrez entre muchas otras aplicaciones.
Diferencia y similitud entre Inteligencia Artificial y Natural.
La Inteligencia Humana, aun por increíble
que sea no tiene una definición exacta, lo que quiere decir que ninguna es
suficientemente precisa y acertada.
La mentalidad del individuo depende de estructuras,
funciones, normas, valores y modelos sociales. El hombre es, en suma, producto
de dos tipos de herencia: biológica y cultural.
Podríamos decir que el ser humano está
dotado de habilidades para expresar ideas con claridad, perspectivas,
pensamientos, sentimientos, para formar modelos mentales y poderlos maniobrar,
también posee una gran capacidad de
razonamiento abstracto y matemático, tiene habilidad con el cuerpo, puede
entender, motivar y ayudar a los otros.
El ser humano tiene la capacidad de aprender
y poder comparar ideas, diferenciar entre individuos sus estados de ánimo,
intensiones, motivaciones, temperamento, emociones.
Bajo sus propias experiencias, puede formar
una visión verídica de uno mismo y ser capaz de utilizarla para enfrentar la
vida.
A pesar de los grandes esfuerzos del
hombre, en su intento por crear un robot u ordenador con capacidades similares
a las del ser humano, este aún no ha podido lograr que exprese emociones o
identifique sensaciones, las cuales se considera esenciales para la
inteligencia.
La diferencia más importante entre el
cerebro y la computadora es la forma como guarda su información. En la
computadora, el método de almacenaje es ocupando un Disco duro (del inglés Hard
Disc) o un una celdilla de memoria para guardar la información. De manera
similar cuando quiere acceder a esa información, hace una llamada al Disco duro
o dispositivo donde se encuentre la información, para mostrarla.
En cambio en el cerebro humano, la gestión
es totalmente diferente, para acceder a la información no hacemos una llamada a
tal posición del cerebro, incluso no tenemos la definición clara de cómo se
guarda la información y cómo hace el cerebro para traer la misma información. No
tenemos la menor idea de donde se guarda una “X” información en nuestro
cerebro.
Pero no hace falta el tener la ubicación
exacta de la información, ya que al solo hecho de pensar o imaginar algo, automáticamente
el cerebro ejecuta una función (que el ser humano no comprende) para traer a
nuestra mente esa información, todo esto se realiza por la red neuronal
biológica.
Por ejemplo, pensemos en una forma
cuadrada, el cerebro ejecuta la acción y logramos ver en nuestra mente la imagen
de cuatro lados, pero a la misma vez, el cerebro es como el buscador de Google
en nuestro ordenador, nos da otras referencias en el buscador mental y podemos
ver otras formas similares al cuadrado.
Podemos recordar al ver en cierto punto y
fecha dada de nuestra vida, por ejemplo si imaginamos un objeto de madera,
podemos incluso recordar el olor de la
madera, el cerebro es una conexión compleja de todos los sentidos, todas la
conexiones están siendo usadas en una parte de nuestro cerebro para ejecutar
esta simple tarea, es un juego mental tan profundo que no podemos explicar de
manera sencilla y con detalle.
El cerebro humano y el computador presentan
las siguientes diferencias:
Cerebro.
·
Sistema de datos de múltiple propósito capaz
de tratar gran cantidad de información en poco tiempo pero no necesariamente
con exactitud.
·
Las frecuencias de los impulsos nerviosos
pueden varias.
·
Las llamadas sinapsis cumple en el cerebro la
función simultánea de varias compuertas.
·
La memoria es del tipo asociativo y no se
sabe dónde quedara almacenada
·
Los impulsos fluyen a 30 metros por Segundo.
Computadora.
·
Sistemas altamente especializados con
capacidad para procesar información muy concreta, siguiendo unas instrucciones
dadas.
·
La frecuencia de transmisión es inalterable y
está dada por el reloj interno de la máquina.
·
Las compuertas lógicas tienen una función
perfectamente determinada e inalterable.
·
La información se guarda en posiciones de
memoria de acceso directo por su dirección.
·
En el interior de una computadora los
impulsos fluyen a la velocidad de la luz.
La
similitud entre el cerebro y la computadora es la siguiente:
·
Ambos codifican la información en impulsos
digitales.
·
Tanto el cerebro como la computadora tienen
compuertas lógicas.
·
Existen distintos tipos de memoria.
·
Los dos tienen aproximadamente el mismo
consume de energía.
Sistemas Expertos - El origen.
Los Sistemas Expertos fueron desarrollados
por la comunidad de IA a mediados de los años ‘60. En este periodo de
investigación de IA se creía que algunas pocas reglas de razonamiento sumadas a
computadoras poderosas podían producir un experto o rendimiento súper-humano.
Un intento en esta dirección fue el General purpose Problem Solver (GPS),
Solucionador de problemas de propósito general (Turban, 1995).
General-purpose Problem Solver (Newell,
1958) o GPS fue un precursor de los SE. Esta tecnología define los pasos
necesarios para cambiar un estado inicial dado a una meta deseada. Por cada
problema se la da (1) un set de operaciones, precondiciones y post-condiciones.
GPS intentará reducir las diferencias entre el estado inicial y la meta.
Características de los Sistemas Expertos.
Estructura.
Los SE están compuestos por dos partes
principales: el ambiente de desarrollo y el ambiente de consulta. El ambiente
de desarrollo es utilizado por el constructor para crear los componentes e
introducir conocimiento en la base de conocimiento.
El ambiente de consulta es utilizado por
los no-expertos para obtener conocimiento experto y consejos (Turban, 1995).
Los siguientes son los componentes básicos de un SE:
Subsistema de
adquisición de conocimiento.
Es la acumulación, transferencia y
transformación de la experiencia para resolver problemas de una fuente de
conocimiento a un programa de computadora para construir o expandir la base de
conocimiento. El estado del arte actual requiere un ingeniero en conocimiento
que interactúe con uno o más expertos humanos para construir la base de
conocimiento.
Base de conocimiento.
Contiene el conocimiento necesario para
comprender, formular y resolver problemas. Incluye dos elementos básicos:
heurística especial y reglas que dirigen el uso del conocimiento para resolver
problemas específicos en un dominio particular.
Base de hechos.
Es una memoria de trabajo que contiene los
hechos sobre un problema, alberga los datos propios correspondientes a los
problemas que se desean tratar.
Motor de inferencia.
Es el cerebro del SE, también conocido
como estructura de control o interpretador de reglas. Este componente es
esencialmente un programa de computadora que provee metodologías para
razonamiento de información en la base de conocimiento. Este componente provee
direcciones sobre cómo usar el conocimiento del sistema para armar la agenda
que organiza y controla los pasos para resolver el problema cuando se realiza
una consulta. Tiene tres elementos principales:
Intérprete, ejecuta la agenda seleccionada;
programador, mantiene el control sobre la agenda; control de consistencia,
intenta mantener una representación consistente de las soluciones encontradas
(Turban, 1995).
Subsistema de justificación.
Se encarga de explicar el comportamiento
del SE al encontrar una solución.
Permite al usuario hacer preguntas al
sistema para poder entender las líneas de razonamiento que este siguió. Resulta
especialmente beneficioso para usuarios no expertos que buscan aprender a
realizar algún tipo de tarea.
Tipos de Sistemas Expertos.
Basados en reglas previamente establecidas.
Los sistemas basados en reglas trabajan
mediante la aplicación de reglas, comparación de resultados y aplicación de las
nuevas reglas basadas en situación modificada. También pueden trabajar por
inferencia lógica dirigida, bien empezando con una evidencia inicial en una
determinada situación y dirigiéndose hacia la obtención de una solución, o bien
con hipótesis sobre las posibles soluciones y volviendo hacia atrás para
encontrar una evidencia existente (o una deducción de una evidencia existente)
que apoya una hipótesis en particular.
Representación del conocimiento.
Hay numerosas formas de representar el
conocimiento en IA, sin embargo, los Sistemas Expertos suelen ser llamados
sistemas basados en reglas.
Reglas “Si...entonces...”.
Las reglas “si.. entonces..” son el principal
tipo de conocimiento usado en Sistemas Expertos, donde dichas normas se utilizan
para capturar razonamiento de expertos que emplean a menudo. Sin embargo, con
el tiempo los investigadores comenzaron
a desarrollar e integrar otras formas de representación del conocimiento, tales
como el razonamiento basado en casos.
Los sistemas que incluyen múltiples tipos
de conocimiento a veces se conocen como sistemas híbridos, o etiquetados después
de un determinado tipo de representación del conocimiento, por ejemplo, basado
en casos (O’Leary, 2008).
Basados en casos.
El razonamiento basado en casos es el
proceso de solucionar nuevos problemas basándose en las soluciones de problemas
anteriores. Un mecánico de automóviles que repara un motor porque recordó que
otro auto presentaba los mismos síntomas está usando razonamiento basado en
casos. Un abogado que apela a precedentes legales para defender alguna causa
está usando razonamiento basado en casos. También un ingeniero cuando copia
elementos de la naturaleza, está tratando a esta como una “base de datos de
soluciones”. El Razonamiento basado en casos es una manera de razonar haciendo
analogías. Se ha argumentado que el razonamiento basado en casos no sólo es un
método poderoso para el razonamiento de computadoras, sino que es usado por las
personas para solucionar problemas cotidianos. Más radicalmente se ha sostenido
que todo razonamiento es basado en casos porque está basado en la experiencia
previa.
Funcionamiento.
El nombre RETE viene del latín – significa
red. Un Sistema Experto basado en RETE construye una red de nodos acíclico. La
red rete consta de dos partes: una red alfa y una red beta. La red alfa
contiene nodos llamados nodos alfa, donde cada uno de los nodos alfa tiene una entrada
donde define los elementos y la red beta contiene nodos llamados nodos beta,
donde cada uno de los nodos beta tiene solo dos entradas donde define la
condición. Todo comienza en el nodo raíz por el cual todos los objetos entran a
la red y desde aquí van a un nodo llamado “nodo de tipo de objeto”. Los nodos
alfa son creados por cada patrón y asociados a su correspondiente tipo de
objeto.
Cada nodo alfa es asociado con una memoria
de conocimiento y se usa para recordar hechos encontrados. Los nodos alfa son
unidos en nodos beta. Puede darse que si hay tres nodos alfa, los primeros dos
nodos alfa se unirán en un nodo beta y luego la salida de ese nodo beta con el
tercer nodo alfa se unieron para formar otro nodo beta. Por último los nodos
beta determinan el posible cruzamiento para una regla y finalmente la acción de
la regla se ejecuta. A medida que se añaden o se modifican hechos, se propagan
los cambios por la red (Selvamony, 2010).
Redes Neuronales.
La neurona.
Emil Heinrich Du Bois-Reymond, en 1849 se
basó en la teoría de que el sistema nervioso poseía una naturaleza eléctrica,
detectaba las imperceptibles descargas eléctricas provocadas al contraer los
músculos del brazo. Utilizó un galvanómetro, que es un primitivo medidor de
tensiones.
Se dio cuenta de que la piel actuaba como
un aislante de las señales eléctricas entonces intencionalmente se abrió una
herida y logro captar señales eléctricas unas 30 veces más intensas.
El sistema nervioso está compuesto por una
red de células nerviosas, y está constituido por células nerviosas, fibras
nerviosas y la neuroglia, que está formada por varias clases de células. La
célula nerviosa se denomina neurona, que es la unidad funcional del sistema
nervioso.
Se estima que en cada milímetro del
cerebro hay cerca de 50.000 neuronas.
La neurona desde el
punto de vista computacional.
Desde el punto de vista funcional, las
neuronas constituyen procesadores de información “sencillos”. Posee un canal de
entrada de información (las dendritas), un órgano de computo (el asoma), y un
canal de salida (el axón). En las interneuronas el axón envía la información a
otras neuronas, mientras que en las neuronas motoras lo hace directamente al
musculo. Existe otro tipo de neuronas, las receptoras o censoras, que reciben
la información directamente del exterior. Se calcula que una neurona de la
corteza cerebral recibe información por medio de, unas 10,000 neuronas
(convergencia) y envía impulsos a varios cientos de ellas (divergencia).
En el cerebro se aprecia la existencia de
una organización horizontal en capas (se suelen señalar seis capas), además de
existir una organización vertical en forma de columnas de neuronas
pertenecientes a una determinada región del cerebro, que constituyen unidades
funcionales especializadas en ciertas tareas (Un área visual, un área auditiva,
etc.) formando parar ellos las denominadas redes neuronales.
La unión entre dos neuronas se ha
denominado sinapsis, podemos decir las neuronas pre sinápticas (que envían
señales) y las post sinápticas (que las reciben). La sinapsis son direcciones,
es decir, la información fluye en solo sentido. Cada neurona recibe impulsos
procedentes de otras neuronas (inputs) a través de las dendritas que están
conectadas a las salidas de otras neuronas por la sinapsis, estas alternan la
efectividad con la que la señal es transmitida a través de un parámetro, el
peso.
El aprendizaje resulta la modificación de
estos pesos, que unido al procesamiento de la información de la neurona,
determinan el mecanismo básico de la memoria. El Soma de la neurona recibe
todos los inputs, y emite una señal de salida (output), esta salida se
transmite a través del axón desde donde se propaga mediante diferencias de
potencial a las dendritas de otras neuronas.
La red neuronal.
El sistema de neuronas biológico está
compuesto por neuronas de entrada (censores) conectados a una compleja red
(neuronas ocultas), las cuales, a su vez, están conectadas a las neuronas de
salida que controlan, por ejemplo, los músculos. Los censores pueden ser
señales de los oídos, ojos, etc., las respuestas de las neuronas de salida
activan los músculos correspondientes. En el cerebro hay una gigantesca red de
neuronas ocultas que realizan la computación necesaria.
Simular una red neuronal artificial se
intenta en expresar la solución de los problemas complejos, no como una
secuencia de pasos, sino como la evolución de unos sistemas de computación
inspirados en el funcionamiento del cerebro humano, y atribuyéndole cierta
“inteligencia”, los cuales no son sino la combinación de una gran cantidad de elementos simples de
procesos (neuronas)interconectados que, operando de forma masiva, consiguen
resolver problemas relacionados con el conocimiento de formas o patrones,
predicción, codificación, clasificación, control y optimización.
Por esta razón, científicos han vuelto la
vista hacia el cerebro tratando de estudiarlo desde el punto de vista de la
computación, la estructura del cerebro es radicalmente diferente a la del
ordenador convencional. No está compuesto por un único microprocesador
altamente complejo y eficiente, sino por
miles de millones de ellos, las neuronas, que realizan de modo impreciso y
relativamente lento un tipo de cálculo muy simple. A partir de esta idea
surgieron los sistemas expertos.
Funcionalidad de las
redes neuronales.
Las redes neuronales artificiales son unas
técnicas que se han venido aplicando con éxito en tareas de clasificación,
reconocimiento y predicción en muchas áreas de conocimiento. Uno de los grandes
potenciales de las redes neuronales es que son capaces de establecer relaciones
funcionales entre varias dependientes e independientes aun cuando las
relaciones son altamente no lineales debido a la variabilidad de la influencia
de los factores y a su sensibilidad ante la influencia de otros factores no
contemplados en el modelo, tal y como ocurre en los procesos de lluvia.
Robótica.
La robótica es la rama de la ingeniería
mecánica, ingeniería eléctrica, ingeniería electrónica y ciencias de la
computación que se ocupa del diseño, construcción, operación, disposición
estructural, manufactura y aplicación de los robots.
La robótica combina diversos disciplinas
como son: la mecánica, la electrónica, la informática, la inteligencia
artificial, la ingeniería de control y la física. Otras áreas importantes en
robótica son el álgebra, los autómatas programables, la animatrónica y las
máquinas de estados.
El término robot se popularizó con el
éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en
1920. En la traducción al inglés de dicha obra, la palabra checa robota, que
significa trabajos forzados, fue traducida al inglés como robot.
Historia de la robótica.
La historia de la robótica va unida a la
construcción de "artefactos", que trataban de materializar el deseo
humano de crear seres a su semejanza y que lo descargasen del trabajo. El
ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a
distancia para su automóvil mediante telegrafía sin hilo, el ajedrecista
automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el
término "automática" en relación con la teoría de la automatización
de tareas tradicionalmente asociadas.
Karel Čapek, un escritor checo, acuñó en
1921 el término "Robot" en su obra dramática Rossum's Universal
Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre
o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo
a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la
Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando
nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores
caseras.
Los tres principios o
leyes de la robótica según Asimov:
·
Un robot no puede lastimar ni permitir que
sea lastimado ningún ser humano.
·
El robot debe obedecer a todas las órdenes de
los humanos, excepto las que contradigan la primera ley.
·
El robot debe auto protegerse, salvo que para
hacerlo entre en conflicto con la primera o segunda ley.
Cronología.
La
que a continuación se presenta es la clasificación más común:
·
1. ª Generación: Manipuladores. Son sistemas
mecánicos multifuncionales con un sencillo sistema de control, bien manual, de
secuencia fija o de secuencia variable.
·
2. ª Generación: Robots de aprendizaje.
Repiten una secuencia de movimientos que ha sido ejecutada previamente por un
operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El
operador realiza los movimientos requeridos mientras el robot le sigue y los
memoriza.
·
3. ª Generación: Robots con control
sensorizado. El controlador es una computadora que ejecuta las órdenes de un
programa y las envía al manipulador para que realice los movimientos
necesarios.
·
4. ª Generación: Robots inteligentes. Son
similares a los anteriores, pero además poseen sensores que envían información
a la computadora de control sobre el estado del proceso. Esto permite una toma
inteligente de decisiones y el control del proceso en tiempo real.
Variedad de estructuras.
La estructura, es definida por el tipo de
configuración general del Robot, puede ser metamórfica. El concepto de
metamorfismo, de reciente aparición, se ha introducido para incrementar la
flexibilidad funcional de un Robot a través del cambio de su configuración por
el propio Robot. El metamorfismo admite diversos niveles, desde los más
elementales (cambio de herramienta o de efecto terminal), hasta los más complejos
como el cambio o alteración de algunos de sus elementos o subsistemas
estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la
denominación genérica del Robot, tal como se ha indicado, son muy diversos y es
por tanto difícil establecer una clasificación coherente de los mismos que
resista un análisis crítico y riguroso. La subdivisión de los Robots, con base
en su arquitectura, se hace en los siguientes grupos: poli articulados,
móviles, androides, zoomórficos e híbridos.
·
Poli-articulados.
En este grupo se encuentran los Robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo, se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.
En este grupo se encuentran los Robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo, se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.
·
Móviles.
Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.
Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.
·
Androides.
Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.
Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.
·
Zoomórficos.
Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.
Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.
·
Híbridos.
Corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo, uno de los atributos de los Robots móviles y de los Robots zoomórficos.
Corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo, uno de los atributos de los Robots móviles y de los Robots zoomórficos.
Futuro de la IA en la tecnología.
La IA es una de las áreas más fascinantes
pero con más retos de las ciencias de la computación y la tecnología. Esta
nació de la necesidad del hombre de imitar a su naturaleza circundante al grado
de imitarse a sí mismo mediante sistemas o máquinas capaces de sustituirle en ciertos
trabajos o actividades.
Es por esto que los programas de IA
prometen ser el futuro de la tecnología en donde a las actuales máquinas o
robots se les podrá unir las tecnologías de reconocimiento de voz y video.
Aunque aún estamos lejos de que un sistema
informático alcance el nivel de inteligencia y cognoscitivo del cerebro humano
que se compone de unas 100,000 millones de neuronas siempre se tiene el temor
de que si alcanzamos este nivel esta inteligencia artificial podría llegar a
entender su ahora independencia de la raza humana y querer estar a un mismo
nivel. Aunque esto suena a ciencia ficción con el acelerado avance de la
tecnología esto podría dejar de solo estar en nuestra imaginación.
Por ahora se debe hacer un buen uso de
este avance del campo tecnológico para mejor desarrollo de sistemas que nos
puedan ayudar a mejor nuestro nivel de vida como son los sistemas expertos
médicos que nos ayudan a diagnosticar enfermedades y encontrar posibles
tratamientos, también sistemas inteligentes que nos ayuden en el campo de la
ingeniería y la mecánica con el desarrollo de máquinas cada vez más precisas y
mejores que nos sustituyan en tareas peligrosas como lo es la desactivación de
bombas, la manufactura con químicos altamente tóxicos o el manejo de materiales
peligrosos.
El futuro en el área de la salud.
La Inteligencia Artificial (IA) es un
campo de estudios muy amplio, y en constante cambio. Sin embargo, su producto
final es siempre software.
Estos programas, producto del trabajo de
la “IA”, son denominados Sistemas Inteligentes (SI).
Un “SI” incorpora conocimiento sacado de
la experiencia y experticia de los expertos humanos. Los campos de aplicación de
tales SI’s son muy variados, pensemos por ejemplo en un sistema de diagnóstico
médico, o en un sistema integrado de ayuda a la toma de decisiones
empresariales. En cualquier caso, un SI partirá de unos datos y los convertirá
en información (conocimiento), de modo que ayude a tomar una decisión. Para
convertir los datos en información útil, empleará algoritmos de razonamiento,
aprendizaje, evolución, etc. Además, el “SI” actuará siempre en tiempo real, lo
que representa un aumento de la productividad.
En
el caso de la medicina las aplicaciones de la Inteligencia artificial son tan
amplias que no podremos ni siquiera resumirlas todas, por lo que haremos
mención de algunas de las que más extensamente se han usado y de algunas de las
que más se están utilizando en la actualidad.
Dos investigadores de la Universidad de
Indiana han desarrollado un modelo de Inteligencia Artificial que dicen que
puede identificar mejor y de manera significativa los tratamientos que ofrecen
los médicos a los pacientes. Al igual
que la computadora Watson, lista para ayudar en los tratamientos contra el
cáncer, se trata de una nueva evidencia de cómo el manejo de grandes volúmenes
de datos en las computadoras tendrá un profundo impacto en los sistemas de
salud.
Según cuentan los investigadores, se
trataría de técnicas de modelado predictivo que pueden llegar a tomar
decisiones más precisas sobre los tratamientos. Lo afirman con estadísticas,
con unas pruebas que arrojaron una reducción del 50% en los costos que se suponen
en medicina y de más del 40% de mejora en cuanto a los resultados en los
pacientes.
La idea detrás de la investigación de
Cassey Bennet y Kris Hauser es simple. Si los médicos pueden considerar lo que
está sucediendo realmente desde el principio, en lugar de confiar en la
intuición, se tomarían mejores decisiones.
Para demostrar su hipótesis, los
investigadores trabajaron con datos clínicos, demográficos y otra información
sobre más de 6.700 pacientes que tenían los diagnósticos de depresión clínica
más severos, de los cuales aproximadamente el 65% tenían trastornos físicos
crónicos como la diabetes, hipertensión o enfermedades cardiovasculares.
Construyeron un modelo de “IA” utilizando
el denominado Proceso de Decisión de Markov (que predice la probabilidad de
eventos futuros basados en los inmediatamente anteriores a ellos) y
considerando las características específicas de estos eventos con el fin de
determinar las probabilidades. Esencialmente, su modelo considera los detalles
del estado actual de un paciente para luego determinar la mejor acción que
efectúe el mejor resultado posible.
Ambos investigadores encontraron a través
de una simulación de 500 casos al azar que su modelo disminuía el costo
económico con una mejora del 58,5%. Encontraron que su modelo original mejoraba
los resultados del paciente en casi un 35%, y que ajustando algunos parámetros
podrían reducir esta cifra a 41,9%.
Unos resultados que se viene a sumar a la
noticia que llega desde IBM y que nos indica que los equipos informáticos, el
manejo y análisis de grandes volúmenes de datos será de un gran beneficio en el
futuro para la atención de salud.
En el caso de IBM, la compañía ha
anunciado dos nuevas versiones comerciales de Watson, una de ellas diseñada
específicamente para determinar el mejor tratamiento para pacientes con cáncer
de pulmón. Lo consigue a través del análisis de una "biblioteca" de
millones de datos clínicos e investigaciones médicas.
Noticias que no indican que en un futuro se
vaya a suplantar la figura de los médicos por una Inteligencia Artificial
avanzada, todo lo contrario, la tecnología servirá para complementar el trabajo
de los profesionales, digiriendo grandes cantidades de información sobre casos
e investigaciones en un tiempo récord para que el médico pueda encontrar el
mejor tratamiento posible ante cada situación.
Corazón artificial.
El primer implante de corazón artificial
se produjo en el año 1982, y desde ahí se ha experimentado una gran evolución
en la materia. Pero hay que tener en cuenta que por la gran complejidad que
enfrenta su desarrollo sigue siendo aún materia experimental. El modelo más
avanzado conocido es el AvioCor, este corazón artificial ha demostrado ser
eficiente por periodos de tiempo que superan los 500 días. Todos sus
componentes son implantados en el interior del cuerpo y mantienen un
mantenimiento mínimo.
El implante respeta la circulación
sanguínea, mediante conexiones con las principales venas y arterias sin
necesidad de suturas internas para evitar que se entorpezca el flujo sanguíneo.
El implante del corazón artificial requiere, si, una intervención de cirugía
mayor. El corazón artificial ocupa la cavidad que deja el corazón del paciente
luego de ser extirpado durante la cirugía. La material con el que está
construido el corazón artificial es una aleación de titanio y un plástico
liviano, antiadherente para la sangre. ¿Cómo funciona? La clave del corazón
artificial es que posee paredes flexibles que contienen un fluido siliconado.
En el interior del mismo, un motor produce fuerza centrífuga en el fluido, y
por lo tanto, en las paredes flexibles del compartimiento. Controlas esta
presión (mediante válvulas) es la función principal del funcionamiento de este
órgano artificial.
Retina artificial.
Científicos japoneses han desarrollado un
sistema de visión artificial para ciegos o personas con la vista deteriorada
que hace llegar las señales visuales al cerebro, informa la revista The
Inquirer.
El fabricante de productos oftalmológicos
de Japón, Nidek, el profesor Yasuo Tano, de la Universidad de Osaka y el
profesor Jun Ota del Instituto Nara de Ciencia y Tecnología trabajaron
conjuntamente en el desarrollo de este sistema, que está compuesto por unas
gafas de sol que llevan incorporadas unas cámaras que filman las imágenes de
aquello que se encuentra delante del sujeto y un dispositivo electrónico que
convierte estas imágenes en señales digitales.
Además, el sistema incluye el implante en el ojo de un juego de electrodos
de cuatro milímetros cuadrados que estimulan el nervio óptico. Una vez que las
señales alcanzan el cerebro, el paciente puede ver de nuevo La importancia de
la medicina en las aplicaciones de la inteligencia artificial ha sido realmente
notable, hasta el extremo de que esas aplicaciones tienen nombre propio: AIM,
acrónimo de Artificial Intelligence in Medicine que, desde hace 15 años, ha
evolucionado como una activa y creciente disciplina.
Aunque las primeras aplicaciones de la AIM
han sido sobre todo el diagnóstico y el tratamiento, han emergido con mayor
fuerza otras aplicaciones de la inteligencia artificial en el sector médico y
farmacéutico: administración óptima de recursos, planificación de personal,
previsión de necesidades, ayuda a los análisis de química orgánica y gestión de
la información científica, que en o ocasiones han aportado más rentabilidad que
los problemas de diagnóstico mencionados.
En el campo del diagnóstico y tratamiento,
la inteligencia artificial cuenta con importantes realizaciones: MYCIN 1976, en
Stanford, sobre enfermedades infecciosas; CASNET 1979, en Rutgers, sobre
oftalmología 4,5; INTERNIST 1980, en Pittsburg, sobre medicina interna; PIP
1971, en MIT, sobre afecciones renales; Al/RHEUM 1983, en la Universidad de
Missouri, sobre el diagnóstico en reumatología, SPE 1983; Rutgers, para
interpretar los resultados de electroforesis de las proteínas del suero
producidas por instrumentos de análisis; TIA 1984, en la Universidad de
Maryland, sobre terapia de ataques isquémicos.
Para conseguir este comportamiento
inteligente se dispone de distintas herramientas; una de ellas es la
mecanización del razonamiento, encadenando afirmaciones o silogismos; este
concepto de racionalidad mecánica, que es el origen de los llamados sistemas
expertos, es realmente muy anterior a la llegada de los ordenadores. En su
historia encontramos el concepto de racionalidad sistemática de Descartes en el
"Discurso del método" de 1637 y el raciocinio como cálculo simbólico
en Hobbes, en 1651, aunque hasta la aparición de los ordenadores no se
materializan estas ideas.
La medicina es otro de los campos en los
que también se están empleando técnicas de IA. Científicos del Instituto de
Investigación en el Genoma Humano estadounidense y de la Universidad de Lund,
en Suecia, han desarrollado una técnica que aplica IA a unos chips que empiezan
a usarse para análisis genético de muestra, los denominados
"biochips", y que les permite distinguir con rapidez entre varios
tipos de cáncer. Por otra parte, diversos equipos de científicos están tratando
de crear sistemas contra la gran cantidad de enfermedades geriátricas que
ocasionan pérdida de la memoria. Los sistemas de cognición asistida combinan
software de IA, tecnología GPS, redes de sensores y placas identificativas
infrarrojas que acompaña al paciente a todos los lugares. "Con los
sistemas de cognición asistida, los ancianos podrán permanecer en su hogar más
tiempo, y cuidar de sí mismos sin ayuda", señala Eric Dishman, gerente de
investigación de la división de I+D de la empresa Intel. Sin embargo,
"todavía faltan entre 20 y 30 años" para que exista un dispositivo de
IA perfeccionado y de tiempo completo que pueda reemplazar a las personas en el
cuidado del paciente geriátrico", en palabras de Henry Kautz, director del
"Proyecto de Cognición Asistida" de la Universidad de Washington,
cuyo objetivo es monitorear los hogares a través de complejas redes de
detectores de movimientos y placas de identificación que emiten señales infrarrojas.
A
pesar de las ventajas que ofrece la IA, hay quien está en contra de dotar de
tanta "inteligencia" a las máquinas. El conocido físico Stephen
Hawking ha advertido sobre la urgente necesidad de mejorar genéticamente la
especie humana y evitar que las computadoras dominen el mundo. "A
diferencia de nuestro intelecto", afirma el físico, "los ordenadores
duplican su capacidad cada 18 meses y por ello existe el peligro real de que
puedan crear una inteligencia propia y asuman el control" otra de su
gerencias es simular el desarrollo del as tecnologías que permitan comunicación
directa entre ordenadores y humanos, para que así las maquinas contribuyan a la
humanidad en vez de revelarse contra ella.
Conclusión.
Después de largos años de estudio, de ensayo,
prueba y error, como resultado se tienen enormes hallazgos de grandes hombres
ciencia.
La humanidad se ha visto beneficiada en
diferentes campos, que han marcado la pauta para la creación de otros nuevos.
La IA es tan importante en nuestra vida que con los avances tecnológicos que se
tienen en nuestros días, ahora es posible mejorar la calidad de vida a una
persona que ha perdido alguna extremidad, supliéndola con una prótesis
tecnológica.
El riego y suministro de agua en lugares
de difícil acceso, ahora se ve mejorado mediante sistemas tecnológicos de riego
y suministro de agua.
En el campo de la arqueología, la
tecnología de este tiempo ha podido ayudar a los expertos en la materia para
descifrar años de historia perdida, esta les ha facilitado datar artículos e
instrumentos antiguos con gran exactitud y así mismo ha permitido que
especialistas mantengan en buen estado piezas de gran valor, evitando su
deterioro.
La tecnología ha sido de gran ayuda para
los genetistas, que han logrado encontrar errores que podrían ser corregidos en
el ADN humano, también en el campo forense ha sido de gran ayuda, ya que los
expertos pueden reconocer un cuerpo en descomposición y sin esta tecnología
sería muy difícil hacerlo.
El acceso de la humanidad en la era
digital, sin lugar a dudas ha sido el más importante de todos, ya que ha
logrado conectar a millones de usuarios en todo el mundo, facilitando la
comunicación, compartiendo información con tan solo un clic en nuestro
computador, podemos realizar video llamadas en tiempo real de un lugar a otro;
que está a miles de kilómetros de distancia.
Reflexión.
¿Porque has elegido este tema?
El tema sobre la inteligencia artificial y todo lo que
tenga que ver con tecnología me llama mucho la atención. Lo escogí porque
estaba seguro que dentro de la investigación encontraría información muy útil y
me ayudaría a saber más.
La cantidad de información que uno puede encontrar es
infinita, una página lleva a otra y un tema lleva a otro conectando perfectamente.
Realmente ha sido una gran práctica.
¿De dónde partiste para escribir?
Primero
comencé por los archivos que comparte la página de UnADM y conforme fui
avanzando en la lectura, me di cuenta necesitaba saber más sobre el tema. Así
que el siguiente paso, fue comenzar una búsqueda en la web de manera
cronológica y por tema, analizando los textos, recabando información y
desechando textos que fueran repetitivos.
Bibliografía.
Gómez
Herrera, R. (2013). La inteligencia artificial. ¿Hacia dónde nos lleva? ¿Cómo
ves?, N°. 2, (Pp. 8-11). México: UNAM, recuperado el 13/04/15 de: http://www.comoves.unam.mx/assets/revista/2/la-inteligencia-artificial-hacia-donde-nos-lleva.pdf







































No hay comentarios:
Publicar un comentario