martes, 26 de abril de 2016

Argumentación lúdica

Eje 4, Actividad 2



Inteligencia artificial.




Introducción.


     Hablar de ciencia y tecnología resulta un tema de gran interés para la humanidad, no solo para científicos y(o) filósofos. La inquietud del ser humano ha llevado al hombre a sumergirse en un mundo de investigaciones, buscando más allá de lo que pueden mirar sus propios ojos. Ha encaminado al hombre a un Universo de conocimientos y nuevos descubrimientos, pero hay algo que aún lo inquieta, la inteligencia y la capacidad del cerebro humano.
     Si bien, el cerebro humano es capaz de guardar grandes cantidades de información, también es capaz de procesarla a grandes velocidades, ya que este contiene redes neuronales que van de un lugar a otro, interconectándose. De esta manera es que la información fluye en nuestro cerebro, llevando a cabo las ordenes de alguna acción a nuestro cuerpo.
     El cerebro humano es capaz de procesar la información adquirida previamente de manera automática, piensa por sí mismo. Esto hace que el cerebro logre resolver problemas simples o con cierto grado de dificultad, aun si fueran problemas muy complejos, el mismo cerebro tiene la capacidad de idear nuevas alternativas, tomando en cuenta sus experiencias y conocimientos previos.
     A todos esos resultados que han inquietado al hombre y lo han llevado al estudio e investigación, le llaman inteligencia.
Pero, ¿qué es la inteligencia? Una definición dada por el científico John McCarthy dice que: “la inteligencia es la capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios”.
     Entonces, “la inteligencia” es la razón que inquieta tanto al hombre. Por ende se creó el deseo de investigar más acerca de la mente humana, su funcionamiento y comportamiento, cosa que incluye a la inteligencia.
     En los años 50, época donde incursiono la computación, se especulaba sobre las posibilidades de otorgar las cualidades de la inteligencia humana a las maquinas, de manera artificial, pero esto demostró que es algo mucho más complejo de lo que se pensaba. De ahí que se inicia el estudio de la Inteligencia Artificial (IA) cuyo nombre se dio formalmente en 1956, durante una Conferencia en la Universidad Dartmouth College (en inglés: the Dartmouth Summer Research Proyect on Artificial Intelligence), ubicada en: Hanover, New Hampshire (Estados Unidos).

     Los avances de la tecnología y el deseo incansable por resolver las grandes incógnitas de la naturaleza y el funcionamiento del cuerpo humano, han alcanzado en nuestros días grandes logros.
     Más de 50 años de investigaciones e invenciones de grandes hombres de ciencia, están llevando a la humanidad a un mundo lleno de nuevas oportunidades tecnológicas y médicas, por mencionar algunos campos donde se puede aplicar estos conocimientos.
     Estos años de arduo trabajo han dado la pauta de crear nuevas definiciones y nuevos campos de estudio, el mundo entero está incursionando en un nuevo ciclo, donde deberá esforzarse aún más para incrementar su amplia gama de conocimientos, y de ésta forma generar un mejor porvenir para todos los seres de este planeta.
     Veamos como la historia ha sido fiel testigo y ha guardado en sus años el testimonio de grandes personajes, que han aportado sus conocimientos, cualidades, habilidades y descubrimientos a lo largo de los años.


Historia de la inteligencia Artificial.

Aristóteles - Silogismos.

     Desde tiempos muy remotos en escritos históricos, se pone de manifiesto lo que al hombre le ha causado tanta inquietud. Esto nos remonta a tiempos antes de cristo, donde  las primeras ideas básicas hacen referencia a los griegos.


     Aristóteles (384-322 a. C.) fue un polímata: filósofo, lógico y científico de la Antigua Grecia cuyas ideas han ejercido una enorme influencia sobre la historia intelectual de Occidente por más de dos milenios.

     Este hombre escribió  cerca de 200 tratados con una enorme variedad de temas incluyendo lógica, metafísica, filosofía de la ciencia, ética, filosofía política, estética, retórica, física, astronomía y biología.
     Fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales.
     Esto nos dice que, de seguir paso a paso, bajo la comparación de un conjunto de reglas o premisas se puede obtener un nuevo juicio o conclusión. Esto se obtiene de la comparación de dos conceptos extraídos de la propia experiencia o bien de forma lógica.

Ctesibio - Reloj de agua y la maquina auto-controlada.

     Aunque se sabe muy poco de este personaje es indiscutible que era una persona que dedicaba su vida a la investigación dado de su nivel de inteligencia, este personaje también surge en Grecia, contribuyendo a la humanidad con sus conocimientos.



     Ctesibio  (285-222 a. C.) fue un inventor y matemático griego de Alejandría. Se sabe poco de su obra y vida, pero sus contribuciones a la investigación de los fenómenos naturales, así como de la geometría, son sólo inferiores a los de Arquímedes. Escribió el primer tratado científico acerca del aire comprimido, empleando para su elaboración bombas neumáticas e incluso cañones. Estas investigaciones, junto con los ensayos de elasticidad del aire (Pneumática), le concedieron la fama de ser "padre de la neumática". Gracias a sus aportes intelectuales se diseñó la primer maquina auto-controlada y  el reloj de agua o clepsidra.
     Una prueba más de la inquietante búsqueda del origen del funcionamiento de las cosas.

Ramon Llull - Razonamiento artificial.

     Ciertamente España también contribuyo con otro hombre de ciencia, el cual aporto a la ciencia con 280 obras.




     Ramon Llull (1232-1315) fue una de las figuras más avanzadas de los campos espiritual, teológico y literario de la Edad Media y fue escritor, cabalista, divulgador científico, misionero, teólogo, fraile franciscano, alquimista entre otras cosas.
     Uno de sus grandes creaciones lleva el nombre de Ars Generallis Ultima (Última Arte General) o Ars Magna (Gran Arte), este artefacto es una fusión de tecnología y filosofía. Así pues, Llull se dedicó a diseñar y construir una máquina lógica. De naturaleza mecánica, en ella las teorías, los sujetos y los predicados teológicos estaban organizados en figuras geométricas de las consideradas "perfectas" (por ejemplo círculos, cuadrados y triángulos). Al operar unos diales y palancas, girando manivelas y dando vueltas a un volante, las proposiciones y tesis se movían a lo largo de unas guías y se detenían frente a la postura positiva (certeza) o negativa (error) según correspondiese. Según Llull, la máquina podía probar por sí misma la verdad o mentira de un postulado.

George Boole - Lógica proposicional.

     Reino unido vio nacer sistema de cálculo lógico, que póstumamente seria llamado álgebra de Boole. Aunque fue un siglo más tarde se tomaría como campo de aplicación en la informática y microprocesadores que dado que su funcionamiento está basado en la lógica de Boole.



George Boole (1815- 1864) fue un matemático y lógico británico.
     Como inventor del álgebra de Boole, que marca los fundamentos de la aritmética computacional moderna, resume la lógica en álgebra simple.
     Boole es considerado como uno de los fundadores del campo de las Ciencias de la Computación.
     Desarrolló un sistema de reglas que le permitían expresar, manipular y simplificar problemas lógicos y filosóficos cuyos argumentos admiten dos estados (verdadero o falso) por procedimientos matemáticos. Se podría decir que es el padre de los operadores lógicos simbólicos y que gracias a su álgebra hoy en día es posible operar simbólicamente para realizar operaciones lógicas.

Gottlob Frege - Lógica matemática moderna.

     Sin lugar a dudas Europa ha sido un continente que ha dado grandes exponentes de ciencia, filosofía, etc. En este caso toca mencionar a Gottlob Frege, este hombre presento una nueva plataforma en la disciplina que no había sido alterada desde los tiempos de Aristóteles.



Gottlob Frege (1848-1925) Matemático filósofo y lógico alemán.
     Se le considera el padre de la lógica moderna, ya que aporto con sus conocimientos a la realización de un nuevo sistema lingüístico, evitando ambigüedad y asistematicidad del lenguaje común, llevando así la expresión del razonamiento deductivo a su máxima expresión.
Además contribuyo con obra: Los fundamentos de la aritmética, donde integro la aritmética sobre la base de la lógica.

François Anatole - Serie Fibonacci y las torres de Hanói.

     Paris - la ciudad de la luz, vio nacer un importante personaje que fue el creador de la serie de Fibonacci y el test de primalidad, inventor del juego recreativo matemático muy conocido, las Torres de Hanói.



François Édouard Anatole Lucas (1842-1891) Matemático Francés.
     Debido al  interés por mostrar un sistema resolutorio y encontrar una solución, este hombre creo la serie de Fibonacci, resumiendo en una formula o ecuación la forma de obtener el n-ésimo término de la serie omitiendo calcular todos los términos predecesores.
     Una prueba fehaciente de la inteligencia y la lógica humana, plasmada en formulas y métodos de solución de problemas.

La máquina de Turing y la inteligencia artificial.

     La inteligencia y conocimientos de Turing surgieron en la comunidad británica, Este personaje mostró interés por los numero la lectura y los rompecabezas desde temprana edad.



     Alan Mathison Turing, (1912- 1954), fue un matemático, lógico, científico de la computación, criptógrafo, filósofo, maratoniano y corredor de ultra distancia británico.
     Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing.
     Sus ansias de conocimiento y experimentación llegaban hasta tal punto que a los ocho años, atraído por la química, diseñó un pequeño laboratorio en su casa. Su carrera escolar estuvo marcada, por un lado, por sus aptitudes y su facilidad por las matemáticas y, por el otro, por su carácter inconformista que le llevaba a seguir sus propias ideas y apartarse del rígido (e ilógico, según su parecer) sistema educativo.
     Se cuenta que aprendió a leer por sí solo en tres semanas y que desde el principio mostró un gran interés por los números y los rompecabezas.
     El funcionamiento de su sistema se basaba en enviar señales electromagnéticas para mover partes mecánicas, el tiempo de respuesta tenía un promedio de 3 a 5 segundos por cada cálculo. La máquina ejecutaba operaciones de matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico.

Konrad Zuse y la computadora Z3.

     1941 fue el año en que Konrad Zuse creo la primer maquina programable y completamente automática, estas características fueron utilizadas para darle nombre y definirla como computador.



Konrad Zuse (1910-1995), fue un ingeniero alemán y un pionero de la computación.

     Su logro más destacado fue terminar la primera computadora controlada por programas que funcionaban, la Z3 en 1941, esta máquina realizaba cálculos con aritmética en coma flotante puramente binaria.  También diseñó un lenguaje de programación de alto nivel, el Plankalkül.
     Zuse debió hacer muchos cálculos rutinarios a mano, lo que él encontró aburrido. Esta experiencia lo llevó a soñar con una máquina que pudiera hacer cálculos.

Modelo de neuronas artificiales.

     En 1943 McCulloch-Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término.



Warren Sturgis McCulloch (1898-1969) era un neurólogo y cibernético estadounidense.
Walter Harry Pitts, hijo. (1923-1969) era un lógico quién trabajó en el campo de neurociencia computacional.
     La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial. Fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace imprecisa a dicha implantación con respecto al comportamiento teórico derivado del modelo.

Test de Turing.

     Turing propuso esta prueba en su ensayo “Computing Machinery and Intelligence” en 1950.




     El test de Turing (o prueba de Turing) es una prueba de la habilidad de una máquina de exhibir un comportamiento inteligente similar, o indistinguible, del de un humano. Alan Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar repuestas similares a las de un humano. El evaluador sabría que uno de los miembros de la conversación es una máquina y todos los participantes serían separados de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla. En el caso de que el evaluador no pueda distinguir entre el humano y la máquina acertadamente (Turing originalmente sugirió que la máquina debía convencer a un evaluador, después de 5 minutos de conversación, el 70% del tiempo), la máquina habría pasado la prueba. Esta prueba no evalúa el conocimiento de la máquina en cuanto a su capacidad de responder preguntas correctamente, solo se toma en cuenta la capacidad de ésta de generar respuestas similares a las que daría un humano.


Inteligencia artificial en Dartmouth.

     Verano de 1956, el encuentro ahora conocido como la conferencia de Dartmouth, se llevó a cabo con tal éxito que el evento acuñó el término Inteligencia Artificial y con él una nueva área científica de conocimiento.


     En 1956 se dio el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
     Marvin Lee Minsky (1927-2016), fue un científico estadounidense. Es considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.
     Allen Newell (19 de marzo de 1927 - 19 de julio de 1992) fue un investigador en informática y psicología cognitiva en la corporación WWE.
     Herbert Alexander Simon (15 de junio de 1916 – 9 de febrero de 2001), economista, politólogo y teórico de las ciencias sociales estadounidense.

“LISP” Lenguaje de alto nivel.

     El nombre LISP deriva del "List Processing" (Proceso de Listas). Las listas encadenadas son una de las estructuras de datos importantes del LISP, y el código fuente del LISP en sí mismo está compuesto de listas.
     El LISP es una familia de lenguajes de programación de computadora de tipo multiparadigma con una larga historia y una sintaxis completamente entre paréntesis.



     El LISP fue creado originalmente como una notación matemática práctica para los programas de computadora, basada en el cálculo lambda de Alonzo Church. Se convirtió rápidamente en el lenguaje de programación favorito en la investigación de la inteligencia artificial (AI).
     Como uno de los primeros lenguajes de programación, el LISP fue pionero en muchas ideas en ciencias de la computación, incluyendo las estructuras de datos de árbol, el manejo de almacenamiento automático, tipos dinámicos, y el compilador auto contenido.
     Especificado originalmente en 1958 por John McCarthy y sus colaboradores en el Instituto Tecnológico de Massachusetts, el LISP es el segundo más viejo lenguaje de programación de alto nivel de extenso uso hoy en día; solamente el FORTRAN es más viejo.
     Los programas de LISP pueden manipular el código fuente como una estructura de datos, dando lugar a los macro sistemas que permiten a los programadores crear una nueva sintaxis de lenguajes de programación de dominio específico empotrados en el LSIP.

Frank Rosenblatt y la red tipo perceptrón.

     Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos.




Frank Rosenblatt (julio 11, 1928 - julio 11, 1971) fue un psicólogo estadounidense notable en el campo de la inteligencia artificial.
     El perceptrón dentro del campo de las redes neuronales tiene dos acepciones. Puede referirse a un tipo de red neuronal artificial desarrollado por Frank Rosenblatt y, dentro de la misma teoría de Rosenblatt, también puede entenderse como la neurona artificial o unidad básica de inferencia en forma de discriminador lineal, es decir, un algoritmo capaz de generar un criterio para seleccionar un sub-grupo de un grupo de componentes más grande. La limitación de este algoritmo es que si dibujamos en un plot estos elementos, se deben poder separar con un hiperplano los elementos "deseados" de los "no deseados". El perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona artificial, para formar redes neuronales más complicadas.

Computadoras contra humanos.

     En 1968, el MI David Levy realizó una famosa apuesta, en la cual afirmaba que ninguna computadora de ajedrez sería capaz de derrotarle en diez años, bajo condiciones de torneo. Ganó la apuesta en 1978, venciendo por 3'5-1'5 en un match de cinco partidas a la computadora más fuerte por aquel entonces, Chess 4.7.



     A principios de los años 2000, los programas comercialmente disponibles como Junior y Fritz eran capaces de entablar matches contra el campeón del mundo Garry Kasparov y el campeón del mundo de ajedrez clásico Vladímir Krámnik.
     Las computadoras, desde sus inicios, analizaban completamente las posiciones de los finales. Las bases de datos de finales10 están generadas por adelantado usando el análisis retrospectivo, empezando con posiciones donde el resultado final es conocido (por ejemplo en posiciones donde un bando ha ganado por jaque mate), y analizar qué movimientos han conducido a la combinación final de piezas. Ken Thompson, más conocido por ser uno de los creadores del sistema operativo UNIX, fue uno de los pioneros en este tema.

Dr. Joseph Weizenbaum y el Programa ELIZA.

     Sobre los años 50, trabajó en computación analógica, y ayudó a crear un ordenador digital para la Universidad Wayne State. En 1955 trabajó para General Electric en el primer ordenador utilizado por un banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos años después creó allí su célebre departamento de ciencias de la computación.



Joseph Weizenbaum (1923-2008), fue profesor emérito de Informática en el Instituto Tecnológico de Massachusetts y se le considera uno de los padres de la cibernética.
     En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus respuestas. Weizenbaum se sorprendió del impacto que este programa tuvo, al tomarse en serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en uno de sus más fervientes críticos.

Victor Scheinman y El brazo Stanford.

     A finales de los 1950, y mientras se encontraba en el instituto, Scheinman diseñó una máquina para convertir voz a texto en un proyecto para una feria de ciencias.
     En 1972 (algunas fuentes citan 1969), mientras estaba en la Universidad Stanford, Scheinman inventó el Stanford arm, un brazo robot articulado de 6-ejes totalmente eléctrico, que era capaz de alcanzar cualquier posición en el espacio bajo el control de una computadora, ampliando el uso de los robots a aplicaciones más complejas como el ensamblaje y la soldadura por arco.



     Victor Scheinman es un pionero en el campo de la robótica.
     Se demuestran las propiedades de la visión artificial para vehículos autoguiados en el Stanford Research Institute. Este mismo año s e desarrollaron los brazos Boston y Stanford, este último dotado de una cámara y controlado por computador. Sobre el brazo Stanford se desarrolló un experimento en el que el manipulador apilaba bloques según determinados criterios.
     En 1973 Scheinman creó Vicarm Inc. para manufacturar sus brazos robot.
     En 1977, Scheinman vendió su diseño a Unimation, quien lo mejoró, con ayuda de General Motors, creando el brazo Robot PUMA.

Alain Colmerauer y Philippe Roussel – Proyecto PROLOG.

     El Prolog (o PROLOG), proveniente del francés PROgrammation en LOGique,1 es un lenguaje para programar artefactos electrónicos mediante el paradigma lógico con técnicas de producción final interpretada. Es bastante conocido en el área de la Ingeniería Informática para investigación en Inteligencia Artificial.
     Diseñado para aplicaciones de inteligencia artificial, gran parte de la reciente atención al Prolog se debe al proyecto japonés para la creación de una computadora de quinta generación. Sin embargo, el interés por la programación de inteligencia artificial ha llevado al desarrollo de muchas implementaciones recientes. De hecho, Alain Colmerauer creó en 1984 la compañía PrologIA para explotar el desarrollo de uno de los prologs creados con anterioridad.



     Alain Colmerauer (Nacido en 1941), es un francés científico de la computación y el creador de la programación lógica lenguaje Prolog.
     Philippe Roussel (Nacido en 1945), es Doctor en Informática, y creador junto con Alain Colmerauer y Robert Kowalski del lenguaje de programación Prolog.
     Prolog (PROgramming in LOGic) es un lenguaje de programación para inteligencia artificial que hace uso de la lógica de predicados. Fue desarrollado por Philippe Roussel y Alain Colmerauer en la Universidad de Marsella en 1972. No obstante, el primer compilador lo construyó el matemático Robert Kowalski, del Imperial College de Londres.

Ichiro Kato – Robot WAP-1.

     A mediados del siglo XX, el profesor Ichiro Kato de la Universidad de Waseda estudió robots humanoides.



     Hizo "WABOT-1", un robot humanoide a gran escala en 1973. WABOT-1 tenía dos brazos, caminaba sobre dos piernas y ve con dos ojos de la cámara. El WAP-3 se diseñó posteriormente realizando movimientos en superficies planas, subiendo y bajando escaleras y rampas, inclusive podía girar mientras caminaba.
     Actualmente en Japón hay muchas variaciones de la robótica.
     Algunos diferentes tipos de robots son:
Humanoide Entretenimiento robots, androides, Animal (cuatro patas) Robots, Robots Sociales, Guardia Robots, y muchos más.
     Hay también una variedad de características para estos robots. 

Desarrollo del Sistema Experto (SE).

     Los sistemas expertos son llamados así porque emulan el razonamiento de un experto en un dominio concreto, y en ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas, dando así lugar a una mejora de la productividad del propio experto al usar este tipo de sistemas informáticos.



     Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un gran conocimiento sobre un determinado tema. Un sistema experto es un conjunto de programas que, sobre una base de conocimientos, posee información de uno o más expertos en un área específica. Se puede entender como una rama de la inteligencia artificial, donde el poder de resolución de un problema en un programa de computadora viene del conocimiento de un dominio específico. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un “SE” se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción).
     Los Sistemas Expertos, con su capacidad para combinar información y reglas de actuación, han sido vistos como una de las posibles soluciones al tratamiento y recuperación de información, no sólo documental. La década de 1980 fue prolija en investigación y publicaciones sobre experimentos de este orden, interés que continua en la actualidad.

Japón y la 5ta. Generación de computadoras.

     La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems). Fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970.


     A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado de llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Redes de neuronas artificiales.

     Como ya hemos visto, los primeros modelos de redes neuronales datan de 1943 por los neurólogos Warren McCulloch y Walter Pitts. En 1958, Rosenblatt desarrolló el perceptrón simple, y en 1966 surgió un programa llamado ELIZA  creado por Joseph Weizenbaum.
     Años más tarde en la década de 1980 volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en especial, al algoritmo de aprendizaje de retropropagación (BackPropagation) ideado por Rumelhart y McClelland en 1986 que fue aplicado en el desarrollo de los perceptrones multicapa.


     Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN"1), son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso biológico.
Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
     Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida.
     Las redes neuronales artificiales (RNA) tienen muchas ventajas debido a que están basadas en la estructura del sistema nervioso, principalmente el cerebro.

Martin Fischels y Oscar Firschein – (IA) I. Artificial y el (AI) Agente Inteligente.

     En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigaciones enormes y diferenciadas.
     Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales percepciones y responder o actuar en su entorno de manera racional, es decir, de manera correcta y tendiendo a maximizar un resultado esperado. Es capaz de percibir su medio ambiente con la ayuda de sensores y actuar en ese medio utilizando actuadores (elementos que reaccionan a un estímulo realizando una acción).
     Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA. En los 90´s surgen los agentes inteligentes al paso de los años eso fue evolucionando.
Los agentes inteligentes se han definido de diferentes maneras. Según Nikola Kasabov los sistemas de IA deben exhibir las siguientes características:
v  Aprender nuevos problemas e incrementar normas de solución.
v  Capacidad de adaptación en línea y en tiempo real.
v  Ser capaz de analizar condiciones en términos de comportamiento, el error y el éxito.
v  Aprender y mejorar a través de la interacción con el medio ambiente (realización).
v  Aprender rápidamente de grandes cantidades de datos.
v  Deben estar basados en memoria de almacenamiento masivo y la recuperación de dicha capacidad.

Programa ALICE.

     El programa se desarrolló prioritariamente para solucionar tres problemas fundamentales del software educativo.


     Alice es lenguaje de programación educativo, libre y abierto orientado a objetos con un entorno de desarrollo integrado (IDE).
     Está programado en Java.
     Utiliza un entorno sencillo basado en “arrastrar y soltar” para crear animaciones mediante modelos 3D. Este software fue desarrollado por investigadores de la Universidad Carnegie Mellon, entre los que destaca Randy Pausch.
     En estudios realizados en el Ithaca College y en Saint Joseph's University, las notas medias de estudiantes sin experiencia de programación y en su primer curso de informática subieron de suficiente a notable y su retención del 47% al 88%.3 este es mi escritura.

Aldebaran Robotics y Nao.

     Nao es un robot humanoide programable y autónomo, desarrollado por Aldebaran Robotics, una compañía de robótica francesa con sede en París subsidiaria del grupo Softbank. El desarrollo del robot comenzó en 2004 con el lanzamiento del Proyecto Nao.


     El 15 de agosto de 2007, Nao sustituye al perro robot Aibo de Sony como la plataforma estándar para la Robocup (Robot Soccer World Cup), un concurso internacional de robótica. Nao se utilizó en RoboCup 2008 y 2009, y el NaoV3R fue elegido como la plataforma para el SPL en RoboCup 2010.
     En diciembre de 2011, se liberó Nao Next Gen, con mejoras de hardware y software, tales como cámaras de alta definición, una mayor robustez, sistemas anticolisión y una velocidad al caminar más rápida 

Bruce Wilcox y la tecnología Chatbot.

     Wilcox trabajó en un chatbot tecnología para Avatar Reality llamada CHAT-L. Su chatterbot Suzette se libera en el Chatterbox Challenge 2009 y le fue bien, ganando Mejor Nuevo Motor de búsqueda y que viene en el segundo más popular.

 


Bruce Wilcox (nacido en 1951), es una inteligencia artificial programador.
     Obtuvo el Premio Loebner, engañando a uno de los cuatro jueces humanos. La entrada Loebner fue escrito en script chat, un lenguaje nuevo diseño del CHAT-L.
El motor es un proyecto de código abierto en SourceForge.
     Ganó el Premio Loebner 2011, con un nuevo chatbot, Rosette.
     Su bot Angela llegó en segundo en 2012.
     En 2013 su bot Rose entró tercero.
     Rose bot de Bruce ganó el Premio Loebner 2014 y de nuevo en 2015.

Veselov, Demchenko, y Ulasen - Chatbot Eugene.

     Eugene Goostman es un bot conversacional. Desarrollado por primera vez por un grupo de tres programadores; el ruso Vladimir Veselov, el ucraniano Eugene Demchenko, y el ruso Sergey Ulasen en San Petersburgo en 2001.
     El 7 de junio de 2014, en un concurso con motivo del 60 aniversario de la muerte de Turing, el 33 % de los jueces del evento pensó que Goostman era humano; el organizador del evento Kevin Warwick consideró que “pasó” la prueba de Turing, en consecuencia, por la predicción de Turing que para el año 2000, las máquinas serían capaces de engañar a un 30 % de los jueces humanos después de cinco minutos de interrogatorio.

     Eugene Goostman es retratado como un niño de 13 años de edad, de Odessa, Ucrania, que tiene como mascota un conejillo de india y un padre que es un ginecólogo.
     Veselov declaró que Goostman fue diseñado para ser un “personaje con una personalidad creíble”. La elección de la edad fue intencional, en opinión de Veselov, como un niño de trece años de edad, “no es demasiado viejo para saber todo y no demasiado joven para saber nada”.
     La corta edad de Goostman también induce a la gente que “dialoga” con él para perdonarle los errores gramaticales menores en sus respuestas.
     En 2014, el trabajo se hizo en la mejora del “controlador de diálogo” del bot, lo que permite a Goostman una arranque en el diálogo más parecido a los humanos.

Sistema Operativo Android.

     En octubre de 2003, en la localidad de Palo Alto, Andy Rubin, Rich Miner, Chris White y Nick Sears fundan Android Inc. con el objetivo de desarrollar un sistema operativo para móviles basado en Linux.


     En julio de 2005, la multinacional Google compra Android Inc. El 5 de noviembre de 2007 se crea la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio. El mismo día se anuncia la primera versión del sistema operativo: Android 1.0 Apple Pie.
     Los terminales con Android no estarán disponibles hasta el año 2008.
     Google lanza el primer teléfono con sistema operativo Android. Basado en Linux y otros componentes de código abierto, Android se convierte rápidamente en el sistema operativo de preferencia de los fabricantes de equipos móviles, permitiéndoles enfocarse en el hardware para desarrollar teléfonos con un ecosistema de miles de aplicaciones compatibles.

Inteligencia y su definición.

     La inteligencia (del latín, intellegentĭa) es la capacidad de pensar, entender, razonar, asimilar, elaborar información y emplear el uso de la lógica.
     Cicerón incluyo la palabra inteligencia, bajo el concepto de capacidad intelectual, dando así el significado.
     El Diccionario de la lengua española de la Real Academia Española define la inteligencia, entre otras acepciones, como la «capacidad para entender o comprender» y como la «capacidad para resolver problemas».
     Sin embargo, de acuerdo con los especialistas no existe una definición universalmente aceptada de qué es inteligencia, por lo que no resulta fácil reducir el campo de estudio a una definición simple.
     La inteligencia es el término global, mediante el cual se describe una propiedad de la mente, en la que se relacionan habilidades tales como las capacidades del pensamiento abstracto, el entendimiento, la comunicación, el raciocinio, el aprendizaje, la planificación y la solución de problemas.
     Facultad de la mente que permite aprender, entender, razonar, tomar decisiones y formarse una idea determinada de la realidad.
     La American Psychological Association (APA), una organización científica y profesional de psicólogos de EEUU, lo expuso así: |os individuos difieren los unos de los otros en habilidad de comprender ideas complejas, de adaptarse eficazmente al entorno, así como el de aprender de la experiencia, en encontrar varias formas de razonar, de 1420 superar obstáculos mediante la reflexión.
     A pesar de que esas diferencias individuales puedan ser sustanciales, éstas nunca son completamente consistentes: las características intelectuales de una persona variarán en diferentes ocasiones, en diferentes dominios, y juzgarán con diferentes criterios. El concepto de «inteligencia» es una tentativa de aclarar y organizar este conjunto complejo de fenómenos.

Inteligencia artificial y su definición.

     En el ámbito de las ciencias de la computación se denomina como inteligencia artificial a la facultad de razonamiento que ostenta un agente que no está vivo, tal es el caso de un robot, por citar uno de los ejemplos más populares, y que le fue conferida gracias al diseño y desarrollo de diversos procesos gestados por los seres humanos. Cabe destacarse que además del poder de razonar, estos dispositivos son capaces de desarrollar muchas conductas y actividades especialmente humanas como puede ser resolver un problema dado, practicar un deporte, entre otros.
     Las investigaciones e ideas fundamentales sobre inteligencia nos remontan hasta los griegos, en años antes de cristo. El concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
     En 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano, se dio el nacimiento de La Inteligencia Artificial, ya que estas eran la simbólica representación de la actividad en el cerebro.
     Ahora bien, es importante destacar que nos podremos encontrar con diversos tipos de inteligencia artificial, como:
     Sistemas que piensan como los seres humanos (se ocupan de imitar el pensamiento humano, siendo un ejemplo las redes neuronales artificiales, que justamente imitan el funcionamiento del sistema nervioso).
     Sistemas que actúan como los humanos (son aquellos que imitan el comportamiento del hombre, el ejemplo más claro es el del robot).
     Sistemas que piensan de modo racional (se caracterizan por imitar el pensamiento lógico de los humanos, es decir, en una cuestión concreta razonan como expertos. Se los emplea especialmente a la hora de buscar mejoras en la calidad y en la rapidez de un servicio).
     Sistemas que actúan de manera racional (imitan de manera racional el comportamiento de una persona, siendo capaces de percibir el entorno y actuar en consecuencia).
     La IA reúne varios campos como la robótica o sistemas expertos y se encuentran ejemplos de IA en software capaces de responder a diagnósticos, reconocimiento de escritura, habla, patrones y actualmente son rutinarios en campos como la economía, la medicina, ingeniería, militar, juegos de estrategia como el ajedrez entre muchas otras aplicaciones.

Diferencia y similitud entre Inteligencia Artificial y Natural.

     La Inteligencia Humana, aun por increíble que sea no tiene una definición exacta, lo que quiere decir que ninguna es suficientemente precisa y acertada.
     La mentalidad del individuo depende de estructuras, funciones, normas, valores y modelos sociales. El hombre es, en suma, producto de dos tipos de herencia: biológica y cultural.
     Podríamos decir que el ser humano está dotado de habilidades para expresar ideas con claridad, perspectivas, pensamientos, sentimientos, para formar modelos mentales y poderlos maniobrar, también posee una  gran capacidad de razonamiento abstracto y matemático, tiene habilidad con el cuerpo, puede entender, motivar y ayudar a los otros.
     El ser humano tiene la capacidad de aprender y poder comparar ideas, diferenciar entre individuos sus estados de ánimo, intensiones, motivaciones, temperamento, emociones.
     Bajo sus propias experiencias, puede formar una visión verídica de uno mismo y ser capaz de utilizarla para enfrentar la vida.
     A pesar de los grandes esfuerzos del hombre, en su intento por crear un robot u ordenador con capacidades similares a las del ser humano, este aún no ha podido lograr que exprese emociones o identifique sensaciones, las cuales se considera esenciales para la inteligencia.
     La diferencia más importante entre el cerebro y la computadora es la forma como guarda su información. En la computadora, el método de almacenaje es ocupando un Disco duro (del inglés Hard Disc) o un una celdilla de memoria para guardar la información. De manera similar cuando quiere acceder a esa información, hace una llamada al Disco duro o dispositivo donde se encuentre la información, para mostrarla.
     En cambio en el cerebro humano, la gestión es totalmente diferente, para acceder a la información no hacemos una llamada a tal posición del cerebro, incluso no tenemos la definición clara de cómo se guarda la información y cómo hace el cerebro para traer la misma información. No tenemos la menor idea de donde se guarda una “X” información en nuestro cerebro.
     Pero no hace falta el tener la ubicación exacta de la información, ya que al solo hecho de pensar o imaginar algo, automáticamente el cerebro ejecuta una función (que el ser humano no comprende) para traer a nuestra mente esa información, todo esto se realiza por la red neuronal biológica.
     Por ejemplo, pensemos en una forma cuadrada, el cerebro ejecuta la acción y logramos ver en nuestra mente la imagen de cuatro lados, pero a la misma vez, el cerebro es como el buscador de Google en nuestro ordenador, nos da otras referencias en el buscador mental y podemos ver otras formas similares al cuadrado.
     Podemos recordar al ver en cierto punto y fecha dada de nuestra vida, por ejemplo si imaginamos un objeto de madera, podemos incluso recordar el  olor de la madera, el cerebro es una conexión compleja de todos los sentidos, todas la conexiones están siendo usadas en una parte de nuestro cerebro para ejecutar esta simple tarea, es un juego mental tan profundo que no podemos explicar de manera sencilla y con detalle.
     El cerebro humano y el computador presentan las siguientes diferencias:
Cerebro.
·         Sistema de datos de múltiple propósito capaz de tratar gran cantidad de información en poco tiempo pero no necesariamente con exactitud.
·         Las frecuencias de los impulsos nerviosos pueden varias.
·         Las llamadas sinapsis cumple en el cerebro la función simultánea de varias compuertas.
·         La memoria es del tipo asociativo y no se sabe dónde quedara almacenada
·         Los impulsos fluyen a 30 metros por Segundo.
Computadora.
·         Sistemas altamente especializados con capacidad para procesar información muy concreta, siguiendo unas instrucciones dadas.
·         La frecuencia de transmisión es inalterable y está dada por el reloj interno de la máquina.
·         Las compuertas lógicas tienen una función perfectamente determinada e inalterable.
·         La información se guarda en posiciones de memoria de acceso directo por su dirección.
·         En el interior de una computadora los impulsos fluyen a la velocidad de la luz.
La similitud entre el cerebro y la computadora es la siguiente:
·         Ambos codifican la información en impulsos digitales.
·         Tanto el cerebro como la computadora tienen compuertas lógicas.
·         Existen distintos tipos de memoria.
·         Los dos tienen aproximadamente el mismo consume de energía.

Sistemas Expertos - El origen.

     Los Sistemas Expertos fueron desarrollados por la comunidad de IA a mediados de los años ‘60. En este periodo de investigación de IA se creía que algunas pocas reglas de razonamiento sumadas a computadoras poderosas podían producir un experto o rendimiento súper-humano. Un intento en esta dirección fue el General purpose Problem Solver (GPS), Solucionador de problemas de propósito general (Turban, 1995).
     General-purpose Problem Solver (Newell, 1958) o GPS fue un precursor de los SE. Esta tecnología define los pasos necesarios para cambiar un estado inicial dado a una meta deseada. Por cada problema se la da (1) un set de operaciones, precondiciones y post-condiciones. GPS intentará reducir las diferencias entre el estado inicial y la meta.

Características de los Sistemas Expertos.

Estructura.

     Los SE están compuestos por dos partes principales: el ambiente de desarrollo y el ambiente de consulta. El ambiente de desarrollo es utilizado por el constructor para crear los componentes e introducir conocimiento en la base de conocimiento.
     El ambiente de consulta es utilizado por los no-expertos para obtener conocimiento experto y consejos (Turban, 1995). Los siguientes son los componentes básicos de un SE:

Subsistema de adquisición de conocimiento.

     Es la acumulación, transferencia y transformación de la experiencia para resolver problemas de una fuente de conocimiento a un programa de computadora para construir o expandir la base de conocimiento. El estado del arte actual requiere un ingeniero en conocimiento que interactúe con uno o más expertos humanos para construir la base de conocimiento.

Base de conocimiento.

     Contiene el conocimiento necesario para comprender, formular y resolver problemas. Incluye dos elementos básicos: heurística especial y reglas que dirigen el uso del conocimiento para resolver problemas específicos en un dominio particular.

Base de hechos.

     Es una memoria de trabajo que contiene los hechos sobre un problema, alberga los datos propios correspondientes a los problemas que se desean tratar.

Motor de inferencia.

     Es el cerebro del SE, también conocido como estructura de control o interpretador de reglas. Este componente es esencialmente un programa de computadora que provee metodologías para razonamiento de información en la base de conocimiento. Este componente provee direcciones sobre cómo usar el conocimiento del sistema para armar la agenda que organiza y controla los pasos para resolver el problema cuando se realiza una consulta. Tiene tres elementos principales:
      Intérprete, ejecuta la agenda seleccionada; programador, mantiene el control sobre la agenda; control de consistencia, intenta mantener una representación consistente de las soluciones encontradas (Turban, 1995).

Subsistema de justificación.

     Se encarga de explicar el comportamiento del SE al encontrar una solución.
     Permite al usuario hacer preguntas al sistema para poder entender las líneas de razonamiento que este siguió. Resulta especialmente beneficioso para usuarios no expertos que buscan aprender a realizar algún tipo de tarea.

Tipos de Sistemas Expertos.

Basados en reglas previamente establecidas.

     Los sistemas basados en reglas trabajan mediante la aplicación de reglas, comparación de resultados y aplicación de las nuevas reglas basadas en situación modificada. También pueden trabajar por inferencia lógica dirigida, bien empezando con una evidencia inicial en una determinada situación y dirigiéndose hacia la obtención de una solución, o bien con hipótesis sobre las posibles soluciones y volviendo hacia atrás para encontrar una evidencia existente (o una deducción de una evidencia existente) que apoya una hipótesis en particular.

Representación del conocimiento.

     Hay numerosas formas de representar el conocimiento en IA, sin embargo, los Sistemas Expertos suelen ser llamados sistemas basados en reglas.

Reglas “Si...entonces...”.

     Las reglas “si.. entonces..” son el principal tipo de conocimiento usado en Sistemas Expertos, donde dichas normas se utilizan para capturar razonamiento de expertos que emplean a menudo. Sin embargo, con el tiempo los investigadores      comenzaron a desarrollar e integrar otras formas de representación del conocimiento, tales como el razonamiento basado en casos.
     Los sistemas que incluyen múltiples tipos de conocimiento a veces se conocen como sistemas híbridos, o etiquetados después de un determinado tipo de representación del conocimiento, por ejemplo, basado en casos (O’Leary, 2008).

Basados en casos.

     El razonamiento basado en casos es el proceso de solucionar nuevos problemas basándose en las soluciones de problemas anteriores. Un mecánico de automóviles que repara un motor porque recordó que otro auto presentaba los mismos síntomas está usando razonamiento basado en casos. Un abogado que apela a precedentes legales para defender alguna causa está usando razonamiento basado en casos. También un ingeniero cuando copia elementos de la naturaleza, está tratando a esta como una “base de datos de soluciones”. El Razonamiento basado en casos es una manera de razonar haciendo analogías. Se ha argumentado que el razonamiento basado en casos no sólo es un método poderoso para el razonamiento de computadoras, sino que es usado por las personas para solucionar problemas cotidianos. Más radicalmente se ha sostenido que todo razonamiento es basado en casos porque está basado en la experiencia previa.

Funcionamiento.

     El nombre RETE viene del latín – significa red. Un Sistema Experto basado en RETE construye una red de nodos acíclico. La red rete consta de dos partes: una red alfa y una red beta. La red alfa contiene nodos llamados nodos alfa, donde cada uno de los nodos alfa tiene una entrada donde define los elementos y la red beta contiene nodos llamados nodos beta, donde cada uno de los nodos beta tiene solo dos entradas donde define la condición. Todo comienza en el nodo raíz por el cual todos los objetos entran a la red y desde aquí van a un nodo llamado “nodo de tipo de objeto”. Los nodos alfa son creados por cada patrón y asociados a su correspondiente tipo de objeto.
     Cada nodo alfa es asociado con una memoria de conocimiento y se usa para recordar hechos encontrados. Los nodos alfa son unidos en nodos beta. Puede darse que si hay tres nodos alfa, los primeros dos nodos alfa se unirán en un nodo beta y luego la salida de ese nodo beta con el tercer nodo alfa se unieron para formar otro nodo beta. Por último los nodos beta determinan el posible cruzamiento para una regla y finalmente la acción de la regla se ejecuta. A medida que se añaden o se modifican hechos, se propagan los cambios por la red (Selvamony, 2010).

Redes Neuronales.

La neurona.

     Emil Heinrich Du Bois-Reymond, en 1849 se basó en la teoría de que el sistema nervioso poseía una naturaleza eléctrica, detectaba las imperceptibles descargas eléctricas provocadas al contraer los músculos del brazo. Utilizó un galvanómetro, que es un primitivo medidor de tensiones.
     Se dio cuenta de que la piel actuaba como un aislante de las señales eléctricas entonces intencionalmente se abrió una herida y logro captar señales eléctricas unas 30 veces más intensas.
     El sistema nervioso está compuesto por una red de células nerviosas, y está constituido por células nerviosas, fibras nerviosas y la neuroglia, que está formada por varias clases de células. La célula nerviosa se denomina neurona, que es la unidad funcional del sistema nervioso.
     Se estima que en cada milímetro del cerebro hay cerca de 50.000 neuronas.

La neurona desde el punto de vista computacional.

     Desde el punto de vista funcional, las neuronas constituyen procesadores de información “sencillos”. Posee un canal de entrada de información (las dendritas), un órgano de computo (el asoma), y un canal de salida (el axón). En las interneuronas el axón envía la información a otras neuronas, mientras que en las neuronas motoras lo hace directamente al musculo. Existe otro tipo de neuronas, las receptoras o censoras, que reciben la información directamente del exterior. Se calcula que una neurona de la corteza cerebral recibe información por medio de, unas 10,000 neuronas (convergencia) y envía impulsos a varios cientos de ellas (divergencia).
     En el cerebro se aprecia la existencia de una organización horizontal en capas (se suelen señalar seis capas), además de existir una organización vertical en forma de columnas de neuronas pertenecientes a una determinada región del cerebro, que constituyen unidades funcionales especializadas en ciertas tareas (Un área visual, un área auditiva, etc.) formando parar ellos las denominadas redes neuronales.
     La unión entre dos neuronas se ha denominado sinapsis, podemos decir las neuronas pre sinápticas (que envían señales) y las post sinápticas (que las reciben). La sinapsis son direcciones, es decir, la información fluye en solo sentido. Cada neurona recibe impulsos procedentes de otras neuronas (inputs) a través de las dendritas que están conectadas a las salidas de otras neuronas por la sinapsis, estas alternan la efectividad con la que la señal es transmitida a través de un parámetro, el peso.
     El aprendizaje resulta la modificación de estos pesos, que unido al procesamiento de la información de la neurona, determinan el mecanismo básico de la memoria. El Soma de la neurona recibe todos los inputs, y emite una señal de salida (output), esta salida se transmite a través del axón desde donde se propaga mediante diferencias de potencial a las dendritas de otras neuronas.

La red neuronal.

     El sistema de neuronas biológico está compuesto por neuronas de entrada (censores) conectados a una compleja red (neuronas ocultas), las cuales, a su vez, están conectadas a las neuronas de salida que controlan, por ejemplo, los músculos. Los censores pueden ser señales de los oídos, ojos, etc., las respuestas de las neuronas de salida activan los músculos correspondientes. En el cerebro hay una gigantesca red de neuronas ocultas que realizan la computación necesaria.
     Simular una red neuronal artificial se intenta en expresar la solución de los problemas complejos, no como una secuencia de pasos, sino como la evolución de unos sistemas de computación inspirados en el funcionamiento del cerebro humano, y atribuyéndole cierta “inteligencia”, los cuales no son sino la combinación de  una gran cantidad de elementos simples de procesos (neuronas)interconectados que, operando de forma masiva, consiguen resolver problemas relacionados con el conocimiento de formas o patrones, predicción, codificación, clasificación, control y optimización.
     Por esta razón, científicos han vuelto la vista hacia el cerebro tratando de estudiarlo desde el punto de vista de la computación, la estructura del cerebro es radicalmente diferente a la del ordenador convencional. No está compuesto por un único microprocesador altamente complejo y  eficiente, sino por miles de millones de ellos, las neuronas, que realizan de modo impreciso y relativamente lento un tipo de cálculo muy simple. A partir de esta idea surgieron los sistemas expertos.

Funcionalidad de las redes neuronales.

     Las redes neuronales artificiales son unas técnicas que se han venido aplicando con éxito en tareas de clasificación, reconocimiento y predicción en muchas áreas de conocimiento. Uno de los grandes potenciales de las redes neuronales es que son capaces de establecer relaciones funcionales entre varias dependientes e independientes aun cuando las relaciones son altamente no lineales debido a la variabilidad de la influencia de los factores y a su sensibilidad ante la influencia de otros factores no contemplados en el modelo, tal y como ocurre en los procesos de lluvia.

Robótica.

     La robótica es la rama de la ingeniería mecánica, ingeniería eléctrica, ingeniería electrónica y ciencias de la computación que se ocupa del diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots.
     La robótica combina diversos disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son el álgebra, los autómatas programables, la animatrónica y las máquinas de estados.
     El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados, fue traducida al inglés como robot.

Historia de la robótica.

     La historia de la robótica va unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo, el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas.
     Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.

Los tres principios o leyes de la robótica según Asimov:

·         Un robot no puede lastimar ni permitir que sea lastimado ningún ser humano.

·         El robot debe obedecer a todas las órdenes de los humanos, excepto las que contradigan la primera ley.
·         El robot debe auto protegerse, salvo que para hacerlo entre en conflicto con la primera o segunda ley.

Cronología.

La que a continuación se presenta es la clasificación más común:
·         1. ª Generación: Manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable.

·         2. ª Generación: Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.

·         3. ª Generación: Robots con control sensorizado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios.

·         4. ª Generación: Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real.


Variedad de estructuras.

     La estructura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos: poli articulados, móviles, androides, zoomórficos e híbridos.

·         Poli-articulados.
En este grupo se encuentran los Robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo, se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.


·         Móviles.
Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.


·         Androides.
Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.



·         Zoomórficos.
Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.


·         Híbridos.
Corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo, uno de los atributos de los Robots móviles y de los Robots zoomórficos.
 

Futuro de la IA en la tecnología.

     La IA es una de las áreas más fascinantes pero con más retos de las ciencias de la computación y la tecnología. Esta nació de la necesidad del hombre de imitar a su naturaleza circundante al grado de imitarse a sí mismo mediante sistemas o máquinas capaces de sustituirle en ciertos trabajos o actividades.
     Es por esto que los programas de IA prometen ser el futuro de la tecnología en donde a las actuales máquinas o robots se les podrá unir las tecnologías de reconocimiento de voz y video.
     Aunque aún estamos lejos de que un sistema informático alcance el nivel de inteligencia y cognoscitivo del cerebro humano que se compone de unas 100,000 millones de neuronas siempre se tiene el temor de que si alcanzamos este nivel esta inteligencia artificial podría llegar a entender su ahora independencia de la raza humana y querer estar a un mismo nivel. Aunque esto suena a ciencia ficción con el acelerado avance de la tecnología esto podría dejar de solo estar en nuestra imaginación.
     Por ahora se debe hacer un buen uso de este avance del campo tecnológico para mejor desarrollo de sistemas que nos puedan ayudar a mejor nuestro nivel de vida como son los sistemas expertos médicos que nos ayudan a diagnosticar enfermedades y encontrar posibles tratamientos, también sistemas inteligentes que nos ayuden en el campo de la ingeniería y la mecánica con el desarrollo de máquinas cada vez más precisas y mejores que nos sustituyan en tareas peligrosas como lo es la desactivación de bombas, la manufactura con químicos altamente tóxicos o el manejo de materiales peligrosos.

El futuro en el área de la salud.

     La Inteligencia Artificial (IA) es un campo de estudios muy amplio, y en constante cambio. Sin embargo, su producto final es siempre software.
     Estos programas, producto del trabajo de la “IA”, son denominados Sistemas Inteligentes (SI).
     Un “SI” incorpora conocimiento sacado de la experiencia y experticia de los expertos humanos. Los campos de aplicación de tales SI’s son muy variados, pensemos por ejemplo en un sistema de diagnóstico médico, o en un sistema integrado de ayuda a la toma de decisiones empresariales. En cualquier caso, un SI partirá de unos datos y los convertirá en información (conocimiento), de modo que ayude a tomar una decisión. Para convertir los datos en información útil, empleará algoritmos de razonamiento, aprendizaje, evolución, etc. Además, el “SI” actuará siempre en tiempo real, lo que representa un aumento de la productividad.
     En el caso de la medicina las aplicaciones de la Inteligencia artificial son tan amplias que no podremos ni siquiera resumirlas todas, por lo que haremos mención de algunas de las que más extensamente se han usado y de algunas de las que más se están utilizando en la actualidad.
     Dos investigadores de la Universidad de Indiana han desarrollado un modelo de Inteligencia Artificial que dicen que puede identificar mejor y de manera significativa los tratamientos que ofrecen los médicos a los pacientes.  Al igual que la computadora Watson, lista para ayudar en los tratamientos contra el cáncer, se trata de una nueva evidencia de cómo el manejo de grandes volúmenes de datos en las computadoras tendrá un profundo impacto en los sistemas de salud.
     Según cuentan los investigadores, se trataría de técnicas de modelado predictivo que pueden llegar a tomar decisiones más precisas sobre los tratamientos. Lo afirman con estadísticas, con unas pruebas que arrojaron una reducción del 50% en los costos que se suponen en medicina y de más del 40% de mejora en cuanto a los resultados en los pacientes.
     La idea detrás de la investigación de Cassey Bennet y Kris Hauser es simple. Si los médicos pueden considerar lo que está sucediendo realmente desde el principio, en lugar de confiar en la intuición, se tomarían mejores decisiones.
     Para demostrar su hipótesis, los investigadores trabajaron con datos clínicos, demográficos y otra información sobre más de 6.700 pacientes que tenían los diagnósticos de depresión clínica más severos, de los cuales aproximadamente el 65% tenían trastornos físicos crónicos como la diabetes, hipertensión o enfermedades cardiovasculares.
     Construyeron un modelo de “IA” utilizando el denominado Proceso de Decisión de Markov (que predice la probabilidad de eventos futuros basados en los inmediatamente anteriores a ellos) y considerando las características específicas de estos eventos con el fin de determinar las probabilidades. Esencialmente, su modelo considera los detalles del estado actual de un paciente para luego determinar la mejor acción que efectúe el mejor resultado posible.
     Ambos investigadores encontraron a través de una simulación de 500 casos al azar que su modelo disminuía el costo económico con una mejora del 58,5%. Encontraron que su modelo original mejoraba los resultados del paciente en casi un 35%, y que ajustando algunos parámetros podrían reducir esta cifra a 41,9%.
     Unos resultados que se viene a sumar a la noticia que llega desde IBM y que nos indica que los equipos informáticos, el manejo y análisis de grandes volúmenes de datos será de un gran beneficio en el futuro para la atención de salud.
     En el caso de IBM, la compañía ha anunciado dos nuevas versiones comerciales de Watson, una de ellas diseñada específicamente para determinar el mejor tratamiento para pacientes con cáncer de pulmón. Lo consigue a través del análisis de una "biblioteca" de millones de datos clínicos e investigaciones médicas.
     Noticias que no indican que en un futuro se vaya a suplantar la figura de los médicos por una Inteligencia Artificial avanzada, todo lo contrario, la tecnología servirá para complementar el trabajo de los profesionales, digiriendo grandes cantidades de información sobre casos e investigaciones en un tiempo récord para que el médico pueda encontrar el mejor tratamiento posible ante cada situación.

Corazón artificial.

     El primer implante de corazón artificial se produjo en el año 1982, y desde ahí se ha experimentado una gran evolución en la materia. Pero hay que tener en cuenta que por la gran complejidad que enfrenta su desarrollo sigue siendo aún materia experimental. El modelo más avanzado conocido es el AvioCor, este corazón artificial ha demostrado ser eficiente por periodos de tiempo que superan los 500 días. Todos sus componentes son implantados en el interior del cuerpo y mantienen un mantenimiento mínimo.
     El implante respeta la circulación sanguínea, mediante conexiones con las principales venas y arterias sin necesidad de suturas internas para evitar que se entorpezca el flujo sanguíneo. El implante del corazón artificial requiere, si, una intervención de cirugía mayor. El corazón artificial ocupa la cavidad que deja el corazón del paciente luego de ser extirpado durante la cirugía. La material con el que está construido el corazón artificial es una aleación de titanio y un plástico liviano, antiadherente para la sangre. ¿Cómo funciona? La clave del corazón artificial es que posee paredes flexibles que contienen un fluido siliconado. En el interior del mismo, un motor produce fuerza centrífuga en el fluido, y por lo tanto, en las paredes flexibles del compartimiento. Controlas esta presión (mediante válvulas) es la función principal del funcionamiento de este órgano artificial.

Retina artificial.

     Científicos japoneses han desarrollado un sistema de visión artificial para ciegos o personas con la vista deteriorada que hace llegar las señales visuales al cerebro, informa la revista The Inquirer.
     El fabricante de productos oftalmológicos de Japón, Nidek, el profesor Yasuo Tano, de la Universidad de Osaka y el profesor Jun Ota del Instituto Nara de Ciencia y Tecnología trabajaron conjuntamente en el desarrollo de este sistema, que está compuesto por unas gafas de sol que llevan incorporadas unas cámaras que filman las imágenes de aquello que se encuentra delante del sujeto y un dispositivo electrónico que convierte estas imágenes en señales digitales.  Además, el sistema incluye el implante en el ojo de un juego de electrodos de cuatro milímetros cuadrados que estimulan el nervio óptico. Una vez que las señales alcanzan el cerebro, el paciente puede ver de nuevo La importancia de la medicina en las aplicaciones de la inteligencia artificial ha sido realmente notable, hasta el extremo de que esas aplicaciones tienen nombre propio: AIM, acrónimo de Artificial Intelligence in Medicine que, desde hace 15 años, ha evolucionado como una activa y creciente disciplina.
     Aunque las primeras aplicaciones de la AIM han sido sobre todo el diagnóstico y el tratamiento, han emergido con mayor fuerza otras aplicaciones de la inteligencia artificial en el sector médico y farmacéutico: administración óptima de recursos, planificación de personal, previsión de necesidades, ayuda a los análisis de química orgánica y gestión de la información científica, que en o ocasiones han aportado más rentabilidad que los problemas de diagnóstico mencionados.
     En el campo del diagnóstico y tratamiento, la inteligencia artificial cuenta con importantes realizaciones: MYCIN 1976, en Stanford, sobre enfermedades infecciosas; CASNET 1979, en Rutgers, sobre oftalmología 4,5; INTERNIST 1980, en Pittsburg, sobre medicina interna; PIP 1971, en MIT, sobre afecciones renales; Al/RHEUM 1983, en la Universidad de Missouri, sobre el diagnóstico en reumatología, SPE 1983; Rutgers, para interpretar los resultados de electroforesis de las proteínas del suero producidas por instrumentos de análisis; TIA 1984, en la Universidad de Maryland, sobre terapia de ataques isquémicos.
     Para conseguir este comportamiento inteligente se dispone de distintas herramientas; una de ellas es la mecanización del razonamiento, encadenando afirmaciones o silogismos; este concepto de racionalidad mecánica, que es el origen de los llamados sistemas expertos, es realmente muy anterior a la llegada de los ordenadores. En su historia encontramos el concepto de racionalidad sistemática de Descartes en el "Discurso del método" de 1637 y el raciocinio como cálculo simbólico en Hobbes, en 1651, aunque hasta la aparición de los ordenadores no se materializan estas ideas.
     La medicina es otro de los campos en los que también se están empleando técnicas de IA. Científicos del Instituto de Investigación en el Genoma Humano estadounidense y de la Universidad de Lund, en Suecia, han desarrollado una técnica que aplica IA a unos chips que empiezan a usarse para análisis genético de muestra, los denominados "biochips", y que les permite distinguir con rapidez entre varios tipos de cáncer. Por otra parte, diversos equipos de científicos están tratando de crear sistemas contra la gran cantidad de enfermedades geriátricas que ocasionan pérdida de la memoria. Los sistemas de cognición asistida combinan software de IA, tecnología GPS, redes de sensores y placas identificativas infrarrojas que acompaña al paciente a todos los lugares. "Con los sistemas de cognición asistida, los ancianos podrán permanecer en su hogar más tiempo, y cuidar de sí mismos sin ayuda", señala Eric Dishman, gerente de investigación de la división de I+D de la empresa Intel. Sin embargo, "todavía faltan entre 20 y 30 años" para que exista un dispositivo de IA perfeccionado y de tiempo completo que pueda reemplazar a las personas en el cuidado del paciente geriátrico", en palabras de Henry Kautz, director del "Proyecto de Cognición Asistida" de la Universidad de Washington, cuyo objetivo es monitorear los hogares a través de complejas redes de detectores de movimientos y placas de identificación que emiten señales infrarrojas.
     A pesar de las ventajas que ofrece la IA, hay quien está en contra de dotar de tanta "inteligencia" a las máquinas. El conocido físico Stephen Hawking ha advertido sobre la urgente necesidad de mejorar genéticamente la especie humana y evitar que las computadoras dominen el mundo. "A diferencia de nuestro intelecto", afirma el físico, "los ordenadores duplican su capacidad cada 18 meses y por ello existe el peligro real de que puedan crear una inteligencia propia y asuman el control" otra de su gerencias es simular el desarrollo del as tecnologías que permitan comunicación directa entre ordenadores y humanos, para que así las maquinas contribuyan a la humanidad en vez de revelarse contra ella.


Conclusión.


     Después de largos años de estudio, de ensayo, prueba y error, como resultado se tienen enormes hallazgos de grandes hombres ciencia.
     La humanidad se ha visto beneficiada en diferentes campos, que han marcado la pauta para la creación de otros nuevos. La IA es tan importante en nuestra vida que con los avances tecnológicos que se tienen en nuestros días, ahora es posible mejorar la calidad de vida a una persona que ha perdido alguna extremidad, supliéndola con una prótesis tecnológica.
     El riego y suministro de agua en lugares de difícil acceso, ahora se ve mejorado mediante sistemas tecnológicos de riego y suministro de agua.
     En el campo de la arqueología, la tecnología de este tiempo ha podido ayudar a los expertos en la materia para descifrar años de historia perdida, esta les ha facilitado datar artículos e instrumentos antiguos con gran exactitud y así mismo ha permitido que especialistas mantengan en buen estado piezas de gran valor, evitando su deterioro.
     La tecnología ha sido de gran ayuda para los genetistas, que han logrado encontrar errores que podrían ser corregidos en el ADN humano, también en el campo forense ha sido de gran ayuda, ya que los expertos pueden reconocer un cuerpo en descomposición y sin esta tecnología sería muy difícil hacerlo.
     El acceso de la humanidad en la era digital, sin lugar a dudas ha sido el más importante de todos, ya que ha logrado conectar a millones de usuarios en todo el mundo, facilitando la comunicación, compartiendo información con tan solo un clic en nuestro computador, podemos realizar video llamadas en tiempo real de un lugar a otro; que está a miles de kilómetros de distancia.


Reflexión.


¿Porque has elegido este tema?

El tema sobre la inteligencia artificial y todo lo que tenga que ver con tecnología me llama mucho la atención. Lo escogí porque estaba seguro que dentro de la investigación encontraría información muy útil y me ayudaría a saber más.
La cantidad de información que uno puede encontrar es infinita, una página lleva a otra y un tema lleva a otro conectando perfectamente. Realmente ha sido una gran práctica.

¿De dónde partiste para escribir?

Primero comencé por los archivos que comparte la página de UnADM y conforme fui avanzando en la lectura, me di cuenta necesitaba saber más sobre el tema. Así que el siguiente paso, fue comenzar una búsqueda en la web de manera cronológica y por tema, analizando los textos, recabando información y desechando textos que fueran repetitivos.



Bibliografía.



Gómez Herrera, R. (2013). La inteligencia artificial. ¿Hacia dónde nos lleva? ¿Cómo ves?, N°. 2, (Pp. 8-11). México: UNAM, recuperado el 13/04/15 de: http://www.comoves.unam.mx/assets/revista/2/la-inteligencia-artificial-hacia-donde-nos-lleva.pdf