Ads

Ads

jueves, 28 de mayo de 2020

Inteligencia Artificial-La IA como ciencia y como Ingeniería del Conocimiento

Artículo

Canal de Youtube


Resumen – En este artículo se explorará el concepto de Inteligencia Artificial (IA) considerada como ciencia y como ingeniería del conocimiento (IC). Tras un breve resumen de la evolución histórica del campo se  revisarán los cuatro paradigmas actuales (simbólico, conexionista, situado e híbrido) a través de los cuales se ha hecho una aproximación tanto al intento de comprender la inteligencia humana, como a la solución de una serie de problemas característicos del campo. Después, se reflexionará sobre las diferencias constitutivas entre el conocer humano y el conocer de las máquinas. Y el objetivo de la IA que por lo general se basa en la construcción de sistemas, tanto hardware como software, que sean capaces de replicar aspectos de lo que se suele considerar inteligencia. Y finalmente, hablaremos de algunas recomendaciones, que creo que pueden contribuir a aclarar y alcanzar los objetivos específicos de la IA y la IC, a la vez que se eliminan falsas expectativas resultado en su mayoría del uso de una nomenclatura cognitiva excesiva. Por lo tanto, el propósito global del artículo consistirá en dar una visión razonablemente amplia de la IA y la IC. Y podemos aclarar desde el principio que la IA es el conjunto de técnicas, métodos, herramientas y metodologías que nos ayudan a construir sistemas que se comportan de manera similar a un humano en la resolución de problemas concretos.

Palabras clave: Inteligencia Artificial, Ingeniería del Conocimiento, paradigmas, inteligencia humana, máquinas, reflexión, resultados, razonable.



Abstract - In this article we will explore the concept of Artificial Intelligence (AI) considered as science and as knowledge engineering (CI). After a brief summary of the historical evolution of the field, we will review the four current paradigms (symbolic, connectionist, situated and hybrid) through which an approach has been made both to the attempt to understand human intelligence, and to the solution of a series of characteristic problems of the field. Afterwards, we will reflect on the constitutive differences between human knowledge and the knowledge of machines. And the objective of the AI ​​that is usually based on the construction of systems, both hardware and software, that are capable of replicating aspects of what is usually considered intelligence. And finally, we will talk about some recommendations, which I think can help clarify and achieve the specific objectives of AI and CI, while eliminating false expectations resulting mostly from the use of an excessive cognitive nomenclature. Therefore, the overall purpose of the article will be to give a reasonably broad view of AI and CI. And we can clarify from the beginning that AI is the set of techniques, methods, tools and methodologies that help us build systems that behave similarly to a human in the resolution of specific problems.


Index term: Artificial Intelligence, Knowledge Engineering, paradigms, human intelligence, machines, reflection, results, reasonable.




 Canal de Youtube        I.        INTRODUCCIÓN
Actualmente se acepta, con alto grado de consenso entre los profesionales del campo de la computación, que el propósito general de la IA es desarrollar: (1) Modelos conceptuales, (2) procedimientos de reescritura formal de esos modelos y (3) estrategias de programación y máquinas físicas para reproducir de la forma más eficiente y completa posible las tareas cognitivas y científico-técnicas mas genuinas de los sistemas biológicos a los que hemos etiquetado de inteligentes. El avance de la Inteligencia Artificial está necesariamente limitado por los avances en las técnicas de modelado, formalización y programación y por la evolución en los materiales y las arquitecturas de los computadores y los dispositivos electromecánicos (“robots”) en los que se instala el cálculo. Quedémonos inicialmente con la idea de que los cuatro grandes objetivos de la IA son  modelar, formalizar, programar e implementar máquinas soporte capaces de interactuar de forma no trivial con el medio. La gran hipótesis de la IA fue que en un número corto de años (10, 20, 30, 40, ahora ya 50) iba a ser posible sintetizar los procesos cognitivos y conseguir “inteligencia general en máquinas”. Es decir, que no existían impedimentos físicos, constitutivos ni formales para este objetivo y que sólo era cuestión de recursos. Hay que definir que el término inteligencia es un concepto pre-científico cuya utilidad actual es, cuando poco, discutible. Dentro de la propia psicología se propone descomponer el término y hablar de “inteligencias múltiples” o de “inteligencia colectiva” intentando poner de manifiesto en el caso la existencia de habilidades relativamente autónomas. Cuando intentamos concretar más el significado del término inteligencia, para saber qué es lo que queremos mimetizar en una máquina, nos encontramos con el conjunto de conocimientos y habilidades a los que hace referencia toda la neurofisiología, la psicología, la sociología y la filosofía. Parece que se concreta algo al afirmar que la IA tiene que ver “sólo” con los conocimientos necesarios para la comprensión y la síntesis de procedimientos de solución de problemas complejos que exigen la capacidad de procesamiento simbólico y relacional. Se han realizado avances importantes en las técnicas de modelado conceptual y formal, en la estructuración del conocimiento necesario para resolver una tarea en términos del papel que juegan los distintos elementos o roles y del plan estratégico de descomposición del procedimiento de solución “métodos”. También se ha avanzado en las técnicas de representación formal (lógica, reglas, marcos, objetos, agentes, redes casuales, etc.) y en el tratamiento de la incertidumbre (redes bayesianas, sistemas borrosos) y en la solución de problemas para los que disponemos de más datos que conocimiento (redes de neuronas artificiales). Hay avances importantes en la búsqueda de inspiración en la biología (computación de membranas) y en la física (computación cuántica); se ha alcanzado la frontera de la nanotecnología y se investiga en biomateriales como soporte físico de un cálculo. Finalmente, cuando las soluciones propuestas por la IA son valiosas, enseguida las integra la informática convencional, es decir, independientemente de los excesivos objetivos iniciales y de la carga cognitiva de su nomenclatura, los logros alcanzados por la IA durante los últimos cincuenta años, entendida como automatización de procesos con alto contenido cognitivo, son indiscutibles.



      II.            PESPECTIVA HISTÓRICA: FUNDAMENTOS Y METODOLOGÍA
Los paradigmas dominantes en la actualidad (simbólico, conexionista, situado e híbrido) tienen sus fundamentos en los trabajos previos a 1956 llevados a cabo por la cibernética, desde 1943. En ese año se publicaron los tres trabajos que pueden considerarse de carácter fundamental:
·         A logical calculus of the ideas immanent in Nervous activity. McCulloch y Pitts, 1943.
·         The nature of explanation. Craik, k. 1943.
·         Behavior, purpose and teleology. Rosenblueth y otros, 1943; Wiener 1947.
En el primero, W.S. McCulloch y W. Pitts introducen el concepto de neurona formal que ha dado origen al paradigma conexionista. En el segundo, K. Craik introduce los fundamentos del paradigma simbólico al interpretar el conocimiento humano en términos de descripciones declarativas y modulares de entidades simbólicas de alto nivel y de un conjunto de reglas inferenciales usadas para manipular esas descripciones simbólicas. Finalmente en el tercer trabajo, introducen las bases del paradigma situado al interpretar el comportamiento inteligente en términos de un conjunto de mecanismos de realimentación. El trabajo de A. Turing en 1950 complementa los fundamentos del paradigma simbólico al proponer un procedimiento experimental de medir la inteligencia contenida en un programa de IA. En la década de los setenta se inicia la explosión de aplicaciones de la IA en términos de sistemas basados en reglas a los que se les llama primero sistemas expertos y después sistemas basados en conocimiento. El reconocimiento de la insuficiencia de la lógica como herramienta única de representación da lugar al desarrollo de otras formas de representación e inferencia mediante redes casuales y asociativas (semánticas, neuronales y bayesianas) y marcos, objetos y agentes. Aunque en la etapa dominada por el paradigma simbólico (1956-1986) hay un número relevante de trabajos basados en los principios de la cibernética y el conexionismo (Craik, 1943; McCulloch y Pitts, 1943), tales como la teoría modular de autómatas probabilísticos, las memorias asociativas, el reconocimiento de caracteres, los sistemas auto-organizativos y la traducción automática, es en 1986 (Rumelhart y otros, 1986) cuando renace con fuerza la aproximación neuronal al problema de la inteligencia. En la década de los 90 (Arkin, 1998; Brooks, 1991) aparece también, en el contexto de la robótica, el interés por la aproximación situada, cerrando así el lazo histórico que comenzó en 1943, con el reconocimiento de la necesidad de usar los tres paradigmas tanto en la perspectiva teórica como en la aplicada. Es curioso que durante todos estos años hayan sido mínimos los esfuerzos en el fortalecimiento de los fundamentos de la IA, más allá de los desarrollos en torno al proyecto SOAR (1969-1991) [Rosenbloom y otros, 1993] y de algunas críticas de filósofos y psicólogos interesados en la IA, como Dreyfus, Clancey o Searle. De hecho, tal como ya hemos mencionado, el debate más importante en IA no ha estado relacionado con la Ingeniería, sino con la potencial validez del paradigma simbólico para explicar los procesos cognitivos. Sobre el nivel físico (el hardware del computador y del robot) se superpone el nivel de los símbolos (el programa) y sobre este el nivel de conocimiento (en nomenclatura de Newell) o el nivel de la “teoría del cálculo” (en nomenclatura de Marr). Cada nivel es autónomo y se tiene que poder reescribir en términos de las entidades y relaciones del nivel inferior, dejando fuera parte de su semántica. Para explicar esta distinción entre la semántica y causalidad propias de cada nivel y las que no son computables. J. Mira y A.E Delgado (Mira y Delgado, 1987) introdujeron en 1987 la distinción en cada nivel entre el dominio propio del nivel donde la semántica es interna y las cosas ocurren “como tienen que ocurrir” (los contadores cuentan, los multiplexos multiplexan), y el dominio del observador externo (nosotros), donde la semántica es arbitraria y tenemos libertad para asociar significados a símbolos. Un aspecto importante para entender la parte computable de la inteligencia humana es detallar el conocimiento que se queda fuera cuando vamos atravesando fronteras de dominios y niveles en el proceso de reducción de un modelo conceptual, primero a un modelo formal y después a un programa. Y finalmente, a la hora de valorar las funcionalidades reales de un programa o un robot con supuesta inteligencia tengamos clara la distinción entre lo que pertenece al dominio propio (es decir lo que reside en la CPU del computador y en el cuerpo del robot) y lo que pertenece al dominio del observador (es decir las etiquetas lingüísticas y la semántica). Así, se nos hará evidente la distinción entre el nivel de inteligencia que realmente hemos sido capaces de computar y aquellos otros componentes de la inteligencia humana que sólo existen en el lenguaje natural y en la mente del usuario e intérprete del programa.



               III.            LA “IA” COMO CIENCIA
La perspectiva científica de la IA busca una teoría computable del conocimiento humano. Es decir, una teoría en la que sus modelos formales puedan ejecutarse en un sistema de cálculo y tener el mismo carácter predictivo que tienen, por ejemplo, las ecuaciones de Maxwell en el electromagnetismo. No es sorprendente entonces que con estos objetivos consideremos excesiva la conjetura fuerte de la IA. Su fenomenología engloba el conjunto de hechos asociados a la neurología y la cognición, desde los niveles subcelular y neuronal a los mecanismos y organizaciones superpuestas de las que emergen las funciones globales de percepción, memoria, lenguaje, decisión, emoción y acción que han dado lugar a lo que llamamos comportamiento inteligente en humanos. Dotar a la biología y a la psicología del carácter de ciencia experimental que tiene la física es un objetivo deseable pero de difícil consecución. Entre otras razones porque todavía no disponemos de los datos necesarios ni, posiblemente, de las matemáticas adecuadas. La labor que creemos que debe de realizar en esta tarea la computación en general y la IA en particular es dotar de herramientas conceptuales y formales a la Neurofisiología y la Ciencia Cognitiva. Es decir, potenciar la “Neurociencia Computacional” y todos los procedimientos experimentales de estimulación, clasificación, e interpretación y predicción de resultados.


                         IV.            LA “IA” COMO INGENIERÍA
La rama aplicada de la IA, conocida como Ingeniería del Conocimiento, tiene unos objetivos más claros y alcanzables a corto y medio plazo. Sin embargo, tiene también grandes dificultades comparada con las otras ingenierías de la materia y la energía por dos razones fundamentales. La primera es que, como alternativa a la materia y a la energía, el nuevo objeto formal de la IC es el conocimiento y éste, como la información, es pura forma. Sólo usa la energía como soporte, pero el mensaje está en la estructura relacional y en el consenso entre los distintos observadores externos que deberán de dotar del mismo significado a los símbolos formales y físicos que constituyen un cálculo. La segunda razón de las dificultades de la IC en comparación con las dificultades usuales en otras ingenierías es que la IC no puede apoyarse en una sólida teoría del conocimiento porque todavía no disponemos de esa teoría. Así, estamos queriendo hacer aviones sin un sólido conocimiento de la física de fluidos. Por consiguiente, parece razonable dejar el tiempo necesario para que la parte teórica de la IA contribuya a obtener una teoría computable del conocer humano y, mientras tanto, redefinir los objetivos de la IC de forma más modesta, teniendo en cuenta el carácter limitado, incompleto y poco preciso del conocimiento del que disponemos sobre los dos tipos de tareas que aborda la IC: (1) Tareas básicas e inespecíficas usuales en humanos, independientemente de su actividad profesional, tales como ver, oír, interpretar el medio, planificar, aprender, controlar las acciones encaminadas a moverse y manipular un medio, etc. y (2) Tareas científico-técnicas en dominios estrechos (diagnosticar en medicina, configurar y diseñar sistemas, etc.). En la mayoría de los desarrollos de la IC llamados Sistemas Basados en el Conocimiento (SBCs) se procede de acuerdo con los siguientes pasos (véase la Figura 1.1).
Figura 1.1: Esquema cualitativo de la IC. Se modela a partir de descripciones en lenguaje natural del procedimiento usado por un humano para resolver una tarea.
             

   V.            PARADIGMAS ACTUALES EN “IA”
Entendemos el concepto de paradigma en el sentido de Kunh [Kuhn, 1971], como una aproximación metodológica a la IA y a la IC que ha sido consensuada entre un amplio grupo de profesionales del campo que la consideran como la forma normal de hacer ciencia o ingeniería. Este consenso en un paradigma concreto supone que se está de acuerdo sobre cuáles son los objetivos y la forma de alcanzarlos. Es decir, sobre cómo plantear las cuestiones y los experimentos, sobre los métodos para resolver los problemas y sobre los mecanismos de explicación y las hipótesis que nos van a dejar satisfechos. Paradigma es sinónimo de forma de abordar la solución de un problema. Los cuatro paradigmas básicos son:
1. Simbólico o representacional.
2. Situado o reactivo.
3. Conexionista.
4. Híbrido.


1.5.1  EL PARADIGMA SIMBÓLICO
Todo paradigma empieza tomando postura sobre qué entendemos por conocimiento. En el caso del paradigma simbólico, llamado también representacional, se considera que todo el conocimiento necesario para resolver una tarea de diagnóstico, planificación, control o aprendizaje, por ejemplo, puede representarse usando descripciones declarativas y explícitas en lenguaje natural formadas por un conjunto de “conceptos”, los hechos, y otro conjunto de reglas de inferencia que describen las relaciones estáticas y dinámicas conocidas entre esos hechos. Así, razonar en el paradigma simbólico es equivalente a especificar un conjunto de reglas de manipulación de los conceptos de entrada al SBC que genera el resultado del razonamiento, la inferencia. Este paradigma ha sido el dominante desde 1956 hasta 1986, y en su evolución se observa una tendencia progresiva a separar los aspectos genéricos (tareas, métodos, inferencias y roles) de los conocimientos específicos de cada dominio de aplicación (medicina, robótica, educación, Web, etc.). La meta es aproximar la IC a las otras ingenierías, en particular a la ingeniería electrónica, donde nadie discute la utilidad de disponer de buenos almacenes de componentes reutilizables (contadores, ALUs, memorias,...) y de procedimientos sistemáticos de síntesis a partir de estos componentes, de un “modelo estructural de la tarea” (esquemas de conectividad en circuitos patrón) y de un conjunto de reglas que especifican el diseño a partir de un conjunto de especificaciones funcionales. Es usual distinguir tres tipos de tareas, de análisis (monitorizar, clasificar, diagnosticar, etc.), de síntesis (planificar, configurar, diseñar, refinar, etc.) y de modificación (reparar, controlar, supervisar, aprender, etc.). Cada tarea se corresponde con un patrón muy general de razonamiento que especifica el tipo de problema, sus objetivos y las actividades necesarias para alcanzarlos. Craik distinguía tres procesos básicos en el razonamiento humano:
1. Traslación de las entidades y relaciones del medio externo a una representación interna en términos de palabras, números u otros símbolos, como por ejemplo imágenes.
2. Derivación de nuevos símbolos a partir de los anteriores mediante procesos de inferencia inductiva, deductiva y, esencialmente, abductiva.
3. Retraslación de los nuevos símbolos derivados (inferidos) en términos de acciones que vuelven al medio externo.
La Figura 1.2 muestra una versión actualizada de la propuesta de Craik, en la que no es difícil detectar analogías con las arquitecturas usuales en los SBCs.
Figura 1.2: Versión actualizada de la arquitectura simbólica basada en la propuesta inicial de Craik.


1.5.2  EL PARADIGMA SITUADO
El paradigma situado, llamado también reactivo o “basado en conductas”, enfatiza el hecho de que toda percepción y toda acción están estructuralmente acopladas, a través de sensores y efectores concretos, a un medio externo e interno también concretos. Así, las componentes de modelado del conocimiento no son ahora conceptos cognitivos de alto nivel semántico (“hipótesis”, “observables”, “diagnósticos”, etc.), sino elementos más sencillos claramente distinguibles por un observador externo que ve cómo un agente físico (un robot, por ejemplo) interactúa con su medio, tal como ocurre en la etología. Observamos que un robot “está quieto”, “se mueve”, “gira a la derecha”, “evita un obstáculo”, “acerca un manipulador a un objeto”, “lo coge”, “lo transporta”, “lo suelta”, etc. El esquema de la Figura 1.3 resume la arquitectura reactiva más elemental. El sistema que queremos modelar se encuentra en un medio con el que cierra un lazo de realimentación mediante un conjunto de sensores y efectores específicos. Así, todo lo que no puedan representar esos sensores no existe para el sistema, en sentido estricto. Análogamente, el sistema no podrá realizar ninguna acción que no pueda ejecutarse a través de sus efectores. El resto de sus potenciales decisiones no existen a efectos de modificar el medio. El siguiente paso en la especificación de la arquitectura consiste en aceptar que las señales de los sensores son procesadas espacio-temporalmente para detectar la presencia en el medio de alguno de los esquemas de un conjunto predefinido. Todos estos esquemas están especificados a un nivel muy bajo, próximo al lenguaje máquina y la electrónica para que su tiempo de cálculo sea muy pequeño y permita al agente operar en tiempo real, de forma reactiva, sin necesidad de gastar mucho tiempo “deliberando”, como ocurría en el paradigma simbólico. A estos esquemas de entrada se les suele llamar “percepciones”. De forma especular, cuando el agente decide la acción o secuencia de acciones que debe de ejecutar, basta con que las seleccione y active, porque estos patrones espaciotemporales de acción también están precalculados y permiten una conexión directa, condicionada o secuencial con las percepciones. Finalmente, la función de decisión del agente (la inferencia y su control) es esencialmente un esquema de asociación (una tabla) o un autómata finito que, ante cada configuración de percepciones activadas y cada estado interno dispara la configuración de acciones correspondientes. Es decir, el paradigma reactivo sustituye la representación de la parte de condición de las reglas inferenciales por esquemas precalculados y sustituye el proceso inferencial en reglas y marcos por su autómata de control.


1.5.3  EL PARADIGMA CONEXIONISTA
En el paradigma conexionista (las llamadas redes de neuronas artificiales, RNAs), el problema de la representación del conocimiento se realiza mediante el uso de líneas numéricas etiquetadas para la entrada y salida de la red y el problema de la inferencia se resuelve mediante un clasificador numérico de naturaleza paramétrica en el que el valor de esos parámetros se ajusta mediante un algoritmo de aprendizaje supervisado o no supervisado. La arquitectura de un agente conexionista es modular, organizada en capas, con gran número de procesadores elementales (“neuronas”) fuertemente interconectados, que evalúan una sencilla función de cálculo local; La Figura 1.3 muestra la arquitectura básica del modelado conexionista que corresponde a un grafo paralelo y dirigido en el que los nodos están ocupados por las neuronas y los arcos por los pesos ajustables.
Figura 1.3: Arquitectura general de las RNAs como aproximadores paramétricos ajustables entre dos representaciones numéricas.



1.5.4  EL PARADIGMA HÍBRIDO
La mayor parte de los problemas son de naturaleza híbrida, por lo que su solución también deberá ser híbrida, usando los datos y el conocimiento disponibles junto con los métodos y técnicas más adecuados para rentabilizar esos recursos. Es decir, en el control de un robot podremos necesitar aproximaciones reactivas y declarativas, y técnicas simbólicas, borrosas y neuronales. Esta es la idea de sincretismo que caracteriza a las aproximaciones híbridas en IC. El cuerpo de conocimientos en IC ofrece una suite de métodos y técnicas de modelado, formalización, programación e implementación física. La naturaleza del problema y el balance entre datos y conocimientos son los criterios que guían en cada caso la combinación específica de medios más adecuada para su solución. Otra forma usual de arquitectura híbrida es la de los sistemas neuroborrosos que engloban formas de modelar conocimiento y operacionalizar inferencias en las que se mezclan componentes neuronales y borrosas. Así, pueden usarse técnicas borrosas para “adquirir” el conocimiento, obteniendo una representación en términos de conjuntos borrosos y etiquetas lingüísticas de las distintas variables de entrada y salida del sistema. También pueden definirse esquemas de calculo neuroborrosos en los que se mantiene el modelo estructural de neurona y las topologías de interconexión y se sustituyen los operadores analíticos usuales en la computación neuronal por operadores borrosos. Subyacente a los componentes borrosos del modelo existe también, en prácticamente todos los casos, un conocimiento simbólico usado para especificar las variables y sus rangos, para definir las funciones de pertenencia y para diseñar la topología inicial de la red neuronal.

                                                                                   

      VI.            EL CONOCER HUMANO Y EL CONOCER DE LAS MÁQUINAS
Ahora es tiempo de  reflexionar sobre las diferencias ente el conocer humano y el conocer de las máquinas. Todo conocer, nos dice Maturana, depende constitutivamente de la naturaleza del sistema que conoce, de sus entidades constituyentes y de sus relaciones con el medio al que está acoplado estructuralmente y con el que ha derivado evolutivamente. Así, hablar de inteligencia natural supone hablar de la vida, de los distintos niveles organizativos de la realidad biológica, social, histórica y evolutiva. La inteligencia está situada en un cuerpo y esa físicalidad del sistema no puede eludirse. Por eso la IA sólo puede pretender cubrir la dimensión formal del pensamiento, la parte computable de la percepción, la acción y el razonamiento en humanos. Es tan evidente que la naturaleza humana es distinta de la naturaleza del computador y del robot que casi parece innecesario el análisis comparativo. Sin embargo, dadas las consecuencias de esta analogía (cerebro-hardware, mente-software, pensar-calcular) vamos a mencionar algunas de las diferencias constitutivas entre el conocer de los sistemas vivos y la computación en máquinas con sensores y efectores electromecánicos usando el marco de niveles (físico, símbolos y conocimiento) y dominios de descripción de un cálculo (dominio propio de cada nivel y dominio del observador externo),  En cada nivel y en cada dominio el conocimiento acomodado en el mismo depende de la fenomenología que sus elementos constituyentes generan al operar. En el nivel físico de las máquinas las entidades constituyentes son circuitos lógicos y retardos que sólo permiten establecer distinciones binarias (0,1) sobre expresiones lógicas y transiciones de estado en autómatas finitos. Todo el resto del conocimiento que puede acomodar este nivel está asociado a la arquitectura (al lenguaje máquina). El cuerpo del computador es de cristal semiconductor, con arquitectura fija, estática y con semántica impuesta. Por el contrario, las entidades constituyentes del tejido nervioso (proteínas, canales iónicos, neuronas) permiten acomodar todo el conocimiento aportado por la genética, la evolución, la historia y la cultura. El soporte neurofisiológico del comportamiento inteligente es autónomo, autopoyético, dinámico y adaptivo. Su semántica es emergente y su arquitectura siempre está inacabada y, por consiguiente, finalmente es única e irrepetible para cada ser vivo y en cada instante de su existencia. Las diferencias en el nivel de conocimiento son las de observación más directa, tanto por introspección como por consideración del cuerpo de conocimientos acumulados por la genética, la fisiología, la psicología, la lingüística, la sociología y la filosofía. La inteligencia humana está asociada a la capacidad de adaptación al medio, al uso del lenguaje natural y al comportamiento basado en propósitos, intenciones y emociones. Si queremos usar aquí la metáfora computacional para afirmar que pensar es calcular, tenemos primero que formular los conceptos de cálculo intencional y cálculo semántico. Por el contrario, ya hemos recordado que al computador sólo pasa el “modelo formal subyacente” asociado a un lenguaje de programación para el que hemos sido capaces de desarrollar un traductor al lenguaje máquina. Es decir, todo cálculo es sintáctico o lógico y está descrito en extenso. Una segunda fuente de disparidad entre el conocer humano y el conocer de las máquinas procede de nuestro desconocimiento de la fisiología y la lógica de la cognición. Nos faltan datos y teorías sobre el conocer humano. En cambio, “el conocer de las máquinas” lo conocemos perfectamente porque las hemos diseñado nosotros. Una tercera fuente de discrepancia entre el conocer humano y el de las máquinas procede de la falta de herramientas formales y nuevos modelos de computación adecuados para modelar los procesos cognitivos, de forma análoga a cómo el cálculo diferencial permitió la formulación matemática de la Física. En todos los desarrollos de IA e IC, al intentar reescribir formalmente los modelos conceptuales, sólo disponemos de las matemáticas heredadas de la física (el álgebra y el cálculo), la lógica y la teoría de autómatas, junto con algunos elementos de cálculo de probabilidades y estadística.
                                                                                                                            


   VII.            CONCLUSIONES Y RESULTADOS
Como ya hemos visto a lo largo de este artículo, la IA es muy diferente a la inteligencia del humano, pero la inteligencia humana se desconoce aún y no esta estudiada del todo, más sin embargo decimos que la IA ya esta estudiada del todo por que nosotros la creamos; aunque tal vez aún no sepamos todo sobre la inteligencia artificial pero como en estos puntos nos enseñan a ver una nueva idea y de acuerdo a lo visto en los cuatro paradigmas y aplicándola como ciencia e ingeniería, nos podríamos dar la idea en que habrá una nueva visión y énfasis en este dichoso tema y esperemos que sólo sea para el bien.


REFERENCIAS
1)       Arkin, R.C.: Behavior-based Robotics. The MIT Press, 1998.
2)       Kuhn, T.S.: La Estructura de las Revoluciones Científicas. Fondo de Cultura Económica. México, 1971.
3)       Kuncicky, D.C.; Hruska, S.I. y Lacher, R.C.: «Hybrid systems: The equivalence of rule-based expert system and artificial neural network inference». International Journal of Expert System, 4(3), 1992, pp. 281–297.
4)       Mira, J.: «Del Conocer Humano al Conocer de las Máquinas», 2003. Lección Inaugural del Curso 2003-04. UNED.
5)       Mira, J. y Delgado, A.E.: «Computación Neuronal». En: Aspectos Básicos de la Inteligencia Artificial. Cap. 11; J. Mira, A.E. Delgado, J.G. Boticario y F.J. Díez, pp. 485–575. Sanz y Torres, Madrid, 1995a.
6)       Mira, J. y Delgado, A.E.: «Perspectiva Histórica Conceptual». En: Aspectos Básicos de la Inteligencia Artificial, pp. 1–51. Sanz y Torres, Madrid, 1995b.
7)       Rich, E.: «Artificial Intelligence». En: Encyclopaedia of Artificial Intelligence Vol. I; Shapiro, S.C. (Ed.), pp. 9–16
8)       Varela, F.J.: «The Re-Enchantment of the Concrete». En: The Artificial Route to Artificial Intelligence; Steels, L., and Brooks, R. (Eds.), pp. 11–22.
9)       Murphy, R.R.: Introducción a la robótica. MIT Press Camb. Mass., 2002.
10)   Newell, A. y Simon, H.A.: «Computer Science as Empirical Inquiry: Symbols and Search». En: Communications of ACM, 19, pp. 113–126, 1976.
11)   Jose Palma M. y Roque M. M. «inteligencia artificial»en: métodos, técnicas y aplicaciones, pp. 3-28.

No hay comentarios.:

Ejercicio tipo examen para entrar a la universidad!

Entradas populares

Propiedades y formularios!






Analogías y criptoaritmética

Ejercicios tipo examen | Leyes de los exponentes

Anuncio

Ejercicios en el canal de propiedades

Buscador

Ads