Inteligencia Artesanal |
|
Nota preliminar: Es muy bonito enredarse en disquisiciones filosóficas sobre qué es y qué no es inteligencia, y sus enlaces con las emociones y la sociedad. Pasar de la inteligencia a secas, a la inteligencia emocional, y a la inteligencia social. Ahora bien, suponiéndonos capaces de crear inteligencia. ¿Debemos crearla?¿Qué implica?
Parece un contrasentido cuestionarse la procedencia o no de los deseos creacionistas del investigador en Inteligencia Artificial. Casi raya la herejía. Cuestionar un anhelo del ser humano prácticamente desde sus orígenes, después de siglos de Historia. Quizá precisamente esos siglos de Historia que llevamos a cuestas sean los que nos proporcionen la perspectiva adecuada para afrontar este dilema moral. Lo cierto es que la creación de una inteligencia artificial nos supondrá graves cuestiones como si esa inteligencia tendrá derecho a emanciparse de nosotros, o cómo habremos de vernos influidos por ella.
Hoy en día los sistemas que llamamos “de inteligencia artificial” demuestran ser realmente poco inteligentes y la Sociedad asume esta condición de los mismos. En la práctica somos objeto de numerosas decisiones llevadas de forma automatizada por sistemas de pseudointeligencia artificial. Cuando se pide un crédito en cualquier entidad bancaria por Internet, se nos solicitan una serie de datos con los cuales se decide automáticamente si nuestro caso merece la pena ser estudiado de forma personalizada, o es rechazado directamente. La Sociedad se protege de este tipo de decisiones (prueba de que no se fía mucho de ellas), y sin ir más lejos la Ley Orgánica de Protección de Datos de Carácter Personal, 15/1999 establece en su articulado el derecho de oposición de cualquier ciudadano a que sus datos sean empleados en cualquier sistema automatizado de decisión. Es decir, que tenemos derecho a que se estudie nuestro caso aunque la página web del banco nos haya dado calabazas.
Estos sistemas pseudointeligentes se emplean también en otros ámbitos más peliagudos. Son usados, por ejemplo, en la asignación de camas o de plazas hospitalarias y en la gestión de listas de espera. Por ejemplo: A un servicio de Urgencias acuden dos personas, una con un esguince grave de tobillo, y otra con una arritmia cardíaca. A primera vista, parece que el señor con la arritmia cardíaca puede tener prioridad, pero sin embargo un esguince de tobillo grave no tratado puede tener consecuencias irreversibles a largo plazo y pueden producir incluso una minusvalía física, mientras que una arritmia cardíaca tratada puede convertirse en una enfermedad leve y crónica con la que el paciente puede vivir años sin prácticamente ninguna limitación en su vida cotidiana. Estas decisiones son objeto de controversia y los sistemas que las toman precisan de un cuidadoso diseño que contemple una abultada casuística destinada a no “meter la pata” en casos en los que la salud de las personas está en juego. Por eso en España podríamos solicitar que un ser humano fuese quien tomase esa decisión, aunque eso tampoco nos garantizaría gran cosa…
El caso es que por el momento usamos nuestra inteligencia como modelo. Quizá no en el afán de que nos imite, sino de que siendo como nosotros pueda suplirnos en determinadas circunstancias.
En 1950 Alan Turing, un matemático británico con un destacado papel en la Segunda Guerra Mundial, en los servicios de espionaje aliados, y uno de los máximos responsables de la ruptura del cifrado de la máquina Enigma alemana, y considerado uno de los padres de la computación tal y como hoy la conocemos hoy en día, estableció las bases de la Inteligencia Artificial y publicó un artículo que con el tiempo pasaría a conocerse como Test de Turing, que habría de superar todo sistema de inteligencia artificial para ser considerado realmente inteligente. Lo cierto es que la prueba en sí no es muy complicada en su concepción. Se basa en la idea de que consideramos un sistema como inteligente, cuando se comporta de modo inteligente. El viejo “por sus actos los conoceréis” del Nuevo Testamento. En esencia Turing estableció que una comunicación basada en cartas entre un humano y una máquina inteligente demostraría que la máquina es realmente inteligente si el ser humano no fuese capaz de discernir si conversaba con una máquina o con otro humano. De cualquier modo, la prueba de Turing ha tenido desde su proposición tantos detractores como seguidores. Una de las críticas más famosas fue la que popularizó Roger Penrose, de la sala china, propuesta por John Searle. Consiste en el supuesto de que un ser humano que no habla chino ni tiene ningún conocimiento de chino, se sitúa en una sala con numerosos manuales e información sobre el idioma chino. A este ser humano se le pasan por un buzón escritos en chino que él, con la documentación de la que dispone, traduce y responde. Los interlocutores fuera de la sala podrían pensar que este ser humano es chino. Este sería un caso del test de Turing en el que se superaría sin que ello supusiera que el sujeto del test supiese chino. Lo mismo podría ocurrir con un ordenador no inteligente, pero dotado de la suficiente información para dar respuestas coherentes. El caso es que en la superación del test de Turing de la sala china, las dudas que plantean tanto los detractores como los seguidores de Turing son: ¿Quién supera realmente el test? ¿El ser humano? ¿La sala en su conjunto, como ser humano ignorante más información? ¿Supone eso que un ser no inteligente con la suficiente información pasa a ser considerado inteligente? ¿Supone esto que el test de Turing no es válido para determinar la inteligencia o ininteligencia de un sistema?
Hoy en día el test de Turing se supera de forma normal. Pero se ejecuta de un modo que Turing no imaginó. Hoy en día el test de Turing nos lo plantean las máquinas a nosotros, para saber si somos humanos o no. Cualquiera de nosotros se ha sometido a un captcha. Un captcha es un sistema por el cual se nos presentan una serie de caracteres alfanuméricos distorsionados de forma que sólo un ser inteligente (de momento) sea capaz de reconocerlos, mientras que una máquina (por el momento) no puede reconocerlos y por tanto no puede acceder a ello. Normalmente los captchas se emplean para evitar que las máquinas hagan determinadas acciones de forma automatizada. Por ejemplo, para escribir un comentario en este blog, se somete al usuario a un captcha, de forma que evito que sistemas automáticos utilicen los comentarios del blog para colocar publicidad. Cada vez que superamos un captcha, en realidad estamos superando un test de Turing. Si bien el test de Turing que nos interesa superar, es el en que el ser humano somete a la máquina al test, y no al revés, como pasa con el captcha. No obstante la ciencia se afana en buscar soluciones, no para romper el sistema de seguridad de los captchas, sino porque el reconocimiento de patrones es una parte fundamental de la inteligencia. ¿Por qué sabemos que cualquier árbol es un árbol aunque nunca hayamos visto ESE árbol en concreto? Porque almacenamos en nuestro sistema los patrones identificativos de qué es un árbol (lo que Platón llamaba el concepto o idea de árbol) que nos permite reconocer como tal a cualquier árbol aunque nunca hayamos visto antes a un ejemplar concreto. Siguiendo un ejemplo simplista, de entre una serie de niños, sabemos encontrar cuál es el más alto de un modo más eficiente (que no más rápido) que un ordenador. Nosotros descartaríamos automáticamente a los más bajos dejando las comparaciones por pares para hallar el más alto de entre un grupo reducido. Si consiguiésemos que una máquina operase de ese modo las búsquedas de patrones que vemos en series como CSI, en las que se compara una huella dactilar con toda una base de datos brutal hasta encontrar una coincidencia se agilizarían enormemente. Y es que, aunque lento en comparación con un ordenador, nuestro cerebro es imbatible buscando patrones.
Otra de las cuestiones filosóficas que plantea la creación de la Inteligencia Artificial es la posibilidad de que esta inteligencia tome conciencia de sí misma. Y este tema de cariz existencialista viene de la mano de la posibilidad de que nosotros mismos seamos una inteligencia artificial creada en un sistema informático. Este tema, del que ya apunté algunas directrices en la segunda entrega al hablar de la autorreferencia, ha sido ampliamente debatido e incluso llevado al cine de forma magistral en, al menos tres ocasiones, a saber Abre los ojos, Matrix y Nivel 13, la primera de 1997 y las dos últimas de 1999, o en la literatura clásica en “Un mundo feliz” o “La vida es sueño”, por citar dos ejemplos. Es decir, el ojo que todo lo ve, pero no puede verse a sí mismo, o como dejó escrito magistralmente Antonio Machado, “El ojo que ves no es / Ojo porque tú lo veas; / Es ojo porque te ve.”
En definitiva estas divagaciones no son sino una evolución del mito platónico de la caverna, según el cual no podemos tomar consciencia del mundo real, sino de las sombras del mismo sobre el fondo de la caverna, pero que con el actual estado del arte en materia de computación, toma interesantes carices. En concreto fue especialmente famoso el artículo “Are you living in a Computer Simulation?” publicado por Nick Bostrom en el Philosophical Quarterly, vol. 53, de 2003, en el que postulaba que, más allá de que nosotros fuésemos o no parte de una realidad simulada, de serlo, seríamos incapaces de tomar conciencia de ello. En esencia se basa en los mismos principios que Hofstadter en su libro “Gödel, Escher, Bach: Un eterno y grácil bucle”. ¿Podrá una inteligencia artificial ser consciente de que es artificial? ¿En qué posición quedamos nosotros si usamos una inteligencia artificial? ¿Podría ser considerado de alguna manera esclavitud?
Tal como está el patio, parece que ya podemos ponernos manos a la obra para crear lo que hemos definido como “inteligencia” aún con limitaciones. Ahora queda lo más complicado, meternos en harina y acometer esa tarea.
Por cierto que hoy cumplo una vuelta más alrededor de nuestro sol, como tripulante de esta estupenda nave espacial que llamamos Tierra. Pero por favor, no quiero felicitaciones en los comentarios, sólo temas acordes al artículo.
1 comentarios. Deja alguno tú.:
He encontrado algo por ahí que, para quien tenga las ganas de ponerse a leer en inglés, puede resultar interesante a propósito del topic: http://www.billsterner.cs.uchicago.edu/eliza.pdf
... que me ha recordado la lectura de una novela magistral (como todo lo que he leído hasta ahora de su autor). Se titula "El mundo es un pañuelo" (Small World en inglés), de David Lodge. En ella, el protagonista se engancha sin remedio a las conversaciones con Eliza (un software experimental con el que investigan por entonces en el departamento de lingüística de la Universidad donde es profesor). No cuento más, que me enrollo, como siempre. Leanla. Es una orden.
Publicar un comentario