Definiciones

La pregunta del millón: ¿de qué hablamos cuando hablamos de IA?

¿Inteligencia artificial? ¿Lo qué?

La expresión “inteligencia artificial” remite a muchas cosas, y está bien que lo haga porque realmente es una enorme cantidad de cosas y procesos al mismo tiempo. Por eso es necesario un poquito de claridad conceptual para que sepamos con qué estamos lidiando cada vez que usamos este concepto o hasta qué punto debemos o podemos confiar en los resultados que nos brindan las apps basadas en esta tecnología. Por eso, debemos ir por partes.

Por un lado, y para empezar por algo tranqui, la Inteligencia Artificial probablemente sea el esfuerzo más grande y sostenido por la especie humana por comprender su propia naturaleza. Por si no lo pensaste hasta ahora, dejame decirte que la existencia es un gran misterio, y desde siempre hemos estado buscando explicaciones y más explicaciones a por qué estamos acá. Más allá de en lo que decidamos (o no) creer, una forma en la que como especies siempre hemos intentado explicar los misterios de nuestra conciencia y los del mundo que experimentamos al simplemente ser es a través de la replicación técnica de aquello que está tanto “ahí afuera” como “adentro de nuestra cabeza”. Es en este sentido que la IA puede verse como «el esfuerzo».

Lo otro que debemos remarcar es que, básicamente, hay tantas definiciones de IA como gente reflexionando sobre la IA. No es de sorprendernos, porque tanto “inteligencia” como “artificial” son conceptos vagos y ambiguos, esos que los científicos y los filósofos han pasado mucho tiempo discutiendo e intentando definir con algo de precisión. Curiosamente, la única precisión a la que se suele llegar es a acordar que los conceptos que usamos en el lenguaje natural (el que hablamos todos los días, incluso en contextos científicos, y en el que solemos pensar) son intrínsecamente difusos: son una suerte de “nube de ideas” que “más o menos” remiten a cierto tipo de experiencias y elementos del mundo, pero que tienen una dependencia del contexto muy grande como para hacer definiciones muy precisas, como aquellas a las que estamos acostumbrados en el ámbito de la matemática y la programación. Este “más o menos” nos inquieta a todos, pero es crucial. Estamos literalmente trabajando al borde de lo que comprendemos, que implica también comprender cómo es que comprendemos.

La primera caja negra

Algunas definiciones. Inteligencia artificial es:

”El emocionante nuevo esfuerzo para hacer que las computadoras piensen… máquinas con mentes, en el sentido completo y literal.” (Haugeland, 1985)

”El estudio de cómo hacer que las computadoras hagan cosas que, por el momento, las personas hacen mejor.” (Rish y Knight, 1991)

“El estudio de las facultades mentales a través del uso de modelos computacionales.” (Charniak y McDermott, 1985)

”A la IA … le concierne el comportamiento inteligente en los artefactos” (Nilsson, 1998)

Fijate que en las dos definiciones de recién hay una tensión entre “pensar (racionalmente)” y “comportarse (racionalmente”), tomando por ahora “racionalmente” como un sinónimo algo crudo para “inteligentemente”. Así, la tensión para alguien que busca replicar de manera artificial la inteligencia humana, podría optar por crear algo que piensa como nosotros creemos que pensamos (o deberíamos pensar), pero también puede optar por crear un artefacto que para todos los propósitos útiles se comporte como si pensara, sin importarnos mucho si realmente piensa como nosotros lo hacemos o lo quisiéramos poder hacer.

Pero, ¿sabemos cómo pensamos? Sí, lo que estoy intentando decir es precisamente que la primera caja negra somos nosotros mismos, que no entendemos muy bien todavía qué es eso que nos hace seres que saben que saben (no es un error de tipo, es un metajuego con homo sapiens sapiens). Quizás sería un poco más honestos llamarnos seres que sabemos que no sabemos. Pero volvamos a la IA.

La vieja y querida IA

Las definiciones anteriores son clásicas, y están recopiladas en uno de los manuales de IA más clásicos de todos los tiempos: Inteligencia Artificial: Un enfoque moderno de Stuart Russell y Peter Norvig. Hasta la 3ra edición de 2009, los autores definían a la IA de la siguiente manera:

El principal tema unificador [de este libro] es la idea de agente inteligente. Definimos la IA como el estudio de agentes que reciben percepciones del entorno y realizan acciones. Cada uno de estos agentes implementa una función que asigna secuencias de percepción a acciones, y cubrimos diferentes formas de representar estas funciones.

Su énfasis los lleva a esclarecer lo que entienden por un agente racional: «aquel que actúa para obtener el mejor resultado o, en caso de incertidumbre, el mejor resultado esperado. (2009, p. 4)». Actuar bien (vemos que estamos ya bordeando la ética) se piensa sobre las consecuencias de la acción:

Respondemos a esta vieja pregunta de la misma vieja manera: considerando las consecuencias del comportamiento del agente. Cuando un agente se encuentra en un entorno, genera una secuencia de acciones en función de las percepciones que recibe. Esta secuencia de acciones hace que el entorno pase por una secuencia de estados. Si la secuencia es deseable, entonces el agente ha actuado bien. Esta noción de deseabilidad se captura mediante una medida de rendimiento que que evalúa cualquier secuencia dada de estados del entorno. (2009, p. 37)

Dada esta forma de entender —y poder medir— la utilidad de una acción, pueden pasar a definir un agente racional de la siguiente manera:

Para cada secuencia de perceptos posible, un agente racional debe seleccionar una acción que se espera que maximice su medida de rendimiento, dada la evidencia proporcionada por la secuencia de perceptos y cualquier conocimiento incorporado que tenga el agente. (2009, p. 37)

¡Qué definición! ¿Podemos “operar en el mundo” (el de la cotidianeidad) con una definición de racionalidad semejante? ¿Actuamos así nosotros?

La IA “original”

Hablando de definiciones, aquí de nuevo la manera en la que delimitaban la actividad alrededor del workshop de 1956 en el que se delineó el paradigma principal de investigación en IA:

Proponemos que se lleve a cabo un estudio de la inteligencia artificial de dos meses y diez hombres en el verano de 1956 en el Dartmouth College de Hanover, New Hampshire.

El estudio es para seguir adelante sobre la base de la conjetura de que cualquier aspecto del aprendizaje o cualquier otro rasgo de inteligencia puede en principio ser descrita de forma tan precisa que puede hacerse que una máquina lo simule.

Se hará un intento de descubrir cómo hacer que las máquinas usen el lenguaje, formen abstracciones y conceptos, resuelvan clases de problemas hasta ahora reservados para humanos, y se mejoren a sí mismas.

El énfasis es mío. Esa fue la idea central, poder dar un tratamiento formal y riguroso para dar cuenta del ser racional. Probó ser una tarea bastante difícil…

La IA hoy (ca. 2010 - 2030)

La mejor manera de delimitar lo que hoy es IA creo que es “una nueva forma de programar”. Una en la que no tenemos que dar cada una de las instrucciones precisas de cómo llevar a cabo una tarea, sino que nos limitamos a “enseñar” o “mostrar” muchos ejemplos o cada tanto intervenir “recompensando” buenas performances. Y no hay mejor manera de comprender esto que revisando la forma en la que cambió su pensamiento sobre la computación y la programación uno de los pioneros del campo: Alan Turing.

Sugerencias de lectura

Dos excelentes recursos en formato libro y en español para seguir pensando estos puntos alrededor de lo que significa IA son:

Boden, M. A. (2017). Inteligencia Artificial. Turner.

Copeland, J. (1996). Inteligencia artificial: Una introducción filosófica. Alianza Editorial.

Siguiente