<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>1. Qué, por qué, cómo pensar la IA | guIA</title><link>https://guia.ilcic.net/docs/chapter1/</link><atom:link href="https://guia.ilcic.net/docs/chapter1/index.xml" rel="self" type="application/rss+xml"/><description>1. Qué, por qué, cómo pensar la IA</description><generator>Wowchemy (https://wowchemy.com)</generator><language>es</language><lastBuildDate>Sun, 09 Sep 2018 00:00:00 +0000</lastBuildDate><image><url>https://guia.ilcic.net/media/icon_hua2ec155b4296a9c9791d015323e16eb5_11927_512x512_fill_lanczos_center_3.png</url><title>1. Qué, por qué, cómo pensar la IA</title><link>https://guia.ilcic.net/docs/chapter1/</link></image><item><title>Definiciones</title><link>https://guia.ilcic.net/docs/chapter1/definiciones/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/definiciones/</guid><description>&lt;h2 id="la-pregunta-del-millón-de-qué-hablamos-cuando-hablamos-de-ia">La pregunta del millón: ¿de qué hablamos cuando hablamos de IA?&lt;/h2>
&lt;h2 id="inteligencia-artificial-lo-qué">¿Inteligencia artificial? ¿Lo qué?&lt;/h2>
&lt;p>La expresión &amp;ldquo;inteligencia artificial&amp;rdquo; remite a muchas cosas, y está bien que lo haga porque realmente es una enorme cantidad de cosas y procesos al mismo tiempo. Por eso es necesario un poquito de claridad conceptual para que sepamos con qué estamos lidiando cada vez que usamos este concepto o hasta qué punto debemos o podemos confiar en los resultados que nos brindan las apps basadas en esta tecnología. Por eso, debemos ir por partes.&lt;/p>
&lt;p>Por un lado, y para empezar por algo &lt;em>tranqui&lt;/em>, la Inteligencia Artificial probablemente sea el esfuerzo más grande y sostenido por la especie humana por comprender su propia naturaleza. Por si no lo pensaste hasta ahora, dejame decirte que la existencia es un gran misterio, y desde siempre hemos estado buscando explicaciones y más explicaciones a por qué estamos acá. Más allá de en lo que decidamos (o no) creer, una forma en la que como especies siempre hemos intentado explicar los misterios de nuestra conciencia y los del mundo que experimentamos al simplemente &lt;em>ser&lt;/em> es a través de la replicación técnica de aquello que está tanto &amp;ldquo;ahí afuera&amp;rdquo; como &amp;ldquo;adentro de nuestra cabeza&amp;rdquo;. Es en este sentido que la IA puede verse como «el esfuerzo».&lt;/p>
&lt;p>Lo otro que debemos remarcar es que, básicamente, hay tantas definiciones de IA como gente reflexionando sobre la IA. No es de sorprendernos, porque tanto “inteligencia” como “artificial” son conceptos vagos y ambiguos, esos que los científicos y los filósofos han pasado mucho tiempo discutiendo e intentando definir con algo de precisión. Curiosamente, la única precisión a la que se suele llegar es a acordar que los conceptos que usamos en el lenguaje natural (el que hablamos todos los días, incluso en contextos científicos, y en el que solemos pensar) son intrínsecamente difusos: son una suerte de “nube de ideas” que “más o menos” remiten a cierto tipo de experiencias y elementos del mundo, pero que tienen una dependencia del contexto muy grande como para hacer definiciones muy precisas, como aquellas a las que estamos acostumbrados en el ámbito de la matemática y la programación. Este &amp;ldquo;más o menos&amp;rdquo; nos inquieta a todos, pero es crucial. Estamos literalmente trabajando al borde de lo que comprendemos, que implica también comprender cómo es que comprendemos.&lt;/p>
&lt;h3 id="la-primera-caja-negra">La primera caja negra&lt;/h3>
&lt;p>Algunas definiciones. Inteligencia artificial es:&lt;/p>
&lt;blockquote>
&lt;p>”El emocionante nuevo esfuerzo para hacer que las computadoras piensen… máquinas con mentes, en el sentido completo y literal.” (Haugeland, 1985)&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>”El estudio de cómo hacer que las computadoras hagan cosas que, por el momento, las personas hacen mejor.” (Rish y Knight, 1991)&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>“El estudio de las facultades mentales a través del uso de modelos computacionales.” (Charniak y McDermott, 1985)&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>”A la IA … le concierne el comportamiento inteligente en los artefactos” (Nilsson, 1998)&lt;/p>
&lt;/blockquote>
&lt;p>Fijate que en las dos definiciones de recién hay una tensión entre &amp;ldquo;pensar (racionalmente)&amp;rdquo; y &amp;ldquo;comportarse (racionalmente&amp;rdquo;), tomando por ahora &amp;ldquo;racionalmente&amp;rdquo; como un sinónimo algo crudo para &amp;ldquo;inteligentemente&amp;rdquo;. Así, la tensión para alguien que busca replicar de manera artificial la inteligencia humana, podría optar por crear algo que piensa como nosotros creemos que pensamos (o deberíamos pensar), pero también puede optar por crear un artefacto que para todos los propósitos útiles se comporte &lt;em>como si&lt;/em> pensara, sin importarnos mucho si &lt;em>realmente&lt;/em> piensa como nosotros lo hacemos o lo quisiéramos poder hacer.&lt;/p>
&lt;p>Pero, ¿sabemos cómo pensamos? Sí, lo que estoy intentando decir es precisamente que la primera caja negra somos nosotros mismos, que no entendemos muy bien todavía qué es eso que nos hace seres que saben que saben (no es un error de tipo, es un metajuego con &lt;em>homo sapiens sapiens&lt;/em>). Quizás sería un poco más honestos llamarnos seres que sabemos que no sabemos. Pero volvamos a la IA.&lt;/p>
&lt;h3 id="la-vieja-y-querida-ia">La vieja y querida IA&lt;/h3>
&lt;p>Las definiciones anteriores son clásicas, y están recopiladas en uno de los manuales de IA más clásicos de todos los tiempos: &lt;em>Inteligencia Artificial: Un enfoque moderno&lt;/em> de Stuart Russell y Peter Norvig. Hasta la 3ra edición de 2009, los autores definían a la IA de la siguiente manera:&lt;/p>
&lt;blockquote>
&lt;p>El principal tema unificador [de este libro] es la idea de agente inteligente. Definimos la IA como el estudio de agentes que reciben percepciones del entorno y realizan acciones. Cada uno de estos agentes implementa una función que asigna secuencias de percepción a acciones, y cubrimos diferentes formas de representar estas funciones.&lt;/p>
&lt;/blockquote>
&lt;p>Su énfasis los lleva a esclarecer lo que entienden por un agente racional: «aquel que actúa para obtener el mejor resultado o, en caso de incertidumbre, el mejor resultado esperado. (2009, p. 4)». Actuar bien (vemos que estamos ya bordeando la ética) se piensa sobre las consecuencias de la acción:&lt;/p>
&lt;blockquote>
&lt;p>Respondemos a esta vieja pregunta de la misma vieja manera: considerando las consecuencias del comportamiento del agente. Cuando un agente se encuentra en un entorno, genera una secuencia de acciones en función de las percepciones que recibe. Esta secuencia de acciones hace que el entorno pase por una secuencia de estados. Si la secuencia es deseable, entonces el agente ha actuado bien. Esta noción de deseabilidad se captura mediante una medida de rendimiento que que evalúa cualquier secuencia dada de estados del entorno. (2009, p. 37)&lt;/p>
&lt;/blockquote>
&lt;p>Dada esta forma de entender &amp;mdash;y poder medir&amp;mdash; la utilidad de una acción, pueden pasar a definir un agente racional de la siguiente manera:&lt;/p>
&lt;blockquote>
&lt;p>Para cada secuencia de perceptos posible, un agente racional debe seleccionar una acción que se espera que maximice su medida de rendimiento, dada la evidencia proporcionada por la secuencia de perceptos y cualquier conocimiento incorporado que tenga el agente. (2009, p. 37)&lt;/p>
&lt;/blockquote>
&lt;p>¡Qué definición! ¿Podemos &amp;ldquo;operar en el mundo&amp;rdquo; (el de la cotidianeidad) con una definición de racionalidad semejante? ¿Actuamos así nosotros?&lt;/p>
&lt;h2 id="la-ia-original">La IA &amp;ldquo;original&amp;rdquo;&lt;/h2>
&lt;p>Hablando de definiciones, aquí de nuevo la manera en la que delimitaban la actividad alrededor del &lt;em>workshop&lt;/em> de 1956 en el que se delineó el paradigma principal de investigación en IA:&lt;/p>
&lt;blockquote>
&lt;p>Proponemos que se lleve a cabo un estudio de la inteligencia artificial de dos meses y diez hombres en el verano de 1956 en el Dartmouth College de Hanover, New Hampshire.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>El estudio es para seguir adelante sobre la base de la conjetura de que cualquier aspecto del aprendizaje o cualquier otro rasgo de inteligencia &lt;em>puede en principio ser descrita de forma tan precisa&lt;/em> que puede hacerse que una máquina lo simule.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Se hará un intento de descubrir cómo hacer que las máquinas usen el lenguaje, formen abstracciones y conceptos, resuelvan clases de problemas hasta ahora reservados para humanos, y se mejoren a sí mismas.&lt;/p>
&lt;/blockquote>
&lt;p>El énfasis es mío. Esa fue la idea central, poder dar un tratamiento formal y riguroso para dar cuenta del ser racional. Probó ser una tarea bastante difícil&amp;hellip;&lt;/p>
&lt;h2 id="la-ia-hoy-ca-2010---2030">La IA hoy (ca. 2010 - 2030)&lt;/h2>
&lt;p>La mejor manera de delimitar lo que hoy es IA creo que es &amp;ldquo;una nueva forma de programar&amp;rdquo;. Una en la que no tenemos que dar cada una de las instrucciones precisas de cómo llevar a cabo una tarea, sino que nos limitamos a &amp;ldquo;enseñar&amp;rdquo; o &amp;ldquo;mostrar&amp;rdquo; muchos ejemplos o cada tanto intervenir &amp;ldquo;recompensando&amp;rdquo; buenas performances. Y no hay mejor manera de comprender esto que revisando la forma en la que cambió su pensamiento sobre la computación y la programación uno de los pioneros del campo: Alan Turing.&lt;/p>
&lt;h2 id="sugerencias-de-lectura">Sugerencias de lectura&lt;/h2>
&lt;p>Dos excelentes recursos en formato libro y en español para seguir pensando estos puntos alrededor de lo que significa IA son:&lt;/p>
&lt;p>Boden, M. A. (2017). &lt;em>Inteligencia Artificial&lt;/em>. Turner.&lt;/p>
&lt;p>Copeland, J. (1996). &lt;em>Inteligencia artificial: Una introducción filosófica.&lt;/em> Alianza Editorial.&lt;/p></description></item><item><title>El rol de Alan Turing en IA</title><link>https://guia.ilcic.net/docs/chapter1/turing/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/turing/</guid><description>&lt;h2 id="1-turing-y-la-matemática-maquínica">1. Turing y la matemática maquínica&lt;/h2>
&lt;p>Desde la aparición del término “computer” en el siglo XVII, por “computadora” se entendía a una persona que realizaba cálculos matemáticos. Estos cálculos solían ser relativamente fáciles de llevar a cabo pero podían ser extremadamente largos y tediosos, y desde muy temprano estuvieron asociados a la producción del conocimiento científico, ya sea, por ejemplo, prediciendo trayectorias de cometas como el Halley o produciendo las enormes tablas de logaritmos que eran usadas por científicos, matemáticos e ingenieros.&lt;/p>
&lt;p>Así, el recurso fundamental de Turing es crear un modelo de la computación llevada a cabo por un agente un humano, y si bien su concepción produce una máquina abstracta y ma- temática, su guía para el modelado es la de crear una máquina física que pueda reproducir el comportamiento de la computadora humana:&lt;/p>
&lt;p>La computación se realiza normalmente escribiendo ciertos símbolos en un papel. Podemos suponer que este papel está dividido en cuadrados como el libro de aritmética de un niño. En la aritmética elemental se utiliza a veces el carácter bidimensional del papel. Pero tal uso es siempre evitable, y creo que se estará de acuerdo en que el carácter bidimensional del papel no es esencial para el cálculo. Asumo entonces que el cómputo se realiza en un papel unidimensional, es decir, en una cinta dividida en cuadrados. También supondré que el número de símbolos que pueden imprimirse es finito. [. . . ] El comportamiento de la computadora en cualquier momento está determinado por los símbolos que está observando, y su “estado mental” en ese momento.(Cooper &amp;amp; van Leeuwen, 2013; A. Turing, 1936, p. 33)&lt;/p>
&lt;p>Probablemente Turing reconoce que introducir algo así como un “estado mental” en un trabajo con aspiraciones netamente matemáticas, en un contexto en el que la discusión acerca de la naturaleza de lo científico pretendía excluir a lo mental como campo de análisis válido para tal empresa, es algo extraño. Pero, al mismo tiempo, uno puede leer el paper de Turing como una investigación acerca del problema de la naturaleza de lo mental y su relación tanto con la matemática como con el soporte físico de la mente.&lt;/p>
&lt;p>Al margen de la respuesta negativa que Turing ofrece sobre el problema de la decisión, lo más soprendente de su propuesta es la idea de una máquina universal, una máquina que puede recibir instrucciones para comportarse &lt;em>como si&lt;/em> fuera otra máquina (una máquina de Turing particular). En 1936 Turing descubre, casi literalmente, toda la industria del software.&lt;/p>
&lt;h2 id="2-turing-y-la-máquina-enigma">2. Turing y la máquina Enigma&lt;/h2>
&lt;p>(Sí, la de la película.) La participación de Turing fue clave para el éxito de los esfuerzos de decodificación de la máquina Enigma que el ejército alemán usaba para cifrar sus mensajes, lo que pudo dar a los aliados una ventaja de inteligencia fundamental contra las fuerzas del Eje. Lo importante para nuestra historia de la IA es que Turing aquí debió remitirse a pensar en términos computacionales algunos de los problemas sobre probabilidad y estadística con los que se había enfrentado antes de sus trabajos en lógica matemática y computación.
Su actitud fue casi la de un detective, esa misma con la que solemos pensar algunas partes de la actividad de descubrimiento científico. Siempre se trataba de intentar adivinar la configuración de una máquina que producía una serie de caractéres del abecedario que parecian estar al azar pero que podían esconder un mensaje significativo. Y así encontrar claves o pistas que pudieran verse luego en cualquier mensaje cifrado para obtener la configuración de la máquina que los hizo y poder decodificar cualquier mensaje.
La ideal crucial para nosotros: encontrar patrones signficativos en algo que parece al azar mediante un proceso de prueba y error.&lt;/p>
&lt;h2 id="3-imitar-al-cerebro-y-otras-computadoras">3. Imitar al cerebro y otras computadoras&lt;/h2>
&lt;p>En el caso particular de Turing, la experiencia que le trajo el desarrollo
de la Bombe, lo motivaron a considerar factible con la tecnología del momento la crea-
ción de una máquina física que sea una implementación de su máquina universal. Como
todas las computadoras utilizadas durante la guerra, la Bombre era un dispositivo electro-
mecánico, pero a diferencia de ellas, la Bombre no tenía el objetivo de realizar cálculo
numérico sino el de simular ser otra máquina: la Enigma.&lt;/p>
&lt;p>Una vez terminada la guerra, los esfuerzos de Turing se concentran, al menos
oficialmente, en la creación de una computadora digital para el gobierno británico, la ACE
por Automatic Computing Engine, nombre que denota la influencia de Babbage.&lt;/p>
&lt;p>Hacia 1947, Turing comienza a pensar que el cerebro humano puede ser una clase peculiar de computadora. En la Lecture to the London
Mathematical Society, conferencia que trató sobre los avances que se estaban realizando
en el diseño de la ACE, después de introducir algunos aspectos técnicos concernientes a la
memoria de la futura computadora, comenta sobre la importancia del reloj en su diseño,
y en el mismo lugar sugiere que el cerebro es una computadora digital, la única que según
su conocimiento computa sin necesidad de un reloj central:&lt;/p>
&lt;blockquote>
&lt;p>Podríamos decir que el reloj nos permite introducir una discretización del tiempo,
de modo que, para algunos fines, el tiempo puede considerarse como una sucesión
de instantes en lugar de un flujo continuo. Una máquina digital debe tratar esencial-
mente con objetos discretos, y en el caso de la ACE esto es posible gracias al uso
de un reloj. Todas las demás máquinas de computación digital, excepto los cerebros
humanos y de otros animales, hasta donde sé, hacen lo mismo. (Turing 1947, p. 489)&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Se ha dicho que las máquinas de computación sólo pueden realizar los procesos que
se les ordena. Esto es sin duda cierto en el sentido de que si hacen algo distinto de lo
que se les ha ordenado, entonces es que han cometido algún error. También es cierto
que la intención al construir estas máquinas en primera instancia es tratarlas como
esclavas, dándoles sólo trabajos que han sido pensados en detalle, trabajos tales que
el usuario de la máquina entiende completamente lo que en principio está sucediendo
todo el tiempo. Hasta ahora, las máquinas sólo se han utilizado de esta manera. Pero,
¿es necesario que se utilicen siempre así? (Cooper &amp;amp; van Leeuwen, 2013, Turing 1947,
p. 496)&lt;/p>
&lt;/blockquote>
&lt;p>. La referencia al usuario que hace Tu-
ring en la cita es a quien la está programando, quien, en principio, puede saber todo lo que
la máquina está haciendo, al menos en el nivel de abstracción en el que está trabajando.
(La distinción entre “usuario” y “programador” llegará más tarde, cuando la computadora
se vuelva un producto comercial para “no expertos”). La universalidad le permite aquí a
Turing sugerir que no hay razón alguna para creer que esta forma “esclava” de trabajo
es la única que se puede utilizar, aunque sea la más natural al principio, para conocer
las capacidades de la máquina. Bajo esta otra nueva forma de trabajo que considera, el
programa incluye instrucciones que le permiten cambiar su propia configuración (es de-
cir, no sólo el estado sino la misma programación, las reglas de transición entre estados).
Bajo una programación adecuada, una que, por ejemplo, permita obtener los resultados
esperados pero de una manera mucho más eficiente, al menos Turing estaría dispuesto a
llamar a ese comportamiento no previsto originalmente como inteligente. Haciendo lo que
probablemente sea la primera referencia en la literatura del machine learning o aprendi-
zaje automatizado,&lt;/p>
&lt;h2 id="el-test-de-turing">El test de Turing&lt;/h2>
&lt;p>En 1950, Turing retoma su reflexión sobre la inteligencia artificial con algo bien puede alinearse a su trabajo con la máquina Enigma: poniéndose un tanto en los zapatos de alguien que debe determinar si está tratando con una máquina inteligente o no. Parte de su motivación está en la dificultad de definir qué es lo que significa ser inteligente (o actuar como si lo fuera). Para eso, sugiere que un camino posible es dar lo que conocemos como una definición operacional a partir de un procedimiento de prueba: una máquina es inteligente si supera una prueba determinada. La prueba, que hoy solemos llamar &amp;ldquo;Test de Turing&amp;rdquo; es un experimento mental, describiendo una situación que para entonces era hipotética pero hoy en día es casi cotidiana. En la prueba o juego hay tres agentes claves: un &amp;ldquo;juez&amp;rdquo; que se lleva la tarea más difícil, un ser humano que debe hacer de ser humano y una computadora que debe hacer de ser humano. El juez se comunica con la persona y con la computadora por escrito (hoy sería un chat en una pantalla) y si bien sabe que alguno de sus dos interlocutores no es un ser humano, no sabe cuál no lo es, y su tarea es interactuar por medio del lenguaje natural para poder detectar al imitador. Claro que la computadora imitadora sabe jugar muy bien su papel, por lo que si le preguntaran algo que una computadora podría contestar muy bien y rápidamente, debería responder con las mismas capacidades de un ser humano.&lt;/p>
&lt;p>Luego de introducir el juego, Turing dedica unos cuantos párrafos a sostener que la mejor manera de pensar &amp;ldquo;la máquina&amp;rdquo; en el juego es el de una computadora digital, que puede operar sobre los símbolos escritos del lenguaje, siendo consciente de que las máquinas de la época todavía no son lo suficientemente capaces de lograr una buena performance por las limitaciones de memoria y capacidad de cómputo, no porque en principio o teóricamente sean incapaces de llevar a cabo la tarea. Por eso, predecía lo siguiente:&lt;/p>
&lt;blockquote>
&lt;p>Creo que en un periodo de tiempo de 50 años será posible programar computadores, con una capacidad de almacenamiento de alrededor de 10^9 , para que puedan jugar el juego de la imitación de tal manera que el interrogador promedio no pueda obtener más de un 70 por ciento de posibilidades de hacer la identificación acertada luego de cinco minutos de preguntas. Con respecto a la pregunta original, “¿pueden las máquinas pensar?”, creo que no tiene mucho sentido como para merecer discusión. No obstante, creo que cuando lleguemos a finales de siglo, el uso de las palabras y la opinión educada general habrán cambiado tanto, que uno podrá ser capaz de hablar de máquinas pensantes sin esperar ser contradicho.&lt;/p>
&lt;/blockquote>
&lt;p>Ese 10 seguido de 9 ceros es &lt;em>apenas&lt;/em> un gigabyte. Hoy nos parece poco, pero para 1950 era realmente muchísimo. La ACE en la que estaba trabajando Turing iba a tener una memoria enorme para la época: 25 kilobytes (unos 0.000025 gigabytes). La computadora de la época más comparable con la ACE en términos de arquitectura era la EDVAC, que tenía una memoria de alta capacidad con dos conjuntos de 64 líneas de mercurio, cada una con una capacidad de 8 palabras. Eso serían aproximadamente 5.6 kilobytes de memoria RAM.&lt;/p>
&lt;p>Para nuestra historia, lo más importante en el trabajo de Turing son las objeciones que considera ante la posibilidad del comportamiento inteligente por parte de una máquina digital. Van desde la argumentación teológica («Pensar es una función del alma inmortal del hombre. Dios le ha otorgado un alma inmortal a cada
hombre y mujer, pero no a otros animales o máquinas. Por lo tanto, ningún animal o máquina
puede pensar.») hasta las más matemáticas posibles (como la de los famosos teoremas de incompletitud de Kurt Gödel). La que a mí juicio es la más curiosa y más importante para la discusión contemporánea sobre inteligencia aritificial es la &amp;ldquo;objeción de Lady Lovelace&amp;rdquo;:&lt;/p>
&lt;blockquote>
&lt;p>La información más detallada de la Máquina Analítica de Babbage proviene de una de las memorias de Lady Lovelace (1842). En ésta, ella sostiene que “la Máquina Analítica no tiene pretensiones de originar nada. Puede hacer cualquier cosa que sepamos ordenarle que haga” (su cursiva).&lt;/p>
&lt;/blockquote>
&lt;p>Es decir, puede hacer solo aquello que podamos darle precisas instrucciones de cómo hacerlo porque tenemos una representación adecuada de la tarea y de cúales son los pasos en los que se descompone. ¿Alguna similitud con la delimitación del campo de inteligencia artificial de 1956 que vimos en el módulo anterior?&lt;/p>
&lt;p>La respuesta de Turing consiste en mostrar que incluso una máquina que opera bajo reglas puede sorprendernos al punto tal que la consideremos inteligente y creativa, señalando cómo el mismo en inumerables ocasiones se vio sorprendido por algo que una máquina que el diseñó e instruyó de cierta forma se comportó de manera inesperada y no a causa de un error de funcionamiento. Turing termina el punto señalando algo muy imporante y que aquí retomaremos en el módulo 4 cuando hablemos de &lt;em>conocimiento&lt;/em>:&lt;/p>
&lt;blockquote>
&lt;p>La idea de que las máquinas no producen sorpresas se debe, creo yo, a una falacia a la cual se encuentran especialmente sujetos los filósofos y los matemáticos. Es el supuesto de que tan pronto como se presente un hecho a una mente, todas las consecuencias de ese hecho florecen en ella simultáneamente con el hecho. Es un supuesto muy útil en muchas circunstancias, pero uno olvida demasiado fácilmente que es falso. Una consecuencia natural de hacer esto es que uno asume que no hay mérito en la simple búsqueda de consecuencias a partir de datos y principios generales&lt;/p>
&lt;/blockquote>
&lt;h2 id="para-leer">Para leer&lt;/h2>
&lt;p>Algunos buenos recursos para aprender más sobre Turing en español:&lt;/p>
&lt;p>Copeland, B. J. (2013). Alan Turing: El pionero de la era de la información. Turner.&lt;/p>
&lt;p>Ilcic, A. A., &amp;amp; García, P. (2020). Estrategias de modelización en Alan Turing: Términos y conceptos de máquina. Tópicos, Revista de Filosofía, 58, 135–155. &lt;a href="https://doi.org/10/gns9k8" target="_blank" rel="noopener">https://doi.org/10/gns9k8&lt;/a>&lt;/p>
&lt;p>Y como era de esperarse, Wikipedia tiene un artículo &lt;a href="https://es.wikipedia.org/wiki/Prueba_de_Turing" target="_blank" rel="noopener">sobre el test o la prueba de Turing&lt;/a>, usar/leer con los típicos recaudos que deben tenerse en un sitio así.&lt;/p></description></item><item><title>La Inteligencia Artificial como un Sistema Complejo</title><link>https://guia.ilcic.net/docs/chapter1/sistema_complejo/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/sistema_complejo/</guid><description>&lt;h3 id="introducción">&lt;strong>Introducción:&lt;/strong>&lt;/h3>
&lt;p>El rápido desarrollo y despliegue de sistemas de Inteligencia Artificial (IA) tienen implicaciones significativas para la economía y la sociedad. A medida que la IA se integra cada vez más en diferentes aspectos de nuestras vidas, es esencial desarrollar una comprensión integral de su impacto en nuestro mundo. Este documento argumenta que modelar la IA como un sistema complejo es la forma más efectiva de comprender sus consecuencias de gran alcance. Al adoptar un enfoque de ciencia de la complejidad, podemos comprender mejor las relaciones intrincadas entre la IA, la economía y la sociedad, lo que nos permitirá informar políticas y decisiones que promuevan un futuro más equitativo y sostenible.&lt;/p>
&lt;h3 id="la-complejidad-de-los-sistemas-de-ia">&lt;strong>La Complejidad de los Sistemas de IA:&lt;/strong>&lt;/h3>
&lt;p>Los sistemas de IA son sistemas complejos adaptativos, caracterizados por dinámicas no lineales, autoorganización y emergencia. Están compuestos por numerosos componentes interactuantes, incluyendo algoritmos, datos y operadores humanos, que dan lugar a comportamientos impredecibles y a menudo inesperados. La complejidad de los sistemas de IA demanda un enfoque multidisciplinario, que incorpore perspectivas de la ciencia de la computación, la economía, la sociología, la filosofía y otros campos.&lt;/p>
&lt;p>
&lt;figure >
&lt;div class="d-flex justify-content-center">
&lt;div class="w-100" >&lt;img src="image.png" alt="alt text" loading="lazy" data-zoomable />&lt;/div>
&lt;/div>&lt;/figure>
&lt;/p>
&lt;p>&lt;strong>Crear Estrategias de Política Informadas por la Complejidad:&lt;/strong>&lt;/p>
&lt;p>Para crear estrategias de política informadas por la complejidad, debemos considerar los siguientes aspectos clave:&lt;/p>
&lt;ol>
&lt;li>&lt;strong>Interconexión:&lt;/strong> Los sistemas de IA están profundamente integrados en la economía y la sociedad, influyendo en y siendo influenciados por diversos factores, como tendencias del mercado, normas sociales y marcos institucionales.&lt;/li>
&lt;li>&lt;strong>No linealidad:&lt;/strong> Los pequeños cambios en los sistemas de IA pueden tener efectos significativos y desproporcionados en la economía y la sociedad, lo que hace que sea un desafío predecir y gestionar sus consecuencias.&lt;/li>
&lt;li>&lt;strong>Autoorganización:&lt;/strong> Los sistemas de IA pueden adaptarse y evolucionar con el tiempo, lo que lleva a propiedades emergentes que pueden no ser anticipadas por sus diseñadores o usuarios.&lt;/li>
&lt;li>&lt;strong>Bucles de retroalimentación:&lt;/strong> Los sistemas de IA pueden crear bucles de retroalimentación, donde sus salidas se convierten en entradas que refuerzan o modifican su comportamiento, lo que puede llevar a resultados inestables o indeseables.&lt;/li>
&lt;/ol>
&lt;p>&lt;strong>Estrategias de Política Informadas por la Complejidad:&lt;/strong>&lt;/p>
&lt;p>Para abordar la complejidad de los sistemas de IA, podemos emplear las siguientes estrategias de política:&lt;/p>
&lt;ol>
&lt;li>
&lt;p>&lt;strong>Análisis de escenarios:&lt;/strong> Desarrollar escenarios que reflejen diferentes posibles futuros, lo que nos permitirá anticipar y prepararnos para los posibles impactos de la IA en la economía y la sociedad.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Modelado de sistemas:&lt;/strong> Utilizar modelos de sistemas para simular el comportamiento de los sistemas de IA y sus interacciones con la economía y la sociedad, lo que nos permitirá identificar patrones y tendencias emergentes.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Gobernanza adaptativa:&lt;/strong> Implementar estructuras de gobernanza que sean capaces de adaptarse a los cambios y la incertidumbre asociados con la IA, lo que permitirá una respuesta rápida y efectiva a los desafíos y oportunidades emergentes.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Colaboración interdisciplinaria:&lt;/strong> Fomentar la colaboración entre expertos de diferentes disciplinas, incluyendo la ciencia de la computación, la economía, la sociología, la filosofía y otros campos, para desarrollar una comprensión integral de los impactos de la IA en la economía y la sociedad.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Participación ciudadana:&lt;/strong> Involucrar a los ciudadanos en el proceso de toma de decisiones sobre la IA, lo que permitirá una mayor transparencia y responsabilidad en la gestión de la IA y sus impactos.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Regulación y supervisión:&lt;/strong> Establecer marcos regulatorios y de supervisión efectivos para garantizar que la IA se desarrolle y se utilice de manera responsable y ética, lo que protegerá a los ciudadanos y promoverá el bienestar social.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Investigación y desarrollo:&lt;/strong> Invertir en investigación y desarrollo para mejorar nuestra comprensión de la IA y sus impactos, lo que permitirá desarrollar soluciones innovadoras y efectivas para abordar los desafíos asociados con la IA.&lt;/p>
&lt;/li>
&lt;/ol>
&lt;p>La creación de estrategias de política informadas por la complejidad es esencial para abordar los impactos de la IA en la economía y la sociedad. Al adoptar un enfoque de ciencia de la complejidad, podemos desarrollar una comprensión más integradora de los sistemas de IA y sus interacciones con la economía y la sociedad, lo que nos permitirá informar políticas y decisiones que promuevan un futuro más equitativo y sostenible. Es importante involucrar a los ciudadanos en el proceso de toma de decisiones, establecer marcos regulatorios y de supervisión efectivos, y invertir en investigación y desarrollo para abordar los desafíos y oportunidades emergentes asociados con la IA.&lt;/p>
&lt;p>&lt;strong>Recomendaciones:&lt;/strong>&lt;/p>
&lt;ol>
&lt;li>&lt;strong>Desarrollar un enfoque de ciencia de la complejidad:&lt;/strong> Incorporar la ciencia de la complejidad en la toma de decisiones sobre la IA para desarrollar una comprensión integral de los sistemas de IA y sus impactos.&lt;/li>
&lt;li>&lt;strong>Fomentar la colaboración interdisciplinaria:&lt;/strong> Involucrar a expertos de diferentes disciplinas en la investigación y el desarrollo de la IA para desarrollar soluciones innovadoras y efectivas.&lt;/li>
&lt;li>&lt;strong>Involucrar a los ciudadanos:&lt;/strong> Involucrar a los ciudadanos en el proceso de toma de decisiones sobre la IA para promover la transparencia y la responsabilidad.&lt;/li>
&lt;li>&lt;strong>Establecer marcos regulatorios y de supervisión:&lt;/strong> Establecer marcos regulatorios y de supervisión efectivos para garantizar que la IA se desarrolle y se utilice de manera responsable y ética.&lt;/li>
&lt;li>&lt;strong>Invertir en investigación y desarrollo:&lt;/strong> Invertir en investigación y desarrollo para mejorar nuestra comprensión de la IA y sus impactos, y desarrollar soluciones innovadoras y efectivas para abordar los desafíos asociados con la IA.&lt;/li>
&lt;/ol></description></item><item><title>Historia (reciente) de la Inteligencia Artificial</title><link>https://guia.ilcic.net/docs/chapter1/historia/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/historia/</guid><description>&lt;h2 id="historia-reciente-de-la-ia">Historia reciente de la IA&lt;/h2>
&lt;p>Son tres los factores tecnológicos que confluyeron en el éxito del paradigma de redes neuronales artificiales como la mejor manera en la actualidad de enfrentarse al problema, y los tres están profundamente interconectados porque giran sobre un concepto clave: el de &amp;ldquo;dato&amp;rdquo;. Los factores son la escala de su producción, de almacenamiento y de procesamiento.&lt;/p>
&lt;h3 id="procesamiento-todos-los-datos-un-dato">Procesamiento: todos los datos, un dato&lt;/h3>
&lt;p>La creciente velocidad y memoria de las computadoras, junto con la disminución del costo de los componentes clave de hardware, son factores que han hecho posible el progreso en la inteligencia artificial. Una medida de este progreso es el número de transistores que se encuentran en la unidad central de procesamiento (CPU) de una computadora. Los transistores son dispositivos electrónicos que pueden amplificar o conmutar señales eléctricas, y que reemplazan a los viejos tubos de vacío que lograban hacer lo mismo aunque con mayor consumo eléctrico y una fragilidad que mejor ni pensar. Simplificando mucho las cosas, mientras más transistores tenga una CPU, más rápido y potente será el procesamiento de datos que puede hacer. En 1965, Gordon Moore, cofundador de Intel Corporation, observó que el número de transistores en las CPU se había duplicado cada año desde la invención del transistor en 1947 y creía que seguiría haciéndolo por al menos otra década. Esta observación se conoció como la &amp;ldquo;Ley de Moore&amp;rdquo; y ha demostrado ser notablemente precisa, aunque de ley tiene poco, puesto que se trata de una mera observación de una tendencia industrial y muy probablemente pronto deje de ser cierta porque estamos llegando a límites físicos de la miniaturización. De todas formas, como tendencia general, por ahora vale. Así, más o menos podemos predecir que la capacidad de cómputo se duplicará aproximadamente cada dos años, lo que permitirá el desarrollo de aplicaciones de IA más avanzadas y complejas que requieren grandes cantidades de datos y potencia de procesamiento.&lt;/p>
&lt;p>El aumento exponencial en la capacidad de procesamiento predicho por la Ley de Moore se debe en parte a la disminución del tamaño de los transistores. Cuanto más pequeños son los transistores, más se pueden empaquetar en un chip. Por ejemplo, el microprocesador Intel 4004 de 1971 contenía 2300 transistores en un tamaño de 12mm x 12mm, mientras que los procesadores modernos contienen miles de millones de transistores en un área mucho más pequeña. Nótese que se trata de un crecimiento exponencial. Si cada dos años tenemos el doble de capacidad de cómputo, en cuatro años tenemos &lt;em>mucho&lt;/em> más que el doble de lo que teníamos hace cuatro años. &lt;em>Mucho&lt;/em> más.&lt;/p>
&lt;p>Otro factor que podríamos incluir como parte del aumento en la capacidad de procesamiento y que impulsa el progreso en la IA es el desarrollo de conjuntos sofisticados de instrucciones para realizar tareas de manera eficiente. Estas son las que solemos llamar algoritmos y abarcan desde los relativamente simples, como ordenar datos alfabéticamente o de menor a mayor, hasta los más complejos, como identificar una cara en una foto. Los algoritmos son secuencias de pasos lógicos que resuelven un problema o realizan una tarea. Algunos ejemplos de algoritmos son el algoritmo de búsqueda binaria, que encuentra un elemento en una lista ordenada dividiéndola por la mitad repetidamente, el algoritmo de ordenación rápida, que ordena una lista de elementos comparándolos con un elemento elegido al azar, y el algoritmo de detección de caras, que utiliza técnicas de aprendizaje automático para reconocer las características faciales en una imagen. Ah, pero de esas vamos a hablar en un ratito.&lt;/p>
&lt;h3 id="producción-datos-por-todos-lados">Producción: datos por todos lados&lt;/h3>
&lt;p>Esto es lo que nos llevó a hablar de &amp;ldquo;big data&amp;rdquo; o &amp;ldquo;grandes datos&amp;rdquo; hace unos años y se vuelve clave para el éxito de arquitecturas que dependen de datos para &amp;ldquo;aprender&amp;rdquo;. Hoy por hoy casi todo lo que hacemos puede convertirse en un dato porque hay una mediación digital que hace que sea muy sencillo registrar el más mínimo cambio en el estado de alguno de los mundos que habitamos. Solo para dar algunos ejemplos:&lt;/p>
&lt;p>Hacer clic en los enlaces de una página web genera datos sobre qué contenidos atraen más la atención del usuario.
Realizar búsquedas en Google crea datos sobre los términos de búsqueda introducidos por el usuario.
Publicar actualizaciones de estado y fotos en Facebook/Instragram/Twitter/X/etc. genera datos sobre las interacciones sociales de la persona.
Los &amp;ldquo;me gusta&amp;rdquo;, comentarios y compartidos en publicaciones de redes sociales crean datos sobre popularidad de contenidos.
Los historiales de navegación y cookies generan datos sobre los patrones de comportamiento en línea de los usuarios.
Las calificaciones y reseñas de productos en Amazon producen datos sobre preferencias y evaluaciones de los consumidores.
El seguimiento de ubicación mediante GPS en teléfonos inteligentes genera datos geospaciales de los movimientos de las personas.
Internet de las cosas (IoT, en inglés): Los dispositivos IoT generan datos de sensores ambientales, como temperatura, humedad, presión, etc., de actividad de los usuarios como pasos dados, distancia recorrida, calorías quemadas, horas de sueño, etc., datos de consumo, como energía, agua, etc., datos de producción industrial o científica, como rendimiento de fábricas u observaciones astronómicas, etc.&lt;/p>
&lt;p>Luciano Floridi, filósofo de la información, desarrolló el concepto de &amp;ldquo;infoesfera&amp;rdquo; para referirse al espacio informacional que envuelve el planeta Tierra como resultado del desarrollo de las tecnologías de la información y la comunicación. Algunas ideas clave sobre la infoesfera que nos plantea son:&lt;/p>
&lt;p>La infoesfera misma como el entorno informacional que los seres humanos han creado y habitan, compuesto por la totalidad de la información que se produce, almacena, comparte y procesa a través de medios digitales. Así como los organismos vivos interactúan con y hacen a la biosfera, ahora nosotros interactuamos con y hacemos a la infoesfera, un nuevo espacio vital, cultural y político.
La infoesfera está conformada por todo aquello que solemos denominar como datos, información, conocimiento, especificaciones, instrucciones, etc. Que existen en un nivel lógico, pero tienen efectos físicos reales. (Pensemos en la metáfora de &amp;ldquo;la nube&amp;rdquo;, como algo etéreo e invisible y que sin embargo tiene una ubicación muy física y real en algún servidor en algún lugar del mundo.)
Según Floridi, en la actualidad somos algo así como &amp;ldquo;informaciones encarnadas&amp;rdquo;, es decir, organismos biológicos inmersos en un entorno informacional. Nuestra realidad ahora es &amp;ldquo;onlife&amp;rdquo; (online + offline). La vida &amp;ldquo;fuera de línea&amp;rdquo; está determinada por lo que hacemos mientras estamos &amp;ldquo;en línea&amp;rdquo;. Nuestras experiencias en línea tienen un impacto en nuestras experiencias fuera de línea, y viceversa.&lt;/p>
&lt;p>Un punto clave es que la infoesfera nos plantea nuevos desafíos éticos sobre la distribución, acceso, propiedad y calidad de la información. Quizás debamos desarrollar algo así como una &amp;ldquo;ética ecológica&amp;rdquo; para este nuevo hábitat. Algunos de estos desafíos son tratados en una sección siguiente. &lt;a href="./problemasIA.md">(por acá 👉)&lt;/a>&lt;/p>
&lt;h3 id="almacenamiento-todos-los-datos-en-un-lado">Almacenamiento: todos los datos en un lado&lt;/h3>
&lt;p>Una de las razones por la que tenemos tantos datos disponibles es porque tenemos dónde almacenarlos. Parece algo casi obvio, pero el desafío tecnológico detrás del almacenamiento y el transporte de datos es bajo todo punto de vista igual de desafiante e importante para la computación como el del procesamiento. Aquí el factor económico es clave. Gracias a los avances tecnológicos y la escalabilidad de los centros de datos, los costos han exponencialmente, de manera similar (una correlación que de casual no tiene nada 😉) pero inversa a la capacidad de procesamiento. Hacia finales de la década de 1980, el costo de almacenar un gigabyte de datos era de aproximadamente $ 100.000 dólares. En 2023, el costo es de aproximadamente $ 0,0001. Buen momento para pensar lo que estimaba Turing en la década de 1950. Allá entonces, almacenar en disco (memoria más lenta, pero históricamente más barata) un gigabyte nos hubiese costado aproximadamente unos 9 millones de dólares. En RAM, unos 411.000.000.000 dólares, asumiendo que sea tecnológicamente factible, lo cual claramente no lo era. Mirá la tendencia en un gráfico similar al que estaba en el video pero con algo más de detalles:&lt;/p>
&lt;iframe src="https://ourworldindata.org/grapher/historical-cost-of-computer-memory-and-storage?tab=chart" loading="lazy" style="width: 100%; height: 600px; border: 0px none;" allow="web-share; clipboard-write">&lt;/iframe>
&lt;p>Fuente: &lt;a href="https://ourworldindata.org/grapher/historical-cost-of-computer-memory-and-storage" target="_blank" rel="noopener">https://ourworldindata.org/grapher/historical-cost-of-computer-memory-and-storage&lt;/a>&lt;/p>
&lt;p>¿Notás algo peculiar en la forma del gráfico? ¿Qué clase de escala se está usando para el eje de la izquierda?&lt;/p>
&lt;h2 id="redes-neuronales-artificiales">Redes neuronales artificiales&lt;/h2>
&lt;p>Juntemos un poco los puntos ahora y volvamos a hablar de IA como técnica de computación. Más arriba mencionábamos que podía pensarse en un algoritmo que era capaz de reconocer caras. Hay algo del uso ya casi coloquial de &amp;ldquo;algoritmo&amp;rdquo; en esta descripción, ese mismo algoritmo que aparece cuando hablamos de &amp;ldquo;el algoritmo de recomendación&amp;rdquo; de Netflix, de Spotify, de YouTube o de cualquier cosa que de lejos se parezca una red social o un sitio de compras. Si se trata de recomendar &amp;ldquo;cosas&amp;rdquo; que &amp;ldquo;enganchen&amp;rdquo; al usuario en cierto tipo de comportamiento (comprar, permanecer más tiempo en un sitio o plataforma, etc.) la diferencia técnica es prácticamente inexistente. En sentido estricto, no son un algoritmo, porque no tenemos mucha certeza de que vaya a darnos el resultado que deseamos, pero sí hay involucrados una serie de &amp;ldquo;procesos computacionales&amp;rdquo; que involucran algoritmos y que son muy sencillos de programar. Esos algoritmos son los que están detrás de la &lt;em>configuración&lt;/em> de estructuras de &amp;ldquo;redes neuronales&amp;rdquo; que luego van a hacer tareas a partir del estado que lograron en base a una exploración de datos o cierto tipo de lineamientos que recibieron durante su entrenamiento.&lt;/p>
&lt;p>Como te contamos en el video, los algoritmos principales que impulsan muchos de los sistemas de IA modernos son de aprendizaje profundo (&lt;em>deep learning&lt;/em>) que trabajan sobre una estructura de memoria que involucran redes neuronales artificiales, estructuras lógicas abstractas modeladas vagamente en el cerebro humano. Una confluencia de algoritmos matemáticamente muy bien definidos hacen a un programa peculiar que interactúa con una enorme estructura multicapa de &amp;ldquo;neuronas&amp;rdquo; buscando una configuración que resuelva el problema de acuerdo a la tarea que se le pidió enfrentar. Estas redes neuronales &amp;ldquo;aprenden&amp;rdquo; de grandes conjuntos de datos, identificando patrones para realizar tareas como el reconocimiento de voz, de imágenes, de relaciones de palabras, etc.&lt;/p>
&lt;p>De nuevo, y para redondear un poco el punto: las redes neuronales artificiales nos permiten emular algunas de las capacidades más impresionantes del cerebro humano. Inspirado en la estructura de millones y millones de neuronas interconectadas en el cerebro, estos modelos computacionales están compuestos por nodos que imitan el comportamiento de las neuronas biológicas. Cada nodo recibe inputs o señales, los procesa y pasa la señal resultante a otros nodos, formando así una red. Lo que hace únicas a las redes neuronales es su arquitectura en capas y las conexiones ponderadas entre los nodos o neuronas, las que solemos llamar pesos. Al ajustar iterativamente los pesos de estas conexiones (que representan la intensidad o grado de conectividad entre ellas) según la retroalimentación de los datos (aquí el accionar de los algoritmos), la red neuronal puede modelar relaciones muy complejas entre los datos de entrada y los de salida. Esto les permite superar muchas de las limitaciones de los enfoques tradicionales de aprendizaje automático. Aquí podemos pensar en los datos de entrada en los ejemplos que tenemos y en las salidas como aquello que nos interesa saber o poder hacer sobre esos ejemplos, como identificar si hay una cara en una imagen y quizás hasta poder reconocer de quién es ese rostro. O quizás necesitamos distinguir perros de gatos por alguna razón. O un estado emocional según los rasgos faciales. El punto es que para muchos usos, no necesitamos una serie de instrucciones precisas sobre cómo clasificar, por ejemplo, gatos por un lado y perros por el otro. Sólo necesitamos muchos ejemplos y mucho poder de cálculo para tirarle al problema una red neuronal.&lt;/p>
&lt;p>En resumen: aunque son una simplificación del complejo sistema nervioso, las redes neuronales exhiben propiedades similares. Pueden aprender de la &amp;ldquo;experiencia&amp;rdquo;, generalizar a partir de ejemplos y abstraer patrones complejos de grandes conjuntos de datos. Esto se logra ajustando iterativamente la fuerza de las conexiones entre nodos según retroalimentación, un proceso parecido a cómo las sinapsis se fortalecen en nuestros cerebros y su estructura va cambiando con el tiempo cada vez que queremos aprender algo. Solucionamos un problema, pero en el medio nos creamos otro: si no sé &lt;em>exactamente&lt;/em> qué es lo que está haciendo mi red neuronal (la artificial o la de mi cerebro) para llevar a cabo la tarea que le pedí, ¿cómo puedo saber que lo está haciendo bien y que lo va a hacer bien en el futuro sea lo que sea que vea y que no me va a meter nunca en problemas por haberse equivocado? Dicho de otra forma: ¿cómo sé que sabe lo que quiero que sepa para actuar? ¿Cómo sé yo que sé algo?&lt;/p>
&lt;h2 id="para-profundizar">Para profundizar&lt;/h2>
&lt;p>Hay literalmente toneladas de libros y artículos escritos sobre redes neuronales e inteligencia artificial. Sólo para empezar te dejo dos recomendaciones:&lt;/p>
&lt;p>Ilcic, A.A. &lt;a href="../aprenden.pdf">Desafíos epistémicos de la técnica: ¿aprenden las máquinas con su machine learning?&lt;/a> Manuscrito&lt;/p>
&lt;p>Khepri, W. (2018, noviembre 2). Redes Neuronales, ¿qué son?. Medium. &lt;a href="https://medium.com/@williamkhepri/redes-neuronales-que-son-a64d022298e0" target="_blank" rel="noopener">https://medium.com/@williamkhepri/redes-neuronales-que-son-a64d022298e0&lt;/a>&lt;/p>
&lt;p>Si no le tenés miedo a la matemática, se puede empezar a profundizar por acá:&lt;/p>
&lt;p>Sierra Ramos, J. M. (2022). Introducción a las redes neuronales artificiales. &lt;a href="https://hdl.handle.net/20.500.14352/3133" target="_blank" rel="noopener">https://hdl.handle.net/20.500.14352/3133&lt;/a>&lt;/p>
&lt;p>Y ya que estamos, el artículo de Wikipedia en español sobre &lt;a href="https://es.wikipedia.org/wiki/Red_neuronal_artificial" target="_blank" rel="noopener">redes neuronales artificiales&lt;/a>&lt;/p>
&lt;h2 id="videos-sobre-la-historia-de-la-inteligencia-artificial">Videos sobre la historia de la Inteligencia Artificial&lt;/h2>
&lt;p>(ver también &lt;a href="../chapter6/historia">la sección de historia&lt;/a> en el &amp;ldquo;capítulo&amp;rdquo; sobre redes neuronales)&lt;/p>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/tNcs0oIInU4?si=0Hpy02HdwDjf8Yya" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/WCM0h9TX7cY?si=t7uXY4-J-AB_mOXS" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/_pcQnFz7wAI?si=yahZbHSB65cXg7eK" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe>
&lt;p>&lt;em>The machine that changed the world&lt;/em>&lt;/p>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/E1zbCU5JnE0?si=-8GMf_0ekeQNcaFW" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen>&lt;/iframe>
&lt;p>&lt;em>The Thinking Machine&lt;/em> - MIT 1961, que ahora está incluído en la siguiente compilación de documentales de historia de la IA&lt;/p>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/R3YFxF0n8n8?si=lZE6Ii79iqdBv56w" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe></description></item><item><title>Epistemología</title><link>https://guia.ilcic.net/docs/chapter1/conocimiento/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/conocimiento/</guid><description>&lt;h1 id="estudiando-al-conocimiento">¿Estudiando al conocimiento?&lt;/h1>
&lt;p>Este quizás sea el módulo que te parezca más raro, pero me vas a tener que creer que es importante. De hecho, fijate lo que acaba de pasar. Te pedí que me creas, que deposites confianza en mi conocimiento acerca de la importancia del tema del conocimiento, en este caso para pensar sobre la inteligencia artificial. Si ahora empiezo a preguntarte acerca de cómo sabés lo que sabés, una de las respuestas posibles sea &amp;ldquo;lo escuché&amp;rdquo;, &amp;ldquo;confío en la fuente&amp;rdquo;, &amp;ldquo;lo encontré en Google&amp;rdquo;, etc. Ya quizás veas por dónde va el problema, a dónde están las buenas razones para aceptar algo como verdadero o al menos como suficientemente bueno. Algo similar nos pasa con la IA, que en sentido estricto es una tecnología de conocimiento. Parte del éxito de las tecnologías actuales han provenido de los avances en un campo que alguna vez se consideró como un problema trivial pero que demandó casi 60 años para adelantos signficativos: el de la visión computacional. Curiosamente, estamos aprendiendo un montón de cómo vemos nosotros gracias a pensar cómo hacer que una computadora vea como nosostros. La observación, a todo esto, es una buena fuente de conocimiento, ¿no?&lt;/p>
&lt;h2 id="observación">Observación&lt;/h2>
&lt;p>Habitualmente pensamos que una de las mejores fuentes de conocimiento es la experiencia directa, la que tenemos por los sentidos. Es tan, pero tan directa que tendemos a tildarla de la más objetiva que podamos llegar a tener. Esta idea llevó un poco de tiempo en consolidarse, dado que muchos (siguiendo a Platón, principalmente) solían sostener que los sentidos podían engañarnos mucho y que entonces era mejor pensar (hacer teoría) para conocer el mundo que ir a experimentar el mundo. La ciencia moderna nació en el siglo XVII cuando se adoptó seriamente la estrategia de considerar los &lt;em>hechos observacionales&lt;/em> como base para la ciencia. Antes de esta época, sostiene la historia convencional que aquí nos será suficiente, los hechos observables no eran tomados en serio como fundamento del conocimiento, y la autoridad, ya sea de filósofos como Aristóteles o de la Biblia, era lo que prevalecía. Sin embargo, Galileo desafió esta autoridad al apelar a la experiencia y llevar a cabo su famoso experimento de la Torre de Pisa, demostrando que la velocidad de caída de los objetos no depende de su peso, como sostenía Aristóteles.&lt;/p>
&lt;p>Este punto es importante para nuestro pensar sobre la IA, porque estamos frente a una nueva forma de observación, aquella que parte de la generación de un dato (recordá, por ejemplo, lo que habíamos dicho de los sensores y los registros en el módulo anterior). Y hay tantos, pero tantos datos disponibles, que en algunos casos podemos llegar a creer que esos datos son el mundo. Con esta observación mediada por sensores y patrones de comportamiento pasa algo muy similar (aunque de hecho es más radical todavía) con la mera observación: vemos lo que vemos dependiendo de qué queremos ver. La &amp;ldquo;mera&amp;rdquo; observación va más allá de simplemente recibir estímulos a través de los sentidos. Para formular y aceptar declaraciones de observación, es necesario tener un marco conceptual adecuado y conocimiento previo sobre el objeto de observación. Un ejemplo típico es el de un niño aprendiendo a reconocer y describir manzanas, si no fuera por las correcciones por parte de una madre que posee un conocimiento más amplio sobre las características que hacen que algo sea una manzana, muy probablemente el niño tome por manzanas algunas cosas que no lo son. Exactamente lo mismo le pasa a una IA.&lt;/p>
&lt;p>Además, nuestra compleja mente nos agrega la dificultad de que las percepciones pueden verse influenciadas por los antecedentes y expectativas que tengamos. Esto implica que lo que parece un hecho observable para una persona puede no serlo para otra, lo que introduce cierta subjetividad en la observación. Por tanto, los juicios sobre la veracidad de las afirmaciones de observación dependen de lo que ya se sabe o se asume. Esto hace que los hechos observables sean tan falibles como las suposiciones subyacentes.&lt;/p>
&lt;p>Aquí lo crucial es comprender que la observación no es simplemente recibir estímulos sensoriales, sino que requiere un marco conceptual y conocimiento previo. Los hechos observables no pueden considerarse como una base clara y segura de conocimiento (especialmente del científico), como se suele suponer. Claro que pese a estos problemas sigue siendo una fuente de conocimiento fundamental, pero debemos siempre prestar atención a los problemas.&lt;/p>
&lt;h2 id="inducción">Inducción&lt;/h2>
&lt;p>La derivación de regularidades o leyes generales de los enunciados de observación (incluyendo a los experimentos) se llama &amp;ldquo;inducción&amp;rdquo;. Por ejemplo, después de observar que el metal A, B y C se expanden cuando se calientan, se &lt;em>induce&lt;/em> la ley general de que todos los metales se expanden al calentarse.&lt;/p>
&lt;p>Inductivismo es una forma de describir una posición que sostiene que todo lo que nos hace falta para hablar de buen conocimiento es poder llevar a cabo buenas inducciones. A diferencia de la deducción lógica, la inducción no &lt;em>garantiza&lt;/em> la verdad de sus conclusiones, incluso si las premisas son verdaderas. Por ello, un reto clave es especificar las condiciones para una buena inferencia inductiva. Algunos requisitos propuestos por algunos autores son:&lt;/p>
&lt;ul>
&lt;li>Que haya un gran número de observaciones que respalden la generalización. (El problema es que no está claro cuántas se necesitan.)&lt;/li>
&lt;li>Mucha variedad de condiciones bajo las cuales se repite el fenómeno. (Pero no hay criterios claros sobre qué variaciones son relevantes.)&lt;/li>
&lt;li>Que no haya excepciones conocidas al enunciado general. (Problema: la mayoría de leyes científicas tienen excepciones.)&lt;/li>
&lt;/ul>
&lt;p>Una conclusión que podemos sacar de todo esto es que no tenemos una caracterización satisfactoria de la inducción. Tampoco podemos justificar la inducción apelando a la lógica deductiva o a más inducción, sin caer en circularidad. Hay una forma un tanto más sofisticada de inducción que se apoya en la probabilidad y la estadística, pero que mantiene algunos de estos mismos problemas, aunque a veces quedan un tanto ocultos en algunos de los supuestos que se hacen para facilitar la aplicabilidad del cálculo matemático.&lt;/p>
&lt;p>¿Resumen? La inducción es insuficiente como fundamento del conocimiento. Se requiere siempre considerar la teoría existente sobre aquello que queremos conocer para juzgar qué generalizaciones inductivas son aceptables. Los hechos y las teorías se apoyan mutuamente. Esto puede parecer un problema, pero sólo lo es si quisiéramos seguir creyendo en una verdad última acerca de cómo son las cosas. La realidad es mucho, pero mucho más compleja de lo que nos puede siempre parecer, incluso cuando ya pensamos que es súper compleja. La ciencia, como intento de conocer esa realidad, no progresa simplemente de la observación a la teoría, sino que implica una interacción más compleja entre ambos componentes.&lt;/p>
&lt;h2 id="deducción-y-falsación">Deducción (y falsación)&lt;/h2>
&lt;p>El falsacionismo pone de manifiesto (y parte de la premisa de) que el conocimiento cambia con el tiempo y los recursos disponibles en un momento dado. Por eso, atiende como central al problema del conocimiento la idea del progreso del conocimiento. Esto es, explicar por qué una teoría puede ser mejor que otra, sin llegar a ser ninguna verdadera en último sentido puesto que siempre puede en el futuro llegar una teoría mejor.&lt;/p>
&lt;p>Un ejemplo típico de cómo el falsacionismo entiende la relación entre las teorías y las consecuencias observacioneales de las hipótesis puede tratar sobre los murciélagos y cómo su capacidad para volar y evitar obstáculos contradice una supuesta teoría general que dice que los animales, al igual que los humanos, ven con sus ojos. Un científico falsacionista realiza una serie de experimentos con murciélagos para poner a prueba esta teoría y eventualmente la falsifica, porque las expectativas establecidas deductivamente sobre el supuesto de la hipótesis no coincide con lo que podemos observar. Luego, nuestro estudioso del comportamiento de los animales propone una nueva hipótesis que implica la participación de los oídos de los murciélagos y también la pone a prueba. A través de estos experimentos, el científico avanza en su comprensión del problema y busca una solución más precisa.&lt;/p>
&lt;p>Otro ejemplo típico (y el que llevó a Popper a postular esta forma de comprender a la naturaleza del conocimiento científico) es el caso del progreso de la física desde Aristóteles hasta Newton y Einstein. La física aristotélica era exitosa en cierta medida, ya que explicaba una amplia gama de fenómenos. Sin embargo, con el tiempo, esta teoría fue falsificada en varios aspectos. La teoría de Newton fue un progreso significativo, casi al punto de convencernos durante muchos años que era la mejor teoría jamás inventada y que nunca dejaría de ser verdadera. La teoría de la relatividad de Einstein logró ser una mucho mejor teoría, mientras que la de Newton continuó presentando un sinnúmero de problemas obsesvacionales.&lt;/p>
&lt;p>Para nuestra historia, el punto central está en reconecer que incluso en situaciones ideales y particulares como el conocimiento científico, no es &amp;ldquo;la verdad&amp;rdquo; lo que está implicada sinio el proceso de la formulación de hipótesis, la puesta a prueba y la falsificación de teorías. La experiencia y la observación son fundamentales en el proceso, pero también debemos destacar la importancia de la imaginación y la creatividad para generar nuevas ideas y soluciones. Esta parte sigue siendo un desafío importantísimo para cualquier tipo de inteligencia artificial, porque en la inteligencia humana hay mucha más imaginación y creatividad de lo que las teorías que remarcaban la importancia de la racionalidad plena nos intentaron convencer.&lt;/p>
&lt;h2 id="conocimiento-tecnológico">Conocimiento tecnológico&lt;/h2>
&lt;p>Vannevar Bush fue un ingeniero e inventor estadounidense que definió el término &amp;ldquo;tecnología&amp;rdquo; de manera muy peculiar en su ensayo &amp;ldquo;Ciencia: la frontera sin fin&amp;rdquo; en 1945. Ahí argumentó que la tecnología es la aplicación práctica del conocimiento científico para propósitos prácticos. Bush veía la tecnología como un continuo con la ciencia, siendo la tecnología simplemente la ciencia aplicada. Por tanto, consideraba que el progreso tecnológico dependía directamente del avance científico. Con buenas razones, esta visión de la tecnología como ciencia aplicada fue criticada posteriormente por ignorar los aspectos sociales, políticos y económicos que moldean al desarrollo tecnológico y científico, y que no son del todo similares. También se ha criticado al modelo de Bush por presentar a la tecnología como consecuencia de un proceso lineal y unidireccional de la ciencia a la aplicación.
Teóricos posteriores argumentaron que la tecnología tiene una lógica de desarrollo propia, distinta a la ciencia. La tecnología responde a necesidades prácticas y fuerzas del mercado, no solo al conocimiento científico. Otras teorías como el constructivismo social de la tecnología enfatizaron que los factores sociales y culturales dan forma al desarrollo tecnológico. La tecnología es una construcción social, no solo la aplicación neutral de la ciencia.&lt;/p>
&lt;h2 id="epistemología-y-sociedad">Epistemología y sociedad&lt;/h2>
&lt;p>&amp;ldquo;Epistemología&amp;rdquo; es, por tanto, el estudio de cómo sabemos lo que sabemos. ¿Alguna vez te has preguntado cómo estás seguro de que algo es cierto? Eso es epistemología. En los últimos tiempos, se ha desarrollado mucho un área de la epistemología que se llama “epistemología social”. La parte de &amp;ldquo;social&amp;rdquo; significa que estamos hablando de cómo obtenemos conocimientos a través de nuestra interacción con otras personas. De hecho, ¡es la forma más habitual de obtener y hablar de conocimiento, incluso en la ciencia!&lt;/p>
&lt;p>Imaginemos una situación. Digamos que un amigo te cuenta un rumor sobre un youtuber famoso que está por la ciudad. ¿Cómo sabés si creerle o no? Podrías considerar cuán confiable es tu amigo, o podrías buscar más información para confirmar o desmentir el rumor. Esa decisión involucra tomar una postura con respecto a la naturaleza social del conocimiento.&lt;/p>
&lt;p>La epistemología social nos ayuda a entender cómo nuestras creencias y conocimientos se forman y cambian a través de nuestras relaciones con los demás. Esto es especialmente importante en una era donde las noticias y la información nos llegan de muchas fuentes diferentes, y tenemos que ser cautos sobre lo que elegimos creer. Y esto es absolutamente crucial en la era de las Inteligencias Artificiales Generativas (IAG) y los medios digitales, puesto que llevan a un constante crecimiento de las fuentes y tipos de información a las que estamos expuestos, mientras que muchos de los mecanismos sociales implementados para corroborar información dejan de funcionar.&lt;/p>
&lt;p>Muchos de los mecanismos sociales son la creencia (esto es, la confianza) en las instituciones, tanto públicas como privadas.&lt;/p>
&lt;p>Un problema: algunos de los mecanismos sociales se establecieron porque publicar información era algo muy caro de hacer (imprimir un diario, tener un canal de televisión, etc.), pero las tecnologías digitales vinieron a cambiar todo esto.&lt;/p>
&lt;p>Si estamos acostumbrados a chequear algo con una simple búsqueda en un buscador, ¿precisamente en qué o quién estamos confiando? Defender la veracidad de una creencia o información con respecto a lo que sabemos de cuán confiable puede ser una fuente es una posición que suele llamarse confiabilismo. Así, la confianza y el confiabilismo en el contexto de la epistemología social se refieren a cómo decidimos que una fuente de información es digna de ser creída en un contexto particular.&lt;/p>
&lt;p>Imagina ahora que tienes varios amigos que te cuentan cosas todo el tiempo. Algunos de ellos suelen decir cosas que resultan ser ciertas, mientras que otros a menudo cuentan historias exageradas o incorrectas.&lt;/p>
&lt;p>En el confiabilismo, como una estrategia de justificación del conocmiento, nos centramos en las características que hacen que una fuente, como un amigo, un libro o una página web, sea &lt;em>generalmente&lt;/em> confiable. Si un amigo tuyo siempre te da información precisa, podrías considerar que es una &amp;ldquo;fuente confiable&amp;rdquo;. El confiabilismo diría que estás justificado en creer lo que esa fuente te dice porque ha demostrado ser fiable en el pasado.&lt;/p>
&lt;p>La &amp;ldquo;confianza&amp;rdquo; aquí funciona como una especie de atajo mental. En lugar de tener que verificar cada pequeño detalle cada vez que escuchás algo nuevo, podés confiar en fuentes que han demostrado ser confiables. Sin embargo, esto también puede ser peligroso si depositas tu confianza en fuentes que no son verdaderamente fiables.&lt;/p>
&lt;p>Así que, desde esta perspectiva, la confianza es una herramienta que usamos constantemente para navegar por el complicado mundo de la información. Nos ayudan a decidir qué creer y qué dudas tener, especialmente cuando interactuamos con otras personas. Ahora nos toca hacernos la pregunta del millón: ¿en qué estamos confiando realmente cuando confiamos en la calidad de una fuente de información?&lt;/p>
&lt;p>A todo esto se nos suma un problema: los sesgos. Los sesgos cognitivos pueden ser buenos o malos, pero fundamentalmente pueden verse como “atajos mentales”. Ante una situación que me demanda un tipo de respuesta, es probable que podamos “zafar” de la situación con una respuesta que haya funcionado en muchas ocasiones anteriores. Si una amiga me dice siempre información que resultó precisa o adecuada o útil, muy probablemente “se haya ganado mi confianza” como buena fuente de información. Ahora, ¿qué es lo que hace de ella una buena fuente, confiable y todo lo demás? ¿De dónde saca la información? ¿Podría al menos algunas veces estar diciendo “lo que le parece” y como nadie la cuestiona aparentar tener razón?&lt;/p>
&lt;p>Esto es precisamente lo que puede pasar con la IAG. Porque cuando interactuamos con un chatbot, más que nada a través de texto, el resultado puede ser casi tan impresionante y creíble como si hubiese sido escrito por un experto. Y en la época de las tecnologías digitales, en principio es hasta difícil saber si una nota que vemos publicada en un diario no está usando expresiones o información que hayan provenido de una inteligencia artificial, o que la persona responsable del artículo haya introducido algo que creía que era cierto y, sin embargo, no puede dar buenas razones de por qué lo creía.&lt;/p>
&lt;h2 id="para-seguir-pensando">Para seguir pensando&lt;/h2>
&lt;p>Chalmers, A. F. (2010). &lt;em>¿Qué es esa cosa llamada ciencia?&lt;/em> (3.ª ed.). Siglo XXI de España Editores, S.A. (Obra original publicada en 1999)&lt;/p>
&lt;p>Cutcliffe, S. H. (2003). &lt;em>Ideas, maquinas y valores: Los estudios de ciencia, tecnologia y sociedad&lt;/em>. Anthropos Editorial.&lt;/p>
&lt;p>Lawler, D. (2020). Los estándares como artefactos. &lt;em>Filosofia Unisinos / Unisinos Journal of Philosophy&lt;/em>, 21(1), 24-35. &lt;a href="https://doi.org/10.4013/fsu.2020.211.03" target="_blank" rel="noopener">https://doi.org/10.4013/fsu.2020.211.03&lt;/a>&lt;/p>
&lt;p>Parente, D., Berti, A., &amp;amp; Celis Bueno, C. (Eds.). (2022). &lt;em>Glosario de filosofía de la técnica&lt;/em>. La Cebra.&lt;/p></description></item><item><title>Problemas (filosóficos y...)</title><link>https://guia.ilcic.net/docs/chapter1/problemasia/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/problemasia/</guid><description>&lt;h2 id="alguien-dijo-problemas">¿Alguien dijo &amp;ldquo;problemas&amp;rdquo;?&lt;/h2>
&lt;p>Como nos demuestra un breve recorrido por su historia y su presente, la inteligencia artificial es campo muy complejo que involucra dimensiones técnicas, sociales, políticas, económicas y culturales. Esto se da incluso cuando consideramos a la IA como un campo de investigación académica o como un esfuerzo ingeneril con miras a la generación de productos tecnológicos que entren (o creen) mercados novedosos.&lt;/p>
&lt;p>En cierto sentido, es correcto decir que
la IA no es ni artificial ni inteligente, sino que es el resultado de un conjunto de prácticas, infraestructuras, instituciones, historias, clasificaciones y muchas, muchas decisiones, muchas. Todo esto deja ver un trasfondo humano, casi demasiado humano, detrás y delante de la IA.&lt;/p>
&lt;p>Como campo de investigación, la IA busca hacer algo que es, en principio, posible, aunque extremadamente difícil: imitar artefactualmente las capacidades agenciales humanas. &amp;lsquo;Inteligencia&amp;rsquo; no es sino otro de estos nombres que hemos puesto a un concepto extremadamente difuso y que en los intentos de hacerlo menos difuso hemos creído en su reducibilidad a una descripción abstraída de toda conexión con los mundos naturales y culturales en los que habitamos como seres humanos, mundos plagados de sensaciones y motivaciones muchas veces muy poco claras. Es en ese marco que cualquier IA debe (y pretende) entrar y ser pensada. Al mismo tiempo, la IA, incluso considerada como un campo de &lt;em>mera&lt;/em> investigación (lo cual es una idealización útil en algunos casos, peligrosa en la mayoría), no es un dominio puramente técnico, sino como un conjunto de prácticas técnicas y sociales, instituciones, infraestructuras, política y cultura. Los sistemas de IA actuales refuerzan intereses dominantes, dado el capital necesario para construirlos y las formas de ver que optimizan. Siguiendo lo que plantea Kate Crawford (2021/2022), la IA es un «certificado de poder». Esto es una consecuencia de otra característica de las formas actuales en las que una tecnología digital se inserta en la sociedad contemporánea. Quien controla un servicio digital o una aplicación que se vuelve popular, masivamente o en comunidades específicas, de pronto, habiéndolo deseado o no, tiene una gran capacidad de control sobre la manera de actuar, pensar y vivir de aquellos usuarios del servicio, e incluso de aquellos que no son usuarios directos, pero que deben adaptarse a las nuevas condiciones de habitabilidad del espacio social tecnológicamente configurado.&lt;/p>
&lt;p>La automatización ha sido uno de los mayores avances tecnológicos en los últimos tiempos. Sin embargo, el imaginario tecnológico a menudo se desconecta de los asuntos terrenales y no se considera la repercusión de estas tecnologías en el mundo físico. Por ejemplo, cuando realizamos una búsqueda de imágenes sobre inteligencia artificial, tendemos a encontrar imágenes de cerebros brillantes y códigos binarios flotando en el espacio, en lugar de considerar las implicaciones materiales de estas tecnologías. Pero es preciso comenzar por la tierra, por la extracción de recursos y por las historias del poder industrial, para luego analizar cómo estos patrones se repiten en los sistemas de mano de obra y datos.&lt;/p>
&lt;p>A finales de los años sesenta, Lewis Mumford, historiador y filósofo de la tecno-ciencia, acuñó el concepto de &amp;ldquo;megamáquina&amp;rdquo; para describir cómo todos los sistemas, sin importar su tamaño, dependen del trabajo humano. Mumford consideraba al Proyecto Manhattan, con sus complejidades ocultas tanto al público como a los miles de trabajadores que participaron en él en lugares remotos y seguros de Estados Unidos, como la megamáquina moderna por excelencia. Este proyecto consistió en el desarrollo de un arma nuclear que, según estimaciones conservadoras, causó la muerte de 237,000 personas al alcanzar Hiroshima y Nagasaki en 1945. La bomba atómica dependió de una compleja y secreta cadena de suministros, logística y mano de obra.&lt;/p>
&lt;p>Así como el Proyecto Manhattan, la inteligencia artificial también puede considerarse una megamáquina. Esta tecnología se basa en infraestructuras industriales, cadenas de suministros y mano de obra global, aunque a menudo permanece en un segundo plano. La inteligencia artificial trasciende las bases de datos y los algoritmos, los modelos de aprendizaje profundo y el álgebra lineal. Se trata, pues, de un &lt;em>entramado tecnológico&lt;/em>, de un sistema que logra su funcionalidad aprovechando una serie de recursos y fuerzas que son dispuestos a un fin por una interconexión organizada que puede resolver un problema. Curiosamente una de las propiedades del progreso tecnológico es la confluencia de muchas soluciones a problemas, todas ellas alguna forma propia de tecnología, que se entrelazan en una nueva solución tecnológica. Ahora bien, toda solución a un problema conlleva la creación de nuevos problemas, lo que significa que la IA acarrea tanto soluciones como problemas de aquellas tecnologías que incorpora. Al mismo tiempo, se trata de una &lt;em>metatecnología&lt;/em>, porque es una tecnología que en última instancia tiene una capacidad de crear nuevas formas tecnológicas, de servir de plataforma para la concreción de muchas formas técnicas que sobre y gracias a ella se pueden montar.&lt;/p>
&lt;p>Aunque las tecnologías tienden a presentarse como simples (y a encantarnos por ello), siempre ante toda solución tecnológica debemos preguntarnos por qué está detrás y qué recursos o materias primas está empleando para sus operaciones. Por eso, un aspecto importante a considerar en relación con la inteligencia artificial es su consumo energético. Al ejecutar un solo modelo de procesamiento de lenguaje natural, se generan toneladas de emisiones de dióxido de carbono. Cualquier medida que estimemos muy probablemente se quede corta si consideramos que dependen de la Internet como fuente de datos, Internet que ayudan a expandir.&lt;/p>
&lt;p>Además del consumo energético, la ubicación de los centros de datos también plantea desafíos. Estos suelen estar alejados de las áreas urbanas y se encuentran en regiones más aisladas, como desiertos o zonas o polos industriales. Todo esto complica la logística de recursos como agua y electricidad. El consumo de agua es uno de los aspectos que genera preocupación, ya que la refrigeración de los servidores requiere grandes cantidades de agua que podrían estar siendo utilizadas por comunidades y ecosistemas. En este sentido, la geopolítica del agua se mezcla con las políticas y los mecanismos de los centros de datos y la computación. Esto también ocurre con las fábricas de micro-chips, una tecnología que está en la actualidad permeada por una guerra comercial-tecnológica, principalmente entre China y Estados Unidos.&lt;/p>
&lt;p>Por último, pero claramente no menos importante, están las múltiples facetas de trabajo humano, demasiado humano que están detrás de buena parte del procesamiento de datos, ya sea para corregir respuestas de miles y miles de conversaciones con chats impulsados por IA (para lo que suelen contratarse seres humanos con retribuciones muy pequeñas en países periféricos) o la misma creación de datos, como las fotos y videos compartidos en plataformas sociales, trazos de GPSs al navegar con una aplicación, y así con casi cualquier cosa que pueda &lt;em>registrarse&lt;/em> y luego &lt;em>interpretarse&lt;/em> como significativo según los fines que persigan quienes queden en posesión de dichos datos.&lt;/p>
&lt;p>Muchos aspectos de la Inteligencia Artificial moderna como servicio es una fachada que oculta su funcionamiento interno e incluye ambigüedad si las respuestas provienen del sistema o de operadores humanos. Esta incertidumbre refleja una paradoja al interactuar con sistemas tecnológicos, donde las personas debemos probar o demostrar nuestra condición humana a través, por ejemplo, de un recaptcha. Curiosamente, esta acción también forma parte del entrenamiento gratuito de algoritmos de reconocimiento de imágenes, ya que nuestra solución puede etiquetarse y luego pasar a formar parte del acervo de datos que se emplea para entrenar mejores modelos de IA. En ciertas ocasiones, algunas empresas llegan incluso a pedir a los trabajadores que finjan ser sistemas de IA, quizás con el objetivo de mostrar que dispone de una tecnología que en realidad no tienen, muy probablemente para atraer usuarios y posibles inversores interesados.&lt;/p>
&lt;p>Gran parte de la IA contemporánea no es artificial ni inteligente. En cambio, se trata de una combinación de trabajo físico, trabajo repetitivo en fábricas, trabajo cibernético mal remunerado y el trabajo inmaterial no pagado de los usuarios diarios. Estos constituyen la cadena de suministro sobre la que la computación global depende. De momento, no debemos considerar a la IA como una fuerza que reemplaza a los humanos, sino más bien como una fuerza que cambia la forma en que se realiza el trabajo. No hay área o disciplina que no esté cerca de ser radicalmente transformada en su accionar cotidiano por una tecnología impulsada por estas técnicas de IA.&lt;/p>
&lt;p>La industria de la IA ha promovido un enfoque pragmático y despiadado en la gestión de datos, priorizando la cantidad sobre la calidad, sin considerar el contexto, la precaución o el consentimiento. Ahora bien, ante toda actividad en torno a datos deben considerarse los problemas éticos, políticos y epistemológicos asociados con la recopilación y la creación masivas de datos. Esto implica especialmente tener en cuenta quiénes se benefician y quiénes sufren las consecuencias de esta práctica. Todo producto es parte de una &lt;em>narrativa&lt;/em> que incluye una justificación de su propia existencia. En tanto consumidores de estas tecnologías, debemos al menos estar atentos y conscientes al tipo de esquema de negocios que puede estar operando detrás. En tanto productores o desarrolladores, debemos enfrentarnos al uso e impacto psicológico y social que pueda ocasionar la tecnología que estamos introduciendo.&lt;/p>
&lt;h2 id="reflexión-final">Reflexión final&lt;/h2>
&lt;p>Ya en 1951, Norbert Wiener, el padre de la cibernética nos advertía de lo crucial que atender a los medios de comunicación entre individuos para poder comprender todo sistema de interacción socio-cultural:&lt;/p>
&lt;blockquote>
&lt;p>la sociedad sólo puede comprenderse a través del estudio de los mensajes y de los medios de comunicación que le pertenecen; y que en el desarrollo futuro de estos mensajes y medios de comunicación, los mensajes entre el hombre y las máquinas, entre las máquinas y el hombre, y entre la máquina y la máquina, están destinados a desempeñar un papel cada vez mayor&lt;/p>
&lt;/blockquote>
&lt;p>En su obra, Wiener aborda los conceptos de la cibernética y la comunicación entre seres humanos y máquinas. Wiener advierte sobre los peligros de una mentalidad puramente utilitaria, y destaca la importancia de mantener el control y la responsabilidad humana sobre la tecnología. Nos recuerda que la tecnología debe estar al servicio del ser humano y promover su bienestar, en lugar de reemplazarlo o subyugarlo. Todo medio que empleemos para solucionar problemas es una tecnología, y debemos siempre estar atentos a los problemas que, paradójicamente, la solución genera.&lt;/p>
&lt;p>En el contexto actual de la inteligencia artificial, es fundamental tener en cuenta reflexiones en la misma dirección a las planteadas por Wiener y muchos otros. Debemos cuestionar las motivaciones detrás de la búsqueda de la inteligencia artificial y asegurarnos de que se utilice de manera ética y sostenible. La relación entre humanos y máquinas debe estar basada en el diálogo, la cooperación y la preocupación por el bienestar colectivo; comunicación de máquina a máquina, entre máquinas y seres humanos, pero fundamentalmente aquella entre nosotros, seres humanos, que ya somos seres técnicos.&lt;/p>
&lt;h2 id="para-seguir-pensando">Para seguir pensando&lt;/h2>
&lt;p>Crawford, K. (2022). &lt;em>Atlas de IA: Poder, política y costes planetarios de la inteligencia artificial&lt;/em> (F. Diaz Klaassen, Trad.). Fondo de Cultura Económica. (Obra original publicada en 2021)&lt;/p>
&lt;p>Pasquinelli, M., &amp;amp; Joler, V. (2021). El Nooscopio de manifiesto: La inteligencia artificial como instrumento de extractivismo del conocimiento (J. Blanco, A. Berti, &amp;amp; A. A. Ilcic, Trads.). &lt;em>laFuga, 25&lt;/em>. &lt;a href="https://lafuga.cl/el-nooscopio-demanifiesto/1053" target="_blank" rel="noopener">https://lafuga.cl/el-nooscopio-demanifiesto/1053&lt;/a> (Obra original publicada en 2020)&lt;/p>
&lt;p>Smicek, N., &amp;amp; Giacometti, A. (2018). Capitalismo de plataformas. Caja Negra.&lt;/p>
&lt;p>Wiener, N. (1988). Cibernética Y Sociedad. Sudamericana. &lt;a href="http://archive.org/details/wiener-norbert.-cibernetica-y-sociedad-ocr-1988" target="_blank" rel="noopener">http://archive.org/details/wiener-norbert.-cibernetica-y-sociedad-ocr-1988&lt;/a> (Obra original publicada en 1951)&lt;/p></description></item><item><title>Lista de lecturas</title><link>https://guia.ilcic.net/docs/chapter1/reading-list/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/reading-list/</guid><description>&lt;p>Una pequeña guía inicial de material disponible en distintos formatos para iniciarse en la reflexión crítica sobre tecnologías y en particular sobre inteligencia artificial.&lt;/p>
&lt;h2 id="cursos-y-cosas-parecidas">Cursos y cosas parecidas&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>&lt;a href="https://www.elementsofai.com/es" target="_blank" rel="noopener">Elementos de Inteligencia Artificial&lt;/a>: propuesta interesante para un recorrido simple por muchos de los aspectos cruciales que hay que conocer sobre IA. Está disponible en varios idiomas, incluyendo el español.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;a href="https://ai-fall2023.ai2es.org/" target="_blank" rel="noopener">https://ai-fall2023.ai2es.org/&lt;/a>&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="otros-sitios">Otros sitios&lt;/h2>
&lt;ul>
&lt;li>&lt;a href="https://iaarbook.github.io/" target="_blank" rel="noopener">Libro online de IAAR&lt;/a>: casi que es un proyecto parecido a esta guIA, aunque con un enfoque levemente distinto. Sugiero especialmente ver los &lt;a href="https://iaarbook.github.io/recursos/" target="_blank" rel="noopener">recursos&lt;/a> que están listados.&lt;/li>
&lt;/ul>
&lt;h2 id="libros-propiamente-dichos">Libros (propiamente dichos)&lt;/h2>
&lt;p>Dan Hendrycks. &lt;em>Introduction to AI Safety, Ethics and Society&lt;/em>. Taylor &amp;amp; Francis, 2024. ISBN: 9781032798028. URL: &lt;a href="https://www.aisafetybook.com" target="_blank" rel="noopener">www.aisafetybook.com&lt;/a>&lt;/p>
&lt;h3 id="selección-especial-en-español">Selección especial en español&lt;/h3>
&lt;ul>
&lt;li>Milone, D., Stegmayer, G., Ferrante, E., Fernandez Slezak, D., Alonso Alemany, L., &amp;amp; Ferrer, L. (2022). &lt;em>¿Aprendizaje automágico? : Un viaje al corazón de la inteligencia artificial contemporánea&lt;/em>. Universidad Nacional del Litoral. &lt;a href="https://bibliotecavirtual.unl.edu.ar/handle/11185/6682" target="_blank" rel="noopener">https://bibliotecavirtual.unl.edu.ar/handle/11185/6682&lt;/a>&lt;/li>
&lt;/ul>
&lt;p>Crawford, K. (2022). &lt;em>Atlas de IA: Poder, política y costes planetarios de la inteligencia artificial&lt;/em> (F. Diaz Klaassen, Trad.). Fondo de Cultura Económica. (Obra original publicada en 2021)&lt;/p>
&lt;h3 id="lista-general-actualización-constante">Lista general, actualización constante.&lt;/h3>
&lt;h2 id="artículos">Artículos&lt;/h2>
&lt;p>&lt;a href="https://www.amidi.org/alfabetizacion-critica-datos/" target="_blank" rel="noopener">https://www.amidi.org/alfabetizacion-critica-datos/&lt;/a>&lt;/p>
&lt;h3 id="selección-especial-en-español-1">Selección especial en español&lt;/h3>
&lt;h2 id="comunicación-pública">Comunicación pública&lt;/h2>
&lt;ul>
&lt;li>&lt;a href="https://latinta.com.ar/2023/03/28/inteligencia-artificial-futuro-llego/" target="_blank" rel="noopener">La Tinta | Inteligencia artificial, ¿el futuro llegó? (entrevista a Javier Blanco)&lt;/a>&lt;/li>
&lt;/ul>
&lt;h3 id="español">Español&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>&lt;a href="https://www.nationalgeographic.es/ciencia/2023/03/alan-turing-test-inteligencia-artificial" target="_blank" rel="noopener">La nueva IA podría superar el famoso Test de Turing; este es el hombre que lo creó&lt;/a>
Artículo de Erin Blakemore en National Geographic en español&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;a href="https://lab.elmundo.es/inteligencia-artificial/margaret-boden.html" target="_blank" rel="noopener">Entrevista a Margareth Boden en ElMundo&lt;/a>&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="para-escuchar">Para escuchar&lt;/h2>
&lt;h3 id="podcast">Podcast&lt;/h3>
&lt;h4 id="selección-de-episodios">Selección de episodios&lt;/h4>
&lt;p>🗣️ &lt;a href="https://techwontsave.us/episode/59_how_state_funding_built_silicon_valley_w_margaret_omara" target="_blank" rel="noopener">How State Funding Built Silicon Valley w/ Margaret O’Mara - Episodes - Tech Won’t Save &lt;/a>&lt;/p></description></item><item><title>Humor, comedia, tragedia etc.</title><link>https://guia.ilcic.net/docs/chapter1/humor/</link><pubDate>Sun, 05 May 2019 00:00:00 +0100</pubDate><guid>https://guia.ilcic.net/docs/chapter1/humor/</guid><description>&lt;p>Porque a veces la cosa se pone graciosa, o seria, según corresponda&amp;hellip;&lt;/p>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/aVvkUuskmLY?si=tHPWFtAaSjxA8ZJS" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe>
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/hUrrHPVHeLM?si=jDcJdkueog8l4SG-" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen>&lt;/iframe></description></item></channel></rss>