Epistemología

¿Estudiando al conocimiento?

Este quizás sea el módulo que te parezca más raro, pero me vas a tener que creer que es importante. De hecho, fijate lo que acaba de pasar. Te pedí que me creas, que deposites confianza en mi conocimiento acerca de la importancia del tema del conocimiento, en este caso para pensar sobre la inteligencia artificial. Si ahora empiezo a preguntarte acerca de cómo sabés lo que sabés, una de las respuestas posibles sea “lo escuché”, “confío en la fuente”, “lo encontré en Google”, etc. Ya quizás veas por dónde va el problema, a dónde están las buenas razones para aceptar algo como verdadero o al menos como suficientemente bueno. Algo similar nos pasa con la IA, que en sentido estricto es una tecnología de conocimiento. Parte del éxito de las tecnologías actuales han provenido de los avances en un campo que alguna vez se consideró como un problema trivial pero que demandó casi 60 años para adelantos signficativos: el de la visión computacional. Curiosamente, estamos aprendiendo un montón de cómo vemos nosotros gracias a pensar cómo hacer que una computadora vea como nosostros. La observación, a todo esto, es una buena fuente de conocimiento, ¿no?

Observación

Habitualmente pensamos que una de las mejores fuentes de conocimiento es la experiencia directa, la que tenemos por los sentidos. Es tan, pero tan directa que tendemos a tildarla de la más objetiva que podamos llegar a tener. Esta idea llevó un poco de tiempo en consolidarse, dado que muchos (siguiendo a Platón, principalmente) solían sostener que los sentidos podían engañarnos mucho y que entonces era mejor pensar (hacer teoría) para conocer el mundo que ir a experimentar el mundo. La ciencia moderna nació en el siglo XVII cuando se adoptó seriamente la estrategia de considerar los hechos observacionales como base para la ciencia. Antes de esta época, sostiene la historia convencional que aquí nos será suficiente, los hechos observables no eran tomados en serio como fundamento del conocimiento, y la autoridad, ya sea de filósofos como Aristóteles o de la Biblia, era lo que prevalecía. Sin embargo, Galileo desafió esta autoridad al apelar a la experiencia y llevar a cabo su famoso experimento de la Torre de Pisa, demostrando que la velocidad de caída de los objetos no depende de su peso, como sostenía Aristóteles.

Este punto es importante para nuestro pensar sobre la IA, porque estamos frente a una nueva forma de observación, aquella que parte de la generación de un dato (recordá, por ejemplo, lo que habíamos dicho de los sensores y los registros en el módulo anterior). Y hay tantos, pero tantos datos disponibles, que en algunos casos podemos llegar a creer que esos datos son el mundo. Con esta observación mediada por sensores y patrones de comportamiento pasa algo muy similar (aunque de hecho es más radical todavía) con la mera observación: vemos lo que vemos dependiendo de qué queremos ver. La “mera” observación va más allá de simplemente recibir estímulos a través de los sentidos. Para formular y aceptar declaraciones de observación, es necesario tener un marco conceptual adecuado y conocimiento previo sobre el objeto de observación. Un ejemplo típico es el de un niño aprendiendo a reconocer y describir manzanas, si no fuera por las correcciones por parte de una madre que posee un conocimiento más amplio sobre las características que hacen que algo sea una manzana, muy probablemente el niño tome por manzanas algunas cosas que no lo son. Exactamente lo mismo le pasa a una IA.

Además, nuestra compleja mente nos agrega la dificultad de que las percepciones pueden verse influenciadas por los antecedentes y expectativas que tengamos. Esto implica que lo que parece un hecho observable para una persona puede no serlo para otra, lo que introduce cierta subjetividad en la observación. Por tanto, los juicios sobre la veracidad de las afirmaciones de observación dependen de lo que ya se sabe o se asume. Esto hace que los hechos observables sean tan falibles como las suposiciones subyacentes.

Aquí lo crucial es comprender que la observación no es simplemente recibir estímulos sensoriales, sino que requiere un marco conceptual y conocimiento previo. Los hechos observables no pueden considerarse como una base clara y segura de conocimiento (especialmente del científico), como se suele suponer. Claro que pese a estos problemas sigue siendo una fuente de conocimiento fundamental, pero debemos siempre prestar atención a los problemas.

Inducción

La derivación de regularidades o leyes generales de los enunciados de observación (incluyendo a los experimentos) se llama “inducción”. Por ejemplo, después de observar que el metal A, B y C se expanden cuando se calientan, se induce la ley general de que todos los metales se expanden al calentarse.

Inductivismo es una forma de describir una posición que sostiene que todo lo que nos hace falta para hablar de buen conocimiento es poder llevar a cabo buenas inducciones. A diferencia de la deducción lógica, la inducción no garantiza la verdad de sus conclusiones, incluso si las premisas son verdaderas. Por ello, un reto clave es especificar las condiciones para una buena inferencia inductiva. Algunos requisitos propuestos por algunos autores son:

  • Que haya un gran número de observaciones que respalden la generalización. (El problema es que no está claro cuántas se necesitan.)
  • Mucha variedad de condiciones bajo las cuales se repite el fenómeno. (Pero no hay criterios claros sobre qué variaciones son relevantes.)
  • Que no haya excepciones conocidas al enunciado general. (Problema: la mayoría de leyes científicas tienen excepciones.)

Una conclusión que podemos sacar de todo esto es que no tenemos una caracterización satisfactoria de la inducción. Tampoco podemos justificar la inducción apelando a la lógica deductiva o a más inducción, sin caer en circularidad. Hay una forma un tanto más sofisticada de inducción que se apoya en la probabilidad y la estadística, pero que mantiene algunos de estos mismos problemas, aunque a veces quedan un tanto ocultos en algunos de los supuestos que se hacen para facilitar la aplicabilidad del cálculo matemático.

¿Resumen? La inducción es insuficiente como fundamento del conocimiento. Se requiere siempre considerar la teoría existente sobre aquello que queremos conocer para juzgar qué generalizaciones inductivas son aceptables. Los hechos y las teorías se apoyan mutuamente. Esto puede parecer un problema, pero sólo lo es si quisiéramos seguir creyendo en una verdad última acerca de cómo son las cosas. La realidad es mucho, pero mucho más compleja de lo que nos puede siempre parecer, incluso cuando ya pensamos que es súper compleja. La ciencia, como intento de conocer esa realidad, no progresa simplemente de la observación a la teoría, sino que implica una interacción más compleja entre ambos componentes.

Deducción (y falsación)

El falsacionismo pone de manifiesto (y parte de la premisa de) que el conocimiento cambia con el tiempo y los recursos disponibles en un momento dado. Por eso, atiende como central al problema del conocimiento la idea del progreso del conocimiento. Esto es, explicar por qué una teoría puede ser mejor que otra, sin llegar a ser ninguna verdadera en último sentido puesto que siempre puede en el futuro llegar una teoría mejor.

Un ejemplo típico de cómo el falsacionismo entiende la relación entre las teorías y las consecuencias observacioneales de las hipótesis puede tratar sobre los murciélagos y cómo su capacidad para volar y evitar obstáculos contradice una supuesta teoría general que dice que los animales, al igual que los humanos, ven con sus ojos. Un científico falsacionista realiza una serie de experimentos con murciélagos para poner a prueba esta teoría y eventualmente la falsifica, porque las expectativas establecidas deductivamente sobre el supuesto de la hipótesis no coincide con lo que podemos observar. Luego, nuestro estudioso del comportamiento de los animales propone una nueva hipótesis que implica la participación de los oídos de los murciélagos y también la pone a prueba. A través de estos experimentos, el científico avanza en su comprensión del problema y busca una solución más precisa.

Otro ejemplo típico (y el que llevó a Popper a postular esta forma de comprender a la naturaleza del conocimiento científico) es el caso del progreso de la física desde Aristóteles hasta Newton y Einstein. La física aristotélica era exitosa en cierta medida, ya que explicaba una amplia gama de fenómenos. Sin embargo, con el tiempo, esta teoría fue falsificada en varios aspectos. La teoría de Newton fue un progreso significativo, casi al punto de convencernos durante muchos años que era la mejor teoría jamás inventada y que nunca dejaría de ser verdadera. La teoría de la relatividad de Einstein logró ser una mucho mejor teoría, mientras que la de Newton continuó presentando un sinnúmero de problemas obsesvacionales.

Para nuestra historia, el punto central está en reconecer que incluso en situaciones ideales y particulares como el conocimiento científico, no es “la verdad” lo que está implicada sinio el proceso de la formulación de hipótesis, la puesta a prueba y la falsificación de teorías. La experiencia y la observación son fundamentales en el proceso, pero también debemos destacar la importancia de la imaginación y la creatividad para generar nuevas ideas y soluciones. Esta parte sigue siendo un desafío importantísimo para cualquier tipo de inteligencia artificial, porque en la inteligencia humana hay mucha más imaginación y creatividad de lo que las teorías que remarcaban la importancia de la racionalidad plena nos intentaron convencer.

Conocimiento tecnológico

Vannevar Bush fue un ingeniero e inventor estadounidense que definió el término “tecnología” de manera muy peculiar en su ensayo “Ciencia: la frontera sin fin” en 1945. Ahí argumentó que la tecnología es la aplicación práctica del conocimiento científico para propósitos prácticos. Bush veía la tecnología como un continuo con la ciencia, siendo la tecnología simplemente la ciencia aplicada. Por tanto, consideraba que el progreso tecnológico dependía directamente del avance científico. Con buenas razones, esta visión de la tecnología como ciencia aplicada fue criticada posteriormente por ignorar los aspectos sociales, políticos y económicos que moldean al desarrollo tecnológico y científico, y que no son del todo similares. También se ha criticado al modelo de Bush por presentar a la tecnología como consecuencia de un proceso lineal y unidireccional de la ciencia a la aplicación. Teóricos posteriores argumentaron que la tecnología tiene una lógica de desarrollo propia, distinta a la ciencia. La tecnología responde a necesidades prácticas y fuerzas del mercado, no solo al conocimiento científico. Otras teorías como el constructivismo social de la tecnología enfatizaron que los factores sociales y culturales dan forma al desarrollo tecnológico. La tecnología es una construcción social, no solo la aplicación neutral de la ciencia.

Epistemología y sociedad

“Epistemología” es, por tanto, el estudio de cómo sabemos lo que sabemos. ¿Alguna vez te has preguntado cómo estás seguro de que algo es cierto? Eso es epistemología. En los últimos tiempos, se ha desarrollado mucho un área de la epistemología que se llama “epistemología social”. La parte de “social” significa que estamos hablando de cómo obtenemos conocimientos a través de nuestra interacción con otras personas. De hecho, ¡es la forma más habitual de obtener y hablar de conocimiento, incluso en la ciencia!

Imaginemos una situación. Digamos que un amigo te cuenta un rumor sobre un youtuber famoso que está por la ciudad. ¿Cómo sabés si creerle o no? Podrías considerar cuán confiable es tu amigo, o podrías buscar más información para confirmar o desmentir el rumor. Esa decisión involucra tomar una postura con respecto a la naturaleza social del conocimiento.

La epistemología social nos ayuda a entender cómo nuestras creencias y conocimientos se forman y cambian a través de nuestras relaciones con los demás. Esto es especialmente importante en una era donde las noticias y la información nos llegan de muchas fuentes diferentes, y tenemos que ser cautos sobre lo que elegimos creer. Y esto es absolutamente crucial en la era de las Inteligencias Artificiales Generativas (IAG) y los medios digitales, puesto que llevan a un constante crecimiento de las fuentes y tipos de información a las que estamos expuestos, mientras que muchos de los mecanismos sociales implementados para corroborar información dejan de funcionar.

Muchos de los mecanismos sociales son la creencia (esto es, la confianza) en las instituciones, tanto públicas como privadas.

Un problema: algunos de los mecanismos sociales se establecieron porque publicar información era algo muy caro de hacer (imprimir un diario, tener un canal de televisión, etc.), pero las tecnologías digitales vinieron a cambiar todo esto.

Si estamos acostumbrados a chequear algo con una simple búsqueda en un buscador, ¿precisamente en qué o quién estamos confiando? Defender la veracidad de una creencia o información con respecto a lo que sabemos de cuán confiable puede ser una fuente es una posición que suele llamarse confiabilismo. Así, la confianza y el confiabilismo en el contexto de la epistemología social se refieren a cómo decidimos que una fuente de información es digna de ser creída en un contexto particular.

Imagina ahora que tienes varios amigos que te cuentan cosas todo el tiempo. Algunos de ellos suelen decir cosas que resultan ser ciertas, mientras que otros a menudo cuentan historias exageradas o incorrectas.

En el confiabilismo, como una estrategia de justificación del conocmiento, nos centramos en las características que hacen que una fuente, como un amigo, un libro o una página web, sea generalmente confiable. Si un amigo tuyo siempre te da información precisa, podrías considerar que es una “fuente confiable”. El confiabilismo diría que estás justificado en creer lo que esa fuente te dice porque ha demostrado ser fiable en el pasado.

La “confianza” aquí funciona como una especie de atajo mental. En lugar de tener que verificar cada pequeño detalle cada vez que escuchás algo nuevo, podés confiar en fuentes que han demostrado ser confiables. Sin embargo, esto también puede ser peligroso si depositas tu confianza en fuentes que no son verdaderamente fiables.

Así que, desde esta perspectiva, la confianza es una herramienta que usamos constantemente para navegar por el complicado mundo de la información. Nos ayudan a decidir qué creer y qué dudas tener, especialmente cuando interactuamos con otras personas. Ahora nos toca hacernos la pregunta del millón: ¿en qué estamos confiando realmente cuando confiamos en la calidad de una fuente de información?

A todo esto se nos suma un problema: los sesgos. Los sesgos cognitivos pueden ser buenos o malos, pero fundamentalmente pueden verse como “atajos mentales”. Ante una situación que me demanda un tipo de respuesta, es probable que podamos “zafar” de la situación con una respuesta que haya funcionado en muchas ocasiones anteriores. Si una amiga me dice siempre información que resultó precisa o adecuada o útil, muy probablemente “se haya ganado mi confianza” como buena fuente de información. Ahora, ¿qué es lo que hace de ella una buena fuente, confiable y todo lo demás? ¿De dónde saca la información? ¿Podría al menos algunas veces estar diciendo “lo que le parece” y como nadie la cuestiona aparentar tener razón?

Esto es precisamente lo que puede pasar con la IAG. Porque cuando interactuamos con un chatbot, más que nada a través de texto, el resultado puede ser casi tan impresionante y creíble como si hubiese sido escrito por un experto. Y en la época de las tecnologías digitales, en principio es hasta difícil saber si una nota que vemos publicada en un diario no está usando expresiones o información que hayan provenido de una inteligencia artificial, o que la persona responsable del artículo haya introducido algo que creía que era cierto y, sin embargo, no puede dar buenas razones de por qué lo creía.

Para seguir pensando

Chalmers, A. F. (2010). ¿Qué es esa cosa llamada ciencia? (3.ª ed.). Siglo XXI de España Editores, S.A. (Obra original publicada en 1999)

Cutcliffe, S. H. (2003). Ideas, maquinas y valores: Los estudios de ciencia, tecnologia y sociedad. Anthropos Editorial.

Lawler, D. (2020). Los estándares como artefactos. Filosofia Unisinos / Unisinos Journal of Philosophy, 21(1), 24-35. https://doi.org/10.4013/fsu.2020.211.03

Parente, D., Berti, A., & Celis Bueno, C. (Eds.). (2022). Glosario de filosofía de la técnica. La Cebra.

Anterior
Siguiente