Humanidades
Desafíos
Pone en jaque formas establecidas de trabajo, reporte de investigaciones y evaluaciones y cuando nos damos cuenta…
El dilema de Collingridge indica que con las tecnologías emergentes, es fácil regular al inicio, pero difícil cuando están integradas. La inteligencia artificial en Humanidades y Ciencias Sociales enfrenta este dilema. Los riesgos identificados incluyen:
alucinaciones y errores de información sesgos en los resultados pérdida de habilidades investigativas debilitamiento de la autoría y responsabilidad académica A pesar de estos riesgos, la IA ya se utiliza en:
formación de investigadores escritura académica evaluación por pares redacción de proyectos y solicitudes de financiamiento.
Nueva “mirada desde ningún lugar” (objetividad 4.0)
Estamos frente a un nuevo regimen de objetividad (que recapitula y complejiza los anteriores). Daston y Galilson (1997) mostraban cómo cambió históricamente la idea de objetividad científica:
“Verdad según la naturaleza” → representar el tipo ideal. “Objetividad mecánica” → confiar en el instrumento. “Juicio entrenado” → la experiencia del especialista interpreta y corrige los datos.
Los modelos de lenguaje (LLM) introducen una posible cuarta etapa:
“Verosimilitud probabilística” → las respuestas parecen correctas porque son estadísticamente plausibles, no porque el razonamiento haya sido verificado.
La investigación asistida por IA no elimina la necesidad de expertos; al contrario, aumenta la importancia del juicio crítico y disciplinar. Paradojicamente, lo hace mucho más difícil y valioso, pero es necesario que institucionalmente le demos el lugar. Cualquier política que trate el uso de modelos de lenguaje (LLM) en Humanidades y Ciencias Sociales como equivalente a su uso en programación (como completadores de código o creadores de programas) subestima el tipo de margen de error epistemológico en el que estamos operando.
Oportunidades
Nuevas formas de investigar: hacia una «hermeneútica computacional»
Financiamiento y posicionamiento estratégico de centros de IA en Humanidades
Los organismos de financiamiento están apoyando cada vez más centros de investigación liderados por Humanidades que estudian los impactos sociales, culturales, legales y éticos de la inteligencia artificial. En Estados Unidos, la National Endowment for the Humanities creó el programa Humanities Research Centers on Artificial Intelligence, que financia centros interdisciplinarios dirigidos por especialistas en Humanidades. Estos programas priorizan temas como:equidad, privacidad, derechos civiles, democracia, nnovación curricular, infraestructura digital y actividades académicas.
Esta tendencia reposiciona a las Humanidades como actores centrales en el debate público sobre la IA, y no solo como usuarias de tecnología. Para las instituciones del Sur Global, persisten desafíos importantes: desigualdad en acceso a financiamiento, brechas de infraestructura, dependencia de agendas externas. Por ello, resulta estratégico que los sistemas nacionales y regionales de financiamiento desarrollen programas propios orientados a perspectivas locales sobre los impactos sociales de la IA.
Desafío máximo
Tenemos que repensar nuestras instituciones en términos de aceptar a la investigación y la educación como partes moduladoras de un ecosistema de culturas digitales en el que debemos gestionar y proteger al conocimiento como un bien común. Esto requiere ver a la IA como una tecnología cultural, muy lejos de cualquier neutralidad.
Cf. Kevin Kelly y el dilema de agregar valor a la ‘gratuidad’ informacional: https://www.edge.org/conversation/better-than-free
Algunas ideas
Algunos videos
Este evento, la Cumbre sobre IA Centrada en el Ser Humano del Colegio de Humanidades y Ciencias Sociales (CHSS) (0:13), reúne a docentes y autoridades universitarias para explorar cómo las humanidades y las ciencias sociales pueden orientar el desarrollo de la inteligencia artificial para garantizar que siga siendo ética, responsable y justa.
Presentaciones principales y conclusiones:
Mind Meets Machine (Eileen Rosler, 6:20): Analiza el desafío de lograr una sinergia entre humanos e IA. Destaca el término alemán Verschlimmbesserung —empeorar las cosas con buenas intenciones— y enfatiza la necesidad de transparencia y verificabilidad en el diseño de sistemas. Making Moral Machines (Elizabeth Phillips, 9:37): Explora cómo pueden diseñarse robots capaces de comprender normas sociales y morales. Sostiene que las máquinas deben tomar decisiones justificables, de modo que puedan explicar por qué actuaron de determinada manera, fomentando así la confianza. Reboot Your Career (Steve Glades, 13:49): Ofrece consejos prácticos sobre cómo usar la IA para ayudar en la búsqueda laboral (por ejemplo, reescribir currículums y hacer networking en LinkedIn), al tiempo que subraya la importancia del componente humano, como las entrevistas informativas y las notas de agradecimiento escritas a mano. Critical Literacies of AI (Douglas Eyman, 21:27): Defiende la enseñanza de un pensamiento crítico sobre la IA. Señala que, aunque los modelos de lenguaje grandes (LLM) pueden servir para generar ideas o actuar como tutores, carecen de la capacidad de verificar la verdad, por lo que la experiencia humana sigue siendo necesaria para evaluar sus resultados. Historical Records to Data Sets (Lincoln Mullen y Deepthi Murali, 28:00): Muestra cómo la IA puede digitalizar y procesar enormes archivos históricos —como registros textiles y censos religiosos— permitiendo a los investigadores pasar de la transcripción mecánica a una interpretación histórica más profunda guiada por humanos. Robot Deception (Andreas Roso, 39:50): Examina la ética del engaño en robots, sugiriendo que, aunque los robots podrían necesitar “mentir” para seguir normas sociales (como mantener la comodidad de un usuario), la intención detrás del engaño es lo que finalmente determina si la acción resulta perjudicial.