Más allá del espejo cognitivo: Responsabilidad humana en la era de los Grandes Modelos de Lenguaje
Resumen
La inteligencia artificial (IA), particularmente los Grandes Modelos de Lenguaje (LLM), han
estado transformando la forma en la que accedemos al conocimiento, “democratizando” a la
información. Sin embargo, este avance trae consigo riesgos epistemológicos, éticos y sociales
que no pueden ni deben ignorarse. A través de un ejercicio de reflexión de la información
respecto del tema y tomando en cuenta ejemplos de interacciones con LLMs, así como de las
advertencias de algunos personajes públicos, importantes en el mundo occidental, sobre el
impacto socioeconómico de la IA, este artículo argumenta que los LLM no generan
conocimiento, sino que reproducen y sintetizan información basada en consensos históricos,
sesgos institucionales y datos entrenados sin supervisión crítica. Se demuestra que la
confianza ciega en estos modelos de lenguaje inteligentes puede perpetuar dogmas
obsoletos, normalizar prácticas perjudiciales o incluso socavar la capacidad cognitiva humana.
Ante este desafío, se sostiene la opinión de que la IA debe usarse para empoderar tanto al
raciocinio como al juicio humano, no para reemplazarlos. La validación de los especialistas, el
pensamiento crítico y la alfabetización cognitiva son esenciales para evitar un libertinaje
tecnológico que ponga en riesgo la autonomía, la salud y la democracia. El artículo concluye
con recomendaciones propuestas dirigidas a desarrolladores, profesionales del conocimiento
y ciudadanos en general, instando no sólo un uso ético y reflexivo, sino también humano-
céntrico de la IA.
Colecciones
- Divulgación [285]
El ítem tiene asociados los siguientes archivos de licencia:

