¿La IA ya se ha convertido en una marca comercial?

Envíe este artículo:

Esta pregunta surge tras la lectura del artículo del catedrático y especialista en inteligencia artificial J.L.Aznarte «¿Acaso da lo mismo? Inteligencia Artificial, calidad y cosas que importan», publicado en Nueva Revista dentro de un conjunto de textos encabezados por un decálogo sobre el tema de la Universidad 2026 del profesor Rafael Puyol. Aznarte plantea dudas razonables sobre las capacidades reales de la inteligencia artificial en cuestiones relacionadas con la investigación y la calidad universitaria. Se parte, con demasiada frecuencia, de una aceptación casi dogmática de sus resultados, como si bastara la etiqueta tecnológica para otorgarles validez científica, sin exigir el mismo rigor que reclamamos a otros métodos. La pregunta es inevitable: ¿cómo y dónde podemos abrir esa “caja negra” para comprobar qué hay detrás de los resultados que ofrece la inteligencia artificial generativa?

En medio de este debate, los sistemas financieros parecen decididos —como es lógico— a maximizar los beneficios derivados de la IA en todas sus variantes. Las noticias se suceden y contribuyen a reforzar la percepción de que la tecnología todo lo puede. Por ejemplo, se ha informado de que Estados Unidos empleó la herramienta de IA “Claude”, de la empresa Anthropic, en un operativo relacionado con la captura de Nicolás Maduro. Más allá de la veracidad o el alcance exacto de estas informaciones, lo cierto es que abren interrogantes éticos y regulatorios de enorme calado. Sin embargo, en el actual escenario internacional de guerra y tensiones geopolíticas, pensar en límites efectivos y en una regulación global coherente parece, hoy por hoy, extraordinariamente difícil.

El problema se vuelve especialmente delicado cuando lo trasladamos a los sistemas que garantizan la calidad universitaria. Aznarte propone un catálogo de cautelas para limitar el uso de generadores de texto en la universidad. No niega, en absoluto, el interés ni las posibilidades de la IA generativa —no en vano es catedrático de Inteligencia Artificial en la UNED—, pero insiste en la necesidad de aplicar una prudencia proporcional al riesgo de erosionar el rigor de la investigación científica y la validez de sus métricas. Sus reflexiones parten de un curso de verano organizado por la Fundación para el Conocimiento madri+d, titulado «Una IA hablando con otra IA. Gestión de la calidad universitaria». En el ámbito de la evaluación universitaria nos jugamos mucho: necesitamos respuestas rigurosas, metodológicamente sólidas y transparentes. Como advierten algunos investigadores de Princeton, proliferan los “vendedores de crecepelo” con poderosos intereses comerciales, dispuestos a envolver la IA en múltiples capas de celofán que dificultan comprender qué es realmente el producto, si cumple lo que promete y, sobre todo, si es el producto que necesitamos.

Una agencia de calidad evalúa y autoriza —o no— que determinados estudios oficiales puedan impartirse en una universidad. No da lo mismo que las evidencias factuales estén bien preparadas. La antropomorfización del lenguaje de la IA favorece expresiones grandilocuentes y casi dogmáticas —“podría revolucionar”— difíciles de contrastar empíricamente. El resultado es que la IA ha dejado de percibirse exclusivamente como un campo científico enraizado en las matemáticas para convertirse, en muchos discursos, en algo más cercano a una marca comercial: IA. A ello se suma la presión del publish or perish, que, junto con la carrera por expandir las fronteras de la “fe algorítmica”, ha extendido problemas metodológicos en un porcentaje significativo de publicaciones del área. Las dudas sobre el rigor se articulan en torno a varias dimensiones: el rigor epistémico (qué conocimientos fundamentan aquello en lo que trabajamos), el rigor normativo (cómo influyen normas y creencias en nuestra práctica), el rigor conceptual (la claridad de los constructos teóricos), el rigor documental (qué se documenta, cómo y por qué) y el rigor interpretativo (la solidez de las inferencias extraídas de las evidencias).

También cabe preguntarse si no estamos ante una burbuja, especialmente cuando se habla de los beneficios generalizados de la IA para el público en general. Un estudio reciente mostró que, aunque una muestra de profesionales de la programación con amplia experiencia estimó en un 24 % la mejora de velocidad que esperaban obtener gracias a la asistencia de la IA, en la práctica su rendimiento descendió un 19 %. Lo más llamativo es que, pese a ese descenso efectivo, los participantes valoraron subjetivamente en un 20 % la mejora de su productividad. Esta disonancia cognitiva resulta inquietante. Además, una encuesta encargada por la firma de capital riesgo Menlo Ventures indica que solo un 3 % de los usuarios estadounidenses de chatbots paga por ellos, lo que sugiere que el entusiasmo social no siempre se traduce en un respaldo económico sostenido.

La aplicación de herramientas de IA a los procesos de calidad universitaria puede resultar útil en determinadas tareas, especialmente como apoyo en la generación y organización de lenguaje. Sin embargo, nos situamos en un ámbito extremadamente sensible que abarca dimensiones técnicas, éticas, normativas y sociales que deben ser reconocidas y gestionadas para preservar la integridad, la equidad y la legitimidad de los sistemas de garantía de calidad. A ello se suman cuestiones cruciales como la protección de datos y la ciberseguridad. Los procesos de calidad manejan información sensible: desempeño del profesorado, resultados del estudiantado o características específicas de las instituciones. Alimentar modelos de lenguaje con estos datos —sobre todo si se alojan en servidores externos y, más aún, fuera de Europa— introduce riesgos significativos de accesos no autorizados y filtraciones, incluso cuando se trata de datos anonimizados.

Los modelos de lenguaje, además, no son neutros. Pueden incorporar sesgos derivados de sus datos de entrenamiento, predominantemente en inglés o en determinadas variantes del castellano. Su opacidad algorítmica dificulta la rendición de cuentas y complica la impugnación de resultados. No da lo mismo recurrir a sistemas automáticos para evaluar la calidad universitaria. La integración de modelos generadores de lenguaje plantea problemas de confianza, legitimidad y contrato social en la educación superior. Si el profesorado, el estudiantado o la opinión pública perciben que los procedimientos de evaluación son opacos o injustos, la confianza en el sistema de acreditación puede deteriorarse gravemente, sobre todo si se percibe que se devalúa el conocimiento experto que lo sustenta. A ello se añaden posibles vulneraciones de la propiedad intelectual en los conjuntos de entrenamiento y el riesgo de ampliar la brecha digital, favoreciendo a instituciones con mayor acceso a infraestructuras avanzadas y reforzando una estratificación indeseable del sistema universitario.

En este contexto, la regulación resulta imprescindible. El Reglamento Europeo de IA advierte sobre la utilización inadecuada de la inteligencia artificial en ámbitos sensibles, entre ellos la educación superior. No da igual emplear sucedáneos tecnológicos para medir la calidad universitaria. Lo que está en juego no es solo la eficiencia de un procedimiento, sino la credibilidad misma del sistema académico y la confianza pública en sus resultados.

No solo es interesante este artículo sino todo el número de Nueva Revista dedicado a Universidad 2026.

Envíe este artículo:

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *