La inteligencia artificial (IA) generativa ofrece multitud de perspectivas prometedoras en las instituciones de educación superior: innovación pedagógica, aprendizaje personalizado, ahorro de tiempo y estimulación de la creatividad. Sin embargo, plantea serias preocupaciones éticas: riesgo de fraude, falta de pensamiento crítico, problemas de acceso desigual o, incluso, pérdida de la validez del esfuerzo. En este contexto, ¿deberíamos prohibir estas tecnologías, autorizarlas libremente o regular su uso? ¿Y cómo?
Nuestra investigación pone de manifiesto una paradoja: si los estudiantes pueden usar libremente ChatGPT y otras herramientas de IA generativa, la institución se percibe como más innovadora, pero sus prácticas se juzgan como menos éticas. Por el contrario, una prohibición total ofrece garantías éticas, pero a costa de una imagen negativa. Ante este dilema, es fundamental encontrar la solución ganadora.
ChatGPT en el aula: encontrar el equilibrio entre innovación y ética
Las herramientas de IA generativa (ChatGPT, Midjourney, Dall-E, etc.) pueden producir texto, imágenes e incluso código en segundos. En 2023, un estudio estimó que estas herramientas habían aumentado la productividad de los profesionales en un 40 % y mejorado la calidad de su trabajo en un 18 %.
El uso generalizado de la IA generativa, incluso en universidades y a veces sin el conocimiento del profesorado, no está exento de problemas. Varios informes advierten sobre cuestiones éticas clave relacionadas con este uso, como la rendición de cuentas, la supervisión humana, la transparencia y la inclusión.
Para comprender mejor cómo las políticas de uso de la IA generativa influyen en la imagen de una institución, realizamos dos estudios experimentales con más de 500 estudiantes. En cada uno, los participantes se asignaron aleatoriamente a tres grupos. A cada grupo se le pidió que leyera una breve descripción de una escuela que implementaba diferentes políticas y normas para gestionar el uso de la IA generativa. En un caso, la escuela prohibió su uso por completo. En otro, lo permitió sin ninguna norma. Y en el último, permitió la IA, pero con normas claras, como indicar cuándo se había utilizado o limitar su uso a ciertas tareas.
Luego se pidió a los participantes que calificaran la imagen de la escuela indicando qué tan innovadora, ética y confiable les parecía, es decir, si querrían apoyarla o estudiar allí.
Los resultados son claros, independientemente del contexto (p. ej., una tarea, un proyecto de clase, una tesis). Las escuelas que prohíben completamente la IA se consideran bastante éticas, pero se ven significativamente penalizadas en términos de innovación. Las que permiten la IA sin supervisión parecen bastante innovadoras, pero sufren una imagen poco ética, generando el menor apoyo del alumnado. Las escuelas que permiten el uso supervisado y regulado de la IA logran una doble ventaja: son percibidas como las más innovadoras y las más éticas.
En otras palabras, la vaguedad o la falta de un marco normativo socavan la credibilidad. Por el contrario, una política clara que autorice el uso de la IA generativa con reglas definidas fortalece la confianza y la aceptación del alumnado.
Preguntas de IA: un indicador sólido para los estudiantes
Padres, estudiantes, docentes y reclutadores quieren saber si una escuela realmente los prepara para los desafíos del siglo XXI. Adoptar la IA sin un marco de referencia sin duda proyecta una imagen de expertos en tecnología, pero también de irresponsabilidad. Rechazar la IA por completo puede ser tranquilizador al principio, pero en última instancia equivale a ignorar los cambios en la sociedad.
Solo una estrategia estructurada puede combinar innovación y valores educativos, satisfaciendo así las expectativas y necesidades de todos. Para los estudiantes, la IA debe seguir siendo una herramienta útil, pero debe supervisarse para evitar cualquier riesgo de fraude. Por su parte, el profesorado necesita directrices claras para integrar estas tecnologías sin comprometer los valores académicos.
Los padres esperan que las escuelas combinen rigor y modernidad. En cuanto a los responsables políticos, les interesa definir un marco regulatorio coherente, en lugar de dejar que cada institución diseñe su propia respuesta.
Mostrar reglas claras
Nuestro estudio demuestra que regular el uso de la IA en las universidades es esencial para lograr la innovación y mantener la ética. Sin una normativa clara, el uso de la IA puede socavar la integridad académica y devaluar los títulos. Por lo tanto, es crucial que las instituciones se tomen en serio este asunto y que las autoridades públicas las apoyen con recomendaciones específicas y coherentes.
Varias instituciones pioneras ya han implementado normas sencillas para regular el uso de la IA generativa. Estas normas incluyen la transparencia en cuanto a las herramientas utilizadas y las instrucciones dadas a la IA, la divulgación explícita de cualquier ayuda recibida con las tareas y límites claros en las tareas permitidas (como parafrasear o ayudar con la gramática, pero no la redacción completa). Algunas escuelas también están integrando la ética de la IA en sus planes de estudio desde el primer año y fomentando su uso pedagógico en ejercicios específicos.
Algunas instituciones pioneras ya han implementado estas cartas, como lo demuestra el informe de la Comisión Europea sobre el uso responsable de la IA en la educación. En un mundo donde las tecnologías evolucionan más rápido que las instituciones, solo las escuelas capaces de combinar rigor y adaptación se ganarán la confianza de sus comunidades.
La integración de la IA no debe verse como una moda pasajera, sino como una respuesta concreta a un importante desafío educativo, preservando al mismo tiempo los valores éticos de la enseñanza y la esencial apertura a la innovación. Las instituciones capaces de afrontar este reto estarán en mejor posición para formar pensadores críticos preparados para afrontar los retos del futuro.
Por Karine Revet. Profesor de Estrategia, Escuela de Negocios de Borgoña
Malak El Halabi. Doctor en Marketing – Comportamiento del Consumidor, Escuela de Negocios de Rennes
Sumayya Sheikh. Estudiante de doctorado en marketing y comportamiento del consumidor, Escuela de Gestión de Grenoble (GEM)
Xing Ming Yang. Profesor adjunto de Marketing, Neoma Business School



