Un artículo reciente escrito por Pola Lem para Times Higher Education revela una brecha significativa en la adopción de directrices sobre inteligencia artificial en las instituciones académicas de élite. Lem escribe a partir de un informe de Benjamin Moorhouse, profesor asistente de educación en la Universidad Bautista de Hong Kong, que analiza las 50 mejores universidades del mundo según el ranking que elabora la propia organización THE.


Los resultados son impactantes: solo 23 de estas instituciones han hecho públicas directrices claras para el uso de herramientas de IA generativa —como ChatGPT, Bard, Bing, Claude— en entornos académicos. Este hallazgo, calificado por Moorhouse como “preocupante” arroja luz sobre una falta de orientación que podría poner a los instructores en una posición defensiva.


La ausencia de pautas claras podría llevar a los educadores a adoptar enfoques más conservadores, como aumentar las evaluaciones en clase, o enfrentarse a desafíos significativos al intentar adaptar sus prácticas de evaluación sin una guía institucional clara. Esta falta de dirección se vuelve aún más crítica en un momento en que la IA, en particular el ChatGPT, ha transformado la dinámica de la enseñanza y el aprendizaje en el ámbito académico.


Esta es la primera vez que se evalúa el nivel de conciencia y preparación de las instituciones académicas frente a la adopción de nuevas tecnologías, como la IA. La enseñanza se da en forma de advertencia: la falta de una postura clara sobre estas herramientas deja a las universidades en una situación compleja. La falta de una guía institucional se traduce en desafíos significativos para los profesores, quienes, a pesar de la creciente prevalencia de la IA entre los estudiantes, se encuentran desorientados.


¿Por qué muchas instituciones carecen de directrices públicas sobre IA? Una respuesta posible es que podrían adoptar la postura de “esperar a ver qué pasa”. La reticencia a ser pioneros en este terreno, sumada a la incertidumbre sobre el impacto exacto de la inteligencia artificia generativa, podría estar detrás de esta falta de acción por parte de algunas universidades.


El informe señala que aunque algunas instituciones han creado directrices, pero que no las han hecho accesibles al público, lo que complica aún más la situación. La opacidad en torno a las políticas internas podría estar relacionada con preocupaciones sobre la sensibilidad del diseño de evaluación y el uso de herramientas de detección de IA. A pesar de la necesidad de proceder con cautela, se espera que las instituciones adopten una postura más transparente en cuanto a sus políticas. El artículo destaca la importancia de que los profesores se familiaricen con la IA y adquieran las habilidades necesarias, respaldados por el apoyo claro y directrices transparentes de las instituciones académicas.


En un momento en que la tecnología continúa transformando la educación superior, la falta de directrices sobre el uso de la inteligencia artificial plantea interrogantes sobre la preparación y adaptabilidad de las instituciones académicas líderes a estos cambios significativos en el paisaje educativo.

-infobae