La Universidad de Costa Rica (UCR) le marcaría la cancha en los próximos meses a estudiantes y profesores en el uso de la Inteligencia Artificial (IA) en los procesos de enseñanza y aprendizaje.
Felipe Alpízar Rodríguez, vicerrector de Docencia de la UCR, comentó que esperan tener pronto una norma que regule la utilización de estas herramientas.
Sus declaraciones surgen luego de que este lunes 10 de julio del 2023, el profesor universitario Melvin Campos Ocampo contó que les puso cero en un examen a 18 estudiantes porque respondieron preguntas de desarrollo sobre temas vistos en clases con IA. El programa más popular y polémico de Inteligencia Artificial es ChatGPT.
Campos publicó en su perfil de Facebook que cataloga esa acción como un fraude académico porque intentaron hacer pasar un texto como propio cuando en realidad lo escribió la IA.

El vicerrector de Docencia no quiso referirse a ese caso en específico porque dijo que no lo conoce a fondo, al no ser expuesto por medios institucionales.
Lo que sí recalcó es que si en cualquier caso se trata de un plagio, aún mediante el uso de IA, los profesores sí pueden abrir procesos al respecto. Agregó que la U usa el programa Turnitin para verificar la autenticidad y originalidad de los textos.
Fernández comentó que han recopilado 49 experiencias de profesores que ya han usado IA en sus cursos y analizan la percepción de estudiantes para así establecer las regulaciones correspondientes.
Enojo “apocalíptico”
El profesor Melvin Campos detalló en su publicación en Facebook que, aunque les puso cero en el examen a los 18 estudiantes, ellos no reprobaron el curso porque al enfrentarlos reconocieron el error, aprendieron de él y se disculparon.
Aseguró que desde el “boom” de la IA el año anterior, sabían lo que como profesores se les venía encima.
“En mis cursos, los profes lo conversamos y decidimos cortar por lo sano: prohibir el uso de las IA”, aseguró.
Según dijo, pese a las advertencias descubrió a los 18 estudiantes que usaron IA para redactar el examen y ante eso, tuvo un “enojo apocalíptico”.
Indicó que se apiadó de ellos porque son de primer ingreso y, aunque decidió no abrir un proceso disciplinario, les puso cero en la evaluación.
Se dio cuenta de que usaron IA por la “forma particular, muy automática e impersonal, así que inicialmente es notable porque el texto se siente raro” y porque también utilizó dos herramientas de Inteligencia Artificial para detectar fraude.
¿Está mal usarlo?
Carlos Fernández, CEO de Grupo Prides, experto en informática, explicó que un grupo de connotadas universidades de Inglaterra, como Oxford y Cambridge, decidieron incorporar el uso ético del ChatGPT.
“Han trabajado con los estudiantes y profesores para desarrollar un marco ético del uso de Inteligencia Artificial. Esto nos dice que universidades tan prestigiosas reconocen que no es prudente nada más prohibir el uso de la Inteligencia Artificial en la educación superior”, afirmó.
Fernández añadió que, por tanto, las universidades deben contar con una normativa que especifique los límites sobre el uso de IA y establecer cómo e incluso dónde usarla, es decir, si de manera presencial en la clase o no, pues, por ejemplo, si se quiere medir la capacidad investigativa del estudiante la Inteligencia Artificial podría ser una gran aliada.
Así es como la herramienta no es mala en sí misma, todo depende del uso que se le dé.
El ChatGPT, de la empresa OpenAI, es un sistema de Inteligencia Artificial que maneja cantidades enormes de datos.

A través de preguntas o solicitudes puede brindar información de forma inmediata de prácticamente cualquier tema y de una manera muy bien explicada, por eso algunos podrían intentar engañar.
Desde su lanzamiento, el 30 de noviembre del 2022, ha generado gran polémica y tiene detractores, pero también muchos defensores, y hay un gran vacío sobre las regulaciones de su uso.