La inteligencia artificial agrieta el pedestal del conocimiento universitario
La supremacía intelectual de la academia se tambalea. Las pruebas con que se medía tradicionalmente el conocimiento de las personas ahora son resueltas fácilmente por computadoras. Aunque el uso de la inteligencia artificial no es cuestionable en sí, la falta de criterio en su empleo puede fracturar la credibilidad que caracteriza el trabajo de profesores y estudiantes investigadores. La existencia de instituciones educativas se justificará en el futuro si estas refuerzan el pensamiento crítico y el análisis riguroso de la información que ofrecen ordenadores y algoritmos.
La inteligencia artificial (IA) es una tecnología capaz de imitar habilidades que solían ser propias de los humanos. Ahora existen máquinas que pueden describir, interpretar, explicar, resumir, traducir, argumentar, conversar y producir imágenes, sonidos, videos, textos o gráficas. Esto es lo que se conoce como inteligencia artificial generativa (IAG). Su constante evolución le permite adoptar un lenguaje cada vez más natural, a tal punto que en ocasiones es imposible establecer si el autor de un contenido es una persona o un robot.
Dicha invención ha superado diversas pruebas. Inicialmente, los análisis se enfocaron en ChatGPT porque con su lanzamiento en 2022 se convirtió en la primera plataforma que facilitó el acceso de cualquier internauta a este tipo de tecnología. Teo Susnjak, profesor en la Escuela de Matemáticas y Ciencias Computacionales de la Universidad Massey, en Nueva Zelanda, estudió el nivel intelectual de las respuestas que le arrojó esta aplicación. Encontró que sus mensajes eran claros, precisos, profundos, amplios, coherentes, lógicos y relevantes conforme a las preguntas que él planteó. Los investigadores israelíes Hadar Jabotinsky y Roee Sarel le pidieron a ChatGPT que redactara un texto académico con su respectiva bibliografía. El aplicativo les entregó un artículo con el estilo característico de este tipo de publicaciones, pero citaba autores y obras que no existían. En 2023, el profesor iraquí Mohammad Aljanabi divulgó un escrito en coautoría con ChatGPT en el que destacó el potencial de la inteligencia artificial para mejorar la calidad de vida de los humanos.
Los experimentos no se han dirigido solamente a producir contenidos, sino a medir conocimientos que exigen estudios especializados. Los estadounidenses Michael Bommarito y Daniel Katz, expertos en derecho y tecnología, evidenciaron que aquel chat podía resolver el examen para obtener la licencia de abogado en su país. El robot demostró un conocimiento parecido, y a veces superior, al que tenían los aspirantes humanos. En otro caso similar, un grupo de médicos españoles evaluó a ChatGPT con la prueba obligatoria para acceder a la formación de especialistas en la nación ibérica. El resultado fue tan satisfactorio que si se tratara de un candidato real habría obtenido una puntuación suficiente para elegir plaza en diversas especialidades y centros hospitalarios.
Esta nueva realidad agrieta el pedestal de las universidades como autoridad intelectual. El trabajo académico se ha caracterizado tradicionalmente por cumplir con seis valores que definen su integridad. La base de todos es la honestidad, entendida como el desarrollo de una actividad de manera auténtica, sin engaños o fraudes. Junto a esto va la confianza, que se basa en la convicción de que el trabajo de los demás es creíble. También aparece la justicia, que en este caso es abordar con neutralidad las diferentes maneras de entender el mundo. En ese contexto, el respeto implica ser fiel a los valores propios, pero sin descartar las ideas ajenas para favorecer el diálogo y el pensamiento crítico. Todo aquello exige actuar con responsabilidad, o sea, cumplir deberes éticos y legales. Finalmente, el investigador necesita coraje al trabajar según sus principios y convicciones, pese al miedo o la inseguridad.
Aunque el mero uso de la inteligencia artificial no significa incumplir con dichas cualidades, sí puede representar una tentación para eludirlas. Con sus capacidades, la inteligencia artificial le abrió la puerta a una nueva forma de hacer trampa en la academia. Hasta ahora, se conocía el plagio, que es apropiarse de obras o ideas de otra persona sin reconocerle su creación. También se sabía de la suplantación de autoría, que consiste en pagarle a alguien para que produzca un contenido y se lo atribuya a quien le dio el dinero. A partir de los últimos avances tecnológicos se puede hacer además la simulación de autoría, que es presentar como propio material que creó la inteligencia artificial.
Los valores de la integridad académica ahora son frágiles. La honestidad es débil por la facilidad de engañar, pues la copia de obras o de ideas ajenas es prácticamente indetectable cuando las plataformas parafrasean lo que dicen otros autores. La confianza se pierde cuando entra la sospecha respecto a la autenticidad de cualquier contenido que produzcan estudiantes o investigadores. La justicia flaquea porque la información que ofrece la inteligencia artificial tiene sesgos de raza, género, ideología o religión, pues su entrenamiento obedece a la forma como sus creadores ven el mundo. Además, el uso desmedido de esta tecnología puede aumentar la calificación para quienes se esfuerzan menos. La responsabilidad se desvanece cuando se aceptan sin cuestionamientos los resultados que arrojan los algoritmos, pese a que está comprobado que los sistemas alucinan, es decir, presentan datos falsos como si fueran ciertos. Finalmente, se extingue el coraje porque depender de esta tecnología agota la capacidad de tomar posiciones independientes.
Las pruebas tradicionales que consistían en recoger y recordar información ya no son funcionales para medir conocimientos. Aunque las máquinas son capaces de procesar datos, les faltan las habilidades de analizar y reflexionar, que siguen siendo exclusivas de los seres humanos. Fortalecer el pensamiento crítico es el soporte que puede estabilizar el agrietado pedestal de las universidades.
Referencia
Navarro-Dolmestch, Roberto. (2023). Descripción de los riesgos y desafíos para la integridad académica de aplicaciones generativas de inteligencia artificial. Derecho PUCP, (91), 231-270. Epub 29 de noviembre de 2023. https://doi.org/10.18800/derechopucp.202302.007
Comentarios
Publicar un comentario