Muy de acuerdo con este artículo que nos ha compartido Antonio. Efectivamente, si automatizamos la revisión bibliográfica estamos perdiendo todo lo que aporta el proceso natural al desarrollo de competencias en un investigador: el análisis de los trabajos previos, la síntesis de lo aprendido, la identificación de los huecos de investigación...Un investigador en formación que no sabe hacer una revisión bibliográfica, o que la delega en GPT, no es ni será un buen investigador.
jueves, 6 de julio de 2023
En contra de usar GPT para la revisión bibliográfica
Suscribirse a:
Enviar comentarios (Atom)
2 comentarios:
Hola Pedro:
Totalmente de acuerdo con la expresión "loros estocásticos". Hice dos pruebas sobre chatGPT.
Una de ellas era preguntar por mi mismo. Resultado: decía un montón de barbaridades como que era profesor de Berkeley y que asistía al Gobierno americano en materia de eficiencia energética. Solo por citar algunas astracanadas. Al replicar (yo) que eso era falso (ello) contestaba en plan humilde diciendo que lo sentía y que si podía corregirle. Al cuestionarle (yo) que por qué se inventaba información (ello) me respondía que no era así y que su respuesta se basaba en el corpus de información que ya tiene hasta septiembre de 2021. Al volver (yo) sobre este punto, cuestionando que si era una cuestión de fuentes, que me indicase las fuentes de información exactas a partir de las cuales me ofrecía esa información sobre mi, (ello) me replicaba saliéndose por la tangente con nueva humildad impostada y apelando a que contrastara información (yo). Y así, en un diálogo retórico cada vez más retorcido, en el momento en que apelas a la LOPD el sistema recula y se acojona, empieza a ofrecer referencias a cuentagotas y te das cuenta (yo) que la expresión "loro estocástico" es perfecta. Sobre todo porque no hay nada de inteligencia en este sistema, sino que es pura generación indiscriminada de información y que chatGPT utiliza a la ciudadanía como testeadores y verificadores de la información creada. Lo que a mi me vino a las mientes fue: cadáver exquisito.
La otra prueba que hice fue pedirle un textín a modo de creación científica sencilla para un mini-review. Le especifiqué muchísimo que quería que aparecieran referencias científicas sólidas, de revistas indexadas, ubicadas en su debido lugar y con un montón de precisiones para que no derrapara. Resultado: me ofreció un texto resultón, a priori, que daba el pego para hacer un relleno, pero, oh sorpresa, las referencias, que eran de Energy, Applied Energy y demás, y que parecían buenas y ciertas, ¡eran todas inventadas! No existían. Ni una de ellas. Había creado títulos de artículos que daban el pego, con sus números de volumen y paginado, ¡todo falso! Aquí me dio la risa nerviosa y concluí mi experimento.
No necesito más: chatGPT es algo abominable. Motivos obvios. Es un mono borracho pilotando.
Saludos
Diego García
Tambien "crea" las referencias. Yo le pedí que me diese referencias académicas mías y el resultado me dejó perplejo. Co-autores reales, revistas en la que he publicado, palabras clave sobre las que he publicado y años correctos, pero las referencias como tal eran falsas. Al decirle que eran falsas se disculpaba y me mandaba unas nuevas diciendo que éstas eran las correctas. Y seguían siendo falsas. Y puedes reiterar el proceso y sigue "mintiéndote"...
Me quedé muy preocupado, la verdad.
Publicar un comentario