ESCRITURA Y LA IA

“No existe una guía general sobre cómo usar la IA”.

IA y escritura
Columnas
Share

Este año la editorial Taurus publicó el libro Vidas españolas. Razón biográfica de España (s. XVI-XX), donde figuran como autores los historiadores Juan Pablo Fusi y Ricardo García Cárcel, ambos miembros de la Real Academia de la Historia.

Más que por su contenido histórico, el texto cobró relevancia por la reseña que escribió José Luis García Martín, titulada Un mal ejemplo. En ella el crítico señala varios errores a lo largo de las páginas: desde erratas de dedo hasta fechas y hechos incorrectos. Sus sospechas lo llevaron a afirmar que varios de estos fallos no son muy diferentes a las “alucinaciones” de la Inteligencia Artificial (IA): “El curioso lector ya habrá averiguado cuál es la razón de todos estos desaguisados (...) y, si es profesor y ha tenido que corregir trabajos escolares, ya está familiarizado con ellos: son la señal de haber recurrido a la ayuda (y a algo más que la simple ayuda) de la Inteligencia Artificial”.

Más allá del uso de la IA, lo cierto es que el libro parece ser el resultado de un proceso de investigación y corrección bastante deficiente. En la reseña, García Martín también señala el mal uso de Wikipedia, lo cual no debe pasar desapercibido.

Ahora bien, una afirmación de tal magnitud como la hecha en la reseña no es poca cosa. El empleo de la IA en las humanidades constituye un foco de debate (y acusaciones) en el entorno académico. Han transcurrido tres años desde que los modelos de lenguaje generativo se transformaron en objeto de fascinación e inquietud para las y los humanistas.

Si bien estas herramientas estuvieron disponibles un poco antes, fue en 2023 cuando capturaron la atención de los espacios universitarios. A partir de entonces se han producido varios artículos e investigaciones que exploran el vínculo entre esta tecnología y el quehacer de quienes conformamos las humanidades.

Patrones

Pero, siendo honestos, hasta hoy no existe una guía general sobre cómo usar la IA y mucho menos sobre qué es ético y qué no dentro de la relación entre las humanidades y estas herramientas. Sí, cada vez aparecen más artículos que intentan poner orden, pero el tema sigue flotando en la ambigüedad y en las aulas, por ejemplo, todo queda a criterio de cada profesor. Todavía no existe consenso sobre si hay que citar a ChatGPT o si de plano copiar y pegar lo que genera debería castigarse con la misma severidad que el plagio. Con respecto a la IA nos seguimos moviendo en una zona gris.

Cierto es que cada vez es más fácil sospechar cuándo un texto fue redactado, en parte o en su mayoría, con un chatbot como ChatGPT. Por ejemplo, abusa del punto y coma, de los dos puntos, del guion largo y de la coma de Oxford. Asimismo, suele utilizar mucho la frase: “No se trata de X, sino de Y”.

Igualmente, sus conclusiones suelen ser demasiado reflexivas y hasta con un tono moralizante; frases como “es importante…”, “en última instancia…”, “solo así podremos…” o “es fundamental…” suelen estar presentes en sus cierres.

Lo mencionado no garantiza que algo haya sido escrito por una IA. Esos estilos existen desde antes y, a fin de cuentas, con ellos se entrenó a la tecnología.

Desde mi perspectiva, lo que podemos hacer hasta ahora es observar los patrones y mediante ellos fijarnos si un texto utiliza demasiado esos giros y palabras que ya reconocemos de la misma IA. ¿Es suficiente para lanzar una acusación? No lo creo, pues la única persona capaz de garantizarlo es el propio autor. Pero al menos él o ella sabrán que la sospecha está ahí presente.

×