Cómo evitar que los artículos científicos parezcan creados por una máquina

ANASTACIO ALEGRIA
7 Lectura mínima

Cualquiera que haya escrito un artículo científico sabe muy bien lo complejo que es. A una revisión minuciosa (y a veces aburrida) de la literatura le sigue la propia investigación, y no basta con decir nada, sino que hay que dar nuevos resultados. A esto se suma el cuidadoso manejo de las citas y referencias, todas las cuales deben expresarse con orden y precisión.

La guinda del pastel es que tenemos que escribir en inglés, el idioma dominante de la ciencia; Aquellos de nosotros que no somos hablantes nativos estamos en clara desventaja.

Hasta hace poco, las herramientas disponibles se limitaban a corregir gramática y estilo. Hoy en día, la inteligencia artificial generativa (GenAI) puede transcribir párrafos enteros, sintetizar los resultados e interpretarlos, o sugerir párrafos que aumenten el contenido de una de las secciones del manuscrito, todo en un inglés correcto que coincida con el expediente académico.

Pero no es oro todo lo que reluce. Varios estudios recientes muestran que cuando las personas saben que un texto fue elaborado con la ayuda de inteligencia artificial, confían menos en su autor. La solución puede parecer ser ocultar su uso, pero ni siquiera eso soluciona el problema: si el lector sospecha que los autores han utilizado inteligencia artificial sin declararlo abiertamente, la desconfianza puede ser igual o incluso mayor.

Surge así un verdadero dilema ético: ¿declarar o no declarar sobre su uso?

Por qué es importante que tu texto no parezca IA

Averiguar si un texto ha sido generado por inteligencia artificial no es tan fácil como parece. Y es que, según una investigación publicada en Proceedings of the National Academy of Sciences, las personas cometemos errores cuando la intuición nos guía para detectar si un texto es artificial.

Es algo que asociamos con un lenguaje demasiado formal o complejo o con textos impersonales o fríos. Por el contrario, asumimos que los textos que incluyen experiencias personales provienen de autores humanos.

El problema es que muchas de estas señales son engañosas. De hecho, los modelos de lenguaje de gran tamaño (LLM) son perfectamente capaces de adaptar la formalidad del lenguaje que utilizan, imitando un tono familiar o incluyendo ejemplos y anécdotas en primera persona.

El resultado es sorprendente: si nos guiamos únicamente por nuestra intuición, los textos generados por la inteligencia artificial pueden parecer más propios de autores humanos que los escritos realmente por una persona. Peor aún: nuestra capacidad de detección disminuye a medida que mejoran los modelos.

la intuición engaña

Un estudio publicado en Teaching English With Technology lo confirma: la tasa de detección de visitas cayó del 57,7% con versiones anteriores de ChatGPT a casi el 50% con versiones más nuevas. Es como lanzar una moneda al aire.

Representación esquemática de una red neuronal profunda: desde un único punto de entrada (izquierda), la información se procesa a través de capas sucesivas de nodos para producir una salida compleja (derecha). Es la arquitectura subyacente a modelos como ChatGPT o Gemini, diseñada para predecir, en cada paso, el fragmento de texto estadísticamente más probable. Pistas de Google DeepMind/Pekels que apuntan al uso de GenAI

Aunque no es posible una detección perfecta, existen una serie de patrones lingüísticos que pueden revelar su uso:

Un exceso de construcciones antitéticas en el uso repetido de frases como “No sólo X, sino yo” o “X en lugar de I” para enfatizar un argumento sin aportar nueva información.

Reafirmación repetida de la misma idea con ligeras variaciones. Este tono de aparente profundidad se limita a alargar el texto sin añadir contenido significativo. En los textos académicos, este exceso puede resultar contraproducente.

Listas de tres elementos, como “La técnica mejora la precisión, reduce los errores y optimiza el rendimiento”. La estructura tripartita es un recurso retórico clásico que sirve para reforzar ciertas ideas, pero su uso repetido genera un ritmo uniforme, casi mecánico.

Expresiones innecesarias como “Lo siguiente es un resumen…” o “El punto es…” son una especie de tic común de un sistema de IA, hablar sobre texto en lugar de ir al grano.

Los textos generados por IA tienden a contener más sustantivos abstractos y menos pronombres, lo que da como resultado una prosa innecesariamente densa. Por ejemplo, en lugar de escribir “El modelo analiza los datos y luego los compara”, GenAI podría decir “El modelo analiza los datos y compara los resultados”.

Mientras que los humanos alternan naturalmente entre oraciones cortas y largas, la GenAI tiende a producir oraciones de longitud similar, creando un ritmo monótono.

Mezclar fragmentos generados por IA con otros escritos por humanos tiende a producir inconsistencias en las mayúsculas, las negritas o las hojas que revelan autorías mixtas y proyectan una imagen de descuido.

Recomendaciones prácticas

¿Qué podemos hacer para que nuestros textos no parezcan escritos por una máquina? Algunos consejos son:

Limitar o eliminar construcciones antitéticas innecesarias.

Reducir las repeticiones que no aportan información nueva.

Cambiar la longitud de oraciones y párrafos.

Reemplace los sustantivos repetidos con pronombres cuando no haya ambigüedad.

Elimine el metalenguaje redundante y evite listas con títulos en negrita.

Unifica el formato y revisa cuidadosamente la coherencia final, evitando que el texto sea un batiburrillo de estilos por el batiburrillo de fragmentos generados por GenAI y otras personas.

La inteligencia artificial puede ahorrar tiempo en tareas de inteligencia artificial y facilitar la escritura en un idioma extranjero, ayudar a estructurar ideas o mejorar la claridad gramatical. Pero no podemos utilizarlo como sustituto de la experiencia humana para eximir de responsabilidad al investigador firmante. En ciencia, la confianza es tan importante como la precisión.

Y no podemos delegar esa confianza a un algoritmo, cuyo resultado consiste en generar el texto más probable posible. La IA no puede reemplazar a los investigadores, pero puede brindar un apoyo valioso. Nuestro desafío, entonces, es aprender a utilizar ese apoyo de manera ética y profesional.


Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo