No se limitan a responder preguntas o escribir textos. Modelos de lenguaje como GPT, Claude o Gemini ejecutan código, analizan datos e incluso realizan experimentos en laboratorios de robótica. Google ha bautizado esta idea como co-científico: un asistente virtual capaz de diseñar, planificar y ejecutar experimentos completos a partir de sencillas instrucciones en lenguaje natural.
Esta tecnología ya está empezando a dar resultados. En colaboración con universidades como Stanford o el Imperial College, el científico propuso mecanismos biológicos desconocidos, sugirió posibles tratamientos para enfermedades como la fibrosis hepática y automatizó parte del proceso de descubrimiento científico. Otros proyectos como Future House siguen una línea similar, llevando la automatización de la ciencia a un nivel que hace apenas cinco años habría parecido ciencia ficción.
A esta revolución se sumó un cambio en los hábitos de los propios investigadores. Un estudio reciente en la revista Nature encontró que el 81% de los científicos ya utilizan herramientas como ChatGPT en alguna etapa de su trabajo: desde escribir artículos hasta generar hipótesis y redactar propuestas de financiación. La integración de la inteligencia artificial (IA) en la ciencia avanza a un ritmo sin precedentes, pero nuestro pensamiento crítico sobre su impacto no avanza a la par.
Beneficios obvios, riesgos claros
La IA puede ayudarnos a escribir mejor, superar las barreras del idioma y explorar datos complejos. Pero también introduce riesgos importantes.
En primer lugar, está el problema de la pérdida de creatividad. Un análisis de más de 45 millones de artículos y casi 4 millones de patentes mostró que desde mediados del siglo XX, la proporción de trabajos verdaderamente disruptivos ha disminuido constantemente.
La ciencia avanza, sí, pero lo hace cada vez más a pequeños pasos en lugar de saltos transformadores. Si comenzamos a utilizar modelos lingüísticos para escribir propuestas o generar ideas, es probable que refuercemos esta tendencia: formados en investigaciones previas, tienden a reproducir enfoques dominantes y evitar lo radicalmente nuevo.
Un modelo de inteligencia artificial puede llevar las leyes de Newton al límite, pero no inventaría la teoría de la relatividad. Se pueden escribir miles de variaciones de un artículo sobre mecánica clásica, pero no se preguntaría si el gato de Schrödinger está vivo o muerto porque él nunca habría inventado la mecánica cuántica.
Una máquina no puede concebir nuevas ideas.
La innovación profunda requiere intuición, imaginación y la capacidad de desafiar paradigmas, atributos que todavía hoy son profundamente humanos.
También existen riesgos éticos. La IA puede fabricar datos, exagerar resultados o proponer experimentos basados en premisas falsas sin que el usuario lo detecte.
Incluso puede influir a gran escala en la opinión pública y en la producción científica, como ocurrió con la industria azucarera en los años 60, cuando impulsó investigaciones que desviaron la atención de sus efectos sobre la salud para culpar a la grasa.
Con herramientas que puedan generar texto persuasivo a escala industrial, la manipulación podría ser mucho más efectiva. Además, si las plataformas avanzadas se concentran en unas pocas empresas o países, la capacidad de descubrimiento científico podría monopolizarse y generar nuevas formas de desigualdad científica y tecnológica.
¿Qué pasa si una máquina es autor y revisor al mismo tiempo?
Un escenario aún más inquietante es la delegación simultánea de la redacción y evaluación de propuestas a modelos lingüísticos. No es ciencia ficción: un estudio reciente muestra que uno de cada cinco investigadores ya está utilizando la IA en la revisión por pares, y entre el 7% y el 17% de las revisiones en conferencias científicas sobre IA han sido modificadas significativamente por estas herramientas.
Si una IA genera una propuesta y otra IA la evalúa, entramos en un sistema autorreferencial donde los modelos reproducen sus propios sesgos y la creatividad humana queda suprimida. Esto podría atrapar a la ciencia en una espiral, deshaciendo el tipo de descubrimiento transformador que ha caracterizado los grandes avances de la historia científica.
Marco ético para la protección de la ciencia.
Para evitar estos riesgos, proponemos una serie de principios éticos que permiten la integración de grandes modelos de lenguaje sin comprometer la integridad científica:
Abordar los sesgos sistemáticamente. La IA no es neutral. Necesita auditorías continuas, equipos interdisciplinarios y mecanismos externos que revelen sesgos invisibles para los propios expertos.
Exigir total transparencia. Los investigadores deben documentar los datos, parámetros y decisiones tomadas por los modelos, además de utilizar técnicas de explicabilidad que permitan comprender cómo se llegó a la conclusión.
Aclarar la atribución y la propiedad intelectual. La línea entre asistencia y autoría es borrosa. Necesitamos reglas claras sobre qué contenido es humano y qué genera la IA.
Garantizar la responsabilidad humana. Todo lo producido por la IA debe ser verificado por científicos. Sin supervisión no puede haber decisiones automáticas.
Proteger la investigación transformadora. Debemos evitar que la IA impulse a la ciencia hacia lo que resulta cómodo. Las agencias deben apoyar proyectos arriesgados, interdisciplinarios y radicales.
Redefinir el papel del científico. Debemos fortalecer la intuición, el pensamiento crítico, la ética y la visión de largo plazo.
Cree sistemas de gestión personalizables. La tecnología está evolucionando demasiado rápido para las regulaciones estáticas. Necesitamos una supervisión continua y flexible.
Reducir la dependencia de modelos propietarios. La ciencia no puede depender de unas pocas plataformas comerciales. Debemos promover ecosistemas abiertos, diversos y resilientes.
La IA puede acelerar la ciencia de maneras extraordinarias. Pero si no tenemos cuidado, podría empobrecerlo, hacerlo menos creativo, desigual y menos confiable. En un momento en que el planeta enfrenta desafíos urgentes, necesitamos herramientas poderosas, sí, pero también rigurosas, transparentes y profundamente humanas.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


