Las promesas de seguridad de OpenAI posteriores a Tumbler Ridge no son regulación de la IA, son supervisión

ANASTACIO ALEGRIA
10 Lectura mínima

Obtuvo compromisos de ambas partes: informar amenazas directamente a la RCMP, revisión retroactiva de órdenes previamente marcadas, protocolos de desvío de emergencia, acceso a la oficina de seguridad de la compañía para expertos canadienses y un acuerdo para trabajar con BC en recomendaciones regulatorias para Ottawa.

También accedió a pedir disculpas a la comunidad de Tumbler Ridge, donde Jesse Van Rotselaar, de 18 años, mató a ocho personas e hirió a muchas otras antes de morir a causa de una herida autoinfligida. Meses antes del tiroteo, la cuenta ChatGPT de Van Rootselaar fue marcada por escenarios que involucraban violencia armada. La cuenta fue prohibida pero no denunciada a la policía.

Los nuevos compromisos de OpenAI son gestos significativos. Pero abordan una cuestión más concreta que la que en realidad planteó Tumbler Ridge. Como sostuve anteriormente, el problema central no fue la falta de presentación de informes. Era un vacío de gestión.

¿Qué ha cambiado desde entonces? OpenAI acordó tomar el mismo tipo de decisión unilateral que tomó antes, pero actuar de manera más agresiva, dirigiendo el resultado directamente a la RCMP. Esa no es la solución. Es la misma arquitectura que no responde con un disparador más rápido.

El Ministro de Inteligencia Artificial, Evan Solomon, analiza las interacciones con OpenAI sobre el uso de ChatGPT por parte del tirador del tiroteo masivo de Tumbler Ridge en el vestíbulo de la Cámara de los Comunes en la Colina del Parlamento en Ottawa, febrero de 2026. THE CANADIAN PRESS/Justin Tang The Man in the Loop Falacy

Consideremos lo que sabemos ahora sobre el proceso interno. La cuenta del tirador está marcada. Las interacciones fueron revisadas por moderadores humanos. Algunos abogaron por una escalada a las fuerzas del orden. Otras personas, guiadas por los propios umbrales opacos de la empresa, decidieron no hacerlo. El fallo no fue mecánico. Fue institucional.

“El hombre al tanto” es una de las garantías que se repite con más frecuencia en el discurso de seguridad de la IA. El caso Tumbler Ridge revela sus limitaciones. Las personas involucradas son tan responsables como la estructura institucional que las rodea. Cuando esa estructura es una corporación privada sin obligaciones de presentación de informes legalmente vinculantes, sin requisitos de transparencia y sin supervisión externa, el hombre involucrado es simplemente una cara más comprensiva en un sistema que no rinde cuentas.

Desde entonces, OpenAI ha anunciado que sus umbrales se han actualizado. Pero ¿quién actualiza, según qué criterios y sujeto a qué revisión? Estas siguen siendo decisiones internas, invisibles para el público e inaccesibles al Parlamento.

Reemplazo de supervisión

Hay un problema más profundo al que apenas se presta atención. La solución propuesta no regula la IA. Regula a los usuarios.

Todo el aparato que se está construyendo (identificación de amenazas internas, etiquetado, referencias directas a la RCMP) está orientado a monitorear lo que los humanos le dicen a la IA, no cómo los sistemas de IA están diseñados, entrenados o limitados en sus respuestas.

La verdadera regulación de la IA pregunta si un modelo puede facilitar o reforzar ideas dañinas a través de sus patrones de interacción. Pregunta cómo se construyó el sistema, para qué se probó y qué obligaciones están relacionadas con su implementación.

El acuerdo actual no plantea ninguna de estas preguntas. En cambio, construye un canal que va desde las interacciones privadas de IA hasta la aplicación de la ley corporativa impulsada por políticas.

A esto lo llamo reemplazo de la vigilancia: el vacío en la gobernanza no se llena con regulación democrática, sino con vigilancia corporativa de los usuarios. No es una regulación de la IA. Es la regulación de las personas que utilizan la IA, aplicada por la propia empresa de IA, con la policía como punto final.

Las implicaciones para las libertades civiles son significativas. La investigación sobre la IA sensible a la empatía, incluido mi trabajo sobre cómo los sistemas de IA deberían responder a los usuarios en estados vulnerables, muestra consistentemente que las personas revelan su angustia a los chatbots precisamente porque la interacción se siente privada y sin prejuicios.

Si ese espacio se convierte en un canal monitoreado donde las revelaciones desencadenan remisiones a las autoridades con base en criterios corporativos opacos, los usuarios más vulnerables pueden detener las revelaciones. El efecto disuasorio sobre el comportamiento de búsqueda de ayuda no se estudió ni se consideró en ninguna de las negociaciones públicas que siguieron a Tumbler Ridge.

Un edificio de dos mástiles con banderas a media asta.

La gente presenta sus respetos en un monumento en las escaleras del ayuntamiento después de una vigilia el día anterior en Tumble Ridge, Columbia Británica, el 14 de febrero de 2026. CANADIAN PRESS/Christine Muschi Estrategia racional, marco ausente

Es importante ser específico sobre lo que hace OpenAI. La empresa no actúa de mala fe. Se comporta como una entidad privada racional en ausencia de un marco regulatorio, ofreciendo una respuesta mínima viable a la presión política, preservando al mismo tiempo la mayor autonomía operativa posible.

Mire hacia el sur y la lógica se vuelve más clara. En Estados Unidos, la relación entre las empresas de IA y el poder gubernamental se está renegociando violentamente. El Pentágono solicitó modelos de IA sin vallas protectoras para aplicaciones militares. Cuando Anthropic se resistió, OpenAI actuó para llenar el vacío. En este contexto, el gobierno estadounidense está al mando y las empresas de IA están cumpliendo.

En Canadá, la dinámica se invierte: OpenAI no está comandado. Se trata de concesiones voluntarias diseñadas para impedir el tipo de legislación vinculante que en realidad limitaría su funcionamiento. Apoyar normas amplias que no tengan fuerza legal inmediata; para resistir obligaciones internas concretas que conllevan consecuencias reales. Así comienza la captura regulatoria: no por corrupción, sino por conveniencia.

Canadá tiene una influencia real aquí: un inusual consenso entre partidos de que algo tiene que cambiar, la atención pública que le ha dado un rostro humano a la gobernanza de la IA y un gobierno provincial que entiende lo que está en juego.

Pero el apalancamiento está desapareciendo. Si el gobierno federal acepta las promesas de OpenAI como respuesta suficiente, normalizará la autorregulación corporativa como punto de partida. Las futuras empresas citarán este acuerdo como precedente. La ventana para la legislación se está estrechando.

¿Qué se necesita para la administración permanente?

La respuesta que requiere Tumbler Ridge no es un seguimiento más eficaz de los usuarios. Es una arquitectura regulatoria que se ocupa de los propios sistemas.

Esto significa una legislación vinculante con umbrales legalmente definidos sobre cuándo las empresas de IA deben remitir las interacciones marcadas a las autoridades: umbrales definidos por el parlamento, desarrollados por expertos en salud mental, privacidad y aplicación de la ley, no heredados de los términos de servicio de una empresa.

Eso significa un organismo de clasificación independiente para que las interacciones señaladas sean evaluadas por profesionales equipados para distinguir la idea de la intención, responsables ante el derecho público, no ante la responsabilidad corporativa. Y eso significa responsabilidad a nivel de modelo: atención regulatoria que va desde el usuario hasta el sistema. ¿Cómo se diseñan estos modelos para responder a la creciente exposición a ideas violentas? ¿Qué obligaciones de prueba se aplican? ¿Qué requisitos de auditoría existen?

Estos temas están ausentes de las negociaciones políticas actuales, y su ausencia define los límites de lo que las promesas actuales pueden lograr.

Los compromisos de OpenAI que acompañan a Tumbler Ridge son el comienzo de la conversación, no el final. Canadá tiene buenas cartas. La pregunta es si las juega o deja que el otro lado establezca las reglas mientras la mesa aún se está construyendo.


Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo