Las ‘alucinaciones’ de IA son un problema creciente para la profesión legal

Spread the love
Probablemente haya escuchado el que explota en las caras de sus creadores cuando intentan demostrar lo bueno que es.

Aquí hay un hilo rasgado de las líneas de cabeza sobre lo que sucedió cuando un gran bufete de abogados utilizó un producto de AI Bot desarrollado por Anthrope, su cliente, para ayudar a escribir el testimonio de un experto defendiendo al cliente.

No fue bien. El chatbot de Anthrope, Claude, obtuvo el título y los autores de un artículo citado en incorrecto e inyectaron errores de redacción en otros lugares. Los errores se incorporaron en la declaración cuando se presentó en la corte en abril.

Esos errores fueron suficientes para impulsar a los demandantes que demandan a los antrópicos, los editores de música que alegan que la firma de IA es alimentando letras a Claude para «entrenar» al bot, para pedirle al magistrado federal que supervisa el caso en su totalidad.

También puede convertirse en un ojo morado para el gran bufete de abogados Latham & Watkins, que representa antrópico y presentó la declaración errante.

Latham argumenta que los errores fueron intrascendentes, equivaliendo a un «error de cita honesto y no una fabricación». El fracaso de la firma en notar los errores antes de que se presentara la declaración es «», pero no debe explotarse para invalidar la opinión del experto, dijo la firma a la jueza Magistrada Susan Van Keulen de San José, quien administra la fase previa al juicio de la demanda. Los demandantes, sin embargo, dicen los errores de la declaración del experto.

En una audiencia del 13 de mayo realizada por teléfono, la propia Van Keulen expresó dudas.

«Hay un mundo de diferencia entre una cita perdida y una alucinación generada por AI, y todos en esta llamada saben eso», dijo, según una transcripción de la audiencia citada por los demandantes. (Van Keulen aún no ha dictaminado si debe mantener la declaración del experto en el registro o si golpear al bufete de abogados con sanciones).

Ese es el problema que enfrenta a los jueces cuando las presentaciones del tribunal salpicadas de serios errores e incluso fabricaciones directas, lo que los expertos en IA llaman «alucinaciones», continúan siendo presentadas en demandas.

Una lista compilada por el abogado francés y experto en datos Damien Charlotin de los tribunales federales en dos docenas de estados, así como de los tribunales de Europa, Israel, Australia, Canadá y Sudáfrica.

Es casi seguro que es un descuidado, cube Charlotin. El número de casos en los que los errores generados por IA no se han detectado es incalculable, cube: «Solo puedo cubrir casos en los que la gente quedó atrapada».

En casi la mitad de los casos, las partes culpables son litigantes pro-se, es decir, personas que persiguen un caso sin un abogado. Esos litigantes generalmente han sido tratados con indulgencia por jueces que reconocen su inexperiencia; Rara vez son multados, aunque sus casos pueden ser desestimados.

Sin embargo, en la mayoría de los casos, las partes responsables eran abogados. Sorprendentemente, en unos 30 casos que involucran a abogados, se descubrieron los errores generados por la IA o se presentaron en documentos tan recientemente como este año, mucho después de que la tendencia de los bots de IA a «alucinar» se hizo evidente. Eso sugiere que el problema está empeorando, no mejor.

«No puedo creer que las personas aún no se hayan aliviado a la concept de que el materials generado por IA está lleno de errores y fabricaciones, y por lo tanto, cada cita en una presentación debe confirmarse», cube el profesor de derecho de la UCLA, Eugene Volokh.

Los jueces han estado dejando en claro que lo han tenido aquí con citas fabricadas, referencias incorrectas a decisiones legales y citas a precedentes inexistentes generados por los bots de IA. Presentar un breve u otro documento sin certificar la verdad de sus afirmaciones objetivas, incluidas las citas a otros casos o decisiones judiciales, es una violación de la Regla 11 de las Reglas Federales de Procedimiento Civil, que hace que los abogados vulnerables a sanciones monetarias o acciones disciplinarias.

Algunos tribunales han emitido órdenes permanentes de que el uso de IA en cualquier momento en la preparación de una presentación, junto con una certificación que se ha verificado cada referencia en el documento. Al menos un distrito judicial federal tiene.

La proliferación de referencias defectuosas en las presentaciones judiciales también apunta al problema más grave con la propagación de los bots de IA en nuestra vida cotidiana: no se puede confiar en ellos. Hace mucho tiempo se hizo evidente que cuando incluso los sistemas de IA más sofisticados están desconcertados por una pregunta o tarea, llenan los espacios en blanco en su propio conocimiento al inventar las cosas.

Como otros campos usan bots AI para realizar tareas importantes, las consecuencias pueden ser graves. Muchos pacientes médicos escribieron un equipo de investigadores de Stanford el año pasado. El descubrió que incluso los bots más avanzados no podían respaldar sus afirmaciones médicas con fuentes sólidas el 30% del tiempo.

Es justo decir que los trabajadores en casi cualquier ocupación pueden ser víctimas del cansancio o la falta de atención; Pero los abogados a menudo se ocupan de disputas con miles o millones de dólares en juego, y se espera que sean especialmente rigurosos sobre la verificación de hechos.

Algunos expertos legales dicen que hay en la ley, incluso para tomar decisiones habitualmente a los jueces. Pero los abogados difícilmente pueden desconocer las dificultades para su propia profesión al no monitorear los resultados de los bots.

El primer caso de sanciones en la lista de Charlotin se originó en junio de 2023: Mata vs. Avianca, un caso de lesiones personales de Nueva York que resultó en dos abogados que prepararon y presentaron un informe authorized que fue en gran medida el producto del chatgpt Chatbot. El informe citó al menos nueve decisiones judiciales que pronto fueron expuestas como inexistentes. El caso fue ampliamente publicitado.

Uno pensaría que fiascos como este curarían a los abogados de su dependencia de los chatbots de inteligencia synthetic para hacer su trabajo por ellos. Uno estaría mal. Charlotin cree que el tono superficialmente auténtico de la producción de los bots de IA puede alentar a los abogados con exceso de trabajo o desatentos a aceptar citas falsas sin verificarlo.

«La IA es muy buena para verse bien», me dijo. Las citas legales siguen un formato estandarizado, por lo que «son fáciles de imitar en citas falsas», cube.

También puede ser cierto que las sanciones en los primeros casos, que generalmente equivalían a no más de unos pocos miles de dólares, eran insuficientes para captar la atención del bar. Pero Volokh cree que las consecuencias financieras de presentar citas falsas deberían palidecer junto a las consecuencias no monetarias.

«Las principales sanciones a cada abogado son la humillación frente al juez, frente al cliente, frente a los supervisores o socios …, posiblemente frente al abogado opuesto y, si el caso llega a las noticias, frente a futuros clientes futuros, otros abogados, and so forth.», me dijo. «Malo para negocios y mal para el ego».

El conjunto de datos de Charlotin es una lectura divertida, si mortura para los abogados involucrados. Está poblado por abogados que parecen ser totalmente ajenos al mundo tecnológico en el que viven.

El abogado que preparó la presentación de ChatGPT alucinante en el caso de Avianca, Steven A. Schwartz, más tarde testificó que estaba «operando bajo la falsa percepción de que este sitio net no podría estar fabricando casos por sí solo». Cuando comenzó a sospechar que los casos no se podían encontrar en bases de datos legales porque eran falsos, buscó tranquilidad, ¡de Chatgpt!

«¿Varghese es un caso actual?» Envió un mensaje de texto al bot. Sí, es «un caso actual», respondió el bot. Schwartz no respondió a mi solicitud de comentarios.

Otros casos subrayan los peligros de colocar la confianza de uno en la IA.

Por ejemplo, el año pasado, Keith Ellison, el Fiscal Basic de Minnesota, contrató a Jeff Hancock, profesor de comunicaciones en Stanford, para proporcionar una opinión experta sobre el peligro de materials con Ai Taked en política. Ellison defendía una ley estatal que hizo que la distribución de dicho materials en las campañas políticas un delito; La ley fue impugnada en una demanda como una infracción de la libertad de expresión.

Hancock, un experto muy respetado en los daños sociales de los profundos profundos generados por la IA (fotos, movies y grabaciones que parecen ser lo actual pero que son fabricados de manera convincente) presentó una declaración de que Ellison presentó en la corte.

Pero incluyeron tres referencias alucinadas aparentemente generadas por ChatGPT, el bot de IA que había consultado mientras lo escribía. Uno atribuido a los autores falsos un artículo que él mismo había escrito, pero no captó el error hasta que los demandantes lo señalaron.

Laura M. Provinzino, la jueza federal en el caso, fue golpeada por lo que llamó «del episodio:» El profesor Hancock, un experto acreditado en los peligros de la IA y la información errónea, ha sido víctima del llamado de la sirena de confiar demasiado en la IA, en un caso que gira en torno a los peligros de la IA, no menos «.

Eso la provocó a la ira. Las citas falsas de Hancock, ella escribió, «destroza su credibilidad con este tribunal». Al señalar que había atestiguado la veracidad de su declaración bajo la pena de perjurio, ella expulsó toda su declaración experta y se negó a permitir que Ellison presentara una versión corregida.

En A, Hancock explicó que los errores podrían haberse deslizado en su declaración cuando cortó y pasó una nota para sí mismo. Pero sostuvo que los puntos que hizo en su declaración eran válidos. No respondió a mi solicitud de más comentarios.

El 6 de febrero, Michael R. Wilner, un ex magistrado federal que se desempeña como un maestro especial en un caso federal de California contra el seguro de la granja estatal, golpeó a las dos firmas de abogados que representan al demandante con $ 31,000 en sanciones por presentar un resumen con «numerosas falsas, inexactas y engañosas citas legales».

En ese caso, un abogado había preparado un resumen del informe para los asociados asignados para escribirlo. Había usado un bot AI para ayudar a escribir el esquema, pero no advirtió a los asociados del papel del bot. En consecuencia, trataron las citas en el esquema como genuinas y no se molestaron en verificarlas dos veces.

Como sucedió, Wilner señaló: «Aproximadamente nueve de las 27 citas legales en el informe de diez páginas fueron incorrectos de alguna manera». Él eligió no sancionar a los abogados individuales: «Esta fue una debacle colectiva», escribió.

Wilner agregó que cuando leyó el informe, las citas casi lo persuadieron de que el caso del demandante period sólido, hasta que buscó los casos y descubrió que eran falsos. «Eso da miedo», escribió. Su sanción monetaria por hacer mal uso de la IA parece ser la más grande de una corte estadounidense … hasta ahora.

(Tagstotranslate) negocio

Descubre más desde Breaking News 24

Suscríbete y recibe las últimas entradas en tu correo electrónico.

ANASTACIO ALEGRIA

#NOTICIADEULTIMOMINUTO #BREAKINGNEWS24 #NOTICIADEESTADOSUNIDOS #NOTICIADEAHORA #ULTIMANOTICIA #BREAKINGNEWS24.ES PERIODISTA ANASTACIO ALEGRIA ALVAREZ

Related Posts

Flujos de dinero, los ingresos promedio aumentan dramáticamente en partes del bullicioso Valle de Coachella

Spread the love

Spread the love Como alguien que vivió y visitó a la familia en todo el Imperio Inside durante años, he visto de primera mano el rápido crecimiento que ha cambiado…

Los compradores de Los Ángeles luchan para tomar los EV a medida que terminan las exenciones de impuestos

Spread the love

Spread the love Los compradores están tomando vehículos eléctricos a medida que el tiempo se está agotando en una gran exención de impuestos para volverse verde. En el, Corinne Lawson…

Deja un comentario

Descubre más desde Breaking News 24

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo