Home Tecnología El hombre emplea AI Avatar en apelación legal, y el juez no...

El hombre emplea AI Avatar en apelación legal, y el juez no es divertido

29
0
El hombre emplea AI Avatar en apelación legal, y el juez no es divertido


Jerome Dewald se sentó con las piernas cruzadas y las manos se doblaron en su regazo frente a un panel de apelaciones de jueces del estado de Nueva York, listos para defender una reversión de la decisión de un tribunal inferior en su disputa con un antiguo empleador.

El tribunal había permitido que el Sr. Dewald, que no es abogado y se representaba a sí mismo, acompañara su argumento con una presentación de video pregrabada.

Cuando el video comenzó a reproducirse, mostró a un hombre aparentemente más joven que los 74 años del Sr. Dewald con una camisa con cuello azul y un suéter beige y de pie frente a lo que parecía ser un fondo virtual borroso.

Unos segundos en el video, uno de los jueces, confundidos por la imagen en la pantalla, le preguntó al Sr. Dewald si el hombre era su abogado.

“Generé eso”, respondió el Sr. Dewald. “Esa no es una persona real”.

El juez, el juez Sallie Manzanet-Daniels del primer departamento judicial de la División de Apelaciones, se detuvo por un momento. Estaba claro que estaba disgustada con su respuesta.

“Hubiera sido bueno saber que cuando hiciste tu aplicación”, le espetó.

“No aprecio que me engañen”, agregó antes de gritarle a alguien que apague el video.

Lo que el Sr. Dewald no reveló fue que había creado el avatar digital utilizando software de inteligencia artificial, el último ejemplo de IA que se arrastraba al sistema legal de los Estados Unidos de maneras potencialmente preocupantes.

El audiencia en la que el Sr. Dewald hizo su presentaciónel 26 de marzo, fue filmado por cámaras del sistema judicial e informado anteriormente por La prensa Association.

Alcanzado el viernes, el Sr. Dewald, el demandante en el caso, dijo que había sido abrumado por la vergüenza en la audiencia. Dijo que había enviado a los jueces una carta de disculpa poco después, expresando su profundo arrepentimiento y reconociendo que sus acciones habían “engañado inadvertidamente” a la corte.

Dijo que había recurrido a usar el software después de tropezar con sus palabras en procedimientos legales anteriores. El uso de IA para la presentación, pensó, podría aliviar la presión que sintió en la sala del tribunal.

Dijo que había planeado hacer una versión digital de sí mismo, pero había encontrado “dificultades técnicas” al hacerlo, lo que lo llevó a crear una persona falsa para la grabación.

“Mi intención nunca fue engañar, sino presentar mis argumentos de la manera más eficiente posible”, dijo en su carta a los jueces. “Sin embargo, reconozco que la divulgación y la transparencia adecuadas siempre deben tener prioridad”.

Un empresario autodescrito, el Sr. Dewald estaba apelando una decisión anterior en una disputa por contrato con un ex empleador. Finalmente presentó un argumento oral en la audiencia de apelación, tartamudeando y tomando pausas frecuentes para reagruparse y leer comentarios preparados de su teléfono celular.

Tan avergonzado como podría estar, el Sr. Dewald podría consolarse en el hecho de que los abogados reales se han metido en problemas por usar IA en la corte.

En 2023, un abogado de Nueva York enfrentó graves repercusiones después de él CHATGPT usado para crear un informe legal plagado de opiniones judiciales falsas y citas legales. El caso mostró los defectos para confiar en la inteligencia artificial y reverberó durante todo el comercio legal.

El mismo año, Michael Cohen, ex abogado y reparador del presidente Trump, proporcionó a su abogado citas legales falsas que había obtenido de Google Bard, un programa de inteligencia artificial. El Sr. Cohen finalmente solicitó la misericordia del juez federal que presidió su caso, enfatizando que no sabía que el servicio de texto generativo podría proporcionar información falsa.

Algunos expertos dicen que la inteligencia artificial y los modelos de idiomas grandes pueden ser útiles para las personas que tienen asuntos legales con los que lidiar pero que no pueden pagar los abogados. Aún así, los riesgos de la tecnología permanecen.

“Todavía pueden alucinar, producir información de aspecto muy convincente” que en realidad es “falso o sin sentido”, dijo Daniel Shin, subdirector de investigación del Centro de Tecnología Legal y de la Corte de la Facultad de Derecho de William & Mary. “Ese riesgo debe abordarse”.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here