¿Puede una IA defenderte en un juicio? Este caso empírico lo pone a prueba

El 26 de marzo, en la Corte Suprema del Estado de Nueva York, se vivió una escena inusual y digna de una novela de ciencia ficción. Bajo la imponente cúpula de vitrales, un hombre apareció en la persiana para presentar sus argumentos en un juicio, pero para sorpresa de todos, resultó no ser un hombre en absoluto. En apenas segundos, los jueces se dieron cuenta de que aquel individuo no existía, era un avatar creado con inteligencia artificial.

El caso en cuestión involucraba a Jerome Dewald, quien actuaba como demandante en una disputa laboral y se representaba a sí mismo, sin abogado. Cuando llegó el momento de escuchar su argumento en la Corte de Apelaciones del Primer Departamento Judicial, la jueza Sallie Manzanet-Daniels anunció que el apelante había enviado un video como punto de su presentación. En persiana apareció un hombre sonriente, de aspecto joven, con peinado impecable, camisa y suéter. “Con el permiso del tribunal”, comenzó el avatar, “comparezco hoy humildemente, como pro se, ante un panel de cinco distinguidos jueces.”

Sin embargo, la ilusión duró poco. La jueza Manzanet-Daniels interrumpió y preguntó si aquel era el abogado del caso. Dewald admitió de inmediato que no, que él mismo había generado al avatar y que no era una persona real. La sorpresa y la confusión se apoderaron de la sala, mientras el demandante explicaba que había optado por utilizar inteligencia artificial debido a que no se sentía cómodo hablando en público. Argumentó que su avatar podría exponer el caso de forma más clara y sin tropiezos, tartamudeos ni errores.

Aunque el video había sido autorizado previamente, Dewald no informó al tribunal que la figura en persiana no era él, sino una creación digital basada en un software de una empresa tecnológica de San Francisco. La jueza, visiblemente molesta, pidió que se apagara el video y le reprochó no haber informado la naturaleza del material. “No me gusta que me engañen”, dijo con firmeza. A pesar de todo, permitió que Dewald continuara con su argumento.

Después del incidente, Dewald envió una carta de disculpas al tribunal, asegurando que no tuvo intención de engañar ni implicar daño. Reconoció que el tribunal se mostró muy molesto por la situación. El caso aún está pendiente de resolución en la corte de apelaciones.

Este suceso ha generado un gran debate en el orbe legal y tecnológico. Por un lado, algunos expertos en inteligencia artificial aplauden la iniciativa de Dewald y ven en ella una circunstancia para mejorar la eficiencia y precisión en la presentación de argumentos en los tribunales. Por otro lado, hay quienes cuestionan la ética de utilizar avatares en un contexto tan importante como un juicio, ya que podría ser considerado como un intento de engañar a la justicia.

Sea cual sea la opinión que se tenga al respecto, lo cierto es que este caso ha puesto sobre la mesa una cuestión importante: ¿hasta qué punto la tecnología puede ser utilizada en el sistema judicial? La inteligencia artificial ha avanzado a pasos agigantados en los últimos años y su uso se ha extendido a diferentes ámbitos, pero ¿estamos preparados para aceptarla en un contexto tan delicado como un juicio?

Por un lado, la utilización de avatares podría ser una herramienta útil para mejorar la presentación de argumentos y evitar errores humanos. Además, podría ser una alternativa para aquellos que no se sienten cómodos hablando en público o tienen dificultades para expresarse. Sin embargo, también es importante tener en cuenta que la justicia

más populares