Skip to main content

Un empresario usó un avatar virtual para superar sus problemas de expresión y la jueza lo acusó de convertir el juicio en un anuncio publicitario.

El pasado 26 de marzo de 2025, Jerome Dewald, un empresario de 74 años, sorprendió a la sala del Tribunal de Apelaciones del Estado de Nueva York al presentar sus argumentos mediante un avatar generado por inteligencia artificial (IA). Dewald, fundador de una startup que busca «revolucionar la auto-representación legal con IA», utilizó este método sin informar previamente al tribunal, lo que provocó una reacción inmediata de la jueza Sallie Manzanet-Daniels, según ha informado The Verge.

Durante la audiencia, al reproducirse el video del avatar, la jueza interrumpió rápidamente para cuestionar la identidad del presentador. Dewald admitió que había generado el avatar utilizando la plataforma Tavus, explicando que lo hizo debido a dificultades personales para hablar durante un largo periodo de tiempo. Sin embargo, la jueza Manzanet-Daniels expresó su descontento por no haber sido informada previamente, señalando que no apreciaba ser engañada y que el tribunal no sería utilizado como plataforma para promocionar negocios.

Dewald posteriormente se disculpó con el tribunal, indicando que no tenía intención de causar daño y que creía que el avatar comunicaría su argumento de manera más efectiva. Este caso refleja la necesidad de establecer límites claros y regulaciones en la integración de herramientas de IA en el ámbito legal, especialmente cuando su uso puede afectar la integridad y transparencia de los procedimientos judiciales.

Usos cuestionables de la IA en los juicios

A veces, la justicia simplemente se topa con un mal uso de la IA. En España, en septiembre el Tribunal Constitucional sancionó a un abogado que había citado hasta 19 sentencias inventadas por «faltar al respeto» al tribunal. Aunque el abogado alegó que las citas falsas fueron producto de una “desconfiguración” de su base de datos de jurisprudencia, los magistrados desestimaron esta explicación al no aportar pruebas que la respaldaran. Su origen podría estar perfectamente en el mal uso de la IA, ya que a veces puede ‘alucinar’ cuando se le solicita citas textuales. Los magistrados insistieron en que los abogados tienen la responsabilidad de verificar sus escritos antes de presentarlos. 

En 2023, precisamente, dos abogados y un bufete fueron sancionados por presentar investigaciones legales ficticias generadas por ChatGPT. Asimismo, en febrero de 2025, la empresa DoNotPay, que se promocionaba como el «primer abogado robot del mundo», fue multada con 193.000 dólares por la Comisión Federal de Comercio (FTC) por hacer afirmaciones engañosas sobre las capacidades de su IA legal.

A medida que la IA continúa avanzando y encontrando aplicaciones en diversos sectores, es esencial que el sistema judicial evalúe cuidadosamente cómo estas tecnologías pueden ser incorporadas sin comprometer los principios fundamentales de la justicia y la representación legal adecuada.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Adrián Soler

Periodista por la Universitat Pompeu Fabra de Barcelona. Soy especialista en IA, tecnología y formador en comunicación. Reflexiono sobre cómo los algoritmos moldearán nuestro oficio.

Dejar un comentario