Juez critica a abogado por utilizar IA después de que citó casos “completamente ficticios” en su apelación de asilo

Un abogado de inmigración podría enfrentar una investigación disciplinaria después de que un juez dictaminara que utilizó herramientas de inteligencia artificial como ChatGPT para preparar su investigación legal.

Un tribunal escuchó que un juez quedó desconcertado cuando Chowdhury Rahman presentó sus alegaciones, que incluían citar casos que eran “completamente ficticios” o “totalmente irrelevantes”.

Un juez determinó que el Sr. Rahman también había intentado “ocultar” esto cuando fue interrogado y “ha hecho perder” el tiempo al tribunal.

El incidente ocurrió mientras Rahman representaba a dos hermanas hondureñas que solicitaban asilo en el Reino Unido porque estaban siendo atacadas por una violenta banda criminal llamada Mara Salvatrucha (MS-13).

Después de llegar al aeropuerto de Heathrow en junio de 2022, solicitaron asilo y dijeron durante las entrevistas de selección que la pandilla quería que fueran “sus mujeres”.

También afirmaron que miembros de pandillas habían amenazado con matar a sus familias y los habían estado buscando desde que abandonaron el país.

Una de las autoridades citadas para respaldar su caso había sido previamente desplegada erróneamente por ChatGPT (AP)

Una de las autoridades citadas para respaldar su caso había sido previamente desplegada erróneamente por ChatGPT (AP)

En noviembre de 2023, el Ministerio del Interior rechazó su solicitud de asilo, afirmando que sus relatos eran “inconsistentes y no estaban respaldados por pruebas documentales”.

Apelaron el asunto ante el tribunal de primera instancia, pero la solicitud fue desestimada por un juez que “no aceptó que los recurrentes fueran objeto de atención adversa” por parte de la MS-13.

Luego se apeló ante el Tribunal Superior, con el Sr. Rahman actuando como abogado. Durante la audiencia, argumentó que el juez no había evaluado adecuadamente la credibilidad, había cometido un error de derecho al evaluar las pruebas documentales y no había considerado el impacto de la reubicación interna.

Sin embargo, estas afirmaciones fueron igualmente rechazadas por el juez Mark Blundell, quien desestimó la apelación y dictaminó que “nada de lo dicho por el Sr. Rahman oralmente o por escrito establece un error de derecho por parte del juez”.

Sin embargo, en una posdata de la sentencia, el juez Blundell hizo referencia a “problemas importantes” que habían surgido de la apelación en relación con la investigación jurídica del Sr. Rahman.

De las 12 autoridades citadas en el recurso de apelación, el juez descubrió al leer que algunas ni siquiera existían, y que otras “no sustentaban las proposiciones de derecho por las que fueron citadas en el fundamento”.

Al investigar esto, descubrió que el Sr. Rahman parecía “desconocido” con los motores de búsqueda legales y era “constantemente incapaz de entender” hacia dónde dirigir al juez en los casos que había citado.

Rahman dijo que había utilizado “varios sitios web” para realizar su investigación, y el juez señaló que uno de los casos citados había sido recientemente utilizado erróneamente por ChatGPT en otro caso legal.

El juez Blundell señaló que, dado que Rahman “parecía no saber nada” acerca de ninguna de las autoridades que había citado, algunas de las cuales no existían, todas sus presentaciones eran, por lo tanto, “engañosas”.

“Es abrumadoramente probable, a mi juicio, que el señor Rahman haya utilizado Inteligencia Artificial generativa para formular los motivos de apelación en este caso, y que haya intentado ocultarme ese hecho durante la audiencia”, dijo el juez Blundell.

“Ha sido llamado al Colegio de Abogados de Inglaterra y Gales, y simplemente no es posible que haya malinterpretado todas las autoridades citadas en los motivos de apelación en la medida que he expuesto anteriormente”.

Concluyó que ahora estaba considerando denunciar al Sr. Rahman ante la Junta de Normas del Colegio de Abogados.

review