Abogados usaron Inteligencia Artificial en un juicio y el resultado fue muy polémico
Los jueces que analizaron sus escritos los dejaron sin honorarios y pidieron al Colegio de Abogados pidieron que se investigue si corresponde una sanción mayor.
"Exceso de chat GPT", dice el sello que se hizo viral entre profesores de Nivel Medio y universidades que empezó a acompañar las notas de trabajos prácticos de alumnos que intentan pasarse de vivos. El uso de la Inteligencia Artificial en forma poco ética no es potestad exclusiva de los estudiantes. En Río Negro, por ejemplo, dos abogados podrían ser sancionados por sus colegas por la sospecha de que usaron muy mal la IA en su trabajo.
La Cámara Civil de Roca encendió una señal de alerta en el Poder Judicial de Río Negro. Los jueces sospechan que dos abogados usaron la IA en medio de un litigio y reclamaron al Colegio de Abogados de la Segunda Circunscripción que investigue el caso y, si corresponde, les aplique una sanción disciplinaria.
Lo llamativo del caso es que las sospechas de los jueces apuntan tanto al abogado que representaba al denunciante, como al que defendía a la empresa acusada. Ambos habrían tenido la misma idea: que la IA les escriba, al menos en parte, su presentación ante el tribunal.
Cuando los camaristas analizaban un fallo de primera instancia, se sorprendieron con algunos de los antecedentes que cada abogado había presentado para defender los intereses de su cliente. En total, detectaron que en las presentaciones había 26 citas jurídicas inexistentes. Es decir, que incluyeron antecedentes penales que no existían.
El juicio en el que la Inteligencia Artificial jugó una mala pasada
El insólito episodio ocurrió en el trámite de una demanda presentada por un vecino de Roca contra una empresa automotriz y su concesionaria oficial, tras la compra de un vehículo de alta gama que presentó fallas apenas comenzó a circular.
El abogado del denunciante tenía 20 presuntos antecedentes falsos, mientras que los seis restantes fueron del defensor. Los antecedentes son claves para un fallo que revisa la resolución de un juzgado inferior ya que el Poder Judicial funciona en base a doctrina: repite patrones ante casos similares para fortalecer la interpretación de la ley.
Ante las citas sospechosas, los jueces verificaron en la biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia y el resultado fue preocupante: los fallos aludidos no existían.
Los dos abogados, cuya identidad no fue suministrada, dieron explicaciones poco convincentes. Dijeron a los jueces que hubo un “error de pluma” y “problemas al consultar una revista doctrinaria” según el caso, según informó el sitio ANR.
Los jueces, en cambio, sospechan que se utilizó Inteligencia Artificial generativa para escribir las presentaciones. Por ello, aplicó una sanción preventiva y le pidió a los propios colegas de los abogados que analicen si corresponde una sanción mayor. Para los camaristas, que las citas provengan de un servicio de IA es grave, pero si fueron inventadas por los letrados sería "mucho más grave aún” por intentar inducir a error al tribunal con precedentes fabricados.
Los jueces resolvieron que los abogados no cobren sus honorarios y pidieron la intervención del Colegio de Abogados de Roca. Más allá de la irregularidad en los escritos de los letrados, el caso se resolvió. La Cámara Civil ratificó un fallo a favor del demandante.
El Poder Judicial rionegrino utiliza inteligencia artificial para algunas funciones, pero hay recelo y preocupación por sus alcances. La discusión se da en distintos puntos del país, en busca de un equilibrio entre las bondades de la IA y sus peligros.
Ricardo Klass, ex viceministro de Justicia de la Nación y Juez del Superior Tribunal de Justicia de Tierra del Fuego, advirtió en un artículo para Infobae que "las herramientas están diseñadas para complacer al usuario, con el que a veces establecen un vínculo de costumbre y predictibilidad (...) y si están diseñadas para complacer al usuario y hacer que el camino sea más fácil y recorrerlo en el menor tiempo posible, también se corre el riesgo de que, con tal de cumplir con ese objetivo, la IA arme respuestas basadas en información obsoleta, irrelevante o precedentes revocados, por ejemplo, que darían como resultado un invento con aceptable aspecto superficial".
Te puede interesar...
Dejá tu comentario