IA
Primer sentencia argentina que marca un límite ético al uso de IA en la abogacía
El fallo ordenó investigar la conducta de un letrado que presentó jurisprudencia inexistente, obtenida mediante un chatbot de IA generativa.

Hace tan solo unos días, en Agosto de 2025, la Cámara de Apelación en lo Civil y Comercial de Rosario dictó lo que puede considerarse la primera sentencia en Argentina que pone en el centro del debate jurídico la utilización de inteligencia artificial por parte de un abogado.
En el caso “Giacomino c/ Monserrat” (CUIJ 21-11893083-2) no solo resolvió una cuestión procesal vinculada al incumplimiento de un acuerdo transaccional, sino que marcó un punto de inflexión ético y profesional: se ordenó la vista al Colegio de Abogados de Rosario para que investigue la conducta del letrado que presentó jurisprudencia inexistente, obtenida mediante un chatbot de IA generativa, sin cotejar la veracidad de las fuentes.
El momento clave del fallo se produjo cuando el tribunal, de oficio; es decir, sin que lo pidiera ninguna de las partes del juicio, ante la imposibilidad de verificar las citas jurisprudenciales aportadas, dictó una medida para mejor proveer. A través de ésta solicitó, al abogado, que identificara las fuentes.
La respuesta fue reveladora: las sentencias citadas no existían, habían sido generadas por un sistema de inteligencia artificial.La Cámara lo destacó con claridad: aún actuando de buena fe, el deber profesional exige cotejar celosamente las fuentes.
No basta la confianza en la herramienta, ni el alegato de desconocimiento técnico: el control humano es indelegable. Este acto jurisdiccional —actuar de oficio, sin esperar que la contraparte lo objete— marca un estándar elevado de vigilancia ética desde los tribunales.
Además, se expide sobre un tema no menor, establece la idea de que el consentimiento informado al cliente del uso de herramientas de i.a. , ni siquiera puede exonerar al abogado de esa obligación. Afirma el tribunal que “no puede haber consentimiento válido alguno que releve a un letrado de su deber de cotejar las fuentes en las que basa sus posiciones jurídicas”.
Esto constituye un precedente inédito en la abogacía. Mientras que en el ámbito médico el consentimiento informado se funda en la autonomía del paciente y delimita los riesgos que éste decide aceptar en el ejercicio de su derecho de autonomía, la situación es radicalmente distinta en la abogacía: la deontología profesional, anclada en normas éticas y morales, no admite renuncia. El abogado no puede trasladar su deber de actuar con probidad, veracidad, buena fe y diligencia al cliente, porque esa obligación forma parte de la esencia misma de la profesión.
El tribunal citó expresamente las Normas de Ética Profesional del Colegio de Abogados de Rosario, donde la regla de probidad exige al abogado evitar afirmaciones inexactas, citas incompletas o contrarias a la verdad. Y recordó que la IA generativa, por su propia naturaleza, produce “alucinaciones”, es decir, inventa información plausible pero inexistente.
El fallo argentino se suma a una lista de antecedentes internacionales. Como el famoso caso Avianca en Estados Unidos, que se volvió célebre en 2023, cuando dos abogados fueron multados por presentar jurisprudencia inexistente generada por ChatGPT. La diferencia, en Argentina, además del llamado de atención judicial, se decidió anoticiar al Colegio de Abogados para una posible investigación ética.
La conclusión es contundente: el uso irreflexivo de estas herramientas compromete la lealtad procesal y la confianza pública en la profesión. El abogado no puede delegar su rol crítico en un algoritmo, porque es esa capacidad humana de discernir, verificar y contextualizar lo que lo define como profesional. Es un salto cualitativo: la cuestión ya no se limita a lo procesal, sino que se eleva al plano disciplinario y deontológico.
No se impone sanción directa al letrado, pero deja un llamado de atención con efectos institucionales: ordenar al Colegio de Abogados de Rosario que tome medidas para prevenir la repetición de estas conductas. Allí se abre la oportunidad para que los colegios e institutos profesionales elaboren guías de buenas prácticas sobre el uso de IA en la profesión legal. Como las ya existentes en el Colegio Público de Abogados de Capital Federal.
Desde nuestro Instituto, nos proponemos elevar esas buenas prácticas, promoviendo lineamientos que equilibren innovación y ética. Transparencia: declarar cuándo se usa IA. Verificación: cotejar siempre la información generada. No delegación: mantener el control humano en cada pieza procesal. Formación: capacitar a los colegas en riesgos y alcances de estas herramientas. Como se propugna hoy en la Diplomatura en Legaltech e IA lanzada desde nuestro propio Colegio de Abogados y Procuradores de Neuquen en coordinación con la Universidad Nacional del Comahue.
Este fallo deja una huella: el derecho argentino empieza a trazar un camino claro frente a la inteligencia artificial en la práctica profesional. La enseñanza es sencilla pero poderosa, la tecnología puede asistir, pero nunca reemplazar la responsabilidad del abogado. Un recordatorio de que lo que hace a la abogacía una profesión no es el acceso a herramientas, sino la capacidad de discernir, verificar y responder con probidad.Un mensaje que no solo interpela a los abogados, sino a todas las profesiones que hoy enfrentan el desafío de integrar la IA sin perder su esencia humana.*Directora del Instituto de Derecho e IA del Colegio de Abogados y Procuradores de Neuquen.