
Esas fueron las palabras textuales de un cliente cuando tuvimos nuestra primera llamada para asesorarle en la elaboración de los términos de servicio de su plataforma SaaS. En lugar de reaccionar de forma defensiva ante lo que otros colegas podrían interpretar como una amenaza de la IA a su trabajo, opté por ser empático y curioso.
Primero que nada, las empresas de tecnología, especialmente proveedores más pequeños y start-ups, relegan los contratos de sus servicios a un segundo plano. Esto es normal, pues la empresa está enfocada en atraer clientes, participar en rondas de inversión, y perfeccionar su servicio. Si los contratos con sus clientes son robustos, si los comprometen a acciones que no pueden cumplir, o si los dejan desprotegidos, eso es secundario en las primeras etapas.
Por otro lado, pensé que, si yo fuese un emprendedor tecnológico, haría exactamente lo mismo: ahorrar costos de abogado, que no son baratos, y acudiría a la sabiduría de ChatGPT, Perplexity, Claude, Gemini o cualquiera de los otros chatbots de IA que abundan hoy en día. Al final, es mejor tener algo que nada, y el resultado que me genere el sistema será suficientemente razonable como para protegerme, ¿no?
Pues bien, antes de decirles lo que terminamos pactando con este cliente, quiero contarles dónde están los potenciales riesgos de depender en un 100% de estos sistemas para redactar contratos legales, en especial términos de servicio y políticas de privacidad para plataformas SaaS:
ChatGPT y sus competidores fueron entrenados con datos primordialmente de fuentes extranjeras que no reflejan necesariamente las regulaciones locales o regionales. Por lo tanto, lo que recomienden ChatGPT o sus pares puede no ser aplicable al ámbito geográfico en que opera la empresa.
Cuando se ofrece una solución SaaS en diferentes países, cada uno de éstos puede tener distintas regulaciones sobre protección de datos, ciberseguridad y propiedad intelectual. Las herramientas de IA suelen encontrar dificultad incorporando el cumplimiento de estas leyes diferentes en los contratos SaaS.
ChatGPT y sus competidores suelen encontrar problemas al relacionar las leyes y regulaciones, con la jurisprudencia (lo que interpretan los Tribunales sobre esas leyes en sus sentencias) y los términos contractuales. ¿Qué priva en caso de conflicto? ¿Siempre opera esa prevalencia o hay excepciones? ¿Qué pasa si ChatGPT incluye dentro de mis términos de servicio cláusulas que por ley son nulas o anulables? ¿Sabe ChatGPT lo que han dicho los tribunales costarricenses o mexicanos sobre Acuerdos de Nivel de Servicio (SLA’s), garantías o uso de datos en contratos tecnológicos?
La IA ha demostrado no ser muy buena subsumiendo hechos complejos en la letra de la ley. Recordemos que el derecho es un conjunto de normas que involucran la operación lógica de subsunción: “Si ocurre X, entonces la consecuencia es Y”. Pero los hechos (X) son complejos por naturaleza y las leyes (Y) son indeterminadas, es decir, son un conjunto de palabras abstractas que requieren interpretación. Por eso, por ejemplo, determinar si hubo un incumplimiento contractual en la realidad, no suele ser un análisis sencillo reductible a una fórmula matemática, como sucede actualmente con la IA.
El riesgo de sesgo, imprecisión o “alucinación” es intrínseco: la IA comete errores, imprecisiones y falsedades, lo cual, en un campo como el derecho en el que están involucrados intereses tan importantes para las personas, demanda una supervisión e intervención significativa de los abogados. Sino, que lo digan los abogados que fueron sancionados en Estados Unidos por incluir en un escrito judicial, precedentes falsos inventados por ChatGPT.
Las anteriores son solo algunas las razones objetivas de porqué depender enteramente de una IA para temas contractuales puede salir caro. Pero la principal razón por la que, por ejemplo, este cliente acudió a nosotros aún después de haber redactado una versión de sus términos con ChatGPT, es más humana y subjetiva: CONFIANZA.
Las empresas y las personas que las dirigen, quieren un sello de garantía de que un ser humano especializado en leyes para el sector tecnológico, va a proteger su negocio. Si bien al inicio puede ser un tema relegado, conforme el negocio va creciendo, también crece la demanda de los clientes y del mercado por proveedores tecnológicos serios, con contratos robustos que protejan adecuadamente la relación. Eso solo se logra con asesoría legal de valor.
Al final, con nuestro cliente acordamos que utilizaríamos de base lo generado con IA, de forma que no tuviéramos que iniciar de cero. Además, pedimos autorización al cliente para consultar con 2 chatbots diferentes su criterio sobre algunas cláusulas en particular, las cuales contrastamos, verificamos con vista en la ley y modificamos para robustecerlas. La colaboración humano-máquina será pan de todos los días en los próximos años, en todas las industrias. El secreto está en explotar al máximo y de forma responsable esa colaboración, al tiempo que damos valor agregado y CONFIANZA a nuestros clientes.
*Este artículo fue redactado sin ningún tipo de apoyo en herramientas de IA.

留言