Felipe de la Mata Pizaña

Imaginemos una ética jurídica para la inteligencia artificial

Debemos comenzar a imaginar las bases éticas de programación a la cual de manera irremediable deba sujetarse cualquier IA que sirva para la solución de casos jurídicos de cualquier especie, a fin de que la solución sea éticamente irreprochable.
martes, 17 de diciembre de 2024 · 15:55

El siglo XX se caracterizó por un constante desarrollo tecnológico y en particular en la robótica, pues desde que se tiene registro de los primeros robots –a finales de los años treinta– hasta la fecha ha habido una evolución enorme, pues pasamos de crearlos para un uso mecánico e industrial hasta llegar a la creación de un universo de robots digitales y de inteligencia artificial (IA).

Del nacimiento de la robótica moderna emergieron diversas preguntas sobre su comportamiento; fue así como Isaac Asimov publicó en los cincuenta una colección de relatos protagonizados por robots inteligentes, en los que postuló las conocidas “leyes de la robótica”, mismas que conforman un conjunto de principios ético-jurídicos aplicables de manera imperativa a los robots y en general a los sistemas tecnológicos inteligentes, de tal manera que se convirtieron en una guía de comportamiento de los robots para que sean seguros y puedan convivir con la humanidad.

Aún recuerdo en mis primeras lecturas de adolescencia haber leído a cabalidad en la zaga de “La Fundación” las tres primeras leyes de la robótica:

Un robot no puede dañar a un ser humano o permitir que un ser humano sea dañado.

Un robot debe obedecer las órdenes de un ser humano, excepto cuando estas órdenes sean contrarias a la primera ley de la robótica.

Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda leyes de la robótica.

Asimov, como el científico visionario que fue, se daba cuenta que la existencia de seres autónomos de carácter artificial traería conflictos éticos constantes, que tendrían que resolverse en favor de la especie humana.

Lo que hace 70 años era ciencia ficción en esta década está comenzando a dejar de serlo y, como era de esperarse, la humanidad ha ido evolucionando y con ella las tecnologías empleadas, lo que nos ha llevado al desarrollo de la IA con la que no sólo se han potencializado las capacidades humanas, sino que también las de los robots en tal magnitud que hoy no sorprende que las computadoras puedan hacer tareas que típicamente requieren de la inteligencia humana incluyendo la auto percepción, el reconocimiento de patrones y la toma de decisiones.

En ese sentido, la creación de robots puede hacerse para dañar a la humanidad, lo cual resulta inadmisible. Por eso, las leyes de la robótica sirven como inspiración para los sistemas inteligentes de hoy en día, pues su objetivo es beneficiar a la humanidad sin que le genere un daño.

Lo anterior nos conduce a que, con el uso de las tecnologías, surjan nuevos dilemas éticos ante la dificultad de seguirles el paso, de tal manera que con cada nueva tecnología se crean nuevos retos sociales, culturales, pero, sobre todo, legales.

Ello, ya que surgen debates sobre si es o no necesario establecer nuevas normas legales, éticas o simplemente modificar las ya existentes; además de causar que personas que se dedican a la abogacía nos cuestionemos sobre si es necesario adaptar la práctica legal para mantenernos en los límites permitidos cuando se usan las nuevas tecnologías.

Hoy en día que los sistemas de IA (como CHAT GPT y otros más) comienzan a ser utilizados como herramientas indispensables en la redacción de demandas, de escrituras, de contratos, de documentos de asesoría o cualquiera otro instrumento jurídico, por ahora, la redacción no implica necesariamente la solución de los casos sin la participación de los humanos que programen o carguen la información que genere el resultado.

Sin embargo, es evidente que tampoco está muy lejano el día en que la propia inteligencia artificial pueda hacer de manera eficaz las labores de juez, litigante, asesor jurídico o notario.

Seguramente en la solución de aquellos casos que se le presenten estas herramientas podrán ser más hábiles que el promedio de los abogados, en tanto que tienen a su disposición la información de la nube, la cual pueden sistematizar e integrar de manera eficiente.

Además que están en capacidad de aprender y progresar en “su criterio” con la resolución de casos que se consideren adecuadamente resueltos, de manera muy semejante a la manera del aprendizaje que sucede con la inteligencia humana.

Esto significa que está llegando el momento en que una inteligencia artificial a la que se le proporcionen los hechos de determinada problemática podría resolverlo jurídicamente de manera muy eficiente.

La pregunta es si puede resolver tales casos de manera más eficiente que los humanos; y no, no sólo me refiero a resolverlo técnicamente, ya que probablemente eso sea posible, sino al problema al que nos enfrentamos todos los días los operadores jurídicos: la solución de los conflictos en derecho implica constantemente la toma de posiciones éticas.

Ministros, jueces y magistrados. La IA en la resolución de casos jurídicos. Foto: SCJN

En ese sentido, es posible imaginar que en la solución de los expedientes prácticos pueden arrastrarse los sesgos cognitivos y éticos del programador de la misma e incluso responder a factores indeseables de discriminación humana.

Por eso me resulta evidente que la IA en la resolución de casos jurídicos debe programarse a fin de que resuelva los casos no sólo siguiendo las reglas del Derecho, sino sujetándose a factores éticos indispensables (como es priorizar la defensa y aplicación de los derechos humanos o los factores de atemperación racional de la norma).

Si la programación de la IA resulta defectuosa, sería un peligro poner los casos jurídicos a resolver en manos de estas herramientas tecnológicas.

En ese sentido, de la misma manera que hace 70 años Asimov imaginó las leyes de la robótica, con un fuerte contenido ético, como la base con la que los seres humanos podríamos interrelacionarnos de manera segura con esa tecnología, me parece evidente que debemos comenzar a imaginar las bases éticas de programación a la cual de manera irremediable deba sujetarse cualquier IA que sirva para la solución de casos jurídicos de cualquier especie, a fin de que la solución sea éticamente irreprochable.

Pero esas bases no deben responder a la ética de una sola persona (el programador), ni a la compañía o al país de creación, ya que pueden contener sesgos; sino a las necesidades de la especie humana, aunque también al contexto social dentro del cual se resuelva el caso (quizá tomar en cuenta el nacionalismo o cultura del orden jurídico del lugar donde se resuelva el caso).

Debe imaginarse una ética general aceptable para la IA, pero también una con matices culturales y sociales que sirva de base para la programación de las tecnologías que resuelvan conflictos jurídicos. De tal manera que no sean los mismos matices de resolución de todos los casos en todas las naciones, por razones evidentes.

Lo anterior no obsta para plantear nuevos problemas, ya que la ética por definición es subjetiva, así que deberá acudirse a parámetros objetivos, como pueden ser la progresividad de los derechos humanos, y el sentido de las instituciones democráticas y jurídicas en una determinada nación o regiones del país.

En razón de esto, en Estonia ya tienen jueces robots en primera instancia para asuntos menores, y con posibilidad de impugnar ante un juez humano. De igual manera, este año la Unión Europea aprobó el primer Reglamento de IA para evitar que se vulneren derechos humanos y la discriminación.

Es momento de hacernos nueva preguntas y reflexiones que respondan al reto de la IA como herramienta para resolver problemas de Derecho: ¿será más eficiente y ética una IA en la solución de casos jurídicos? ¿Podrá fundar y motivar mejor una sentencia que el más hábil de los jueces? ¿Serán útiles los notarios públicos si sus escrituras pueden llevarse a cabo por modelos de IA? ¿Los asesores jurídicos corporativos podrán competir en sus tarifas con modelos estandarizados de IA?

¿Podrán los abogados postulantes ser más efectivos y su conducta igual de razonable y ética que los resultados logrados por sistemas de litigio con IA? ¿Debemos los seres humanos confiar en una justicia impartida por la IA?

El futuro nos ha alcanzado, es un gran tiempo para estar vivo.

Comentarios