Home / Area / DOCTRINA EN DOS PÁGINAS Diario Constitucional y Derechos Humanos Nro 157 – 10.07.2017


DOCTRINA EN DOS PÁGINAS

Inteligencia Artificial y derechos humanos* (Parte II)**

Por Juan Gustavo Corvalán***

I.- Introducción. II.- Inteligencia humana, Inteligencia Artificial y algoritmos inteligentes. III. Concepto y función de la Inteligencia Artificial. IV. Inteligencia Artificial basada en un enfoque de derechos humanos. V. Algunos principios jurídicos para una Inteligencia Artificial que respete y promueva la vigencia del Estado constitucional y la efectividad de los derechos humanos. VI. Conclusión.

IV. Inteligencia Artificial basada en un enfoque de derechos humanos. En el corto plazo existen múltiples desafíos para asegurar la compatibilidad del desarrollo de la Inteligencia Artificial (en adelante, IA) con el derecho doméstico de los Estados y con el derecho internacional vigente. Se usan algoritmos inteligentes para captar todos nuestros datos, para recomendarnos qué buscar, a dónde ir, qué hacer, cómo llegar más rápido a un determinado lugar, etc. Y la primer paradoja se advierte por el hecho de que la IA no puede ofrecer una explicación detallada acerca de cómo se llega a un determinado resultado. Es decir, en principio no puede establecerse cómo el algoritmo evalúa y pondera los datos y la información que procesa, lo que genera el fenómeno llamado “caja negra”[1].

Pero además, en el ámbito jurídico, la inteligencia artificial está siendo usada para “ayudar” a resolver cuestiones penales. ¿Quién puede ser desviado a programas de tratamiento de drogas?; ¿quién puede ser liberado antes del juicio?; ¿quién debe ser enviado a la cárcel por el tiempo más largo posible?; ¿quién debe obtener una sentencia indulgente? En diversos estados de los Estados Unidos de Norteamérica, se han desarrollado algoritmos inteligentes que permitan ayudar a responder esas preguntas. Así, durante el año 2016 se aprobaron leyes para que los jueces reciban evaluaciones de riesgo y datos de reincidencia en la sentencia a partir de algoritmos inteligentes, aunque en ciertos casos lo permiten pero no lo ordenan.  Y en estos casos, el uso de esta IA puede violar el principio de igualdad y de no discriminación, porque las predicciones que realizan se basan en un código fuente que toma en consideración distinciones de raza, género, entre otras. Por ejemplo, en el caso “State vs. Loomis[2] el apelante sostuvo que un algoritmo inteligente usaba incorrectamente las evaluaciones de género[3].

Podríamos hacer una larga lista de cuestiones problemáticas, pero estas breves muestras ponen en evidencia la complejidad y dificultad de abordar el fenómeno de la IA. Como no podremos profundizar en todos estos aspectos, nuestra propuesta comienza por los derechos humanos. El “modelo de derechos humanos” se cristaliza a partir de un “paradigma protectorio” que surge de los pactos internacionales, y que en esencia se basa en asignar los siguientes rasgos a los derechos esenciales de la persona humana: igualdad, y su carácter “inalienable” o “inderogable”. Existe una vinculación directa entre estos derechos, la dignidad humana, la paz, la protección de las minorías, de los más vulnerables o de los más débiles[4]. Es un esquema por el que se obliga a los Estados y a la comunidad internacional a garantizar la efectividad de derechos, principios y reglas que se encuentran plasmados en las constituciones, en los pactos internacionales y en las leyes domésticas[5]. Sobre esta plataforma, para que el desarrollo de la IA sea compatible con un “modelo de derechos humanos”, es preciso impulsar una regulación que incorpore una serie de principios que enunciamos a continuación.

V. Algunos principios jurídicos para una Inteligencia Artificial que respete y promueva la vigencia del Estado constitucional y la efectividad de los derechos humanos. Encuadrar a la IA en el marco del Estado constitucional presupone enfocar su diseño, desarrollo y uso a partir de respetar la dignidad humana y los derechos humanos. Se trata, básicamente, de hacer más robusto el sistema de protección a partir de incorporar al bloque de juridicidad una serie de principios generales tendientes a regularla. Veamos brevemente tres grandes principios.

                 Autodeterminación algorítmica. La autodeterminación es un derecho fundamental que se deriva de la dignidad de la persona humana. Se trata de asegurar el “libre desarrollo de la personalidad”, a partir de reconocer la autodeterminación informativa que se orienta a garantizar el derecho a elegir –asociado a la libertad de información–, el “derecho a saber”, al “conocimiento” y a la “autorregulación de la información”[6]. Sobre esta base, los Estados y la comunidad internacional, responsablemente, deben invertir y desplegar los máximos esfuerzos de toda índole para que se pueda garantizar la autodeterminación humana frente al uso de algoritmos inteligentes. Como la IA intermedia cada vez más entre los datos/información y las decisiones de las personas, resulta indispensable proteger sus derechos a partir de promover el respeto de los principios de necesidad, finalidad, proporcionalidad y pertenencia de los datos personales[7].

            Máxima Transparencia algorítmica. El diseño, desarrollo y uso de la IA debe ser transparente y abierto. La transparencia algorítmica se vincula con la prohibición de la existencia de “cajas negras” en los algoritmos o la existencia de fallas, frente a daños o lesiones que puedan causar[8]. Es decir, la inteligencia artificial debe ser “transparente” en sus decisiones, lo que significa que se pueda inferir o deducir una “explicación entendible” acerca de los criterios en que se basa para arribar a una determinada conclusión, sugerencia o resultado.

            Principio de no discriminación algorítmica. El diseño y/o implementación de los algoritmos inteligentes deben respetar el principio de no discriminación, que consiste en impedir que las máquinas inteligentes –basadas en sistemas de IA– procesen la información o los datos bajo sesgos o distinciones frente a los seres humanos, por motivos de raza, color, sexo, idioma, religión, opinión política o de otra índole, origen nacional o social, posición económica, nacimiento o cualquier otra condición social (art. 2, inc. 2, Pacto de los Derechos Económicos Sociales y Culturales).

VI. Conclusión. Impulsar un marco normativo regulatorio vinculado al desarrollo de la IA puede asemejarse al fenómeno que se dio a partir del surgimiento de las Tecnologías de la Información y de la Comunicación (TIC) en el ámbito de la Organización de Naciones Unidas (ONU)[9]. En definitiva, esta innovación tecnológica se produce por la optimización artificial del procesamiento de información. A nuestro entender, la tarea de hacer compatible la IA con los derechos humanos se presenta como el desafío más complejo e indispensable de los próximos años, si tenemos en cuenta la configuración incipiente de dos escenarios: por un lado, cómo garantizar la intervención humana frente a las decisiones o predicciones de algoritmos inteligentes, respetando los principios desarrollados en el punto anterior. Por otro lado, si los expertos en protección de datos están reflexionando acerca de la intervención humana en relación con los algoritmos[10], entonces, hay que trabajar sobre la siguiente cuestión: cuánta intervención del ser humano resulta necesaria para que el resultado del procesamiento de información y de los datos sea legítimo, respetuoso y promotor de la efectividad de los derechos de las personas.

[*] El presente es un fragmento y una síntesis de un artículo a publicarse en el Consejo de Estado Francés, en la sección estudios del presente año; a la vez, es una breve muestra de una investigación más amplia, vinculada al impacto de las nuevas tecnologías en el derecho público.

[**] Corresponde a la continuación del artículo publicado en el Diario Nº 156 (03.07.2018):

[***] Doctor en Ciencias Jurídicas (Universidad del Salvador). Postdoctorando en la Universidad de Paris 1 Pantheón-Sorbonne, Francia. Profesor de Derecho Administrativo de la Universidad de Buenos Aires. Juez Contencioso Administrativo y Tributario de la Ciudad Autónoma de Buenos Aires. Actualmente se desempeña como Fiscal General Adjunto en lo Contencioso Administrativo y Tributario ante el Tribunal Superior de Justicia de la Ciudad Autónoma de Buenos Aires.

[1] Se llama sistema de “caja negra” a la herramienta computacional en la que uno entiende los datos ingresados y los resultados, pero no entiende el procedimiento subyacente. Aquí el código es inescrutable porque el programa “evoluciona” y los humanos no pueden entender el proceso que siguió la programación para lograr una solución determinada. Véase, Barrat, James, Nuestra invención final, p. 92, Paidós, México, 2014.

[2]  Corte Suprema de Wisconsin, “Estado de Wisconsin v. Eric L. Loomis”, 13 de julio de 2016, disponible en:

 https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690, consultado el 21/06/2017.

[3] Ampliar en Corte Suprema de Wisconsin, “Estado de Wisconsin v. Eric L. Loomis”, 13 de julio de 2016, véase especialmente considerandos 17, 28, 34, 51, 93 y 94.

[4]  Ferrajoli, Luigi, “Sobre los derechos fundamentales”, en Teoría del neoconstitucionalismo, pp. 73-75, Trotta, Madrid, 2007.

[5] Sin embargo, como afirma Charles Beitz, no resulta plausible encontrar un fundamento único o formular una lista de derechos. Beitz, Charles R., La idea de los derechos humanos, pp. 141-142 y 244, op. cit.

[6]  Pitschas, Rainer, Derecho administrativo de la Información, ps. 226, 227 y 236, Innovación y Reforma en el Derecho Administrativo, Global Law Press, 2ª ed., Sevilla, 2012.

[7]  Sobre estos principios, véase Rodotá, Stefano, El derecho a tener derechos, Trotta, Madrid, 2014, p. 182.

[8] Como se afirma en uno de los 23 principios de Asilomar, si un sistema de IA causa daño, debería ser posible determinar por qué (principio 7, denominado “transparencia en la falla”).

[9] Por ejemplo, desde la UNESCO se incentiva a la creación de un entorno legislativo propicio en el ámbito de las TIC. En la misma línea, la ONU sostiene que hay que apoyar el desarrollo de las tecnologías, la investigación e innovación nacional, garantizando un entorno normativo propicio a la diversificación industrial y la adición de valor a los productos básicos. Además, los Estados se deben abstener de utilizar la tecnología de la información y las comunicaciones en contravención del derecho internacional. Véase, Asamblea General, Resolución Nº A/71/307, 05/08/2016, considerando 8, p. 4; Asamblea General, Resolución Nº A/RES/70/1, 21/10/2015, considerando 9.b, p. 23 y Asamblea General, Resolución Nº A/RES/71/101 A-B, 23/12/2016, considerando 4, p. 4.

[10] Rodotá, Stefano, El derecho a tener derechos, p. 302, op. cit.

DESCARGAR ARTÍCULO