
Inteligencia Artificial y sujetos vulnerables - Prevención de riesgos y daños. Construcción de posibles soluciones
Por Tomás De PalmaSumario: I. Introducción. II. Consumidores vulnerables y su interacción con la Inteligencia Artificial. Conceptos claves. III. Sujetos vulnerables y marcos jurídicos protectorios. IV. Notas sobre la prevención de daños y posibles soluciones. V. Consideraciones finales.
I. INTRODUCCIÓN:
Como punto de partida, se propone al lector analizar la normativa de protección en defensa al consumidor y su relación con los sistemas de inteligencia artificial. En particular, se abordará el concepto de “consumidor vulnerable”, qué rol ocupa en las relaciones de consumo y cuáles son los mecanismos de protección existentes frente a contingencias en la interacción con sistemas inteligentes. Por último, abordaremos los daños que generen responsabilidad y posibles soluciones. Cabe aclarar que, por su extensión y amplitud, se exige un riguroso examen detallado de los principales ejes que forman al concepto “consumidor vulnerable”, entre ellos; menores de edad, adultos mayores, personas discapacitadas, personas en situación de pobreza, grupos étnicos, entre otros. Correspondería analizar también en forma exhaustiva y pormenorizada la situación de distintos colectivos sociales como LGTB+ y disidencias, mujeres embarazadas, grupos rurales, pueblos originarios, migrantes o turistas, que sin lugar a dudas, hubiera sobrepasado los límites del espacio y tiempo disponibles.
Una frase célebre de John F. Kennedy definió a los consumidores del siguiente modo: “ser consumidor por definición nos incluye a todos… somos el grupo económico más amplio que afecta y es afectado por cada decisión económica pública o privada, no obstante, es el único grupo importante cuyas opiniones a menudo no son escuchadas”. [2]
El concepto a tratar, según el Parlamento Europeo, se basa en la noción de vulnerabilidad en el sentido endógeno, haciendo referencia a un grupo heterogéneo y dinámico compuesto por aquellas personas consideradas de forma permanente como tales por su razón de discapacidad mental, física o psicológica, su edad, se credulidad o su género. No obstante, también se hace referencia a los consumidores que no son vulnerables permanentemente, y se declara que “todos los consumidores, en algún momento de su vida, pueden pasar a ser vulnerables debido a factores externos y a sus interacciones con el mercado, o porque experimenten dificultades para acceder a información adecuada dirigida a los consumidores y entenderla, y por tanto, precisen una protección especial.” Estos criterios de condición física, mental, etaria o social determinan a los denominados “sectores especialmente problemáticos”. [3]
La resolución 139/20 de la Secretaría de Comercio Interior de la Nación amplió el concepto de consumidor incorporando al plexo normativo argentino la figura del consumidor hipervulnerable en los siguientes términos: “…aquellos consumidores que sean personas humanas y que se encuentren en situaciones de vulnerabilidad…” y repite los criterios en referencia a estados psicofísicos y circunstancias sociales, económicas, étnicas y/o culturales que provoquen dificultades para ejercer con plenitud sus derechos como consumidores. Asimismo, podrán ser considerados hipervulnerables, aquellas personas jurídicas sin fines de lucro cuyo objeto social esté orientado a los colectivos comprendidos en la norma. En consecuencia, enumera una serie de causales que constituyen la hipervulnerabilidad:
a) Niños, niñas y adolescentes
b) Pertenecientes al colectivo LGTB+
c) Mayores de 70 años
d) Personas con discapacidad
e) Migrantes o turistas
f) Pueblos originarios
g) Asentamientos rurales
h) Barrios populares (Ley 27.453)
i) Situación socio-económica acreditada por alguno de los siguientes requisitos:
a. Jubilado/a, pensionado/a o trabajador/a en relación de dependencia que perciba remuneración bruta menor a 2 SMNV.
b. Monotributista en categoría más baja cuyo ingreso anual sea menor a 2 SMNV.
c. Beneficiario de pensión no contributiva que percibe ingreso mensual bruto menor a 2 SMVM.
d. Beneficiario de asignación por embarazo o asignación universal por hijo.
e. Monotributo social.
f. Empleados de servicio doméstico en régimen especial de seguridad social. (Ley 26.844)
g. Seguro de desempleo.
h. Pensión vitalicia por veterano de guerra de Malvinas.
i. Más en beneficio de los consumidores, el artículo 4 de la norma citada, incorpora dos nuevos principios que deben regir en todo procedimiento que involucre a un grupo hipervulnerable:
- Lenguaje accesible: implica que toda comunicación debe ser clara, coloquial, expresada en sentido llano, conciso, entendible y adecuado.
- Deber reforzado de colaboración: a fin de garantizar una adecuada y rápida composición del conflicto maximizando esfuerzos con proactividad y colaboración.
II. CONSUMIDORES VULNERABLES Y SU INTERACCION CON LA INTELIGENCIA ARTIFICIAL
Conceptos claves
Datos: documentos, cifras o información que se utiliza para entrenar un sistema de IA.
Machine learning: una técnica de programación a partir de la cual se provee a un software cientos de ejemplos acerca de un concepto con la capacidad de buscar patrones en forma autónoma.
Deep Learning: una técnica que implementa funciones estadísticas a través de redes neuronales que imitan el comportamiento del cerebro humano.
Análisis predictivo: técnicas estadísticas que analizan datos para hacer predicciones sobre eventos futuros e inciertos.
Reconocimiento de patrones: la identificación automatizada de patrones de información, por ejemplo: procesamiento de imagen o visión por computador.
Procesamiento de lenguaje natural: los sistemas utilizan, a modo de ejemplo, chatbots y asistentes de voz, los cuales son diseñados para interactuar, comprender y generar lenguaje nativo ya sea verbal o por escrito.
Visión por computador: técnicas que proveen a las computadoras o dispositivos tecnológicos la capacidad de comprender imágenes digitales o videos, por ejemplo: reconocimiento facial a partir de datos biométricos.
Con inteligencia artificial (en adelante IA) nos referimos a sistemas que muestran un comportamiento inteligente al analizar su entorno y tomar acción con cierto grado de autonomía. Son sistemas prediseñados con objetivos determinados, tienen la capacidad de hacer predicciones, recomendaciones o tomar decisiones que influencian el entorno real o virtual. Todos los sistemas inteligentes interactúan con las personas y su entorno, ya sea en forma directa o indirecta.[4]
En términos sencillos, los sistemas de IA funcionan a partir de reglas preestablecidas o aprendiendo a partir de la propia experiencia (supervisados o no supervisados), o incluso por prueba y error. Muchas aplicaciones de consumo frecuente, desde sistemas de recomendación de productos o servicios a robots inteligentes, utilizan técnicas de machine learning para reconocimiento de patrones. A través del procesamiento de patrones de información, las computadoras pueden procesar textos, voces, imágenes o videos y en consecuencia predecir, planificar, sugerir o tomar decisiones. Ejemplos de técnicas más utilizadas por aplicaciones de IA son: procesamiento de lenguaje natural (NLP), visión por computador, reglas basadas en modelos preexistentes, aprendizaje automático, técnicas de planificación, análisis predictivo y reinforcement learning (prueba y error). Estas técnicas emplean métodos estadísticos a fin de procesar enormes volúmenes de datos sobre las personas y su entorno.
La combinación de algoritmos con datos es clave para que el sistema de IA obtenga resultados efectivos. Los datos no representan la realidad por completo y los resultados del sistema de IA dependen de la calidad de los datos que se utilicen. Al mismo tiempo, los diseñadores, programadores y desarrolladores de algoritmos son quienes deciden qué algoritmos usar, y en su poder está determinar cómo se van a implementar los resultados. En este sentido, se deben incluir diversas disciplinas y puntos de vista en orden a minimizar sesgos e impactos negativos. Para reducir los sesgos en los resultados, los datos deben contemplar la diversidad de géneros, etnias, culturas y otras características de grupos que utilicen o puedan utilizar el sistema.
Veamos ahora un preludio de los sistemas automatizados y los sujetos activos o pasivos que intervienen en las relaciones de consumo digitales. Internet es una red en la que interactúan infinidad de sujetos, asumiendo diferentes roles:[5]
a) Proveedor de un servicio de acceso a internet (quien brinda el servicio de conexión)
b) Administrador de un sitio o host (quien provee un servidor con determinada capacidad de memoria)
c) Propietario de una página de internet (quien crea el contenido de un sitio o base de datos)
d) Usuarios o internautas (quienes navegan por internet a través de sitios de acceso libre o pago)
En la práctica diaria, los usuarios no interactúan con personas humanas sino que lo hacen directamente con sistemas inteligentes. De hecho, cada vez más transacciones entre consumidores y empresas, tanto como entre empresas entre sí, o entre particulares y los gobiernos son transacciones digitales en modo de autoservicio.[6]
III. SUJETOS VULNERABLES y MARCOS JURÍDICOS PROTECTORIOS.
La ley española[7] en materia de relaciones de consumo nos aporta un concepto amplio de consumidor vulnerable: “a los efectos de esta ley y sin perjuicio de la normativa sectorial en cada caso que resulte de aplicación, tienen la consideración de personas consumidoras vulnerables respecto de las relaciones concretas de consumo, aquellas personas físicas que, de forma individual o colectiva, por sus características, necesidades o circunstancias personales, económicas, educativas o sociales, se encuentran, aunque sea territorial, sectorial o temporalmente, en una especial situación de subordinación, indefensión o desprotección que les impida el ejercicio de sus derechos como personas consumidoras en condiciones de igualdad.”[8]
Situación de los menores de edad.
De antaño es que los expertos enfatizan que los niños, niñas y adolescentes están expuestos a las consecuencias del sedentarismo y la obesidad al estar consumiendo constantemente publicidad de alimentos con alto contenido en grasas, sales y azúcares. Además, son más sensibles ante las prácticas comerciales agresivas y el uso y abuso de tecnologías de la comunicación, como los smartphones, headphones, notebooks, tablets, smart tv, chats, videochats, canales de streaming, redes sociales o juegos en línea.
También pueden traer problemas para leer lo que se pone en las etiquetas de advertencia o problemas particulares para utilizar un producto que nunca antes han utilizado. Además, pueden actuar de una manera que se vean más expuestos, por ejemplo, los niños que gatean y se llevan todo a la boca. Incluso, los menores en general pueden sentirse atraídos por la apariencia de los productos entrañando un elevado riesgo en sus manos. Por supuesto que más allá de la responsabilidad de los proveedores de bienes o prestadores de servicios no hay que soslayar la responsabilidad parental en lo que respecta a los deberes de cuidado y vigilancia.
Los sistemas de IA están cambiando fundamentalmente a las comunidades del mundo y afectando a las generaciones actuales y futuras de infantes. Los niños ya están interactuando con tecnologías de IA de muchas formas diferentes, por ejemplo; integradas a juguetes, asistentes virtuales, videojuegos y software de aprendizaje adaptativo.[9] Los algoritmos brindan recomendaciones a los niños sobre qué videos o películas ver, qué noticias leer, qué música escuchar y con quien ser amigos.
Si bien la IA es una fuerza de innovación, también genera riesgos para la infancia y sus derechos como el de privacidad y seguridad. Por más que muchas redes sociales en general desaconsejan o prohíban en sus políticas de uso que sus usuarios sean menores de 13 años, la realidad es que muchos de los menores que crean sus perfiles mienten en la edad. En estos casos, la vulnerabilidad de los niños está asociada a que pueden ser acosados sexualmente (delito de grooming[10]) o sufrir bullying a través de las plataformas de internet, redes sociales, aplicaciones, chats u otros medios electrónicos.
En un precedente de la Cámara Nacional de Apelaciones en lo Criminal y Correccional, la justicia sostuvo que para el caso de una menor de tan sólo 13 años resulta admisible el control parental del acceso a internet y redes sociales. Por ende, no sería aplicable el art. 16.1 de la Convención de los Derechos del Niño, en la medida que la supuesta “injerencia arbitraria” no alude a la que legítimamente tienen los progenitores en el ejercicio de la responsabilidad parental.[11]
Situación de las personas discapacitadas.
Según un informe de la Organización Mundial de la Salud es probable que casi todas las personas experimenten alguna forma de discapacidad –temporal o permanente- en algún momento de su vida.[12]
Ya lo ha reconocido la Convención sobre los Derechos de las Personas con Discapacidad que la discriminación contra cualquier persona por razón de su discapacidad constituye una vulneración de la dignidad y el valor inherente del ser humano. También ha observado con preocupación que, las personas con discapacidad siguen encontrando barreras para participar en igualdad de condiciones con las demás en la vida social y se siguen vulnerando sus derechos humanos en todas partes del mundo. Entre otras cuestiones, este tratado, hace énfasis en el deber de los Estados de generar páginas accesibles en alusión a dispositivos técnicos y tecnologías de apoyo, incluidas las nuevas tecnologías (arts. 4. h, 9, 21).
Consumidores con discapacidad sensorial o intelectual
En estos casos se precisa que la información sea más específica y se distribuya mejor a través de todos los canales, no solo los oficiales, sino también a través de las organizaciones de consumidores y las oficinas regionales, municipales y locales, que son mucho más cercanas, visibles y accesibles.
A nivel nacional, tenemos una ley de accesibilidad web (Ley 26.653) con el objeto de garantizar la igualdad real de oportunidades y de trato especialmente para personas con discapacidad. Sin embargo, se estima que sólo un 15% de las web locales son realmente accesibles. Por ejemplo, la página web de la ANSES no es navegable para una persona que vive con discapacidad visual.[13]
En instituciones privadas también se vulneran derechos todos los días, por ejemplo, cuando no se les permite el acceso a un establecimiento con un perro de asistencia o cuando no se proveen baños, salas o corredores adaptados a una silla de ruedas.
En lo que respecta a internet, muchos sitios web y aplicaciones presentan múltiples barreras para las personas con limitaciones visuales si la computadora o el dispositivo no traducen el documento a voz o a Braille.
Un caso práctico de discriminación mediante IA.
Se trata de un algoritmo de reconocimiento de voz de un smart tv que fue adquirido por una familia en la Ciudad Autónoma de Buenos Aires. El sistema de IA opera a partir de órdenes verbalizadas que son reconocidas por un control automático (vgr. “Netflix” o “Prime Video”). El problema apareció cuando Franco, uno de los integrantes de la familia que tiene síndrome de down, intentó interactuar con el dispositivo electrónico pero el control que usa comando de voz no reconoció su dicción. Franco, quien podía comunicarse libremente con sus familiares y amigos encontró un obstáculo que le impidió comunicarse con el televisor.[14] Este caso nos demuestra cómo las nuevas tecnologías pueden excluir y crear barreras que impiden la participación plena y efectiva en la sociedad de las personas con discapacidad.
En este sentido, se ha publicado un proyecto de ley para la Cámara de Diputados de la Nación que modifica la Ley 24.240 de defensa al consumidor en sus arts. 4 y 6. El artículo cuarto exhorta a los proveedores de bienes o servicios a realizar adaptaciones o modificaciones adecuadas para garantizar el acceso a información cierta, clara y detallada frente a consumidores con discapacidad sensorial o intelectual en igualdad de condiciones que los demás consumidores. Esto implica que en caso de que el consumidor o usuario hipervulnerable no comprenda la información suministrada en soporte físico o digital, éste podrá optar de forma expresa por utilizar cualquier otro medio alternativo de comunicación que el proveedor ponga a disposición. En cuanto al artículo sexto, en relación a las cosas y servicios riesgosos, se exige señalización clara y accesible que indiquen supuestos “peligros” y, en tales casos, los proveedores deberán tener a disposición a requerimiento del consumidor un manual en formato físico, digital o audible, sobre el uso, la instalación y mantenimiento de la cosa o servicio de que se trate y brindarle adecuado asesoramiento.[15]
Situación de los adultos mayores.
No hay un criterio unívoco acerca de la edad a partir de la cual una persona ingresa en la categoría de “adulto mayor”. Algunos organismos toman a partir de los 50, 60 o 65 años. En el caso de la Organización Mundial de la Salud toma a aquellos adultos mayores de una edad superior a 60 años.
Según la Convención Interamericana de Derechos Humanos de las Personas Mayores, se ofrece la siguiente definición: “persona mayor” aquella de 60 años o más, salvo que la ley interna determine una edad base menor o mayor, siempre que esta no sea superior a los 65 años. Este concepto incluye, entre otros, el de persona adulta mayor.
Para consolidar una sociedad más igualitaria, es necesario el compromiso de los sectores públicos y privados de fomentar la alfabetización digital, con la misma importancia que se trata en niños y otros grupos vulnerables, se debe atender el problema de alfabetización en los grupos de tercera edad ya que necesitan más acompañamiento que nunca en el Siglo XXI. Clarificador en este tema ha sido Norberto Bobbio en su ensayo sobre la senectud, reflexionando acerca de la evidente marginación de los adultos mayores en una era completamente disruptiva de los paradigmas que los tenían acostumbrados. Bobbio señalaba que el mundo de los viejos era el de la memoria y la experiencia.[16] Estas cualidades han sido sustituidas por un nuevo paradigma donde sistemas inteligentes almacenan volúmenes ilimitados de información y donde la experiencia pasa a un segundo plano debido a la creciente demanda de trabajos estrictamente técnicos o personalizados.
El estatus de vulnerabilidad de los adultos mayores también puede estar vinculado a su patrimonio, ya que pueden ser engañados por medios electrónicos fácilmente. Así como el famoso “cuento del tío” que ha existido siempre con llamadas anónimas desde una cárcel o un lugar recóndito de la ciudad exigiendo dinero a cambio de un rescate, en la era digital los delincuentes o estafadores practican el phishing (pesca de datos privados por e-mail), vishing (por llamados telefónicos), smishing (por mensajería de texto), entre otras maniobras fraudulentas. Muchos de ellos intercambian comunicaciones con adultos mayores y se hacen pasar por sitios oficiales, cuentas o perfiles de confianza que en verdad son falsos, apócrifos, duplicados o inexistentes. Los farsantes digitales roban datos personales y disfrazan su verdadera identidad con fines ilegítimos o ilícitos.
En los Estados Unidos, según la encuesta anual de fraude de la Asociación de Control de Fraude de Comunicaciones (CFCA)[17], el fraude de identidad ocupó el primer lugar como método de fraude en los servicios de telecomunicaciones.
En un mundo cada vez más conectado digitalmente con 4G y despliegue de redes 5G, la combinación de ciencia jurídica y tecnologías aplicadas de IA pueden brindarnos soluciones. Con sistemas sofisticados de IA se pueden detectar anomalías de datos en tiempo real y tomar decisiones basadas en la información a medida que suceden, con lo cual esto permite anticiparse al delito y tomar medidas proactivas. Las técnicas de ML o DL pueden identificar riesgos y detectar fraudes a una escala masiva gestionando millones de datos de clientes o redes que no estarían al alcance de las capacidades de los gestores humanos.
Dado el inminente incremento de fraudes por suplantación de identidad a lo largo y a lo ancho del mundo, las oficinas privadas o públicas que utilizan técnicas de IA están perfeccionando los procesos de verificación de identidad mediante la automatización de análisis biométricos y autenticidad de documentos. Esto permite la construcción de procesos ágiles y escalables y permite a su vez establecer mayores niveles de seguridad y protección de datos personales.[18]
Si bien se presentan diversos escenarios adversos, lo cierto es que la tecnología ha sido beneficiosa para los adultos mayores en materia de acceso a la salud (telemedicina), acceso a la justicia (sistema PretorIA en la Corte Constitucional de Colombia), conectividad en tiempo real con familiares y amigos sin distancias geográficas, y todo esto, reduciendo costos, previniendo riesgos y garantizando inmediatez y eficacia en las procedimientos.
Situación de pobreza.
En el caso de los consumidores o usuarios potenciales de servicios digitales en los que, por diversos motivos, no les sea posible acceder a Internet o hacer uso de la red, implica que se los sitúa en un contexto de vulnerabilidad ya que no podrían aprovechar las ventajas del comercio online y, por lo tanto, quedarían excluidos de una parte importante del mercado interno, teniendo que pagar más por los mismos productos o servicios o quedando a merced del auxilio de privados o de una subvención estatal.
En esta caracterización se encuentran involucrados los grupos de escasos recursos, barrios populares, villas y asentamientos precarios, comunidades rurales y aborígenes, entre otros colectivos habitualmente marginados. Estos grupos son propensos a sufrir discriminaciones múltiples por cuestiones de género, edad, discapacidad, condición social, orientación sexual, enfermedad, etcétera.
Según el informe de la Secretaría de Comercio Interior de la Nación acerca de los consumidores hipervulnerables de marzo-diciembre 2020, de 3.243 reclamos ingresados en defensa al consumidor de julio a noviembre de 2020, el 42,12% de las denuncias representan al sector de vulnerabilidad socio-económica, encontrándose dicho grupo en una situación de fragilidad ampliamente superior al resto de los grupos vulnerables.[19]
Brecha digital
En cuanto a las inequidades existentes es importante determinar cuáles son las brechas y tratar de cerrarlas. Por mencionar algunas de las principales:
a) Acceso a los recursos en línea de calidad
b) Elaborar políticas inclusivas.
c) Medidas de seguridad y sanciones
d) Actualización de marcos normativos que sean robustos y claros
La accesibilidad a las TIC´s se convirtió en una nueva línea divisoria. Por ejemplo, el acceso de las personas en situación de pobreza se limita a una pequeña gama de servicios de contenido local a los que acceden a través de dispositivos inferiores con una conexión lenta, perdiendo toda la gama de contenido y oportunidades que pueden aprovechar otros consumidores y usuarios. Estas disparidades reflejan y posiblemente agravan las que ya afectan a los grupos vulnerables que ni siquiera pueden conectarse.
Estar desconectado en un mundo digital significa carecer de nuevas oportunidades para aprender, comunicarse, comerciar, consumir y desarrollar aptitudes para ocupar nuevos puestos de trabajo que demandan los avances tecnológicos del Siglo XXI.
IV. NOTAS SOBRE LA PREVENCIÓN DE DAÑOS Y POSIBLES SOLUCIONES
Ante estas dificultades que se presentan, la solución más adecuada para implementar TIC´s o sistemas de IA se requiere fundamentalmente de infraestructura y educación. Para ello debe existir una articulación entre los Estados nacionales, provinciales y municipales junto con las empresas y el sector industrial y, en cuanto a nivel regional e intercontinental, la cooperación internacional. De este modo estaremos fortaleciendo a las comunidades más vulnerables teniendo como norte cardinal formar y consolidar un ecosistema digital que incluya a todos en igualdad de condiciones y oportunidades. En sentido práctico, se requiere la implementación de:
a) planes estratégicos (política de acceso de datos)
b) instituciones especializadas (programas de educación de corta duración en TIC´s e IA)
c) regulaciones (con enfoque ético, garantizando la protección y el ejercicio pleno de los derechos humanos. Los legisladores tienen la facultad y la oportunidad de crear, fortalecer y ampliar el ecosistema digital, protegiendo los derechos y garantías de las personas)[20]
d) control humano (auditorías permanentes)
e) máxima transparencia algorítmica (con enfoque de caja blanca, donde los sistemas de IA tomen decisiones trazables, interpretables y fundadas)
Prevención de riesgos y daños.
En cuanto a los riesgos que presenta internet, dos de las herramientas indispensables a la hora de evitarlos, son; la educación y el sentido común. Una muestra de sentido común es el art. 1710 del Código Civil y Comercial de la Nación, que establece el deber de prevención del daño; evitar causarlo sin justificación, adoptar de buena fe y conforme a las circunstancias las medidas razonables para evitar que se produzca un daño o disminuir su magnitud. Si tales medidas evitan o disminuyen la magnitud de un daño del cual un tercero sería responsable, tiene derecho a que éste le reembolse el valor de los gastos en que incurrió, conforme las reglas del enriquecimiento sin causa. Por último, toda persona tiene el deber, en cuanto a ella dependa, de no agravar el daño, si ya se produjo.
Para analizar si efectivamente se produce un daño, el Parlamento Europeo nos sirve como guía y, en lo que respecta a las relaciones de consumo, el Reglamento 254/2014 toma especial consideración en los siguientes criterios; la frecuencia y duración del uso de un sistema de IA, el reconocimiento de peligro por parte del consumidor, la caracterización del consumidor de tipo vulnerable, (en especial si se trata de ancianos y niños), los equipos de protección, el comportamiento del consumidor en caso de accidente, el origen cultural del usuario, entre otros factores que se consideren importantes para la evaluación del riesgo.[21]
En el año 2021, a mayor abundamiento, el Parlamento Europeo efectuó una propuesta de regulación de la IA clasificando a los sistemas según el riesgo:
- Inadmisible/Prohibido
- Alto riesgo,
- Riesgo limitado,
- Riesgo mínimo.
Un sistema de IA será prohibido si es capaz de:
a) Distorsionar materialmente el comportamiento de una persona de manera tal que cause o pueda causar que una persona sufra daño físico o psíquico.
b) Explotar cualquiera de las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental.
c) Evaluar o clasificar la confiabilidad de las personas humanas (puntuación social)[22]
Los sistemas de IA inaceptables, por regla general, se encuentran prohibidos en espacios públicos. Sin embargo se prevén excepciones en materia de prevención de delitos, amenazas contra la vida y la seguridad de las personas o por autorización judicial.
Sistema de IA de alto riesgo:
- Selección de personal (requisitos: gestión de riesgos, evaluación previa de posibles sesgos, supervisión humana, robustez, precisión y ciberseguridad)
- Datos de entrenamiento, validación y prueba del algoritmo (requisitos: un director y equipo de datos (CDO), evaluación previa de posibles sesgos, anonimización de datos, etiquetado, control de calidad)
Sistema de IA de riesgo limitado:
- Agentes conversacionales – chatbots (requisitos: informar a la persona que está interactuando con un sistema de IA. Los usuarios deben comprender y ser conscientes de que están interactuando con una máquina)
Sistema de IA de riesgo mínimo:
- Correo no deseado – spam (requisitos: respetar legislación vigente sin normas adicionales. Por lo general se adhieren a códigos de conducta voluntarios)
Deber de los Estados
Los gobiernos tienen el deber de garantizar el ejercicio efectivo de los derechos de los consumidores promoviendo la educación y formación en el uso de las nuevas TIC´s para minimizar la brecha digital, generacional y geográfica e incrementar la integración social y comunitaria. A su vez, deberán diseñar e implementar políticas activas para erradicar el analfabetismo de los grupos en situación de vulnerabilidad, en especial, de los niños, niñas y adolescentes y de las personas mayores en estado de pobreza y marginalidad.
En nuestra legislación existe actualmente un atraso legal a nivel nacional y provincial, ya que las principales normas en materia de defensa al consumidor como la ley 24.240 no han regulado las profundas implicancias del comercio electrónico (salvo el art. 33[23], el art. 10ter[24] y quáter[25] y el art. 27[26]), ni ofrecen mecanismos de protección ni medidas de reparación para los consumidores vulnerables que interactúan en forma directa o indirecta con sistemas inteligentes. Tampoco están previstas sanciones cuando se comercialicen o utilicen sistemas de IA que no respeten los requisitos obligatorios de una IA según su nivel de riesgo.
V. CONSIDERACIONES FINALES
Todas las personas que alguna vez se han sentido desprotegidas al realizar determinados actos de consumo, es importante remarcarles que el término consumidores nos incluye a todos, incluso a terceros ajenos al contrato que se han encontrado involucrados en una relación de consumo.
“Consumidor vulnerable” no admite una unívoca definición ya que se deben atender todas las características ya sean endógenas o exógenas y aspectos personales socio-culturales. En definitiva, todos en algún momento seremos consumidores vulnerables.
El mayor problema de este colectivo más que en el uso de productos o servicios creo que está radicado en la accesibilidad. Si bien el comercio digital coadyuvó al incremento exponencial de vendedores online, freelancers, prosumidores[27], consumidores y usuarios digitales, lo cierto es que los grupos vulnerables en la mayoría de los casos se encuentran impedidos, limitados o imposibilitados de acceder al consumo digital en iguales condiciones que el resto de los usuarios. Para revertir esto, es necesario que las páginas web y las aplicaciones estén diseñadas y programadas de manera compatible. En el caso de las apps, muchas de las más populares presentan serios problemas de accesibilidad para personas discapacitadas.[28] El desafío está en pensar un entorno digital, en desarrollar plataformas, aplicaciones y dispositivos que sean inclusivos en el ámbito del comercio electrónico y que no operen como herramienta de exclusión.
En relación a la discriminación
La acción u omisión del ser humano a la hora de crear, diseñar, manipular o reproducir sistemas de inteligencia artificial, en muchos casos, limita la participación plena y efectiva de los grupos vulnerables en la sociedad, violando el deber de no discriminación, el derecho de igualdad de oportunidades y el respeto por la diferencia y la aceptación de estos grupos como parte de la diversidad y condición humana.
Está claro que nuestra normativa en defensa de los consumidores y usuarios tiene raigambre constitucional (art. 42 y 43 CN) y encuentra terminantemente prohibida la discriminación, ya sea simple o múltiple, ya que en muchas ocasiones los consumidores hipervulnerables están expuestos a una conmixtión entre vejez, discapacidad, diversas orientaciones sexuales e identidades de género, carácter migratorio, estado de pobreza o marginación social, comunidades aborigen o afro descendiente, privación de la libertad, etnia, nacionalidad, idioma, religión, entre otros factores que operan en simultáneo.
La Constitución Nacional reconoce el estatus de vulnerabilidad que se había previsto en el art. 3 de la Ley 24.240[29], lo que indica que deben tener tratamiento especial en garantías para su tutela efectiva y deben ser interpretados de manera integral con las normas de un mismo rango como son los tratados de derechos humanos. Desde el punto de vista de su relación con la satisfacción de necesidades básicas estrechamente vinculadas con la dignidad humana y la calidad de vida, el derecho al consumo es parte de los llamados “derechos humanos”.[30]
Para concluir, creo que es necesario abandonar la tesis binaria de optimismo frente a las nuevas tecnologías o pesimismo entorno a ellas. Es evidente que los sistemas de IA no son dañinos “in se” y que sólo pueden lesionar derechos de otras personas si su autor, programador, desarrollador, guardián, operador o supervisor así lo pergeñase. El otro supuesto de vulneración de derechos se trataría en casos de un accidente ocasionado por un sistema inteligente, algo que ya cuenta con previsibilidad legal anterior a la llegada de los sistemas de IA. Con lo cual, en caso de imprudencia o negligencia regirán las normas de responsabilidad previstas en el Código Civil y Comercial de la Nación:
a) Responsabilidad del principal por el hecho del dependiente (art. 1753).
b) Régimen de daños causados por animales (art. 1759).
c) Teoría del riesgo creado (art. 1757/1758).
En este sentido, creo que el problema no se trataría de medios sino de fines, siendo el quid de la cuestión algo más bien teleológico, “aquello a lo que se ordena” o “cuál es su causa fin”. Considero entonces que la tecnología debemos valorarla siempre como una herramienta con el propósito de; favorecer la interacción social y en particular la inclusión y participación activa de los grupos vulnerables, contribuir a la mejora de las comunicaciones sin barreras geográficas ni restricciones horarias, brindar la mayor cantidad y calidad de productos e información para el deseo de consumo los usuarios, obtener instrucciones y capacitaciones accesibles y en lenguaje claro, navegar por las plataformas internáuticas con libertad y garantías de seguridad, gozar de los espacios de esparcimiento digital sin discriminación y aprovechar nuevas oportunidades de trabajo y de negocios.
La gran ventaja del aprendizaje automatizado radica en que los sistemas de IA mejoran su performance a partir del procesamiento de nuevas interacciones con los seres humanos adquiriendo la capacidad de analizar gigantes volúmenes de información y aprender reconociendo nuevos patrones.
Un acto responsable de los sectores privados y del sector público sería poner el foco en garantizar que los sistemas de IA sean éticos, legales, robustos y beneficiosos para todas las personas. Que a su vez, los algoritmos inteligentes sean verificables, trazables, explicables y auditables. Para que esto se cumpla, es necesario de políticas y marcos normativos sólidos con el objeto de asegurar que las nuevas tecnologías o tecnologías emergentes beneficien a la humanidad en su conjunto sin exclusiones. Es necesario también, que los sistemas de IA estén centrados en la persona humana, contribuyan a la consecución de la agenda 2030 de Naciones Unidas para el Desarrollo Sostenible, abordando cuestiones relativas al medio ambiente, la transparencia, la rendición de cuentas y la privacidad de los datos personales.
Coincido con lo expresado recientemente por la Subdirectora General de Ciencias Sociales y Humanas de la UNESCO cuando refiere a las tecnologías emergentes como la IA que han demostrado su inmensa capacidad de hacer el bien.[31] Sin embargo, hay que reconocer los riesgos existentes, maximizar esfuerzos y controlar sus impactos negativos, garantizando un ecosistema que provea seguridad jurídica, respete el estado de derecho, evite la producción de daños y llegado al caso que se produzcan, los afectados tengan a su alcance mecanismos de responsabilidad y reparación.
Bibliografía:
Bobbio, Norberto. De senectute e altri scritti autobiografici, a cura di Pietro Polito, Einaudi, Torino (1996).
Carrasco Perera, Angel, Dossier: Vulnerabilidad y derecho (2021). OTROSÍ, Revista del Colegio de Abogados de Madrid, Número 8/2021 / 7° época, p. 42/43. Disponible en: file:///C:/Users/User/AppData/Local/Temp/Otrosi_24_mayo2021_version_imprenta_compressed-1.pdf
Communications Fraud Control Association. Sitio web oficial disponible en: https://cfca.org/
Convención de los Derechos del Niño (1990) – Organización de las Naciones Unidas (ONU)
Convención sobre los Derechos de las Personas con Discapacidad (2008) – Organización de las Naciones Unidas (ONU)
Convención interamericana sobre la protección de los derechos humanos de las personas mayores (2015) – Organización de los Estados Americanos (OEA)
Danesi, Cecilia, ¿Quien responde por los daños ocasionados por los robots?, publicado el 13 de septiembre de 2019, Revista de Responsabilidad Civil y Seguros de La Ley (RCyS 2018-XI, 24), sobre la responsabilidad civil por los daños ocasionados por los robots.
Gates, Bill. Los negocios en la era digital, Sudamericana, Buenos Aires, (1999).
Gelli, María Angélica, A 25 años de la reforma constitucional de 1994, 1era edición, CABA, La Ley (2019).
González Vaqué, Luis, La protección de los consumidores vulnerables en el derecho del consumo de la UE. El programa plurianual para el período 2014-2020 – Revista N°10/2014 – CESCO de Derecho de Consumo, (10), 92-109. Disponible en: https://revista.uclm.es/index.php/cesco/article/view/542/480
Granero, Horacio. La protección de datos personales y la responsabilidad objetiva en internet. Capítulo III, La Protección de datos personales y la responsabilidad. Usuarios y consumidores, Régimen Jurídico de los datos personales. Travieso, Juan Antonio (Director), Tomo I, (2014).
Hernández Díaz Ambrona, Dolores, Consumidor vulnerable (2018), Editorial Reus.
Informe marzo-diciembre 2020, Secretaría de Comercio Interior, Ministerio de Desarrollo Productivo de la Nación. Disponible en: file:///C:/Users/User/AppData/Local/Temp/12_-_diciembre_hv.pdf
Informe de la OMS sobre Discapacidad y Salud. Publicado el 24/11/2021. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/disability-and-health
Llano Alonso, Fernando H., La vulnerabilidad de las personas mayores en tiempos de pandemia (2021). Disponible en:
file:///C:/Users/User/AppData/Local/Temp/la%20vulnerabilidad%20de%20las%20personas%20mayores.pdf
Muñoz, Carolina, Vigilar y castigar. El sistema de crédito social chino, Revista Latinoamericana Foreign Affairs, 29 de Abril de 2020.
Manrique, Rubén Francisco, Inteligencia Artificial y su impacto en la verificación de identidad. Artículo publicado el 27/03/2020. Disponible en: https://reconoserid.com/inteligencia-artificial-y-su-impacto-en-la-verificacion-de-identidad/
Organisation for Economic Co-operation and Development (2019). ‘Recommendation of the Council on AI’, https://legalinstruments.oecd.org/en/instruments/OECDLEGAL-0449.
Proyecto de Ley 4560-D-2017, publicado en 29/08/2017, Cámara de Diputados de la Nación. Autora: María Teresita Villavicencio. Coautores: Cornelia Schmidt Liermann, José Luis Riccardo, Juan Francisco Casañas y Miriam Ruth Boyadjian.
Proyecto destacado, explorando cómo integrar los derechos del niño en políticas de gobierno de la inteligencia artificial, UNICEF. Disponible en: file:///C:/Users/User/AppData/Local/Temp/UNICEF-Global-Insight-policy-guidance-AI-children-draft-1.0-2020-2.pdf
Recommendation of the Council on AI, Legal Instrument 0449. Organisation for Economic Co-operation and Development (OECD), 21/05/2019. Disponible en: https://legalinstruments.oecd.org/en/instruments/OECDLEGAL-0449
Recomendación sobre la ética de la IA, Documento UNESCO (2021). Disponible en: https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-inteligencia-artificial
Reglamento N° 254/2014 del Parlamento Europeo y del Consejo, 26 de febrero de 2014, sobre el Programa Plurianual de Consumidores para el período 2014-2020 y por el que se deroga la Decisión N° 1926/2006/CE, Diario Oficial de la Unión Europea.
Resolución del Parlamento Europeo del 22-5-12 s/ Estrategia de refuerzo de los derechos de los consumidores vulnerables (2012). Disponible en: https://www.europarl.europa.eu/doceo/document/TA-7-2012-0209_ES.html?redirect
Resolución 139/2020 – Secretaría de Comercio Interior, Ministerio de Desarrollo Productivo de la Nación.
Solari, Néstor E. La responsabilidad parental y la intimidad del niño aplicada a una causa penal por abuso sexual. Publicado en: LA LEY 2009-E, 262 Fallo Comentado: Cámara Nacional de Apelaciones en lo Criminal y Correccional, sala VI, 17-06-2009, F.A.M.
Tambussi, Carlos Eduardo, El consumo como derecho humano (2009), Universidad de Buenos Aires.
Travieso, Juan Antonio (Director), Régimen jurídico de los datos personales, Tomo I, Habeas Data – Cloud Computing – Responsabilidad – Delitos – Internet – Redes – Biometría (2014).
[1] Abogado egresado de la Universidad de Buenos Aires en julio de 2021 con título en trámite. Perfil orientado al derecho informático, nuevas tecnologías y su impacto en las distintas ramas del derecho. Partícipe del Programa de Formación Multidisciplinario de Inteligencia Artificial, departamento de IALAB, Facultad de Derecho.
[2] Discurso de John F. Kennedy, pronunciado en el Congreso de los Estados Unidos ante la Asamblea Legislativa, el 15 de marzo de 1962.
[3] Resolución del Parlamento Europeo, del 22/05/2012, sobre una estrategia de refuerzo de los derechos de los consumidores vulnerables. (documento disponible en: https://www.europarl.europa.eu/doceo/document/TA-7-2012-0209_ES.html?redirect consultada el 10-11-21.
[4] Recommendation of the Council on AI. Legal Instrument 0449. Organisation for Economic Co-operation and Development (OECD), 21/05/2019. Disponible en: https://legalinstruments.oecd.org/en/instruments/OECDLEGAL-0449. Consultado el 02-12-21.
[5] Granero, Horacio. La protección de datos personales y la responsabilidad objetiva en internet. Capítulo III, La Protección de datos personales y la responsabilidad. Usuarios y consumidores, Régimen Jurídico de los datos personales. Travieso, Juan Antonio (Director), Tomo I, 2014.
[6] Gates, Bill. Los negocios en la era digital, Editorial Sudamericana, Buenos Aires, 1999, p. 93.
[7] LGDCU, Ley General para la Defensa de los Consumidores y Usuarios, Real Decreto Legislativo 1/2007, 30/11/2007, Reino de España, art. 3.2.
[8] La sanción del Real Decreto Legislativo – Ley 1/2021, en ocasión del COVID-19, modifica el art. 3 de la LGDCU introduciendo un segundo apartado con el objeto de proteger a los consumidores frente a situaciones de vulnerabilidad social y económica.
[9] UNICEF. Proyecto destacado, explorando cómo integrar los derechos del niño en políticas de gobierno de la inteligencia artificial. Disponible en: file:///C:/Users/User/AppData/Local/Temp/UNICEF-Global-Insight-policy-guidance-AI-children-draft-1.0-2020-2.pdf fecha de consulta 9-12-21.
[10] Ley 26.904, Ley de Grooming, sancionada el 13 de noviembre del 2013, incorporando al Código Penal de la Nación el delito contra la integridad sexual de los menores por medio de comunicaciones electrónicas, telecomunicaciones o cualquier otra tecnología de transmisión de datos.
[11] Solari, Néstor E. La responsabilidad parental y la intimidad del niño aplicada a una causa penal por abuso sexual. Publicado en: LA LEY 2009-E, 262 Fallo Comentado: Cámara Nacional de Apelaciones en lo Criminal y Correccional, sala VI, 17-06-2009, F.A.M.
[12] Informe de la OMS sobre Discapacidad y Salud. Publicado el 24/11/2021. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/disability-and-health fecha de consulta 15-12-21.
[13] Nota de Tomás Balmaceda acerca de investigaciones sobre Ética y Algoritmos. Disponible en: https://www.youtube.com/watch?v=ZnoT_RyzsCM fecha de consulta 26-11-21.
[14] Nota de Tomás Balmaceda sobre Inteligencia Artificial y discapacidad; cuando los algoritmos son herramientas de exclusión, de fecha 07/09/2020. Disponible en: https://www.youtube.com/watch?v=s8wfGHbDeBc&t=84s última fecha de consulta 26-11-21.
[15] Proyecto de Ley 4560-D-2017, publicado en 29/08/2017. Actualmente en trámite, sin estado parlamentario. Autora: María Teresita Villavicencio. Coautores: Cornelia Schmidt Liermann, José Luis Riccardo, Juan Francisco Casañas y Miriam Ruth Boyadjian. Disponible en: https://dequesetrata.com.ar/proyecto/camara-de-diputados/4560-D-2017-10458 última fecha de consulta 17-12-21.
[16] Bobbio, Norberto. De senectute e altri scritti autobiografici, a cura di Pietro Polito, Einaudi. Torino, 1996, págs. 19-28.
[17] Communications Fraud Control Association. Para ampliar, página web oficial disponible en: https://cfca.org/ consultada 4-12-21.
[18] Manrique, Rubén Francisco, Inteligencia Artificial y su impacto en la verificación de identidad. Artículo publicado el 27/03/2020. Disponible en: https://reconoserid.com/inteligencia-artificial-y-su-impacto-en-la-verificacion-de-identidad/ fecha de consulta 14-12-21.
[19] Ver informe marzo-diciembre 2020, Secretaría de Comercio Interior, Ministerio de Desarrollo Productivo de la Nación. Disponible en: file:///C:/Users/User/AppData/Local/Temp/12_-_diciembre_hv.pdf fecha de consulta 9-11-21.
[20] A través de la regulación y uso ético de los datos se deben evitar sesgos algorítmicos que lleven a tomar malas decisiones.
[21] Reglamento (UE) N° 254/2014 del Parlamento Europeo y del Consejo, 26 de febrero de 2014, sobre el Programa plurianual de Consumidores para el período 2014-2020 y por el que se deroga la Decisión N° 1926/2006/CE. Diario Oficial de la Unión Europea. Disponible en: file:///C:/Users/User/AppData/Local/Temp/CELEX%2032014R0254%20ES%20TXT.pdf última fecha de consulta 4-12-2021.
[22] A modo de ejemplo, el caso del sistema de crédito social chino. Para ampliar, Muñoz, Carolina, “Vigilar y castigar. El sistema de crédito social chino”, Revista Latinoamericana Foreign Affairs. 29 de Abril de 2020. Disponible en: https://revistafal.com/vigilar-y-castigar/ última fecha de consulta 4-12-21.
[23] LDC, art. 33: “Venta por correspondencia y Otras. Es aquella en que la propuesta se efectúa por medio postal, telecomunicaciones, electrónico o similar y la respuesta a la misma se realiza por iguales medios.”
[24] LDC, art. 10 ter. En alusión a los modos de rescisión.
[25] LDC, art. 10 quáter. En referencia a la prohibición de cobro.
[26] LDC, art. 27. En cuanto al registro de reclamos efectuados por correo electrónico u otro medio disponible.
[27] Concepto que se le atribuye al sociólogo estadounidense Alvin Toffler. En la actualidad, el término “prosumidor” significa que quien consume un producto también tiene la capacidad de producir, ya sea un objeto o contenidos digitales.
[28] Nota sobre el caso de Mauro Soto en Salta, una persona con discapacidad visual que encuentra obstáculos en el uso de apps de consumo alimentario como Rappi, Globo o Pedidos Ya. Disponible en: https://chequeado.com/investigaciones/inteligencia-artificial-y-discapacidad-cuando-los-algoritmos-son-herramientas-de-exclusion/ consulta 18-12-21.
[29] Es propicio señalar que la Ley 24.240 fue sancionada en septiembre de 1993, mientras que la reforma constitucional de 1994 incluyó en el texto de la Constitución Nacional el art. 42 jerarquizando la protección de los derechos de los consumidores y usuarios.
[30] Tambussi, Carlos Eduardo, El consumo como derecho humano, Universidad de Buenos Aires, 2009.
[31] https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-inteligencia-artificial fecha de consulta 12-12-21.