Introducción
En los últimos años, los sistemas de inteligencia artificial (“IA”) han llamado fuertemente la atención de la ciudadanía. Ello, pues no sólo representan una importante innovación tecnológica con múltiples posibilidades de aplicación, sino que, dadas sus características –opacidad, complejidad, dependencia de los datos y comportamiento autónomo–, conllevan intrínsecamente ciertos riesgos, particularmente en materia de derechos fundamentales (derecho a la no discriminación, libertad de expresión, dignidad, privacidad y datos personales, principalmente) y seguridad de los usuarios.
En este contexto, se han hecho importantes esfuerzos en materia de regulación de los sistemas de IA. Destacable es, a este respecto, el caso de la Unión Europea (“UE”). Desde el año 2019, la Comisión Europea (“Comisión”) ha venido publicando guías y lineamientos en torno a la materia (tales como las Directrices Éticas para una IA Confiable, las Recomendaciones de Política de Inversión para una IA Confiable y un White Paper sobre IA), en línea con el propósito planteado por el Parlamento Europeo (“Parlamento”) de garantizar que los sistemas de IA que se utilicen en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Inicialmente, la Comisión optó por entregar directrices no vinculantes. Sin embargo, ello ha mutado en la búsqueda de consenso en torno a una normativa que regule de manera exhaustiva y armónica los sistemas de IA. Ese esfuerzo se ha traducido en la elaboración de una propuesta regulatoria sobre IA (el “Proyecto”), cuya votación final será en abril de este año.
En la presente columna se analizan los aspectos centrales del Proyecto, los desafíos que el desarrollo exponencial de sistemas de IA genera para la protección de la libre competencia, y las eventuales implicancias del Proyecto en estas materias.
Proyecto de Ley IA
El objetivo del Proyecto es establecer el marco jurídico para el desarrollo, comercialización y uso de sistemas de IA en el mercado de la UE, de manera tal de asegurar el funcionamiento adecuado del mismo.
Una vez que entre en vigor, esta normativa será aplicable a proveedores de sistemas de IA ubicados en la UE; o, en términos generales, que tengan algún efecto en la UE, y respecto de los usuarios de estos sistemas que se ubiquen en la UE.
Qué son los sistemas de IA
El Proyecto propone una definición legal amplia para los sistemas de IA, que se basa en aquella elaborada por la Organización para la Cooperación y Desarrollo Económicos, y que hace referencia a una gama de tecnologías basadas en softwares que implican el aprendizaje automático, sistemas basados en la lógica, el conocimiento y en enfoques estadísticos. Además, abarca sistemas de IA que pueden utilizarse de manera independiente, es decir, como un producto o servicio en sí mismo, y también aquellos que se usen como componentes de un producto, esto es, que formen parte de o permitan el desarrollo de otro producto o servicio.
Junto con lo anterior, el Proyecto busca consagrar una definición tecnológicamente neutra de los sistemas de IA. Además, en consideración a la rápida evolución y creación de nuevos sistemas de IA, pretende abarcar no sólo los desarrollos tecnológicos actuales, sino también los futuros.
Propuesta de regulación contenida en el Proyecto
El Proyecto propone adoptar un enfoque basado en los riesgos específicos que cada sistema de IA conlleva, de lo cual dependerá el nivel de intervención legal de que será objeto el sistema de IA respectivo. Para esos efectos, el Proyecto distingue a los sistemas de IA como de: (i) riesgo inaceptable, (ii) riesgo alto, (iii) riesgo limitado, y (iv) riesgo bajo o mínimo.
Los sistemas de IA calificados como de riesgo inaceptable se encuentran prohibidos en el Proyecto, por considerarse una clara amenaza para la seguridad, las formas de vida y los derechos de las personas. Se consideran sistemas de riesgo inaceptable aquellos que utilizan técnicas subliminales manipuladoras dañinas (por ejemplo, juguetes que se activan por voz y que fomentan comportamientos peligrosos); que explotan grupos vulnerables específicos (con discapacidad); utilizados por las autoridades públicas con fines de calificación social; y, sistemas de identificación biométrica remota en tiempo real en espacios de acceso público para fines policiales, excepto en casos limitados.
Los sistemas de IA de riesgo alto son aquellos que impactan negativamente en la seguridad de las personas o sus derechos fundamentales, tales como sistemas que entran en el ámbito de aplicación de la legislación comunitaria de armonización en materia de salud y seguridad y sistemas desplegados en ámbitos específicos (como la identificación biométrica, educación y formación profesional (por ejemplo para determinar la admisión a instituciones de educación, para realizar evaluaciones o para evaluar el nivel de educación de una persona), empleo (por ejemplo, para realizar proceso de reclutamiento o selección de personal o para adoptar decisiones vinculadas a la terminación de vínculos laborales), cumplimiento de la ley (por ejemplo, para ser utilizada por o en nombre de autoridades a cargo del cumplimiento de la ley y el orden público), entre otros).
Éstos estarán sujetos a una serie de nuevas exigencias, entre las que se incluyen efectuar una evaluación previa de conformidad (consistente, en síntesis, en que los proveedores estarían obligados a registrar sus sistemas en una base de datos de la UE, gestionada por la Comisión, antes de comercializarlos o ponerlos en servicio), y obligaciones en materia de gestión de riesgos, testing, solidez técnica, formación y manejo de datos, transparencia, supervisión humana y ciberseguridad.
Los sistemas de riesgo limitado, como los que interactúan con humanos (chatbots), de reconocimiento de emociones, categorización biométrica y sistemas de IA que generan (e.g., ChatGPT) o manipulan contenidos de imagen, audio o vídeo (deepfakes), estarán sujetos a un conjunto limitado de obligaciones de transparencia.
Finalmente, para los sistemas de riesgo bajo o mínimo el Proyecto no contempla obligaciones, pero prevé la creación de códigos de conducta para incentivar a cumplir voluntariamente los requisitos aplicables a los sistemas de alto riesgo.
Desafíos que enfrenta la libre competencia ante el creciente desarrollo de sistemas de IA
Desde hace ya varios años que, en sede de la libre competencia, autoridades, académicos y los propios agentes económicos han manifestado su preocupación por los efectos de la IA en el funcionamiento de los mercados.
Por una parte, existe preocupación respecto de cómo la IA puede impactar la estructura y dinámicas de mercado, en la medida que tiene la aptitud para disminuir de forma significativa la incertidumbre, lo que va en directo desmedro de los consumidores al disminuir la intensidad competitiva (Ezrachi y Stucke, Virtual Competition, 2019) entre competidores.
Por otra parte, la IA ha generado un fuerte impacto en cómo se materializan las conductas tradicionalmente sancionadas por la normativa de libre competencia. En materia de colusión, la IA puede facilitar el perfeccionamiento y monitoreo de acuerdos colusorios, puede operar como mecanismos de hub & spoke y puede facilitar la colusión tácita. Desde la perspectiva de las conductas abusivas, la IA puede facilitar conductas exclusorias como el self preferencing, del que ya existen casos (Google Shopping). Además, puede facilitar conductas explotativas en la medida que el uso y procesamiento de big data por medio de algoritmos permite discriminar y segmentar consumidores, personalizar los precios, explotar sesgos y debilidades de los consumidores por medio del diseño de la interfaz, entre otras.
No se debe olvidar, además, el impacto que el desarrollo de la IA ha tenido respecto de las denominadas Big Tech y cómo el uso de IA podría fortalecerlas, dificultando el ingreso de nuevos actores que los puedan desafiar de forma efectiva.
A lo anterior, se debe sumar el que los sistemas de IA no sólo no son libres de sesgos y prejuicios, sino que, por el contrario, tienen la potencialidad de amplificarlos e incluso consolidarlos, lo que puede impactar en la forma en que se moldean los mercados o la forma en que se segmentan los consumidores.
Ahora bien, parte de las críticas realizadas a la normativa de libre competencia como herramienta para combatir los efectos anticompetitivos que puede generar el uso de sistemas de IA, es que es reactiva, que llega tarde y que no permite prevenir los efectos nocivos que pueden tener los sistemas de IA para los mercados. Ocurre entonces que, al llegar tarde, la normativa de libre competencia permite la imposición de sanciones y medidas correctivas, pero muchas veces ello no es suficiente si es que ya se afectó la estructura de los mercados de modo tal que, su configuración misma, es la que ya no permite que exista una verdadera dinámica competitiva. ¿Será el Proyecto una herramienta eficaz para combatir los efectos anticompetitivos de los sistemas de IA?
Conclusiones
El Proyecto constituye un avance significativo, pero no es claro que permita hacerse cargo de las preocupaciones que surgen desde la vereda de la libre competencia. No existe certeza respecto de si los sistemas de IA actualmente desarrollados, y que han atentado contra la libre competencia, podrán ser calificados como sistemas de alto riesgo de modo que deban sujetarse a los requerimientos establecidos en el Proyecto o si podrán ser calificados como sistemas de riesgo bajo o mínimo, lo que también podría obligarlos a sujetarse a ciertos estándares para su adecuado funcionamiento.
Para saber si el Proyecto constituirá una herramienta eficaz en esta materia no queda más que esperar. En el intertanto, sigue siendo la normativa de libre competencia la herramienta disponible para que las autoridades velen por el correcto funcionamiento de los mercados, lo que las obliga a seguir buscando mecanismos innovadores que permitan hacerse cargo no sólo de los efectos actuales que está generando la IA, sino también de los efectos que ésta tendrá en el futuro en el funcionamiento de los mercados.