In Argentina, is Artificial Intelligence sought to be regulated?

La Cámara de Diputados de la Nación inició una serie de reuniones informativas para conocer la opinión de personas expertas en Inteligencia Artificial. Hasta la fecha, hay al menos 9 proyectos de ley presentados. Cinco de ellos fueron ingresados en 2023 y pierden estado parlamentario el 1° de marzo de 2025. Sin embargo, pueden ser presentados nuevamente tal como están o con modificaciones, o no presentarse.

Desde DataGénero analizamos cada uno de ellos.

Carolina Glasserman Apicella

Coordinadora del Área de Poder Legislativo de DataGénero

Responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e Inteligencia Artificial en la República Argentina | Maximiliano Ferraro (CC-CABA)

En este proyecto, los principios generales planteados son muy positivos. Sin embargo, observamos que la iniciativa es ampliamente declarativa y no pone en cabeza de la autoridad de aplicación un poder real de decisión vinculante y regulación general, que permita que aquellos principios puedan materializarse en la actividad algorítmica del sector público y del sector privado.

Por otro lado, su redacción presenta ciertas confusiones conceptuales y errores de técnica que llevan a vacíos y abstracciones.

El proyecto busca modificar la Ley 25.467 de Ciencia, Tecnología e Innovación para incorporar lineamientos vinculados al desarrollo de Inteligencia Artificial.

Puntos claves:

  1. Agrega un artículo sobre principios rectores para la IA (diversidad e inclusión; paz y justicia).
  2. Incorpora que los sistemas de IA sean registrados en la órbita del Gabinete Científico y Tecnológico (GACTEC), en el ámbito de la Jefatura de Gabinete de Ministros (conforme a procedimientos que el GACTEC fije). También indica que el GACTEC podrá detener avances de investigaciones en el caso que los sistemas de IA dañen los principios rectores de la Ley.
  3. Establece que si una persona se siente amenazada o perjudicada por un sistema de IA podrá realizar la denuncia ante la Secretaría para la Tecnología, la Ciencia y la Innovación Productiva (SETCIP) para la revisión de dicho sistema.

Se trata de una iniciativa que podría ser un primer paso para incorporar regulaciones. Si bien su espíritu es correcto, es demasiado escueta y libra en la autoridad de aplicación el contenido de la regulación que podría sancionar el Congreso en el ejercicio de sus competencias.

El proyecto busca establecer las regulaciones y pautas para el desarrollo y uso de la inteligencia artificial en el ámbito educativo.

Puntos claves:

  1. Establece principios rectores como la transparencia, la responsabilidad y la mejora educativa.
  2. Desarrolla los lineamientos para asegurar la protección de datos y privacidad, estableciendo el consentimiento informado, la seguridad en el almacenamiento y la posibilidad de conocer y modificar los datos registrados por parte de los y las estudiantes.
  3. Establece que dentro del  Consejo Federal se acordarán los
    documentos que darán marco a la regulación de la utilización de IA en las instituciones educativas, que deberán cumplir una seria de disposiciones como la identificación de los sistemas utilizados, la implementación informada y la evaluación y monitoreo permanentes.
  4. Dispone que desde el Consejo Federal se inicie un proceso de actualización curricular.
  5. Sobre el desarrollo y la evaluación de sistemas de IA, prevé evaluaciones periódicas de calidad, medidas para identificar y mitigar cualquier sesgo o discriminación potencial en los sistemas de IA utilizados, y actualización y mejora continua.
  6. Sobre la formación y capacitación, establece que el INFOD deberá proporcionar oportunidades de formación y capacitación en el uso ético, pedagógico y efectivo de la IA a todos los docentes y profesionales de la educación.

 

Se trata de una buena iniciativa para el ámbito educativo. Los lineamientos son correctos y cuidadosos de los derechos humanos. Sin embargo, podría dotarse de más contenido para evitar lagunas o imprecisiones. Por ejemplo: ¿Cuáles son los lineamientos de la evaluación? ¿Con qué periodicidad? ¿De qué manera se va a asegurar la protección de los datos? ¿Qué estrategias?

El proyecto busca establecer un marco regulatorio general para el uso de la IA.

Puntos claves:

  1. Establece principios éticos para el desarrollo y uso de IA, como la equidad, la transparencia y la responsabilidad.
  2. Incluye la protección de los derechos humanos y la privacidad de los datos.
  3. Obliga a que los sistemas de IA sean transparentes y explicables.
  4. Requiere la divulgación de los algoritmos utilizados y las decisiones automatizadas.
  5. Determina quién es responsable por las decisiones y acciones de los sistemas de IA.
  6. Establece mecanismos de rendición de cuentas para los desarrolladores y operadores de IA.
  7. Crea la Autoridad de Supervisión de la Inteligencia Artificial (ASIA) encargada de garantizar el cumplimiento de la ley y la regulación de los sistemas de inteligencia artificial.
  8. Establece procedimientos para la evaluación y certificación de sistemas de IA.
  9. Obliga a implementar medidas de seguridad para proteger los datos.
  10. Obliga a realizar evaluaciones de riesgo y establecer planes de mitigación.

 

Se trata de una buena iniciativa como puntapié inicial. Hay medidas concretas que celebramos, como el derecho de las personas de solicitar explicaciones sobre el funcionamiento algorítmico, la prohibición taxativa del uso de la IA para fines discriminatorios o la creación de un organismo regulador como la ASIA.

Sin embargo, creemos que podría incorporar más contenido para evitar lagunas o imprecisiones. Por ejemplo: ¿En qué consiste “fomentar” la creación de comisiones de seguimiento o de suscripción de acuerdos? – es muy laxo el verbo “fomentar”, la normativa precisa mayor enforcement – ¿Cómo va a estar compuesta la ASIA? En este punto es indispensable que participen personas de la sociedad civil.

El proyecto busca establecer un régimen legal aplicable para el uso responsable de  la IA.

Puntos claves:

  1. Establece una serie de principios, con sus respectivas definiciones y lineamientos, como la transparencia, la robustez, la equidad y la no discriminación, la responsabilidad proactiva, la trazabilidad, la privacidad y la seguridad
  2. Incorpora la obligación de contar con una evaluación de impacto sobre derechos humanos realizada por la autoridad de aplicación (que para este proyecto es el INTI). Asimismo, establece pautas para la gestión de riesgos, clasificando éstos desde inaceptables y prohibidos, hasta leves.
  3. En función del grado del riesgo, establece distintos tipo de sanciones, así como una acción judicial resarcitoria.
  4. Crea un Consejo Asesor en IA en el ámbito de la Jefatura de Gabinete de Ministros, compuesto por expertos en ética, tecnología, derechos humanos, privacidad y  otros campos relevantes tanto del sector público, privado, académico y organizaciones de  la sociedad civil, con el objetivo de garantizar una evaluación exhaustiva e imparcial del  impacto de los proyectos y sistemas de IA.
  5. Delega en el Poder Ejecutivo la promoción de la cooperación internacional en el desarrollo  y regulación de la IA, participando en iniciativas multilaterales y colaborando con otros  países y organizaciones internacionales. 

 

Consideramos que es una muy buena iniciativa. Tanto las  definiciones como su contenido regulatorio son claros. Establece principios pero no solo como meros lineamientos sino como contenido mínimo que debe respetar el desarrollo en IA.

Propone evaluaciones de impacto y un sistema en niveles de gestión de riesgos, con sus respectivas sanciones en caso de incumplimiento. Imputa como autoridad de aplicación a un órgano con reconocida trayectoria (el INTI), y al mismo tiempo crea un Consejo Asesor multisectorial en la temática.

Como aporte, creemos que el Consejo podría tener más funciones vinculantes, en función de que estará compuesto por especialistas, conocedores de la problemática.

El proyecto busca crear el «Consejo Federal de Inteligencia Artificial».

Puntos claves:

  1. Indica que estará compuesto por una (1) persona del área de CyT de cada provincia que adhiera a la ley.
  2. Regula su funcionamiento interno y sus competencias.
  3. Estipula que deberá crearse un comité de ética con función consultiva, el cual se expedirá respecto a cualquier iniciativa vinculada con IA presentada por un particular o consulta de un organismo público.

 

Se trata de una iniciativa escueta and poco precisa. Crea una institución a la que se le dan muchísimas funciones pero con pocos o nulos lineamientos de política pública. Establece la creación de un comité de ética, pero sus decisiones son de carácter no vinculante y además no explica quienes lo integrarían.

No creemos que la implementación de este Consejo suponga mayor transparencia y seguridad ante la implementación de la IA.

El proyecto busca garantizar y promover el uso de la  Inteligencia Artificial resguardando a las personas y protegiendo sus derechos  humanos.

Puntos claves:

  1. Establece una serie de principios, como el de la proporcionalidad e inocuidad, garantizando la evaluación de riesgos y la adopción  de medidas para impedir que se produzcan daños; la seguridad y la protección; la equidad y la no discriminación; la supervisión y la decisión humana; la transparencia y la explicabilidad; y la responsabilidad y la rendición de cuentas.
  2. Incorpora prohibiciones de uso ante situaciones en que afecte o comprometa derechos humanos; cuando sea generadora de riesgos a la seguridad y riesgos a la protección de los  seres humanos, del medio ambiente y de los ecosistemas; cuando generen o perpetúen situaciones que afecte a la diversidad y la inclusión; cuando los sistemas recopilen datos personales o los  mismos se utilicen, compartan, archiven y supriman de forma consistente; cuando se procure reemplazar la responsabilidad  final de los seres humanos y su obligación de rendir cuentas; cuando se utilice para manipular  información sensible y destinada a informar a la sociedad, y cuando tenga uso bélico y/o militar.  
  3. Encomienda al Poder Ejecutivo la  designación de la autoridad de control . Dicha autoridad podrá realizar evaluaciones de impacto y deberá promover capacitaciones en materia de ética y de alfabetización mediática e informacional sobre la IA. También será la encargada de crear un registro de responsables, creadores y proveedores de sistemas de IA, así como tamibén aplicar sanciones.

 

Consideramos que es una buena iniciativa como primer marco regulatorio. Celebramos las prohibiciones estipuladas así como la posibilidad de aplicar sanciones.

De todas maneras, podrían incorporarse más detalles. El proyecto es muy “principista” y deja en cabeza del Ejecutivo la facultad de designar un organismo. Creemos que la autoridad de aplicación debe crearse por ley y debe contar con participación de la sociedad civil. Además, deben explicarse los supuestos ante los cuales se aplicarán las mencionadas sanciones.

El proyecto tiene como objetivo establecer presupuestos mínimos para el desarrollo, la innovación y la implementación de sistemas de inteligencia artificial (IA) en Argentina.

En este sentido:

  1. Declara el desarrollo de la IA como de interés nacional y estratégico, subrayando la importancia de su avance científico y tecnológico para el país.
  2. Define conceptos clave, como inteligencia artificial, sistema de IA, modelos de IA e inteligencia artificial generativa (IAG), proporcionando un marco conceptual claro y preciso.
  3. Establece principios rectores como el respeto por los derechos humanos, la transparencia, la privacidad, la seguridad y la responsabilidad, que sirven de guía para el diseño, la implementación y el uso de sistemas de IA.
  4. Introduce un sistema de clasificación de riesgos (alto, moderado o mínimo) para evaluar los impactos potenciales de los sistemas de IA en función de criterios como la protección de datos personales y los derechos humanos.
  5. Prohíbe expresamente ciertos usos de la IA que podrían ser perjudiciales para la convivencia democrática, la seguridad o los derechos fundamentales, como el uso discriminatorio de datos biométricos o la manipulación de procesos democráticos.
  6. Designa al Poder Ejecutivo como responsable de reglamentar la ley y designar una autoridad de aplicación con competencias en auditoría, evaluación y sanción, así como en la promoción de la innovación responsable.
  7. Promueve la participación de la sociedad civil, las universidades y los centros de investigación en la elaboración de normativas relacionadas con la IA, reforzando un enfoque colaborativo.
  8. Incluye disposiciones para fomentar la investigación y la capacitación en IA, priorizando su aplicación en áreas estratégicas como la salud, la educación y el medio ambiente.


Consideramos que el proyecto posee definiciones claras. La clasificación de riesgos y las prohibiciones específicas son elementos fundamentales para garantizar el uso seguro y ético de la IA.

Sin embargo, menciona el “fomento” y la “promoción”, entre otras, de la IA pero no establece pautas presupuestarias claras. Queda librado a la voluntad del poder ejecutivo. A la vez, nos preguntamos, ¿promoción para qué? ¿a qué fines? El proyecto se limita a marcar áreas “estratégicas” como la educación, la salud o el medio ambiente, pero queda en esa vaguedad. Creemos que previo a “impulsar” una actividad, debe delimitarse su regulación. Y, de querer promoverla, clarificar alcances y lineamientos.

 

El proyecto tiene como objetivo establecer un marco regulatorio para el desarrollo, investigación y uso de sistemas de inteligencia artificial en Argentina, asegurando la protección de los derechos humanos, la privacidad, la seguridad, la democracia y el estado de derecho. 

En este sentido:  

  1. Define la IA y conceptos clave relacionados, como sistema de inteligencia artificial, desarrollador, operador, usuario y niveles de riesgo, proporcionando un marco conceptual claro y operativo.  
  2. Declara sujetos alcanzados a todos los actores involucrados en la creación, operación y uso de sistemas de IA dentro del territorio nacional, garantizando un alcance integral de la normativa.  
  3. Crea el Registro Nacional de Sistemas de Inteligencia Artificial, exigiendo a los desarrolladores y operadores informar sobre propósitos, algoritmos y medidas de seguridad, fomentando la transparencia y el control.  
  4. Introduce la obligación de realizar evaluaciones de impacto previas a la comercialización y operación de sistemas de IA, priorizando la identificación de sesgos, riesgos de discriminación y otros efectos adversos.  
  5. Establece una categorización de los sistemas de IA en niveles de riesgo (alto, medio y bajo), con requisitos específicos según su impacto potencial en derechos fundamentales y en la seguridad de las personas.  
  6. Prohíbe expresamente el uso de IA en actividades que impliquen manipulación, discriminación, puntuación social, explotación de vulnerabilidades y recopilación no autorizada de datos biométricos, entre otros.  
  7. Prevé auditorías periódicas, delegando en la Autoridad de Aplicación la ampliación de la categorización de riesgos y la supervisión de los sistemas de IA.   
  8. Establece un plazo de adecuación de seis meses para los sistemas de IA en funcionamiento, asegurando una transición ordenada al nuevo marco normativo.  

 

Consideramos que el proyecto representa una iniciativa robusta. La inclusión de definiciones precisas, la categorización de riesgos y la exigencia de evaluaciones de impacto son elementos clave para garantizar un desarrollo ético y responsable.

Asimismo, las prohibiciones específicas refuerzan la protección de derechos fundamentales frente a posibles usos perjudiciales. En relación a esto, consideramos que al proyecto le falta incorporar un régimen sancionatorio. ¿Qué sucede si se infringen las prohibiciones? No queda claro. Otro aporte que proponemos es la creación de un consejo asesor multisectorial con participación de la sociedad civil, la academia y el sector privado, que contribuya a la formulación de lineamientos, auditorías y recomendaciones técnicas, fortaleciendo el enfoque colaborativo y especializado del proyecto.