El Pais Uruguay

Intentos para regular la inteligencia artificial

Hace unos días la revista del MIT Technology Review publicó un artículo en el que resume los intentos de distintos gobiernos del mundo por comenzar a discutir la eventual regulación del uso de inteligencia artificial y las ventajas y desventajas de cada uno de esos caminos. En particular, y desde el surgimiento de CHATGPT, la IA generativa ha causado preocupación sobre su impacto en tareas que imaginamos lejanas a este tipo de tecnologías. Y apenas unos meses de masificar su uso, ya es posible detectar algunos de sus posibles peligros: desde la producción de desinformación, estafas hasta en la alimentación permanente a ejércitos de mensajes de spam.

1. El primer intento de regulación mencionado por el MIT no sorprende que venga de Europa, desde donde se ha hecho punta en la regulación del impacto de las nuevas tecnologías en la vida diaria. El Consejo de Europa está finalizando un tratado legalmente vinculante para la inteligencia artificial que requiere que en los 46 países miembros se tomen medidas para garantizar que la IA se diseñe, desarrolle y aplique de manera que proteja los derechos humanos, la democracia y el Estado de Derecho. El tratado podría incluir potencialmente moratorias sobre tecnologías que representan un riesgo para los derechos humanos, como el reconocimiento facial, algo que algunos de los países europeos ya han hecho.

2. La alternativa a esto es que la Unión Europea está finalizando la Ley de IA, un corpus de gran alcance que tiene como objetivo regular los usos más “de alto riesgo” de los sistemas de IA. Propuesto por primera vez en 2021, el proyecto de ley regularía la IA en sectores como la atención médica y la educación.

3. Mucho antes del CHATGPT, en 2019, los países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) acordaron adoptar un conjunto de principios no vinculantes que establecen algunos valores que deberían sustentar el desarrollo de la IA. Según esto, los sistemas de IA deben ser transparentes y explicables; debe funcionar de manera robusta, segura; debe tener mecanismos de rendición de cuentas; y debe diseñarse de manera que respete el Estado de Derecho, los derechos humanos, los valores democráticos y la diversidad. Los principios también establecen que la IA debe hacer todo eso sin dejar de contribuir al crecimiento económico.

4. Tal vez uno de los caminos que ha tenido menos impacto es el del primer ministro canadiense Justin Trudeau y el presidente francés Emmanuel Macron que fundaron la Asociación Global sobre IA (GPAI) en 2020 como un organismo internacional que podría compartir investigaciones e información sobre IA, fomentar la colaboración internacional en investigación en torno a la IA responsable e informar a la IA. La organización incluye 29 países, algunos en África, América del Sur y Asia.

5. La alternativa tal vez más ambiciosa y probablemente con un impacto menor al que uno pueda imaginar, es la de Naciones Unidas. La Unesco y los países miembros también adoptaron un marco de ética de IA voluntario en el que los países miembros se comprometen, por ejemplo, a introducir evaluaciones de impacto ético para IA, evalúe el impacto ambiental de la IA y asegurarse de que la IA promueva la igualdad de género y no se utilice para la vigilancia masiva.

6. Más allá de la regulación de zonas o países, los estándares técnicos de los organismos de normalización jugarán un papel cada vez más crucial en la traducción de las regulaciones en reglas sencillas que las empresas puedan seguir. Por ejemplo, una vez que se apruebe la Ley de IA de la UE, las empresas que cumplan con ciertos estándares técnicos automáticamente cumplirán con la ley. Ya existen muchos estándares de IA y hay más en camino.

Distintos gobiernos del mundo discuten la eventual regulación de su uso

LA ÚLTIMA

es-uy

2023-05-24T07:00:00.0000000Z

2023-05-24T07:00:00.0000000Z

https://epaper.elpais.com.uy/article/281822878166593

El Pais Uruguay