La prensa está haciendo eco sobre la propuesta presentada en Bruselas el pasado 21 de Abril con el objetivo de garantizar la seguridad y los derechos de las personas y las empresas entorno al uso de la Inteligencia Artificial.

Si te interesa este artículo y aún no lo has leído, antes de nada, te recomiendo leer la nota de prensa oficial en este enlace: https://ec.europa.eu/commission/presscorner/detail/es/ip_21_1682

Se están viendo titulares para todos los gustos y un cierto debate entre aspectos legales y éticos: aquellos que defienden la necesidad para regular la IA y evitar un uso inapropiado, y los que defienden que esta regulación puede frenar el desarrollo de estos proyectos. También hay quien cuestiona la propuesta al no concretar conceptos como qué se entiende por Inteligencia Artificial, qué algoritmos podrían estar sujetos a la legislación o con qué tipos de datos sería posible entrenar a los modelos.

Cierto es que nos encontramos ante una tecnología revolucionaria que puede ayudar mucho a la vida de las personas y las organizaciones. Pero al mismo tiempo, sigue siendo una tecnología desconocida por muchas personas y que puede generar incertidumbre, incluso temor, si el uso no es el apropiado.

Este nuevo Reglamento sobre la IA garantizará que los europeos podamos confiar en lo que la IA puede ofrecer. Hemos de tener en cuenta que esta propuesta todavía tiene que ser aprobada por el Parlamento Europeo y los Estados miembros.

¿Qué cambios supondría esta regulación de la IA?

De forma muy resumida, propone prohibir el uso en espacios públicos de sistemas de Inteligencia Artificial que permitan la identificación biométrica, el empleo de la IA para disponer de sistemas de puntuación sociales y “técnicas subliminales” que puedan distorsionar el comportamiento de un usuario de manera que pueda ocasionarle un daño físico o psicológico.

Se establecen 4 niveles de riesgo para clasificar las IAs:

  • Riesgo inadmisible: serán prohibidas
  • Riesgo alto: habrá obligaciones estrictas antes de su comercialización
  • Riesgo limitado: habrá normas concretas, como informar de su uso
  • Riesgo mínimo o nulo: su uso estará permitido

No obstante, estos 4 niveles contemplan excepciones como, por ejemplo, excluir de la norma aquellos sistemas que se empleen para uso militar.

Normativa sobre AI y protección de datos

No es la primera normativa europea o directrices propuestas por la Comisión que afecta a los proyectos de Inteligencia Artificial buscando la innovación responsable y la excelencia en materia de AI. En 2018 se aplica el Reglamento General de Protección de Datos, en 2019 se proponen directrices sobre una “IA confiable centrada en los seres humanos” https://digital-strategy.ec.europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence y en 2020 se publica “el Libro blanco sobre Inteligencia Artificial” https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf .

También en 2020, la AEPD publica una “guía para adaptar al RGPD los productos y servicios que utilicen Inteligencia Artificial” https://www.aepd.es/es/prensa-y-comunicacion/notas-de-prensa/la-aepd-publica-una-guia-para-adaptar-al-rgpd-los-productos-y de donde se extraen recomendaciones y obligaciones para aquellas soluciones que contengan datos personales y que tomen decisiones basadas en tratamientos automatizados que afectan a personas físicas. En esta guía se refuerza la importancia del cumplimiento de la normativa vigente en función de los datos con los que estemos tratando, la ética, los sesgos especialmente enfocados en la interpretación de los resultados de la IA asumiéndolos como ciertos e inamovibles, la anonimización y pseudonimización de los datos sensibles, y la historificación y el registro de la toma de decisiones.

Como humanos, estos documentos siempre están abiertos a la interpretación personal… No obstante, y como ya indicaba nuestro Director Antonio Soto en 2019 en un artículo sobre Machine Learning y los datos personales https://blogs.solidq.com/es/seguridad-cumplimiento/machine-learning-y-los-datos-personales/ , “está claro que hay que informar sobre si se están utilizando técnicas de Machine Learning para realizar, por ejemplo, perfilados de usuarios; o tomas de decisiones de forma automática, como por ejemplo si otorgar un préstamo o no” así como tener recopilada determinada información para posibles auditorías: tanto técnica sobre el algoritmo utilizado, su lógica, de dónde provienen los datos y las características que se están utilizando en el modelo; como detallando los objetivos del despliegue: cuándo, cómo y para qué se utiliza.

¿Dilema normativo o ético?

Bff… respuesta complicada, probablemente tanto como el reto de definir la regulación y sus límites de aplicación. Sin embargo, me surge una duda sobre la que te invito a pensar. Llamémoslo debate interno constructivo. ¿Sería necesaria esta compleja regulación si realmente tuviéramos presentes principios éticos para asegurar la equidad, la seguridad, la privacidad, la inclusión, la transparencia…?

Por desgracia las recomendaciones éticas no siempre se siguen voluntariamente por todo el mundo y la tecnología avanza más rápido que la normativa.

Ante esta situación, en nuestros proyectos de Machine Learning apostamos desde hace años por una IA interpretada y responsable (para evitar sesgos que puedan ser identificados por personas vinculadas al negocio) y una IA auditable gracias a nuestro framework de trabajo y control de versiones para asegurar la transparencia.

1 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like