Artificial Intelligence

Rédigé le 01/07/2023
Philippe BRNB


La inteligencia artificial (IA) está cada vez más presente en nuestra vida cotidiana, especialmente a través de nuevos productos o servicios. Sin embargo, se basa en algoritmos que requieren una gran cantidad de datos, a menudo personales, y su uso requiere el cumplimiento de ciertas precauciones.



¿Qué es la inteligencia artificial?
Para el Parlamento Europeo, la inteligencia artificial es cualquier herramienta utilizada por una máquina para "reproducir comportamientos asociados a los humanos, como el razonamiento, la planificación y la creatividad". Esta definición podría ampliarse para incluir comportamientos que superen las capacidades humanas, ya que los ordenadores actuales son capaces de superarlas en determinadas tareas (aunque la competencia del ordenador termina generalmente con la ejecución de esa tarea). Por ejemplo, el sistema de IA AlphaGo, capaz de vencer al campeón de Go Lee Sedol, es muy bueno ideando estrategias para este juego, pero sus capacidades se acaban ahí. Será incapaz de jugar al ajedrez o realizar otras tareas hasta que se le haya enseñado a hacerlo. Por tanto, cualquier sistema que ponga en práctica mecanismos cercanos a los del razonamiento humano podría calificarse de inteligencia artificial.


¿Por qué es importante reconocer la presencia de la IA?
Como toda nueva tecnología, los sistemas que utilizan la inteligencia artificial siguen estando sujetos a fallos y ataques, y pueden tener repercusiones aún insospechadas sobre los individuos y la sociedad. Sin poner en duda las ventajas que pueden ofrecer estos sistemas, es sin embargo vital ser consciente de los riesgos a los que exponen a los usuarios.


En primer lugar, al igual que los seres humanos, son propensos al error, ya sea debido a un fallo o a la discriminación incorporada a la herramienta: es lo que se conoce como sesgo. Sobre este punto, el Reglamento General de Protección de Datos especifica que: El interesado tendrá derecho a no ser objeto de una decisión basada únicamente en un tratamiento automatizado [...] que produzca efectos jurídicos que le conciernan o le afecten significativamente de modo similar. - Artículo 22 del RGPD
En otras palabras, los seres humanos deben seguir teniendo el control, un punto señalado por la CNIL en un informe sobre los desafíos éticos de la inteligencia artificial, que aborda las cuestiones de la autonomía y la toma de decisiones automatizada. Todas las personas tienen derecho a oponerse a determinados procesos automatizados que no impliquen la intervención humana en el proceso de toma de decisiones.



¿Por qué comete errores la IA?
Dada la complejidad de los sistemas que utilizan inteligencia artificial, puede haber muchas fuentes de error.
Errores en el diseño del sistema
En primer lugar, hay errores en el diseño del sistema, que pueden deberse a varias causas.
Falta de representatividad
Si en los datos de entrenamiento no se han tenido en cuenta determinados casos reales, se habla de falta de representatividad.
Por ejemplo, algunos algoritmos de reconocimiento facial entrenados en conjuntos de datos con un número insuficiente de personas de determinados orígenes étnicos.
Una hipótesis demasiado aproximada
Como abstracción matemática, el algoritmo se basa en hipótesis, algunas de las cuales pueden resultar demasiado aproximadas.
Por ejemplo, los algoritmos utilizados para evaluar el rendimiento de los profesores en Estados Unidos dieron lugar a numerosas quejas porque la hipótesis de que las notas de los alumnos eran una prueba directa del rendimiento de un profesor era demasiado simplista.
Criterios erróneos
Cuando se entrena el algoritmo, se evalúa el rendimiento de una tarea según determinados criterios, o métricas. Los criterios y el umbral final elegidos tienen un gran impacto en la calidad del sistema final.
Por ejemplo: un umbral bajo corresponde en realidad a una tasa de error más elevada, deliberadamente aceptada por el diseñador del sistema. Para un algoritmo de diagnóstico médico, por ejemplo, el objetivo principal es evitar falsos negativos, ya que en caso de falso positivo siempre podemos realizar más pruebas. Por tanto, puede optarse por utilizar un umbral bajo para los falsos positivos (lo que aumenta su número) si ello permite un umbral más alto para los falsos negativos (lo que reduce su número).
Errores relacionados con las condiciones de uso
También pueden producirse errores como consecuencia de las condiciones de uso del sistema de IA.
Mala calidad de los datos
La calidad de los datos suministrados al sistema durante su utilización afecta a su rendimiento.
Ejemplo: esto puede observarse cuando se utiliza un asistente de voz en un entorno ruidoso: la calidad de la comprensión del asistente se reduce entonces.
Fallos o limitaciones relacionados con el hardware
Cuando el sistema depende de componentes físicos como sensores, la calidad de los resultados del sistema dependerá del estado de estos componentes.
Por ejemplo, un sistema de detección de incivilidades mediante videovigilancia puede estar sujeto a más errores si se despliega sobre un parque de cámaras con una resolución insuficiente.
Otros riesgos de fallo
Por último, como cualquier sistema complejo, los sistemas de inteligencia artificial no están exentos de los fallos clásicos de los sistemas informáticos, que pueden producirse en las infraestructuras físicas donde se realizan los cálculos, durante la comunicación de la información o como consecuencia de un error humano.
En lo que se diferencian los sistemas de inteligencia artificial de los sistemas informáticos más tradicionales es en las dificultades que entraña la identificación del problema: es lo que se conoce como explicabilidad. De hecho, sobre todo en los sistemas llamados "profundos", como las redes neuronales, el número de parámetros utilizados hace que a menudo sea imposible comprender de dónde procede el error. Para limitar este riesgo, conviene conservar ciertos datos útiles para el sistema durante un periodo de tiempo adecuado: es lo que se denomina trazabilidad.



¿Dónde interviene la CNIL?
Acompañamiento de la CNIL La CNIL presta atención al desarrollo de estas nuevas herramientas. En primer lugar, en el marco de su misión de acompañamiento, para poder asesorar útilmente a las autoridades públicas, a los investigadores y a las empresas. Luego, a través de las misiones de control que realiza en dispositivos efectivamente implementados. Por último, a través de una acción de vigilancia que busca, por ejemplo, identificar nuevos modos de ataques o sesgos que conducen a tratamientos de datos ilícitos.

Nuevos marcos europeos por venir
Varios marcos regulatorios que buscan aclarar las condiciones de uso de la inteligencia artificial están actualmente en proceso de elaboración a nivel europeo. En primer lugar, el Reglamento ePrivacy (una evolución de la actual directiva ePrivacy) especificará qué reglas del RGPD serán aplicables en la protección de la privacidad en línea de los ciudadanos. Este texto podría tener importantes consecuencias para los actores de la inteligencia artificial que ofrecen servicios de comunicación electrónica. El Reglamento de Mercados Digitales (DMA), el Reglamento de Servicios Digitales (DSA) y el Reglamento de Gobernanza Digital (DGA) regularán el mercado de las grandes plataformas digitales. El DSA, en particular, tiene como objetivo aumentar la transparencia y la responsabilidad de las plataformas hacia los usuarios. Este texto también podría tener consecuencias para las plataformas que utilizan algoritmos de recomendación. Más recientemente introducido, el Reglamento sobre Inteligencia Artificial (RIA) propuesto por la Comisión Europea en abril de 2021 ofrecerá un enfoque basado en los riesgos para regular el uso de sistemas de inteligencia artificial y fomentar la aparición de soluciones innovadoras respetuosas de los derechos y libertades de las personas. La CNIL se ha pronunciado junto con sus homólogos europeos sobre este texto y se ha posicionado para asumir el papel de autoridad de control responsable de la aplicación del reglamento en Francia.