Logo Computerworld University

El lenguaje de la tecnología

Escudo Computerworld University

Inteligencia artificial en la UE: Equilibrio entre beneficios y control

Cuando la presidenta de la Comisión Europea pronunció su primer discurso en el Parlamento Europeo en diciembre de 2019, reconoció formalmente a la «inteligencia artificial» como un área de importancia estratégica para la Unión Europea.

huawei 041120

Nueve meses más tarde, de nuevo ante el Parlamento Europeo en su primer Discurso del Estado de la Unión, pasó de usar el término completo «inteligencia artificial» a hablar de la «IA», una señal de lo bien conocida que es ya esta tecnología en los pasillos de la UE. No debe sorprendernos si pensamos que la IA se está implantando en la mayoría (si no en la totalidad) de los sectores económicos, desde el diagnóstico de enfermedades hasta la minimización del impacto medioambiental de la actividad agrícola.

Es cierto que la Comisión Europea ha trabajado mucho desde de que la presidenta Ursula Von der Leyen y su equipo asumieron la dirección. En diciembre de 2019 ya existía la promesa de una «propuesta legislativa» sobre la IA. Lo que se publicó fue un documento técnico sobre inteligencia artificial en febrero. Aunque ciertamente no se trata de una propuesta legislativa, el documento ha abierto el debate sobre la inteligencia artificial desde el punto de vista humano y ético, sobre la utilización del Big Data y sobre cómo estas tecnologías pueden aprovecharse para crear riqueza en sociedades y empresas.

El documento técnico de la Comisión subraya la importancia de disponer de un enfoque común acerca de la IA en los 27 Estados miembros de la UE, en un momento en el que algunos países han empezado a afrontar la regulación por su cuenta, con el consiguiente peligro de que se creen barreras dentro del mercado único de la UE. Además, para Huawei es importante que, a la hora de regular la IA, hable de desarrollar un enfoque basado en los riesgos.

En Huawei hemos estudiado el documento técnico con mucho interés y, junto con otras partes implicadas (¡más de 1250!), hemos contribuido a la consulta pública de la Comisión, cerrada el 14 de junio, para señalar nuestras impresiones e ideas como expertos en este campo.

 

Encontrar el equilibrio

El aspecto clave que hemos subrayado a la Comisión es la necesidad de encontrar el equilibrio adecuado entre facilitar la innovación y garantizar una protección adecuada para los ciudadanos.

En particular, nos hemos centrado en la necesidad de regular las aplicaciones de alto riesgo dentro de un marco legal claro y hemos propuesto ideas sobre cómo se debe definir la inteligencia artificial. En este sentido, creemos que la definición de la IA debe fundamentarse en su aplicación, con evaluaciones de riesgos que se centren en el uso previsto de la aplicación y en el tipo de consecuencias que se deriven de la función que desarrolle la inteligencia artificial. Si existen listas de evaluación detalladas y procedimientos en vigor para que las empresas puedan realizar sus propias evaluaciones, se reducirá el coste de la evaluación de riesgos inicial, que deberá ajustarse a los requisitos específicos de cada sector.

Hemos recomendado a la Comisión que reúna a las organizaciones de consumidores, a los académicos, a los Estados miembros y a las empresas con el fin de valorar si un sistema de IA puede calificarse como de alto riesgo. Ya existe un organismo establecido para tratar este tipo de aspectos, el actual Comité técnico para sistemas de IA de alto riesgo (TCRAI, por sus siglas en inglés). Creemos que este organismo podría valorar y evaluar los sistemas de IA de acuerdo con criterios de alto riesgo, tanto desde el punto de vista legal como técnico. Con un cierto control sobre la oferta por parte de este organismo, unido a un sistema de etiquetado voluntario, se dispondría de un modelo de regulación que

  • tuviese en cuenta toda la cadena de suministro,
  • estableciese los criterios adecuados y los objetivos previstos de transparencia para consumidores/empresas,
  • incentivase el desarrollo responsable y la implementación de la IA, y
  • crease un ecosistema de confianza.

Aparte de las aplicaciones de alto riesgo de la IA, hemos señalado a la Comisión que el marco legal actual, fundamentado en la responsabilidad contractual y basada en la culpa, es suficiente incluso para las tecnologías pioneras como la inteligencia artificial, donde existe miedo a la implantación de nuevas normas. Una regulación adicional, no obstante, no es necesaria; supondría una carga excesiva y desalentaría la adopción de la IA.

Por lo que sabemos del enfoque actual de la Comisión, parece que también planea un enfoque basado en los riesgos para regular la IA. En concreto, la Comisión propone centrarse a corto plazo en las aplicaciones de IA de «alto riesgo», es decir, ya sean sectores de algo riesgo (como el sector sanitario) o usos de alto riesgo (por ejemplo, si de ellos se derivan consecuencias legales u otros efectos igualmente significativos sobre los derechos de una persona).

 

¿Y ahora qué?

La Comisión tiene mucho trabajo que hacer para revisar todas las aportaciones del proceso de consulta y tener en cuenta las necesidades de las empresas, la sociedad civil, las asociaciones comerciales, las ONG y otros. La carga adicional de trabajo que supone la crisis del coronavirus no ha facilitado las cosas, de modo que ya no se espera una respuesta oficial de la Comisión hasta el primer trimestre de 2021.

Sin duda, el coronavirus ha cambiado las reglas del juego en cuanto al uso de la tecnología en la atención sanitaria y, con toda seguridad, tendrá sus consecuencias sobre los planteamientos de la Comisión en esta área. Términos como «telemedicina» llevan debatiéndose durante años, pero la crisis ha convertido las consultas virtuales en una realidad prácticamente de la noche a la mañana.

Más allá de la asistencia sanitaria, asistimos a la implantación de la inteligencia artificial en áreas como el sector agrícola y en los esfuerzos de la UE por luchar contra el cambio climático. En Huawei estamos orgullosos de formar parte de este continuo desarrollo digital de Europa, una región en y para la que llevamos 20 años trabajando. El desarrollo de las competencias digitales se encuentra en el corazón de esta actividad, no solo para equipar a las generaciones futuras con las herramientas que les permitan aprovechar todo el potencial de la IA, sino también para facilitar que los trabajadores del presente sean una fuerza activa y ágil en un mundo que no cesa de cambiar. Se necesita una educación inclusiva, continua e impulsada por la innovación para lograr una formación en IA que facilite a los trabajadores la transición entre distintos trabajos. El mercado laboral ha sufrido un enorme impacto por la crisis y se necesitan soluciones rápidas.

Mientras esperamos la respuesta oficial de la Comisión al documento técnico, ¿qué más podemos decir sobre la IA en Europa? Una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente, agricultura inteligente y fuentes de energía más baratas y sostenibles: son solo algunas de las ventajas que la IA puede aportar a nuestras sociedades y a la UE en conjunto. Huawei colaborará con los legisladores de la UE y trabajará para garantizar que la región consiga el equilibrio perfecto: innovación combinada con protección de los consumidores.

 

En colaboración con Huawei



TE PUEDE INTERESAR...

Últimas Noticias

liderazgo Liderazgo & Gestión TI


Registro:

Eventos: