Llega el momento de aprender a gobernar el uso de la IA en la empresa

La entrada en vigor de las primeras obligaciones del Reglamento de Inteligencia Artificial de la UE abre una nueva dimensión de responsabilidad Leer La entrada en vigor de las primeras obligaciones del Reglamento de Inteligencia Artificial de la UE abre una nueva dimensión de responsabilidad Leer  

La IA se nos ha colado en la gestión como un bólido. Lo extraordinario de sus capacidades no oculta rincones oscuros que plantean cada vez más preguntas. Algunas, inquietantes. El 66% de los directivos encuestados por BCG ven en la privacidad y seguridad de los datos el principal riesgo; siguen la falta de control o comprensión de sus decisiones y los desafíos regulatorios y de compliance (44%). Pasado el primer entusiasmo, es el momento que las mentes brillantes dejen paso a señores más aburridos que le pongan límites al asunto con una legislación bien meditada. La UE ha dado un paso decisivo con el Reglamento de Inteligencia Artificial (RIA), cuyas primeras obligaciones entrarán en vigor el 2 de febrero.
Un informe de KPMG explica que las obligaciones concretas se basan en dos parámetros: «El nivel de riesgo del sistema de IA de que se trate» (con más obligaciones para los calificados como de alto riesgo) y «el rol o papel que ostenten las entidades en el ciclo de vida del sistema de IA o en su cadena de valor» (que engloba proveedores, fabricantes, importadores, distribuidores…). Además, la norma obliga a los proveedores y los responsables del despliegue de sistemas de IA a «adoptar medidas para garantizar que, en la mayor medida posible, su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización».
Las multas por infracciones del RIA se fijarán como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. El informe de KPMG asegura que «pueden alcanzar los 35.000.000 millones de euros» o, si el infractor es una empresa, hasta el 7% de su volumen de negocio mundial total del ejercicio financiero anterior.
El estado de la cuestión merece semejante rigor. Iván Cordón Medrano, director de Innovación de DATAI, el Instituto de Ciencia de los Datos e Inteligencia Artificial de la Universidad de Navarra, sostiene que si 2023 fue «el año en el que las empresas descubrieron la IA» , el año 2024 «ha sido el año en el que han empezado a trabajar con ella».
En España, el uso de la IA por nuestras empresas refleja «un panorama positivo, con avances significativos y retos por abordar». Según un informe de Deloitte, «el 92% de los CTO españoles muestran interés por la IA generativa, siendo el porcentaje más alto de Europa». Los chatbots y asistentes virtuales son las aplicaciones más implementadas (60%), seguidos por la generación de contenidos (59%) y el resumen de información (56%). Áreas como el desarrollo de productos y la ciberseguridad presentan altos niveles de adopción. Por contra, el estudio destaca «la falta de talento y habilidades técnicas (36%)» como «la mayor barrera para la implementación, junto con desafíos en la ejecución de estas tecnologías (34%) y preocupaciones regulatorias (32%)».
Ese último punto nos devuelve a la inminencia del RIA. Sus primeras obligaciones «exigirán a las empresas revisar y actualizar sus políticas internas», explica Cordón. «Esto debería provocar la creación de comités de supervisión y protocolos de evaluación de riesgos». Para el día a día, advierte de que «las empresas deben invertir tiempo en formar y concienciar a sus equipos sobre las implicaciones éticas y legales». Y recuerda que «la adopción de estas obligaciones también forzará una mayor transparencia en procesos y decisiones basadas en IA por miedo a las multas». Equipara esta transición – «salvando las distancias»- «con lo que ocurrió cuando se aprobó la LGPD».
En gran parte de las organizaciones, la gestión del uso de la IA ha recaído sobre los departamentos técnicos, especialmente IT. Con la entrada del RIA, Cordón observa que «ya se están sumando áreas como Legal, RRHH (por el impacto que pueda tener el uso de IA en los empleados/personas) y Compliance». Hoy, la responsabilidad suele recaer en la alta dirección y en comités específicos de innovación, pero «sería deseable que la supervisión se extendiera a todos los mandos intermedios, y que existiera una formación transversal para cada departamento». El directivo «se debe situar entre la flexibilidad y el control responsable. Se recomienda animar a los empleados a aprovechar la IA para agilizar tareas y mejorar la toma de decisiones, pero también se deben establecer límites claros y mecanismos de supervisión para prevenir usos indebidos o sesgos». En cualquier caso, «el desembarco se debe hacer de forma escalonada y con una estrategia clara que venga desde la dirección».

Nadie quiere la anarquía, y menos en un tema tan potente como la inteligencia artificial. La necesidad del RIA es evidente. Pero el exceso de celo puede llevar a crear algo así como una madre castradora. «Es necesario regular el uso de la IA, pero hay que hacerlo de una forma en la no se pare la innovación», sostiene Iván Cordón. «Alcanzar ese equilibrio va a ser uno de los retos de los próximos años. Hay que tener en cuenta que está en juego la competitividad de Europa en un sector que está llamado a generar trillones en los próximos años».

 Actualidad Económica // elmundo

Te puede interesar