Inteligencia Artificial responsable, una necesidad económica, tecnológica y social

Ángela Puga García

La inteligencia artificial está llamada a ser la próxima frontera de la productividad, con un potencial económico inmenso en todas las industrias. Analistas la califican como el desarrollo tecnológico del siglo XXI, y su repercusión social está siendo ya palpable. Pero para que esto ocurra, la IA debe ser responsable, o no será.

No es un secreto para nadie que la inteligencia artificial (IA, según siglas) ha calado hondo en nuestras vidas, desde la tecnología que está al alcance de nuestras manos (nuestros smartphones, ordenadores o vehículos cada vez más autónomos) hasta el tejido empresarial y económico, con una adopción cada vez más alta de la misma por parte de las empresas. Su desarrollo y progreso lleva siendo analizado y potenciado desde hace más de una década.

Las fuertes inversiones de los gigantes tecnológicos en investigación y desarrollo están alimentando los avances en el ámbito de la IA. A su vez, la confianza de las organizaciones en la IA y su percepción de la tecnología como driver fundamental de su crecimiento están impulsando el aumento de sus inversiones. De acuerdo con estimaciones recientes de la consultora Precedence Research, el mercado de la IA crecerá a una tasa de crecimiento anual compuesto del 38.1% desde 2022, alcanzando los 1.591 mil millones de dólares en 2030.

Con el boom de la IA generativa gracias a aplicaciones como ChatGPT, Stable Diffusion o GitHub Copilot, entre otras, el impacto de la tecnología ha crecido de manera exponencial. El último estudio de Boston Consulting Group al respecto, ‘The CEO’s Roadmap on Generative AI’, habla de que, para 2027, el mercado de la IA generativa tendrá un tamaño estimado de 121 mil millones de dólares, con un CAGR del 68% (2022-2027).

«Todo este contexto lleva a un punto en el que analistas, empresas, desarrolladores e implementadores de tecnología, reguladores e, incluso, sociedad en general parecen estar de acuerdo: el potencial económico es enorme, pero también conlleva incertidumbre y complejos riesgos latentes».

Un potencial para la economía mundial de billones de dólares

La IA puede realizar una gran variedad de tareas rutinarias, desde la clasificación de datos o textos hasta la creación de dichos textos, pasando por la automatización del inventario en un almacén o la gestión de los siniestros. Como resultado, está impregnando cada vez más las tareas y operaciones empresariales, así como el día a día de la sociedad.

Además, tiene efectos muy positivos a nivel económico y puede habilitar desarrollos tecnológicos encadenados que harán crecer la tasa de productividad. Por ello, es una tecnología de propósito general que es necesaria para impulsar el desarrollo y ayudar a resolver muchos de los problemas actuales.

Centrándonos en la IA generativa, encontramos estudios que hablan de su potencial económico. El más reciente, publicado por McKinsey en junio, cuantifica el impacto de la IA generativa en la productividad en billones de dólares para la economía global. En concreto, habla de que “la IA generativa puede añadir [a la economía] el equivalente a 2,6-4,4 billones de dólares al año en los 63 casos de uso analizados. Esto significa un aumento de toda la IA de entre un 15 y un 40%”. Además, el estudio añade que “esta estimación, aproximadamente, se duplicaría si incluimos el impacto de la IA generativa integrada en software utilizando actuales para otras tareas más allá de esos casos de uso”.

La IA – y la IA generativa – está teniendo un impacto significativo en todos los sectores industriales, y todo indica que en el futuro seguirá siendo así. En lo que respecta al sector seguros, se tratará de un impacto de entre 50 y 70 mil millones de dólares anuales, de acuerdo con McKinsey. Otros sectores, como el bancario, aumentan esta cifra hasta los 200-340 mil millones de dólares.

“En este contexto, en el que solo estamos ante la punta del iceberg de la era de la IA, es fundamental controlar la exposición a los riesgos asociados a la tecnología. De nada sirve generar ahorros o aumentar la productividad, si no se controlan los riesgos operativos, éticos y regulatorios que trae consigo, o si las empresas no priorizan su uso responsable. Las consecuencias a corto y largo plazo de no gestionar y mitigar los desafíos son demasiado graves. Estos riesgos se pueden y se deben controlar”.

Bárbara Fernández, directora adjunta de MAPFRE Open Innovation y responsable de Insur_space.

Mitigar los riesgos para un desarrollo económico, tecnológico y social sostenibles

De acuerdo al informe ‘Inteligencia Artificial Responsable: tecnología confiable, segura y sostenible para generar la economía del futuro’, elaborado desde MAPFRE, la mayor parte de las organizaciones ya consideran que el uso responsable de la IA debe ser una prioridad para la alta dirección de sus compañías.

Hoy en día, existe cierta percepción de control de los riesgos de la IA por parte de las empresas, aunque la ausencia de regulación y guías prácticas para el buen uso de la inteligencia artificial preocupa a la mayoría de los agentes implicados.

En este sentido, la encuesta ‘The State of AI in 2023: Generative AI’s breakout year’, publicada en agosto por McKinsey, va en la misma línea. Los encuestados indican que los riesgos preocupan, pero muy pocas compañías están preparadas aún para el uso de la IA generativa o para hacer frente a los riesgos que trae consigo.

Mitigar los riesgos para evitar que desemboquen en aspectos como pérdidas económicas, operativas o reputacionales, daños físicos a individuos, marginación/discriminación de colectivos, inestabilidad económica o política, o problemas de seguridad digital, entre otros, es esencial para un desarrollo económico, tecnológico y social sostenibles. Para que la IA sea, verdaderamente, una palanca de crecimiento, la IA responsable debe ser una pieza fundamental de la agenda empresarial, sin importar tamaño o actividad económica.

Para garantizar este paradigma tecnológico, el primer paso es la definición de buenas prácticas, estándares y servicios para la evaluación, monitorización y mitigación de los riesgos. A medida que continúe incrementándose la adopción de la IA y la regulación entre en vigor, no solo aumentará la necesidad de cumplir con esa primera fase, sino que también lo hará el asegurar el cumplimiento regulatorio. Esto estará ligado a una oportunidad para servicios de terceros capaces de cubrir esas demandas y de avalar que se trabaje con una IA responsable.

“Las aseguradoras debemos actuar como red de seguridad en este entorno, además de como habilitadores de todo gran proyecto o innovación que venga de la mano de la inteligencia artificial. Por eso es nuestra responsabilidad ser capaces de adelantarnos a lo que está por venir, de liderar el camino a través del uso propio de una IA ética y de una gobernanza responsable”, comenta Fernández. “Solo invirtiendo en investigación y en el empleo correcto de la tecnología seremos capaces de acompañar a nuestros clientes en su camino, así como de evaluar y respaldar el uso de la IA en cada iniciativa que desarrollen”, añade.