Dilema: valor vs riesgo de la IA desde la perspectiva de finanzas

Se habla mucho de las inmensas posibilidades de la inteligencia artificial (IA) y también de los riesgos, desde amenazas concretas de ciberseguridad hasta improbables distopías de ciencia ficción. Lo que sí está claro es que muchas cosas van a cambiar, y profundamente.
Ambas dimensiones –lo que sume o reste– deben ser consideradas en las áreas de finanzas y en especial por los CFOs, tomando en cuenta que, junto a los CEOs y los CTOs, están asumiendo el liderazgo en la adopción y el posicionamiento ante esta transformación.
Respecto al alcance, la consultora Bain ha estimado que el mercado accionable total para hardware y software relacionados con IA crecerá entre 40 y 55 por ciento anualmente en los próximos tres años, alcanzando un valor de entre 780 mil y 990 mil millones de dólares en 2027.
Inversiones históricas para transformaciones históricas.
Como ha dicho Jensen Huang, el CEO de Nvidia, “la IA generativa implica la mayor expansión del mercado total direccionable de software y hardware que hemos visto en varias décadas”.
En lo que atañe específicamente a la gestión financiera, la IA ya está generando mejoras significativas donde se han implementado soluciones, como muestra una investigación de la consultora global Roland Berger. Por ejemplo, reducciones de 33% en el tiempo necesario para aprobar facturas y del 25% para hacer cierres mensuales. En combinación con otras tecnologías, como aprendizaje automático y blockchain, ARMS y empresas de distintos sectores están recortando, en promedio, en 30% el DSO, los días pendientes de cobro desde la venta. Toda una revolución en los procesos de cuentas por cobrar.
En cuanto a la escala de los riesgos, una buena referencia son los principios de prevención que ha establecido la Unión Europea, que aprobó, en marzo de 2024. Es la primera legislación para la IA en el mundo, buscando, precisamente, equilibrar el impulso de innovación con la seguridad y el respeto a derechos fundamentales, para lo que marca como “inaceptables” riesgos como la manipulación del comportamiento, la puntuación social o sistemas de identificación biométrica en espacios públicos.
Para las empresas, la IA implica amenazas muy importantes: seguridad y privacidad de datos; riesgos operativos, como pueden ser errores costosos en interpretaciones, o financieros, como malas inversiones; resistencia de empleados y daños a la reputación, problemas legales y de propiedad intelectual.
Balance o disyuntiva
El rol de liderazgo de finanzas en la estrategia de IA le añade valor en su posición dentro de la organización, pero es todo un desafío ante el cúmulo de responsabilidades que ya tiene, y que van más allá de lo financiero, como refiere un artículo de cfo.com sobre este punto: los directores financieros ahora tienen una intervención preponderante en evaluación de riesgos, control de calidad de los datos de negocio, desarrollo de cultura organizacional, iniciativas de regreso a la oficina tras la pandemia y, desde luego, dar sentido a la incorporación de tecnología, en particular a la IA.
Es una prueba aún compleja tomando en cuenta, como muestra el nuevo Informe de Prioridades de los Ejecutivos Financieros 2025 de la Fundación para la Educación e Investigación Financiera (FERF, por las siglas en inglés), que hay escepticismo y casi cuatro de cada 10 CFOs están indecisos sobre los riesgos y los beneficios de las inversiones en IA para las operaciones financieras.
Las ventajas en productividad pueden verse claramente, pero el terreno que las empresas deben recorrer para alcanzarlas puede ser azaroso, como expone Arturo Bris, profesor de finanzas del IMD que ha liderado el influyente IMD World Competitiveness Center, en un artículo sobre el futuro de la función financiera con la IA: de entrada, con incertidumbre extrema, en el entorno, sobre las implicaciones éticas y sociales, así como el impacto potencial en los mercados financieros.
Basándose en conocimientos del Centro de Competitividad del IMD, incluyendo los rankings de Competitividad Digital y de Talento, se propone empezar por reflexionar sobre dos preguntas fundamentales:
- ¿Cómo podemos navegar en un entorno regulatorio global que evoluciona de manera desigual para equilibrar la innovación con el uso responsable de la IA?
- ¿Qué pasos deberíamos tomar para preparar a nuestra fuerza laboral para un futuro en que la IA transformará el trabajo?
Consideraciones básicas
Ante la incertidumbre de la IA, desde el IMD se insta a evitar la postura “segura” pero potencialmente complaciente de “esperar y ver”. De entrada, porque los riesgos financieros y de reputación de la inacción son demasiado altos.
Como primer paso, las empresas deben tener una visión clara e integral de todas las herramientas de IA que se utilizan en sus organizaciones. Deben establecer estructuras de gobernanza con responsabilidades definidas, así como programas de capacitación para el desarrollo y el uso responsable.
Hay que asimilar la escala de la disrupción: en efecto, la IA puede mejorar la creatividad humana, la resolución de problemas, la comunicación; sin embargo, a medida que los sistemas se vuelven más capaces en el análisis e incluso toman decisiones, la fuerza laboral puede sentirse gravemente amenazada.
Gobiernos y reguladores deberán ver cómo lidiar con las implicaciones sociales generales, como eventuales reducciones de empleo por la automatización, pero los líderes empresariales y financieros tienen un papel crucial que desempeñar.