Informe de Transparencia de la IA Responsable 2025 de Microsoft: cómo construimos, apoyamos a nuestros clientes y crecemos

Por Teresa Hutson, CVP, Trusted Technology Group y Natasha Crampton, Chief Responsible AI Officer.

En mayo de 2024, publicamos nuestro primer Informe de Transparencia sobre la IA Responsable. Agradecemos profundamente las opiniones que hemos recibido de nuestros colaboradores en todo el mundo. Sus aportaciones han enriquecido esta segunda edición del estudio, que reafirma nuestro compromiso continuo con el desarrollo de tecnologías de IA en las que las personas puedan confiar. En este informe destacamos los avances realizados en nuestro diseño y despliegue de sistemas de IA de forma responsable, cómo apoyamos a nuestros clientes y al ecosistema en general, y cómo aprendemos y evolucionamos.

El último año ha estado marcado por un auge en la adopción de la IA por parte de organizaciones de todos los tamaños, lo que ha impulsado una renovación del enfoque hacia una gobernanza eficaz de la IA. Nuestros clientes y partners tienen interés por aprender cómo hemos escalado nuestra propia experiencia en Microsoft y cómo hemos desarrollado herramientas y prácticas que convierten normas generales en acciones concretas.

Al igual que nosotros, han comprobado que construir una IA que ofrezca confianza resulta beneficioso para los negocios, y que una buena gobernanza abre nuevas oportunidades en el ámbito de la IA. Según la encuesta de IDC sobre IA Responsable de Microsoft, que recopila información sobre las actitudes organizativas y el estado actual de la IA Responsable, más del 30% de los encuestados identifican la falta de soluciones de gobernanza y gestión de riesgos como la principal barrera para adoptar y escalar la IA. Por otro lado, más del 75% de quienes utilizan herramientas de IA Responsable para la gestión de riesgos afirman que éstas han mejorado aspectos como la privacidad de los datos, la experiencia del cliente, la toma de decisiones empresariales, la reputación de marca y la confianza.

También hemos observado, en el último año, nuevos esfuerzos regulatorios y leyes. Gracias a nuestra inversión en prácticas operativas de IA Responsable durante casi una década, estamos preparados para cumplir con estas normativas y para ayudar a nuestros clientes en este aspecto. Sin embargo, este trabajo no termina aquí. Tal como explicamos en el informe, aún se están definiendo prácticas de regulación e implementación eficientes y efectivas, que permitan la adopción de la IA a nivel global. Seguimos centrados en aportar nuestros conocimientos prácticos para impulsar los esfuerzos en el establecimiento de normas y estándares en todo el mundo.

En todos los aspectos que rodean la gobernanza, es fundamental mantener una actitud flexible, aplicando aprendizajes derivados de nuestras implementaciones en el mundo real, actualizando nuestras prácticas conforme avanzan los estándares y respondiendo a las opiniones de nuestros colaboradores.

En las páginas de este informe se reflejan las enseñanzas extraídas de nuestro enfoque iterativo y basado en principios. A medida que nuestras prácticas de gobernanza sigan evolucionando, compartiremos proactivamente estos nuevos aprendizajes con nuestros colaboradores, tanto en futuros informes de transparencia anuales como en otros foros públicos.

Claves del Informe de Transparencia 2025 de Microsoft

En 2024, realizamos importantes inversiones en nuestras herramientas, políticas y prácticas de IA Responsable para movernos a la misma velocidad con la que avanza la innovación en IA.

  1. Mejoramos nuestras herramientas de IA Responsable para cubrir riesgos más allá del texto, en modalidades como imágenes, audio y vídeo, así como para brindar soporte adicional a sistemas agentes, es decir, sistemas semiautónomos que prevemos serán un área importante de inversión e innovación en IA desde 2025.
  2. Adoptamos un enfoque proactivo y estructurado en capas para cumplir con los nuevos requisitos normativos, incluido el Reglamento de IA de la Unión Europea. Además, proporcionamos a nuestros clientes recursos y materiales que les ayudarán a innovar, alineándose con las diferentes normativas aplicables. Las inversiones tempranas que hicimos para construir un programa integral de IA Responsable nos posicionaron muy bien para intensificar nuestros esfuerzos de preparación regulatoria en 2024.
  3. Seguimos aplicando un enfoque consistente de gestión de riesgos en cada lanzamiento, a través de revisiones previas al despliegue y ejercicios de red teaming. Esto incluye supervisión de usos de IA de alto impacto y elevado riesgo, como lanzamientos de modelos generativos y cada modelo Phi agregado al servicio Azure OpenAI. Para reforzar la documentación de IA responsable en estas revisiones, implementamos una herramienta interna diseñada para centralizar los diversos requisitos establecidos en nuestro Estándar de IA Responsable.
  4. Continuamos ofreciendo asesoramiento personalizado en casos de usos de IA de alto impacto y elevado riesgo, a través de nuestro equipo de Tecnologías Emergentes y Usos Sensibles. Las aplicaciones de IA generativa en áreas como la salud y la investigación científica fueron especialmente destacadas en 2024. Este equipo, al analizar casos y colaborar con investigadores, ha proporcionado asesoramiento desde un primer momento sobre nuevos riesgos y capacidades emergentes de la IA, lo que ha facilitado la innovación y la incubación de nuevas políticas y directrices internas.
  5. Nos basamos en aprendizajes procedentes de investigaciones realizadas para comprender los desafíos sociotécnicos relacionados con los últimos avances en IA. Establecimos el Laboratorio de Fronteras de la IA, donde invertimos en tecnologías esenciales que amplían los límites de lo que los sistemas de IA pueden lograr en términos de capacidad, eficiencia y seguridad.
  6. Trabajamos con colectivos de todo el mundo interesados en la creación de enfoques de gobernanza coherentes que ayuden a acelerar la adopción y permitan a organizaciones de todo tipo innovar y utilizar la IA sin fronteras. Esto ha incluido la publicación de un libro que explora la gobernanza en diferentes ámbitos y la contribución al avance de estándares para evaluar sistemas de IA.

Mirando hacia la segunda mitad de 2025 y siguientes pasos

A medida que la innovación y la adopción de IA continúan avanzando, nuestro objetivo principal sigue siendo el mismo: reforzar la confianza que consideramos fundamental para fomentar una adopción amplia y positiva de la IA en todo el mundo. El próximo año, centraremos nuestros esfuerzos en tres áreas clave para avanzar en nuestro compromiso con la gobernanza de IA, adaptándonos al panorama en constante evolución:

  1. Crear herramientas y prácticas de gestión de riesgos más flexibles y ágiles, mientras fomentamos el desarrollo de habilidades para anticipar y adaptarnos a los avances en IA. Para garantizar que las personas y organizaciones de todo el mundo puedan aprovechar el potencial transformador de la IA, nuestra capacidad para gestionar los riesgos debe evolucionar al mismo ritmo que la innovación. Esto exige crear herramientas y protocolos que se adapten rápidamente a los avances en las capacidades de la IA y a la diversidad de escenarios de implementación, cada uno con perfiles de riesgo únicos.
  2. Apoyar una gobernanza eficaz a lo largo de la cadena de suministro de la IA. Construir, ganar y mantener la confianza en la IA es un esfuerzo compartido que requiere la colaboración entre desarrolladores de modelos, creadores de aplicaciones y usuarios de sistemas. Aunque hacemos nuestra la figura de responsabilidad compartida reflejada en normativas como el Reglamento de IA de la UE, reconocemos que definir cómo encajan estas responsabilidades es complejo. Para ello, profundizaremos en nuestro trabajo interno y externo para aclarar roles y expectativas.
  3. Impulsar un ecosistema dinámico a través de normas compartidas y herramientas eficaces, especialmente para la evaluación de riesgos en IA. Estamos comprometidos con el apoyo a que este campo madure, continuando con las inversiones dentro de Microsoft, incluyendo la investigación que amplía las fronteras de la medición y evaluación de riesgos de IA, así como las herramientas para ponerlo en práctica a escala. Seguimos comprometidos a compartir nuestros últimos avances en herramientas y mejores prácticas con el ecosistema más amplio para apoyar el avance de normas y estándares compartidos para la medición y evaluación de riesgos de IA.

Desde Microsoft esperamos comentarios de todos los actores sobre los progresos logrados y estamos encantados de explorar oportunidades de colaboración para abordar los desafíos que quedan por resolver. Juntos, podemos avanzar de manera eficiente y efectiva en la gobernanza de la IA, fomentando la confianza en los sistemas de IA al mismo ritmo que se presentan las oportunidades.

Consulta el Informe de Transparencia de la IA Responsable 2025

Deja un comentario