
En un contexto de creciente adopción global de la inteligencia artificial, Microsoft publicó su Informe de Transparencia sobre IA Responsable 2025, en el que repasa sus avances, desafíos y estrategias para promover una IA segura, confiable y alineada con estándares éticos.
Tras la publicación del primer informe en mayo de 2024, la compañía incorporó los aportes de clientes, investigadores, reguladores y comunidades para fortalecer su programa de gobernanza, el cual lleva casi una década en marcha. El nuevo documento destaca cómo se ha adaptado Microsoft ante la rápida evolución tecnológica y los marcos regulatorios emergentes, como la Ley de IA de la Unión Europea.
“Una IA confiable no solo es posible, sino que es buena para los negocios”, destaca el informe, que cita datos de una encuesta global: más del 75% de las organizaciones que utilizan herramientas de IA responsable reportan beneficios en privacidad, reputación y toma de decisiones.
Principales avances en 2024
Durante el último año, Microsoft realizó inversiones clave para ampliar el alcance y la eficacia de sus herramientas de IA responsable. Algunas de las más destacadas son:
-
Cobertura extendida a imágenes, audio, video y sistemas semiautónomos, como los agentes virtuales, que se espera dominen el desarrollo de IA en los próximos años.
-
Nuevos mecanismos de revisión y gestión de riesgos, incluyendo evaluaciones previas al lanzamiento y “equipos rojos” que detectan posibles fallas de seguridad o sesgos.
-
Creación del AI Frontiers Lab, un espacio de investigación dedicado a explorar los límites de la capacidad, seguridad y eficiencia de la IA.
-
Guías y asesoramiento personalizado para sectores sensibles, como salud y ciencia, donde el uso de IA requiere evaluaciones más estrictas.
-
Apoyo activo a normativas internacionales, colaborando en la elaboración de estándares globales y herramientas compartidas para pruebas y mitigación de riesgos.
Hacia una IA más confiable y global
De cara a la segunda mitad de 2025, Microsoft centrará sus esfuerzos en tres áreas estratégicas:
-
Desarrollar herramientas de gestión de riesgos más ágiles y flexibles, capaces de adaptarse al ritmo vertiginoso de los avances en IA y a una diversidad creciente de casos de uso.
-
Impulsar una gobernanza compartida en toda la cadena de suministro de la IA, clarificando responsabilidades entre desarrolladores, implementadores y usuarios, y fomentando una cultura de transparencia.
-
Promover normas comunes y herramientas efectivas de evaluación, contribuyendo a la maduración del campo de la medición de riesgos mediante investigación y colaboración abierta.
Un enfoque iterativo y colaborativo
El informe subraya que la confianza en la IA no se logra con soluciones únicas, sino con una combinación de principios claros, aprendizaje continuo, respuesta a feedback y cooperación internacional.
“Sabemos que esto es un esfuerzo global y compartido. Seguiremos aportando nuestras herramientas, aprendizajes y mejores prácticas para que la IA funcione a favor de las personas, las organizaciones y la sociedad”, cierra el documento.
Comentarios