cd2db880f58744d68fbee622dee1bd8f
Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene operativo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial con el fin de probar su seguridad antes de su lanzamiento. La compañía, que se atribuye haber sido pionera en la formación de este grupo en 2021, utiliza esta práctica para identificar vulnerabilidades y riesgos potenciales en sus sistemas.
Brad Smith, presidente de Microsoft, destacó la importancia de establecer límites claros en el desarrollo de estas tecnologías. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, afirmó el ejecutivo.
Smith enfatizó que la regulación interna no solo dicta cuándo debe utilizarse la tecnología, sino también cuándo no debe hacerse. “No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, añadió, subrayando la responsabilidad corporativa en la aplicación de la inteligencia artificial.
La metodología del ‘red teaming’ tiene sus orígenes en el ámbito militar y se ha aplicado en ciberseguridad durante décadas. En el contexto actual, esta práctica surge amid un debate global sobre el uso de la IA en conflictos bélicos, marcado por casos como la demanda de Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021.
A través de este equipo de seguridad, la tecnológica busca asegurar que sus innovaciones operen dentro de los márgenes éticos establecidos, actuando como una medida preventiva contra usos indebidos o fallos críticos en sus productos de inteligencia artificial.