Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o ‘equipo rojo’, cuya función principal es hackear los propios productos de inteligencia artificial de la compañía para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionerizado desde 2021, se enmarca en una estrategia de seguridad proactiva para garantizar que la tecnología opere dentro de límites establecidos.

Brad Smith, presidente de Microsoft, destacó que la existencia de estos equipos es fundamental para aplicar los principios éticos que la corporación ha definido y hecho públicos. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró Smith respecto a la metodología de trabajo.

El ejecutivo enfatizó que la responsabilidad del uso de la inteligencia artificial no radica únicamente en determinar cuándo debe emplearse la tecnología, sino también en establecer claramente cuándo no debe ser utilizada. Esta distinción es central para la operación del equipo de seguridad interno, el cual simula ataques y pruebas de estrés contra los sistemas desarrollados por la empresa.

Según reportes, la práctica del ‘red teaming’ tiene sus orígenes en el ámbito militar y ha sido aplicada en el campo de la ciberseguridad durante décadas. En el contexto actual, surge ante el debate sobre el uso de la IA en conflictos bélicos, recordando antecedentes como la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021 y recientes acciones legales de otras empresas tecnológicas contra el uso de sus modelos con fines militares.

La conformación de este grupo de prueba refleja un enfoque integral donde la seguridad no es solo técnica, sino también ética. Al someter sus propios desarrollos a intentos de violación controlados, Microsoft busca asegurar que los guardarraíles establecidos en sus principios operativos sean efectivos en escenarios reales de riesgo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *