Mundo
Todo es mentira: Por Qué El Copilot De Microsoft Asusta
Todo es mentira. Solo el 3,3% paga por Copilot, así que Microsoft reinventa todo: ahora tu IA trabajará 24/7 sin pedirte permiso, gestionando tu correo mientras duermes. El problema: sus propios expertos de seguridad dicen que es 'código no confiable' que necesita aislamiento total. ¿Productividad o pérdida de control? Hilo sobre el agente que decide por ti

Todo es mentira: Microsoft quiere que tu IA trabaje 24/7 sin descanso (y sin que sepas qué hace)
Solo el 3,3% de los usuarios de Microsoft 365 pagan por Copilot. Esa cifra dolió tanto en Redmond que decidieron reinventar el producto por completo.
**La solución: un agente autónomo que no espera tus órdenes, que gestiona tu correo mientras duermes, que "actúa proactivamente" según sus propios criterios.
** Bienvenido al nuevo Copilot, inspirado en OpenClaw, el framework de código abierto que Microsoft ahora intenta domesticar para sus 400 millones de usuarios.
De asistente a agente: el salto que cambia todo
El equipo "Ocean 11" y la obsesión por la autonomía
Omar Shahine, ex jefe de Microsoft Word, lidera un equipo llamado "Ocean 11". Su misión: integrar OpenClaw en Copilot para crear "asistentes proactivos que tomen tareas de principio a fin sin esperar un prompt". No es una mejora incremental. Es un cambio de paradigma.
Hasta ahora, Copilot reaccionaba. Tú pedías, él respondía. El nuevo modelo, anticipado en Copilot Cowork con la tecnología de Anthropic Claude, actúa. "Prepara la reunión de junta" implica: recopilar datos, crear presentación, enviar invitaciones, coordinar preparativos. Todo sin que supervises cada paso.
cita guardada
"La gente no quiere otro chatbot. Quiere un agente siempre activo que trabaje en su nombre, 24/7, con acceso real a su vida real."
El problema: ¿quién controla al controlador?
OpenClaw, el framework que Microsoft intenta integrar, tiene 354.000 estrellas en GitHub y 70.000 forks. Fue creado por Peter Steinberger, ahora en OpenAI. Funciona como asistente virtual local que gestiona archivos, emails, navegación y automatización de flujos. Pero Microsoft no lo adopta tal cual. Lo adapta. Lo cierra. Lo convierte en un servicio.
La pregunta es: ¿qué pierdes en el camino?
El giro polémico: La seguridad que Microsoft advierte sobre su propio producto
Aquí está lo que el blog de seguridad de Microsoft admite en voz alta:
"OpenClaw debería tratarse como ejecución de código no confiable con credenciales persistentes." No es adecuado para estaciones de trabajo estándar. Requiere máquina virtual dedicada, credenciales aisladas, monitoreo continuo y plan de reconstrucción inmediata ante anomalías.
Traducción: el modelo que Microsoft quiere vender a 400 millones de usuarios es, según sus propios expertos de seguridad, inherentemente riesgoso si no se aísla completamente.
cita guardada
"Los riesgos se materializan rápidamente: credenciales expuestas, estado del agente modificado por atacantes, entorno host comprometido si el agente ejecuta código malicioso."
La paradoja del negocio: Microsoft necesita que Copilot sea autónomo para que valga los 30 dólares mensuales. Pero cuanto más autónomo, más peligroso. Cuanto más peligroso, más costosa es la infraestructura de seguridad. Cuanto más costosa es, menos accesible resulta para pequeñas empresas, que son justo quienes más necesitan diferenciarse con IA.
Escenarios futuros: ¿Hacia dónde vamos?
Escenario 1: La fragmentación de la productividad (50% probabilidad)
Grandes empresas con recursos de seguridad adoptan Copilot autónomo. Pequeñas empresas, atrapadas entre el precio (42-57 dólares mensuales reales por usuario) y los riesgos, abandonan la plataforma. Microsoft se convierte en proveedor de élite, no en democratizador de IA. La promesa de "agentes para todos" queda en promesa.
Escenario 2: El accidente que frena todo (30% probabilidad)
Una filtración masiva de credenciales empresariales mediante agente comprometido. Titulares globales, reguladores que actúan, empresas que pausan despliegues. La autonomía se retrasa cinco años mientras la industria desarrolla estándares de seguridad que deberían haber existido antes.
Escenario 3: La aceptación del riesgo (20% probabilidad)
Las empresas asumen la inseguridad como coste de hacer negocios. Los seguros cibernéticos cubren pérdidas por agentes autónomos. La productividad gana, la privacidad pierde, y generaciones de trabajadores nunca saben qué decisiones tomó una máquina en su nombre.
La pregunta que no te dejará dormir
Si tu agente de IA gestiona tu correo a las 3 a. m., toma decisiones en tu nombre y comete errores que solo descubres días después, ¿eres tú el empleado o es el agente el verdadero trabajador y tú solo el supervisor residual?
cita guardada
"El 3,3% de adopción de Copilot no es fracaso de marketing. Es rechazo instintivo a ceder agencia a una máquina que no entiendes."
Microsoft apuesta a que la autonomía forzada cambiará esa percepción. Que cuando el agente actúe sin pedir permiso, sentiremos alivio, no pérdida de control. Que la conveniencia vencerá a la desconfianza, como ha pasado con cada tecnología que ahora damos por sentada.
Pero hay una diferencia. Tu smartphone no tomaba decisiones por ti. Tu agente de IA, sí. Y cuando descubras que delegaste mal, ya será tarde para volver atrás.
¿Tú qué crees? ¿Es inevitable que cedamos autonomía a máquinas para mantenernos competitivos laboralmente? ¿O estamos construyendo un sistema donde la productividad se mide por cuánto nos atrevemos a no supervisar?
Déjanos tu opinión. Y revisa tu correo a las 3 a. m. Algo podría estar respondiendo en tu nombre.
cerrar o compartir expediente
comentarios
Conversacion
Una capa final para debate, réplicas y sospechas. Todo queda guardado en Supabase.