Todo es mentira: Cómo Cambió El Precio De Claude Code Sin Avisar


Spoiler: era un test para ver si podían forzarte al plan de 100€ sin que te dieras cuenta. Y solo volvieron atrás porque el 2% gritó lo suficiente.
# Todo es mentira: Anthropic "probó" quitar Claude Code del plan de 20€. El 2% de usuarios nuevos descubrió que tu suscripción nunca fue tuya.
Una empresa valorada en decenas de miles de millones cambió la página de precios para el 2% de registros. Dijo que era un "test". Los usuarios se dieron cuenta. Anthropic volvió atrás. Pero la pregunta real es: ¿cuántas veces no te diste cuenta?
El 22 de abril de 2026, la página de precios de Claude mostró algo distinto.
Claude Code —la herramienta de desarrollo que permite a la IA escribir, depurar y ejecutar código directamente en tu terminal— ya no aparecía en el plan Pro de 20 dólares al mes.
Solo en Max. El plan de 100 dólares.
Los usuarios nuevos que se registraron ese día no pudieron acceder. Los existentes, por ahora, sí.
Pero la página pública decía que no estaba incluido.
El caos llegó a Reddit y X. Especulación. Frustración. Acusaciones de bait-and-switch.
Amol Avasare, jefe de crecimiento de Anthropic, salió a explicar.
Era un "small test". Solo el 2% de nuevos registros Pro.
Un experimento. Una prueba. Nada definitivo.
Pero la página de precios —la que ve el mundo entero— reflejaba el cambio como universal. No como test.
Cuando una empresa cambia su contrato con el 2% de clientes y lo publica como norma, no está probando. Está midiendo tu paciencia.
El plan que nunca fue para ti
Anthropic lanzó Max hace un año.
En ese momento, no incluía Claude Code. No existía Cowork. Los "agentes que corren durante horas" eran ciencia ficción.
Max costaba 100 dólares porque prometía "uso intensivo de chat".
Después llegó Opus 4. Claude Code se incluyó en Max. Cowork apareció. Los agentes asíncronos de larga duración se volvieron "workflows cotidianos".
La gente empezó a usar Claude de forma distinta. Más horas. Más código. Más automatización.
Y Anthropic se dio cuenta de algo.
El plan de 20 dólares no estaba diseñado para lo que la gente hace ahora.
"Engagement per subscriber is way up", dijo Avasare.
Traducción: la gente usa más de lo que pagamos por prever. Y eso es un problema de negocio, no de experiencia de usuario.
La excusa siempre es "mejorar tu experiencia". La razón siempre es "proteger nuestro margen".
El giro polémico
Aquí está el truco que nadie menciona.
Anthropic no "probó" quitar Claude Code. Probó qué tan lejos podía empujar antes de que el 2% se quejara lo suficiente para que el 98% se enterara.
Porque si el test hubiera funcionado —si nadie hubiera gritado, si la página hubiera pasado desapercibida— el cambio se habría quedado.
Y no habría sido un test. Habría sido política.
Avasare admitió que ya habían hecho "small adjustments" antes. Límites semanales. Restricciones en horas pico.
Cada ajuste pequeño. Cada límite "temporal". Cada capa de fricción añadida sin anuncio.
Hasta que el plan de 20 dólares deja de ser lo que prometió ser.
Claude Code no es una feature extra. Es la razón por la que muchos desarrolladores pagan Pro.
Quitarlo no es reestructurar planes. Es cambiar el producto que vendiste sin cambiar el precio.
Traducción: Anthropic descubrió que Claude Code vale más de 20 dólares. Y en lugar de subir el precio del plan Pro —lo que sería honesto— probó quitar la herramienta y forzarte al plan de 100.
La ironía definitiva: Avasare dijo que "our current plans weren't built for this".
Pero los planes no son arquitecturas físicas. Son contratos digitales. Se pueden modificar en segundos. Se pueden anunciar. Se pueden negociar.
Anthropic no dijo "vamos a ajustar precios". Dijo "vamos a probar quitar algo que ya pagaste".
Y cuando el 2% protestó, volvieron atrás. No porque estuvieran equivocados. Porque les convenía.
La empresa que construye IA ética probó la ética de sus usuarios antes de probar la suya propia.
La suscripción como relación de poder
En 2026, no compras software. Alquilas acceso.
Y el alquiler tiene cláusulas que no leíste. Que cambian. Que se aplican cuando a la empresa le conviene.
Anthropic no es única. OpenAI ha restringido GPT-4 para forzar a GPT-4o. Google ha metido publicidad en productos que prometieron sin anuncios.
Pero Anthropic se vendía como diferente. Como la "IA segura". La "empresa de beneficio público". La que prioriza la alineación sobre la velocidad.
Y luego probó quitar una herramienta de 20 dólares a usuarios que ya habían decidido confiar en ella.
El "test" del 2% es una técnica clásica de pricing.
Mide reacción sin riesgo. Si hay silencio, implementas. Si hay ruido, dices "era solo un test" y esperas a que la próxima vez haya menos ruido.
Porque cada "test" educa al usuario. Le enseña que los límites son flexibles. Que lo que tienes hoy puede no estar mañana. Que protestar es la única forma de mantener lo que ya pagaste.
La suscripción no es un contrato. Es una tregua temporal que la empresa puede romper cuando el engagement sube demasiado.
Escenarios futuros
# 1. La erosión silenciosa (probabilidad: 65%)
Anthropic no vuelve a intentar quitar Claude Code de golpe. Pero sigue ajustando. Límites semanales más bajos. Tiempo de espera en horas pico. Calidad degradada sutilmente para usuarios Pro. Cada cambio es "pequeño". Cada explicación es "optimización". Y en 12 meses, el plan Pro de 20 dólares sigue existiendo, pero ya no hace lo que prometía. Los usuarios que necesitan Claude Code migran a Max. Los que no pueden pagar 100 dólares se quedan con una versión recortada. Y nadie protesta, porque cada paso fue demasiado pequeño para merecer un hilo en Reddit.
# 2. La fragmentación del mercado (probabilidad: 30%)
La comunidad de desarrolladores reacciona. No con protestas. Con código. Surgen alternativas open source a Claude Code. Herramientas que conectan modelos locales con terminales. Que no dependen de suscripciones. Que no pueden ser "testeadas" fuera de tu plan. Anthropic pierde una parte del mercado que no vuelve. No porque la competencia sea mejor. Porque la confianza, una vez rota, no se reconstruye con "era solo un test". Y el ecosistema de IA se fragmenta: los que pagan 100 dólares por conveniencia, y los que pagan 0 por control.
# 3. El retorno del precio honesto (probabilidad: 5%)
Anthropic —u otra empresa de IA— decide que la relación con el usuario vale más que el ARPU (Average Revenue Per User). Anuncia un cambio de precio real. Transparente. Con meses de antelación. Con opciones de migración. Sin tests encubiertos. Sin páginas de precios que mienten. Y los usuarios, sorprendidos por la honestidad, aceptan pagar más. Porque prefieren un precio claro a un producto que desaparece en silencio. Y entonces, por primera vez en la era de la suscripción, una empresa de tecnología trata a sus clientes como adultos. Y todo vuelve a empezar. Pero esta vez, sin el 2% que descubre lo que el 98% no quiere ver.
La pregunta que no te dejará dormir
Si descubrieras que la herramienta que usas para trabajar —la que te hace ganar dinero, la que integraste en tu flujo diario, la que ya no puedes dejar de usar— puede desaparecer mañana de tu plan de 20€ porque la empresa decidió que "engagement per subscriber is way up" y prefiere que pagues 100€, ¿seguirías construyendo tu productividad sobre un contrato que la otra parte puede reescribir mientras duermes? ¿O empezarías a buscar alternativas que no dependan de que un "test" del 2% fracase para que tú sigas teniendo lo que ya pagaste?