×
Tecnología

Todo es mentira: OkCupid Vendió Tu Cara Y No Lo Sabías

Javier Cifuentes
Javier Cifuentes
23 de abril de 2026 · 7 min de lectura · 0 vistas
Todo es mentira: OkCupid Vendió Tu Cara Y No Lo Sabías

Hilo sobre cómo OkCupid vendió 3 millones de caras para entrenar IA de vigilancia y la FTC les dijo "no lo vuelvas a hacer". Spoiler: no hubo multa. No hubo disculpa. Y tú sigues subiendo selfies a apps de ligar.

# Todo es mentira: OkCupid vendió 3 millones de fotos para entrenar IA facial. La FTC les dijo "no lo vuelvas a hacer". Punto.

Clarifai borró las imágenes 12 años después de usarlas. Match Group no pagó ni un euro de multa. Y tú sigues subiendo selfies a apps de ligar.

OkCupid nació en 2004.

Una de las primeras plataformas de citas en internet. Preguntas absurdas. Algoritmos de compatibilidad. Promesas de encontrar el amor mediante matemáticas.

En 2014, la empresa ya no era la misma.

Había sido adquirida por Match Group. La gigante detrás de Tinder, Plenty of Fish, Hinge. La máquina de convertir la soledad en suscripción mensual.

Y en algún momento de ese año, Maxwell Krohn —cofundador de OkCupid— recibió un email.

Matthew Zeiler, CEO de Clarifai, una startup de reconocimiento facial con sede en Nueva York, le escribió algo directo.

"Estamos recopilando datos ahora y acabamos de darnos cuenta de que OKCupid debe tener una CANTIDAD ENORME de datos increíbles para esto".

La respuesta de OkCupid no fue "no tenemos permiso de nuestros usuarios".

Fue: "toma, aquí tienes 3 millones de fotos. Y también datos demográficos. Y ubicación. Y todo lo que necesites".

La app que te prometía amor entregó tu cara a una empresa de vigilancia.

La política de privacidad que nadie leyó

OkCupid tenía una política de privacidad.

En ella, la empresa prometía no compartir información personal con terceros sin consentimiento explícito.

Pero la política no decía nada sobre fotos.

O más bien: no decía que las fotos fueran información personal. Eran "contenido público". Visible para otros usuarios. Por lo tanto, según la lógica interna de OkCupid, transferible a quien quisiera.

Clarifai usó esas 3 millones de imágenes para entrenar modelos de reconocimiento facial.

¿Para qué?

La empresa no lo especificó. Pero su cliente principal era el gobierno de Estados Unidos. Agencias de inteligencia. Fuerzas de seguridad.

Tu cara. Tu foto de perfil. La que subiste para ligar. Entrenando algoritmos que luego identifican manifestantes. Migrantes. Disidentes.

Y no lo sabías.

La privacidad que firmaste con un clic no protegió tu cara. Protegió la excusa de quien la vendió.

El giro polémico

Aquí está el truco que nadie menciona.

En 2019, The New York Times publicó un artículo exponiendo el caso. La FTC abrió investigación. Seis años de silencio.

En abril de 2026 —doce años después de que ocurriera—Clarifai anunció que había eliminado las fotos y los modelos entrenados con ellas.

Match Group llegó a un acuerdo con la FTC.

¿La multa?

Ninguna.

La FTC no puede imponer sanciones monetarias por infracciones de privacidad de primera vez. La ley no se lo permite.

El castigo fue una prohibición permanente de compartir datos con terceros para entrenar IA sin consentimiento informado.

Traducción: OkCupid vendió tu cara, la usaron para entrenar algoritmos de vigilancia, te ocultaron durante doce años que lo habían hecho, y la única consecuencia fue que ahora tienen que pedirte permiso antes de volver a hacerlo.

La ironía definitiva: Match Group no admitió culpa. Aceptó el acuerdo "sin reconocer las acusaciones".

Es decir: pagaron cero. Se disculparon cero. Y la prensa lo reportó como "Clarifai elimina datos", no como "OkCupid vendió 3 millones de caras y no pasó nada".

La empresa que te robó la cara sigue funcionando. Tú sigues buscando pareja en sus apps.

¿Y ahora qué hicieron con tu cara?

Clarifai dice que borró las fotos. Que destruyó los modelos entrenados con ellas.

Pero el reconocimiento facial no funciona así.

Un modelo entrenado con 3 millones de rostros no "olvida" lo que aprendió cuando borras las imágenes originales. Los pesos de la red neuronal, los patrones aprendidos, las características faciales extraídas —eso sigue existiendo en otros modelos, en versiones posteriores, en productos derivados.

Es como intentar borrar una huella dactilar de una base de datos cuando ya entrenaste a cien sistemas para reconocerla.

Imposible.

Y luego está el problema del consentimiento.

¿Recuerdas haber aceptado que OkCupid compartiera tu foto con una empresa de IA?

No. Porque no lo hiciste.

La política de privacidad de 2014 no mencionaba Clarifai. No mencionaba reconocimiento facial. No mencionaba que tu cara podía terminar entrenando algoritmos para el gobierno.

Pero legalmente, eso no importó. Porque en 2014, la ley no exigía que te lo dijeran.

Consentimiento informado es un lujo que las apps de citas no necesitan. Hasta que la FTC les dice que sí.

Escenarios futuros

# 1. El ciclo del "consentimiento retroactivo" (probabilidad: 70%)

Match Group y el resto de la industria de apps de citas añadirán cláusulas de consentimiento para IA en sus términos de servicio. Checkbox más pequeño. Texto más largo. Mismo resultado: la mayoría aceptará sin leer. Las empresas seguirán compartiendo datos con terceros, ahora "legalmente", porque tú marcaste una casilla que nadie te explicó. La FTC volverá a investigar en 2030. Otro acuerdo. Otra prohibición. Ninguna multa. Y tu cara seguirá entrenando modelos en algún servidor de Virginia.

# 2. La fragmentación de la confianza (probabilidad: 25%)

Una parte de los usuarios —la más informada, la más joven— abandona las apps tradicionales. Migra a plataformas descentralizadas, de código abierto, que no almacenan fotos en servidores corporativos. Pero eso es una minoría. La mayoría sigue en Tinder, en Hinge, en OkCupid. Porque la soledad es más urgente que la privacidad. Y porque el daño ya está hecho. Tu cara de 2014 ya entrenó algoritmos. No puedes recuperarla. Solo puedes decidir si sigues entregando la de 2026.

# 3. El retorno de la cara propia (probabilidad: 5%)

Una regulación europea o estadounidense exige que las empresas de IA permitan a los usuarios verificar si sus datos fueron usados para entrenar modelos, solicitar su eliminación y recibir compensación económica si se demuestra uso no consentido. Las empresas resisten. Pagan abogados. Pero la presión social crece. Y entonces, por primera vez, alguien que subió una foto a OkCupid en 2014 recibe un email. No de disculpa. De indemnización. Pequeña. Simbólica. Pero real. Y todo vuelve a empezar. Pero esta vez, con un precio.

La pregunta que no te dejará dormir

Si descubrieras que la foto que subiste a una app de citas hace diez años —la que elegiste porque te hacía parecer divertido, o misterioso, o simplemente menos solo— terminó entrenando algoritmos que ahora identifican rostros en protestas, en fronteras, en cámaras de seguridad, y que la empresa que la vendió no pagó ni un euro de multa, ¿seguirías creyendo que "aceptar los términos" protege tus datos? ¿O admitirías que el consentimiento que firmaste fue siempre un truco para que ellos pudieran decir que tú dijiste que sí?