Biopolítica y Capitalismo de Vigilancia: La Datificación de la Vida en el Siglo XXI

Publicado el 4 abril, 2025 por Rodrigo Ricardo

La Mutación Digital del Biopoder

El capitalismo de vigilancia, concepto acuñado por la académica Shoshana Zuboff, representa una transformación radical en el ejercicio del poder biopolítico contemporáneo. Mientras Foucault analizó cómo las sociedades disciplinarias del siglo XIX administraban cuerpos a través de instituciones cerradas, y cómo el neoliberalismo posterior gobernaba mediante la autogestión individual, el capitalismo de vigilancia del siglo XXI opera mediante la extracción masiva de datos personales y su conversión en patrones predictivos de comportamiento. Este nuevo régimen no se contenta con regular la vida: aspira a predecirla y modificarla antes de que ocurra, mediante algoritmos que aprenden de cada clic, cada latido cardíaco registrado por wearables, cada movimiento geolocalizado. La paradoja es profunda: nunca antes los seres humanos habían generado tanta información sobre sí mismos, y nunca antes habían tenido menos control sobre cómo se usa esa información para modelar sus vidas.

Las plataformas tecnológicas como Google, Facebook (ahora Meta), Amazon y TikTok han desarrollado sofisticados aparatos de captura de datos que convierten cada interacción humana en materia prima para el capitalismo cognitivo. Lo peculiar de este modelo es que no explota directamente el trabajo humano como en el capitalismo industrial, sino que monetiza las externalidades comportamentales – esos rastros digitales que dejamos sin ser conscientes de su valor económico. El resultado es un nuevo tipo de mercado donde lo que se comercia no son productos ni servicios, sino futuros probabilísticos de comportamiento humano. Las compañías de seguros compran datos predictivos sobre nuestra salud; los partidos políticos adquieren perfiles psicológicos detallados de votantes; las empresas empleadoras analizan nuestros patrones de sueño a través de apps de bienestar. Este es el biopoder en su expresión más pura: un poder que no solo actúa sobre la vida, sino que la reconfigura desde su nivel más íntimo y molecular.

La pandemia de COVID-19 aceleró dramáticamente esta tendencia, normalizando tecnologías de vigilancia que antes habrían generado resistencia masiva. Aplicaciones de rastreo de contactos, pasaportes sanitarios digitales y sistemas de puntuación social basados en el cumplimiento de cuarentenas demostraron cuán rápido las sociedades pueden aceptar la vigilancia biométrica cuando se enmarca como protección de salud pública. Este “excepcionalismo biopolítico” – la suspensión de derechos fundamentales en nombre de la seguridad sanitaria – ha creado precedentes peligrosos para la expansión del capitalismo de vigilancia hacia nuevos ámbitos de la vida. Lo que comenzó como herramientas pandémicas temporales amenaza con convertirse en infraestructura permanente de control social, donde el acceso a espacios públicos, transporte o empleo depende cada vez más de nuestra conformidad digitalmente monitorizada.

La Anatomía del Capitalismo de Vigilancia: Mecanismos de Extracción y Control

El capitalismo de vigilancia opera mediante tres procesos interrelacionados que redefinen radicalmente las relaciones de poder en la sociedad digital: la extracción de datos comportamentales, la creación de mercados predictivos y la implementación de arquitecturas de modificación conductual. La fase de extracción implica la captura sistemática de toda huella digital generada por los usuarios – no solo lo que publicamos voluntariamente, sino especialmente esos datos secundarios que revelan patrones inconscientes: tiempos de permanencia en cada contenido, movimientos del cursor, microexpresiones faciales capturadas por cámaras frontales. Las plataformas han desarrollado sofisticadas técnicas de “nudging” (pequeños empujones conductuales) para incentivar a los usuarios a generar más datos, desde las notificaciones diseñadas para crear adicción hasta las interfaces que premian la sobreexposición emocional.

Una vez recolectados, estos datos son procesados mediante machine learning para crear modelos predictivos de comportamiento humano de una precisión sin precedentes. Empresas como Cambridge Analytica demostraron el poder político de estas tecnologías cuando influyeron en elecciones globales mediante microtargeting psicológico. Pero el verdadero negocio está en los mercados de futuros comportamentales, donde se comercia con predicciones sobre cuándo un usuario probablemente cambiará de trabajo, terminará una relación o desarrollará una condición crónica de salud. Estos mercados constituyen una forma radicalmente nueva de explotación, donde la plusvalía no se extrae del tiempo de trabajo, sino de la experiencia humana total convertida en commodity. La salud mental, las preferencias políticas, los miedos más íntimos – todo es reducido a series de datos intercambiables en mercados globales que operan fuera de cualquier marco regulatorio significativo.

La fase final del proceso – la modificación conductual – es donde el poder biopolítico del capitalismo de vigilancia alcanza su máxima expresión. Mediante algoritmos de recomendación que refuerzan ciertos comportamientos y suprimen otros, las plataformas moldean activamente la realidad social. Los ejemplos abundan: desde TikTok optimizando sus algoritmos para maximizar el tiempo de pantalla en adolescentes con trastornos alimenticios, hasta plataformas de reparto que modifican precios en tiempo real según la vulnerabilidad económica del usuario. Estas arquitecturas de elección (choice architectures) crean lo que el filósofo coreano-alemán Byung-Chul Han llama “la cárcel de la libertad”: espacios donde creemos tomar decisiones autónomas mientras seguimos guiones escritos por algoritmos diseñados para extraer valor económico. El resultado es una sociedad donde la agencia humana es simultáneamente celebrada y sistemáticamente erosionada.

Biopolítica Algorítmica: La Automatización de la Discriminación

Los sistemas algorítmicos que sustentan el capitalismo de vigilancia no son neutrales: codifican y amplifican los prejuicios estructurales de las sociedades que los crean, dando lugar a nuevas formas de discriminación biopolítica automatizada. Los estudios sobre inteligencia artificial revelan patrones sistemáticos de racismo, sexismo y clasismo en sistemas que van desde el reconocimiento facial (que falla desproporcionadamente con rostros no blancos) hasta algoritmos de préstamos bancarios (que reproducen históricas desigualdades en el acceso al crédito). Lo peculiar de esta discriminación algorítmica es su apariencia de objetividad: al presentarse como resultado de cálculos matemáticos, evade el escrutinio y la accountability que enfrentarían formas humanas de prejuicio. La filósofa afrofuturista Ruha Benjamin acuñó el término “racismo nuevo Jim Crow” para describir cómo la automatización está renovando formas de exclusión racial bajo la apariencia de neutralidad tecnológica.

En el ámbito laboral, los sistemas de gestión algorítmica como los utilizados por Amazon en sus almacenes o Uber en su plataforma de conductores representan la culminación del sueño fordista de control total sobre la fuerza de trabajo – pero llevado a niveles que superan cualquier sistema de vigilancia industrial previo. Estos sistemas monitorizan cada movimiento, cada pausa, cada desviación de la ruta óptima, creando un panóptico digital donde los trabajadores son simultáneamente vigilados y disciplinados por inteligencia artificial. La psicóloga ocupacional Aruna Ranganathan ha documentado cómo estos regímenes de vigilancia laboral generan nuevos tipos de estrés y ansiedad, ya que los trabajadores internalizan la mirada algorítmica hasta autorregularse fuera de horarios laborales. El resultado es una forma de biopoder que penetra no solo el cuerpo del trabajador, sino su psique más íntima.

Los sistemas de crédito social que se expanden desde China hacia otras partes del mundo representan quizás la forma más explícita de biopolítica algorítmica. Al asignar puntajes basados en comportamiento social, hábitos de consumo e incluso círculos de amistades, estos sistemas institucionalizan la vigilancia masiva como principio organizador de la sociedad. Lo más preocupante es cómo estas tecnologías están siendo adoptadas por democracias liberales en formas menos visibles pero igualmente potentes: los sistemas de scoring financiero como el FICO score en Estados Unidos o los esquemas de “inmigración por puntos” en países como Canadá y Australia aplican lógicas similares bajo retóricas de meritocracia y eficiencia administrativa. El filósofo francés Grégoire Chamayou advierte que nos dirigimos hacia un “Estado de datos” donde derechos básicos dependerán de mantener un buen score algorítmico.

Resistencias y Alternativas: Hacia una Democracia de Datos

Frente a este panorama distópico, han emergido diversas formas de resistencia que buscan reclamar soberanía sobre los datos personales y construir alternativas al capitalismo de vigilancia. El movimiento por la privacidad digital, encabezado por organizaciones como la Electronic Frontier Foundation, ha logrado importantes victorias regulatorias como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea. Sin embargo, estas regulaciones a menudo son eludidas por las grandes tecnológicas mediante oscuras políticas de consentimiento y complejos flujos de datos transfronterizos. Más prometedoras son las iniciativas que atacan el problema desde su raíz económica, como el movimiento por la soberanía tecnológica que promueve alternativas cooperativas a las plataformas corporativas. Proyectos como Mastodon (alternativa a Twitter), Signal (alternativa a WhatsApp) y Fairphone (teléfono modular y ético) demuestran que es posible construir tecnologías desde lógicas no extractivistas.

En el ámbito jurídico, conceptos innovadores como los “derechos de los datos” propuestos por el jurista argentino Eduardo Bertoni buscan equilibrar la asimetría de poder entre individuos y corporaciones tecnológicas. Estos incluirían el derecho a la portabilidad de datos, el derecho al olvido digital y especialmente el derecho a no ser perfilado algorítmicamente sin consentimiento explícito. Algunas jurisdicciones pioneras como California y Cataluña ya están implementando versiones de estos derechos, aunque su efectividad real sigue siendo limitada frente al poder de las Big Tech.

Las alternativas más radicales provienen de movimientos como el Data Commons Cooperative, que propone modelos de propiedad colectiva sobre datos, donde comunidades gestionan democráticamente su información para beneficio común en lugar de lucro corporativo. Experiencias como la ciudad de Barcelona bajo el gobierno de Ada Colau demostraron cómo las administraciones públicas pueden recuperar soberanía tecnológica, migrando a software libre y desarrollando plataformas ciudadanas alternativas a las soluciones corporativas. Estas iniciativas, aunque aún marginales, apuntan hacia un futuro post-capitalismo de vigilancia donde los datos sirvan a la democracia en lugar de minarla.

El desafío es monumental, pero como muestran estas luchas, la batalla por los datos es en última instancia una batalla por la democracia misma. En un mundo donde el poder se ejerce cada vez más a través del control predictivo del comportamiento, recuperar la soberanía sobre nuestra información personal equivale a recuperar la soberanía sobre nuestras vidas. Como anticipó Foucault, allí donde hay poder, hay resistencia – y en la era digital, esta resistencia debe ser tan innovadora y global como las tecnologías que busca democratizar.

Articulos relacionados