Tecnologías de Poder en la Era Digital: Redes, Algoritmos y Control Social

Publicado el 27 mayo, 2025 por Rodrigo Ricardo

La Transformación Digital del Ejercicio del Poder

El advenimiento de la era digital ha reconfigurado radicalmente las dinámicas de poder en el siglo XXI, creando nuevas formas de vigilancia, control y resistencia que desafían los marcos teóricos tradicionales. Mientras pensadores clásicos como Foucault analizaban instituciones disciplinarias como prisiones y hospitales, el panorama actual está dominado por lo que Shoshana Zuboff denomina “capitalismo de vigilancia”: un sistema económico donde la experiencia humana es tratada como materia prima gratuita para extracción, predicción y modificación conductual. Plataformas digitales, algoritmos de inteligencia artificial y dispositivos conectados han dado lugar a lo que algunos teóricos llaman “panóptico digital” – un sistema de vigilancia omnipresente donde los usuarios simultáneamente son observados y participan activamente en su propia monitorización. Este nuevo ecosistema de poder no opera principalmente mediante coerción, sino a través de mecanismos seductores de personalización, gamificación y recompensas variables que moldean comportamientos con precisión sin precedentes.

La particularidad del poder digital radica en su capacidad para funcionar a escala microscópica y planetaria simultáneamente. Cada like, clic o tiempo de permanencia en una app alimenta sistemas que no solo predicen preferencias individuales, sino que identifican patrones colectivos susceptibles de manipulación política o comercial. Investigaciones han demostrado cómo plataformas como Facebook pueden influir en estados emocionales masivos mediante simples ajustes algorítmicos, como demostró el controvertido experimento de 2012 donde se manipuló el feed de 689,003 usuarios para estudiar el “contagio emocional”. Estos sistemas representan una forma de “biopolítica algorítmica” donde la vida misma -desde ritmos circadianos hasta preferencias electorales- se convierte en objeto de cálculo y control. Sin embargo, este poder no es monolítico: la misma infraestructura digital que permite vigilancia sin precedentes también ha facilitado nuevas formas de activismo, como demostraron movimientos como #MeToo o las primaveras árabes. Comprender estas dinámicas contradictorias es esencial para navegar el paisaje político contemporáneo.

1. La Economía Política de la Atención: Monopolios Digitales y Mercantilización de lo Social

Las grandes tecnológicas (Google, Meta, Amazon, Apple, Microsoft) han establecido un nuevo tipo de poder oligopólico que trasciende el ámbito económico para reconfigurar la esfera pública, las relaciones sociales e incluso la subjetividad. Estas corporaciones controlan lo que el filósofo coreano-alemán Byung-Chul Han llama “infocapitalismo”: un sistema donde el recurso escaso ya no es la fuerza laboral (como en el capitalismo industrial) ni siquiera la información (como se creyó en los 90), sino la atención humana. La capacidad para capturar, retener y redirigir la atención se ha convertido en la mercancía fundamental del siglo XXI, dando lugar a economías de plataforma donde los usuarios trabajan gratuitamente produciendo datos valiosos mientras las corporaciones monetizan cada aspecto de su experiencia digital. Este modelo ha generado asimetrías de poder sin precedentes: mientras un usuario promedio gasta 2.5 horas diarias en redes sociales sin recibir compensación, Meta reportó ganancias por $116 billones en 2023, evidenciando una nueva forma de extracción de valor.

Los algoritmos que gobiernan estas plataformas no son herramientas neutrales, sino sistemas de poder que toman decisiones políticas con consecuencias reales. El algoritmo de YouTube, por ejemplo, ha sido ampliamente criticado por promover contenido extremista mediante lo que la investigadora Zeynep Tufekci denomina “radicalización algorítmica”: un proceso donde el sistema recomienda progresivamente material más extremo para maximizar el tiempo de visualización. Estudios del Data & Society Institute muestran cómo usuarios que comienzan viendo videos sobre fitness pueden terminar en espirales de contenido misógino o teorías conspirativas en cuestión de semanas. Similarmente, los algoritmos de contratación basados en IA frecuentemente replican sesgos raciales y de género, como cuando Amazon descubrió que su sistema de reclutamiento penalizaba currículos que incluían la palabra “mujer”. Estos casos revelan que los algoritmos no eliminan la subjetividad humana, sino que codifican y amplifican prejuicios existentes bajo la apariencia de objetividad matemática.

2. Estados de Vigilancia: Entre la Seguridad y el Autoritarismo Digital

La relación entre gobiernos y tecnologías digitales ha dado lugar a nuevas formas de estatidad donde el control social adopta características distintivamente digitales. China representa el caso más avanzado con su Sistema de Crédito Social, que combina reconocimiento facial, big data y algoritmos de puntuación para asignar privilegios o restricciones según el comportamiento ciudadano. Este sistema, que para 2023 ya cubría a 1.4 billones de personas, penaliza desde infracciones de tránsito hasta “comportamiento antisocial” como criticar al gobierno en redes, creando lo que los académicos llaman “autoritarismo algorítmico”. Sin embargo, democracias occidentales también han adoptado tecnologías controvertidas: el programa PRISM de la NSA revelado por Edward Snowden demostró que agencias estadounidenses recolectaban diariamente millones de registros de llamadas, emails y ubicaciones de ciudadanos comunes, argumentando necesidades de seguridad nacional.

La vigilancia digital contemporánea difiere cualitativamente de sus precedentes históricos en tres aspectos clave: granularidad (capacidad para rastrear microconductas), predictividad (uso de machine learning para anticipar acciones) y automatización (decisión algorítmica sin supervisión humana). Sistemas como el reconocimiento facial empleado en Londres (donde hay 1 cámara por cada 13 habitantes) o el software PredPol usado por policías estadounidenses para predecir crímenes representan lo que el sociólogo David Lyon denomina “vigilancia líquida”: un monitoreo constante, ubicuo y adaptativo que penetra todos los aspectos de la vida. Investigaciones del MIT han demostrado que estos sistemas presentan graves problemas: cámaras con reconocimiento facial tienen hasta 34% más error identificando rostros de mujeres negras que hombres blancos, mientras algoritmos policiales frecuentemente etiquetan vecindarios pobres y minoritarios como “de alto riesgo” independientemente de estadísticas reales, perpetuando ciclos de vigilancia discriminatoria.

3. Resistencia Digital: Hacktivismo, Criptografía y Contra-Poderes Algorítmicos

Frente a estas arquitecturas de control digital, han emergido diversas formas de resistencia que aprovechan las mismas tecnologías para desafiar estructuras de poder. El hacktivismo, practicado por grupos como Anonymous o LulzSec, utiliza técnicas de hacking para exponer corrupción o interrumpir servicios como forma de protesta política. Ataques como el #OpPayback contra empresas que cortaron servicios a WikiLeaks en 2010 demostraron el potencial disruptivo de estas tácticas, aunque también plantean dilemas éticos sobre medios y fines. Más institucionalizado, el movimiento por software libre (encabezado por figuras como Richard Stallman) promueve sistemas operativos y aplicaciones de código abierto que cualquiera puede inspeccionar o modificar, contrastando con el modelo corporativo de “cajas negras” algorítmicas. Proyectos como Signal (mensajería encriptada) o Tor (navegación anónima) representan infraestructuras de contra-poder que protegen privacidad frente a vigilancia masiva.

La criptografía ha surgido como herramienta clave para reequilibrar asimetrías de poder digital. Tecnologías como blockchain (originalmente desarrollada para Bitcoin) permiten crear registros inalterables sin autoridades centrales, con aplicaciones desde votación electrónica verificable hasta protección de periodistas en regímenes autoritarios. Sin embargo, estas mismas herramientas presentan paradojas: la encriptación protege a disidentes políticos pero también facilita crimen organizado; los NFTs prometieron empoderar artistas pero frecuentemente reproducen dinámicas especulativas. El desafío ético-político radica en desarrollar tecnologías que aumenten agencia humana sin caer en utopismos tecnológicos que ignoren cómo el poder se reinscribe en nuevos contextos. Colectivos como Data for Black Lives o la Electronic Frontier Foundation ejemplifican esfuerzos por construir alternativas que combinan expertise técnico con justicia social.

Articulos relacionados