Seguridad hipnótica y Democracia en la era del Panóptico digital
desde Hobbes a Pegasus
DOI:
https://doi.org/10.46661/revintpensampolit.12501Palabras clave:
seguridad, tecno-capitalismo, vigilancia, democracia, algoritmos, biopolítica, securitización, datos, demopedia, transparenciaResumen
En este artículo se analiza críticamente la transformación del concepto de seguridad desde la modernidad clásica hasta la era tecno-capitalista actual, y sus implicaciones para la democracia. Mediante una genealogía que parte de la teoría hobbesiana del Estado Leviatán hasta los desafíos digitales de 2025, se muestra cómo la noción de seguridad ha pasado de ser una garantía frente al miedo y la violencia a convertirse en un dispositivo ideológico que estabiliza el statu quo del capitalismo global. El marco teórico combina la crítica ideológica, la biopolítica, la teoría de la “securitización” y el estudio de la vigilancia de datos para tratar de desentrañar los mecanismos contemporáneos de control social algorítmico. Se abordan casos actuales -como el Reglamento de Inteligencia Artificial de la UE (2024), la reautorización de la FISA §702 en EEUU (2024), los cambios algorítmicos en Twitter/X (2024) y la criminalización del colectivo climático Letzte Generation en Alemania- que ejemplifican la tensión entre seguridad, tecnología y libertades. Finalmente, a la hora de concluir se anticipan, para su posterior desarrollo, iniciativas (demopedia, transparencia algorítmica, sindicatos de datos, plataformas públicas) para reconducir la seguridad hacia el interés público democrático, anticipando posibles objeciones y ofreciendo respuestas. El resto de la conclusión subraya la urgencia de recuperar control ciudadano sobre las infraestructuras digitales y traza una agenda de investigación futura para fortalecer la democracia frente a la lógica hipnótica de la seguridad tecno-capitalista.
Descargas
Citas
Alkousaa, R., & Jabkhiro, J. (2023, 10 agosto). Insight: Europe cracks down after rise in "direct action" climate protests. Reuters. https://www.reuters.com/world/europe/after-rise-climate-direct-action-europe-cracks-down-2023-08-10/
Agamben, G. (2005). Estado de excepción (F. Costa e I. Costa, Trads.; 2.ª ed.). Adriana Hidalgo Editora.
Beck, U. (1992). Risk society: Towards a new modernity (M. Ritter, Trad.). SAGE.
Buzan, B., Wæver, O., & de Wilde, J. (1998). Security: A new framework for analysis. Lynne Rienner. https://doi.org/10.1515/9781685853808
Deleuze, G. (1992). Postscript on the societies of control. October, 59, 3-7. https://doi.org/10.2307/778828
Foucault, M. (2007). Security, territory, population: Lectures at the Collège de France, 1977-1978 (M. Senellart, Ed.; G. Burchell, Trad.). Palgrave Macmillan. https://doi.org/10.1057/9780230245075
Graham, T., & Andrejevic, M. (2024). A computational analysis of potential algorithmic bias on Platform X during the 2024 US election [Preprint]. Queensland University of Technology. https://github.com/timothyjgraham/AlgorithmicBiasX
Han, B.-C. (2014). Psychopolitik: Neoliberalismus und die neuen Machttechniken. S. Fischer.
Han, B.-C. (2014). Psicopolítica: Neoliberalismo y nuevas técnicas de poder (A. Bergés, Trad.). Herder. https://doi.org/10.2307/j.ctvt7x7vj
Jones, C. (2025, 29 abril). EU's secretive "security AI" plans need critical, democratic scrutiny. Statewatch Analysis. https://www.statewatch.org/news/2025/april/eu-s-secretive-security-ai-plans-need-critical-democratic-scrutiny-says-new-report/
Lessig, L. (2006). Code: Version 2.0. Basic Books.
Neocleous, M. (2008). Critique of security. Edinburgh University Press. https://doi.org/10.3366/edinburgh/9780748633289.001.0001
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press. https://doi.org/10.4159/harvard.9780674736061
Penney, J. W. (2016). Chilling effects: Online surveillance and Wikipedia use. Berkeley Technology Law Journal, 31(1), 117-182. https://doi.org/10.15779/Z38SS13
Sankin, A., & Mattu, S. (2023, 2 octubre). Predictive-policing software terrible at predicting crimes. The Markup. https://themarkup.org/prediction-bias/2023/10/02/predictive-policing-software-terrible-at-predicting-crimes
Srnicek, N. (2017). Platform capitalism. Polity.
Viljoen, S. (2021). A relational theory of data governance. Yale Law Journal, 131(2), 573-654. https://doi.org/10.2139/ssrn.3727562
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Jose María Seco Martínez

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
Política de acceso abierto
Se permite el acceso libre y abierto de cualquier interesado a todos los contenidos de los números de la revista, sin costo alguno, pudiendo imprimir y trasladar todos los artículos, con la única condición de precisar la fuente y la autoría.
La revista: a) no cobra a las autorías costes por el procesamiento de los artículos ni por el envío de los mismos, b) mantiene el copyright para los autores sin restricciones, c) facilita a los autores conservar sus derechos de publicación sin limitaciones.
La Revista Internacional de Pensamiento Político es una obra original del Laboratorio de Ideas y Prácticas Políticas de la Universidad Pablo de Olavide. Todos los artículos incluidos en la Revista son obra original de sus respectivas autorías. Esta Revista se ofrece libremente a la comunidad científica y académica sin coste alguno y libera los contenidos de acuerdo a la licencia "Reconocimiento-NoComercial-CompartirIgual 4.0 CC BY-NC-SA" del proyecto Creative Commons dispuesta en la siguiente url: https://creativecommons.org/licenses/by-nc-sa/4.0/legalcode
Si deseas traducir o compilar alguno de los artículos aquí disponibles, por favor, ponte en contacto







