Antes de entrar en materia, deseo dejar en claro que el trabajo que realizo en www.policyexamination.com no responde a ningún interés lucrativo. Muy por el contrario, implica una inversión significativa de tiempo, ese recurso no renovable que nos recuerda la fugacidad de nuestra existencia. No se trata de un pasatiempo, ni de una vanidad intelectual. Es, en esencia, una apuesta ética y consciente por una ciudadanía lúcida, capaz de resistir los condicionamientos ideológicos impuestos por las estructuras de poder.
Los artículos que publico, aunque a primera vista puedan parecer dispersos o temáticamente heterogéneos, persiguen un mismo objetivo: articular un discurso racional, ético y humanista que reinstaure la verdad como pilar de toda praxis democrática y emancipadora. Esta misma línea de pensamiento ha guiado mis obras Mosaïque: El amanecer de una nueva era y Explorando los límites de la corrección política en el lenguaje y la verdad. Ambos textos enfrentaron resistencias —especialmente el primero— por cuestionar los consensos dominantes. Hoy, tengo ya en imprenta lo que posiblemente será mi última obra publicada. Lo será no por agotamiento, sino porque en ella he dicho lo esencial: lo único que quizás debí haber dicho desde el principio.
Ahora bien, en este artículo me dispongo a abordar un tema tan relevante como ignorado, silenciado por los medios de comunicación tradicionales precisamente porque atenta contra los intereses que los sustentan. Permítanme una confidencia: cuando ustedes encienden el televisor y observan el noticiero, lo que presencian no es la realidad, sino una representación cuidadosamente orquestada. El presentador no informa: reproduce una narrativa escrita en un teleprompter, una herramienta diseñada para asegurar la continuidad de un relato prediseñado. Las palabras desfilan ante sus ojos mientras él aparenta espontaneidad, hipnotizando al público con una coreografía de control emocional y mental. Las noticias se han convertido en espectáculo. Es como estar en una sala de cine: todos observan fascinados la pantalla, pero pocos se preguntan quién proyecta la película ni quién escribió el guión.
Y ese, justamente, es el punto. Lo crucial no es lo que se ve, sino quién decide lo que puede ser visto. Esa figura permanece en la sombra, sin rostro, sin nombre, sin responsabilidad pública. La casualidad no existe: la ignorancia de su identidad es parte del diseño. Y es esa opacidad la que debemos comenzar a iluminar.
Entremos en materia. En la convergencia entre el desarrollo neurocientífico, la psicología contemporánea y la expansión de las tecnologías digitales se presenta como una nueva figura antropológica: el sujeto tecnológico. No se trata simplemente de un individuo que utiliza dispositivos, sino de un modo de ser estructuralmente constituido por interacciones simbióticas con sistemas informacionales, algoritmos y redes cognitivas artificiales.
Un profesional urbano promedio inicia su jornada con una aplicación de monitoreo del sueño que evalúa sus ciclos nocturnos. Antes incluso de levantarse, revisa una cascada de notificaciones de correo electrónico, redes sociales y titulares seleccionados algorítmicamente. Consulta a Alexa su agenda y a Siri el pronóstico del clima. Se desplaza escuchando podcasts programados por plataformas de recomendación y organiza sus actividades con la ayuda de aplicaciones de productividad. Ya en su espacio de trabajo, administra tareas frente a múltiples pantallas, responde a estímulos digitales diseñados para optimizar su atención y mide su rendimiento mediante dashboards personalizados. Almuerza siguiendo las sugerencias de una app nutricional, monitorea su estado emocional con un wearable que alerta sobre niveles de estrés, y culmina la jornada con una sesión de meditación dirigida por una aplicación de bienestar que le recuerda —paradójicamente— cómo respirar.
Este sujeto no solo utiliza tecnología: vive inmerso en ella, cognitivamente acoplado a entornos digitales que modelan su conducta, su emocionalidad y su percepción del mundo. No es ya un individuo autónomo que instrumentaliza herramientas, sino un ente simbiótico, un operador operado, cuya experiencia vital es diseñada, retroalimentada y codificada por sistemas inteligentes. Se trata, en efecto, de una nueva configuración de la subjetividad: el sujeto tecnológico como criatura funcionalmente optimizada, pero antropológicamente fragmentada; una silueta posmoderna que mide su existencia en datos y cuya identidad se construye en ciclos de retroacción informacional.
El origen epistemológico de este fenómeno se inscribe en la transición del paradigma moderno hacia una lógica posthumanista y ciborgiana (Haraway, 1991), en la que se desdibujan las fronteras entre lo biológico y lo artificial. Las neurociencias han pasado de una perspectiva funcionalista a una visión conectivista del cerebro como red compleja (Sporns, 2011). A su vez, la teoría de la mente extendida (Clark & Chalmers, 1998) ha reforzado la idea de que nuestras capacidades mentales se proyectan hacia los entornos tecnológicos que habitamos.
Zuboff (2019) sostiene que el capitalismo digital ya no se basa en la producción de bienes, sino en la extracción y uso predictivo de datos subjetivos. En este marco, el “neurocódigo” no es una metáfora, sino una infraestructura que articula neuroplasticidad, algoritmos y control simbólico. Floridi (2013) propone que debemos repensar esta relación desde una ética informacional que proteja la dignidad del sujeto como “inforgente”, es decir, una entidad informacional y biológica.
La neuroplasticidad permite al cerebro humano adaptarse al entorno. Sin embargo, en contextos digitales hiperdiseñados, esta adaptabilidad se convierte en vulnerabilidad. Carr (2010) advierte que el pensamiento lineal, favorecido por la lectura profunda, está siendo reemplazado por una cognición fragmentada. Small y Vorgan (2008) documentan cómo el uso intensivo de tecnología altera la arquitectura cerebral, afectando áreas vinculadas con la regulación emocional y la motivación.
Estas transformaciones derivan en trastornos como el uso problemático de Internet o la adicción a los videojuegos. La exposición a flujos de datos rápidos y emocionales favorece patrones cognitivos impulsivos, disminuye la tolerancia a la incertidumbre y deteriora la capacidad de introspección.
Las plataformas digitales modelan el deseo y la identidad mediante algoritmos que predicen y estimulan comportamientos. Han (2014) describe este fenómeno como una “psicopolítica” donde el control se ejerce mediante la exposición y la estimulación constante.
Turkle (2011) sostiene que la identidad digital suplanta a la identidad introspectiva, promoviendo una subjetividad performativa, cuantificada y frágil. Eyal (2014) demuestra que las interfaces digitales están diseñadas para crear dependencia mediante recompensas intermitentes. Twenge (2017) revela que la generación iGen muestra síntomas de ansiedad crónica y dificultades para sostener la autorregulación emocional.
Desde el enfoque crítico de la sociología, Bourdieu (1977) introduce el concepto de habitus como disposición socialmente construida. En el ecosistema digital, este habitus se reprograma mediante lógicas algorítmicas que anticipan decisiones. Castells (2009) describe cómo el poder se ejerce en la era de la información mediante la construcción de significados.
Casos como el de Cambridge Analytica (Cadwalladr, 2019) muestran cómo el neurocódigo es instrumentalizado con fines ideológicos. Luhmann (1995) advierte que los sistemas sociales tienden al cierre operativo: las plataformas refuerzan sus propios códigos a través de burbujas epistémicas.
Wittgenstein (1953) señalaba que los límites del lenguaje son los límites del pensamiento. Hoy, el lenguaje digital simplifica y fragmenta el discurso, lo que empobrece la capacidad de significar.
Bruner (1990) destaca que el lenguaje construye identidad narrativa. La digitalización produce una identidad episódica y desanclada. Baudrillard (1994) advierte que vivimos en una hiperrealidad donde los signos no remiten a referentes, sino a otros signos, anulando la distinción entre lo real y lo simulado.
Sparrow, Liu y Wegner (2011) describen el “efecto Google”: externalizamos la memoria y debilitamos la capacidad de rememoración, comprometiendo la continuidad del yo.
La transformación del sujeto humano en sujeto tecnológico exige una lectura crítica e interdisciplinaria. La psicología contemporánea debe integrar lógicas económicas, matrices culturales y estructuras de poder para abordar los fenómenos que configuran la subjetividad digital.
Floridi (2013) llama a redefinir el contrato antropotecnológico mediante una infoética que proteja la autonomía cognitiva. Esta perspectiva debe materializarse en estrategias de alfabetización neurodigital, diseño de entornos saludables, regulación algorítmica y promoción de prácticas simbólicas que restablezcan el sentido.
El neurocódigo no es una fatalidad, sino una oportunidad radical para repensar qué significa ser humano en la era de las máquinas. No se trata de negar los peligros reales que implica esta transformación —la pérdida de autonomía, la manipulación algorítmica, el vaciamiento simbólico del yo—, sino de asumirlos con lucidez y responsabilidad. Allí donde algunos solo ven un proceso de deshumanización inevitable, cabe también leer la posibilidad de una reinvención ética y cognitiva. En esta encrucijada histórica, el desafío no es retroceder, sino transfigurar: convertir el veneno en medicina, transformar el dominio técnico en un camino hacia una humanidad más consciente y deliberada.
La Escritura ofrece una clave poderosa para este giro emancipador:
“Despierta, tú que duermes, y levántate de entre los muertos, y te alumbrará Cristo” (Efesios 5:14).
No se trata solo de una exhortación espiritual, sino de una convocatoria civilizatoria: salir del letargo inducido por las pantallas, del simulacro de libertad que ofrecen los algoritmos, y reclamar la soberanía de la conciencia. Porque despertar, en esta época, ya no es solo un acto psicológico, es un gesto político.
Referencias
Baudrillard, J. (1994). Simulacra and simulation. University of Michigan Press.
Bourdieu, P. (1977). Outline of a theory of practice. Cambridge University Press.
Bruner, J. (1990). Acts of meaning. Harvard University Press.
Cadwalladr, C. (2019, March 17). The great hack: How Cambridge Analytica turned Facebook likes into a political tool. The Guardian. https://www.theguardian.com/news/2019/mar/17/the-great-hack-how-cambridge-analytica-turned-facebook-likes-into-a-political-tool
Carr, N. (2010). The shallows: What the Internet is doing to our brains. W. W. Norton & Company.
Castells, M. (2009). Communication power. Oxford University Press.
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19.
Eyal, N. (2014). Hooked: How to build habit-forming products. Portfolio.
Floridi, L. (2013). The ethics of information. Oxford University Press.
Han, B.-C. (2014). Psychopolitics: Neoliberalism and new technologies of power. Verso Books.
Haraway, D. (1991). A cyborg manifesto. In Simians, cyborgs and women: The reinvention of nature (pp. 149–181). Routledge.
Luhmann, N. (1995). Social systems. Stanford University Press.
Small, G., & Vorgan, G. (2008). iBrain: Surviving the technological alteration of the modern mind. HarperBusiness.
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778.
Sporns, O. (2011). Networks of the brain. MIT Press.
Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. Basic Books.
Twenge, J. M. (2017). iGen: Why today’s super-connected kids are growing up less rebellious, more tolerant, less happy—and completely unprepared for adulthood. Atria Books.
Wittgenstein, L. (1953). Philosophical investigations. Blackwell Publishing.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
