Tecnopersona y sus patologías: Un diagnóstico de la identidad en la era de la Inteligencia Artificial

 

Technoperson and Its Pathologies: A Diagnosis of Identity in the Age of Artificial Intelligence

 

https://doi.org/10.47606/ACVEN/PH0431

 

 

José Luis Fliguer1*

https://orcid.org/0009-0005-4508-3780

jose.fliguer@gmail.com

 

Recibido: 12/11/2025                                                       Aceptado: 08/01/2026

 

 

RESUMEN

 

Este artículo analiza la transformación ontológica y antropológica de la subjetividad contemporánea en el contexto de la llamada "revolución industrial 4.0". Utilizando la metáfora borgiana de Tlön, se examina cómo el entorno digital está suplantando la realidad compartida, desplazando el paradigma de la "Sociedad del Conocimiento" hacia una "Sociedad del Desconocimiento" (Innerarity). A través de los marcos teóricos de Bernard Stiegler y la noción de la tecnología como pharmakon, se explora la emergencia de la tecnopersona (Echeverría y Almendros) como una identidad descorporeizada necesaria para habitar el Tercer Entorno. El texto deconstruye la narrativa de la Singularidad tecnológica, caracterizándola no como una predicción científica, sino como una hiperstición (CCRU) y criticando la falta de "entrañabilidad" (Broncano) de la Inteligencia Artificial actual. Finalmente, se ofrece un diagnóstico de las nuevas patologías culturales esquizofrenia nominal, síndrome del cuerpo fantasma y síndrome de Pandora y se concluye la urgencia de superar la mera alfabetización digital instrumental para adoptar una regulación bioética basada en los principios de precaución, justicia y no maleficencia.

 

 

Palabras clave: Tecnopersona, Hiperstición, Sociedad del Desconocimiento, Inteligencia Artificial, Bioética Digital, Tercer Entorno, Pharmakon.

1.     Universidad de Ciencias Empresariales y Sociales- Argentina

*         Autor de correspondencia: jose.fliguer@gmail.com

 

 

ABSTRACT

 

This article analyzes the ontological and anthropological transformation of contemporary subjectivity within the context of the so called Fourth Industrial Revolution. Using Borges' metaphor of Tlön, it examines how the digital environment is supplanting shared reality, shifting the paradigm from the "Knowledge Society" to "No-knowledge Society" (Innerarity). Through Bernard Stiegler's theoretical frameworks and the notion of technology as pharmakon, the emergence of the technoperson (Echeverría & Almendros) is explored as a disembodied identity necessary to inhabit the Third Environment. The text deconstructs the narrative of the Technological Singularity, characterizing it not as a scientific prediction but as a hyperstition (CCRU) and critiquing current Artificial Intelligence for its lack of "entrañabilidad" (Broncano). Finally, it diagnoses new cultural pathologies—nominal schizophrenia, phantom body syndrome, and Pandora's syndrome—and concludes on the urgency of moving beyond mere instrumental digital literacy to adopt bioethical regulation based on the principles of precaution, justice, and non-maleficence.

 

Keywords: Technoperson, Hyperstition, No-Knowledge Society, Artificial Intelligence, Digital Bioethics, Third Environment, Pharmakon.

 

INTRODUCCIÓN

 

En su célebre relato Tlön, Uqbar, Orbis Tertius, Jorge Luis Borges narra cómo un mundo ficcional (Tlön), articulado con una coherencia impecable por una sociedad secreta (Orbis Tertius), comienza a infiltrarse y, finalmente, a suplantar nuestra realidad compartida. Los objetos hallados en Tlön, llamados hrönir —que son la materialización de la esperanza y la distracción de los hombres—, fascinan a la humanidad hasta el punto de que esta decide abandonar sus propias leyes y saberes. Dice Borges, “han sido reformadas la numismática, la farmacología y la arqueología. Entiendo que la biología y las matemáticas aguardan también su avatar… Una dispersa dinastía de solitarios ha cambiado la faz del mundo. Su tarea prosigue… desaparecerán del planeta el inglés y el francés y el mero español. El mundo será Tlön", concluye Borges.

Este relato nos impacta hoy más por su literalidad que por su literariedad, al reflejar nuestra relación actual con el mundo, donde un "universo digital” —producto de la llamada "revolución industrial 4.0"— está desintegrando progresivamente el mundo tal como lo conocíamos. Este fenómeno no es una simple innovación, sino que representa una profunda transformación antropológica y ontológica que redefine la identidad, la agencia y la autonomía humanas.

Evocar esta ficción borgiana es útil para comprender la crisis de la subjetividad contemporánea, permitiéndonos avanzar en un diagnóstico crítico. Partiendo de la actitud de espejarnos en el desconcierto que el cuento transmite, este ensayo aborda la situación que atraviesa hoy el sistema educativo en el marco de estas grandes transformaciones.

El recorrido argumental propuesto se organiza en cuatro momentos clave. En primer lugar, se pretende establecer un marco teórico para interpretar la desorientación generalizada que Bernard Stiegler (2004) identifica como el malestar contemporáneo en las instituciones educativas. Se trata de comprender cómo la transición digital ha desplazado el paradigma de la 'Sociedad del Conocimiento' en beneficio de una Sociedad del Desconocimiento, donde la suplantación de la realidad compartida evoca la lógica de Tlön.

En segundo término, se deconstruye el mito de la Inteligencia Artificial analizando la narrativa de la 'Singularidad' (Kurzweil, 2005, 2024). Frente al optimismo tecnológico, se aplica el estándar de 'entrañabilidad' (Broncano) para evaluar si estas tecnologías son realmente comprensibles y dóciles para el usuario. El análisis revela que la IA actual, centrada en la simulación estadística y carente de espontaneidad humana y metacognición, opera más como una presión hipersticional que como una verdadera expansión del potencial biológico.

En  tercer término, se problematiza el concepto de 'ciudadanía digital' (UNESCO, 2025) a la luz de la noción de Tecnopersona. Aquí se deconstruye la narrativa de la 'humanidad aumentada' propia de la Revolución 4.0, caracterizándola como una hiperstición que encubre una fractura de la subjetividad impulsada por una innovación tecnológica que impulsa hacia un horizonte marcado por la presencia de la Inteligencia Artificial sin resguardo para preservar las capacidades humanas construidas a través del proyecto educativo de occidente.

Finalmente, el artículo ofrece un diagnóstico de las patologías culturales y sistémicas que están emergiendo como consecuencia estructural de esta nueva identidad digital. El análisis concluye con la necesidad de trascender la alfabetización instrumental para adoptar una regulación bioética que responda a los desafíos éticos y jurídicos de la Inteligencia Artificial."

 

DESARROLLO

 

La desorientación en la sociedad del desconocimiento y el malestar del pharmakón digital.

Bernard Stiegler (2004) sostiene que, a medida que el cine y la televisión cobraron centralidad en la programación de la relación entre subjetividad y técnica durante el siglo XX, el sistema educativo comenzó a profundizar su desorientación. Si bien su meta histórica era la construcción de la ciudadanía y la consolidación de un "nosotros", la escuela perdió el control progresivamente sobre la formación de los sujetos y sus procesos atencionales. Esta atención pasó a ser capturada y moldeada por las nuevas tecnologías, las cuales fueron determinadas decisivamente por una dinámica de mercado cuya dinámica lo tornó cada vez más independiente de los estados nacionales.

La irrupción del proceso social que se denominó posmodernidad, marco la emergencia de la llamada “Sociedad del Conocimiento". Esta irrupción fue impulsada por una revolución tecnológica que generó el crecimiento exponencial y acelerado tanto del saber producido como de su mediación para generar valor económico. Lyotard (1987) en su informe sobre el saber en la universidad francesa, marco un cambio de coordenadas para la transmisión de los saberes que catalizará una nueva dinámica del sistema educativo sin una brújula clara para afrontar su creciente desorientación. Se entabla así una tensión estructural entre una sociedad definida por la información que produce y el conocimiento que distribuye en el sistema tecnocientífico y productivo, frente a las limitadas modalidades de acceso a ambas dimensiones que poseen los ciudadanos en una democracia.

El crecimiento del protagonismo de las tecnologías digitales y la aparición de la “Inteligencia Artificial” en el espacio público, no parece ocurrir en el escenario optimista de una "Sociedad del Conocimiento", como continúan proponiendo organismos como la UNESCO. Por el contrario, una mirada diagnóstica más aguda deja ver la emergencia de una sociedad del desconocimiento (Innerarity. 2022; Dominici, 2024; Youvan, 2025). Esta nueva caracterización parece tener mayor potencia heurística para comprender esa desorientación estructural del sistema educativo que ha tomado ahora el centro de la escena. Quizás no sea muy aventurado decir que la sociedad del desconocimiento es la manifestación fáctica del Tlön borgiano en la pedagogía.

Entender la lógica de este nuevo contexto es crucial para evaluar el verdadero impacto de la actual transformación tecnológica del sistema educativo. El paradigma de la sociedad del desconocimiento, según Innerarity, se sostiene sobre tres pilares fundamentales:

·         La paradoja del conocimiento: El crecimiento exponencial del saber no reduce la ignorancia, sino que la sofistica. Cada descubrimiento expande la frontera de lo desconocido, desafiando nuestra consciencia de lo que no sabemos.

·         La crisis de autoridad: Existe una desconfianza sistémica hacia las fuentes tradicionales de conocimiento, dejando sin coordenadas a la cuestión de la verdad. La ciencia ya no es percibida como un repositorio de certezas, sino como un proceso hermenéutico continuo de debate y refutación, cuyo anclaje se encuentra en el poder y no en una referencia a una experiencia de la realidad que pueda ser ponderada de modo cuantitativo o cualitativo.

·         La complejidad estructural: Fenómenos globales como las crisis climáticas o pandémicas desbordan nuestros modelos predictivos clásicos, generando una percepción de ininteligibilidad y desconcierto para la mayoría. Tanto los profesionales hiperespecializados como el público en general, por carecer de formación para comprender la dinámica de los sistemas complejos, quedan atrapados en bloques de información que aisladamente tienen un sentido equívoco o nulo.

Para el paradigma de la sociedad del desconocimiento, es central situarse reflexivamente frente a lo que no se sabe. Esto implica tener la capacidad de enfrentar la toxicidad del exceso de información que obstaculiza la construcción del conocimiento y el acceso a los saberes requeridos para su utilización efectiva. En síntesis: se requiere formar a un agente humano capaz de decidir en un marco de incertidumbre, determinado tanto por la complejidad estructural del mundo en que deben actuar como por la falta de registro de los sujetos sobre sus propias carencias de saber

La tecnología digital en la sociedad del desconocimiento opera como un pharmakon. Siguiendo a Bernard Stiegler (2024), esto implica una ambivalencia técnica constitutiva: la herramienta digital funciona, al mismo tiempo, como remedio para el acceso al saber y como veneno que profundiza la desorientación.

Si bien la tecnología es hoy un apoyo indispensable para navegar la complejidad estructural de la 'sociedad del desconocimiento', a menudo ignoramos su costo: la exteriorización masiva de la memoria (hipomnesis) en dispositivos digitales. Aunque estos otorgan capacidades inéditas para el procesamiento de datos, Stiegler advierte sobre una 'pérdida generalizada del saber'. Esta merma resulta de una delegación acrítica de facultades que, al dejar de cultivarse, se atrofian tanto a escala individual como generacional:

·         Por un lado, se erosiona el saber-vivir: el individuo es formateado como un consumidor cuyos deseos y comportamientos son preprogramados por las demandas del mercado.

·         Por otro, se degrada el saber-teorizar: la hiperespecialización impide una visión de conjunto, convirtiendo al experto en una suerte de 'idiota educado'

Esta delegación masiva de funciones cognitivas conduce a lo que Günther Anders (2011) anticipó como la 'obsolescencia del hombre', fuente de un profundo malestar social. Según el pensador alemán, el ser humano experimenta una suerte de vergüenza por su supuesta inferioridad frente a la perfección tecnológica, relegando así la importancia de su propia actividad en la creación de conocimiento. De este modo, el sujeto ve sus facultades absorbidas por un sistema técnico automatizado, extraviando el sentido de su accionar en el mundo. Es precisamente en este vacío de sentido —terreno fértil para la ansiedad—donde arraigan las narrativas mesiánicas sobre la IA; particularmente, el mito de la 'Singularidad' que emerge como una falsa promesa de certeza e infinitud garantizada por la técnica.

 

Deconstruyendo el mito de la iA: de la entrañabilidad a la hiperstición.

En su obra La Singularidad está cerca (2005), el inventor y futurista Ray Kurzweil que vaticinó que para el año 2029 la inteligencia artificial superaría una prueba de Turing rigurosa, equiparándose así a las capacidades cognitivas humanas. Bajo esta premisa, Kurzweil proyectó el año 2045 como el horizonte de la "Singularidad": un punto de inflexión donde la humanidad expandiría su potencial intelectual de manera exponencial al fusionarse con la inteligencia artificial (Kurzweil, 2005). Este marco conceptual ha moldeado profundamente la percepción de la IA en Occidente, fomentando una narrativa de adopción entusiasta. En su secuela de 2024, La Singularidad está más cerca, el autor ratifica la vigencia de sus pronósticos y sostiene que la integración entre nuestra biología y la tecnología de la IA es ya un proceso inminente.

El optimismo de Kurzwell requiere, sin embargo, una evaluación objetiva Para cumplir esa meta, la filosofía de la tecnología ha propuesto como estándar para evaluar las tecnologías discernir cuan "entrañables" son. Determinar que una tecnología sea entrañable requiere juzgar qué tan abiertas, dóciles y comprensibles son para su usuario y en qué medida su implementación puede ser responsable y sostenible para una sociedad (Quintanilla et al., 2017)..

El filósofo Fernando Broncano aplica este estándar a la IA y su juicio es ambivalente: la IA podría quizás llegar a ser "entrañable", pero hoy esto no parece ser el caso (Broncano, 2025).

·         Que sea abierta depende de la regulación jurídica de su entrenamiento, aún en proceso.

·         Que sea dócil es cuestionable debido a su naturaleza generativa no controlable por los usuarios.

·         Que su uso sea socialmente responsable es la gran discusión actual con las grandes corporaciones tecnológicas las, que planifican un uso de recursos básicos (como el agua para su mantenimiento) que compiten con las necesidades de las poblaciones.

El análisis de Broncano nos reconduce a la misma mirada farmacológica de Stiegler: estamos ante un escenario poco auspicioso para las narrativas institucionales vigentes. En este punto, resulta evidente la fragilidad de las "declaraciones de buena voluntad" de organismos como la UNESCO. No resultan creíbles los diagnósticos respecto de que la brecha existente para una incorporación eficaz de la IA a los procesos educativos dependa exclusivamente de la adquisición de competencias docentes y estudiantiles para su uso. Estos documentos parecen suponer que la IA es una tecnología "entrañable" (abierta, dócil y responsable), pero esta presunción choca con la realidad técnica de los modelos generativos actuales. Tal como lo señala una de las figuras más relevantes de la investigación europea en el campo. las IA de hoy son verdaderas cajas negras, incomprendidas por la mayoría de los usuarios, revelando que tales marcos de competencias se construyen sobre un optimismo ontológico que la propia tecnología desmiente (López de Mántaras, R.; 2024)

Es fundamental avanzar en diseños más entrañables: menos tóxicos y con vocación remedial para sortear las dificultades que existen hoy en una sociedad de automatización creciente. Pero si la IA carece de entrañabilidad, es lícito interrogarse sobre el modo en que ha logrado imponerse socialmente. Aquí entra en juego el efecto performativo de la narrativa de la Singularidad, que es necesario también interrogar.

Una cuestión particular de la evaluación de la entrañabilidad de los Large Language Models (LLM) es la insistencia en llamarlos IAs. Para analizar al "sujeto de la cultura digital", es crucial deconstruir el discurso que rodea a la Inteligencia Artificial. El mismo López de Mántaras insiste, desde hace mucho tiempo, en que existe un factor de “humo publicitario” que fuerza la consolidación de la denominación IA (López de Mántaras, 2013)

Esa denominación engarza la narrativa de la "Singularidad" —la idea de que una IA general superará a la inteligencia humana— lo cual no constituye de ninguna manera una predicción científica, sino que se trata de una hiperstición.

Este neologismo fue acuñado por el colectivo filosófico CCRU (Cybernetic Culture Research Unit) de la Universidad de Warwick, Inglaterra, liderado por el filósofo y empresario Nick Land. En efecto, es preciso interpretar la singularidad tecnológica propuesta por Ray Kurzweil bajo la óptica del CCRU, no como una mera predicción científica que se anuncia inevitable, sino como el ejemplo de un proceso hipersticional que es a la vez económico, político y cultural

Para entender el alcance de esta afirmación debemos decir que hiperstición es un concepto que pretende sustituir al de superstición. A diferencia de la superstición (una mera creencia apoyada en un pasado comunitario o tradición), la hiperstición posee una dimensión operacional: es un elemento de "cultura efectiva" que desencadena cambios reales.

La hiperstición se define como una "ficción que, promocionada (hype), se hace real a sí misma". No se trata de si la idea es verdadera o falsa en el momento presente, sino de su capacidad para producir la realidad que describe a través de un bucle de retroalimentación positivo o cibernético (CCRU, 2021).

Para dar mayor inteligibilidad a esta tesis, es indispensable vincular la oposición superstición/hiperstición al par de conceptos creencia/acreencia:

A diferencia de la creencia, que exhibe pasividad en la representación verdadera de las cosas procurando solamente resistir toda evidencia que la contradiga, la acreencia no se preocupa por cuestiones de "verdad o falsedad", sino por su efectividad pragmática. No se trata de creer, sino de actuar como si algo fuese verdadero para producir los resultados deseados.

En un sentido convergente, el concepto de acreencia se vincula a una dimensión económica que se ha consolidado en un escenario donde los mercados de futuro determinan la lógica de la inversión. En la terminología financiera, una acreencia es un crédito, un derecho a cobrar en el futuro. Esta definición, en el marco de la hiperstición del CCRU, transforma la acreencia en la IA en una lógica de inversión de acción a futuro, que resulta cobrable gracias a un crecimiento económico generado por los éxitos tecnológicos del proyecto de la Inteligencia Artificial.

En síntesis, la Singularidad de Kurzweil acumula "crédito de realidad" a través de la inversión masiva de Silicon Valley y de la fe cultural generada a través de una combinación de ciencia ficción y progreso tecnológico que se orienta hacia la integración entre la humanidad y la máquina. Esta fe no es abstracta; se materializa en hardware y código. Cada vez que una startup recibe fondos basándose en la promesa de la Singularidad, se produce un acto de acreencia: la ficción del futuro toma prestada energía financiera y humana del presente para solidificarse. El hype (exageración promocional) actúa como el mecanismo de transporte de esta creencia, convirtiéndola en infraestructura tangible.

Para el CCRU, la Singularidad ya existe por retrocausalidad: nosotros entregamos nuestra agencia y recursos (nuestra creencia en la inevitabilidad de la fusión) y, a cambio, la Singularidad nos devuelve tecnología que acelera el proceso, validando la profecía inicial.

Mas allá de las enfáticas anticipaciones de la narrativa de la Singularidad, investigadores como López de Mántaras sostienen que los modelos de lenguaje generativos no son inteligencia sino una mera simulación de resultados Estos modelos operan con un proceso matemático que maneja probabilidades estadísticas de proximidad, entre palabras, oraciones, u otras cadenas de símbolos, pero no pueden operar con semántica. Esta simulación de la inteligencia no debe confundirse con la comprensión real, con la inteligencia humana. A menudo se utilizan expresiones como comprender o pensar relacionándolas con los modelos de lenguaje con son parte de la Hype (Lopez de Mantaras, 2013). Esta distinción entre simulación y comprensión nos remite al argumento de la 'Habitación China' propuesto hace varias décadas por John Searle (1980), cuya vigencia es defendida por López de Mántaras para explicar los límites de la llamada IA generativa. De igual modo que en el experimento mental propuesto por Searle, el ocupante de la habitación que manipula símbolos chinos siguiendo un manual de reglas,  logra transmitir un mensaje en ese idioma sin entender su significado, la IA actual opera exclusivamente en el plano de la sintaxis (la combinación estadística de datos) sin acceder jamás a la semántica (el sentido de los conceptos)

Prolongando este argumento, Fernando Broncano refuta la idea de que l IA actual sea comparable a la inteligencia general humana, sosteniéndose en tesis filosóficas que ya habían sido planteados contra las tesis funcionalistas de la filosofía de la mente que se apoyaba el proyecto de una IA en aquel momento.

su argumento se refiere fundamentalmente a que la inteligencia humana integra la información en múltiples niveles que los modelos actuales de LLM no pueden replicar. Para que una IA alcance una generalidad similar a la humana, debería satisfacer al menos cuatro grados de integración (Broncano, 2025):

2.    Generalidad Conceptual: La capacidad de estructurar conceptos y aplicarlos de manera flexible en contextos abiertos

3.    Integración Holística: La habilidad de conectar dominios conceptuales dispares con elementos no conceptuales, como emociones y habilidades motoras

4.    Integración Vertical del Sujeto: La metacognición y, fundamentalmente, la capacidad de establecer una jerarquía de valores propia que define a un agente y no a un mero instrumento.

5.    Integración Experiencial y Enactiva: La construcción de un relato existencial que integra el cuerpo, la alteridad (la comprensión de las intenciones de otros) y una concepción del tiempo.

De estos cuatro grados, señala Broncano, resulta viable en un sentido acotado, la generalidad conceptual. Todos los demás grados no parecen accesibles por las actuales estrategias de desarrollo de las LM. Esta limitación ya fue señalada por diversos filósofos hace más de dos décadas: las capacidades de integración holística (Putnam 1988), la metacognición (Chalmers 1996), la ausencia de enactividad (Varela et al, 1991)

La IA actual exhibe, entonces, una "generatividad automática" (una asombrosa capacidad para detectar patrones estadísticos), pero carece de la "espontaneidad humana" que se define por la metacognición: la autoproblematización a partir de una experiencia corporizada en contextos reales y la creación desde un proyecto interiorizado.

Las LLM actuales han tenido mucho éxito porque abandonaron el camino de intentar emular los procesos biológicos de la inteligencia como la humana, para centrarse en la simulación de resultados mediante la fuerza bruta del cálculo estadístico (López de Mántaras, 2024).

Pese a la presión hypersticional de las comunicaciones sobre el avance hacia una superinteligencia, todo el benchmarks y los Rakins Arena realizados a doble ciego, ponderan la potencia estadística sin hacer referencia a modelos que avancen hacia una simulación de la espontaneidad humana.

Por ello, Broncano sugiere que el objetivo no debe ser la sustitución de la inteligencia humana, sino la construcción de una "agencia híbrida" como forma de resistencia a las narrativas hegemónicas: buscar una "coordinación virtuosa" donde la tecnología aumente nuestras capacidades sin anularlas.

Sin embargo, para evaluar la factibilidad de construir esta agencia híbrida, debemos deshacernos de la narrativa de la Singularidad y comprender cómo la tecnología está reconfigurando el desarrollo y las posibilidades del agente humano mismo, dando lugar a lo que hoy podemos llamar la "tecnopersona".

 

El surgimiento de una ciudadanía digital: tecnopersona y su novedad “ontológica”

El Ejercicio de la Ciudadanía en la Sociedad Aumentada por IA, supone el advenimiento del IAceno (Beliz, 2025), es decir una época signada por el impacto civilizatorio, de carácter irreversible, que tienen las llamadas IAs para la gobernanza social, la política, el derecho y la educación de los nuevos ciudadanos.  Al respecto señala Beliz que más allá de usar la IA para educar, es crucial educar sobre la IA y el uso de la tecnología. La irrupción de los dispositivos digitales en la vida de los niños y jóvenes es un hecho. Esta realidad subraya la urgencia de integrar la alfabetización digital en los currículos educativos, enseñando a las nuevas generaciones a hacer un uso seguro, crítico y saludable de la tecnología. Esta formación es la base para construir una ciudadanía digital activa y responsable. Al respecto los documentos de UNESCO sobre competencias digitales, establecen que en la era de la inteligencia artificial (IA), la relación entre las competencias de docentes y alumnos y la ciudadanía digital trasciende el simple dominio técnico para convertirse en un imperativo ético, social y político centrado en el ser humano (UNESCO, 2025a)

Estas declaraciones, de tono urgente y humanista, requieren ser esclarecidas para evaluar la viablidad de sus propuestas. Para ello resulta obligado indagar sobre un concepto que condensa diferentes aspectos puestos en juego en las actuales transformaciones que afectan al estatus ciudadano: el concepto de persona. En este concepto descansan los tres imperativos señalados, articulados en un marco jurídico, por lo que es preciso revisarlo para considerar la factibilidad de las propuestas realizadas por los organismos internacionales.

Para abordar críticamente esta cuestión recurriremos al concepto de "tecnopersona", acuñado por Javier Echeverría y Lola S. Almendros (2023), como herramienta analítica para comprender los desafíos fundamentales que afronta la subjetividad contemporánea en el proceso de construcción de una "ciudadanía digital".

Este concepto permite ir más allá de la visión simplista del ser humano como un "usuario" de la nueva tecnología para poder plantear con claridad los aspectos farmacológicos en el sentido ya apuntado del proceso de construcción de una agencia híbrida con autonomía humana.

La comprensión de este desarrollo exige pensar la tecnología no como un mero instrumento externo, sino como un nuevo entorno constitutivo de la identidad y agencia humanas contemporáneas.

Esta nueva subjetividad habita en lo que Echeverría y Almendros describen a través de la "hipótesis de los tres entornos". Su propuesta proporciona un marco ontológico que estratifica nuestro modo de existencia humana:

·         Primer Entorno (E1): Se refiere a la biosfera y al entorno natural. Es el espacio de los cuerpos físico-biológicos y de las estructuras sociales proximales como las tribus, las etnias y las familias. En este entorno, la fuerza física, la lucha por la supervivencia y la reproducción son factores determinantes.

·         Segundo Entorno (E2): Históricamente, las sociedades han transitado hacia este entorno caracterizado por la vida urbana, las leyes, las fronteras territoriales y una organización política y económica más compleja. El espacio social, el Estado y el mercado son los marcos en los que se ha constituido la subjetividad moderna.

·         Tercer Entorno (E3): Es un nuevo espacio de interacción posibilitado por las tecnologías de la información y la comunicación (TIC) y las tecnociencias. A diferencia de los entornos E1 y E2, no es un espacio físico ni territorial, sino reticular y digital (a menudo referido como "la Nube" o el espacio de redes telemáticas), que se basa en flujos de información entre los individuos que constituyen nodos de la red.

La emergencia de este proceso se remonta a la segunda mitad del siglo XX, impulsado por la Big Science, conformada por megaproyectos como el Proyecto Manhattan o ARPANET, el cual dio origen a internet. Esta revolución integró la ciencia con la ingeniería y la financiación militar y empresarial, creando una base tecnológica (satélites, redes, servidores) cuya dinámica impulsó la existencia de un "espacio digital".

Emerge así, como una construcción artificial, diferente del espacio social consolidado en la modernidad. La tecnociencia desempeña, por lo tanto, un papel fundamental, verdadero motor y constructor del Tercer Entorno (E3), así como de las tecnopersonas.

Esta transformación estructural fue anticipada por el filósofo alemán Hans Jonas. En su premonitorio trabajo El principio de responsabilidad (1979), plantea que el sueño de la tecnología y la transformación del hombre a través de ella bien puede conducir a un desastre ecológico y antropológico. Enfatiza la necesidad de evaluar la tecnología utilizando un "principio de precaución", principio que se incorporará a la bioética actual como principio de no-maleficencia.

Sin embargo, la protección de las personas a través de ensayos clínicos —común en la tecnología farmacológica— ignoró las decisivas observaciones de Jonas sobre la tecnología en general. Podría decirse, siguiendo la concepción de Stiegler, que toda tecnología es farmacológica, pero el sistema tecnocientífico lo ha ignorado en su decisión de construir el tercer entorno, en el marco del cual construimos hoy nuestra identidad como tecnopersonas.

El término "persona" tiene su origen etimológico en el latín y el griego (prosopon), refiriéndose originalmente a la máscara que utilizaban los actores en el teatro para amplificar su voz y representar un carácter. Históricamente, este concepto evolucionó en los entornos E1 y E2, quedando la persona indisolublemente ligada a la presencia del cuerpo físico y a la proximidad espacial. Por la mediación del cristianismo y posteriormente la modernidad, la noción de persona se interiorizó, dejando de ser una máscara externa para asociarse con la conciencia, la memoria, la racionalidad y la autonomía moral de un individuo indivisible.

El concepto de Tecnopersona emerge como una necesidad para analizar el modo de habitar el Tercer Entorno. Dado que el cuerpo biológico no puede entrar en los flujos electrónicos y digitales de la "Nube", el ser humano debe implementar una identidad digital para actuar allí. Se define como una entidad personal construida mediante información, datos, algoritmos y software. No es un cuerpo, sino un conjunto de signos y códigos (contraseñas, perfiles, avatares) que representan al usuario en la red.

Su naturaleza es la de una identidad descorporeizada. Una tecnopersona puede estar activa y operando (por ejemplo, un bot o un perfil social) mientras el ser humano físico duerme o incluso después de que ha muerto Por ello, la relación fundamental que se genera es la de una nueva máscara, pero en un sentido tecnológico y ampliado.

A diferencia de la máscara social, hay una desvinculación del cuerpo y la conciencia. La tecnopersona permite la multiplicidad: un solo ser humano puede administrar muchas tecnopersonas (heterónimos, cuentas falsas, avatares), y una tecnopersona puede ser gestionada por varios humanos o incluso por algoritmos sin conciencia ni biología.

Mientras que la persona social posee una autonomía interna (su conciencia), la tecnopersona es una construcción externa que depende de la infraestructura tecnológica. Su existencia y memoria están almacenadas en los servidores de las grandes corporaciones, quienes tienen el poder de "apagar" o modificar esa identidad.

Los autores (Echeverría & Almendros, 2023) identifican tres tipos de tecnopersonas:

1.    Personas humanas tecnológicamente mediadas: Seres humanos cuya vida cotidiana, comunicación y acciones dependen radicalmente de la tecnología (ej. el usuario de un smartphone).

2.    Artefactos tecnológicos con agencia: Robots, sistemas de LLM y software que simulan capacidades humanas e interactúan con nosotros como si fueran agentes autónomos.

3.    Iconos imaginarios y personajes: Entidades ficticias (de la literatura, el cine o los videojuegos) que adquieren una enorme influencia performativa en la cultura.

El existir como tecno-personas es una novedad ontológica, ya que indiferencia agencias de distinto tipo. Esta existencia fragmentada no es una "ampliación" del ser, como sugiere la ciencia ficción y la literatura hipersticional, en la cual deberíamos quizás incluir los documentos de los organismos internacionales cuando se refieren al IAceno. La pregunta de Pérez Herranz sobre si el ciborg podrá ser depositario de nuestra humanidad queda planteada ahora con toda claridad.

Si es verdad que existe una transformación, esta parece haber instalado una fractura en la agencia humana y sus capacidades, cuyos efectos ya se están discutiendo a nivel epidemiológico en la perspectiva de la salud mental, pero también se perciben en el sistema educativo. Es precisamente en las fisuras entre estos tres entornos donde emergen las patologías culturales que definen el malestar contemporáneo.

 

Diagnóstico patológico de la identidad digital

La condición de Tecnopersonas plantea la necesidad de un marco analítico para emprender un diagnóstico crítico de los “malestares digitales” en la cibercultura en que habitamos. Ese marco lo proporciona un trabajo de Teresa López-Pellisa (2015) quien describe algunos de estos síntomas que no son anomalías, sino la expresión de la lógica interna de un nuevo modo de existencia fracturado de las tecnopersonas.

Una primera condición de la patología cultural de la tecnopersona es la "esquizofrenia nominal": la dificultad creciente para diferenciar entre el espacio real (que integra el entorno natural (E1) y el entorno social (E2) que también incluye el espacio virtual de nuestra propia imaginación que utilizamos para proyectarnos en el mundo, y el espacio digital (E3), donde el espacio virtual se genera en el tecno entorno, expropiándonos incluso de nuestro pensar o fantasear diurno.

La no consideración de esa diferencia introduce una confusión ontológica: no es un efecto secundario, sino un estado inherente a una identidad que se construye en el tránsito constante entre estos dominios, donde las fronteras entre lo percibido, lo imaginado y lo simulado no poseen coordenadas claras de diferenciación entre el entorno social y el tercer entorno tecnológico.

La proyección de la agencia en el Tercer Entorno provoca una profunda disociación corporal. López-Pellisa lo clasifica como el "síndrome del cuerpo fantasma" y la "obsolescencia cárnica". Esta patología puede ser mejor comprendida si la asimilamos al concepto de pharmakon digital de Stiegler: la exteriorización de la memoria (hipomnesis) que devalúa el saber contenido en el cuerpo (E1) nos conduce a la "obsolescencia del hombre" de Anders.

La tecnopersona comienza a experimentar su corporalidad física como un "miembro fantasma": un lastre obsoleto frente a la fluidez del yo digital. En este contexto, el cíborg deja de ser ciencia ficción para convertirse en la descripción literal del humano cuya existencia cotidiana se desenvuelve contando con prótesis tecnológicas de las que se vuelve dependiente.

El "síndrome de Pandora" funciona como clave interpretativa para comprender la economía que impulsa la creación de tecnopersonas artificiales de tipo 2 y 3, que involucran siempre una percepción hypersticional del tercer entorno. En efecto, el tercer entorno es percibido como un campo ilusorio hiperreal que, como ya habías señalado el sociólogo de los medios Jean Badrillard en la década de 1990, explica el desplazamiento de la realidad social por un mundo de simulacros.

Precisamente el mito de la IA general funciona en la narrativa de la Singularidad, como una tecnopersona del tipo 3: un poderoso "simulacro" cuya función es precisamente ocultar que las IA actuales —tecnopersonas de tipo 2 como los LLM— fracasan en cumplir los criterios de inteligencia general que nos suministra la filosofía de la tecnología.

La “prestancia” de estos simulacros refuerzan la desorientación general, alimentan la esquizofrenia nominal y la disociación corporal, obstaculizando la construcción de una agencia híbrida saludable al promover una delegación acrítica de nuestras facultades en la máquina. Estas tres patologías interconectadas definen la condición de la subjetividad contemporánea y nos devuelven a la pregunta inicial sobre el futuro de la inteligencia humana y la misión del sistema educativo.

Para Stiegler, la dimensión farmacológica de la transmisión del conocimiento está intrínsecamente ligada al impacto de los soportes técnicos externos. En toda cultura, el saber humano se transfiere mediante mediaciones técnicas ajenas al sistema nervioso, las cuales poseen un carácter tanto simbólico como operativo. La anamnesis —el proceso de incorporación de saberes heredados de un sistema cultural anterior— se encuentra hoy vulnerable frente al fenómeno de la hipomnesis: la pérdida de las estructuras de memoria necesarias para integrar dicha herencia.

En este contexto, el soporte técnico actúa como un phármakon: según su uso y el impacto en los hábitos del sujeto, puede potenciar u obstaculizar los flujos de transferencia. La actual aceleración tecnológica no solo multiplica las posibilidades, sino que amenaza con destruir los soportes tradicionales de la relación intergeneracional —desde las instituciones académicas hasta las estructuras sociales de transmisión—, mediadas hoy por la tecnología digital. Este fenómeno trasciende la sutileza filosófica; se manifiesta en el espacio público como una crisis de los efectos subjetivos provocados por la técnica. Stiegler define estos impactos tóxicos como cortocircuitos en los flujos de saber, donde el phármakon tecnológico interrumpe la continuidad generacional.

Para enfrentar estos cortocircuitos en el sistema educativo, es imperativo desplazar la perspectiva dominante de la "formación por competencias" hacia un enfoque de las capacidades, orientado a restaurar la autonomía del sujeto. Mientras que el modelo de competencias tiende a una lógica instrumental y profesionalizante volcada al mercado laboral —adaptando a los individuos a los perfiles (skills) requeridos por la operación de las LLM—, el enfoque de las capacidades se define como el desarrollo de libertades sustantivas y potencialidades que permiten al individuo desplegar su potencial y alcanzar su bienestar integral.

Esta distinción es crítica ante la tecnología 4.0: las competencias corren el riesgo de centrarse en "productos formativos" que automatizan el saber, acelerando la delegación de las funciones ejecutivas en el algoritmo. Por el contrario, las capacidades —como la razón práctica y la integridad emocional— actúan como un antídoto frente a la hipomnesis tecnológica. Al priorizar el desarrollo de las potencialidades del sujeto y la reflexión sobre la propia vida más allá del horizonte de una mera eficacia operativa, el enfoque de capacidades da un marco conceptual para entender la fractura intergeneracional y proteger la voluntad del sujeto frente a los impactos tóxicos del phármakon digital.

Para analizar la fractura de las capacidades humanas en las "tecnopersonas del primer tipo" (seres humanos insertos en el tercer entorno), es necesario identificar variables objetivables. A partir de investigaciones previas, proponemos tres ejes de análisis:

·         Eje del nivel E1 (Neuropsicológico): Surge del estudio del impacto en el cuerpo y la fisiología del sistema nervioso derivado de la delegación de capacidades (Benasayag, 2015). En este nivel se destacan la atrofia de la neuroplasticidad de la lectura (Wolf, 2008; Dehaene, 2014) y el desequilibrio hemisférico como etiología del empobrecimiento atencional (McGilchrist, 2023; Miró, 2023).

·         Eje del nivel E2 (Socio-político): Examina la deformación del lazo social a través de la obstrucción del acceso a la otredad, causada por el cierre de la "burbuja algorítmica" (Pariser, 2017) y la confusión entre el comportamiento de consumo y la acción política democrática (Van Dijck, 2016).

·         Eje de la agencia del sujeto del saber: Este eje actúa como articulador de los anteriores. Indaga la dinámica del deseo en relación con los procesos ejecutivos que configuran la voluntad (Marina, 1997) y las dinámicas psicofamiliares que conforman autoridades legítimas (Mendel, 2011; Marina, 2020). Este eje considera la presión de las tecnoadicciones (Cascardo y Veiga, 2017), el reemplazo de la verdad por el principio de eficacia quedando la IA constituida hipersticionalmente como una autoridad identificatoria que se pretende como alternativa a la desorientación de la agencia humana en la "sociedad del desconocimiento".

A través de estos ejes, quizás sería posible operacionalizar y precisar un diagnóstico sobre la "calidad de la mente" (Longhin,2011). Esta categoría debe ser entendida como capacidad de integrar los procesos psicoafectivos y cognitivos, que promueven las instituciones educativas contemporáneas, y el impacto de la adopción de tecnologías para mediar los procesos de enseñanza/aprendizaje en esa calidad. Es oportuno advertir que este diagnóstico se apoya en estudios que preceden a la irrupción masiva de la IA, permitiendo visualizar que la pérdida de capacidades cognitivas (Desmurget, 2020) y las vulnerabilidades subjetivas —que han valido el apelativo de "generaciones de cristal" (Haidt, 2024)— se deben a decisiones tomadas al margen de regulaciones bioéticas. Estas innovaciones "farmacológicas" en el tecnoentorno ya exhiben efectos iatrogénicos de características pandémicas que comprometen el desarrollo de capacidades humanas en las nuevas generaciones.

 

De la hibridación fallida a la urgencia de una bioética digital

El diagnóstico sobre la «tecnopersona» revela una tensión fundamental entre la promesa de una agencia híbrida y la realidad —clínica e institucional— de una subjetividad fracturada. Si bien Fernando Broncano aboga por una coordinación virtuosa en la que la tecnología aumente nuestras capacidades, el análisis de las patologías digitales sugiere que, bajo el actual régimen de la Revolución Industrial 4.0, presenciamos una hibridación fallida. Lejos de potenciar lo humano, la tecnología opera mediante lógicas que exigen una intervención ética urgente.

En este escenario, resulta evidente que los diagnósticos de los organismos internacionales carecen de realismo. El impasse actual de las instituciones educativas ante la irrupción de la IA no se resolverá simplemente mediante marcos de competencia que busquen capacitar a docentes y alumnos en su uso técnico. No basta con saturar los documentos oficiales con términos como ética, autonomía, humanismo o sostenibilidad para afrontar esta transición. Por el contrario, propuestas como la de la UNESCO (2025a), que estratifica las competencias en una «triple hélice» (adquisición, profundización y creatividad), tienden a banalizar un trayecto pedagógico obstaculizado por las dinámicas del entorno digital, las cuales condicionan —y a menudo impiden— el desarrollo de una verdadera agencia híbrida.

La disolución de la coherencia subjetiva observada en la «esquizofrenia nominal», sumada a las problemáticas identificadas y a la evidencia teórica y empírica revisada anteriormente, confirma la advertencia de Stiegler: la tecnología digital actúa como un pharmakon cuya toxicidad aún no ha sido regulada. Resulta imperativo, por tanto, dejar de tratar este concepto como una mera metáfora y comenzar a aplicarlo como una categoría regulatoria efectiva.

Desde el Código de Núremberg (1947), la comunidad internacional exige ensayos clínicos rigurosos antes de liberar sustancias que alteren la biología y la salud mental humana. Hoy sabemos que las tecnologías digitales impactan el desarrollo del sistema nervioso y la atención de modo similar a los psicofármacos. Resulta incoherente regular la química, pero permitir la liberación masiva de algoritmos que disocian la psique sin evaluación previa.

Aquí es donde debe introducirse el Principio de Justicia. La ausencia de regulación no afecta a todos por igual; convierte a la población general, y especialmente a los grupos más vulnerables (niños, adolescentes), en sujetos de experimentación no consentida. La Justicia exige que la innovación tecnológica no solo sea segura, sino que se evalúe cómo impacta distributivamente a todos los grupos afectados (AMM, 2013). No es ético que los costos de la toxicidad antropológica sean asumidos por la sociedad civil mientras los beneficios se privatizan.

La segunda problemática ética revela un desplazamiento en la lógica de mercado. Si históricamente la obsolescencia programada ha funcionado para acelerar la rotación de mercancías, en la narrativa de la Singularidad lo que se declara "obsoleto" ya no es el dispositivo tecnológico, sino al propio sujeto en su condición humana. En este contexto, cobra vigencia el diagnóstico de Günther Anders sobre la "vergüenza humana frente a la técnica como obstaculiza una hibridación virtuosa.

Bajo estas condiciones, el Principio de Autonomía se ve estructuralmente comprometido. El Consentimiento Informado se debilita cuando la alternativa se percibe socialmente como una irrelevancia ontológica; el usuario no elige libremente, sino presionado por el imperativo de no quedar excluido en el uso de una tecnología que funciona como una caja negra.

Asimismo, esta dinámica enmascara una confusión deliberada entre el Principio de Beneficencia y el beneficio económico. La bioética exige actuar en beneficio del sujeto humano, pero la industria tecnológica suele presentar la maximización de la rentabilidad y la eficiencia algorítmica como si fueran un "bien social" intrínseco. Se vulnera el deber de beneficencia cuando la salud mental y la integridad cognitiva del usuario se subordinan a las métricas de engagement y lucro corporativo.

Finalmente, este marco problematiza las estrategias educativas convencionales. Si la tecnopersona es una identidad fracturada por la lógica del Tercer Entorno, la "alfabetización digital" resulta insuficiente. Enseñar a "usar" una tecnología que no es dócil ni entrañable, sin abordar antes su regulación, conlleva el riesgo de profundizar la dependencia del pharmakon.

Aquí cobran plena vigencia el Principio de Precaución de Hans Jonas y el deber de No Maleficencia (primum non nocere). Ante tecnologías con potencial de daño irreversible sobre la estructura cognitiva y emocional, la duda debe jugar a favor de la protección. La carga de la prueba sobre la inocuidad debe recaer en quien introduce la tecnología, no en quien la padece. La discusión educativa debe desplazarse desde la capacitación técnica hacia la defensa de la soberanía atencional y la autonomía cognitiva.

 

CONCLUSIONES

 

Como en el relato de Borges, los hrönir de nuestra cibercultura —los avatares, los LLM y la ficcional IA, prohijada por la narrativa de la Singularidad— han comenzado a suplantar nuestra realidad compartida. Hemos permitido que un mundo hipersticional desoriente a la sociedad y a su sistema educativo, validando un experimento a escala planetaria que carece de las garantías éticas más elementales.

El análisis realizado demuestra que la promesa de una "humanidad aumentada" ha derivado en una identidad fracturada. La tecnopersona, lejos de ser una evolución, padece una toxicidad antropológica derivada de la falta de "entrañabilidad" de las herramientas digitales. Por ello, las respuestas institucionales centradas en meras competencias digitales resultan estériles: intentan alfabetizar sobre un pharmakon tóxico sin cuestionar su dosificación.

El verdadero peligro existencial no reside en que la máquina apruebe el test de Turing, volviéndose indistinguible del humano. El riesgo, como intuía Stiegler, es el inverso: que el ser humano reduzca sus capacidades, su espontaneidad, su saber-vivir y su saber teorizar hasta volverse indistinguible del automatismo de la máquina.

Frente a la seducción de Tlön, la urgencia no es de alfabetización en competencias digitales, sino la regulación bioética de la tecnología. Debemos exigir que la innovación tecnológica se someta a los mismos principios de precaución y no maleficencia que rigen la biomedicina. Solo así podremos responder a la interrogante de Pérez Herranz, reafirmando que el ordenador, carente de finitud y vulnerabilidad, no puede ser el depositario de la vida, pues la inteligencia sin entrañabilidad biológica no es más que cálculo estadístico. Solo recuperando la salud atencional, protegiendo la experiencia corporal y social —el anclaje biológico y verdaderamente social que la máquina no debe simular— podremos resistir la disolución de nuestra realidad en una ficción tecnológica pretendidamente perfecta.

 

REFERENCIAS

 

Alarcón García, G., & Guirao Mirón, C. (2013). El enfoque de las capacidades y las competencias transversales en el EEES. Historia y Comunicación Social, 18, 25-36. https://doi.org/10.5209/rev_HICS.2013.v18.44223

Almendros, L. S. (2025). Tecnoadolescentes. Nuevos modos de entender y habitar el mundo. Telos: Revista de Pensamiento, Sociedad y Tecnología, (127)

Anders, G. (2011). La obsolescencia del hombre (Vol. I). Valencia: Pre-textos.

Asociación Médica Mundial (AMM). (2013). Declaración de Helsinki: Principios éticos para las investigaciones médicas en seres humanos. JAMA, 310(20), 2191-2194.

Beliz, G. (2025). Atlas: Inteligencia Artificial para el Desarrollo Humano de América Latina y El Caribe. Atlas de Inteligencia Artificial para América Latina y el Caribe | Programa De Las Naciones Unidas Para El Desarrollo

Benasayag, M. (2015). El cerebro aumentado, el hombre disminuido. Paidós.

Borges, J. L. (1944). Ficciones. Buenos Aires: Editorial Sur.

Broncano, F. (2025). Las entrañas de la inteligencia artificial y lo entrañable de su uso. CTS: Revista iberoamericana de ciencia, tecnología y sociedad, 20(58).

Cascardo, E. y Veiga, M. C. (2015). Tecnoadictos: Los peligros de la vida online. Lugar Editorial.

CCRU. (2021). Hiperstición. Segovia: Editorial Materia Oscura.

Chalmers, D. J. (1996). The conscious mind: In search of a fundamental theory. Oxford University Press.

Desmurget, M. (2020). La fábrica de cretinos digitales: Los peligros de las pantallas para nuestros hijos. Editorial Península.

Dominici, P. (2024). Hard Times: The Thinking Crisis in the No-Knowledge Society. CADMUS, 5(3), 117–134.

Echeverría, J., & Almendros, L. (2023). Tecnopersonas. Buenos Aires: Gramma Ediciones.

Haidt, J. (2024). La generación ansiosa. Editorial Deusto.

Innerarity, D. (2022). La Sociedad del Desconocimiento. Barcelona: Galaxia Gutenberg.

Jonas, H. (1979). El principio de responsabilidad: Ensayo de una ética para la civilización tecnológica. Barcelona: Herder.

Kurzweil, R. (2005). La Singularidad está cerca. Berlín: Lola Books.

Kurzweil, R. (2024). La Singularidad está más cerca. Madrid: Deusto.

López de Mántaras, R. (2013). El passat, el present i el futur de la intel·ligència artificial. Institut d’Estudis Catalans.

López de Mántaras, R. (2024). 100 cosas que hay que saber sobre inteligencia artificial. Editorial Lectio.

Longhin, L. (2011). La calidad de la mente (N. Panisello, trad.; 1.ª ed.). Lumen.

Lyotard, J-F. (1987). La condición posmoderna: Informe sobre el saber (M. A. Rato, Trad.; La condition postmoderne: rapport sur le savoir). Cátedra. (Trabajo original publicado en 1979)

López-Pellisa, T. (2015). Patologías de la realidad virtual. Madrid: FCE.

Marina, J. A. (1997). En busca de la voluntad perdida. Editorial Anagrama.

Marina, J. A. (2020). Tecnoadictos: Un diagnóstico de la sociedad hiperconectada. Editorial Ariel.

Martínez Oportus, X. P., & Valenzuela, C. A. (2023). La sociedad del conocimiento, el protagonismo de las tecnologías de la información y nuevas metodologías en aula. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, 4(2), 4152–4161. https://doi.org/10.56712/latam.v4i2.897

McGilchrist, I. (2023). El maestro y su emisario: El hemisferio izquierdo, el derecho y la creación del mundo occidental. Editorial Herder.

Mendel, G. (2011). Una historia de la autoridad: Permanencias y variaciones. Ediciones Nueva Visión.

Miró, M. T. (2023). Los hemisferios y la atención consciente. Editorial Desclée de Brouwer.

Pérez Herranz, F. M. (2003). El animal simbólico y la razón maquínica. En El animal simbólico: pensamiento, cultura y evolución. Cuenca: Ediciones de la Universidad de Castilla-La Mancha.

Quintanilla, M. A., Parselis, M., Sandrone, D., & Lawler, D. (2017). Tecnologías entrañables: ¿es posible un modelo alternativo de desarrollo tecnológico? Madrid: Los Libros de la Catarata / OEI.

Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.

Stiegler, B. (2004). La técnica y el tiempo (tomo III): El tiempo del cine y la cuestión del malestar. Hondarribia: Editorial Hiru.

Stiegler, B. (2024). El saber del trabajo. Rosario: Editorial Facultad Libre.

Tribunal Internacional de Núremberg. (1947). El Código de Núremberg. En Trials of War Criminals before the Nuremberg Military Tribunals under Control Council Law No. 10 (Vol. 2, pp. 181-182). Washington, D.C.: U.S. Government Printing Office.

UNESCO (2025a). Marco de competencias para estudiantes en materia de IA. https://doi.org/10.54675/EKCU4552

UNESCO. (2025b). Marco de competencias para docentes en materia de IA. UNESCO. https://doi.org/10.54675/AQKZ9414

Van Dijck, J. (2016). La cultura de la conectividad: Una historia crítica de las redes sociales (H. Salas, trad.). Siglo Veintiuno Editores.

Varela, F. J., Thompson, E., y Rosch, E. (1991). The embodied mind: Cognitive science and human experience. MIT Press.

Wolf, M. (2008). Cómo aprendemos a leer: Historia y ciencia del cerebro y la lectura. (M. Faura Encesa, Trad.). Ediciones B.

Youvan, D. C. (2025, 10 de febrero). The Death of Knowledge: How Society Deprioritized Intelligence and What Comes Next. (PDF) The Death of Knowledge: How Society Deprioritized Intelligence and What Comes Next