El hombre es el pastor del ser

Martin Heidegger

Buenas noches.

Permítanme, en primer orden, agradecer al distinguido rector de esta Universidad Nacional Pedro Henríquez Ureña (UNPHU), arquitecto Miguel Fiallo Calderón, y en él a todas las autoridades docentes y administrativas de esta alta casa de estudios, por acogernos en su recinto.

En segundo orden, quisiera expresar mi gratitud a la querida y admirada doctora Jacqueline Malagón, por el honor conferido al invitarme a participar como conferenciante en su “Cátedra Magistral de Educación Dra. Jacqueline Malagón”, espacio de propuestas de pensamiento y discusión científica y académica que esta universidad ha tenido el acierto de crear, en meritorio homenaje a una mujer que ha entregado los años más fructíferos de su vida a la noble tarea de alcanzar una mejoría sustancial en la calidad de la educación y en la construcción de un espíritu de la dominicanidad, fundamentado en los más altos principios y valores del legado humanístico desde la Antigüedad clásica hasta nuestros días.

Mi agradecimiento, además, a todos los presentes en esta Sala Max Henríquez Ureña de esta prestigiosa universidad, como también a quienes nos siguen, quiero decir, que nos ven y escuchan a través de las redes sociales y de las pantallas de sus dispositivos digitales personales, artefactos a los que, por un eufemismo deficitario o un enorme logro del marketing, solemos llamar, paradójicamente, inteligentes. 

La propia doctora Malagón me ha pedido que exponga ante ustedes mi punto de vista, que será siempre modesto, personal y probablemente discutible, incluso, aproximadamente equívoco, acerca de cómo la hoy denominada revolución tecnológica o interregno de la era digital ha impactado, y sigue haciéndolo a cada segundo, en nuestra forma de vida, de sentimiento y de pensamiento. Hablamos de un fenómeno de estremecedora actualidad, a través de cuya percepción y análisis podríamos, por un lado, apostar a un futuro más espectral, diría el filósofo francés Éric Sadin, porque el paradigma descansaría en la fascinación delirante provocada por la relación entre los avances de las tecnologías, la diversificación del capital y su impacto sobre nuestra vida, mente y cuerpo (La vida espectral. Pensar la era del metaverso y las inteligencias artificiales generativas, Caja Negra, Bs. As., 2024), o por el otro lado, llevarnos a la triste condición de observadores pasivos e indefensos de nuestra propia autodestrucción como civilización y como especie, a manos de la orgía del poder económico y político, que degenera en una contienda geopolítica, y la carrera armamentista que lo convierte en desastrosa realidad. 

No se trata, y lo aclaro desde este momento, porque no soy el típico tecnófobo, tampoco un experto, de un dualismo más, de una posición maniquea más, tampoco de una visión apocalíptica del devenir, sino más bien, del dilema mayor, de la disyuntiva por excelencia acerca de cómo en el abordaje de nuestro presente, en su ceguera ética, su culto a la productividad y el rendimiento, y su perversa y delirante deriva consumista, por mor de la alienación en lo superfluo, del culto al dato y al totalitarismo digital, podrían estar pergeñándose las cuerdas para la terrorífica melodía de la aniquilación de nuestro futuro. A la sentencia de Thomas Hobbes expresada en el siglo XVIII, basada en un lejano dicho latino y según la cual el hombre es lobo para el hombre, habría que modificarle los términos y acuñar, al amparo del estadio imperativo de la información y el medio digital, algo así como: el programa informático y la Inteligencia Artificial Generativa, pese al bienestar que, en el uso de la ciencia médica, productos, servicios y adelantos prácticos generan, podrían ser el lobo del hombre. 

El humanismo que, con interpretaciones y saqueos ideológicos de su originario y metafísico significado, ha transitado desde la cultura grecolatina y el Renacimiento, que promovía desde allí el culto a la Antigüedad clásica, porque había en ella el reclamo del valor del espíritu humano, su autonomía y su dignidad, hasta nuestros días, no había experimentado, sin embargo, una mayor quiebra de su auténtico sentido que a partir del apogeo de la aceleración de cambios tecnológicos y la digitalización. Es en la fragilidad de la tarea de reafirmación de lo humano, que se ve supeditado a la preeminencia de lo económico, lo egocéntrico y lo tecnológico, donde se fragmenta y diluye la unidad de sentido del humanismo. La existencia se consume entre el rendimiento laboral, la atención a la conexión fractal o de pantallas, que se resuelve en consumismo y dilución de la identidad, o la total ausencia de un tiempo de ocio fértil, lúdico, capaz de superar el cansancio, la soledad, el síndrome del quemado y la depresión. El homo sapiens, que había sido gregario y capaz de asociarse y colaborar a gran escala, se reduce al infeliz, solitario y depresivo homo digitalis.

Cuando el ser humano, por la razón o pretexto que sea, abandona su esencial preocupación por lo humano mismo, entonces, se aboca al desenfreno de una crisis, se acerca al abismo de su propia negación. ¿Acaso no resulta contradictorio, es más, contraproducente el hecho de que un programa informático me pregunte a mí, más allá del supuesto de que yo lo maniobro y controlo, que si soy yo mismo un ser humano o un robot? Y lo más desconcertante aún, que debo responder sin alternativa al robot que sí soy humano, y tiene el programa la facultad de que continúe o no en lo que hago con la máquina misma. ¿No estamos acaso ante el proscenio de una nueva modalidad de alienación en un objeto, que ya no solo es la mercancía o el dinero, también como mercancía, como preocupaba a Marx, sino en algo tan relativamente autónomo y generativo que, además tiene el tupé de presumir de ser inteligente, tanto o más que yo? Y la pregunta viene a cuento, supuestamente, en favor de mi libertad y mi seguridad cibernéticas, cuando en verdad lo que queda entredicho y condicionado es mi auténtico derecho a la libertad, a consecuencia de una seguridad cada vez más digitalmente panóptica, restrictiva y dictatorial. Hay en el ámbito digital un resquebrajamiento del sentido de la transparencia, porque en su intencionalidad programática hace amigable el procedimiento, pero deja oculto el pretexto por el cual persigue la información o el dato del individuo que hace uso del medio o el recurso del dispositivo o la pantalla.

Finalizada la Segunda Guerra Mundial, muestra fehaciente de la capacidad autodestructiva del hombre en la que murieron más de 60 millones de personas, en su afamada Carta sobre el humanismo que, en 1946, Martin Heidegger dirige a Jean Beaufret, que se publicará ampliada un año después como parte de su ensayo La doctrina de Platón sobre la verdad, el filósofo sustenta que, de entenderse bajo el término general de humanismo el esfuerzo porque el hombre se torne libre para su humanidad y encuentre en ella su dignidad, en ese caso el humanismo variará en función del concepto que se tenga de libertad y naturaleza del hombre mismo. De igual modo, variarán también los caminos que conducen a su realización. El humanismo de Marx no precisa de ningún retorno a la Antigüedad, y lo mismo se puede decir de ese humanismo que Sartre concibe como existencialismo, apunta Heidegger. En el sentido amplio que ya se ha citado, subraya el autor de Ser y tiempo (1927), también el cristianismo es un humanismo, desde el momento en que según su doctrina todo se orienta a la salvación del alma del hombre (salus aeterna) y la historia de la humanidad se inscribe en el marco de dicha historia de redención. 

Estas diferentes formas de humanismo van a coincidir en el hecho de que la humanitas del homo humanus, es decir, la humanidad del ser humano se determina desde la perspectiva previamente establecida de una interpretación de la naturaleza, la historia, el mundo y el fundamento del mundo, esto es, de lo ente en su totalidad, remarca en su carta. No obstante, habrá en Heidegger dos elementos primordiales que, en el ser del humano mismo, determinan su carácter, o bien, su destino, a saber, la facultad de pensar y la de hacer uso del lenguaje. De ahí que afirme, desde el inicio de la citada carta, que lo que ante todo es es el ser. El pensar, dice, lleva a cabo la relación del ser con la esencia del hombre. No hace ni produce esta relación. El pensar se limita a ofrecérsela al ser como aquello que a él mismo le ha sido dado por el ser. Este ofrecer consiste, apunta Heidegger, en que en el pensar el ser llega al lenguaje. El lenguaje es la casa del ser. En su morada habita el hombre. Los pensadores y poetas son los guardianes de esa morada. Su guarda consiste en llevar a cabo la manifestación del ser, en la medida en que, mediante su decir, ellos la llevan al lenguaje y allí la custodian. El lenguaje, que unifica el pensar y el ser, se convierte en la morada misma de lo humano. Por ello, la misión del hombre es la de pastorear el ser.

¿Qué sentido tiene, a no ser la evidencia de una derrota, de una quiebra irreparable, que un sujeto tenga un vasto dominio de los códigos tecnológicos y los principios binarios del lenguaje de programación, si no alcanza a tener comprensión y dominio del lenguaje humano, es decir, de su propia lengua, en tanto que significante mayor de su propia cultura, en tanto que sistema interpretante de todos los demás sistemas interpretados? Me atrevería a asegurar, aunque pueda equivocarme que, si un nativo digital llega a tener conciencia de la relevancia de ser poseso de su lengua, como expresara Pedro Salinas, entonces su inclinación al medio digital, su esclava dependencia, si llega a serlo, no sería némesis o antítesis de los valores humanísticos universales y particulares que fundamentan sus tradiciones, sus leyendas y mitos, la memoria y la oralidad de su comunidad, la esencia de su propia existencia, en fin. Muy por el contrario, ese nativo digital sería un claro ejemplo de cómo es posible que la revolución tecnológica sea una aliada de la civilización, la cultura y el progreso humano y no una afrenta automatizada cuyos artificiales mecanismos de saber y prototipos algorítmicos amenacen el dominio del pensamiento y la racionalidad sobre la insondable fuerza de la naturaleza y sobre el vendaval silencioso de los datos y los procesos cibernéticos.

Y en cuanto a la noción de técnica, que algunos pretenden distanciar del adjetivo imperante hoy, lo tecnológico, me satisface, prima facie, la acepción aristotélica que la encierra conceptualmente en ser algo característico del hombre mismo, algo superior a la experiencia, pero inferior al razonamiento, algo inferior al saber, que tiene por misión descargar al ser humano de las necesidades que lo acucian (José Ferrater Mora, Diccionario de Filosofía, Editorial Sudamericana, Bs. As., 1951, pp.1306-1307). Desde los albores de la modernidad y la filosofía que la acompaña, se ha asumido con certeza que una teoría de la técnica implica, para su comprensión, una teoría de la vida. De esta forma se eleva a la condición de pensamiento y problematización, a la cuestión del pensar crítico, la misión de la técnica que la sujeta a descargar al ser humano de las necesidades generadas por su entorno natural, y que les son, en efecto, acuciantes. Esta idea de la técnica ha sufrido una fractura estructural de sentido, por cuanto, la aceleración de la información y la digitalización, la producción gigantesca de datos y la versatilidad y sofisticación en la producción de dispositivos y artefactos con caducidad programada ya no solo descargan al individuo de la posmodernidad de ciertas necesidades acuciantes, sino que, al mismo tiempo, se convierten ellos mismos en acuciante necesidad y antes que objetos, recursos o métodos inferiores al saber, más bien han derivado en un saber en sí mismos, que desafía e incluso amenaza la capacidad de raciocinio que parecía exclusiva a lo humano. Y, por si fuera poco, esos artefactos ya no solo se contentan con invadir, ocupar o secuestrar la atención y el tiempo de los individuos, sino que además se convierten en extensión o prótesis de su propia corporeidad, transformando, además, el tiempo laboral, el método y las herramientas del trabajo, así como la finalidad misma del hecho de trabajar frente al hecho de vivir, a contrapelo de la vida con sentido o propósito, del ocio y de la contemplación. 

En la película AI (Artificial Intelligence), dirigida por Steven Spilberg, el coprotagonista (Jude Law) desafía a los estudiantes de mecatrónica a los que imparte docencia, con la siguiente oración: “¡Vamos a crear un robot que pueda amar!”. El señuelo es crear un robot niño, porque no solo se trata de que la máquina tenga capacidad de amar, sino que también tenga la sensibilidad para ser amado, y nada mejor que un niño para este reto en el ámbito de los seres humanos. En términos fenotípicos, el niño robot (Haley Joel Osment) es un éxito: resultó muy parecido al que había creído perder, por un grave accidente, la pareja humana. Ahora había una gran tarea de por medio: el niño robot, llamado David, debía ir “aprendiendo”, es decir, programando las acciones y las emociones de sus padres humanos. Después de todo, es un instrumento producto de programación binaria y secuenciación algorítmica, y va a necesitar de un protocolo con palabras clave y mandatos específicos. La dimensión ficticia de la historia, que ocurre en la atmósfera de una Nueva York hundida, primero, y luego helada, dos mil años atrás, debido a los esperados efectos del cambio climático, cuando seres extraterrestres complacen al niño robot en ser un niño real, es decir, humano, lo que implica una contradicción, una mutación de sentido en la dirección que procura el ultrahumanismo. Un ser mecánico reclamaba, luego de conocer el misterio del amor, convertirse en humano, con la única intención de ser amado. 

De izquierda a derecha, José Mármol, Ancell Scheker, Jacqueline Malagón, Patricia Matos, Marisol Ivonne Guzmán y José Suriel.

Resulta paradójico que la Inteligencia Artificial, luego de superar, presumiblemente, la dimensión de lo humano no tenga otra aspiración que la de existir humanamente, vale decir, tener un espíritu, una sensibilidad, una ilusión, una memoria, un sueño, un amor tal y como lo ha sentido la tradición humanística a través de la historia de la cultura. Tal vez no se trate de una paradoja, sino, más bien, de un destino.

Desde las primeras décadas del siglo XX, en las que Martin Heidegger se hace la pregunta por la técnica y advierte acerca de los peligros de la automatización, el pensamiento y la curiosidad humanos se estaban jugando la quiebra del sentido en la relación entre el humano, la naturaleza y el medio técnico como eje de esa relación. En aquella reflexión el filósofo alemán advierte sobre el posible descontrol en los experimentos atómicos, aún muy incipientes. Lo que ocurrió después con la fisión del átomo y la aventura de Robert Oppenheimer, su Proyecto Manhattan, su prueba Trinity, cuyo nombre responde a los versos de un poema de John Donne, y la aplicación de ese avance de la ciencia y la tecnología en Hiroshima y Nagasaki, en 1945, es ya parte indeleble de la historia del horror y la autodestrucción en la civilización. 

Cuando leyendo poesías de Baudelaire, la madrugada del 12 de julio de ese año, el científico hace arder una inmensa área de Los Álamos al provocar en la atmósfera un hongo de fuego por el estallido de la bomba atómica de prueba, no por gratuidad, y luego de murmurar “Señor, estas cosas son muy duras para el alma”, recita aquel verso del Bhagavad Guitá, que él leía en sánscrito y que reza: “Ahora he devenido muerte, el destructor de mundos” (Kai Bird y Martin J. Sherwin, Prometeo americano. El triunfo y la tragedia de J. Robert Oppenheimer, Penguin Random House Grupo Editorial, Barcelona, 2022, p.677). En su aspiración posterior, su casi arrepentimiento, porque la política y la sed de guerra quebraron el sentido de la misión de la ciencia, Oppenheimer se da a la ingente tarea de diseñar un plan de control para proteger al mundo del uso de las armas nucleares y tratar de proveer a la humanidad de los beneficios de la energía nuclear. Sabía que, como adujo F. G. Jünger acerca de la técnica, (La perfección de la técnica, Página Indómita, Barcelona, 2010), el avance atómico había desencadenado las fuerzas titánicas y ciclópeas de la naturaleza. 

En este experimento de la fisión del átomo se quebró el sentido de la ética en la ciencia, para dar paso a un cambio, una nueva era en la sociedad, que tensaría aún más los intereses de las potencias en conflicto, y que, por la invasión de Rusia a Ucrania en febrero de 2022, luego de haber ocupado la península de Crimea en 2014, tiene a la humanidad a un paso de una nueva conflagración hemisférica, para una posible Tercera Guerra Mundial, esta vez con el uso de armas nucleares para la destrucción masiva. 

Yuval Harari, en su más reciente ensayo advierte, basándose en el mito griego de Faetón y en el poema de Goethe titulado El aprendiz de brujo, que “nunca recurras a poderes que no puedas controlar” (Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA, Penguin Random House Grupo Editorial, Barcelona, 2024, p.13). ¿Por qué? Porque la Inteligencia Artificial procesa información por sí sola, en base a secuenciación, lo que abre la posibilidad de reemplazar al humano en la toma de decisiones. En base a ello, el historiador sentencia: “La IA no es una herramienta, es un agente” (Ibid., p.23). Un agente presumiblemente autónomo y con intenciones cada vez más insondables. No quiero ser catastrofista, pero, pensemos con Yanis Varoufakis (Tecnofeudalismo. El sigiloso sucesor del capitalismo, Deusto, España, 2024) en cómo con la intención de conducirnos electrónicamente hacia páginas web, amigos, colegas, libros, películas y música que, de una forma u otra, podrían gustarnos, los ingenieros y artífices de las tecnologías escribieron algoritmos capaces de clasificarnos en grupos de internautas con patrones de búsqueda y preferencias similares. Entonces, advierte Varoufakis, y de repente se produjo el gran salto, la verdadera singularidad, porque sus algoritmos dejaron de ser pasivos y empezaron a programarse solos y comportarse de un modo que hasta entonces solo se asociaba a los seres humanos. “Se convirtieron en agentes” (Ibid., p.83). 

Estamos, pues, ante lo que un pensador de la actualidad, como Byung-Chul Han denomina una tormenta digital, que viene provocando, en términos heideggerianos, un olvido del ser, que no es otra cosa que la consecuencia de nuestra propia ceguera hacia los acontecimientos, en especial, aquellos provocados por la actitud fanática frente a la digitalización (La expulsión de lo distinto. Percepción y comunicación en la sociedad actual, Herder, Barcelona, 2017). Vivimos a merced de la tormenta, del ruido provocado por la aceleración y el crecimiento exponencial de la información que, centrada en lo aditivo, en lo numérico castra el anhelo humano de lo distinto, hasta hacer de la sociedad y del mundo un espacio vacío de plenitud, un desértico infierno de lo igual

No soy un tecnófobo, insisto, y por supuesto que me tomo muy en serio el aporte al confort, la eficiencia en los servicios y la prolongación de la media de vida resultantes de las máquinas, los artefactos tecnológicos, los dispositivos digitales y la poderosa revelación del universo binario y de los misterios calculados de los algoritmos y la Inteligencia Artificial Generativa. Pero apuesto siempre a la probabilidad de que ninguno de esos poderes funcionaría sin la voluntad y sin la imaginación humanas, por más que se siga apostando al quebrantamiento de ese sentido. Incluso, las divinidades, a lo largo de la historia, poca cosa llegarían a ser sin la fe y todo el andamiaje racional que los seres pensantes ponen en ellas. 

Es cierto que un teléfono digital (smartphone) es capaz de almacenar más información en su escaso tamaño que toda la que albergó en la Antigüedad la Biblioteca de Alejandría, que alcanzó la suma de alrededor de 400,000 rollos, equivalentes a unos 100,000 libros de hoy. Sin embargo, es improbable que esa misma proporción se dé en términos de conocimiento acumulado, porque ni la información en sí misma ni el dato son auténtico conocimiento, y de información y datos está lleno el teléfono digital, no de conocimiento, aunque presuma en llamarse inteligente. Debemos admitir que un Smartphone es un recurso imprescindible de nuestra vida cotidiana. Nos mantiene conectados a la red, es decir, al enjambre digital. Pero, estar conectados no significa necesariamente estar comunicados, como tampoco, ser parte del enjambre significa compartir en comunidad. El dispositivo móvil genera eficacia en la productividad, en el rendimiento laboral. Sin embargo, esa constante disponibilidad nos causa el síndrome del quemado o burnout y nos arroja a la trampa de la autoexplotación, porque nos mantenemos en actitud de trabajo 24 horas al día y los 7 días de la semana, sin que siquiera alguien superior o una relación contractual nos lo exijan. 

Solemos contentarnos con la idea de que el teléfono celular nos brinda autonomía, libertad, cuando en realidad de lo que se trata es de un déficit de nuestro libre albedrío, de un verdadero sometimiento, una narcótica sumisión, aunque por seducción, más que por opresión. Se distorsiona, pues, inconscientemente, el sentido auténtico de la autodeterminación. Vivimos la quiebra del sentido de nuestra soberana individualidad.

Lo que importa en la cultura actual no es razonar en profundidad un argumento, glosar certeramente una información, sino más bien, navegarlos, surfearlos, dar guiños de que se visionó la idea, de que, en efecto, fue vista y no, precisamente, meditada. Pienso que, de llevar al mundo electrónico el principio darwiniano de la supervivencia del más fuerte, la información más proclive a alcanzar la atención humana es aquella más breve, la menos profunda y la menos cargada de significado. Lo más pueril y efímero. La sentencia: “Clico, luego existo”, equivalente a “Consumo, luego existo”, dicta la necesidad de acudir a un recurso audiovisual de 60 segundos, sin que importe su fundamento o fuente, antes que leer 200 palabras. De ahí la prevalencia de las frases en lugar de argumentos elaborados, palabras de moda en lugar de oraciones, fragmentos sonoros en lugar de palabras profundas y, sobre todo, el imperativo de lo soez y de mal gusto, por encima de lo educativo o formador. 

El precio que se paga por la disponibilidad de la información resulta en encogimiento de su contenido; mientras que el precio de su disponibilidad inmediata es una reducción severa de su significación. Lo dice Bauman en su libro de 2011 Daños colaterales. Desigualdades sociales en la era global. En la cultura de los grandes pensadores de los siglos XVIII y XIX, y todavía de inicios del siglo XX, en cambio, se dictaban conferencias o inauguraciones de cursos académicos que duraban horas, de manera que, incluso, muchas de ellas se transformaron luego en libros clásicos con centenares de páginas. 

Las generaciones actuales cuentan con una incalculable cantidad de información en la biblioteca virtual del ciberespacio, accesible desde el teléfono inteligentes y cualquier otro dispositivo portátil personalizado. Al parecer, todo lo pueden Google y Wikipedia. Sin embargo, cada vez es más escasa, por fugaz, desmemoriada y superficial, su formación intelectual y espiritual. Incluso, el cuerpo, en la medida en que funge como superficie de relaciones de poder y saber, en la óptica biopolítica y disciplinaria de Michel Foucault, es un elemento más de la crisis de la sociedad hipermoderna. La corporeidad es reducida hoy día a datos digitales. Un Apple Watch no se limita a ofrecer la hora a su portador, sino que además informa acerca de la movilidad y los signos vitales, al tiempo que da órdenes sobre llegado el momento de ponerse de pie o avisar sobre reuniones en agenda. Y, por si fuera poco, también hace de teléfono inteligente, cosa que en mi niñez solo llegó a tener el personaje Pronto Gómez en los cartones animados en blanco y negro de Dick Tracy. 

Lo preocupante es que este hecho nos indica claramente que la mensurabilidad, lo aditivo, lo calculable o cuantificable, por encima de la narración, la imaginación y la memoria convencionales, dominan la vida de la época digital. Para Byung-Chul Han: “Al cuerpo se lo provee de sensores digitales que registran todos los datos que se refieren a la corporalidad. Quantified Self transforma el cuerpo en una pantalla de control y vigilancia. Los datos recogidos se ponen también en la red y se intercambian. El dataísmo disuelve el cuerpo en datos, lo conforma a los datos. (…) El cuerpo transparente ha dejado de ser el escenario narrativo de lo imaginario. Más bien es una agregación de datos o de objetos parciales” (La salvación de lo bello, Herder, Barcelona, 2016, p.29). La peor pesadilla ocurre cuando ese biopoder digital, que pudiera ser usado a favor de la salud clínica, se transforma, no obstante, en biopolítica, en estrategia de poder que hace del ciudadano un sujeto de vigilancia por medio del panóptico digital, coartando su libertad de acción, de movimiento, de decisión. Sin embargo, Quantified Self es ofertado en el mercado neoliberal de la hipervigilancia como un oasis de autoconocimiento y autoseguimiento más allá de la sabiduría convencional, que utiliza los adelantos tecnológicos para proveer un registro en datos de nuestros hábitos cotidianos. 

Esto parece simple y útil. Pero, todo cambia cuando ese recurso se pone en manos de regímenes dictatoriales y se usa para el control y vigilancia opresiva de la libertad individual. En términos de ciudadanía y Estado, este taxativo control de la individualidad, mediante el uso de redes neuronales, información biométrica y panópticos digitales, en base a un descomunal despliegue de pantallas, es lo que da lugar a la denominada, por el propio Han, infocracia o régimen de la información, que descansa en la forma de dominio en la que la información y el procesamiento de esta mediante recursos algorítmicos e Inteligencia Artificial va a determinar decisivamente los procesos de orden social, económico y político. La explotación ya no será de energías o de cuerpos, sino de información y datos (Infocracia. La digitalización y la crisis de la democracia, Herder, Barcelona, 2022). 

En la sociedad tardomoderna actual estamos viviendo una transformación en los campos de la identidad, de los afectos y otras emociones, del cuerpo y de la memoria. Es el fenómeno que la filósofa Margot Rot denomina, con absoluta propiedad, mutación tecnocultural, por efecto de un fenómeno mayor, el de la infoxicación, es decir, exceso tóxico de información o sobresaturación informativa. Esa mutación abarca la intimidad, la economía, el trabajo, la política y el Estado, la identidad y la cultura, el hogar y la educación, el pensamiento y la sensibilidad. Nuestro sistema, dice, nos empuja a la indefinición. “Somos números, nadies entre miles. Sé tú como nadie más puede. El sistema erosiona nuestras existencias a la par que nos exige que vivamos de ellas. No es solo egocentrismo, narcisismo, pura vanidad. Es también la respuesta sintomática, ansiosa y compulsa de encontrar algo que sí podamos elegir” (Infoxicación. Identidad, afectos y memoria; o sobre la mutación tecnocultural, Paidós, Barcelona, 2023, p.229). 

La tarea del pensamiento presente es la de articular una cartografía de esa mutación tecnocultural. Un pensamiento crítico está abocado a decir, responsablemente, lo que pasa hoy, lo que nos define hoy, de manera que podamos atisbar un mañana con menor incertidumbre, menores riesgos y mayor justicia y equidad. Hoy nuestra vida descansa en la hibridez entre organismos biológicos y máquinas, que dan lugar a que hayamos creado organismos mecánicos y psiques de máquinas. Vivimos entre los ámbitos offline y online. Dos universos, a veces antagónicos, a veces paralelos, pero siempre compatibles, aunque se trate de identidades esquivas o palimpsésticas y de comunidades de guardarropa o desechables. Incluso, sensaciones como el deseo o el miedo son objetos del interés de la robótica y la virtualización. Es la virtualización la que ha permitido que, desde un plano identitario, tengamos un segundo yo, una o más identidades digitales, que interactúan con otras para conformar redes o comunidades digitales. La propia Margot Rot subraya que: “Nuestra condición de ciborgs, nuestra condición nómada, pone de manifiesto que las categorías de la percepción y de la sensibilidad se han transformado: tiempo y espacio en abstracción digital, en materia de interfaz. Cuerpos tecnomateriales, existencias tecnoculturales. Quizás por vez primera, ciertamente antinaturales” (Ibid.p.223). 

De hecho, en términos de modo de producción y evolución digital del capitalismo neoliberal actual, Yanis Varoufakis nos habla sobre el capital en la nube y la desaparición del beneficio, y su base social, convertido en pura renta; nos habla acerca de proletarios en la nube y de cómo la muerte factual del capitalismo, provocada por la privatización de internet por parte de las grandes empresas tecnológicas, por un lado, y por otro lado, por la manera en que los gobiernos occidentales y los bancos centrales manejaron la crisis financiera de 2008, una crisis fundada en la quiebra del sentido de la ética, y todo ello bajo la amenaza de caer en lo que define como tecnofeudalismo, a consecuencia del uso excesivo de los dispositivos con pantallas, de la indefectible conexión a la nube y de la dependencia corporal y psíquica del ordenador portátil y del teléfono celular. Derrotado el capitalismo por plataformas digitales de alta tecnología (big tech,) es decir, modalidades topológicamente ubicuas de feudos digitales, y por la transformación del beneficio en mera renta, tiene lugar en la actualidad el tecnofeudamismo, caracterizado por el genial economista, en un diálogo ficticio con su padre, como el sucesor sigiloso del capitalismo. En recursos tan aparentemente nobles y útiles como ChatGPT y el auxiliar Alexa, el pensador greco-australiano ve que, si bien están lejos de reemplazar la capacidad humana, no es menos cierto que “su efecto puede ser devastador y su poder sobre nosotros, exorbitante” (Ibid., p.75). 

Esto así debido, fundamentalmente, a su capacidad de autoaprendizaje. Estos artefactos ejercen un gran poder sobre lo que hacemos, y lo peor es, que lo hacen en nombre de un pequeño, aunque poderoso grupo de individuos concentrados en los ejecutivos de los gigantes tecnológicos y en las esferas de poder económico y político. Lo temerosamente singular de la Inteligencia Artificial y sus derivados es el hecho de que algo creado o inventado por los seres humanos se vuelva independiente y más poderoso que el humano mismo, sometiendo a este último a su programado control.

Ser esclavos de la atención a la pantalla está aniquilando nuestra memoria y poniendo en riesgo la herencia cultural de milenios, porque para la economía y el mercado digitales nuestra atención es la mercancía por excelencia. Hay hallazgos espeluznantes acerca de cómo la infoesfera, como la llama el pensador Franco “Bifo” Berardi, ha penetrado la configuración de nuestro cerebro para incidir en la socioesfera, hasta crear las bases de un modo de producción bioinfo, porque va adquiriendo una dimensión biológica, y un estilo de vida con consecuencias psicopatógenas (La fábrica de la infelicidad. Nuevas formas de trabajo y movimiento global, Traficantes de sueños, Madrid, 2021). La digitalización del proceso productivo ha conseguido que prácticamente todos los trabajos sean iguales desde el punto de vista físico y ergonómico. Todos, subraya, hacemos lo mismo, ya que nos sentamos frente a una pantalla y pulsamos las teclas de un teclado. Trabajamos realizando los mismos movimientos físicos. Sin embargo, la digitalización nos hace manipular signos absolutamente abstractos, aunque su funcionamiento recombinante es cada vez más específico, cada vez más personalizado, menos intercambiable. Las nuevas formas de trabajo centradas en los paradigmas de la digitalización nos convierten en obreros cognitivos de la fábrica global de la infelicidad

La racionalidad tecnológica y el apogeo del medio digital si bien nos permiten transgredir, a favor nuestro y de la comunicación, las barreras convencionales del tiempo y el espacio, convirtiéndolos el simultáneo y ubicuo, respectivamente, no es menos cierto que incrementan el riesgo de transformar lo privado en público y viceversa, de aligerar y relativizar el peso de la responsabilidad individual y los valores sociales, y de generar un nuevo modo de alienación, capaz de atrofiar la identidad, la capacidad de pensamiento analítico y la creatividad en el ser humano. La lógica de la racionalidad digital va cónsona con la lógica del consumismo y de la sociedad de la eficacia y rendimiento laboral que, disfrazados de libertad, han forjado un nuevo modo de esclavitud. La peor de las adicciones en la sociedad presente es la ciberadicción, porque cercena en el sujeto su espíritu gregario, hasta convertirlo en un solitario, narcisista y deprimido cibersujeto.

La disponibilidad de la información es una conquista de la humanidad, que viene aparejada a la revolución tecnológica y el giro digital. No obstante, debemos tener claro que más información no es sinónimo de mejor conocimiento. Tampoco, mayor instrumentación tecnológica per se garantizará una mejor educación en nuestros niños y jóvenes. Además, no es cierto que un dato per se tenga la virtud de asumirse como conocimiento. El big data, el gran almacén de datos de que presume la digitalización sería poca cosa sin la capacidad humana para interpretarlo y aprovecharlo. Su uso o aplicación hará mover hacia uno u otro lado el péndulo de la ética, ya sea hacia la racionalidad o hacia el absurdo, ya sea hacia la utopía o la distopía.

Un estudio de la Universidad de Berkeley reveló que entre 1970 y 2000, apenas treinta años, se generó más información que en todo el período de la prehistoria de la humanidad. El sicólogo David Lewis (1996) acuñó el término “Síndrome de fatiga de la información”, que Peter Handke prefiere llamar cansancio de la información. La fatiga del pensamiento, por exceso de información, constituye una atrofia. La percepción, que de acuerdo con el poeta W. Blake nos posibilita ver el lado infinito de las cosas, se embota y trunca la libertad de pensar, como consecuencia de este síndrome de cansancio informativo. 

Contar con más información sobre la sociedad y el mundo no conduce a su mejor conocimiento y comprensión. Se llega a un punto en que el exceso de información no informa, sino que deforma. De igual modo, el complejo andamiaje y diversidad comunicativos han llegado a su punto de inflexión: antes que comunicar, solo acumulan información. El cansancio por la información excesiva causa síntomas depresivos y de ansiedad en la personalidad posmoderna. Pregunté al ChatGPT ¿qué es Inteligencia Artificial? Me respondió: “es una rama de la informática que se centra en el desarrollo de sistemas y tecnologías capaces de realizar tareas que normalmente requieren inteligencia humana”. Destaca, además, que incluye habilidades como razonamiento y toma de decisiones, aprendizaje automático o machine learning, procesamiento y generación de lenguaje natural o humano, reconocimiento de patrones de datos y capacidad de interacción con el entorno, lo que le permite controlar dispositivos o robots. Como podemos apreciar, dentro de esas tareas no están las actitudes sensoriales de los humanos, por lo que no hay disposición hacia el sentimiento afectivo o el miedo.

Ahora bien, esta Cátedra, desde la que hoy hago uso de la palabra, tiene por preocupación principal la educación. Vela, pues, por la calidad de los aprendizajes, pero también por la calidad humana de los niños, adolescentes y jóvenes que ocupan las aulas. Esta brega oscila entre los extremos de métodos pedagógicos convencionales y metodologías de enseñanza en base a dispositivos y programas en pantallas digitales. Creyendo, erróneamente, en el demiurgo digital, ese falso dios que resolvería todo con solo un clic, tendencias educativas, ferozmente dominantes, aspiran a reemplazar al maestro por un robot auxiliar o al libro por una tableta o un ordenador, cuando ha sido demostrado científicamente, que la introducción de dispositivos digitales en el aula no mejora los resultados de los alumnos, mucho menos sus competencias en lectura o matemáticas. Recordemos, como simple ejemplo, el descenso en la calidad educativa generado por la irrupción de la pandemia y la reclusión de los alumnos en los hogares y frente a las pantallas. O bien, cómo fracasó estrepitosamente en países desarrollados la política de “Una Tablet por niño” (One laptop per child), que en algún momento de su historia reciente tanto anheló el Ministerio de Educación.

Permítanme compartir algunas informaciones científicas publicadas por el doctor en neurociencias Michel Desmurget, que derivan de estudios profundos acerca de cómo la exposición de los niños a las pantallas está causando un grave déficit en la capacidad cerebral de estos, prefigurando un panorama de crisis en la individualidad, en la educación y en la sociedad. Uno de sus libros es La fábrica de cretinos digitales. Los peligros de las pantallas para nuestros hijos (Ediciones Península, 2020); el otro, publicado este mismo año se titula Más libros y menos pantallas. Cómo acabar con los cretinos digitales (Península, Barcelona, 2024).  Se aprecia, pues, una batalla campal contra la infoxicación.

En el primero de sus libros, el investigador francés desmitifica la influencia,  capciosamente favorable al desarrollo psicomotor, del uso lúdico excesivo de las pantallas y llega a denunciar el falso evangelio de la industria tecnológica, así como la difusión acrítica de la prensa de información capciosa o ambigua para promover mitos urbanos sobre nuevas generaciones (Y, Z, nativos digitales, migrantes o inmigrantes digitales), entre otras argucias que han hecho de la digitalización una suerte de tótem de la hipermodernidad y la globalización.


El propósito central de su enjundioso ensayo estriba en demostrar, con fundamentos científicos, que existe una influencia, de corte negativo, de las pantallas y los dispositivos digitales en el comportamiento y desarrollo escolar de los niños, adolescentes y jóvenes, que afecta el aspecto cognitivo, el aspecto emocional, el componente social y finalmente, la salud como los cuatro pilares de su identidad. Es importante señalar que en lo relativo a las pantallas vale la premisa de que usos diferentes generan impactos diferentes. No resulta igual el uso abusivo de las redes sociales que la búsqueda adecuada de información en internet; o bien, un videojuego educativo frente a uno de propósitos violentos. 

Desmurget subraya, a partir del hecho de que nuestro cerebro está evolucionando hoy a una velocidad nunca vista, que lo digital refiere una “materia heterogénea, de la que no cabe hablar como un todo sincrético” (p.187). Afirma categóricamente que, en los niños de 2 a 8 años, el uso lúdico de pantallas alcanza un espacio promedio de 2 horas y 45 minutos por día en un año, lo que equivale a varios cursos académicos completos, y que es el mismo tiempo requerido para llegar a ser un buen violinista. Entre 0 y 2 años, el consumo promedio es de 50 minutos diarios frente a pantallas, que se traducen luego en obstáculos para el desarrollo del lenguaje, hábitos sociales, coordinación motora, gestión de emociones y facultades matemáticas, entre otras. 

Además, se ha demostrado científicamente que la mayoría de las aplicaciones para bebés y niños de edad preescolar se caracterizan por un bajo nivel educativo. Pero todavía algo peor, estas aplicaciones moldean tempranamente hábitos de consumo y uso abusivo posteriores. Otra falsa creencia es considerar que los videojuegos pueden ayudar a desarrollar habilidades para la vida. No es así. Jugar, por ejemplo, a Súper Mario, por no citar juegos o personajes violentos muy frecuentes, solo enseña al niño a jugar a Súper Mario. Nada más. Expuesta nuestra sociedad a una suerte de orgía digital, Desmurget sustenta que recurrir a GPS o a jugar Súper Mario en una videoconsola modela puntualmente el cerebro, sin embargo, no cambia la vida. En cambio, la lectura de un libro sí podría generar cambios para toda la vida.

En la educación de hoy, hablo de la escuela y del hogar, se da un hecho incontrastable: el peor enemigo del libro y la lectura es la pantalla y el videojuego. Se trata de una nueva gigantomaquia de la mítica era digital o del ciberespacio y el fantasmagórico homo digitalis, o bien, homo tecnologicus: la pantalla contra el libro. El objeto de la disputa: la atención a la lectura. 

Como ya vimos, la exposición inconsecuente de los niños y adolescentes a la pantalla no produce más que una cada vez mayor exposición, una ciberadicción, que no impacta favorablemente en nada a la vida concreta. Un libro, en cambio, la lectura como actividad lúdica, incluso, cuando el niño aún no es capaz de leer, aporta sólidos y duraderos beneficios al cerebro y a la actitud frente a la vida. La lectura es un surtidor de conocimientos. La lectura despierta la imaginación y encandila el sentimiento de empatía. Y, por si fuera poco, la lectura remarca en el espíritu infantil una identificación cada vez más profunda con lo esencialmente humano. Esto lo puedo testimoniar por mis dos hijos, que fueron soberanos e interesados lectores en su infancia, y por mis cuatro nietos, de los que solo el mayor de 7 años sabe leer y escribir, y cuyos padres los duermen cada noche con lecturas de libros impresos. Como abuelos, nuestros principales regalos para ellos son libros adecuados a sus edades, que reciben con beneplácito. Esta es la forma de afianzar en sus cerebros la apetencia por la lectura, facultad que sin separarlos del entorno digital en que se desarrollarán sus vidas, les asegurará un sano equilibrio entre el medio digital y las sendas del lenguaje que sirve para una vida mejor. Wittgenstein acertó al formular, en su primera etapa de pensamiento, el enunciado aforístico que reza: “Los límites de mi lenguaje son los límites de mi mundo” (Tractatus logico philosophicus, 1921). La lectura es el mejor germen para fecundar el lenguaje, para alcanzar una competencia lingüística que posibilite el pensamiento y la comunicación.

En su segundo libro, el investigador Desmurget se ocupa de analizar el desastre contemporáneo del déficit de lectura del cual nuestros niños, adolescentes y jóvenes son las principales víctimas. Es, en efecto, escaso el número de personas que cultivan la lectura, según estudios de 2020 en Francia y Estados Unidos. En los individuos entre 8 y 12 años se detectó que dedican 4,7 horas diarias pantallas, 2,5 horas a ver televisión y solo 0,5 horas a la lectura. Entre los 13 y 18 años la situación se agrava: 7,1 horas en pantallas, 2.9 horas a la televisión y 0,5 horas a la lectura (Ibid, pp.45-50). La conclusión es que nuestros hijos leen poco, y cuando lo hacen, no emplean precisamente un libro, sino revistas, mangas (libros ilustrativos) o cómics. Pero ojo, otros estudios revelan que nuestros estudiantes de nivel superior leen cada vez menos, forzando en ocasiones a sus maestros a sustituir la lectura por materiales audiovisuales de escasa duración. Esta, dice Desmurget, “parece una espiral aciaga si tenemos en cuenta que entre los estudiantes de hoy se elegirá a los profesores que en el día de mañana tendrán que transmitir a nuestros hijos el arte de la lectura y el amor por ella” (Ibid., p.61). Si leemos cuentos a nuestros hijos en la niñez, su plasticidad cerebral tendrá una ventaja de 30 sobre 10, y una ventaja de un año escolar sobre quienes no tuvieron esa dicha. 

Repito, no soy un tecnófobo. Es más, promuevo el uso adecuado de las nuevas tecnologías como vías hacia la comprensión del ser humano, de la naturaleza y de la sociedad. Mi postura crítica descansa en el uso posible y factible que se haga de la Inteligencia Artificial y de todo aquello de que pueda hacernos dueño la revolución tecnológica, la que, de acuerdo con Alessandro Baricco (The Game, Anagrama, Barcelona, 2019), no hubiera sido posible sin que antes nosotros mismos hayamos producido una insurrección del pensamiento. Así es como tiene lugar lo que hoy llamamos disruptivo en la digitalización.

No quisiera terminar mi intervención, sin antes referirme a la responsabilidad ética de ese uso. Es el ser humano el que emplea o usa aquello que ha tenido la virtud de crear. A este propósito reflexioné hace antes en esta dirección.

La dimensión ética y moral de la responsabilidad supera el límite de lo individual, para instalarse como responsabilidad por el otro. Es decir, responsabilidad de carácter social. Una responsabilidad de tal envergadura es la mía frente al otro, que, en palabras de Emmanuel Levinas, se resumiría de esta forma: “me importa poco lo que otro sea con respecto a mí, es asunto suyo; para mí, él es ante todo aquél de quien yo soy responsable” (Entre nosotros: ensayos para pensar en otro, 2001). Se trata de una responsabilidad trascendente, que excede mi interés personal y se convierte en preocupación por el ser humano en general y por su futuro, aunque cueste mi propio sacrificio personal.

Subrayo esta afirmación porque, si bien guardo relativa distancia de un crítico severo de la cibernética, término acuñado en 1948 por el profesor del Instituto de Tecnología de Massachusetts (MIT), Norber Wiener, tomándolo de la palabra griega kybernetes, que quiere decir, timonel, guía o práctico de puerto; un crítico muy agudo, insisto, de la autonomía o autosuficiencia cibernética como lo es el pensador Hans Jonas, para quien, la cibernética no es tan inocente, creo importante prestar atención a su advertencia. “Para la cibernética, la sociedad es una red de comunicación que está al servicio de la transmisión, el intercambio y la acumulación de información, y esto es lo que la mantiene unida. Nunca se ha defendido un concepto de sociedad más vacío que este. Nada dice sobre el objeto de esa información ni acerca de por qué es importante poseerla. En el esquema cibernético no tiene cabida siquiera el planteamiento de esa pregunta. Toda teoría sobre la índole social del hombre, por primitiva o unilateral que sea, que tenga en cuenta que este es una criatura indigente y que pregunte por los intereses vitales que llevan a unos hombres a reunirse con otros será más adecuada que la cibernética”. Este escenario antecede a la hoy llamada revolución digital.

Para alejarnos de cualquier pensamiento catastrofista, Jonas apunta a que el concepto de bien, es decir, de actuar, pensar, crear siempre a favor de la vida y del ser humano futuros debe ser parte fundamental del propósito de la tecnología y la ciencia, para de esa forma evitar un mal mayor en la humanidad. De ahí que considere que la promesa de la técnica moderna se haya convertido en una amenaza. O bien, que exista una asociación indisoluble entre promesa y amenaza (El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica, 1995).

Sería insostenible pensar en construir la sociedad deseada, no la utópica o soñada, sino la necesaria, la de mayor igualdad y justicia, la de menor corrupción e impunidad, la de menos genocidio y terrorismo, la que intente, al menos, contener los efectos del calentamiento global, sin contar con los avances de las ciencias y la tecnología, y muy particularmente, de las tecnologías de la información y la comunicación digital. 

Sin embargo, y desde la perspectiva de un nuevo humanismo, hay que tratar de evitar que el individuo se embriague o se ciegue con el hedonismo excesivo, con la obnubilación que podría provocar lo digital como expresión de la crisis actual de la humanidad, sus sistemas económicos, sus sistemas de gobierno. En eso habría de consistir la esperanza, esa que nos hace mirar al horizonte y pensar que, a pesar de las quiebras y defraudaciones del presente, debemos abrigar la certeza de que encontraremos el auténtico sentido de la vida. La esperanza, pues, como una dimensión del alma humana. Porque, por más tétrico que nos parezcan estos tiempos de insolidaridad y belicismo, de ruido de la información digital y alocado consumismo, allí estará esperándonos la esperanza, en la claridad de la mirada que se desprende de los ojos de un niño al contemplar el rostro de su madre, en la estela que por la noche de un viernes nos deja la luna llena sobre la oscura piel del mar, como epifanía de un camino y un amanecer mejores para la humanidad.

Termino con las últimas palabras escritas y encontradas en el bolsillo del abrigo con que falleció el gran poeta español Antonio Machado, en un temprano exilio que le quebró el sentido de su esperanza, pero que abrió surcos en el espíritu de la humanidad, y que dicen: “Estos días azules y este sol de la infancia”.

Muchas gracias.

(Conferencia dictada el martes 26 de noviembre de 2024, a las 7:00 p.m., en la Sala Max Henríquez Ureña de la Universidad Nacional Pedro Henríquez Ureña)

______

José Mármol es Premio Nacional de Literatura 2013. Autor de Yo, la isla dividida (Visor, 2019).