Introducción
El desarrollo de las tecnologías digitales y, en concreto de la llamada IA, está experimentando una clara aceleración en los últimos tiempos, podríamos incluso decir que en los últimos días. El caso más destacado dentro de la denominada Inteligencia Artificial Generativa es el del Chat GPT-4.
Las tecnologías digitales favorecen que el ser humano delegue en las máquinas funciones que le son propias. Cuando se trata de trabajos penosos o repetitivos (p. ej., cuando delegamos el trabajo de barrer la casa en un robot aspirador), no parecen existir mayores problemas para aceptarlo. Tampoco parecen existir grandes dificultades para hacer lo mismo en casos vinculados al mundo de la medicina (p.ej., robots que pueden operar la columna vertebral o extirpar un tumor cancerígeno con gran precisión). En estos casos, no nos cuesta esfuerzo reconocer que los robots hacen su trabajo mejor que nosotros. Y ello es así porque precisamente han sido programados para que lo hagan mejor que nosotros. Ahora bien, el que la máquina equipare, o supere, en resultados a los humanos no significa que ambos actúen de la misma manera. Para comprender la diferencia en su manera de proceder, resulta particularmente pertinente recurrir a un pasaje del filósofo francés Gilbert Simondon, incluido en el texto de 1953 titulado “Épistémologie de la Cybernétique”, que forma parte del libro Sur la philosophie (1950-1980), Paris, PUF, 2016, pp. 177-199.
“La máquina de calcular no es una imitación del hombre; no hace las mismas operaciones que él por vías idénticas o análogas, sino por vías equivalentes y diferentes: la máquina no es un ser artificial que imita estructuralmente al hombre, sino más bien un dispositivo capaz de sustituir al hombre cumpliendo una función determinada: equivalencia de las funciones constituidas por operaciones diferentes, tal es la relación que existe entre el hombre y la máquina […]. Una máquina es una estructura capaz de llevar a cabo una serie determinada de operaciones. La finalidad, concebida como sentido operatorio de una estructura, es pues una relación fundamental de toda tecnología. La teoría cibernética, expresión de una tecnología reflexiva, es pues proclive al estudio del mecanismo teleológico” (Simondon 2016, p. 186).
Es decir, que en el caso de los humanos y de las máquinas, la función es la misma (i.e.: la obtención de un determinado resultado), pero las operaciones por medio de las cuales se llega a ese resultado son de naturaleza muy diferente.
Los robots-máquinas actúan sin errores (o con un margen de error muy pequeño) porque precisamente no están operando, como lo hacen los humanos, de manera inteligente. Es más, actúan sin errores porque no tienen esas constricciones propias a la inteligencia humana, que puede verse afectada, por ejemplo, por factores emocionales como resultado de su condición de facultad perteneciente a un ser vivo. Las máquinas no son cuerpos con substrato biológico. Por su parte, la inteligencia de los humanos tiene la importante particularidad de que es indisociable del cuerpo en el que está situada y que le relaciona con el mundo exterior. Nuestra “inteligencia” o racionalidad es, pues, de una naturaleza completamente diferente de la de las máquinas.
¿Es inteligente una máquina? El test de Simondon
El problema se agrava cuando delegamos en las máquinas funciones que marcan fuertemente nuestra especificidad como, por ejemplo, el pensamiento abstracto y creativo, muy vinculado a disciplinas como la filosofía, cuyo modo de expresión más destacado es la escritura. Este problema afecta de manera muy especial al ámbito educativo.
Un ejemplo muy reciente de tecnología cibernética es el Chat GPT-4, herramienta digital capaz de producir como resultado textos escritos, composiciones musicales o pictóricas. Lo hace a partir de determinadas instrucciones que le son proporcionadas por un programador, que se encarga de adiestrar a la máquina. Pero –pese a lo que precipitadamente pueda ser interpretado– la máquina no piensa en sentido estricto. Se limita a seguir los pasos conducentes a lograr el resultado que le es requerido por el programador, quien sí piensa y, por tanto, actúa de manera inteligente. La máquina se limita a seguir el algoritmo diseñado por el programador. La máquina, pues, está programada para producir un resultado, y esto es lo más relevante. Si algunos de estos resultados fueran logrados por humanos, se diría de ellos que son inteligentes. En esta medida, la IA obra como si fuera inteligente, pero en realidad no lo es. O, por lo menos, no lo es de la misma manera en que los humanos son inteligentes. En efecto, el proceso o manera de operar que conduce a la máquina a proporcionar el resultado no es el mismo que el que llevan a cabo los humanos. Y ello aun cuando supusiéramos que el resultado fuera exactamente el mismo. Tal vez aquí resida uno de los problemas en el tratamiento de la IA que pueden provocar confusión, al pretender que la IA tiene un comportamiento inteligente, es decir, al considerar que la “inteligencia” de la IA es de la misma naturaleza que la inteligencia humana. O, lo que equivale a lo mismo, al equiparar el lenguaje que utiliza la máquina al lenguaje humano.
Sobre este particular, es especialmente interesante lo que sostiene el filósofo francés Éric Sadin (2020 pp. 17-18). Según este autor, con la IA asistimos a un cambio de estatuto de las tecnologías digitales. Ahora se insiste en que ciertos sistemas computacionales están dotados de una facultad: la de enunciar la verdad. La palabra “tecno-logía” ya no enunciaría el discurso sobre la técnica, sino que sería ahora el término que describiría la capacidad de proferir el lógos a la propia técnica. La técnica, se viene a decir, profiere un discurso para decir la verdad. Esta es una característica de la IA. Pero Sadin pone el acento en que esta atribución de lógos a la máquina viene condicionada, en realidad, porque gran parte de las ciencias algorítmicas toman un camino antropomórfico cuando se atribuyen cualidades humanas a lo que no son sino procesadores de datos. Es decir, no se tiene en cuenta lo que Simondon nos decía a propósito de la diferencia entre la máquina y los humanos: aunque en ambos casos la función sea la misma (i.e.: la obtención de un determinado resultado), las operaciones por medio de las cuales se llega a ese resultado son de naturaleza muy diferente.
La IA, los bots, hacen cosas que podemos hacer los humanos e, incluso, algunas cosas las hacen mejor que nosotros. Sobre todo, en el ámbito del cálculo o la computación. A este respecto, un ejemplo recurrente consiste en recordar que la computadora de nombre Deep Blue ganó una partida de ajedrez al campeón del mundo Garry Kaspárov. Pero, cabe preguntarse, ¿estaba la máquina jugando al ajedrez? ¿O, más bien, se limitaba a seguir ciertas instrucciones –proporcionadas mediante un algoritmo– para conseguir el objetivo de ganar la partida? Estamos seguros de que Kaspárov estaba jugando al ajedrez, pero no podemos decir lo mismo de la máquina. Aparentemente, el hombre y la máquina hacían lo mismo, pero lo cierto es que no lo estaban haciendo. Otro ejemplo al que se suele recurrir es la victoria en 2016 de AlphaGo sobre el campeón del mundo de go –un juego más complejo que el ajedrez–, el surcoreano Lee Sedol. Ahora bien, ¿hacen las máquinas todo lo que podemos hacer los humanos? Quizás esta sea la cuestión clave. El hecho de que, en el ámbito de la “inteligencia”, hagan cosas que nosotros podemos hacer, no es motivo suficiente para poder afirmar que no hay diferencias entre los bots y los humanos. Las diferencias existen, siguen existiendo y sería interesante explicitarlas para conocernos mejor a nosotros mismos. En tal sentido, se podrían indicar como pertenecientes específicamente a la esfera humana los terrenos de la moral y de la estética y, más concretamente dentro de esta última, el de la creación artística.
El filósofo español Víctor Gómez Pin propuso, en conferencia impartida en la Universidad Autónoma de Santo Domingo en noviembre de 2022, como alternativa al test de Turing –utilizado para determinar si una respuesta pertenece a una entidad maquínica o humana–, el test de Kant consistente en someter a la máquina a un test en los tres ámbitos de las tres críticas kantianas: el ámbito del conocimiento, el de la moral y el de la estética. El test de Turing se limita al primer ámbito y, más en concreto, al terreno del cálculo. Es por esto por lo que, por el momento, no parece que las máquinas estén superando el “test de Kant”, en la medida en que, si bien aparentemente parecen resolver dilemas morales, pintar cuadros, redactar textos o componer música cabe preguntarse si lo hacen realmente, es decir, si es su intención resolver dilemas morales, pintar cuadros, redactar textos literarios o componer música.
El test de Turing es el que se considera paradigmático para poder distinguir si nos encontramos delante de una persona o de una máquina. Nos podemos preguntar si este test continúa siendo válido hoy en día, pues lo relevante no es la función o resultado al que llegan los humanos y la máquina. Podemos no ser capaces de discernir si una respuesta determinada es dada por una máquina o por un humano. Pero sí podemos ser capaces de distinguir si la respuesta está configurada a partir de operaciones diferentes. Si llega el día en que no seamos capaces de distinguir si las operaciones que conducen a una respuesta “inteligente” se dan en el ámbito maquínico o humano, entonces la distancia que separa a las máquinas de los humanos se habrá reducido significativamente y entonces la máquina habría superado al que podríamos denominar el test de Simondon. Este test no sería ya como el de Turing, un test subjetivo basado en los resultados o las respuestas, sino un test objetivo que fijaría su atención en el proceso llevado a cabo para obtener las respuestas.
Lenguaje maquinal / lenguaje humano
La IA utiliza un lenguaje propio: el lenguaje de la programación informática. Por su parte, la inteligencia humana emplea su lenguaje: el denominado lenguaje natural. Estos dos lenguajes no son equiparables, porque, dadas sus características propias, operan de una manera sustancialmente diferente. Así, según afirma Sadin en el diario francés Le Monde (23/01/2023), los enunciados propios de las tecnologías digitales.
“no son más que la producción de algoritmos que se nutren de análisis estadísticos, tomando como única fuente aquellos registros ya existentes. En ello, no tienen relación con lo que supone el lenguaje denominado natural. Lo propio del lenguaje humano es que procede de una tensión entre un amplio léxico, hecho de palabras y de reglas gramaticales, y nuestra capacidad para generar fórmulas […]. Toda locución, escrita o hablada, incumbe a una emanación que, invariablemente, excede a toda esquematización previa”. (Sadin, 2023).
Esta dimensión está ausente del lenguaje de la IA o, como dice Sadin, del “verbo maquínico”.
Sobre el lenguaje de las máquinas digitales cabe preguntarse: ¿Qué lenguaje “hablan” las máquinas? No parece que hablen un lenguaje humano. Aparentan hablar un lenguaje humano porque están programadas para ello. El programador pretende crear un sucedáneo o copia o imitación desangelada del lenguaje humano. Con máquinas que “chatean” o “conversan” se pretende crear las condiciones que reflejen lo más fielmente posible lo que ocurre cuando dos humanos “chatean” o “conversan”. Pero la máquina no “entiende” los contenidos de la conversación, no entiende su semántica. Lo que “entiende” la máquina son las órdenes o instrucciones (algoritmo) dadas por el programador, que inventa un lenguaje especial (el lenguaje informático) para comunicar esas instrucciones. La máquina está programada para traducir el lenguaje informático a un lenguaje aparentemente “natural”, es decir, a un lenguaje humano. Para ello, es sometida a un intenso “entrenamiento”, con aportación masiva de datos provenientes, en este caso, de conversaciones mantenidas por humanos. Esto plantea importantísimos problemas éticos y legales, que no podemos aquí más que esbozar: la máquina es entrenada con recursos provenientes de la actividad creativa de los humanos (en los ámbitos de la literatura –incluyendo aquí a la filosofía–, la música o las artes plásticas) sin que los creadores lo hayan autorizado explícitamente. En definitiva, que se está favoreciendo una perversa situación en la que los creadores están “alimentando” a una máquina programada para usurpar sus funciones, sin recibir nada a cambio y sin ni siquiera conceder su autorización.
La pertinencia de la expresión “Inteligencia Artificial”
Hay quien discute la pertinencia misma de la expresión “Inteligencia Artificial”. Es significativo al respecto el título del libro del desarrollador francés en el mundo digital Luc Julia: La inteligencia artificial no existe (Julia, 2019). En efecto, por lo que respecta al primero de los términos de la expresión, si la “inteligencia” de la máquina es “artificial” es decir, si es el resultado de una programación encaminada a seguir las instrucciones de un algoritmo para producir un resultado, es señal de que es abusivo utilizar la palabra “inteligencia”. Éric Sadin emplea a este respecto, y a propósito de esta expresión, el calificativo de “abuso de lenguaje”:
“De ningún modo nos enfrentamos con una réplica de nuestra inteligencia, ni siquiera parcial, sino que estamos ante un abuso del lenguaje que nos hace creer que esta inteligencia estaría naturalmente habilitada para sustituir a la nuestra con la finalidad de asegurar una mejor conducción de nuestros asuntos. En verdad, se trata más precisamente de un modo de racionalidad basado en esquemas restrictivos y que apuntan a satisfacer todo tipo de intereses” (Sadin 2020, p. 37)
Por lo que respecta al segundo término de la expresión, hay también quien discute la pertinencia del término “artificial” porque lo “artificial” es decir, el algoritmo o instrucciones que se proporciona a la máquina, es obra de humanos, es decir, de seres naturales. Por tanto, mediatamente, lo que se conviene en denominar “artificial” tiene una vinculación con el ámbito de lo natural. Se descarta así que, por su condición de “artificial”, lo que se engloba bajo el concepto de “IA” tenga un ámbito de vida propio, completamente separado del ámbito humano y, por tanto, del ámbito natural. En cuanto producto del ser humano, la “IA” es también, parafraseando a Nietzsche, un producto “humano, demasiado humano”, es decir, un producto donde pueden ser localizadas las miserias y las grandezas del ser humano. En este sentido, el filósofo de la Universidad de Hong Kong, Yuk Hui (2021, p. 340), señala que las máquinas forman parte del proceso de evolución de la especie humana porque son un producto suyo. Por tanto, se trata de un proceso que hunde sus raíces en la naturaleza y por ello, en sentido estricto, no se podría hablar de “artificial” a propósito de “IA”.
En el fondo, las ciencias de la computación se mueven por una senda antropomórfica, pues –según precisa Sadin– “se atribuyen a los procesadores cualidades humanas, prioritariamente aquellas de poder evaluar situaciones y sacar conclusiones de ellas” (Sadin, 2020, p. 18). No se limitan a considerar estas tecnologías como prótesis que vendrían a completar determinadas carencias humanas, sino que se pretende que sean un calco exacto de nuestras facultades mentales. Concretamente, de lo que se trata es de duplicar la estructura del cerebro y ello se pone de manifiesto en el vocabulario empleado: se habla de chips “sinápticos”, de “procesadores neuronales”, de “redes neuronales”, etc. Ello significa que “entramos en la era antropomórfica de la técnica” cuya finalidad es “conducir a largo plazo a una gestión sin errores de la cuasi totalidad de los sectores de la sociedad” (Ibid.. p. 20).
Escritura maquinal / escritura humana
En el libro Más allá del posthumanismo. Antropotécnicas en la era digital (Galparsoro, 2019) se subrayaba el hecho de que la escritura –que no hay que olvidar que es también una técnica– juega un papel central en el desarrollo del pensamiento profundo y, por tanto, en una disciplina como la filosofía. Como queda dicho, se constata que, cada vez más, se delegan en las máquinas funciones que antes eran desarrolladas exclusivamente por los humanos. Ya se ha señalado que, en muchos casos esto no representa un problema. El problema surge cuando se delegan en una máquina funciones como, por ejemplo, la escritura (algo a lo que se nos invita en la aplicación del chat GPT-4). Entonces, estamos transitando hacia un camino que puede ser muy arriesgado. La escritura es la herramienta (i.e., la técnica), de la que disponemos los humanos para expresar nuestros pensamientos. Incluso es una técnica que nos fuerza a pensar, que nos permite afinar nuestros pensamientos. Sin escritura, por ejemplo, no hay filosofía (ni casi ninguna otra disciplina del saber). Y sólo hay filosofía si hay entidades pensantes, que inventaron la técnica de la escritura y se sirven de ella para apuntalar su condición de pensantes. Si delegamos la escritura a las máquinas, corremos el riesgo de estar abandonando una característica específicamente humana, a saber: el pensamiento. Los riesgos de la utilización irresponsable de Internet para la escritura y para el pensamiento profundos han sido analizados por numerosos autores (Galparsoro, 2019). En la actualidad la situación se agrava, pues se abre la posibilidad de delegar el pensamiento en máquinas no pensantes. Con ello, se delega en entidades no inteligentes la creatividad inteligente de los humanos en el arte de la escritura, de la pintura o de la composición musical. Ello podría significar, entre otras cosas, un progresivo abandono en la ejercitación del pensamiento. Y, al igual que ocurre en el mundo del deporte, un abandono del entrenamiento trae como consecuencia un deterioro en determinadas facultades de quienes lo practican. Este es el riesgo que se puede correr si delegamos las tareas propias del pensamiento en máquinas: un deterioro de la propia función del pensar. Esto es lo que podría ocurrir, en todo caso, si ya sea por pereza o dejación, se entregara el pensamiento a una máquina que no es sino un sucedáneo del pensamiento humano.
¿Hacia la (kantiana) minoría de edad?
En este caso, podríamos caer en una situación en la que nos encontraríamos de nuevo, en términos kantianos, en minoría de edad. Dejamos de pensar cuando delegamos esta actividad en una máquina porque creemos de manera ingenua que, al ser más “perfecta” que nosotros, pensará con mayor discernimiento. Es probable que la máquina resuelva con mayor eficacia y diligencia determinados problemas. Pero, a cambio, los humanos estarán entregando a la máquina lo que es uno de sus tesoros más preciados: el pensamiento. El texto de Kant Contestación a la pregunta: ¿Qué es la Ilustración? puede ser utilizado para analizar nuestro presente, pues el proceso que tiene lugar hoy es muy similar al analizado por Kant. Éste se refiere, en el contexto de su época, a tutores en diferentes ámbitos (religión, político, etc.). Ahora el tutor es la máquina que nos orienta continuamente. Y nos hemos acostumbrado a ello, particularmente los más jóvenes, como señalaba Sadin. Este autor precisa que la IA ha hecho que deleguemos en ella las relaciones que mantenemos con nuestros semejantes y un buen número de tareas de la vida cotidiana, lo cual condiciona el que podamos actuar en primera persona y hacerlo en base a nuestro propio discernimiento.
En el texto señalado anteriormente, Kant nos advierte de que no es sencillo liberarse de determinadas ataduras para zafarnos de la minoría de edad. Kant describe la “minoría de edad” como “la incapacidad para servirse de su entendimiento sin verse guiado por algún otro”. Si no nos servimos de nuestro entendimiento porque no tenemos la “resolución” o el “valor” para hacerlo, nosotros seremos los culpables de ello. Es aquí donde Kant profiere su famosa exclamación en latín, que sirve como lema general de la Ilustración: Sapere aude! [¡Atrévete a pensar!]. Y precisa Kant: “¡Ten valor para servirte de tu propio entendimiento!”. Kant habla de valor o coraje para superar la pereza y la cobardía, así como de la necesidad de “hacer uso público de la propia razón en todos los terrenos”.
Kant es muy claro a la hora de establecer las causas que hacen que muchos hombres continúen siendo menores de edad e insiste en que la responsabilidad recae en cada cual:
“Pereza y cobardía son las causas merced a las cuales tantos hombres continúan siendo con gusto menores de edad durante toda su vida, pese a que la Naturaleza los haya liberado hace ya tiempo de una conducción ajena (haciéndoles físicamente adultos); y por eso les ha resultado tan fácil a otros el erigirse en tutores suyos. Es tan cómodo ser menor de edad. Basta con tener un libro que supla mi entendimiento, alguien que vele por mi alma y haga las veces de mi conciencia moral, a un médico que me prescriba la dieta, etc., para que yo no tenga que tomarme tales molestias. No me hace falta pensar, siempre que pueda pagar; otros asumirán por mí tan engorrosa tarea.” Contestación a la pregunta: ¿Qué es la Ilustración?: (Traducción Roberto R. Aramayo) (Ak VIII, 35-36)
La IA representa un buen ejemplo de ese “otros” que se presenta como una herramienta capaz de asumir en nuestro lugar esa fatigosa tarea del pensar. A este respecto, Eric Sadin denuncia algunas utilizaciones de la IA. Por ejemplo, señala que se está enseñando a hablar a las máquinas para que orienten nuestro comportamiento. Todo ello está movido por intereses casi exclusivamente comerciales. Se trata de hechos consumados, que llegan a nosotros cuando lo único que podemos hacer es reaccionar contra ellos. Pero, para cuando nos damos cuenta, nuestras vidas son ya completamente dependientes de los logros de los robots. El hecho de que los robots tomen constantemente decisiones en nuestro lugar tiene importantes repercusiones, particularmente en el ámbito moral. El ser humano se desresponsabiliza. Deja en manos de máquinas un ámbito que le pertenece y por el que se caracteriza con respecto a otros seres vivos. Si no tomamos decisiones, no nos equivocamos. Las máquinas, se dice, están preparadas para tomar decisiones sin equivocarse. Por ello, es conveniente, se concluye, dejar en manos de ellas esta toma de decisiones. El hombre se está dotando de una tecnología con el fin de que se prescinda de él. Pero el precio a pagar por ello es demasiado alto, pues se está difuminando el ámbito moral característico de los humanos. Se está quitando a sí mismo el derecho a decidir de manera responsable y con plena conciencia acerca de las elecciones que le conciernen. Es preciso rebelarse contra esta situación. Sadin nos recuerda que Albert Camus, en El hombre rebelde, decía: “Las cosas han durado demasiado (…), vais demasiado lejos (…), hay un límite que no franqueareis”. Este límite podría ser el de la responsabilidad. Otro límite infranqueable sería el de la mortalidad de los humanos (Galparsoro, 2019). Si estos límites se superaran abandonaríamos la condición de humanos. El hombre se somete a las ecuaciones o algoritmos de los artefactos que él mismo ha creado. El fin de todo ello es utilitarista –o, si se prefiere, economicista– y responde a grandes intereses privados.
A este respecto, las palabras de Kant resultan esclarecedoras:
“El que la mayor parte de los hombres (incluyendo a todo el bello sexo) consideren el paso hacia la mayoría de edad como algo harto peligroso, además de muy molesto, es algo por lo cual velan aquellos tutores que tan amablemente han echado sobre sí esa labor de superintendencia. Tras entontecer primero a su rebaño e impedir cuidadosamente que esas mansas criaturas se atrevan a dar un solo paso fuera de las andaderas donde han sido confinados, les muestran luego el peligro que les acecha cuando intentan caminar solos por su cuenta y riesgo. Mas ese peligro no es ciertamente tan enorme, puesto que finalmente aprenderían a caminar bien después de dar unos cuantos tropezones; pero el ejemplo de un simple tropiezo basta para intimidar y suele servir como escarmiento para volver a intentarlo de nuevo.” (Ibíd.)
El impacto de las máquinas “inteligentes” en el pensamiento humano
Las tecnologías digitales, en sus diferentes modalidades, son un buen ejemplo de “andaderas” en nuestro tiempo. Ocurre algo similar a lo que es posible observar en el ámbito de las adicciones: una vez inoculada la adicción (en este caso, la “liberación” de la engorrosa tarea del pensar) es muy difícil escapar de ella. Entre otras cosas porque se está dañando gravemente la facultad del pensar, que podría ser crucial a la hora de salir de la adicción misma.
Las tentaciones para dejar de pensar aumentan en esta época de dominio de lo digital. Cuanto menos, debemos de tratar de mantener cierta lucidez para saber dónde nos encontramos y qué peligros nos acechan. Está sería la auténtica tarea del pensamiento y, por tanto, la tarea de la filosofía.
Un autor como Yuk Hui considera que “la inteligencia de las máquinas transformará a los humanos en una medida que va más allá de su imaginación”. Para él, es un “misterio” saber si la tecnología moderna transformará a los humanos hasta llevarles a la extinción de su propia especie o si, en cambio, le conducirá a una apertura hacia nuevos caminos (Hui, 2021, p. 348).
La cuestión, en efecto, estriba en saber qué tipo de transformación experimentarán los humanos como consecuencia de la influencia de las máquinas inteligentes. ¿Se fomentará su creatividad o esta se verá cercenada? Parece plausible adelantar que la comodidad de dejar a la supuesta inteligencia de la máquina la toma de decisiones nos hará ser más estúpidos o más superficiales, en cualquier caso, menos inteligentes. En esto cabe dar razón al filósofo de la Universidad de Oxford Luciano Floridi (2014, p. 143) cuando señala que tenemos la impresión de que las máquinas son cada vez más inteligentes y que, si no revertimos este proceso, lo que ocurrirá, muy probablemente, es que nosotros seremos cada vez más estúpidos y por eso mismo las máquinas nos parecerán cada vez más inteligentes. A fuerza de desertar ejercitarnos como entidades inteligentes nos volvemos cada vez menos inteligentes y abrazamos esas posiciones que presentan como objetivo el que la inteligencia humana se vea superada por la IA y que, tras lo que hemos expuesto, creemos más que justificado denominar antihumanistas.
Conclusión
Si la máquina nos ayuda en la tarea del pensar, bienvenida sea. Pero si permitimos que nos suplante en esta tarea, estaríamos introduciendo un peligrosísimo caballo de Troya en un terreno que nos es específico y en el que se pone de manifiesto la singularidad humana. Costó mucho esfuerzo el que el pensamiento pudiera ser libre (desprendiéndose, por ejemplo, de la tutela de la religión dominante o de la superstición), para que el hombre pudiera alcanzar la mayoría de edad. Sería terrible que por pereza, dejadez o comodidad los humanos dejaran de ejercer esta libertad de pensamiento para delegar sus funciones en una entidad no humana y retornaran a una situación de minoría de edad. Este sería el riesgo que se estaría corriendo cuando, por ejemplo, se delega en el chat GPT-4 la redacción de determinados textos. Aparentemente nos estaremos librando de un esfuerzo, a menudo trabajoso y hasta doloroso, pero delegando en la máquina la tarea de la escritura estaremos entregando una parte importante de nuestra humanidad.
(Este trabajo se inscribe en el marco del Proyecto de Investigación GIU21/063, financiado por la Universidad del País Vasco, titulado “Ciencia e innovación responsables para la anticipación de retos sociales”).
Referencias bibliográficas:
Floridi, Luciano (2014). The 4th Revolution. How the Infosphere is Reshaping Human Reality. Oxford: Oxford University Press.
Galparsoro, José Ignacio (2019). Más allá del posthumanismo. Antropotécnicas en la era digital, Granada: Comares.
Hui, Yuk (2021). “On the Limit of Artificial Intelligence”, in: Philosophy Today. Volume 65, Issue 2 (Spring 2021), pp. 339-357.
Julia, Luc (2019). L’intelligence artificielle n’existe pas. Paris: First Éditions.
Kant, Immanuel (2013). “Contestación a la pregunta: ¿Qué es la Ilustración?” [1784], en: ¿Qué es la Ilustración? Y otros escritos de ética, política y filosofía de la historia. Edición de Roberto R. Aramayo. Madrid: Alianza editorial, pp. 85-98.
Simondon, Gilbert (2016). “Épistémologie de la Cybernétique” [1953], in: Sur la philosophie (1950-1980). Paris: PUF, pp. 177-199.
Sadin, Éric (2020). La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Buenos Aires: Caja Negra.
Sadin, Éric (2023). “L’illusion d’un langage ‘naturel’”, in: Le Monde, 23 Janvier 2023.
______
José Ignacio Galparsoro enseña en el Departamento de Filosofía de la Universidad del País Vasco, (UPV/EHU)