1. Introducción

La Inteligencia Artificial (IA) está presente ampliamente en muchos campos como la economía, la ciencia y la sociedad sin que seamos conscientes de ello. La IA es el corazón de la cuarta revolución industrial. Las soluciones de software apoyadas en IA están configurando las investigaciones de Internet, solucionan trabajos automáticos y apoyan a la educación. Al mismo tiempo, estas tecnologías recogen información sobre nosotros, intervienen en nuestras posibilidades de acción, forman nuestra identidad y configuran nuestras percepciones. El rápido progreso en la IA está despertando tanto miedo como emoción.

¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes… y reemplazarnos?

 ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Preguntas preocupantes…

En particular, los nuevos “modelos de lenguaje extenso” (LLM , por sus siglas en inglés), del tipo que impulsa al Chat GPT , un chatbot creado por Open AI, una startup, han sorprendido incluso a sus creadores con sus talentos inesperados a medida que se han ampliado. 

Nuestra tarea como filósofos consiste en transformar las esperanzas y los miedos en perspectivas concretas y realistas e impulsar un diseño deseable y con valores. (Ver al respecto: https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-artificial-intelligence; “Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis“. 30/3, 2021: KI-Systeme gestalten und erfahren).

1. Clarificación de algunos conceptos: Diferencias entre IA, Machine Learning (ML) y Deep Learning (DL)

2. IA e Investigación Policial 

La IA promete en el trabajo de investigación de la policía una prevención e investigación de delitos más efectiva y rentable. La IA puede comenzar donde las habilidades y las capacidades humanas son potencialmente insuficientes. Los trabajos policiales automatizados y sin papel tienen como objeto mejorar tanto la productividad como la objetividad de las medidas policiales.

3. Reconocimiento facial (detector facial o lector de cara) en el trabajo de investigación policial

El reconocimiento facial es una tecnología capaz de identificar o verificar a un sujeto a través de una imagen, vídeo o cualquier elemento audiovisual de su rostro. Generalmente, esta identificación es usada para acceder a una aplicación, sistema o servicio. Es una forma de identificación biométrica que se sirve de medidas corporales, en este caso la cara y la cabeza, para verificar la identidad de una persona a través de su patrón biométrico y otros datos. La identificación biométrica facial utiliza patrones matemáticos únicos y dinámicos de la persona y sin duda este sistema es uno de los más seguros y eficaces. Los sistemas de reconocimiento facial pueden funcionar con los más altos estándares de seguridad y confiabilidad gracias al uso de las tecnologías de inteligencia artificial (IA) y machine learning.  (Ver: https://www.electronicid.eu/es/blog/post/como-funciona-reconocimiento-facial/es).

4. Propuesta de Regulación sobre IA de la UE (2021)

Esta tecnología puede contener el riesgo de una “falsa seguridad, pues tales sistemas de reconocimiento no son perfectos y pueden ser manipulados de diferentes maneras. Por tanto, en este primer proyecto de ley sobre Regulación de la IA, se define el reconocimiento facial en tiempo real en espacios públicos como una tecnología de alto riesgo, cuyo uso solo debe permitirse en casos excepcionales como la lucha contra el terrorismo o la búsqueda de personas desaparecidas. (Comisión Europea 2021). (Ver: https://www.europarl.europa.eu/news/es/headlines/society/20201015STO89417/regulacion-de-la-inteligencia-artificial-en-la-ue-la-propuesta-del-parlamento).

5. Contexto policial y sus consecuencias

En el contexto policial, las decisiones incorrectas pueden dar lugar a graves violaciones de los Derechos Fundamentales, como detenciones ilegales, etc.  Para evitar esos males, estas aplicaciones de alto riesgo deben cumplir requisitos estrictos, tanto a nivel social que van más allá que los sofisticados requisitos técnicos. La IA de alto riesgo toca cuestiones de justicia social y la puesta en práctica de principios como la justicia, la igualdad de trato y la no discriminación. La discriminación se diferencia del trato desigual en que se basa en la pertenencia a grupos socialmente significativos. Esto significa que las personas están expuestas a un trato desigual negativo e injustificado basado en atributos como el género, el origen étnico o la discapacidad. (Ver especialmente: L. TH. Brandner/S. D. Hirsbrunner, 2023, 24-29).

6. IA y algoritmos

Un algoritmo (palabra que procede de al Al-Juarismi, latinizado como “Algorithmi”, “el corésmico”, un matemático islámico de la época califal, alrededor del 800, redescubierto en el S. XIX), se puede caracterizar con relación a una clase de problemas K, como un procedimiento general que, para cada problema existente en K, siguiendo un número finito de pasos bien determinados, suministra una solución (siempre que la hubiere). Es una receta infalible que, paso a paso, conduce al resultado. Las características son la generalidad, la finitud y la determinación. (N. Ursua, 1993, 264-278).

La IA está basada en modelos matemático-estadísticos que se describen como algoritmos. Estos algoritmos son capaces de identificar soluciones alternativas, obtener “insights”, optimizar procesos y apoyar decisiones de manera independiente. Bastante a menudo, los algoritmos son capaces de superar las habilidades cognitivas de las personas en la toma de decisiones y en situaciones de resolución de problemas y, por lo tanto, tienen la habilidad de ser más rápidos y más eficientes que los seres humanos (en evaluación, razonamiento y respuesta). Los sistemas IA parecen ser superiores a los humanos. Estos sistemas ofrecen ventajas en las actividades laborables, y en contenido caracterizado por un alto grado de dinamismo, incertidumbre y complejidad, o que requieren un alto grado de objetividad, o en el que la variedad de parámetros y datos, relevantes para la toma de decisiones exceden la capacidad humana de procesamiento. No obstante, los humanos parece que exhiben unas fuerzas particulares en tareas que requieren una fuerte intuición, creatividad, flexibilidad, empatía y conocimiento tácito. (Ver S. Werens/J. von Garrel, 2023, 43-49. Ver también AlgorithmWatch: https://algorithmwatch.org/en/).

Los resultados algorítmicos basados en “sesgos” (Verzerrungen, distorsiones en alemán) en los sistemas de IA y, por lo tanto, basados en dinámicas de discriminación social existentes, pueden (re)producir y automatizar injusticias. (Ver: J. Wulf, 2022).

7. Algoritmos y sesgos en los métodos de IA del reconocimiento facial

Las técnicas de IA aplicadas se pueden utilizar para identificar rostros en datos de imágenes fotográficas. Estos sistemas se entrenan utilizando grandes cantidades de datos y, por lo tanto, aprenden a reconocer diferentes rostros en función de diferentes métodos visuales. Como la precisión a menudo varía entre las diferentes características a identificar, por diversas razones, esto puede conducir a la discriminación de los diferentes grupos sociales.  

7.1. Calidad de los datos de entrenamiento

Ciertos grupos, por ejemplo, mujeres, no blancos o personas mayores, pueden estar subrepresentados en las bases de datos, lo que significa que la precisión de los resultados algorítmicos disminuye para ellas/os. Si existen pocos datos históricos o no se pueden utilizar por razones de protección de datos, los datos de entrenamiento sintéticos pueden reemplazar o complementar los conjuntos de datos reales. Las grabaciones de fotos y vídeos se pueden ver afectadas por la perspectiva, la exposición o la resolución de la imagen. La buena disponibilidad de los datos es de suma importancia.

7.2. La anotación de los datos de entrenamiento

La inscripción de suposiciones sociales y culturales durante la anotación de los datos puede ocasionar distorsiones. El etiquetado de las bases de datos faciales lo realizan por lo general los propios desarrolladores de IA o los proveedores de servicios en plataformas de crowd o Scalesourcing como, p. ej., Amazon Mechanical Turk.

7.3. Precisión de los resultados de los métodos de IA

Es un fenómeno conocido que, en el reconocimiento facial de IA, las tasas de error significativamente más altas son las de los rostros femeninos y no blancos. Hay que tener también en cuenta que los modelos de IA actuales clasifican el sexo como masculino-femenino de manera binaria y no tienen en cuenta otras construcciones sociales más complejas. La configuración de la cámara, la morfología facial, el maquillaje y otros factores, pueden jugar aquí su papel. Los individuos blancos y masculinos son considerados el estándar humano y marginan otros grupos como desviaciones. Tanto la subrepresentación como la sobrerrepresentación pueden generar sesgos. Una detención más frecuente no significa necesariamente un mayor nivel real de delincuencia, pues se puede deber a prácticas policiales discriminatorias, como a una vigilancia o persecución desproporcionada. Las dinámicas racistas existentes se amplifican.

8.  Equidad algorítmica (Fairness in AI)

El término imparcialidad de la IA, también conocido como equidad algorítmica, describe métodos destinados a reducir o eliminar la discriminación social causada por distorsiones en los modelos de IA. Ya el 8 de abril de 2019, la Comisión Europea publicó su versión final de las “Directrices Éticas para una IA de confianza”. (https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai). Se define la equidad en el contexto de la IA como la protección contra la distorsión algorítmica, la discriminación y la estigmatización de individuos y grupos.

9. Posibles enfoques para resolver la “equidad algorítmica”

Los métodos estadísticos de equidad de la IA están destinados a reducir o eliminar la discriminación social causada por distorsiones algorítmicas en los modelos IA. Según N. Mehrabi, et al. 2021, existe una gran cantidad de métodos estadísticos con los que se puede evaluar la equidad de la IA.

Se asume que el reconocimiento por parte del sistema es la opción más favorable, aunque esto no siempre se corresponde con la realidad social. En investigaciones policiales, los “falsos positivos” en el software de reconocimiento facial significan que los transeúntes son identificados erróneamente como sospechosos; las consecuencias de los resultados “falsos positivos” son particularmente graves, incluidas las detenciones infundadas y las amenazas a la integridad física. Los “falsos negativos” significan que los perpetradores no están identificados y, por lo tanto, escapan al enjuiciamiento. El código postal que en sí mismo no es problemático puede indicar algo más. En el contexto del reconocimiento facial a través de la IA, se demuestra que la imparcialidad de la IA entendida estadísticamente por sí sola no es adecuada para garantizar la no discriminación en operaciones reales.

Es, por tanto, necesario no centrarnos en los meros datos ofrecidos por la IA y ofrecer una perspectiva y consideración ética.

10. Algo más sobre “equidad algorítmica”

F. Torres, Profesor de la Universitat Ramon Llull, habla de la “ética algorítmica”, como él la denomina. “Entendemos por ética algorítmica aquella rama de la ética aplicada a la tecnología que explora y trata de resolver el conjunto de cuestiones que afloran a raíz de la programación de un algoritmo”. “La Inteligencia Artificial y otros robots no desembarcan en un mundo moralmente virgen ni puro. Operan en un mundo que está saturado de desafíos éticos y, por qué no decirlo, lleno de injusticias. Por él circulan varias jerarquías sociales, estereotipos y todo tipo de sesgos implícitos. Una parte importante del trabajo en ética algorítmica radica en identificarlos y preguntarse si es legítimo automatizarlos y reproducirlos en las máquinas inteligentes que utilizamos”. No hay, por tanto, programas neutros.

La ética de los algoritmos está muy cerca de lo que se llama ética de la robótica o ética de las máquinas. Esta rama tiene como referente el libro de Wallash y Allen, Moral Machines. En ese ensayo, editado en el 2008, los autores sientan los fundamentos de una cuestión inédita, hasta entonces, en la filosofía práctica: ¿Cómo desarrollar una moralidad computacional? El corazón del problema no es el artefacto, ni su forma, sino la programación que lleva instalada en su interior. Desde el punto de vista de la filosofía moral, los robots o las máquinas no son más que envoltorios de los algoritmos. Mientras que la ética de los algoritmos explora el funcionamiento interno de las máquinas, la ética de la IA se interesa, globalmente, por el ser humano, por su historia, por su entorno y por sus relaciones con el artefacto, en definitiva, por todo lo que la implementación de la Inteligencia Artificial puede alterar y transformar.

Kate Darling, quizá la mayor experta mundial en ética robótica, investigadora y científica del MIT Media Lab, estudia la evolución de las relaciones entre los seres humanos y las máquinas aparentemente vivas, un tema cada vez más importante a medida que la IA se va introduciendo en nuestra vida cotidiana y propone a “los robots como una nueva raza”. Argumenta que estaríamos mejor preparados para el futuro si comenzamos a pensar sobre los robots y la inteligencia artificial (IA) como animales. Son más suplementos para nuestras capacidades que sustitutos.

10.1. “Equidad algorítmica” (Fairness in AI). ¿Es suficiente?

S. Strauss, 2021, científico senior del Instituto de Evaluación de la Tecnología de la Academia de las Ciencias de Austria afirma que la investigación y el desarrollo, así como los debates sociales sobre los riesgos de la IA a menudo están focalizados de manera unilateral en aspectos éticos alejados de la praxis o en enfoques técnicos para el manejo social y ético relacionados con la tecnología. Se necesitan pues perspectivas prácticas orientadas a los problemas. Propone concentrarse en un meta riesgo inherente a los sistemas de IA, a saber, el “sesgo profundo de automatización” (Deep Automation Bias) (DAB). Este SPA es un “intrincado problema” multidimensional inherente a la IA. La premisa aquí es que esencialmente la tecnología basada en IA representa un sistema sociotécnico que favorece la automatización a diferentes niveles.

Los sesgos, por tanto, resultan de prejuicios preexistentes durante el desarrollo tecnológico, de temas técnicos como la pobre calidad de los datos, de modelos insuficientes o de operaciones inapropiadas de los algoritmos ML, pero también de los conflictos entre el diseño de la IA y el contexto de aplicación, debido a las lagunas existentes entre las concepciones estadísticas en el sistema y las prácticas de uso.

Los “problemas intrincados” requieren, por tanto, más que equidad (fairness) o rendición de cuentas (accountability) y transparencia (transparency) (FAT). No sólo es relevante el diseño técnico, sino también en qué medida el sistema técnico es (in-)compatible con el contexto de aplicación sociotécnico. Esto es fundamental para abordar los riesgos de la IA que requieren una perspectiva amplia orientada a los problemas que favorezca visiones analíticas tanto en los temas técnicos como en los societarios relacionados con los sistemas de IA.

Esto, a su vez, requiere reforzar la conciencia sobre los problemas, una alfabetización crítica sobre la IA y crear usos prácticos.

10.2 Algunas limitaciones que se pueden contemplar con relación a la IA

Violación de la privacidad de las personas

Discriminación algorítmica y sesgos

Opacidad algorítmica (falta de transparencia)

Manipulación subliminal de la conducta

Falta de veracidad

Fotos y textos en “Deep fakes”

Falta de diversidad

Asimetría (limitación de la reproductividad)

Hackeable

Falta de justicia algorítmica

Aumento de la huella de carbono

11. Cómo evaluar el comportamiento del sistema, según S. Strauss. 

Aunque la IA encierra un gran potencial de transformación de la sociedad y, como afirma S. Strauss, 2021, 48, hay muchas “buenas” intenciones detrás de las innovaciones basadas en la IA, las buenas intenciones, tales como no causar daño y crear beneficios, no son suficientes para manejar los riesgos y prevenir que la IA no sea una gran amenaza para la sociedad. Por todo ello, según este investigador del Instituto de Evaluación de la Tecnología de la Academia Austríaca de Ciencias, es necesario una evaluación del sistema técnico, una evaluación operacional y una evaluación ética como se aprecia en el cuadro que se adjunta:

Por último, nos podríamos preguntar utilizando el concepto alemán de “Geistiges Eigentum” (que significa Propiedad Intelectual), tal como se utiliza en el concepto de “Geistigeswissenschaften” (Ciencias del Espíritu o Ciencias Humanas): ¿Existe “Geist” (espíritu) en IA?; ¿Se protege la propiedad intelectual?; ¿Somos objetos/instrumentos de las máquinas? 

Bibliografía

Brandner, L. Th. (2023): “Algorithmische Fairness in der polizeilichen Ermittlungsarbeit: Ethische Analyse  von Verfahren des maschinellen Lernens zur Gesichterkennung”, en Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. 32/1, pp. 24-29.

¿Cómo funciona el reconocimiento facial? Tecnología facial, en https://www.electronicid.eu/es/blog/post/como-funciona-reconocimiento-facial/es. (17.7.2023).

Darling, K. (2022): The New Breed. How to Think About Robots. Penguin Books. London. 

Iberdrola: “Deep learning”: un concepto clave para llevar la inteligencia artificial al siguiente nivel, en https://www.iberdrola.com/innovacion/deep-learning#:~:text=El%20deep%20learning%2C%20o%20aprendizaje%20profundo%2C%20parte%20del%20machine%20learning,humanos%2C%20como%20la%20identificaci%C3%B3n%20de. (16.4.2023).

Mehrabi, N. et al. (2021): “A survey on bias and fairness in machine learning”, en ACM Computing Surveys. 54 (6), pp. 1-35.

Regulación de la Inteligencia Artificial de la Unión Europea: La Propuesta del Parlamento. 15.6.2023, en https://www.europarl.europa.eu/news/es/headlines/society/20201015STO89417/regulacion-de-la-inteligencia-artificial-en-la-ue-la-propuesta-del-parlamento.  (15.7.2023).

Strauss, S. (2021): “Don´t let me be misunderstood”, en Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. 30/3, pp. 44-49.

The Economist: “How to worry wisely about artificial intelligence”, en https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-artificial-intelligence. (15.7.2023).

Torralba, F. (2022): L´ética algorítmica. Ediciones 65. Barcelona.

Ursua, N. (1993): Cerebro y conocimiento. Un enfoque evolucionista. Anthropos. Barcelona.

Wallach, W./C. Allen (2010): Moral Machines. Teaching Robots  Wright from Wrong. Oxford University Press.

Werens/von Garrel, J. (2023): “Implementation of artificial intelligence at workplace, considering the work ability of employees”, en Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. 32/2, pp. 43-49.

Wulf, J. (2022): “Automated Decision-Making Systems and Discrimination. Understanding causes, recognizing cases, supporting those affected. A guidebook for anti-discrimination counseling”, en  https://algorithmwatch.org/en/autocheck. (17.7.2023).

Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. 30/3, (2021). Dedicada a KI-Systeme gestalten und erfahren.

______

Nicanor Ursua. Profesor Emérito de la Universidad del País Vasco/Euskal Herriko Unibertsitatea.