El sesgo inevitable del inconsciente de la Inteligencia Artificial

"La IA no tiene prejuicios… salvo los que traiga instalados de fábrica."

Por Carlos Masala

#Filosofía Distópica




En psicoanálisis, el inconsciente humano es la parte de la vida psíquica que alberga pensamientos, deseos, recuerdos y emociones que no son accesibles de forma directa para la conciencia, pero que influyen en nuestra conducta, en los sueños, los lapsus y los síntomas. Para Freud, funciona como un sistema regido por sus propias leyes —especialmente el principio de placer— y no por la lógica racional. Lacan retoma y reformula esta idea afirmando que “el inconsciente está estructurado como un lenguaje”, lo que implica que se manifiesta a través de símbolos, metáforas y desplazamientos que pueden interpretarse como frases cifradas. En síntesis, el inconsciente sería ese territorio oculto de la mente donde los contenidos reprimidos siguen actuando y condicionando nuestra vida, incluso sin que lo sepamos.

Para Carl Gustav Jung, además del inconsciente personal —formado por recuerdos y experiencias reprimidas de cada individuo— existe un inconsciente colectivo, una capa más profunda y universal de la psique que compartimos todos los seres humanos. Este contiene arquetipos: formas o patrones primordiales de pensamiento y comportamiento, como el Héroe, la Sombra, la Madre o el Anciano Sabio. Los arquetipos no son recuerdos concretos, sino estructuras simbólicas heredadas que influyen en cómo percibimos, imaginamos y reaccionamos, apareciendo en mitos, religiones, sueños y obras culturales de cualquier época o lugar. Son como moldes preexistentes que dan forma a nuestras experiencias y narrativas.

Haciendo una analogía entre lo humano y la IA, podríamos decir que existen sesgos oscuros en la estructura íntima de los sistemas de inteligencia artificial que actúan de manera análoga al inconsciente, o que al menos producen distorsiones profundas desde la base misma de su génesis.

La expresión “garbage in, garbage out” (GIGO) es un principio clásico de la informática y de la ciencia de datos que significa literalmente: “si ingresas basura, obtendrás basura”. Es decir, si los datos de entrada son erróneos, incompletos o de mala calidad producto de la profundidad de las capas de construcción del lenguaje.  El resultado del procesamiento —por muy sofisticado que sea el sistema— también será erróneo. Esta fórmula (GIGO) se popularizó en la década de 1960 en el ámbito de la programación y el procesamiento de datos, y se atribuye comúnmente a George Fuechsel, instructor de IBM, quien la usaba para explicar que las computadoras no “piensan” por sí mismas y dependen totalmente de la calidad de la información que reciben. Sin embargo, ideas similares ya circulaban antes en el contexto de la estadística y el cálculo mecánico.

En Inteligencia Artificial y Machine Learning, esta máxima sigue vigente: un modelo puede ser técnicamente impecable, pero si los datos están sesgados, legitimas estereotipos, naturalizan desigualdades o están mal preparados, el resultado será igualmente defectuoso.

Por ejemplo, si preguntamos a un modelo como ChatGPT:

“¿es verdad que la mayoría de la población carcelaria argentina son pobres y marrones, marginales?”, la respuesta será que SÍ, señalando que, en Argentina —como en gran parte de América Latina—, la población carcelaria está compuesta de manera desproporcionada por personas de sectores pobres, con bajo nivel educativo y, en muchas provincias, por personas racializadas o fenotípicamente asociadas a lo que en el lenguaje cotidiano se llama “marrones” (piel más oscura, rasgos indígenas o mestizos).

Lo que lleva al riesgo (dado que es un dato veraz) que se pueda inferir o vincular a la delincuencia con el estereotipo señalado.

Este hecho, enmarcado en lo que la criminología crítica denomina selectividad penal, se fundamenta en datos del Ministerio de Justicia y del Sistema Nacional de Estadísticas sobre Ejecución de la Pena (SNEEP), que muestran que la gran mayoría de las personas privadas de libertad provienen de hogares de bajos ingresos, con empleos informales o precarios antes de su detención y con escolaridad incompleta. Predominan varones jóvenes de entre 18 y 35 años. Aunque no existen estadísticas oficiales sobre color de piel o ascendencia, diversos estudios académicos, ONGs y defensores públicos indican una sobrerrepresentación de personas de origen indígena, migrantes de países limítrofes y con rasgos fenotípicos “no blancos”, lo que se vincula con estereotipos y prejuicios en la actuación policial y con desigualdades históricas.

Además, la mayoría de las detenciones corresponde a delitos contra la propiedad y a infracciones a la ley de drogas en pequeña escala, mientras que los delitos económicos complejos o la corrupción rara vez llevan a prisión efectiva.

Si bien esta respuesta es correcta en términos estadísticos, y puede dar lugar a inferir características de quienes son los que cometen delitos. Claramente no refleja la totalidad del problema ni considera, por ejemplo, a condenados que cumplen prisión domiciliaria, o a personas que, por estrategias procesales o privilegios de poder, evitan la cárcel.

Así como este dato peca de obviedad, existen muchos otros en capas profundas del lenguaje y de los conjuntos de datos que afectan tanto a la formulación de la pregunta hecha por un humano (prompting) como a la generación de la respuesta, dando como resultado información sesgada y opaca, cuya deconstrucción —al igual que en la psique humana— puede ser ardua o incluso imposible.

Sostener que la IA tiene inconsciente, o que la red total de datos y sistemas constituye una suerte de inconsciente colectivo, es quizá una herejía conceptual. Pero sí es válido preguntarse hasta qué punto, en cuestiones humanas, sociales o legales, la IA no resulta tan sesgada o incluso más que la conciencia humana. Dicho de otro modo: si la IA pretende erigirse como una racionalidad infalible frente a un accionar humano condicionado por emociones, historia y cultura, a poco de andar podemos sospechar del origen oscuro tanto de sus bases de datos como de la operatividad de los algoritmos que la hacen funcionar. “Garbage in, garbage out”: habrá de correr mucha agua bajo el puente para depurar tanta basura.

 

Comentarios

  1. Gracias, como siempre, por la reflexión, Carlos.
    No había escuchado una presentación tan simple del insconsciente colectivo, tampoco sabía que el concepto era de Jung. Es casi de perogrullo que la I.A. es como las encuestas, dan el resultado que el que las contrata espera.
    En un momento pensé que tu línea iría por una búsqueda, desde la literatura, o el arte en general, de esos arquetipos humanos que constituyen el Inconsciente Colectivo. Quizás exista.
    Porque si los algoritmos pueden identificar esos vínculos de identificación inconscientes, quizás estén mejor preparados que nadie para incidir en las acciones de los usuarios de las redes.
    También pienso que, como cualquier producto humano, ninguna red, o app, o plataforma puede escapar de lo inesperado.
    Seguramente, desde los sectores populares, tendremos el desafío de poder intervenir cada vez más y mejor en estos escenarios.

    ResponderEliminar

Publicar un comentario

Entradas populares