El sesgo inevitable del inconsciente de la Inteligencia Artificial
"La IA no tiene prejuicios… salvo los que traiga instalados de fábrica."
Por Carlos Masala
#Filosofía Distópica
En psicoanálisis, el inconsciente humano es la parte de la vida psíquica que alberga pensamientos, deseos, recuerdos y emociones que no son accesibles de forma directa para la conciencia, pero que influyen en nuestra conducta, en los sueños, los lapsus y los síntomas. Para Freud, funciona como un sistema regido por sus propias leyes —especialmente el principio de placer— y no por la lógica racional. Lacan retoma y reformula esta idea afirmando que “el inconsciente está estructurado como un lenguaje”, lo que implica que se manifiesta a través de símbolos, metáforas y desplazamientos que pueden interpretarse como frases cifradas. En síntesis, el inconsciente sería ese territorio oculto de la mente donde los contenidos reprimidos siguen actuando y condicionando nuestra vida, incluso sin que lo sepamos.
Para Carl Gustav Jung, además del inconsciente personal
—formado por recuerdos y experiencias reprimidas de cada individuo— existe un
inconsciente colectivo, una capa más profunda y universal de la psique que
compartimos todos los seres humanos. Este contiene arquetipos: formas o
patrones primordiales de pensamiento y comportamiento, como el Héroe, la
Sombra, la Madre o el Anciano Sabio. Los arquetipos no son recuerdos concretos,
sino estructuras simbólicas heredadas que influyen en cómo percibimos, imaginamos
y reaccionamos, apareciendo en mitos, religiones, sueños y obras culturales de
cualquier época o lugar. Son como moldes preexistentes que dan forma a nuestras
experiencias y narrativas.
Haciendo una analogía entre lo humano y la IA, podríamos
decir que existen sesgos oscuros en la estructura íntima de los sistemas de
inteligencia artificial que actúan de manera análoga al inconsciente, o que
al menos producen distorsiones profundas desde la base misma de su génesis.
La expresión “garbage in, garbage out” (GIGO)
es un principio clásico de la informática y de la ciencia de datos que
significa literalmente: “si ingresas basura, obtendrás basura”. Es
decir, si los datos de entrada son erróneos, incompletos o de mala calidad
producto de la profundidad de las capas de construcción del lenguaje. El resultado del procesamiento —por muy
sofisticado que sea el sistema— también será erróneo. Esta fórmula (GIGO) se
popularizó en la década de 1960 en el ámbito de la programación y el
procesamiento de datos, y se atribuye comúnmente a George Fuechsel, instructor
de IBM, quien la usaba para explicar que las computadoras no “piensan” por sí
mismas y dependen totalmente de la calidad de la información que reciben. Sin
embargo, ideas similares ya circulaban antes en el contexto de la estadística y
el cálculo mecánico.
En Inteligencia Artificial y Machine Learning, esta máxima
sigue vigente: un modelo puede ser técnicamente impecable, pero si los datos
están sesgados, legitimas estereotipos, naturalizan desigualdades o están mal
preparados, el resultado será igualmente defectuoso.
Por ejemplo, si preguntamos a un modelo como ChatGPT:
“¿es
verdad que la mayoría de la población carcelaria argentina son pobres y
marrones, marginales?”, la respuesta será que SÍ, señalando que, en Argentina
—como en gran parte de América Latina—, la población carcelaria está compuesta
de manera desproporcionada por personas de sectores pobres, con bajo nivel
educativo y, en muchas provincias, por personas racializadas o fenotípicamente
asociadas a lo que en el lenguaje cotidiano se llama “marrones” (piel más
oscura, rasgos indígenas o mestizos).
Lo que lleva al riesgo (dado que es un dato veraz) que se
pueda inferir o vincular a la delincuencia con el estereotipo señalado.
Este hecho, enmarcado en lo que la criminología crítica
denomina selectividad penal, se fundamenta en datos del Ministerio de
Justicia y del Sistema Nacional de Estadísticas sobre Ejecución de la Pena
(SNEEP), que muestran que la gran mayoría de las personas privadas de libertad
provienen de hogares de bajos ingresos, con empleos informales o precarios
antes de su detención y con escolaridad incompleta. Predominan varones jóvenes
de entre 18 y 35 años. Aunque no existen estadísticas oficiales sobre color de
piel o ascendencia, diversos estudios académicos, ONGs y defensores públicos
indican una sobrerrepresentación de personas de origen indígena, migrantes de
países limítrofes y con rasgos fenotípicos “no blancos”, lo que se vincula con
estereotipos y prejuicios en la actuación policial y con desigualdades
históricas.
Además, la mayoría de las detenciones corresponde a delitos
contra la propiedad y a infracciones a la ley de drogas en pequeña escala,
mientras que los delitos económicos complejos o la corrupción rara vez llevan a
prisión efectiva.
Si bien esta respuesta es correcta en términos estadísticos,
y puede dar lugar a inferir características de quienes son los que cometen
delitos. Claramente no refleja la totalidad del problema ni considera, por
ejemplo, a condenados que cumplen prisión domiciliaria, o a personas que, por
estrategias procesales o privilegios de poder, evitan la cárcel.
Así como este dato peca de obviedad, existen muchos otros en
capas profundas del lenguaje y de los conjuntos de datos que afectan tanto a la
formulación de la pregunta hecha por un humano (prompting) como a la
generación de la respuesta, dando como resultado información sesgada y opaca,
cuya deconstrucción —al igual que en la psique humana— puede ser ardua o
incluso imposible.
Sostener que la IA tiene inconsciente, o que la red total de
datos y sistemas constituye una suerte de inconsciente colectivo, es quizá una
herejía conceptual. Pero sí es válido preguntarse hasta qué punto, en
cuestiones humanas, sociales o legales, la IA no resulta tan sesgada o incluso
más que la conciencia humana. Dicho de otro modo: si la IA pretende erigirse
como una racionalidad infalible frente a un accionar humano condicionado por
emociones, historia y cultura, a poco de andar podemos sospechar del origen
oscuro tanto de sus bases de datos como de la operatividad de los algoritmos
que la hacen funcionar. “Garbage in, garbage out”: habrá de correr mucha agua
bajo el puente para depurar tanta basura.



Gracias, como siempre, por la reflexión, Carlos.
ResponderEliminarNo había escuchado una presentación tan simple del insconsciente colectivo, tampoco sabía que el concepto era de Jung. Es casi de perogrullo que la I.A. es como las encuestas, dan el resultado que el que las contrata espera.
En un momento pensé que tu línea iría por una búsqueda, desde la literatura, o el arte en general, de esos arquetipos humanos que constituyen el Inconsciente Colectivo. Quizás exista.
Porque si los algoritmos pueden identificar esos vínculos de identificación inconscientes, quizás estén mejor preparados que nadie para incidir en las acciones de los usuarios de las redes.
También pienso que, como cualquier producto humano, ninguna red, o app, o plataforma puede escapar de lo inesperado.
Seguramente, desde los sectores populares, tendremos el desafío de poder intervenir cada vez más y mejor en estos escenarios.