«Idazketa labana bat da» EUSKALERRIA IRRATIAn
Lunes 16 de Diciembre
¿Dejaremos que mande la inteligencia artificial?
Los algoritmos median en nuestro día a día y en decisiones sobre importantes asuntos sociales. Se imponen sin debate previo. ¿Queremos eso?, nos invita a preguntarnos el libro ‘El algoritmo paternalista’, que se presenta este martes 17 de diciembre en Katakrak
Paula Etxeberria Cayuela
PAMPLONA | 15·12·24 | 19:05
Ujué Agudo Díaz y Karlos G. Liberal, autores del libro 'El algoritmo paternalista', retratados en la Librería Katakrak. Iban Aguinaga
No los vemos, pero su omnipresencia crece y, muchas veces sin saberlo, toman decisiones que nos afectan, o condicionan nuestras propias decisiones, esas que creemos que tomamos con autonomía y libertad.
Son los algoritmos de inteligencia artificial, que operan en la tecnología que manejamos a diario, o que otros manejan para que nosotros consumamos y/o produzcamos. Y, cada vez más, se están disfrazando de paternalistas.
Ante esta evidencia que estamos asumiendo sin debate y por tanto sin cuestionamiento previos, urge pararse a reflexionar. Y reflexionar sobre una realidad si no se conoce bien esa realidad, no es fácil ni eficaz.
Con el propósito de que conozcamos mejor la tecnología que tenemos a día de hoy entre manos, nace el libro El algoritmo paternalista. Cuando mande la inteligencia artificial, de los investigadores navarros Ujué Agudo Díaz y Karlos G. Liberal. Una obra necesaria que sus propios autores presentarán en Katakrak –sello que la edita– este martes 17 de diciembre a las 19.00 horas.
La promesa de la automatización
“Vimos la necesidad de escribir este libro porque cada vez se oye hablar más de inteligencia artificial, de algoritmos, de automatización, de tecnología..., y veíamos que se podía entrar en un discurso dicotómico, o apocalipsis o solucionismo, o lo bueno y lo malo de cada cosa, cuando en realidad lo que nos falta es hacernos un montón de preguntas”, cuentan Karlos G. Liberal (Pamplona, 1978) y Ujué Agudo Díaz (Pamplona, 1978).
Ellos se han hecho muchas preguntas sobre el mundo de los algoritmos, “unos sistemas por los que estamos atravesados en nuestra vida cotidiana”, y nos ofrecen ahora en este libro “un espacio de reflexión” acerca de esta era tecnológica sobre la que consideran necesario “debatir y discutir”.
“Nuestra hipótesis con el libro es que durante muchos años como humanidad hemos querido que los procesos se automaticen entendiendo que eso nos lleva a un progreso y nos va a facilitar la vida, y parte de verdad hay ahí; pero en ese anhelo por automatizar las cosas, ahora, a través de algoritmos, algoritmos inteligentes, inteligencia artificial, etcétera, estamos viendo que cada vez cedemos más ámbitos de nuestra vida a que sean automatizados, de forma que el algoritmo termine tomando la decisión por nosotros en muchos aspectos esperando que lo haga lo mejor para nosotros mismos”, explica Ujué Agudo Díaz. Y ahí es donde entra el “cariz paternalista que estamos dando a los algoritmos, esperando que vayan a decidir mejor que nosotros mismos en muchos aspectos de nuestra vida”.
“¿Queremos que los criterios que aplica Tinder sean la regla para conseguir una pareja?”
Ujué Agudo Díaz - Investigadora en la esfera tecnológica
¿Y en qué cuestiones que nos afectan están decidiendo ahora mismo los algoritmos?
En nuestra vida cotidiana, en muchas situaciones, “como cuando Google Maps te dice que vayas por un lado y tú sabes que tienes que ir por otro”, en aplicaciones como Tinder, Instagram, plataformas de streaming como Netflix... Pero, por lo que han investigado los autores de El algoritmo paternalista, se está dando “un foco muy claro y directo sobre todo en las periferias sociales. Por ejemplo, en las fronteras se utilizan algoritmos con sistemas biométricos para poder descubrir si la persona que va a entrar miente o no a las preguntas que le pueda hacer un funcionario. También se utilizan para decidir quién recibe las ayudas del bono social; en el caso de VioGén, para predecir el nivel de riesgo que cada mujer a denunciante de violencia de género tiene de volver a sufrir violencia machista; y en el caso de RisCanvi, que opera en cárceles de Catalunya, el algoritmo determina cuál es el riesgo de incidencia de los presos, y sobre ello luego toman decisiones”, dice Karlos G. Liberal.
Para los autores del libro editado por Katakrak, la aplicación de algoritmos inteligentes en esas cuestiones sociales “está siendo un banco de pruebas que está funcionando. Y viendo cómo no discutimos que esos algoritmos operen en esas tomas de decisiones, pues luego podemos meterlos en otras cuestiones más generales”.
Karlos G. Liberal y Ujué Agudo no niegan que tengan que existir esos sistemas automatizados, ni juzgan como malas las decisiones que se derivan de sus cálculos. “Lo que sí nos interesa es discutir sobre qué ocurre cuando esos algoritmos fallan, porque se está viendo que fallan. Y, claro, si los ponen en esos espacios donde hay vulnerabilidad y pocos recursos, es más difícil que quienes sufran las consecuencias de una decisión injusta tengan la capacidad de saber que ha habido un fallo, de demostrarlo y de poder hacer algo al respecto”.
Tinder: los filtrados del algoritmo del amor
En Tinder, la popular aplicación de citas en línea, el algoritmo campa a sus anchas. Como muestra el libro de Ujué Agudo Díaz y Karlos G. Liberal, Tinder te sugiere personas a las que tú puedes elegir o no, pero el algoritmo determina quiénes te va a enseñar y quiénes no te va a enseñar, y lo hace bajo sus criterios. Y lo más grave es que, según la patente de dicha aplicación, se filtran las recomendaciones de forma diferente en función del género: a los hombres se les recomiendan mujeres más jóvenes y con menor poder adquisitivo, pero no viceversa. Un criterio que las personas usuarias de Tinder desconocen, que la patente ejerce “porque cree que le va a funcionar mejor”, y que no hace sino contribuir a perpetuar el machismo.
“Además, Tinder da una puntuación de deseabilidad a cada persona usuaria, categoriza en función de cuánto de deseable creen los demás que eres, y en función de eso te va a enseñar candidatos o candidatas que tengan tu puntuación de deseabilidad. ¿Es la regla para conseguir una pareja? Pues no lo sé, lo que sí está claro es que es un criterio de la empresa que aplica un algoritmo”, reflexiona Ujué Agudo Díaz.
“Así, aunque tengamos la sensación de que nosotros tomamos la decisión final, a veces no nos damos cuenta de que esa decisión está tan limitada, tiene tantos condicionantes, que igual estamos eligiendo, sí, pero sobre una decisión que ya está previamente mediada, un menú reducido”, apunta Agudo, licenciada en Psicología y especializada en la intersección entre el comportamiento humano y los algoritmos de inteligencia artificial.
“No caigamos en un discurso dicotómico sobre la automatización, hagámonos preguntas”
Karlos G. Liberal - Investigador en la esfera tecnológica
En aspectos menos relevantes que la elección de pareja, como por ejemplo el ocio que buscamos en Netflix, también se reduce el menú. “El conjunto de elementos que te muestra el algoritmo está completamente limitado dependiendo de tu perfil. Han hecho un perfilado, un scoring, un cálculo con un valor, y han dicho: tú estás en este grupo, y por estar en este grupo solo vas a ver este tipo de cosas”, dice Karlos G. Liberal.
Lo que estos investigadores navarros quieren transmitir con su libro es que “los algoritmos tienen unos límites, algunos son técnicos y no funcionan bien, otros son corporativos, se toman decisiones como en el caso de Tinder por beneficio de su propia plataforma. Tienen unos límites y unos intereses, unas intenciones. ¿Y por qué a Netflix le interesa limitarte el conjunto de catálogo? Si no había necesidad. Creemos importante que la gente sepa lo que se hace y sea consciente de que aunque piense que está tomando la decisión, la decisión está limitada”.
¿Y en qué argumento se basa esa práctica limitante? “En un argumento paternalista que sostiene que somos seres irracionales, y entonces es mejor que alguien o algo –un algoritmo, una máquina– nos ayude a tomar las decisiones, porque nos va a simplificar la vida. Bien, puede ser, pero discutámoslo, porque igual en todos los casos no lo es”, cuestionan los autores del libro.
La alternativa: conocer para debatir
El algoritmo paternalista bucea en el origen de esa idea de que somos seres irracionales, y, sobre todo, en cómo se ha llegado a insertar esa idea en un dispositivo tecnológico, esto es, en un algoritmo.
¿Por qué Tinder o Netflix llegan a esa conclusión de que tienen que ayudarnos a decidir? Y si eso es así, ¿qué capacidad de revertir tiene esa conclusión? “Y ahí es donde nos metemos en una discusión que tiene que ver con la Economía del Comportamiento, con cómo funcionamos, con los sesgos cognitivos, con juegos y casos prácticos –presentes en el libro– que nos demuestran que tenemos nuestros límites, y que esos límites pueden ser explotados, y de hecho están siendo explotados”, explica Karlos G. Liberal.
¿Explotados en beneficio de qué? Del capitalismo acelerado.
Y puede haber, y de hecho hay, costes, como la dependencia tecnológica. La deflación de la conciencia. Y el aumento de la competitividad y del individualismo.
Inmersos a ritmo acelerado en una rueda de producción-consumismo y de sobresaturación de información, ¿tomamos decisiones conscientes?, ¿tomamos decisiones coherentes? ¿Priorizamos como queremos el tiempo que dedicamos a las cosas?
Urge parar y preguntarse. Cuestionarse si realmente queremos que medien cada vez más en nuestras vidas algoritmos paternalistas.
Como dice Ujué Agudo, “cada vez hay más información sobre cualquier tema. Como humanos somos conscientes de que tenemos ciertas limitaciones para todo, para estar al día de las cosas... Muchas de nuestras interacciones diarias nos suponen un esfuerzo cognitivo, por tanto es normal que esperemos de alguna manera que la tecnología nos pueda ayudar a eso. El problema es cuando esa narrativa, ese discurso se asume como que no hay otra opción. Esa narrativa de que nosotros somos irracionales, no tenemos capacidad para procesar las cosas, por tanto los algoritmos, que sí tienen una capacidad de cómputo y de procesamiento de la información mucho mayor que la nuestra, ya lo harán mejor. Ahí estamos asumiendo y aceptando tantas cosas, tantas ideas, que preocupa”.
Los autores de El algoritmo paternalista nos invitan a “comprender cómo tomamos decisiones, cómo funciona el comportamiento humano, algo que la economía lleva haciendo los últimos 40 años”. Y a “conocer la tecnología con la que convivimos para poder pensar y decidir sobre ella, para poder debatir y cuestionar” y, desde ese conocimiento crítico, poder seguir construyendo el mundo que habitamos.
Hoy es el futuro. Los autores del libro temen que la falta de debate sobre la aplicación de los algoritmos paternalistas “se debe a que, por el momento, la mayoría afectan principalmente a colectivos vulnerables”. “Pero, una vez aceptada la narrativa de que la IA debería decidir en nuestro lugar, ¿cuánto tardará en extenderse a los segmentos centrales de la sociedad? ¿Cuándo llegará el momento en que la automatización sea un filtro generalizado para cualquier consulta médica en la sanidad pública”, lanzan.