¿Tecnología neutra? Sesgos en el desarrollo y lecciones para nuestra normativa

Es común escuchar que quienes se dedican a la ciencia y la tecnología lo hacen desde posiciones “neutras”, alejadas de la discusión política o de los vaivenes de la opinión pública. Ese lugar común ha llevado a creer que todo lo que se produce en el campo científico o tecnológico muestra las cosas “tal como son”, es decir, que nos guían sobre cómo es el mundo sin alterarlo.
Es importante romper con esos mitos. Hagamos el ejercicio con una aplicación que acaba de revivir en redes sociales: FaceApp. Esta aplicación, que ha generado discusiones por su dudoso respeto a la privacidad y a los datos personales de sus usuarios, tiene la sencilla función de alterar ciertos rasgos de una persona, de modo de parecer, por ejemplo, del género opuesto.
Ahora bien, esta sencilla operación, que también intentan emular otras aplicaciones, involucra una serie de supuestos: si decidimos que esta clase de aplicaciones nos muestre cómo seríamos del género femenino, nos mostrará con cabello largo, labios maquillados, ojos delineados, etcétera. Es decir, presupone que verse como mujer significa recoger esa serie de rasgos, cuando el maquillaje no es una condición natural, o llevar el pelo largo es una opción entre muchas, siendo del género que sea. Lo mismo para el género masculino: nos mostrará con barba o pelo corto, cuando hay hombres que tienen escasa o nula barba, y/o usan el pelo largo.
Este conjunto de presuposiciones, nos parezcan razonables o no, refuerzan visiones culturales de lo que entendemos por hombre o mujer, y lo amplifican en masa a través de una sencilla aplicación de entretención. Más allá de las críticas sobre privacidad de datos, aplicaciones como FaceApp están lejos de ser “neutrales”, pues en contextos actuales donde los roles de género han sido cuestionados, seguir insistiendo en ellos es tomar una posición política.
Siguiendo con la lógica de la tecnología de reconocimiento facial, pensemos en la tendencia actual en varios países o barrios de establecer sistemas de videovigilancia cada vez más robustos. Con cámaras en múltiples puntos de una ciudad o localidad, se pretende tener un control del tránsito de las personas, apuntando incluso a reconocerlas con precisión. Esto tiene dos problemas: primero, asume desde ya que la gente, o está siempre dispuesta a sacrificar más partes de la vida privada por la seguridad, o bien que no se puede tener ninguna expectativa de vida privada en un espacio que no sean los metros cuadrados de su hogar (lo cual es, desde luego, una posición política, pues no es autoevidente). Luego, estos mismos sistemas de reconocimiento facial vuelven a tener sesgos de quienes los diseñan, pues en Estados Unidos, por ejemplo, el National Institute of Standards and Technology constató que estos algoritmos identifican erróneamente a personas afroamericanas o asiáticas de 10 a 100 veces más que a una persona blanca.
En otras palabras, los algoritmos tienden a replicar e incluso profundizar los sesgos (consientes o inconscientes) de sus programadores. De esta forma, presentar a los productos de la tecnología como elementos neutrales u objetivos sólo contribuye a que dichos dispositivos se muestren opacos, al modo de cajas negras, sin posibilitar una discusión transparente sobre dichos sesgos.
Estos ejemplos, hoy completamente cotidianos, deben tomarse como motivos para la reflexión para quienes aún insisten en la neutralidad de la ciencia y la tecnología, y es necesario concientizar sobre ello para generar normativas y políticas públicas que estén alertas a estos sesgos, que son propios de vivir en un determinado tiempo y cultura. Un buen punto de partida, en vísperas de un proceso constituyente local, es pensar cuáles son las formas en que las nuevas tecnologías pueden moldear nuestros Derechos Fundamentales (Vida Privada, Igualdad u otros), para evitar la sensación de un texto que tan pronto sea creado, vuelva a estar obsoleto ante una aparente neutralidad que nunca existió.
* Columna desarrollada en el contexto de una pasantía en la ONG Derechos Digitales
https://www.elmostrador.cl/
Comentarios para este artículo