Cómo nos relacionamos con algoritmos:

Por Ivan Kirschbaum, estudiante de cuarto año de Comunicación.

Interactuamos con algoritmos mucho más de lo que somos conscientes, hasta cuando tenemos el celular en el bolsillo y sin usar estamos emitiendo información que es analizada por esta inteligencia. Además de utilizar la información que emitimos, los algoritmos deciden estadísticamente que información vemos y con cual nos relacionamos. Cada vez más se encuentran involucrados en distintos ámbitos de nuestras vidas tomando decisiones en muchos mas aspectos de los que pensamos. En esta entrevista Micaela Mantegna nos cuenta cómo funcionan los algoritmos, para qué se usan y cuáles son sus efectos en el entramado social.

Micaela Mantegna es abogada de la Universidad Nacional del Comahue de Argentina donde, además, fue docente. Fundó Geekylegal con el fin de divulgar temas vinculados al derecho y la tecnología. Actualmente investiga sobre algoritmos, inteligencia artificial y derecho de los videojuegos en el Centro de Tecnología y Sociedad de la Universidad de San Andrés.

Iván: ¿Qué es un algoritmo? ¿Cómo nos relacionamos con ellos cotidianamente?

Micaela: Un algoritmo es como una receta, una manera de hacer algo, un método. Llevado a la computación vos agarras y codificas una forma de hacer las cosas. Puede ser una forma de tomar decisiones o un método de operar sobre algo entre otras cosas. Si tuvieras que hacer un daiquiri por ejemplo, decís “bueno tengo estos ingredientes, ¿cómo hago para llegar a este resultado?” entonces toda la secuencia de pasos que haces para tomar algo y transformarlo en otra cosa, es un algoritmo. Los problemas empiezan cuando esas recetas las pones en una caja, metes todos los ingredientes y sacas el daiquiri pero no sabes bien que paso ahí adentro. A estos fenómenos los llamamos Black Box porque las cosas entran y salen pero nosotros no tenemos idea como se transformaron esas cosas.

I: ¿Nosotros serían las personas que están del otro lado de la pantalla? ¿Los usuarios?

M: Exacto. Aunque no solo las personas que están usando eso sino también las mismas personas que las crean. Porque cuando hablamos de algoritmos hay varios fenómenos y dimensiones a tener en cuenta que generan distintos problemas. Una es la transparencia, esto de decir “bueno, déjame ver como es la formula”. Y la opacidad (dificultad para ver el algoritmo) no es solo por una cuestión de acceso sino a veces los algoritmos son inescrutables porque tienen una complejidad tan grande que ni siquiera las personas que trabajan con esos algoritmos pueden explicar como funcionan. Entonces si te digo “metemos estos ingredientes y hacemos un daiquiri”, vos podes trazar una secuencia de pasos y si algo sale mal podes atribuírselo al paso correcto, quizás en la sección de “agregar alcohol” pusiste el alcohol equivocado y por eso el procedimiento esta contaminado. Pero esto llevado a los datos es muy difícil, por ejemplo vos ingresas datos que son discriminatorios y vas a tener una salida que es discriminatoria. Por ejemplo vos buscas en un buscador en Internet “las mujeres son” y dejas sin completar el resto, aparece “vagas, amas de casa”. Buscas cocina y las referencias son femeninas. Hay un sesgo que asocia determinada idea con un estereotipo. En el ejemplo del daiquiri, vos pones algo que esta en mal estado va a salir algo que esta en mal estado y no vas a ver donde surgió el error. Y los algoritmos lo replican constantemente.

I: ¿Esto es lo que se llama machine learning? Las computadoras aprenden por sí solas.

M: Si, los algoritmos tienen dos funciones: clasifican y predicen. Por ejemplo, vos le suministras a un algoritmo un montón de imágenes y aprende a distinguir una imagen de otra, esto es lo que se llama machine learning. A su vez cuando le das un montón de imágenes comienza a predecir lo que va a pasar, ya que correlaciona estadísticamente “esto y esto generalmente da este resultado”, así operan los algoritmos y lo que hoy se llama Inteligencia Artificial (IA) que en realidad es machine learning, un subcampo o disciplina de la IA. Hoy el enfoque del machine learning es te doy muchos datos y las maquinas aprenden a través de algoritmos a sacar correlaciones.

Volviendo a la transparencia lo que tenes es, por un lado la protección de derechos intelectuales que protegen el algoritmo de Google por ejemplo o Facebook a ser rebelado, se protege la “salsa secreta”, como la receta de Coca-Cola y por el otro lado tenés una especie de inescrutabilidad o opacidad por la complejidad del algoritmo que, si no tienes lo conocimientos técnicos, aunque te muestren la formula no lo vas a entender como llego la maquina a esa decisión. Con los algoritmos vos le mostrás muchas fotos y te va a decir “bueno, esto es un gato”. ¿Porque es un gato? Porque en el 80% de las veces esto es un gato. Entonces en lo que se esta trabajando es en unos modelo que te expliquen como llegan los algoritmos a determinadas decisiones; “bueno esto es una gato porque tiene una forma del bigote que es así y las orejas de tal modo”. Y las maquinas hoy lo pueden hacer, pueden llegar a la conclusión “esto es un gato por esto y esto”.

El problema con estos sistemas es que cuando vos miras la eficacia “mira esto predice en un 80% que esto es un temor maligno” funciona bárbaro pero cuando lo llevas a algo como “esta persona ¿va a reincidir el día de mañana? ¿tenemos que darle libertad condicional?”. Que es lo que sucede en EEUU, sistemas que predicen si una persona va o no a reincidir. En Estados Unidos los algoritmos (que son privados y secretos) ya se están usando en áreas publicas. Y el problema está cuando los datos están incompletos y el resultado va a estar contaminado. Afectando, en casos como de área publica, la libertad individual. El problema es el concepto tan fuerte que tenemos instalado de “las maquinas no se equivocan” y es muy difícil que el juez se aparte.

I: Y traído más a la situación actual en Argentina cuáles ves que son los efectos de los algoritmos, no solo en funciones públicas sino en vidas cotidianas de la gente?

M: Mirá nosotros suministramos muchísimos datos cuando interactuamos con nuestros dispositivos, siempre. No nos damos cuenta, no es solamente cuando decir “bueno lleno una encuesta o escribo algo” sino cuando activas tu celular y tu geolocalización estas dando datos y metadatos que pueden reconstruir por ejemplo hasta la vida de una persona. Teniendo en cuenta la duración de una llamada podes determinar que esa persona esta llamando una amante o con los datos de Uber, esta persona se sabe que todos los días hace estos trayectos, “esto debe ser su trabajo” “este su casa” “ después va a esta dirección, bueno esta debe ser la amante. Damos mucha mas información de la que nos damos cuenta. Cuando la gente entra a Facebook (FB) y da un like estamos dando información de tus gustos, sacas una foto y si no tienes desactivado a la geolocalización se sabe donde estas y que estas haciendo. Muchas veces vos buscas en google un lugar y dice “la gente suele estar tanto tiempo acá” eso es porque registran los tiempos de las personas.

I: Bueno la información la producimos constantemente y los algoritmos recrean estructuras sobre esa información pero en si el algoritmo no es ni bueno ni malo, sino que dependen de cómo se usan y supuestamente por ejemplo, en el juicio de Mark Zuckerberg el decía que su información se usa solo para la publicidad micro-targeteada. El problema está en para qué se usan esos algoritmos.

M: Pero qué te impide usar esa información no controlada para hacer vigilancia, ese es otro tema. El problema también con los algoritmos son las inferencias que pueden clasificar y predecir de tus patrones de compra, tus gustos, tu orientación sexual, un montón de cosas que van asociadas por estadísticas, que pueden confundirse. El tema y lo que me preocupa son las etiquetas invisibles que nos van a colgar. Hay casos en los que por ejemplo, un padre que recibió publicidad en su casa que decía “Mike no se cuanto, hija muerta en un accidente de transito” el tipo fue a pedir una respuesta y era una empresa mandando publicidad de oficinas. Ahí se ve la información que tienen sobre uno, se saben las vulnerabilidad. Otro caso es el de Target (tienda de EEUU), una chica menor de edad que recibía publicidad en su casilla de mail, el padre la ve y se enoja porque Target estaba enviando publicidad de pañales y la chica estaba embarazada y el padre no sabia. La chica había buscado cosas que eran indicadores de mujeres embarazadas. Ahí se ve el peligro de cuando dicen “solo lo usamos para publicidad”, pero no es como la que ves en el colectivo que es publicidad genérica sino que saben como te llamas, que te gusta, a que sos mas propenso y débil. El tema que estallo con Cambridge Analytical es si eso se puede manipular de alguna forma para adoctrinarte, que aunque nadie puede medir los efectos que tuvieron en que haya ganado Trump lo cierto es que sabían que vos eras una personas a favor del portado de armas o no, y entonces te envían propaganda especial (o fake news). El tema está en cuando esta vigilancia es constante, tener no solo una computadora en casa sino en el bolsillo, capaz reloj. Y va a seguir sumando, en el auto, lavarropa inteligente,  heladera inteligente. Un montón de información entonces sobre que consumís, una heladera inteligente nada le impide que venda información a las aseguradoras que diga “ah mira, esta persona tiene diabetes y esta consumiendo cosas con azúcar, aumentale la prima porque no se cuida” y es algo que esta pasando.

I: Eso, ¿no esta regulado? Supuestamente no se puede vender información a terceros. Argumento que uso Mark Zuckerberg.

M: EEUU no tiene una ley de protección de datos central. Hay normativas. Y hay un quiebre entre la circulación de datos entre EEUU y Europa. Europa si tiene una legislación de protección de datos que entra en vigencia en mayo que es mucho mas fuerte pero solo para los europeos. Es peligroso el tema de la protección de datos porque hay formas de hacer un bypass en eso, de que vos en los términos y condiciones que jamas lees aceptes algo que no sepas.

I: Pero en casos como el de Facebook por ejemplo, el aspecto legal no está estudiado por académicos o abogados.

M: El problema es que son tan gigantes que ni los podes leer porque encima cambian. Se pueden ir modificando, entonces en la medida que no haya una regulación que diga este es el limite que vos podes llegar, pueden ir cambiando voluntariamente cosas. Ahora que se llamó mas la atención sobre el tema de la privacidad esta bueno porque ahora se esta haciendo un “privacy by design” entonces va a estar todo cerrado excepto que vos abras tus funciones de privacidad. Tuvieron que ir cambiando modelos pero en presión de escándalos y presiones. Esto sirve para que la gente sea mas consciente de sus datos.

Algo que paso en la audiencia es que FB encima traqueaba incluso gente que no estaba en FB, y gente que aunque no haya firmado los términos y condiciones y interactuaba con gente bajo determinadas condiciones, registraban que esa persona no tenia FB y se creaba una especie de perfil paralelo de las personas que no tenían. El tema son las bases de datos, yo puedo reconstruir un montón de información sobre cualquiera de un montón de lados. Lo que te decía de lo que consume la persona y como puede impactar en el seguro medico, automotor, que esto funciona así en EEUU con el crédito por ejemplo.

Que encima se producen muchos sesgos, por ejemplo una chica afroamericana que se da cuenta que los algoritmos de reconocimiento facial no la reconocen. O el algoritmo de FB que confunde la cara de gente de color con primates. O Nikon que la cámara decía a los chinos que abran los ojos.

Estos algoritmos ahora se venden a distintas empresas que los usan para distintas cosas y se divulgan muy rápido. Hay efectos que van por la igualdad y la inclusión que repercuten en lo social.

I:  Y a los ciudadanos internautas, ¿que aconsejas?

M: Involucrarse. No pensar que IA es un tema de expertos. La clave es hacer puentes entre disciplinas y que las partes técnicas necesitan la ética de las ciencias sociales.

2 comentarios

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s