Privacidad online versus estereotipos: los freaks ya no encajaremos ni en Facebook
PUBLICADO POR: Amandysha. Viernes, 28 de Septiembre de 2012
La noticia sobre cómo los algoritmos de Facebook para detectar situaciones anormales salvaron a una niña de un supuesto depredador sexual, de seguro hace que los padres se sientan más tranquilos con sus hijos metidos de cabeza compartiendo información y chateando sin su supervisión dentro de esta red social.
Pero por dos razones básicas y fundamentales me preocupó bastante enterarme de cómo Facebook deduce este tipo de situaciones anormales, porque lo hacen basados en un algoritmo que determina más que todo estereotipos y patrones de conducta no comunes.
Entonces los que somos freaks, los geeks, los hipsters, o los raros, que regularmente nos salimos del patrón de lo que la gente llama "normal", pero que aún así en la mayoría de los casos somos personas honestas, dedicadas a labores filantrópicas y más preocupadas por el medioambiente, las leyes, la integridad y la moral que los que se hacen llamar "normales", un día podemos estar en la mira de las autoridades todo porque un algoritmo determinó que nuestro comportamiento y nuestras conversaciones en esta red social pueden tener un perfil sospechoso, es decir un perfil criminal.
Aquí existen dos situaciones que quedan más claras que el agua. Si Facebook creó un algoritmo que escanea las actividades de todos los usuarios fuera y dentro de sus muros, en los mensajes privados y en el chat:
- 1) Nuestras conversaciones de Facebook no son tan privadas como creíamos.
- 2) Facebook, igual que como muy mal lo viene haciendo nuestra Policía con las famosas redadas en barrios marginados mientras los verdaderos delincuentes están en las calles y sentados en importantes cargos del estado, juzga a las personas basados en estereotipos.
El algoritmo de tres capas de Facebook escanéa todas las conversaciones creando una alerta para los siguientes casos:
- Si dos usuarios no son amigos.
- Si fue muy reciente que se convirtieron en amigos.
- Si estos dos usuarios no tienen amigos en común.
- Si uno de los dos usuarios interactúa poco dentro de esta red social.
- Si entre ambos usuarios tienen una importante diferencia de edad.
- Si ambos usuarios se encuentran lejos el uno del otro.
- Si en tu perfil de Facebook dice que eres soltero y tienes una edad que se considere avanzada.
- Si solo agregas como amigos a personas del sexo opuesto o en otro caso del mismo sexo.
- Si una de las cuentas fue creada recientemente.
Cuando se detecta en una o varias conversaciones un conjunto de estas situaciones, entre otras más como ciertas palabras que ni googleándo pude conseguir (y se entiende por qué no son informadas con claridad), el mecanismo de Facebook envía la información a empleados encargados de este tema, quienes podrán navegar por todas nuestras conversaciones privadas y determinarán si deben informar a las autoridades pertinentes o no.
Sé que enterarnos de que usando esta metodología pudieron salvar a una niña de ser víctima de un pedófilo, por un lado a todos nos reconforta. Pero por otro lado la información que nadie tiene es cuantas veces este algoritmo y estos empleados se equivocaron y violaron la privacidad de millones de personas poniéndolas injustamente en la mira de policías con menos sentido común que un guineo, antes de supuestamente salvar la vida de una persona. Y esto último también debería importarnos.
Facebook tiene que ser una de las compañias con menor etica en la industria... Recuerdas cuando lanzaron el Unified Inbox? Yo tenia, desde que comence a usar FB, la opcion de que NO se grabaran mis mensajes y conversaciones... Oh sorpresa, cuando llega esa "nueva" funcionalidad, aparecen TODOS los mensajes desde el 2009!!! Nunca vi disculpas al respecto.
ResponderEliminarPor más que enarbolen que esto es para salvar la vida de la gente, entiendo que no solo es discriminatorio, sino además una invasión la privacidad de todos. Porque aún así muchos niños son asaltados sexualmente por pedófilos y criminales mediante Facebook y para esos casos ese algoritmo no ha servido de nada.
ResponderEliminarEllos solo dan las cifras positivas de usar este mecanismo ¿por qué será que no nos suministran las negativas?