Por primera vez se hacen públicas las políticas internas de moderación de Facebook, no por voluntad propia sino porque The Guardian hizo un gran trabajo publicándolas y explicándolas justo en momentos donde la red social está en la línea de fuego por el contenido que se publica constantemente y mi primer impresión es que están librando una guerra imposible de ganar.
¿Como marcar efectivamente que es bueno y que es malo cuando se generan unos 1.500 millones de "comentarios + fotos + status" al día?
Facebook está en una lucha donde casi 2.000 millones de usuarios tienen diferentes opiniones, educación y límites morales, donde podemos estar de acuerdo en que hay cosas intrínsecamente malas pero donde la decisión debe ser casi instantánea ¿un ejemplo? creo que es casi imposible reaccionar en menos de 10 segundos desde que una pieza de revenge porn se publica hasta que se extiende... y además ¿como definís una política global capaz de definir que es publicable y que no?
Pero si es límite es dificil de "definir" para crear una política accionable ¿como definís una política donde la violencia es peligrosa o es simplemente "permisible" como discurso? ¿en base a la violencia intrínseca? ¿en base a la "credibilidad" de la frase? ¿del contexto? esta es una batalla realmente casi increíble... donde incluso los ejemplos oficiales son un desastre: “Someone shoot Trump” es no-permisible pero permitís explicar que: “To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat” ridículo.
Entiendo que la violencia verbal es, muchas veces, resultado de la frustración personal pero la frase de como aplicar presión es simplemente inaceptable.
En definitiva, creo que esta filtración es necesaria para entender como funcionan las políticas de Facebook pero muestra tres cosas a primera vista:
- Es imposible moderar con la velocidad que necesita una plataforma con este alcance.
- Las políticas deberían ser públicas para que se pueda "crear conjuntamente" o al menos ser "opinables" de forma pública.
- La inteligencia artificial no puede, al menos ahora, entender contexto, ironía, intención, etc.
Mientras tanto conviviremos con definiciones como “We do not action photos of child abuse. We mark as disturbing videos of child abuse. We remove imagery of child abuse if shared with sadism and celebration.”
Por como funcionan estos algoritmos y la capacidad de cómputo que tiene FB, intuyo que apuntan a eliminar el grueso-obvio-evidente de manera automática. Y dejar al lento manpower para los `critical`. ¿80/20?
Los algoritmos no van a parar de aprender.
Sera algo mas `long term`?
In the meanwhile, habrá bocha de falsos positivos (ironía, sarcasmo) y mucha gente poco feliz.