Hace un tiempo el partido republicano, ese que lleva a Trump como candidato, se quejó porque “trending news in Facebook are not neutral” y ahí el pánico apareció en Facebook porque no se animaron a pelearse con los seguidores de Trump. El resto es una sucesión de malas decisiones por parte de Facebook.
- investigar si las denuncias eran verdaderas, dando de esta forma validez a una queja ridícula fomentada por la campaña de un megalomaníaco… cuando el resultado independiente salió verificando que no había parcialidad nadie leyó esa noticia.
- despedir al equipo de humanos que curaban las noticias, dando a entender que había injerencia humana en el algoritmo… cuando quisieron explicar que solo revisaban que no aparezcan noticias falsas o títulos tontos nadie leyó esa noticia.
Esto le dio validez a las denuncias de que había parcialidad en la publicación de noticias, cuando la realidad es que siempre va a haber parcialidad aunque no sea explícita porque los algoritmos no son neutrales porque el humano que los escribe no es neutral y tiene cargas implícitas desde el lenguaje hasta en variables que son cargadas y que luego pueden ser “suavizadas”. pero que si encima confían en humanos entrenando algoritmos de AI volvemos a cero y estamos poniendo a un algoritmo de machine-learning en manos de humanos para su entrenamiento… con la carga implícita de parcialidad en su propia personalidad.
¿Esto implica que es imposible ser neutral? sinceramente no lo sé pero me parece complicado, porque encima el mensaje es interpretado por como el receptor lee y no por como el emisor lo emite… maravillas de la naturaleza humana :)
Entonces ¿que sucede a menos de 20 horas de despedir a todo su equipo de “humans”? ya aparece una noticia falsa en sus Trending News y tardan 12 horas en removerla… con un humano que tiene que meter mano y arreglarlo.
Y, sin que se pongan nerviosos, “Facebook despidió a los humanos de Trending News… lo que sucedió te sorprenderá” son los titulares que van a aparecer porque son los que son compartidos, liked, etc porque están armados para eso, nadie serio titula de esa forma y mientras los humanos estaban enseñando a evitar ese clickbait a la plataforma de inteligencia artificial que quiere poner a funcionar Facebook… un humano se asustó y los despidió en vez de explicar que no había parcialidad manifiesta y sostener su posición.
3 respuestas en “Facebook despide a los humanos de “Trending News”. No. Los algoritmos no son neutrales.”
Marcás ese punto de inflexión que pasa toda compañía que comienza como banda de hackers, y se transforma en una corporación. Hasta hace no mucho podías decir todavía: facebook, esa banda de hackers. Ya no.
[…] apuesta entonces por un algoritmo que en las primeras horas ya ha demostrado ser incapaz de reconocer titulares pretenciosos (ES), que se espera que vaya aprendiendo con el tiempo a pensar como ya lo hacían los analistas […]
[…] algoritmos son neutrales por ser código es tan inocente como peligrosa. Si en el pasado vimos que los algoritmos de Facebook Trending News no eran neutrales hoy nos toca una investigación de ProPublica que se sorprende e indigna porque: “los […]