Imagínate que tienes 100 amigos en Facebook. Existe una tendencia común (y errónea) de creer que verás en tu news feed lo que estas 100 personas publiquen... pero esto no es así. Facebook se encarga de filtrar las actualizaciones y sólo te muestra las de gente cercana o las que considere, por el motivo que sea, que serán potencialmente interesantes para ti. O al menos eso es lo que hace siempre que no tenga un experimento entre manos.
Facebook ha acaparado numerosas críticas en las últimas horas después de que se desvelara que, el algoritmo que utiliza normalmente para decidir qué te muestra y qué no, fue alterado manualmente para llevar a cabo un estudio. Concretamente, un grupo de ingenieros de la red social quería comprobar si existe "contagio de emociones" en Internet y, para ello, decidieron utilizar su posición ventajosa en Facebook.
¿Cómo lo hicieron? Con aproximadamente 689.000 usuarios como "ratas de laboratorio", durante una semana a algunos les mostraron principalmente actualizaciones de sus amigos con mensajes positivos. A otros, en cambio, les incrementaron el número de actualizaciones con mensajes y connotaciones negativas. Por si a alguien le interesa el resultado: sí, sí se produce contagio de emociones. Aquellos que veían mensajes positivos tendían a publicar más contenido de este tipo, y a la inversa.
¿Es ético manipular así?
Pero, dejando de lado el resultado, no deja de ser algo preocupante el que Facebook pueda alterar de esta forma lo que los usuarios ven. A fin de cuentas, está influyendo sobre ellos. ¿Tiene derecho a hacer que alguien se sienta peor, mostrándole actualizaciones negativas y tristes, por querer hacer un experimento? Eso es lo que critican desde algunos medios y hasta uno de los participantes en el estudio reconoció su preocupación sobre si el procedimiento era ético o no.
Desde el punto de vista de los términos de uso de Facebook, este tipo de experimentos están totalmente permitidos, ya que existe una cláusula en la que cedes el control de tus datos para experimentos e investigación. Pero ¿es justo que Facebook haga esto, sin avisar a los participantes del estudio? ¿Tuvo algún efecto este "filtrado" en los usuarios afectados? Para la segunda pregunta desconocemos su respuesta, pero para la primera... A mí, al menos, como usuaria de Facebook, no me hace ninguna gracia.
Enlace | Estudio (pdf)
Vía | AV Club
Ver 10 comentarios
10 comentarios
royendershade
Hay algo que no se si hicieron bien: Realmente los que recibian mas actualizaciones de un tipo publicaban mas material de ese tipo o simplemente "compartian" mas material de ese tipo? Porque si es lo segundo la respuesta es muy facil, ya compartes de lo que te pasan y si no hay cosas del otro tipo no vas a compartirlas porque no tienes.
Aun si esto lo tuvieron en cuenta, esos tipos no son cientificos y si hoy en dia todavia hay muchos cientificos que realizan mal sus investigaciones, me da que este estudio es menos valido aun. (Ojo, que el resultado puede ser cierto, incluso sabemos por sentido comun que muchas veces es asi, pero una cosa es que el resultado sea correcto y otra que se haya demostrado cientificamente,)
antoniovanlook
No me sorprende la noticia, Facebook es una empresa que no te cobra nada por su uso, y entre sus términos aceptas este tipo de estudios. Si consiguen mejorar el algoritmo para que los usuarios interactúen más y estén más contentos con las actualizaciones que reciben, los usuarios pasarán más tiempo en la página de FB y ellos ganarán más dinero con la publicidad.
lmxcraft
¿es justo que Facebook haga esto, sin avisar a los participantes del estudio? jajajaja Te aviso que vas a ser manipulado :D :D
Aldo Mann
Vaya gentuza.
dacotinho
Estos de Facebook son la bomba, como si hiciera falta comprobar que los humanos somos seres sociales y gregarios.
Si van a hacer otro estudio para saber si la gente compra más estando alegre o triste, ya les ahorro la molestia. Alegre. Los depresivos que se animan comprando tambien estan en crisis.
bv7
Es probable que otras empresas experimenten con lo mismo, las emociones son un modelo de negocio siempre lo ha sido en décadas. Cada cierto tiempo depuran resultados donde se práctica en otras áreas como lo hacen con imagenes en movimiento. El documento será una buena referencia el cómo estudian esos patrones, saludos.
oriol.ballesta
A día de hoy, se estan instalando cámaras con reconocimiento facial en establecimientos de grandes firmas para estudiar la reacción del cliente frente al producto y su disposición. En ese camino estamos.
Cuanto más mejor.
sandrazblls
No es noticia que Facebook manipule la información de sus usuarios, pero cuando usas este servicio, tienes que estar de acuerdo con sus términos, así que aquellos que usan esta red social, han aceptado que su información se venda.
kavzla
Ejejeje es muy probable. Yo no le veo nada malo. Realmente anunciar a los usuarios dentro del experimento acerca del mismo sería como tonto... Evidentemente no funcionaría, y no me parece que afecte en nada realmente a esas personas, de hecho, me parece que de ser cierto, lo hacen con buenos objetivos o metas, demuestra que debemos ser responsables con lo que publicamos y compartimos pues afecta para bien o para mal a otros. Pasa en la vida real... Pasa en facebook jajaja... Realmente facebook te muestra lo que tu quieras o decidas ver, no te obliga a ver nada. Y nada ni nadie nos obliga a tener facebook tampoco. Una pequeña acotación: desvelar y develar son cosas muy distintas.
albertojeca1
Si este tipo de experimentos se realizan con el objetivo de mejorar la red social y mostrarnos informacion mas relevante entonces no le veo ningun problema. Saludos.