Web BizarroWeb Bizarro

Suscríbete a nuestro Newsletter

X

Únete a nuestra lista de correos para recibir semanalmente actualizaciones de nuestro contenido.

El 90% de los sites podrían filtrar tus datos

El 90% de los sites podrían filtrar tus datos 19.NOV.15

Gianfranco Lemmo
Fundador WebBizarro

Aunque, por desgracia, a nadie le viene de nuevo que algunos sites recaben y rastreen nuestra información personal y la compartan con terceros (infringiendo las políticas básicas de privacidad); un nuevo estudio acerca de esta cuestión, ha disparado toda las alarmas ¿la razón? La magnitud de los datos.

La investigación (que no es la primera de este tipo) llevada a cabo por un científico de la Universidad de Pennsylvania, y publicada en el International Journal of Communications, indica, en concreto, que 9 de cada 10 webs filtran los datos de sus usuarios a terceros. Pero analicemos sus conclusiones y comprobemos su método para esclarecer si es tal la gravedad del asunto.

El análisis de Tim Libert (así se llama su autor), Exposing the Hidden Web: An Analysis of Third-Party HTTP Requests on One Million Websites, contempla –como su propio nombre indica- un espectro de un millón de páginas, las más populares del mundo. Unas webs en las que ha aplicado su propio software de código abierto, webXray –el mismo que se ha empleado en el pasado para analizar rastreadores instalados en sitios de pornografía y salud-.

Un método que le ha permitido detectar la citada conclusión y que, según apunta en declaraciones a Motherboard, significa que “si visitas cualquiera de los sites más populares del momento, tienes una probabilidad del 90% de que terceras partes reciban información sobre tu navegación”. El peor perpetrador es Google, que rastrea el 80% de los sites indexados en Alexa y no respeta las indicaciones de la DNT (Do not Track).

“El asunto se agrava si tenemos en cuenta que la mayoría de personas nunca recibe notificación alguna de que la entidad está realizando un seguimiento […] por supuesto esto va para Facebook y casi todas las demás”, añade. Aunque parece que hay algunas excepciones como Twitter, a la que Libert elogia: “si todas las empresas actuasen como Twitter, no habría mucho de lo que quejarse”.

Además, otra de las averiguaciones revela que uno de cada cinco son potencialmente vulnerables a las técnicas de espionaje de la NSA, cuyas prácticas salieron a la luz tras casos como el de Edward Snowden.

El estudio, asimismo, explica cómo se producen las filtraciones de datos de manera relativamente sencilla. En términos generales, comenta que algunos sites incluyen contenidos ubicados en otros servidores, unos elementos que requieren de una petición HTTP en la que el usuario transfiere (sin saberlo) datos como la IP, la fecha y hora, el modelo de ordenador y el navegador. Algunos, incluso, pueden emplear cookies de rastreo, y descargar Javascript en sus dispositivos.

Desafortunadamente y no obstante el arraigo del problema, no resulta fácil evitar estas prácticas sobradamente conocidas. De hecho, los navegantes interesados en hacerlo tienen pocas herramientas eficaces a su disposición. Quizá la mejor alternativa sea decantarse por Tor.

Fuente MotherBoard