Problèmes de data

Dans ce billet  The End of Theory : The Data Deluge Makes the Scientific Method Obsolete   C. ANDERSON (The Long Tail) vante l’efficacité du “number crunching” des outils TIC (et donc des ingenieurs) face aux theorisations scientifiques aujourd’hui. Google l’a bien compris pour la pub… Des chercheurs lui ont répondu sur les limites de l’induction et le va-et-vient terrain/theorie.

Il y eut aussi une controverse sur les audiences qui fait en quelque sorte exploser la bulle du Web 2.0 :  Déjà en 2006 la méthodologie ComScore de mesure d’audience “user centric” fut critiquée. Pourtant selon sa Responsable Développement en Janvier 2007 :”ComScore est un des leaders mondiaux de la mesure sur Internet. Nous étudions les audiences Internet de 32 pays grâce à un panel de 2 millions de personnes dont 20.000 en France.”

…20 000 et alors ? : et leur représentativité (au regard des fractures numériques ou de la granularité du Web) ? Il s’agit “d’user centric” (les données sont-elles corrigées ou croisées avec du site-centric ?). Et les limites de l’induction proposée… Bien sur Comscore a produit une étude en Avril 2007 montrant que 1/3 des internautes effaçaient les “first party cookies” utiles au site-centric et lancé des outils comme “qsearch 2.0” par exemple, mais ordinateurs publics et accès mobiles ne sont toujours pas pris en compte semble t-il (Cf. generation-nt du 09/2007)… Bref, pourquoi annoncer de tels chiffres démentiels ?

 

Originally posted 2018-11-25 16:01:49.