Détecter au plus tôt les utilisateurs importants dans les réseaux sociaux est un problème majeur. Les services de classement d'utilisateurs (peer ranking) sont maintenant des outils bien établis, par des sociétés comme PeerIndex, Klout ou Kred. Leur fonction est de ``classer'' les utilisateurs selon leur influence. Cette notion est néanmoins abstraite, et les méthodes algorithmiques de ces services pour obtenir ce classement sont opaques (les métriques et paramétrages utilisés sont des recettes internes dissimulées). Suivant le récent intérêt pour les outils permettant une plus grande transparence du web, nous proposons d'explorer le problème du retro-ingéniering de l'influence topologique dans ces services de classement. Comme ces services exploitent l'activité en ligne des utilisateurs pour inférer leur influence (dont leur connectivité sur les réseaux sociaux), nous proposons une approche permettant d'estimer précisément l'influence d'un ensemble de métriques topologiques (ou centralités) et leur taux de prise en compte dans le résultat final (classement utilisateur). Pour ce faire, nous modélisons l'algorithme de classement comme une boite noire, avec laquelle nous interagissons via des modifications topologiques, afin d'inférer quelles sont les centralités en jeu dans l'évolution du résultats de classement. Nous montrons que dans certains cas il est possible de déterminer quelles sont ces métriques, et ceci via des opérations sur la topologie par un utilisateur souhaitant connaitre ces paramètres.
Retro-ingénierer les métriques topologiques dans les algorithmes de peer-ranking
Retro-ingénierer les métriques topologiques dans les algorithmes de peer-ranking
Retro-ingénierer les métriques topologiques dans les algorithmes de peer-ranking
Related Content
To work at scale, a complete image indexing system comprises two components: An inverted file index to restrict the actual search to only a subset that should contain most of the items relevant to the query; An approximate distance computation mechanism to rapidly scan these lists. While supervised deep learning has recently enabled improvements to the latter, t…
This article presents an empirical study that investigated and compared two “big data” text analysis methods: dictionary-based analysis, perhaps the most popular automated analysis approach in social science research, and unsupervised topic modeling (i.e., Latent Dirichlet Allocation [LDA] analysis), one of the most widely used algorithms in the field of compute…
The ability of multimedia data to attract and keep people’s interest for longer periods of time is gaining more and more importance in the fields of information retrieval and recommendation, especially in the context of the ever growing market value of social media and advertising. In this chapter we introduce a benchmarking framework (dataset and evaluation too…
Webinar /Jun 2024
Blog Post /May 2025