VIE POLITIQUE- OPINION ET POINT DE VUE- CONTESTATION
EN ALGERIE MARS 2019- FACEBOOK
Entretien (avec Xavier Cazard/France)
: Le rôle de Facebook dans le mouvement de
contestation en Algérie
(c) www.tsa-algerie.com/ Yacine Babouche, vendredi 8 Mars 2019
·
Xavier Cazard est directeur associé de l’agence de communication Entrecom, spécialisée dans les stratégies digitales social
media. Il revient dans cet entretien sur le rôle joué par les réseaux sociaux
dans les mouvements de contestation, en particulier sur le rôle joué par les
algorithmes de Facebook dans la propagation d’un
mouvement et sur la manière avec laquelle les algorithmes peuvent être
manipulés.
Comment débute un mouvement sur
les réseaux sociaux ?
Habituellement
on dit que Twitter, qui est un réseau social et un
média d’information, est un lieu où les cyber-activistes sont très présents
alors que Facebook est plutôt un lieu où vont se
réunir les gens pour parler de manière positive d’eux-mêmes. Ce qui est en
train de se passer, c’est que Facebook devient aussi
un endroit où les activistes deviennent très présents car c’est le réseau le
plus populaire.
Comment s’organise un mouvement
de contestation sur les réseaux sociaux ?
Il y a
différentes manières de structurer un mouvement. Ça peut être autour d’un hashtag, qui permet de cristalliser comme une campagne de
pub avec un slogan derrière lequel tout le monde se retrouve. Ça peut également
être juste une viralité de communautés qui se
reconnaissent dans un mouvement de contestation et qui par capillarité vont
s’étendre et s’élargir.
Quel rôle jouent les
algorithmes de Facebook dans la naissance et la
propagation d’un mouvement de contestation ?
Le propre
des algorithmes de Facebook c’est « qui se ressemble
s’assemble ». Ils vont donc mettre en avant les thématiques et les positions
qui correspondent à celles qui vont intéresser. On n’est donc pas dans le
pluralisme des informations, mais beaucoup plus dans un tunnel ou un entonnoir.
Facebook va renforcer l’opinion que l’on a déjà.
Comment ça se passe concrètement
?
Ça passe
par le fil d’actualité de Facebook, qui va faire
remonter les informations qui vont renforcer mes convictions existantes. Comme
ma conviction est partagée par des gens qui sont dans le même réseau que moi, Facebook ne va pas m’aider à forger une opinion mais au
contraire à conforter mon opinion.
Est-il possible d’utiliser
l’algorithme pour manipuler l’opinion ?
On sait
que c’est possible, puisqu’on a vu durant les dernières élections américaines
qu’il y a une stratégie qui a été mise en place par une société nommée
Cambridge Analytica. Cette société est partie du
principe que l’opinion va être transformée non pas par un média ou un vecteur
d’information, mais par quelqu’un qui me ressemble qui a une opinion qui touche
une corde sensible et me fait basculer dans une autre opinion. Sur Facebook, c’est donc une stratégie de communication de
pair-à-pair plus qu’une stratégie de communication de « leader d’opinion ».
Comment Facebook
peut savoir que je suis contre le gouvernement, par exemple ?
Il y a une
analyse sémantique. L’algorithme analyse les termes de la publication et peut
tout de suite repérer si sa tonalité est positive ou négative par rapport au
sujet qu’il traite.
Quelles sont les publications
qui ont droit à la plus grande traction par Facebook
?
Les
messages négatifs attirent et ont beaucoup d’audience. C’est lié à la psyché
humaine, on est beaucoup plus réactif à ce qui peut être un danger pour nous
qu’à quelque chose qui fonctionne bien. Notre survie en tant qu’espèce est de pouvoir
identifier ce qui serait dangereux. Les messages négatifs ont par conséquent
beaucoup plus de portée que des messages positifs.
Le « non » attirerait plus que
le « oui » ?
Exactement,
surtout lorsque la culture du « non » n’est pas très développée. L’information
aura beaucoup plus de portée et aura un engagement émotionnel plus important.
Comment identifier le fait
qu’on soit manipulé ?
C’est très
difficile. Après le scandale américain, Facebook
essaie d’être plus regardant sur qui sont des vrais comptes ou de faux comptes.
Les comptes appartiennent-ils bien à des personnes physiques, ou sont-ils des
comptes fictifs ? Cambridge Analytica avait créé des
comptes fictifs, de faux pairs, qui exprimaient des idées différentes dans des
groupes où ils s’intégraient et poussaient les gens à se dire « si mon voisin
pense comme ça, pourquoi je ne penserais pas comme ça ».
Ce sont
quelques éléments placés qui créent un effet boule de neige. Maintenant la
grande question est de savoir à partir de quel pourcentage d’opposants
l’opinion peut basculer. Car dans une structuration d’opinions il y a des
personnes qui sont pour telle conviction, d’autres pour telle autre conviction,
et des indécis qui constituent en général la majorité. Tout l’enjeu est de
faire basculer les indécis.
A l’échelle individuelle,
comment s’apercevoir qu’un mouvement est manipulé ?
C’est très
difficile de le percevoir. Si les messages sont très stéréotypés, toujours les
mêmes messages qui apparaissent, les mêmes visuels… Alors si c’est un visuel
qui a circulé, il n’y a pas de souci, mais si un logo se répète partout, cela
veut dire qu’il peut y avoir un groupe qui a tendance à pousser ce logo. En
France par exemple, le mouvement des Gilets jaunes est né sur les réseaux
sociaux avant de descendre dans la rue. C’est notamment Facebook
qui a permis au mouvement de se structurer, de pouvoir créer une sociabilité
entre des personnes qui n’étaient pas en relation au préalable.
Est-il possible de remonter à
la source pour savoir si un mouvement est spontané ou si au contraire il a subi
une manipulation ?
Il existe un certain nombre de
plateformes qui permettent d’analyser et de comprendre où a démarré un
mouvement, sur quel contenu ça a démarré, quels sont les sujets qui ont été
porteurs, et qui a poussé les sujets. Il est techniquement possible de savoir
d’où ça vient, à quel moment c’est arrivé, comment ça s’est développé et
comment ça risque d’évoluer.