La blogosphère tunisienne a été secouée, dans la nuit du vendredi, par une étrange affaire Facebook.
Le géant américain a en effet désactivé le comptes Facebook d'au moins une cinquantaine de personnes, dont des influenceurs, des journalistes, des membres de partis politiques, de la société civile ou encore des anonymes; et ce sans donner la moindre explication.
Sur Twitter, plusieurs de ces personnalités ont essayé en vain d'obtenir des réponses. Parmi elles, le journaliste Haythem El Mekki, l'un des visages de la révolution Skander Ben Hamda ou encore l'artiste Bendir Man.
Plein de comptes tunisiens ont été fermés par @Facebook ce soir, et pas seulement des "influenceurs". On connaît déjà les suspensions suite à des signalisations massives, mais ça ne se passe pas comme ça d'habitude.
— Haythem El Mekki (@HaythemElMekki) May 29, 2020
Là on parle d'inéligibilité et de "décision finale".
Compte Facebook personnel désactivé depuis hier soir, ma liste d’amis ne dépasse pas les 800 et mes publications ne sont pas publiques. Motif de la désactivation : inéligibilité!! #Facebook #FacebookAccountDisabled pic.twitter.com/mN6GlnVokl
— henda belkhodja (@BelkhodjaHenda) May 30, 2020
Mon compte FB a été réactivé sans explication, comme il a été désactivé sans explication. En agissant de la sorte, Facebook ne fait que perdre la confiance de ses utilisateurs.
— Sarah Ben Hamadi (@Sarah_bh) May 31, 2020
Je remercie tous ceux qui m'ont soutenue et contacté par tous les moyens pour proposer leur aide 🙏🏻
Dimanche, certains d'entre eux ont pu se reconnecter au réseau social, comme si de rien n'était, et toujours sans explications. Cette récupération des comptes peut-être mise à l'initiative de plusieurs ONG opérant pour la liberté d'expression à l'instar d'I-Watch (Facebook Trusted Partner) ou de SMEX, une organisation qui s'occupe des droits numériques sur internet dans la région MENA ou encore de Rima Sghaier, chercheuse sur la thématique technologies et droits humains.
Cependant certaines pages gérées par ces personnes n'ont pu être recouvrée. C'est le cas par exemple du journaliste Haythem El Mekki, qui a récupéré son compte personnel mais pas sa page Facebook.
Plusieurs tentatives d'explications
Face à ce tollé généré par la désactivation de ces comptes, plusieurs tentatives d'explications ont été apportées sur les réseaux sociaux, mais toutes restent, en l'absence de communication officielle de Facebook, de simples hypothèses.
La première tentative d'explication apparue évoque la nouvelle politique annoncée par le fondateur du réseau social Mark Zuckerberg, qui évoquait dès le mois de mars, la mise en place d'une politique de vérification d'identité des profils Facebook pour "être sûr que le contenu que vous voyez sur Facebook provienne de personnes réelles et non de bots informatiques ou de personnes qui cherchent à cacher leur identité", et ce après le scandale de Cambridge Analytica et l'influence présumée de la Russie sur les élections américaines de 2016.
Zuckerberg a également affirmé que "depuis 2018, Facebook a commencé à vérifier l’identité de personnes gérant des pages à grande audience. Une campagne de vérification que le réseau social a décidé d’étendre à certains profils. Ayant un important nombre d’amis et d’abonnés".
Cette politique mise en place par Facebook vise donc à lutter contre les "Fake News" à quelques mois des élections américaines prévues pour novembre 2020.
Cependant comme l'explique Rima Sghaier, cette explication est dépourvue de ce sens car cette politique de Facebook ne vise "seulement que des comptes qui gèrent des pages qui publient des annonces politiques et qui ont un large public dans le cadre d'une purge avant les prochaines élections présidentielles aux États-Unis, la Tunisie n'étant donc pas concernée".
Des profils ciblés?
De l'observation de plusieurs influenceurs sur les réseaux sociaux, cette politique de désactivation de comptes a touché une frange d'intellectuels, artistes, personnalités de la société civile ayant certains traits communs étant connus pour être des défenseurs des libertés, la plupart étant des figures écoutées de la révolution ou de la Tunisie post-révolution, et ont tendance à s'inscrire dans une opposition aux frères musulmans, dont la journaliste yéménite Tawakkol Karman, proche de la confrérie siège au conseil de surveillance du géant américain.
Selon Rima Sghaier, "non, Tawakkol Karman n'est pas responsable -cependant sa nomination considérant son affiliation aux Frères Musulmans est un autre débat important- et le 'conseil de surveillance' (Oversight Board) de Facebook n'intervient pas réellement dans de telles opérations, il a un rôle complètement différent" explique-t-elle.
Par ailleurs, en plus de ces "influenceurs" remarqués, de nombreux comptes désactivés ont touchés des comptes privés de personnalités lambda avec une faible viralité. Cela pourrait s'expliquer par l'utilisation de mots clés repérés par Facebook comme "contraire à ses standards".
Une opacité sur les algorithmes
Un des problèmes générés par cette désactivation de comptes est la place potentiellement occupée par les algorithmes développés par Facebook. Leur opacité ne permet pas aujourd'hui de savoir ce dont ils sont capables.
De l'aveu même du géant américain, "le Machine Learning et l'Applied Machine Learning sont essentiels pour Facebook".
"Nous cherchons à faire du Machine Learning un art pour avoir un impact maximal, et nos efforts forment le lien entre la science, la recherche et les expériences Facebook" - Joaquin Quinonero Candela, Director of Applied Machine Learning chez Facebook
Se peut-il que les algorithmes de Facebook aient analysé certains contenus de ces personnalités tunisiennes dont le compte a été désactivé comme "contraire à ses standards"? Cela est possible.
En effet, Facebook a créé une intelligence artificielle, appelée DeepText qui peut comprendre des milliers de messages en une seconde dans plus de 20 langues avec une très grande précision. Grâce au Deep learning, cette intelligence artificielle va beaucoup plus loin que la simple traduction des posts: elle y inclut de nombreuses variables comme la grammaire, la tournure des phrases, les mots familiers, le dialecte et va même encore plus loin en étudiant le contexte en lien avec l'usage d'une publication.
Ce traitement automatique du langage naturel (NLP) nécessite un grand nombre de données pour éviter les biais et donc l'intervention humaine y est réduite à son strict minimum. Dans ce sens, il se peut que cette intelligence artificielle ait pu ainsi déterminer selon les publications des personnes dont le compte a été désactivé, des points communs au niveau linguistique ou comportemental que l'algorithme a jugé "contraire aux standards de la communauté".
Il faut savoir que cette intelligence artificielle évolue, seule, elle s'alimente elle-même. Ainsi, si elle décèle des points communs linguistiques ou comportementaux dans les "signalements" préalablement effectués depuis la Tunisie et qu'elle trouve des mots, des termes, des contextes qui reviennent inlassablement, celle-ci les identifiera comme des contenus contraires aux standards Facebook et pourra donc sanctionner automatiquement les profils qui ont, selon elle, commis de tels impairs.
Allons encore plus loin. Dans la partie relative à son intelligence artificielle "Deep Text", Facebook explique: "DeepText a le potentiel d'améliorer encore plus les expériences Facebook en comprenant mieux les publications pour extraire l'intention, le sentiment et les entités (par exemple, les personnes, les lieux, les événements), grâce au signalement de contenu sur les textes et les images, et en automatisant la suppression du contenu répréhensible comme le spam. De nombreuses célébrités et personnalités publiques utilisent Facebook pour entamer des conversations avec le public. Ces conversations attirent souvent des centaines voire des milliers de commentaires. Trouver les commentaires les plus pertinents dans plusieurs langues tout en maintenant la qualité des commentaires est actuellement un défi".
Algorithmocracy. It's just a reminder that we are all guests here and there. Own your personal digital space.
— sami ben gharbia (@ifikra) May 30, 2020
Et pour parvenir à rendre son intelligence artificielle plus efficiente et efficace, le réseau social doit mener des tests, comme il l'annonce lui-même. Or quoi de mieux que de mener ces tests sur des comptes Facebook d'un pays dont le langage peut-être extrêmement complexe utilisant l'arabe littéraire, le tunisien dialectal, des notions de français, anglais, italien, espagnol..., qui connait une certaine effervescence autour du réseau social et qui compte 7,3 millions de comptes pour 12 millions d'habitants, dont de nombreux sont faux ou des doubles comptes.
Comme le révèle une étude de Medianet menée en 2016, plus de 30% des utilisateurs de Facebook en Tunisie auraient plus d'un compte sur le réseau social. Rien que dans la région du grand Tunis, en février 2016, Medianet recense 3 millions 447 mille comptes Facebook pour une population estimée à 2 millions 643 mille 695 habitants.
Le flou des "standards de la communauté Facebook"
Sans donner d'explications malgré de nombreuse sollicitations, Facebook se justifie par le fait que ces comptes Facebook vont à l'encontre des "standards de la communauté", un terme générique qui renvoie à 7 chapitres, de plusieurs pages sur ce qui est "autorisé" et ce qui est "interdit" sur le réseau social.
Compte Facebook personnel désactivé depuis hier soir, ma liste d’amis ne dépasse pas les 800 et mes publications ne sont pas publiques. Motif de la désactivation : inéligibilité!! #Facebook #FacebookAccountDisabled pic.twitter.com/mN6GlnVokl
— henda belkhodja (@BelkhodjaHenda) May 30, 2020
Parmi ces 7 chapitres l'ont retrouve par exemple ce que Facebook considère comme contenu violent avec une mise à jour effectuée le 20 mai dernier autour de la thématique "Violences et incitations", que le réseau social justifie ainsi: "Notre objectif est de prévenir les dommages potentiels qui pourraient être liés au contenu sur Facebook, en dehors du réseau social. Bien que nous comprenions que les gens expriment généralement leur dédain ou leur désaccord en menaçant ou en appelant à la violence de manière non grave, nous supprimons les posts dont le langage pourrait inciter à la violence grave. Nous supprimons le contenu, désactivons les comptes et travaillons avec les forces de l'ordre lorsque nous pensons qu'il existe un risque réel de préjudice physique ou de menaces directes pour la sécurité publique. Nous essayons également de considérer le langage et le contexte afin de distinguer les déclarations occasionnelles du contenu qui constitue une menace crédible pour la sécurité publique ou personnelle. Pour déterminer si une menace est crédible, nous pouvons également prendre en compte des informations supplémentaires telles que la visibilité publique d'une personne et les risques pour sa sécurité physique".
Le réseau social y met un ensemble de "comportements" interdits sous peine de voir son compte désactivé. L'on retrouve par exemple des termes génériques comme les "déclarations prônant la violence", les "déclarations conditionnelles de commissions d'actes de violences", "tout contenu créé dans le but exprès d'extraire un individu en tant que membre d'un groupe, le soumettant ainsi à un risque désigné et reconnaissable" ou "la désinformation et les rumeurs invérifiables contribuant au risque de violence imminente ou d'atteinte à l'intégrité physique", ou encore tout contenu qui promeut la vente, l'achat, l'offre gratuite ou la donation de drogues, d'alcool ou de tabac.
L'on retrouve également une rubrique complète destinée à "l'intégrité et à l'authenticité des contenus publiés", régulant notamment les fake news, les spams, qui interdit le fait "d'utiliser de faux comptes, d'augmenter artificiellement la popularité du contenu ou d'adopter des comportements conçus pour permettre d'autres violations" ou encore "d'avoir un comportement inauthentique (...) pour induire en erreur des personnes ou Facebook: sur l'identité, le but ou l'origine de l'entité qu'ils représentent, sur la popularité du contenu publié sur Facebook ou Instagram (...) sur la source ou l'origine du contenu".
Autant de termes et d'interdits tellement larges et flous, qui réellement appliqués, ne laisseraient plus grand monde actif sur le réseau social. Par exemple, qui serait capable de définir un "comportement inauthentique"? En effet, cela serait très difficile à prouver. Et si ces termes peuvent être interprétés de différentes manières par un cerveau humain capable de juger au cas par cas, alors que dire d'une intelligence artificielle incapable de le faire. Par exemple, celle-ci est-elle réellement capable de "prédire" le contexte dans lequel une phrase a été formulée? Est-elle réellement capable de reconnaitre une phrase menaçante d'une phrase écrite sur le ton de la rigolade? Comment peut-elle juger de l'intentionnalité d'un propos?
Dans le même ordre d'idée, un chroniqueur qui travaille pour une entité médiatique en tant que "sniper" et dont le métier est d'égratigner des personnalités politiques, qui publie des statuts dans ce sens sur sa page Facebook en plus des vidéos du média pour lequel il travaille, va-t-il à l'encontre du "but de l'entité qu'il représente", à savoir la radio, qui est supposée selon les standards du réseau social fournir "une information authentique"? Et d'ailleurs comment l'intelligence artificielle décide-t-elle que l'entité qu'il représente est belle et bien "la radio" et non sa "propre personne", son libre jugement, son libre arbitre?
Autant de questions auxquelles le réseau social n'a pour l'instant pas répondu. Un flou entoure toujours cette décision de désactivation de comptes de personnalités tunisiennes sur Facebook, qui tendrait à démontrer que si une intelligence artificielle est à l'origine de telles décisions, nous allons lentement et sûrement vers une monde aseptisé où la machine dictera son comportement à l'être humain et où l'esprit critique, le libre arbitre, l'interprétation, la liberté de ton, les sentiments, seront désormais cloués au pilori par...un robot incapable d'émotions.