Article original datant du 04/10/21
NDLR : Cette traduction vient de CBS et de 60 Minutes. Il s’agit de médias mainstream. Il y a fort probablement un lien entre cette information et la panne de Facebook, Instagram et WhatsApp parce que les 3 appartiennent à Zuckerberg et il est concerné. Cela dit, n’oublions pas que l’état profond veut maintenant faire tomber les réseaux sociaux car ils sont en train de perdre la guerre de l’information et les révélations et arrestations sont imminentes.
Une étude interne de Facebook obtenue par 60 Minutes a déclaré : « L’ensemble actuel d’incitations financières que nos algorithmes créent ne semble pas être aligné avec notre mission. »
Frances Haugen a passé 15 ans à travailler pour certaines des plus grandes entreprises de médias sociaux au monde, notamment Google, Pinterest et, jusqu’en mai, Facebook.
Haugen a quitté Facebook de son propre chef et est partie avec des milliers de pages de recherches et de communications internes qu’elle a partagées avec la Securities and Exchange Commission. 60 Minutes a obtenu ces documents d’une source du Congrès.
Dimanche, lors de sa première interview, Mme Haugen a parlé au correspondant de 60 Minutes, Scott Pelley, de ce qu’elle a appelé les problèmes « systémiques » de l’algorithme de classement de la plateforme, qui ont conduit à l’amplification du « contenu en colère » et de la discorde. Les recherches internes de l’entreprise en sont la preuve, a-t-elle dit.
« La mission de Facebook est de connecter les gens dans le monde entier », a déclaré Haugen. « Quand vous avez un système dont vous savez qu’il peut être piraté avec colère, il est plus facile de provoquer la colère des gens. Et les éditeurs se disent : ‘Oh, si je fais plus de contenu en colère, polarisant, divisant, je gagne plus d’argent’. Facebook a mis en place un système d’incitations qui éloigne les gens les uns des autres. »
Mme Haugen a déclaré que Facebook a modifié son algorithme en 2018 pour promouvoir « ce qu’il appelle des interactions sociales significatives » par le biais de « classements basés sur l’engagement. » Elle a expliqué que le contenu qui suscite l’attention et la participation – comme les réactions, les commentaires et les partages – obtient une plus grande diffusion.
Haugen a déclaré que certaines des propres recherches de Facebook ont révélé que le « contenu en colère » est plus susceptible de recevoir attention et participation, ce dont les producteurs de contenu et les partis politiques sont conscients.
L’une des informations les plus choquantes que j’ai obtenues de Facebook et qui, selon moi, est essentielle à cette divulgation, est que les partis politiques ont été cités, dans les propres recherches de Facebook, disant : « Nous savons que vous avez changé la façon dont vous sélectionnez le contenu qui va dans le flux d’accueil », a déclaré Haugen. « Et maintenant, si nous ne publions pas de contenu en colère, haineux, polarisant, qui divise, c’est le silence. Nous n’obtenons rien. Et nous n’aimons pas ça. Nous savons que les personnes avec lesquelles nous interagissons n’aiment pas ça. Mais si nous ne faisons pas ces histoires, nous n’avons pas de visibilité. Avant, nous en faisions très peu, et maintenant nous devons en faire beaucoup, parce que nous avons du travail à faire. Et si nous n’obtenons pas de trafic, d’attention et de participation, nous perdrons nos emplois. «
Facebook a refusé une interview devant la caméra de 60 Minutes. La société a déclaré à 60 Minutes qu’elle avait mené des recherches internes et externes avant de modifier son algorithme.
« L’objectif du changement de classement des interactions sociales significatives est dans le nom : améliorer l’expérience des gens en donnant la priorité aux publications qui inspirent des interactions, en particulier des conversations, entre la famille et les amis — ce qui, selon les recherches, est meilleur pour le bien-être des gens — et en privant de priorité le contenu public », a déclaré Lena Pietsch, directrice de la communication politique de Facebook, dans une déclaration à 60 Minutes. « La recherche montre également que la polarisation a augmenté aux États-Unis pendant des décennies, bien avant que des plateformes comme Facebook n’existent, et qu’elle diminue dans d’autres pays où l’utilisation d’Internet et de Facebook a augmenté. Nous avons notre rôle à jouer et nous continuerons à apporter des changements conformes à l’objectif de rendre l’expérience des gens plus significative, mais blâmer Facebook ignore les causes plus profondes de ces problèmes – et la recherche. »
L’entreprise a déclaré qu’elle continuait à apporter des modifications à sa plateforme dans le but de « rendre l’expérience des gens plus significative » et qu’elle menait « de nouveaux tests pour réduire le contenu politique sur Facebook en fonction des recherches et des commentaires. »
Quant à Haugen, cette « data scientist » de 37 ans, titulaire d’un MBA (Une maîtrise en administration des affaires) de Harvard, doit témoigner devant le Congrès cette semaine.
L’IMPACT ÉTRANGER DE FACEBOOK
Facebook est l’une des plus grandes plateformes internet au monde. Elle compte 2,8 milliards d’utilisateurs dans le monde, ce qui représente environ 60 % des personnes connectées à Internet sur terre.
Malgré sa portée massive, Frances Haugen, ancienne employée devenue lanceuse d’alerte, a déclaré à l’émission 60 Minutes que la société n’offrait pas les mêmes systèmes de sécurité pour chaque langue de la plateforme ou pays où Facebook est utilisé.
« Il est vraiment important de se rappeler que Facebook gagne des sommes différentes pour chaque pays du monde », a déclaré Mme Haugen. « Chaque fois que Facebook s’étend à une nouvelle de ces zones linguistiques, cela coûte autant, sinon plus, de faire les systèmes de sécurité pour cette langue que pour l’anglais ou le français, n’est-ce pas. Parce que chaque nouvelle langue coûte plus d’argent, mais il y a de moins en moins de clients. Et donc, l’économie n’a tout simplement pas de sens pour Facebook d’être sûr dans beaucoup de ces parties du monde ».
Facebook a déclaré à 60 Minutes qu’il travaille avec 80 vérificateurs de faits tiers indépendants qui examinent le contenu dans 60 langues.
« L’hébergement de contenu haineux ou nuisible est mauvais pour notre communauté, mauvais pour les annonceurs et, en fin de compte, mauvais pour notre entreprise », a déclaré Pietsch de Facebook. « Notre incitation est d’offrir une expérience sûre et positive aux milliards de personnes qui utilisent Facebook. C’est pourquoi nous avons investi si lourdement dans la sûreté et la sécurité. »
LA DÉSINFORMATION ET LES CONTENUS HAINEUX
En août, Facebook a vanté sa réglementation de la désinformation et des discours de haine liés au COVID-19. L’entreprise a publié un rapport public indiquant qu’elle avait supprimé 3 000 comptes, pages et groupes pour avoir violé ses règles de diffusion de fausses informations liées au COVID-19. Facebook a également déclaré avoir supprimé de sa plateforme 20 millions d’informations erronées sur le COVID-19 et que la suppression des contenus haineux a été multipliée par 15 depuis que l’entreprise a commencé à les signaler.
Frances Haugen, ancienne employée, estime que Facebook ne dit pas tout dans ses rapports de transparence.
« Nous n’avons pas de mécanismes de transparence indépendants qui nous permettent de voir ce que Facebook fait en interne », a déclaré Mme Haugen à Scott Pelley. « Et nous avons vu dans des choses comme le rapport d’application communautaire que lorsque Facebook est autorisé à créer ses propres devoirs, il choisit des paramètres qui sont à son avantage. Et la conséquence est qu’ils peuvent dire que nous recevons 94% des discours de haine, puis leurs documents internes disent que nous recevons 3 à 5% des discours de haine. Nous ne pouvons pas arbitrer cela ».
Dans une déclaration à 60 Minutes, Facebook a déclaré qu’il avait consacré des ressources importantes pour assurer la sécurité des personnes. L’entreprise affirme que 40 000 personnes travaillent à la sûreté et à la sécurité, et qu’elle a investi 13 milliards de dollars dans ces mesures au cours des six dernières années.
« Nous avons beaucoup investi dans le personnel et la technologie pour assurer la sécurité de notre plateforme, et nous avons fait de la lutte contre la désinformation et de la fourniture d’informations faisant autorité une priorité », a déclaré M. Pietsch de Facebook à 60 Minutes. « Si une recherche avait identifié une solution exacte à ces défis complexes, l’industrie technologique, les gouvernements et la société les auraient résolus depuis longtemps. Nous avons de solides antécédents en matière d’utilisation de nos recherches – ainsi que des recherches externes et une collaboration étroite avec des experts et des organisations – pour informer les changements apportés à nos applications. »
HAUGEN : FACEBOOK DOIT SE DÉCLARER EN « FAILLITE MORALE ».
Avant de quitter Facebook, Frances Haugen travaillait au sein de l’unité « Intégrité civique » de la plateforme de réseau sociaux, dont la mission était, selon elle, de s’assurer que l’entreprise était « une bonne force dans la société ».
Frances Haugen a décrit son travail au sein d’une équipe de contre-espionnage en sous-effectif chargée de lutter contre les acteurs étrangers utilisant la plateforme à des fins malveillantes.
« Notre équipe, à tout moment, ne pouvait travailler que sur un tiers des cas que nous avions », a déclaré Haugen à 60 Minutes. « Un tiers d’entre eux. Nous devions littéralement nous asseoir, faire une liste et nous demander : « Qui allons-nous réellement protéger ? ». Et il n’y a aucune raison pour laquelle nous devions faire ça. Nous aurions pu avoir, vous savez, deux, trois, dix fois plus de personnes. Et nous n’avons intentionnellement pas construit de systèmes de détection parce que nous ne pouvions déjà pas gérer les cas que nous avions. »
Facebook a déclaré à 60 Minutes qu’il s’améliore constamment dans la recherche et la suppression des discours haineux. » L’entreprise a déclaré que les discours haineux représentent 5 vues pour 10 000 sur la plateforme. Facebook a déclaré que la prévalence des discours haineux a chuté de 50% au cours des trois derniers trimestres.
« Chaque jour, nos équipes doivent trouver un équilibre entre la protection du droit de milliards de personnes à s’exprimer ouvertement et la nécessité de faire de notre plateforme un endroit sûr et positif », a déclaré M. Pietsch de Facebook. « Nous continuons à apporter des améliorations significatives pour lutter contre la propagation de la désinformation et des contenus préjudiciables. Laisser entendre que nous encourageons les mauvais contenus et que nous ne faisons rien n’est tout simplement pas vrai. »
Haugen a déclaré qu’elle pense que le géant des réseau sociaux devrait déclarer une « faillite morale » et se mettre à niveau avec le public sur ses échecs passés.
« La raison pour laquelle je parle est que Facebook a connu des difficultés », a déclaré Frances Haugen à 60 Minutes. « Ils ont caché des informations… Et nous ne devons pas résoudre les problèmes seuls, nous devons les résoudre ensemble. Et c’est pourquoi j’ai décidé de parler. »