Accueil > Non classé > Internet : les algorithmes du puritanisme

Internet : les algorithmes du puritanisme

7 septembre 2013

Evgeny Morozov, l’auteur de Net Delusion (qui prépare un livre intitulé Pour tout sauver, cliquez ici : la folie du solutionnisme technologique) a publié une intéressante tribune sur le site du New York Times intitulée « Vous ne pouvez pas dire ça sur l’internet ». [1]

Il y explique que l’hyper-tolérance née de la contre-culture de la Silicon Valley masque souvent une façade bien plus conservatrice. Les normes pudibondes de la Valley s’imposent discrètement sur des milliards d’utilisateurs du monde entier.

Le véhicule de cette nouvelle pudibonderie repose dans les algorithmes qui « déterminent automatiquement les limites de ce qui est culturellement acceptable ». Et Morozov de dresser une liste d’exemples. En septembre 2012, le New Yorker a vu sa page Facebook bloquée pour avoir enfreint les conditions générales d’utilisation qui précisent que les photos dénudées ne sont pas autorisées (sauf si les parties génitales et les seins sont cachés – Gawker a publié en février la charte de modération de Facebook confiée à un prestataire extérieur, oDesk). Le délit du New Yorker : une illustration montrant les seins d’Eve dans le jardin d’Eden. La vénérable publication américaine est donc moins puritaine qu’une start-up californienne qui a pour ambition de « rendre le monde plus ouvert ».

De nombreuses sociétés pratiquent pour le compte de tiers ces formes de modération automatiques comme Impermium, une start-up de la Silicon Valley qui aide les sites web a identifier les contenus indésirables comme la violence, le racisme, le blasphème, les discours de haine… « Impermium contrôle les lecteurs » clame sa baseline… « Mais qui contrôlera Impermium ? », ironise Morozov. Apple s’est également souvent écarté de ses racines iconoclastes, rappelle le chercheur. Le dernier livre de Naomi Wolf, Vagin, une nouvelle biographie a vu son titre transformé par l’iBookstore en V***n et il a fallu de nombreuses plaintes pour qu’Apple rétablisse le titre original.

La prolifération de la fonction de saisie semi-automatique sur les sites web les plus populaires en est un autre exemple (« Les résultats qui s’autocomplètent dans les moteurs de recherche soulignent le caractère privé des conversations que les gens croient avoir leurs ordinateurs » rappelait récemment Sean Gourley du moteur de recherche Quid dans un article du New York Times). En théorie, tout ce que fait la saisie automatique est de compléter votre requête avant que vous ayez fini de la taper en utilisant un algorithme pour prédire ce que vous allez inscrire. Une fonctionnalité intéressante, mais qui renforce elle aussi ce qui est convenable. Et Morozov d’utiliser les « 7 mots que vous ne pouvez pas dire à la télévision », la liste des mots interdits que l’humoriste américain George Carlin a listé dans un sketch dès les années 70. Aucun de ces mots n’apparaît en saisie automatique sur la plupart des plus grands sites web de l’internet…

En 2010, le magazine hacker 2600 a publié une liste noire de termes que Google n’identifie volontairement pas. Google ne propose pas de saisie automatique pour « Croix gammée  » ou « Lolita ». A croire que Nabokov n’est pas tendance à Moutain View, ironise Morozov, car pour l’instant, l’algorithme ne sait pas distinguer l’amateur du roman de Nabokov de la pornographie infantile.

« Pourquoi les entreprises de haute technologie ne nous permettent-elles pas d’utiliser librement des termes qui jouissent déjà d’une large diffusion et légitimité ? Pensent-ils être les nouveaux gardiens ?
Grâce à la Silicon Valley, notre vie publique est en pleine transformation. Accompagnant cette métamorphose numérique il émerge de nouveaux gardiens, algorithmiques, qui (encore plus que) les gardiens de l’époque précédente – journalistes, éditeurs, rédacteurs en chef – ne cachent pas leur autorité culturelle. Peut-être ne sont-ils pas même conscients de cela, trop désireux de déployer des algorithmes pour le fun et le profit.

Comment enseigner l’idée du « fair use » (l’usage acceptable) à un algorithme ? On sait que le contexte est important, et qu’il ne peut y avoir de livre de règles : c’est pourquoi nous avons des tribunaux, rappelle Morozov.

Nos réputations sont de plus en plus à la merci des algorithmes. Bettina Wulff, l’épouse de l’ancien président de la République fédérale d’Allemagne, a porté plainte contre Google qui automatiquement suggérait quand on tapait son nom dans le moteur de recherche des mots comme « escorte  » ou « prostituée ». Google s’est défendu en expliquant que les termes suggérés n’étaient que « le résultat généré algorithmiquement par des facteurs objectifs, incluant la popularité des termes de recherche saisis ».

La défense de Google pourrait être tenable si ses propres algorithmes n’étaient pas si faciles à tromper. En 2010, l’expert en marketing Brent Payne a payé une armée d’assistants pour effectuer des recherches avec les termes « Brent Payne manipule cela ». Rapidement, ceux qui commençaient à taper « Brent P » dans Google voyaient cette expression suggérée par la saisie semi-automatique. Après que M. Payne ait raconté publiquement cette expérience, Google a retiré cette suggestion, « mais combien de cas similaires ont-ils été détectés ?

« La pudibonderie étrange, l’application excessive du droit d’auteur » (le Copyright Madness) « créent d’inutiles dommages à notre réputation : les fonctions de gardiens algorithmiques prélèvent un lourd tribut à nos vies publiques. Au lieu de traiter les algorithmes comme un élément naturel, comme le reflet objectif de la réalité, nous sommes conduits à examiner et démonter attentivement chaque ligne de code. »
Pourrait-on faire autrement sans heurter le modèle d’affaires de la Silicon Valley ?, interroge le chercheur. Peut-être. Le monde de la finance face à un problème similaire propose une solution. Après plusieurs catastrophes causées par la finance algorithmique cette année, les autorités de Hong Kong et de l’Australie ont élaboré des propositions pour mettre en place des audits indépendants et réguliers de la conception, du développement et des modifications des systèmes informatiques utilisés dans ces opérations.

« Pourrions-nous avoir des audits pour faire la même chose à Google ? La Silicon Valley n’aurait pas à divulguer ses algorithmes propriétaires, mais seulement à les partager avec des experts. Est-ce une mesure drastique ? Peut-être. Mais cette solution n’est-elle pas proportionnelle à la force de frappe technologique croissante que ces entreprises possèdent dans le remodelage non seulement de notre économie, mais aussi de notre culture ? »

« De toute évidence, la Silicon Valley ne développera pas ni n’embrassera facilement des normes similaires. Mais, au lieu d’accepter cette nouvelle réalité comme un fait accompli, nous devons nous assurer que, tout en leur permettant de faire des profits toujours plus importants, nos gardiens algorithmiques soient contraints d’accepter l’idée que les fonctions qui définissent leur culture soient demain plus responsables. »
Jusqu’à présent, comme le montrent les exemples qu’évoque Morozov, la plupart des problèmes que les algorithmes pudibonds introduisent se résolvent plus ou moins bien. Mais peut-on continuer à accepter une gestion par l’erreur, dont la solution dépend surtout de votre capacité à mobiliser une audience suffisamment forte pour que les géants du net s’en préoccupent ? On voit bien que ce n’est pas une solution, à tout le moins que ce n’est pas une solution très égalitaire.

Tarleton Gillespie ne disait pas autre chose quand il évoquait ces algorithmes qui nous gouvernent et sur lesquels nous n’avons pas prise. Daniel Engber pour Slate revenait récemment sur la formule « corrélation n’est pas causalité », montrant que le succès actuel de cette acception (née sous la plume d’un mathématicien de la fin du XIXe siècle) reflète combien nous sommes cernés par les corrélations. Ce slogan serait-il une manière de nous opposer aux algorithmes qui nous capturent ?

Les géants de l’internet n’offrent pas beaucoup de place aux utilisateurs dans les traitements dont nous sommes tributaires. C’est à nous de la construire pour que les algorithmes rendent du pouvoir à l’utilisateur plutôt qu’ils ne l’aliènent…

[1] Cf Hubert Guillaud
http://internetactu.blog.lemonde.fr/2012/12/07/le-pudibond-internet-qui-controlera-les-algorithmes/

Publicités
Catégories :Non classé
%d blogueurs aiment cette page :