Annuaire de l’accompagnement au numérique libre

Gavy
, 23/09/2020 | Source : Framalibre

Catégorie : S'entourer - Tags : annuaire, accompagnement, numérique libre, médiation numérique, intervenant, formateur, médiateur numérique

Cet annuaire recense 293 personnes et structures, bénévoles ou professionnelles, proposant des accompagnement au numérique libre :

  • Ateliers pratiques,
  • Conférences, débats, tables-rondes,
  • Conseils, accompagnement personnalisés,
  • Cours particuliers,
  • Dépannage,
  • Formations professionnelles,
  • Stands.

L'annuaire propose pour chaque personne ou structure une fiche avec ses données de contact, le(s) public(s) visé(s), le(s) type(s) et le(s) domaine(s) d'accompagnement(s) et la zone d'intervention.

Plusieurs index sont proposés pour permettre un accès facile selon les besoins : alphabétique, par type de public, par domaine, par format et par zone d'intervention.

A noter que seuls les personnes et structures ayant répondu à l'appel de Framasoft en octobre 2019 figurent dans l'annuaire.

Les données brutes sont proposées afin de permettre une réutilisation.

Lien officiel

Réunion du groupe de travail Sensibilisation de l'April jeudi 24 septembre 2020 à 17 h 30 (accueil à 17 h 15) à distance

ivanni
, 23/09/2020 | Source : APRIL (Actualités)

24 Septembre 2020 - 17:15
24 Septembre 2020 - 19:30

Logo du groupe de travail Sensibilisation de l'April

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 24 septembre 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Image du Jeu du Gnou

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

La loi Avia revient par la porte de l’UE

arthur
, 22/09/2020 | Source : La Quadrature du Net

Le 25 juin, une semaine après que la loi Avia a été sévèrement censurée par le Conseil constitutionnel, le gouvernement français a demandé à la Commission européenne de faire adopter au niveau européen ce que la Constitution l’empêchait d’adopter en France.

Contre la « haine »

Le gouvernement français demande une nouvelle loi européenne pour « contraindre les plateformes à retirer promptement les contenus manifestement illicites » via « des obligations de moyens sous le contrôle d’un régulateur indépendant qui définirait des recommandations contraignantes relatives à ces obligations et sanctionnerait les éventuels manquements ». Cette demande est le strict reflet de la loi Avia : son délai de 24h, ses pleins pouvoirs donnés au CSA. La France demande de faire censurer « non seulement les contenus illicites, mais aussi d’autres types de contenus tels que les contenus préjudiciables non illicites […] par exemple, les contenus pornographiques [ou] les contenus de désinformation ».

Cette demande intervient dans le cadre du débat législatif à venir sur le Digital Service Act dont vous nous parlions il y a peu : cet futur texte européen pourrait permettre à la France d’imposer au niveau européen une censure qu’elle a échoué à faire adopter au niveau national. Cette séquence législative ne débutera néanmoins pas immédiatement et ne portera que sur une partie de la loi Avia – la partie qui prétendait lutter contre les « contenus haineux ».

Contre le « terrorisme »

Il ne faut pas oublier que la loi Avia prévoyait dans une seconde partie, à côté de celle prévue pour les contenus haineux, un autre type de censure, plus grave encore : confier à la police le pouvoir de censurer en une heure tout contenu qu’elle qualifierait seule – sans juge – de terroriste. Comme nous l’avons déjà expliqué, nous y voyons le risque d’un large dévoiement contre les opposants politiques du gouvernement. Heureusement, en juin dernier, le Conseil constitutionnel n’a pas hésité à censurer un pouvoir si dangereux. Là encore, ce que Macron n’a pu imposer en France, il tente de l’imposer par la porte de l’UE. Et il le fait avec bien plus d’empressement que pour la censure en matière de lutte contre la « haine ».

Depuis deux ans déjà, le gouvernement défend un règlement de « lutte contre les contenus terroristes » pour imposer cette censure en une heure et sans juge, partout dans l’UE. Néanmoins, cette idée rencontre, en Europe aussi, de nombreuses oppositions (voir notre bilan des débats au Parlement européen), de sorte que le texte était en train de s’embourber depuis des mois dans des négociations indécises entre le Parlement européen et les États membres. Toutefois, après sa défaite au Conseil constitutionnel, le gouvernement français est revenu de plus bel : ce règlement pourrait bien être sa dernière carte à jouer pour placer sa police en contrôleur du Web français et européen.

Nous opposerons contre ce projet la même force que nous avons déjà déployée, et ce autant de fois qu’il le faudra.

« Libre à vous ! » diffusée mardi 22 septembre 2020 sur radio Cause Commune

fcouchet
, 22/09/2020 | Source : APRIL (Actualités)

Au programme de l'émission : collectivités et logiciel libre avec Claudine Chassagne adjointe au Maire de la commune de Saint Martin d'Uriage ; chronique de Noémie Bergez, avocate au cabinet Dune, sur l'invalidation du « Privacy shield » ; chronique de Jean-Christophe Becquet, vice-président de l'April, sur Sésamath et les ressources pédagogiques sous licence libre.

Libre à vous !, l'émission pour comprendre et agir avec l'April, chaque mardi de 15 h 30 à 17 h sur la radio Cause Commune (93.1 FM en Île-de-France et sur Internet).

Au programme de la 75e émission :

  • Notre sujet principal porte sur le thème des collectivités et du logiciel libre avec Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • la chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, qui portera sur l'invalidation du « Privacy shield »
  • la chronique « Pépites libres » de Jean-Christophe Becquet, vice-président de l'April, qui portera sur Sésamath et les ressources pédagogiques libres
  • diverses annonces

Podcasts des différents sujets abordés

Les podcasts seront disponibles après la diffusion de l'émission (quelques jours après en général).

N'hésitez pas à nous faire des retours sur le contenu de nos émissions pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat). Vous pouvez nous laisser un message sur le répondeur de la radio en appelant le 09 72 51 55 46

Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • Jean-Christophe Becquet, vice-président de l'April
  • Noémie Bergez, avocate au cabinet Dune
  • Patrick Creusot, bénévole à l'April (à la régie)

Galerie photos

Vous pouvez voir quelques photos prises pendant l'émission.

Références pour la chronique de Noémie Bergez

Références pour la partie sur collectivités et logiciel libre

Références pour la chronique de Jean-Christophe Becquet

Références pour la partie sur les annonces diverses

Pauses musicales

Les références pour les pauses musicales :

Licences de diffusion, réutilisation

Les podcasts sont diffusés selon les termes d’au moins une des licences suivantes : licence Art libre version 1.3 ou ultérieure, licence Creative Commons By Sa version 2.0 ou ultérieure et licence GNU FDL version 1.3 ou ultérieure. Les musiques sont diffusées sous leur propre licence.

Surveillance numérique ; état des lieux - Radio Agora - Nanterre

mmorandi
, 22/09/2020 | Source : APRIL (Actualités)


Direction logiciels libres

Titre : Surveillance numérique ; émission 1 : état des lieux
Intervenant·e·s : Audric Gueidan - Adèle Frantz
Lieu : Adèle surveille - Radio Agora - Nanterre, la wikiradio des initiatives citoyennes
Date : 16 juillet 2020
Durée : 40 min 52
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Direction libre, Open-DSI - Licence Creative Commons Attribution 3.0 non transposé
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

En compagnie d'Audric, médiateur informatique, Adèle s'interroge sur notre relation aux outils numériques. Dans quelles mesures représentent-ils un risque pour notre vie privée et nos libertés individuelles ? Pouvons-nous parler de « surveillance numérique » ?

Transcription (relu avec audio par véro)

Diverses voix off : Salut les Nanterriens.
La vie privée d’un athlète, ça se respecte même si Jean-Claude a peut-être tout essayé en matière d’aphrodisiaques et autres prothèses, en tout cas cela ne nous regarde pas.
Mon petit père, mets les cartouches dans le fusil, on lâche les chiens.
Ce n’est certainement pas à nous de divulguer les ragots comme quoi il serait homosexuel.
Tout à fait.
Cela ne nous regarde pas !

Adèle Frantzf : Deux évènements ont marqué mon confinement.
Le premier c’est quand j’ai reçu l’appel de ma vielle amie Annabelle — Salut Annabelle ! Avec Annabelle on a grandi ensemble en région PACA. Heureusement on n’a pas gardé notre accent en grandissant.

Voix off : Tu sais cet accent quand je parle tu sais d’où je viens.

Adèle Frantzf : Finalement moi j’ai préféré Nanterre et Annabelle est allée s’installer à Toulouse. Depuis, désolée Annabelle mais c’est vrai, elle a un chouille l’accent toulousain, mais bon !, on va lui pardonner.

Voix off : Traître !

Adèle Frantzf : Donc ce jour-là, en plein confinement, elle se baladait dans les rues de la ville rose avec son nouveau bébé tout neuf et son homme. Vous allez me dire mais que faisait-elle en plein confinement à flâner dans les rues avec son bébé alors qu’elle devrait être cloîtrée chez elle? Était-elle légitime d’être là ? Avait-elle rempli son autorisation ? Et le bébé avait-il une autorisation ? Ah ! Les Françaises sont quand même vraiment indisciplinées… Stop ! Déjà on se calme, je n’ai pas dit qu’elle flânait et puis la raison de son déplacement, cela ne nous regarde pas !
Toujours est-il qu’Annabelle a levé la tête quand elle a entendu une voix métallique voler au-dessus d’elle. C’était un joli drôle de drone qui flottait à quelques mètres de leurs têtes en susurrant : « Police nationale. Veuillez respecter les distances de sécurité ». Elle s’effraya d’abord « c’est quoi ce truc de taré ? », et puis elle a rigolé ensuite « c’est quoi ce truc de taré ? » Elle tourne la tête et voit un policier au coin de la rue faire son geek avec la manette, « mais c’est quoi ce truc de taré ? »
Et puis elle a oscillé comme ça un temps, entre le rire et l’angoisse.
Le deuxième évènement marquant de mon confinement c’est quand j’ai appris qu’une femme avait été mise en garde à vue non pas pour voir un clitoris mais pour avoir affiché une banderole sur la façade de sa maison avec écrit « Macronavirus, à quand la fin ? ». Dénoncée par un voisin ou tout simplement arrêtée après le passage d’une brigade, dans tous les cas l’ironie créative n’a pas plu. Ferme ta gueule, détour case prison, pan pan fessée, rentre au terrier. Confinée, oui, mais sois sage et n’insulte pas celui qui, à priori, est encore ton souverain auquel tu dois allégeance.

Ces deux drôles de drames m’ont fait l’effet d’une bombe.
Le premier me projeta directement dans 10/15 ans, quand le bébé d’Annabelle aura été biberonné aux bruits généralisés d’insectes robotisés et leurs gueules de mouches aux gros yeux voltant, furetant la moindre info, soumettant la populace au couvre-feu, surveillant les faits et gestes des révolutionnaires en herbes folles. Un temps où l’on deviendra mélancoliques du temps où le ciel était juste le ciel avec des nuages ou du bleu, peuplé de chants d’oiseaux, et le film La guerre des mondes nous semblera naïf et grotesque. Alors je prendrai le maquis, enfin, s’il reste des arbres, et je couperai le canon de la carabine du grand-père. Je jouis déjà à l’idée de tirer sur les drones avec mes balles de plomb et de les voir s’écraser au sol comme un amas vulgaire de fils et de vis. Je les finirai à coups de bâtons et je pendrai la micro-caméra encore à moitié opérante sous les yeux ronds de la Technopolice à l’autre bout. Oui, vous ne le saviez pas mais ça s’appelle la Technopolice, celle qui reste derrière les caméras de surveillance à Nice, caméras inutiles, caméras qui ont eu au moins l’avantage de faire de magnifiques images d’archives des attentats du 14 juillet. C’est l’Ina qui va être content. Mon bâton dans les mains et le drone tout penaud devant moi je dirai à la Technopolice [inaudible], avant de l’écraser lentement avec mon talon à la manière de Clint Eastwood avec sa cigarette. J’ai dit maquis, j’ai dit carabine, j’ai dit grand-père, Clint Eastwood, mais soyons clairs, je n’ai aucune mélancolie pour l’ancien temps.
Vous voyez, le coup de la banderole « Macronavirus », elle, me rappelle une surveillance à l’ancienne, celle de la Stasi. Le monde des croix gammées sur les murs, le monde sur écoute de La Liste de Schindler, le monde de la machine à écrire. « Macronavirus, à quand la fin ? » Les chiens de garde, depuis quelques années, n’ont même plus la décence de nous laisser l’illusion qu’on peut encore rire, critiquer et penser impunément. Mais bon ! Ça ce n’est pas nouveau.
Oui. La surveillance de masse du futur sera technologique. Je dirais même numérique, digitale.

Voix off : Vous parlez d’Internet, mais Internet c’est magique enfin ! C‘est la vie, c’est la libération, c‘est le cloud et tout ça. Je peux « zoomer » avec mes petits-enfants, je peux envoyer une photo de mes fraisiers à ma copine Germaine pour lui montrer que les miens sont mieux coupés.

Adèle Frantzf : Évidemment, une invention incroyable, ça dépend toujours dans quelles mains elle tombe. Parlez-en à feu Marie Curie qui n’aura pas vraiment idée de ce que les habitants d’Hiroshima subiront à la suite de sa découverte.
Donc le monde n’a pas attendu Internet pour surveiller et contrôler les plus réfractaires aux règles, mais cet outil apparaît comme l’outil idéal de surveillance de masse.
Oui, parce qu’il y a une entité qui me connaît mieux qu’un drone, mieux que mon voisin, mieux que la police, une entité qui sait que j’ai tapé « remèdes naturels contre les hémorroïdes » le 17 mai 2018 à 21 heures 18, même moi je ne m’en souvenais plus ! L’entité dont on parle, celle qui me connaît que moi, ce n’est pas que Google. L’entité, c’est cette liste des cinq géants du numérique, les GAFAM.

Voix off : C’est quoi ? Une mutuelle ?

Adèle Frantzf : Il s’agit de Google, Amazon, Facebook, Apple, Microsoft.

Voix off : Ils ont créé Internet, ils savent tout ce que vous faites, quand vous mangez, pissez, pensez, à midi ou à 3 heures du mat. GAFAM, 1984 la nouvelle mini-série Netflix.

Adèle Frantzf : Les GAFAM, c’est joli sur le papier, c’est l’émancipation humaine, le savoir, le mélange des cultures, la communication entre les êtres, la liberté d’expression. Tout ça c’est la partie émergée de l’iceberg.

Voix off : Putain ! Merde !

Adèle Frantzf : Et quel putain d’iceberg !

Voix off : Merci. Iceberg droit devant ! Arrêtons tout !

Adèle Frantzf : Et si on plongeait ensemble dans le monde invisible de la surveillance du Net ? Pour cela, j’ai invité Audric Gueidan, grand spécialiste de la surveillance digitale. On va plonger ensemble dans un nouveau cortex. Suivez-moi.
Salut Audric.

Audric Gueidan : Bonjour Adèle.

Adèle Frantzf : Audric, il y a cinq ans, tu troquais ton ordinateur Mac contre un système d’exploitation en mode logiciel libre et tout le monde à l’époque, je me rappelle, te regardait vraiment bizarrement. Tu disais qu’on était surveillés. Même moi je me disais « il est quand même un peu parano le mec », alors que maintenant c’est comme la question de la viande. Les gens sont de plus en plus sensibilisés à cette question et toi tu passes pour un pionnier en fait, c'est la classe totale ! Et puis entre temps tu es devenu médiateur numérique. Déjà, Audric, c’est quoi ce métier un peu bizarre, médiateur numérique ?

Audric Gueidan : C’est un terme un peu fourre-tout dans lequel je mets plein de choses. Déjà le fait de faire de la médiation c’est servir d’intermédiaire entre deux ou plusieurs choses pour faciliter un transfert de connaissances, par exemple d’un individu à l’autre. Dans le cadre du numérique, en tout cas pour moi, l’objectif c’est d’accompagner un utilisateur ou plusieurs à maîtriser les différentes technologies, les enjeux, les usages, toutes ces questions de la culture du numérique, de la culture du Libre, il y a beaucoup de sensibilisation. Du coup je fais la médiation entre l’homme et la machine, entre l’usager et l’outil informatique.
Concrètement ça peut être plein de trucs. Ça peut être des cours d’informatique un peu classiques, le b.a.-ba de l’apprentissage de l’ordinateur : comment allumer une machine, comment se créer une adresse mail, envoyer un courrier, des pièces jointes, transférer des fichiers, toutes ces choses-là. Des choses un peu plus techniques : l’utilisation d’une tablette, l’intérêt d’un smartphone, les applications qu’on peut utiliser dessus, et également toute la partie sensibiliser les gens aux enjeux du logiciel libre dont on va reparler. Évidemment parler de la surveillance et de la protection des données, c’est un sujet qui m’anime depuis quelque temps. On peut également parler de robotique ou de fab labs, les fameux lieux de fabrication numérique dans lesquels les gens apprennent grâce à leurs pairs – p,a, i, r, s, pas les papas. On apprend ensemble, on s’échange des compétences, toujours avec l’idée d’accompagner les gens, le public, pour les rendre autonomes, leur permettre de mieux comprendre, de faire par eux-mêmes et de prendre des décisions, d’avoir le choix.

Adèle Frantzf : Justement, pour mieux comprendre, parce que là tu parles de surveillance, tu parles de logiciel libre, en fait c’est quoi le Libre ? Ça veut dire que nous on n’est pas libres et que toi tu es là un peu pour nous libérer ? Et pourquoi c’est aussi important pour toi cette différence entre libre et pas libre ?

Audric Gueidan : Il faut déjà définir ce qu’est un logiciel libre.
Un logiciel qui est considéré comme libre va respecter quatre libertés :

  • la liberté 0 qui est la liberté d’utiliser le logiciel pour quelque usage que ce soit ;
  • la liberté 1 c’est étudier le fonctionnement du programme et de pouvoir l’adapter à son besoin, c’est-à-dire pouvoir accéder au code source. J’accède à la recette de cuisine du logiciel ou du système ;
  • la liberté 2 c’est pouvoir redistribuer des copies à tout le monde, je peux partager mon logiciel, légalement, je n’ai aucun problème à faire ça et même les développeurs vont être plutôt contents parce que ça va leur faire de la publicité ;
  • la liberté 3 c’est la liberté d’améliorer le programme, le logiciel et de le repartager avec peut-être des modifications, des améliorations que j’aurais apportées.

Évidemment quand je parle d’adapter, de regarder le code source, ça sous-entend que je comprends un petit peu les choses, donc il faut être développeur pour faire ça. Moi je ne suis pas développeur, par contre je peux m’appuyer justement sur la communauté des développeurs, toutes les personnes qui ont ces compétences techniques. Je préfère faire confiance à une communauté qu’à une entreprise privée qui va fonctionner comme une boîte noire et dans laquelle je ne vais pas pouvoir regarder ce qui se passe.

Voix off : C’est aujourd’hui l’entreprise privée qui vaut le plus cher au monde. Dans l’après-midi, Apple a vu son action grimper et franchir des sommets. L’entreprise est aujourd’hui valorisée en bourse à plus de 1000 milliards de dollars.

Adèle Frantzf : Est-ce que tu aurais des exemples de navigateurs qui seraient libres par rapport à un navigateur pas libre, des applications qui peuvent remplacer, en fait, les usages un peu plus marchands ?

Audric Gueidan : Un navigateur qui n’est pas libre en général c’est celui qui est installé par défaut dans ta machine. Si on prend l’exemple d’un ordinateur qui tourne sur Windows, eh bien le navigateur Microsoft Edge ou, avant, Internet Explorer, qui sont les deux navigateurs de Microsoft, ne sont pas des navigateurs libres. Par contre, le navigateur libre que tu vas pouvoir installer par la suite, c’est Mozilla Firefox1. C’est une communauté qui a développé Firefox, n’importe qui peut regarder le code source, peut vérifier que le logiciel fait bien ce qu’il dit qu’il fait – c’est le principe d’audit, je peux regarder ; il ne va pas être géré par une entreprise qui va monnayer toutes les informations. Mozilla est une fondation qui gère ça. Il y a une partie fondation avec de l’argent, il y a une partie plus bénévole et les deux fonctionnent bien ensemble.
La même chose sur ton téléphone portable. Par défaut, sur un téléphone Android – les téléphones Android c’est à peu près 80 % des téléphones quand même – tu as Google Chrome, qui appartient à Google, qui est installé dessus, qui n’est absolument pas libre et qui va récupérer un paquet de données sur tout ce que tu fais, tout ce que tu regardes sur Internet.

Adèle Frantzf : Pourquoi, quand on parle de surveillance de masse, la surveillance numérique est-elle la plus redoutée ? C’est quoi les enjeux dans un État capitaliste ? C’est quoi les enjeux dans un État totalitaire ? C’est quoi les dangers, finalement ?

Audric Gueidan : D’un point de vue de l’utilisateur il n’y a pas vraiment de dangers, en fait c’est juste une technologie, c’est un outil donc ça dépend comment on s’en sert. Je peux avoir un couteau de cuisine et couper les tomates avec ou je peux aller planter ma voisine, ce ne sera pas la faute de l’outil c’est ce que j’en fais. Internet c’est un peu pareil.
Je pense qu’Internet est un outil qui fait peur aux politiciens parce que ça permet aux citoyens, au peuple, de se rassembler, de communiquer, de se mettre d’accord ensemble et parfois de manière cachée, justement, et c’est en réfléchissant en dehors de la meute qu’on va pouvoir expérimenter et proposer de nouvelles choses. Donc pouvoir faire ça à l’abri des regards c’est quelque chose qui fait peur. C’est pour ça que depuis de nombreuses années, tous les gouvernements essayent de cadrer Internet, de fixer des règles, des lois, des limites. En France, par exemple, on essaye souvent de mettre le CSA [Conseil supérieur de l'audiovisuel] dans la boucle, le CSA qui contrôle la télévision, mais Internet ce n'est pas la télévision. La télévision c’est on s’assoit sur le canapé et on regarde un flux qui nous est envoyé. On peut choisir le flux, mais c’est tout.
Internet, on est actif, on participe à ce flux. Tout le monde peut être à la fois émetteur et récepteur, donc tout le monde peut parler. C’est vraiment la mise en application de ce qu’on appelle la liberté d’expression qui, avant, était plutôt relative. Certes, depuis de nombreuses années, on sait lire et écrire, sauf que tout le monde n’a pas la capacité de diffuser son texte, d’écrire un livre et de le faire lire aux autres. Même si dans les différents journaux auxquels je peux l'envoyer au courrier des lecteurs, eh bien si ce que je dis ne plaît pas, je peux être censuré. Alors que si je le fais sur Internet, je fais mon site, mon blog, je peux le partager et du coup n’importe qui peut avoir accès à mes informations. Et ça, ça fait peur.
Ce qui fait peur aussi c’est qu’à partir du moment où il y a une information sur Internet, globalement elle ne disparaît pas. Du coup, il est possible de déterrer une information, fausse ou vraie, mais une information et de mettre un personnage public, politique, face à ses contradictions. Il y a x mois cet homme politique a dit ça sur Twitter, aujourd’hui il dit l’inverse, eh bien hop !, je peux lui ressortir ça directement, sans filtre, et je lui mets devant les yeux « vous avez dit une connerie il y a quelques x mois ». On ne va pas l’oublier comme ça.
On nous balance souvent le prétexte du piratage, de la menace terroriste ou des sites pédopornographiques pour censurer un maximum de choses. On agite un mouchoir pour dire « attention il y a ça » et, en fait, on essaye de faire passer plein de lois liberticides.
Ce qui a essayé de se passer récemment avec la loi Avia, qui a d’ailleurs été censurée finalement, une loi qui avait pour objectif de censurer de manière plus au moins automatique les contenus en ligne qui étaient haineux. Ça part d’une bonne intention, évidemment qu’il faut faire disparaître la haine d’Internet, mais on ne peut pas se baser sur des algorithmes parce qu’il y a énormément de ce qu’on appelle des faux positifs. On ne peut pas non plus donner ce pouvoir-là aux grandes plateformes, aux fameux GAFAM, parce qu’il n’y a que ces plateformes-là qui techniquement pourraient le faire, c’est-à-dire Facebook, Twitter, Google, c’est à eux qu’on donne les clefs de la justice.

Adèle Frantzf : Il y a justement une émission de Cash Investigation qui a révélé les conditions de travail des employés de prestataires de Facebook ou de Google, je ne sais plus, censés nettoyer Internet, et qui se retrouvent, pour un salaire indécent, à trier toute la journée des vidéos toutes plus violentes les unes que les autres, des décapitations, des lacérations ou bien des vidéos à caractère pornographique. Là où c’est vrai que les sociétés de nettoyage à domicile veulent, et les clients aussi, que le travail des femmes et des hommes de ménage soit invisible, c’est vrai qu’on ne se pose jamais la question du nettoyage d’Internet. C’est aussi ça qui nous permet finalement de naviguer tranquillement sans être attaqués par des images ou des vidéos à caractère très violent.
Le problème, comme tu dis, c’est que c’est la plateforme qui fixe ses propres règles et, par exemple, c’est Facebook qui va censurer des images artistiques parce qu’on voit un sein donc c’est jugé à caractère pornographique. C’est aussi Facebook aussi qui, malgré la révolte de ses employés, décide de ne pas censurer les propos d’appel à la haine d’un certain Donald Trump.

Audric Gueidan : Sur Internet, le problème c’est qu’on ne peut pas laisser les grandes plateformes décider de ce qui est légal, de ce qui ne l’est pas. Il y a déjà des choses qui sont écrites dans la loi concernant les contenus haineux, il n’y avait pas besoin de la loi Avia. Pour les faire appliquer il faut juste mettre des moyens, c’est facile à dire, dans la justice.
On nous dit souvent qu’on est anonyme sur Internet. En fait c’est très facile techniquement de remonter à la trace, à la source et de savoir. Techniquement on peut repérer qui est l’utilisateur qui se cache sous un pseudo, qui a proféré des menaces de mort concernant quelqu’un sur Twitter, et cette personne aura des problèmes. En fait, tout cela existe déjà.

Adèle Frantzf : Alors c’est quoi les données personnelles ? Est-ce que tu peux nous expliquer un peu mieux pourquoi, en fait, ça vaut de l’or tout ça ?

Audric Gueidan : Une donnée c’est un élément qui va permettre de t’identifier toi soit directement soit par recoupement, par croisement d’informations.
Des données on va dire faciles à avoir c’est ton nom, ton prénom, peut-être ton pseudo, ton âge, ton sexe, ton adresse, d’ailleurs il y a une partie de ces données-là qui sont déjà publiques parce que tu existes aux yeux de l’État, aux yeux de la loi.
Ensuite il y a beaucoup de données qui vont être récupérées en fonction de que tu fais sur Internet, en fonction des articles que tu lis, combien de temps tu passes dessus, sur quels liens tu as cliqué, qu’est-ce que tu as partagé sur les réseaux, tout ça, ça va donner une espèce de fiche d’identité numérique de toi, de tes goûts, de ton orientation politique, sexuelle ou religieuse et tout ça, ça peut se monnayer.
C’est là où les grandes plateformes, les GAFAM – Google, Apple, Facebook, Amazon, Microsoft – s’en mettent plein les poches. D’un côté ça va permettre de t’envoyer de la publicité ciblée, vu qu’on sait qui tu es on peut vraiment t’envoyer quelque chose d’hyper-personnalisé. Je veux vendre un vélo, je vais déjà pouvoir regarder dans ma base de données l’âge des utilisateurs, on va dire que je veux quelqu’un qui a entre 30 et 40 ans, qui est sportif, qui habite à côté de Nanterre. Je peux cibler comme ça, envoyer ma publicité à ces personnes-là.

Adèle Frantzf : Concrètement, je prends l’exemple des chaussures allemandes Adidas. C’est un objet connecté, qui est assez pratique parce que, finalement, il donne des mesures sur l’activité physique, savoir si vous êtes en forme, ce que vous devez faire. En fait c’est quoi les avantages de ce truc ?

Audric Gueidan : Il y a des gens qui aiment bien savoir combien de kilomètres ils ont fait, quel était le parcours et partager tout ça aussi sur les réseaux.
Après, est-ce que j’ai envie que Adidas connaisse mon adresse, connaisse mon itinéraire préféré de footing ? On peut se dire « ouais ce n’est pas grave ! » Il y a une histoire assez rigolote. Il y a quelques mois des agents, j’ai envie des agents secrets, je ne sais plus exactement quel statut ils avaient, des personnes d’une agence du gouvernement américain avaient l’habitude de faire comme ça du footing autour de leur base. En fait, ils ont été identifiés comme ça. Peut-être qu’avec tes chaussures tu as, en plus, un bracelet connecté qui va prendre ton rythme cardiaque que ton assurance aimerait bien avoir. Si on se rend compte que « tiens, madame Machin a un problème cardiaque », du coup on va peut-être lui changer son tarif. Ça pose un autre problème.

Voix off : Découvrez la nouvelle brosse à dents électrique connectée Oral-B Smart Series et l’application Oral-B spécialement conçue pour des résultats de nettoyage optimaux. L’application est déjà en route pour vous guider en temps réel et vous aider à vous brosser les dents au moins deux minutes. Grâce au guide animé des quatre zones de votre bouche, vous pouvez être sûr d’avoir brossé de manière égale toutes les parties de votre bouche. Un indicateur de pression apparaît sur l’application lorsque votre brossage est trop vigoureux.
La page défilante, en bas de l’application, fait apparaître les actualités, la météo, des conseils pour la santé bucco-dentaire, des images de la nature, vos prochains rendez-vous sur votre calendrier et bien plus encore pendant votre brossage, tout en vous permettant de recevoir vos aides de brossage et le contrôle de la pression pour une expérience de brossage complet.

Adèle Frantzf : Fatigant, non ?

Voix off : Pourquoi ne pas prendre un petit moment pour vous-même avec l’application Petit Bouddha ? Détendez-vous. Reliez-vous directement aux pulsations de votre cœur. Nous savons que parler de réchauffement climatique ou de surveillance numérique et de tous ces sujets sensibles peut provoquer des montées de stress indéniables. Sachez que toute l’équipe de radio Agora est là pour vous. Respirez et détendez-vous. Bienvenue sur radio Agora.

Adèle Frantzf : Moi je sais que la publicité ciblée, par exemple, ça ne marche pas des masses sur moi, tu vois ! En fait, moi je vogue dans le cloud, tu sais, ce nuage tranquille et flou et du coup tout ça, cette surveillance de masse, ce n’est pas très réel en fait, ça reste dans mon ordinateur et j’ai toujours tendance à minimiser un peu l’impact des traceurs, des applis, des GAFAM, gnagnagna. Est-ce que pour toi, réellement, le virtuel a un réel impact, réel, sur la vie réelle ?

Audric Gueidan : Si je prends ton téléphone peut-être que dessus il y a l’application de ton parti politique, il y a peut-être une application de suivi de grossesse, une application médicale — je pense au suivi de diabète —, une appli de rencontre, toutes ces infos-là, pareil, ça permet déjà de te mettre dans une case. Est-ce que tu aurais envie que toutes ces infos soient marquées sur un panneau que tu trimballes toujours à côté de toi ? Est-ce que tu veux avoir marqué en gros pour qui tu votes, avec qui tu couches et ce que tu manges ? Je ne suis pas sûr.
Il y a une histoire qui est assez symptomatique de tout ça. Un site de rencontres adultères qui s’appelle Ashley Madison a été piraté il y a quelques années, ça doit faire trois/quatre ans, et la liste entière des utilisateurs s’est retrouvée sur Internet, comme ça, à la vue de tous.
Dans ce listing on retrouve des politiciens américains et également deux ou trois personnes qui sont, j’ai envie dire, dans la religion, je ne sais plus si ce sont des prêtres ou des pasteurs. Un certain nombre de personnes, du coup, se retrouvent affichées sur la place publique comme étant habituées d’un site de rencontres adultères. Il y en a plusieurs qui ont dit : « Non, ce n’est pas moi c’est faux », plusieurs qui ont avoué et il y en deux ou trois qui se sont suicidées. Donc oui, ça peut avoir un impact.

Adèle Frantzf : Moi, à part recevoir des amendes pour excès de vitesse, je ne fais de mal à personne et j’ai un peu rien à cacher !

Audric Gueidan : Peut-être que quelque chose que tu fais actuellement est légal, est normal, peut-être que dans quelques années ça ne sera plus le cas. Imaginons que je suis dans un système totalitaire, j’ai envie d’identifier et de faire disparaître tous mes opposants politiques, si je peux les identifier juste avec l’application du parti politique auquel ils ont adhéré ou le nombre de pages Facebook ou certains sujets qu’ils ont likés ou partagés, ça pose problème. Si on regarde aux États-Unis, Trump a pu identifier une partie de ses opposants via Facebook et via les caméras de surveillance qui étaient postées dans les rues pendant les manifestations. Si on regarde en Chine, si je commence à critiquer le gouvernement chinois je vais avoir des problèmes. C’est d’ailleurs ce qui se passe actuellement avec Hong-Kong. Toutes les personnes qui s’expriment en mal sur le sujet sont immédiatement arrêtées.

Adèle Frantzf : Durant le confinement on a fait un peu connaissance avec le logiciel Zoom qui vaut maintenant plus cher en bourse que les sept plus grosses compagnies aériennes mondiales réunies et qui est quand même accusé d’avoir fait fuiter les vidéos vers Facebook notamment. Il y a eu le petit robot chien jaune qui surveille les Singapouriens, il y a eu StopCovid.
Justement, si on revient au contexte international de la pandémie COVID-19, ça me fait penser à la théorie de Naomi Klein, La Stratégie du choc, qui soutient qu’à l’occasion de désastres, que ce soit des attentats, des catastrophes naturelles, des coups d’État, des changements de régime, les gouvernements en profiteraient pour imposer des réformes économiques ultralibérales et super restrictives au nom de la sécurité d’un pays. Est-ce que tu peux nous en dire plus sur la réaction des gouvernements face au choc de cette pandémie ?

Audric Gueidan : Tu l’as bien dit, à chaque fois qu’il y a un évènement important on en profite pour faire passer des lois ou des appareils de surveillance ; ça revient à ce que je disais tout à l’heure, en parlant notamment du prétexte du terrorisme.
On pense que la magie de la technologie va nous sauver, c’est ce qu’on appelle le techno-solutionnisme. On se dit qu’on va mettre en place une application, un appareil superbe qui va contrôler l’épidémie, gérer les personnes malades, peut-être en même temps identifier les manifestants.
En France, des drones ont été déployés par la police pour surveiller que les gens respectaient bien le confinement. Depuis, ces drones ont été considérés comme illégaux, ils n’ont plus le droit de voler, même si apparemment on en a vu certains pendant les manifestations. Bon ! Il y a des caméras de surveillance avec reconnaissance faciale qui ont été installées avec l’idée de savoir si tu portes ton masque ou pas alors que la CNIL [Commission nationale de l'informatique et des libertés] va dire « non il ne faut pas faire ça ». Certains maires se pensent au-dessus des lois !
Donc oui, on surveille, on flique, on file des amendes. Si on n’a pas notre papier pour sortir, pareil il y a eu un nombre important d’abus à ce niveau-là. On peut aller plus loin, d’ailleurs c’est ce qui s’est passé à Singapour. À Singapour ils avaient une application équivalente à StopCovid, sauf qu’ils se sont rendu compte que la population ne l’avait pas installée, ne s’en servait pas, exactement ce qui se passe en France d’ailleurs, du coup ils sont allés plus loin : quand tu rentres dans un bâtiment public tu dois scanner une espèce que QR Code qui à l’entrée avec ton téléphone, qui va t’identifier et qui va dire si tu es contaminé, contagieux et du coup qui va te permettre, ou pas ,de rentrer dans ce bâtiment.
On peut très bien imaginer ça en France en allant plus loin en disant que si tu n’as pas l’application StopCovid sur ton téléphone alors tu ne peux pas, je ne sais pas, rentrer dans la gare, tu ne peux pas aller faire tes courses.
Est-ce qu’on a envie d’aller vers ça ? Moi non.

Adèle Frantzf : Justement, qu’est-ce qui t’a choqué le plus ? Est-ce qu’il y a un évènement qui t’a vraiment choqué pendant cette période ?

Audric Gueidan : Le fait qu’en France on avance un peu avec des œillères, je pense notamment au chargé du numérique, Cédric O, qui a maintenu, qui y est allé à fond contre tous les avis des experts et des associations de défense des libertés individuelles en disant « on va faire notre application, on va faire un truc français. On ne veut pas s’appuyer sur ce qui existe, sur le protocole qui est utilisé par Apple et par Google, non, non, nous on va faire notre protocole à nous », qui ne fonctionne pas si bien que ça finalement.

Adèle Frantzf : Là tu parles de l’application StopCovid ?

Audric Gueidan : Oui, pour StopCovid. II y a un truc qui n’est pas logique : on dit « on veut du numérique souverain, du numérique français » et, en même temps, on voit par exemple que toutes les données de santé vont être hébergées par Microsoft. Bon ! On a envie de dire que ce n’est pas très logique !

Adèle Frantzf : Est-ce qu’il y a eu des choses bien pendant cette période ?

Audric Gueidan : Que la loi Avia ait été retoquée, je trouve ça bien.
En effet, que la police n’ait pas le droit normalement d’utiliser ses drones pour surveiller les gens je trouve également ça bien.
Je pense que ce qui est positif, par exemple, on va parler du télétravail : il y a beaucoup de personnes qui se sont rendu compte que oui, c’est possible de travailler à la maison et même souvent on travaille plus et mieux qu’en étant au boulot alors qu’il y avait beaucoup de patrons qui disaient « non, moi je ne veux pas que mes employés fassent du télétravail », ils avaient toutes les bonnes raisons. On voit que c’est possible. Il y a eu une espèce d’électrochoc en prouvant que le numérique ça peut aider, ça peut être bien ; même chose pour les jeux vidéos d’ailleurs. Il y a quelques mois l’OMS disait « attention, ça y est, le jeu vidéo est considéré comme une addiction » et en même temps, pendant le confinement, ils ont dit : « Oui, on avoue, les jeux vidéos permettent de calmer les enfants, c’est bien de jouer une à deux heures par jour ». Il y a, comme ça, plusieurs articles qui sont sortis, que j’ai trouvés intéressants.
On voit également qu’il y a un nombre important de personnes qui sont vraiment en grande difficulté face au numérique. On parle en moyenne de 20 % de la population qui n’est pas connectée ou qui a vraiment des difficultés.

Adèle Frantzf : C’est sûr qu’à 80 ans, à la vitesse où ça va, si je n’ai pas d’amis ou de la famille qui s’y connaît, je deviendrai incapable d’être à la page et on voit la Caf, la SNCF, qui ferment de plus en plus de guichets humains et l’État compte maintenant de plus en plus sur les associations qui sont en grande partie bénévoles pour rattraper le coup, en fait, et aider les personnes à apprivoiser le numérique. Finalement ces associations crient aussi au manque de moyens.

Audric Gueidan : Dans les associations je pense par exemple à Emmaüs Connect2 qui fait partie de Emmaüs, qui va être là pour former une partie de la population et accompagner les personnes qui sont en difficulté. Ça a été un petit peu accentué pendant le confinement et plusieurs initiatives ont été lancées pour essayer justement de pallier à ces différents manques que ça soit pour les étudiants, les écoliers qui se sont retrouvés à devoir travailler de chez eux ; que ça soit pour les indépendants ou les salariés qui, du jour au lendemain, doivent faire du télétravail alors qu’ils n’en ont jamais fait et ça ne se fait pas comme ça, ce n’est pas évident.

Adèle Frantzf : Aujourd’hui, est-ce que tu pourrais nous donner des noms d’associations, d’institutions étatiques, qui sont les garants de notre liberté numérique ? Qui est-ce qui se bat, en fait, pour que justement on ait plus accès au logiciel libre, qu’on puisse savoir un tout petit mieux comment nos données fuitent ? Vers qui se tourner en fait ?

Audric Gueidan : On peut imaginer qu’on pourrait se tourner vers notre pays qui est censé être garant de nos libertés. Pour moi c’est un petit peu compliqué de ce côté-là quand on parle de numérique parce que les États sont noyautés par les entreprises privées, on peut reparler de Microsoft qui est vraiment partout : en France, Microsoft est à la Défense, il est à la Culture, il est à l’Éducation, déjà ça pose un problème. Il y a ce qu’on appelle des back doors, on va dire que c’est la porte de derrière qui permet à l’entreprise d’aller voir discrètement ce que tu fais sur ta machine. Est-ce qu’il faut que les ordinateurs de l’armée française soient connectés en permanence aux serveurs de Microsoft qui est une entreprise américaine ? Je n’en suis pas certain.
Est-ce que j’ai envie que les collégiens, les étudiants soient formatés à utiliser des logiciels privés et payants : toute la suite office et compagnie est gratuite quand ils sont à l’école, mais lorsqu’ils sortent de l’école ils vont devoir acheter leurs logiciels — la première dose est gratuite et après c’est à vous de payer ! Je ne suis pas certain que ça soit une bonne chose, surtout quand il existe des associations ou des organismes qui vont se battre, qui vont prouver que c’est possible. Je pense notamment à Framasoft3 qui une association de promotion du logiciel libre qui met en place différents services. En 2013 ils avaient lancé la campagne « Dégooglisons Internet »4 pour prouver qu’on peut se passer de Google, on peut trouver des équivalents qui fonctionnent aussi bien et qui vont être éthiques, qui vont respecter notre vie privée, qui vont être libres, c’est-à-dire qu’après tout le monde peut les utiliser, les employer pour faire sa propre version. C’est d’ailleurs ce qui s’est passé : le Collectif des CHATONS5 a émergé de ça après, c’est le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Ça permet en plus de faire de l’Internet on va dire local : je peux aller dans l’association de ma ville, récupérer des services numériques, une boîte mail, un hébergement de fichiers, de la même manière que je serais allé à l’AMAP du coin récupérer mon panier de fruits et légumes et ma boîte d’œufs. En plus, là je sais qui s'en occupe, je peux discuter avec ces personnes-là, je peux m’investir et monter en compétences si j’ai envie, si j’ai le temps, je peux devenir acteur de ma vie numérique.

Adèle Frantzf : Finalement, c’est un peu la même chose que dans l’agriculture, c’est-à-dire qu’on veut surtout du local et on veut de l’éthique. On veut du Libre, du bio, quoi ?

Audric Gueidan : C’est ça, sauf que pour passer au bio il faut être un petit peu sensibilisé, il faut quand même se renseigner, ce n’est pas forcément évident comme transition parce qu’on ne va pas trouver exactement la même chose, peut-être pas au même prix, peut-être pas en même quantité.
C’est la même chose de passer à des outils libres, éthiques, open source. On va dire que c’est un travail de tous les jours parce que certains outils, à un moment donné, vont être très bien et puis hop !, l’organisation va se faire racheter et finalement c’est devenu moins bien, maintenant il y a des trackers dedans, donc il ne faut plus utiliser cette application. Il y a besoin de faire de la veille à de sujet-là, globalement les gens n’ont pas le temps de faire ça, donc les associations le font.
La Quadrature du Net6 fait du bon travail pour sensibiliser les gens à cette question-là et pour prouver que le numérique sort de la sphère de l’ordinateur et du smartphone, ça touche toute notre vie, toute notre vie est numérique maintenant.
Je pense à ce qu’on appelle les GULL qui sont les groupes d’utilisateurs Linux et logiciels libres. Pareil, on va en trouver un petit peu partout en France. Ce sont des groupes de bénévoles qui vont être là pour vous encadrer, vous apprendre à utiliser Linux [GNU/Linux], si vous voulez passer à Linux qui est le système d’exploitation libre, qui vont globalement essayer de vous former.
On peut aller dans ce qu’on appelle les Cafés vie privée. Ce sont des lieux de formation, ça peut se passer partout, ça peut être dans un café comme le nom l’indique ou dans un restaurant, dans une bibliothèque, où on veut, et là on va apprendre à utiliser des outils qui protègent nos données, on va comprendre comment laisser moins de traces.
On peut aller dans sa bibliothèque de quartier, il y a beaucoup de bibliothécaires qui sont sensibilisés à ces questions-là.
Donc il y a du monde qui est présent sur le terrain pour justement garantir qu’on respecte au maximum nos libertés numériques.
L’idée, toujours, c‘est de pouvoir reprendre la main sur la machine, sur l’outil, sur le logiciel, comprendre comment ça marche et pouvoir faire des choix éclairés.

Diverses voix off : La NSA a placé sous surveillance tous les portables du monde.
Les Américains ne rêvent pas d’être libres, ce qu’ils veulent c’est la sécurité.
Oui, sauf que malheureusement les gens ignorent qu’ils ont passé un marché.

Adèle Frantzf : Tu sais comme moi que certains réalisateurs de films d’horreur ou de thrillers disent souvent que la réalité est bien pire que la fiction. Pour toi, quels films se rapprocheraient le plus de la dystopie qui pourrait nous attendre si on ne fait pas gaffe ?

Audric Gueidan : Un film qui est bien, qui est d’ailleurs adapté d’un livre à la base, Minority Report. Ça se passe dans un monde futuriste où il y a une brigade d’intervention qui peut arrêter les personnes avant qu’elles aient commis un crime. C’est ce qu’on appelle du prédictif. Il y a déjà eu, en tout cas en Chine, des arrestations préventives grâce ou à cause, ça dépend dans quel sens on se place, de ce qu’on appelle le big data, de toutes ces données qui vont être récupérées, qui vont permettre à des algorithmes d’imaginer que potentiellement cette personne va commettre un crime, donc on l’arrête en amont.
Un autre film qui est intéressant, qui pourrait faire peur, c’est WALL-E. C’est tout mignon, c’est tout joli, mais quand on regarde ce que les humains sont finalement devenus dans WALL-E, ils sont complètement dépendants des machines, ils sont juste rivés à leur écran, ils ne sont même plus capables de marcher par eux-mêmes et de réfléchir, ils ne savent plus comment ça fonctionne.
Un algorithme ce n’est pas une invention magique, il y a quelqu’un à la base qui a fait des choix et qui a décidé que le logiciel pouvait faire ça ou ça. Lawrence Lessig7 dit Code is Law, « Le code c’est la loi » et en effet le robot, l’algorithme, la machine, va suivre ce qui a été écrit dans son code.
Après pour sortir du film, il y a une série qui est très bien, tous les épisodes ne se valent pas, c’est Black Mirror, il y a certains épisodes où, en fait, ce n’est même plus le futur, on est vraiment déjà dedans.

Voix off : Comment ça fonctionne ?
Cette puce va accéder à vos engrams, à vos souvenirs relatifs à l’évènement.
Je ne suis pas intéressée par ce que vous auriez pu faire dans votre chambre sur votre temps libre.
Ce qui est privé doit rester privé.

Audric Gueidan : Voilà ce que je peux un petit peu conseiller.

Adèle Frantzf : Nous arrivons à la fin de cette première émission numérique. Merci beaucoup à toi Audric.

Audric Gueidan : Merci à toi.

Adèle Frantzf : Ne dites plus Twitter, dites Mastodon8. Ne dites plus YouTube, dites PeerTube9. Instagram devient PixelFed10, Zoom devient Jitsi11. Gmail devient Mailo12 ou Disroot et Google docs devient Framapad13. Ça, c’est la classe !
Reprenez la main sur la machine, le trafic, le contenu.
À Nanterre il y a l’Electrolab, il y a Nanterre Digital. Il y a Évelyne Jardin qui donne des formations à l’Agora. Il y a Lien intergénération 92, il y a La Ligue de l’enseignement qui avait diffusé notamment, je me souviens, un docu très facile à visionner, qu’on va mettre en lien sur le site de l’Agora, Nothing to Hide, « Rien à cacher », et il y a le Centre social Arc-en-ciel très actif notamment sur le festival Nanterre Digital.
À Rueil, il y a Rueil Digital et le Chaton le plus proche est à Courbevoie, il s’appelle Tedomum.
Enfin il y a la FFDN14, la Fédération des Fournisseurs d'Accès à Internet associatifs.
Évidemment la liste n’est pas exhaustive. Si vous voulez partager votre expérience aux Rencontres numériques nantériennes n’hésitez pas à laisser un commentaire sur radioagora-nanterre.fr.
J’en profite pour remercier toute l’équipe de radio Agora de cette opportunité qui nous est faite de nous exprimer librement. Bisous les Nantériens.Prochaine émission le mois prochain.

Nous soutenons la pétition pour bannir la reconnaissance faciale en Europe

martin
, 22/09/2020 | Source : La Quadrature du Net

Nous republions ici le texte de la pétition rédigée par l’artiste et militant Paolo Cirio et appelant à l’interdiction permanente de la reconnaissance faciale utilisée pour l’identification et le profilage dans toute l’Europe. Le site de la pétition est disponible ici.

La technologie de reconnaissance faciale automatisée a déjà été déployée dans les États membres de l’UE sans consultation publique. Nous demandons aux membres du Parlement européen et de la Commission européenne de prendre au sérieux cette énorme menace pour les droits de l’homme et notre société civile et de légiférer pour l’interdiction immédiate et permanente de l’identification et du profilage via la technologie de reconnaissance faciale dans toute l’Europe.

La reconnaissance faciale est une technologie particulièrement invasive. Il ne s’agit pas seulement de la surveillance des militants, des suspects et des minorités, mais c’est une atteinte à la vie privée de tous. Aujourd’hui, la reconnaissance faciale en Europe se déploie sans transparence ni débat public, et est utilisée en dehors de tout cadre juridique coordonné et cohérent.

Plusieurs États membres d’Europe utilisent déjà la reconnaissance faciale pour la sécurité, le contrôle social et les services publics. Par exemple, il a été mis en œuvre dans les gares en Allemagne, lors du verrouillage en Pologne, et il est prévu de créer une carte d’identité nationale en France où la police l’utilise déjà dans les espaces publics.

Plus de 80% des Européens sont déjà contre le partage de leur image faciale avec les autorités. Faites valoir cette opinion avec cette pétition pour interdire la reconnaissance faciale dans toute l’Europe.

Rejoignez la lutte contre la technologie de reconnaissance faciale :

Signez la pétition, rejoignez la campagne, agissez, restez informé et partagez cet appel.

Pour notre campagne et notre pétition, utilisez notre hashtag #BanFacialRecognitionEU

Le site officiel Ban-Facial-Recognition.EU et notre Twitter @BanFacialRecEU

Pour les demandes de presse et les partenariats, écrivez à info@Ban-Facial-Recognition.EU.

À propos de l’interdiction de la reconnaissance faciale en Europe

La technologie de reconnaissance faciale automatisée a déjà été déployée dans les États membres de l’UE sans consultation publique. Nous demandons aux membres du Parlement européen et de la Commission européenne de prendre au sérieux cette énorme menace pour les droits de l’homme et notre société civile et de légiférer pour l’interdiction immédiate et permanente de l’identification et du profilage via la technologie de reconnaissance faciale dans toute l’Europe.

La reconnaissance faciale est une technologie particulièrement invasive. Il ne s’agit pas seulement de la surveillance des militants, des suspects et des minorités, mais c’est une atteinte à la vie privée de tous et un énorme danger pour les libertés démocratiques, les libertés civiles et la liberté d’expression pour toute la société.

Actuellement, les services de police et les services de sécurité des différents États européens, de concert avec l’industrie de la technologie, font pression contre les institutions européennes pour l’utilisation de la technologie de reconnaissance faciale. En réponse, cette pétition vise à contester les objections formulées par des États membres individuels sur l’interdiction de la reconnaissance faciale et demande à la Commission européenne d’engager des procédures d’infraction contre les États membres qui enfreignent déjà les lois de l’UE en utilisant la reconnaissance faciale.

Plusieurs États membres d’Europe utilisent déjà la reconnaissance faciale pour la sécurité, le contrôle social et les services publics. Par exemple, il a été mis en œuvre dans les gares en Allemagne, lors du verrouillage en Pologne, et il est prévu de créer une carte d’identité nationale en France où la police l’utilise déjà dans les espaces publics. Pendant ce temps, aux États-Unis, la reconnaissance faciale a été interdite dans plusieurs villes et a même été récemment limitée par de grandes entreprises technologiques telles qu’Amazon, IBM et Microsoft à partir de juin 2020.

L’Europe doit s’aligner sur une interdiction définitive de la reconnaissance faciale pour son leadership en matière de droits de l’homme. Cependant, en janvier 2020, il a été révélé qu’une Commission européenne avait retiré son projet d’interdire la technologie de reconnaissance faciale pendant cinq ans, un plan qui a probablement été rejeté par les programmes de police des États membres de l’UE. Cela prouve à quel point l’Union européenne est peu fiable et vague sur ces questions juridiques et de droits de l’homme critiques concernant la technologie de reconnaissance faciale.

Aujourd’hui, la reconnaissance faciale en Europe se déploie sans transparence ni débat public, et est utilisée en dehors de tout cadre juridique coordonné et cohérent. Leurs promoteurs ont une foi aveugle en cette technologie et poussent souvent à accélérer sa prolifération quelles que soient les conséquences inévitables pour nos libertés.

L’Europe doit redresser ses lois sur la protection de la vie privée et lutter radicalement contre la reconnaissance faciale en interdisant totalement son utilisation abusive. Plus de 80% des Européens sont déjà contre le partage de leur image faciale avec les autorités. Faites valoir cet avis avec cette pétition pour interdire la reconnaissance faciale dans toute l’Europe.

Pourquoi la reconnaissance faciale est trop dangereuse

Il existe plusieurs technologies très envahissantes pour la vie privée, en particulier avec la biométrie. Parmi eux, la reconnaissance faciale est particulièrement violente et biaisée. Les visages ont des significations sociales et ils sont difficiles à cacher car ils sont notre principal moyen de communication. Les visages sont les parties les plus publiques des humains et leurs traits servent de métriques pour le jugement social. Nous considérons la reconnaissance faciale trop dangereuse pour les citoyens, car elle peut transformer l’un de nos principaux moyens de socialité contre nous, transformant nos visages en dispositifs de suivi plutôt qu’en composant essentiel de nous-mêmes.

Au-delà du contrôle social, de la discrimination et de la surveillance, il s’agit de la vie privée de chacun. Tout le monde est en danger lorsqu’un tel instrument est autorisé sans règles. Il ne s’agit pas seulement de la police ou des entreprises qui utilisent la reconnaissance faciale pour la sécurité ou l’exploration des données, mais c’est ainsi que cette technologie devient culturellement omniprésente et normalisée, provoquant finalement la peur dans la vie de tous. Cela crée un faux sentiment qu’être observé et analysé à tout moment est acceptable et crée des sociétés remplies de suspicion, d’abus et de méfiance.

La technologie de reconnaissance faciale est également aggravée par la «prédiction comportementale» qui prétend pouvoir classer les émotions ou les intentions d’une personne, mais qui menace fondamentalement la dignité et l’autonomie humaines. La reconnaissance faciale associée à une soi-disant intelligence artificielle sous la forme d’algorithmes d’apprentissage automatique augmente les déséquilibres de pouvoir, la discrimination, le racisme, les inégalités et le contrôle social autoritaire. Il y a trop de risques élevés pour les prétendus «avantages» que l’utilisation de ces technologies pourrait éventuellement apporter.

Partout en Europe, les gouvernements, les entreprises privées et aussi les civils cherchent à utiliser la reconnaissance faciale. Nous avons déjà vu son utilisation dans les lieux de travail, les espaces publics, les écoles, les aéroports, les maisons et dans nos propres téléphones personnels. Ces mises en œuvre de la reconnaissance faciale vont souvent au-delà de notre consentement, ou nous sommes souvent obligés de consentir, tandis que les conséquences à long terme du stockage des données biométriques et de la formation de l’intelligence artificielle pour analyser nos visages peuvent dépasser notre contrôle et les institutions en qui nous avons confiance.

Aucun argument ne peut justifier le déploiement de telles technologies. L’utilisation civile, commerciale et gouvernementale des dispositifs de reconnaissance faciale pour l’identification et la catégorisation des individus doit être strictement interdite. Toute technologie de reconnaissance faciale vendue dans le commerce ou développée et utilisée à titre privé pour cette portée doit être arrêtée.

La reconnaissance faciale doit être interdite, pas seulement réglementée

Les réglementations ne suffisent pas et elles échoueraient à s’attaquer à cette technologie en raison de l’ampleur de son danger.

La reconnaissance faciale porte atteinte au droit à la dignité car elle utilise les qualités, les comportements, les émotions ou les caractéristiques des individus contre eux de manière non justifiée ou proportionnée aux droits fondamentaux de l’UE ou aux lois nationales individuelles. Par exemple, les réglementations européennes actuelles telles que le RGPD couvrent principalement la vie privée des citoyens dans le secteur commercial à quelques exceptions près, mais elles ne traitent pas suffisamment les droits de l’homme qui sont en péril avec la reconnaissance faciale tels que le droit à la dignité et à l’égalité.

Tout comme les armes nucléaires ou chimiques, la reconnaissance faciale constitue une grande menace pour l’humanité. Son utilisation pour l’identification et le profilage est certainement trop dangereuse pour être utilisée. Elle devrait être interdite non seulement par l’Union européenne mais aussi au niveau mondial par les Nations Unies.

Il existe de fausses croyances sur l’efficacité et l’utilité de la reconnaissance faciale qui justifient son utilisation dans le cadre de la réglementation. Cependant, même pour la sécurité, il existe de sérieux doutes quant à savoir si la police en a vraiment besoin ou si elle contribue à fournir de meilleurs services. Les acteurs privés acquièrent un pouvoir disproportionné sur la technologie qui a souvent été développée sans responsabilité ni transparence. Souvent, ces technologies sont vendues aux autorités publiques et aux forces de l’ordre avec peu ou pas de responsabilité pour leurs actions.

Au-delà de la surveillance du gouvernement et des entreprises, il existe désormais d’énormes quantités de données publiques sur les sites Internet, les plateformes de médias sociaux et les ensembles de données ouverts que tout le monde peut récolter ou acheter. En outre, les infrastructures des appareils qui capturent des images de visages sont déjà omniprésentes avec les caméras CCTV, les smartphones et les scanners vidéo dans nos vies publiques et privées. Ces conditions rendent la reconnaissance faciale particulièrement dangereuse parmi d’autres technologies qui peuvent identifier, suivre et juger les personnes.

Aujourd’hui, la reconnaissance faciale est déjà présente dans nos smartphones, les contrôles des passeports dans les aéroports et les espaces publics. Utiliser la reconnaissance faciale pour l’authentification faciale locale pour déverrouiller un smartphone ou pour accéder à un service semble beaucoup moins intrusif que d’identifier un individu parmi de nombreuses personnes dans un lieu public.

Cependant, le développement de la technologie elle-même, la formation d’algorithmes et le stockage des données biométriques détenues par des entreprises privées pourraient, à l’avenir, être utilisés au-delà du cadre initial. Même lorsque nous donnons votre consentement ou utilisons la reconnaissance faciale en privé, nous risquons que ces données puissent entraîner des conséquences involontaires futures telles que des fuites de données biométriques, leur vente à des tiers ou la formation d’algorithmes sur nos traits personnels.

Par conséquent, nous rejetons les deux exceptions d’utilisation de la reconnaissance faciale en ce qui concerne l’innovation pour l’industrie technologique et la sécurité publique. Nous appelons à une interdiction totale de tous les cas de technologies de reconnaissance faciale concernant leur utilisation pour toute forme d’identification, de corrélation et de discrimination qui permettrait une surveillance de masse, des crimes de haine, des traques omniprésents et des violations de la dignité personnelle. Il serait toujours possible à des fins de recherche, de médecine et de divertissement à condition qu’aucune donnée biométrique ne soit stockée ou utilisée pour identifier ou classer des individus.

Nous soutenons que la reconnaissance faciale est déjà illégale en vertu du droit de l’UE et doit être interdite dans la pratique. Quatre instruments européens interdisent déjà la surveillance de masse biométrique: dans le sens le plus large, la Convention européenne des droits de l’homme et la Charte des droits fondamentaux de l’UE, et plus précisément la Convention sur la protection des données du Conseil de l’Europe, le RGPD, et son instrument frère, le LED . Cependant, les autorités nationales de protection des données (APD) ont été insuffisamment financées et politiquement démunies par leurs États membres, ce qui signifie que leurs efforts pour faire appliquer les réglementations ont souffert et que les acteurs en violation de la loi ont été peu incités à se conformer.

C’est la raison pour laquelle nous avons besoin de nouvelles lois pour imposer une interdiction de la reconnaissance faciale et pas seulement de réglementations faibles qui peuvent être interprétées et non appliquées par l’UE à ses États membres et à leurs députés.

L’identification et la classification par reconnaissance faciale sont trop dangereuses pour ne jamais être nécessaires et proportionnées puisque les utilisations bénéfiques potentielles ne sont pas justifiées.

Ce dont nous avons besoin pour interdire la reconnaissance faciale dans l’UE

Nous devons prendre des mesures au Parlement européen pour attirer l’attention sur cette question dans ses États membres, ainsi que pour faire pression sur la Commission européenne pour qu’elle prenne des mesures coercitives contre les États qui violent actuellement les droits fondamentaux de l’UE et les lois sur la protection de la vie privée. L’interdiction totale de l’identification et du profilage via la technologie de reconnaissance faciale ne doit pas être simplement une directive, mais elle doit être une interdiction rigide pour être applicable dans toute l’Europe sans exceptions ni expiration.

Dans l’Union européenne, il existe déjà des lois qui interdisent la surveillance biométrique de masse, mais elles ne sont pas appliquées. Les protestations, pétitions et litiges stratégiques peuvent potentiellement être très efficaces pour appliquer ces lois existantes et introduire une interdiction à l’échelle de l’UE.

Dans les rues et en ligne, à travers des manifestations et d’autres formes d’action, les citoyens et les collectifs du monde entier font équipe pour arrêter la propagation fatidique de la reconnaissance faciale. Ensemble, nous faisons partie d’un vaste mouvement résistant à l’avènement de la reconnaissance faciale dans toute l’Europe et dans le monde.

Interpellez-nous et dites-nous si vous voyez la reconnaissance faciale utilisée dans les écoles, les communautés fermées et les bâtiments, les identifiants et badges, les services publics, les dispositifs de verrouillage, les applications mobiles, les plates-formes Internet, et même si c’est pour le divertissement ou un usage personnel ou s’il est utilisé par la police, le contrôle des frontières, les forces de l’ordre et les enquêteurs.

Nous demandons à la Commission européenne et à la Cour européenne de justice d’évaluer les cas que nous avons rassemblés concernant les programmes de reconnaissance faciale en Europe pour avoir rendu ces utilisations actuelles et futures illégales. Si la Commission européenne, soutenue par le Parlement européen, ne prend pas les mesures d’application et législatives appropriées pour interdire une telle technologie, nous prévoyons de porter les affaires devant la Cour européenne de justice sur la base des directives LED actuelles, des règlements GDPR, du Conseil de la Convention européenne sur la protection des données et les lois nationales sur la protection des données, y compris la Convention européenne des droits de l’homme et la Charte des droits fondamentaux de l’UE.

Aujourd’hui, nous exprimons notre refus collectif de ces outils de contrôle social en exhortant les décideurs à les interdire une fois pour toutes.

Cas et détails – Reconnaissance faciale en Europe

En mai 2020, au moins 15 pays européens ont expérimenté des technologies biométriques telles que la reconnaissance faciale dans les espaces publics. Au minimum, il y a des activités en République tchèque, au Danemark, en France, en Allemagne, en Grèce, en Hongrie, en Italie, aux Pays-Bas, en Pologne, en Roumanie, en Serbie, en Slovénie, en Suède, en Suisse et au Royaume-Uni.

La liste suivante de cas sur les utilisations de la reconnaissance faciale en Europe a été compilée par Paolo Cirio avec ses recherches et avec l’aide d’experts en politique de confidentialité et d’organisations telles que La Quadrature du Net, et à travers le document de recherche EDRi pour l’interdiction de la surveillance biométrique.

Cette liste montre comment l’absence d’une législation cohérente entourant la reconnaissance faciale pousse les États membres de l’UE à prendre des initiatives individuelles, à exercer une surveillance laxiste et à faire un usage réel de ces technologies dangereuses.

Nous exigeons une plus grande transparence publique et une plus grande responsabilité à l’égard des parties – qu’elles soient publiques, privées ou en collaboration entre les deux – qui déploient des traitements biométriques, ainsi que des échanges de données entre les forces de l’ordre, la sécurité aux frontières, d’autres agences de sécurité publique, y compris la santé, et les autorités nationales. agences de sécurité.

FRANCE

À partir de 2020

La police française utilise déjà la reconnaissance faciale pour identifier les personnes dans les espaces publics. Ils utilisent des photos de personnes stockées dans la base de données des antécédents judiciaires TAJ. Il y a plus de 18 millions d’enregistrements d’individus dans cette base de données avec plus de 8 millions de photos. L’utilisation de la reconnaissance faciale dans cette base de données en France est autorisée depuis 2012 et est actuellement contestée devant les juridictions nationales.

Octobre 2019

La France est en passe de devenir le premier pays européen à utiliser la technologie de reconnaissance faciale pour donner aux citoyens une identité numérique – qu’ils le veuillent ou non. Dire qu’il veut rendre l’État plus efficace, le président Emmanuel Macron fait passer des plans pour déployer un programme d’identification basé sur la reconnaissance faciale appelé Alicem dans le cadre de son gouvernement.

Juillet 2019

L’autorité régionale Provence-Alpes-Côte d’Azur (PACA) a demandé à la CNIL l’autorisation d’utiliser un système de reconnaissance faciale pour gérer l’entrée au lycée Ampère à Marseille. Cet «essai» se voulait une expérience d’un an et a également été réalisé dans une autre école de la même région (le Lycée les Eucalyptus de Nice). Cette utilisation a été conçue pour augmenter la sécurité des étudiants et du personnel et pour accélérer le temps nécessaire aux étudiants pour entrer dans les locaux de l’école. Ces tentatives d’utilisation de la reconnaissance faciale dans les deux écoles françaises ont été stoppées par un procès en 2020.

Depuis 2012

«PARAFE» est un programme de portails automatisés aux frontières déjà installés dans différentes gares et aéroports en France. Les portes utilisent la technologie de reconnaissance faciale pour vérifier l’identité de l’utilisateur par rapport aux données stockées dans la puce de son passeport biométrique. Le programme a été développé par la société française Thales.

Plus d’infos sur le dispositif de Thales

ALLEMAGNE

Janvier 2020

Le ministre allemand de l’Intérieur, Horst Seehofer, prévoit d’utiliser la reconnaissance faciale automatique dans 134 gares et 14 aéroports, selon un reportage publié le 3 janvier 2020. Le ministère de l’Intérieur a testé des caméras de reconnaissance faciale dès 2018 à la gare de Berlin-Südkreuz. Le résultat a été que 80% des personnes étaient correctement identifiées. Après les tests de 2018, le ministre de l’Intérieur Seehofer a déclaré que les systèmes de reconnaissance faciale «rendraient le travail de la police encore plus efficace, améliorant ainsi la sécurité des citoyens».

En savoir plus sur euractiv.com

POLOGNE

Mars 2020

L’application obligatoire basée sur la reconnaissance faciale de la Pologne a été utilisée pour appliquer la quarantaine. Il a envoyé la police au domicile de toute personne qui ne partage pas un selfie sur l’application dans les 20 minutes suivant une alerte.

En savoir plus sur politico.eu

ÉCOSSE

Février 2020

La police écossaise a déclaré qu’elle espérait utiliser un logiciel de reconnaissance faciale en direct d’ici 2026, mais a ensuite suspendu ses plans. La technologie peut scanner des foules de gens et croiser les visages avec les bases de données de la police.

En savoir plus sur bbc.com

SUÈDE

Août 2019

La reconnaissance faciale était utilisée par les élèves du secondaire en Suède pour suivre la fréquentation dans la municipalité de Skelleftea. Le procès, qui s’est déroulé à l’automne 2018, a été un tel succès que la collectivité envisage de le prolonger. Cependant, les juges suédois et les autorités de protection des données ont bloqué l’expérimentation de la reconnaissance faciale dans les écoles.

FRONTIÈRES EUROPÉENNES

Le SPIRIT est un projet financé par l’Europe pour racler des images de visages sur les réseaux sociaux afin de créer une base de données pour l’analyse de la reconnaissance faciale. Cinq parties prenantes liées aux forces de l’ordre participent à ce projet de recherche: la police hellénique (GR), la police des West Midlands (Royaume-Uni), la police et le commissaire au crime de Thames Valley (Royaume-Uni), le ministère serbe de l’Intérieur (RS) et le Académie de police de Szczytno (PL). Selon le site Web clairsemé et non transparent, le projet vise à utiliser des outils, tels que l’extraction et la mise en correspondance de visages, pour corréler des informations à partir de données de médias sociaux similaires au modèle de la société américaine Clearview AI. Selon les demandes d’accès à l’information, des essais étaient prévus pour 2020 et 2021.

L’iBorderCtrl est un projet de recherche financé par l’Europe sur les frontières hongroise, grecque et lettone. Le projet prévoyait d’utiliser l’analyse automatisée des données biométriques pour prédire les preuves de tromperie parmi ceux qui cherchent à entrer dans l’Union européenne en tant que «détecteurs de mensonge» pour les réfugiés. Le projet a pris fin en août 2019.

En savoir plus sur edri.org

Le système Prum est une initiative à l’échelle de l’UE reliant les bases de données ADN, d’empreintes digitales et d’enregistrement des véhicules pour une recherche mutuelle. Dix États membres européens, dirigés par l’Autriche, appellent à étendre le système Prum et à créer un réseau de bases de données nationales de reconnaissance faciale de la police et à interconnecter ces bases de données à chaque membre de l’État avec des réseaux de bases de données faciales de la police couvrant toute l’Europe et les États-Unis.

En savoir plus sur theintercept.com

Le «complexe industriel-sécurité de l’UE» conduit à la promotion, à la défense et à l’utilisation de technologies de «titrisation». Les agences Europol et Frontex utilisent déjà une technologie biométrique avancée pour étudier les frontières et profiler les voyageurs.

En savoir plus sur edri.org

Pays étrangers et entreprises en Europe

Le raclage des médias sociaux et le courtage d’ensembles de données dépassent les frontières, les entreprises et les acteurs étatiques étant intéressés par la collecte, la numérisation d’images et la constitution de bases de données de données biométriques de citoyens européens.

C’est déjà le cas avec Clearview AI, une société américaine qui extrait des images des réseaux sociaux, et avec FindFace, une technologie de reconnaissance faciale développée par la société russe NtechLab.

En savoir plus sur nytimes.com
En savoir plus sur forbes.com

L’utilisation de ces outils dépasse l’Europe avec des entités étrangères autorisées à utiliser la technologie de reconnaissance faciale sur les citoyens européens. Amazon, Facebook, Google et Apple rassemblent également d’énormes bases de données de données faciales biométriques de citoyens européens et les utilisent pour former leur intelligence artificielle sans transparence et sans responsabilité. Les produits tels que Ring of Amazon, Apple Face ID, Google Lens et les fonctionnalités de reconnaissance faciale Facebook devraient être interdits à tous les citoyens européens.

Sepia Search : our search engine to promote PeerTube

framasoft
, 22/09/2020 | Source : Framablog

Today we are opening a new door on PeerTube, making it easier to discover videos that are published in a federation that is growing every day.

PeerTube is the alternative we are developing so that everyone can emancipate their videos from YouTube and the likes. Except that unlike YouTube, PeerTube is not a single platform.

PeerTube is a software that specialists can install on a server to create multiple video platforms (called « instances »), which can be linked together within a federation.

Opening the door on a diverse federation

The problem with federation is that it is much more varied and complex than a one-website platform. It’s all well and good to decentralize to prevent the creation of new web giants, but where’s the front door ?

Do we really need to explain the notion of instance ? Insist on the need to find one’s own and therefore to learn about the federation policies of each instance ? … to someone who simply asks :

But… I just wanted to watch videos !

The solution would be to create a search engine for all the videos published through PeerTube.

If you open a single gateway to the federation, then the structure that holds the keys to that gate gets great powers. They get the power to decide what will be accepted (or rejected) in the search directory. They get the power to record who searched for what, when, from where. And they get the power to intervene in the order and display of the results.

It is on such power mechanisms that Google has built its monopoly. Obviously, at Framasoft, we do not seek to be in a position of power… and even less to follow Google’s (bad) example ! Nevertheless, we want to show the emancipating potential of this software which allows to reclaim the means to stream videos.

We therefore take the responsibility of opening Sepia Search, our gateway to videos and videomakers on PeerTube. It’s a door we open while limiting as much as possible the power we’d get, to keep respecting your attention as well as your browsing.

Presenting PeerTube without monopolizing attention

In the federation universe, the « fediverse », there are many PeerTube instances where people can sign up and create as many channels as they want, channels where they can upload their videos.

Our goal with Sepia Search is not to present all of this content. We simply want to show you the space of autonomy that PeerTube opens up, respecting the values of transparency, openness and freedom that we have been defending for more than 16 years.

Here is Sepia, PeerTube’s mascot – Illustration CC-By David Revoy

A publicly auditable indexing tool (transparency)

Behind Sepia Search, there are two softwares.

The first one is the engine : it is the software where you enter a search, it compares this search with the list of contents in its directory, and then gives the matching results.

The second one is the bodywork, the chassis : it is the software that will present the search bar, receive the request you typed, and show you the results, specifying in orange where you will go when you click on « Go and watch this video ».

The source code, the « recipe » of each of these softwares, is transparent. We publish it on our software forge. Anyone who is able to read this code can do so, and determine if there are tools to cheat with the results display, or others to spy on your behavior.

We already know that these codes are ethical and do not spy on you. We have a good reason : as stated in our TOS, we are really, really not interested in your data !

An a posteriori moderated search engine (openness)

Not all PeerTube instances will be referenced on Sepia Search. This search engine will be based on the list of instances we maintain at instances.joinpeertube.org.

We recently announced a change in the indexing policy for this list, to align with the policy for all of the services we offer :

Thus, if we are notified of an instance where contents explicitly condone terrorism or promote historical revisionism, we will remove it from the index (non-compliance with French laws, which we insist on in our TOS). Such removal will eliminate all videos hosted by that instance from the search results.

On the other hand, if one or more people come to abuse the time of our moderators with inappropriate and abusive reports, their word will be discredited and ignored (as indicated in our moderation policy (FR)).

This moderation, which we hope will be as light as possible, will allow us to limit the results offered by Sepia Search to videomakers who upload original content and to channels (or even instances) that contribute to emancipate.

Illustration CC-By David Revoy

A reproducible tool, adaptable to your conditions (freedom)

It may sound paradoxical to talk about openness in order to detail the conditions under which we close Sepia Search to certain content (especially illegal content).

However, at Framasoft, we believe in the paradox of tolerance, and therefore that openness can only be maintained if the limits of this openness are honestly defined and defended.

We are aware that this is a point of view we get from our French culture (or even from Western European culture). It may, for example, shock people from a North American culture (where unconditional Free Speech is a cultural norm) or from « official » Chinese culture (where, currently, the government sets strict limits on freedom of expression).

We don’t want to impose our culture, nor do we want to deny it. This is why we made sure, legally and technically, that everyone is free to set and host their own instance list, indexing engine and search site, by copying and adapting what we have created.

Sepia Search is just our gateway to PeerTube. This site aims to introduce you to the emancipatory PeerTube we work for, with our culture, activism and subjectivity.

Expecting an actor to do everything, all by theirself, is in fact a reflex of submission to the internet of platforms. It is up to you to take the power (and responsibilities) by hosting your search engine, set up according to your culture, your indexing policy and your values !

Illustration CC-By David Revoy

What Sepia Search can do for you

If we’ve done a good work , Sepia Search will allow you to discover videos and therefore channels (or even PeerTube instances) that will interest you !

The Sepia Search site has been designed to inform you while respecting your attention :

  • The results will be the same for everyone, based only on your search (and the language of your browser’s language), and absolutely not pre-sorted according to a profile (because there is no profiling, here !) ;
  • The results are presented in a clear and detailed way, to avoid the attention war leading to clickbait thumbnails and all caps over-the-top titles ;
  • Search filters give you the power to sort the results out and display those you really want ;
  • If you want to see a video from the results, Sepia Search will redirect you directly to the instance where it is hosted (since we have no interest in locking you into the search engine’s website). This is a way to help anyone experience and understand the notion of federation.

The 2 first results when you type « Talk » in.

The search engine that runs Sepia Search is a free « libre » software, which means that it is open to modifications and adaptations. More advanced uses (through what is called an API) will very quickly allow even more emancipation.

For example, Internet users using Firefox will be able to add Sepia Search to the list of search engines in their browser directly from the site. Likewise, our engine (or another installation of the same engine) will be a tool for extensions that notify you when a YouTube video is also available on PeerTube, and will probably contribute to their efficiency.

A Community Funded Tool

Sepia Search is an additional and necessary step in the roadmap to PeerTube v3, for which a crowdfunding is still underway.

Being able to search for videos in the federation was in high demand, which is why we made it the first step in our roadmap. Prior to PeerTube v2.3, when using the search bar for an instance, results were limited to the videos in the federation bubble of that instance.

Thanks to your donations which have funded our work, we released version 2.3 of PeerTube at the end of July. Since then, the same search can now display results from all PeerTube instances listed in a « Search PeerTube » search engine, including the one we provide.

However, the usage surveys conducted by Marie-Cécile (the designer who has been working with us on this roadmap to improve PeerTube) and the feedback we have received from you has made us realize that this was not enough : we also needed a specific web site to promote this search engine.

Click to try SepiaSearch

Your donations fund our freedom of action : we understood the need, so we announced in mid-August that we were going to rearrange our workload and free some time up to fulfill the need, which we felt was a priority. This is how Sepia Search was born.

Last stop before the live !

There is now one big straight line on our roadmap to PeerTube v3 : implementing live, peer-to-peer video streaming ! As we announced, this will be a first implementation of this feature, and it will be very spartan (no chat module, no filters, no emoticons).

Illustration CC-By David Revoy

At the time of writing, nearly 1,000 people have funded €42,000 of the €60,000 needed to fully develop this v3. While the world is facing a pandemic, we did not find it decent to condition these developments to your donations. Whether we collect the €60,000 or not, we will produce this v3, even if we have to do it on our own funds (which we did for the v2).

We still hope that some of you will share our values and our approach, and that by talking about this project as widely as possible, we will manage to raise this sum (and not to overstretch our budget for next year !).

To support PeerTube, please consider sharing the roadmap page where anyone can make a donation !

 

Learn more

Learn even more (experts)

Sepia Search : notre moteur de recherche pour découvrir PeerTube

framasoft
, 22/09/2020 | Source : Framablog

Nous ouvrons aujourd’hui une nouvelle porte d’entrée vers PeerTube, pour faciliter la découverte des vidéos qui sont publiées dans une fédération qui grandit de jour en jour.

PeerTube, c’est l’alternative que nous développons pour que chacun·e puisse émanciper ses vidéos des YouTube et autres TikTok. Sauf qu’à l’inverse de YouTube, Peertube n’est pas une plateforme unique.

PeerTube est un logiciel que des spécialistes peuvent installer sur un serveur pour créer de nombreuses plateformes vidéos (des « instances »), qui peuvent se relier entre elles au sein d’une fédération.

Une porte d’entrée vers une fédération diverse

Le problème, avec les fédérations, c’est qu’elles sont beaucoup plus variées et complexes qu’une plateforme à guichet unique. C’est bien joli de décentraliser pour empêcher la création de nouveaux géants du Web, mais elle est où la porte d’entrée ?

Doit-on vraiment expliquer la notion d’instance ? Insister sur le besoin de trouver la sienne et donc de se renseigner sur les politiques de fédération de chaque instance ? … à une personne qui demande simplement :

Mais… moi, je voulais juste regarder des vidéos !

La solution serait de créer un moteur de recherche pour toutes les vidéos publiées grâce à PeerTube.

Si l’on ouvre une porte d’entrée unique vers la fédération, alors la structure qui détient les clés de cette porte prend le pouvoir. Elle prend le pouvoir de décider ce qui sera accepté (ou refusé) dans l’annuaire de recherche, elle prend le pouvoir de noter qui a cherché quoi, quand, depuis où, et elle prend le pouvoir d’intervenir dans l’affichage et l’ordre des résultats.

C’est sur de tels mécanismes de pouvoir que Google a construit son monopole. Autant vous dire que, chez Framasoft, nous ne cherchons pas à être en situation de pouvoir… et encore moins à suivre le (mauvais) exemple de Google ! Pour autant, nous voulons montrer le potentiel émancipateur de ce logiciel qui permet de se réapproprier les moyens de diffusion.

Nous prenons donc la responsabilité de vous ouvrir Sepia Search, notre porte d’entrée vers des vidéos et des vidéastes sur PeerTube… Une porte que nous ouvrons en limitant au maximum les pouvoirs qui lui sont associés, pour respecter votre attention comme votre navigation.

Présenter PeerTube sans monopoliser les attentions

Dans l’univers de la fédération, le « fédiverse », on trouve de nombreuses instances PeerTube où des personnes s’inscrivent pour créer autant de chaînes qu’elles veulent, des chaînes où ces personnes peuvent publier leurs vidéos.

Notre objectif, avec Sepia Search, n’est pas de présenter l’intégralité de ces contenus. Nous voulons simplement vous montrer l’espace d’autonomie qu’ouvre PeerTube, en respectant les valeurs de transparence, d’ouverture et de liberté que nous défendons depuis plus de 16 ans.

Voici Sepia, læ mascotte de PeerTube – Illustration de David Revoy (CC-By)

Un outil d’indexation publiquement auditable (transparence)

Derrière Sepia Search, il y a deux logiciels.

Le premier, c’est le moteur : c’est le logiciel dans lequel on entre une recherche, qui compare cette recherche avec la liste des contenus de son annuaire, et qui donne les résultats correspondants.

Le deuxième, c’est la carrosserie : c’est le logiciel qui va présenter la barre de recherche, recevoir la demande que vous avez saisie, et vous afficher les résultats en précisant bien en orange où vous vous rendrez lorsque vous cliquerez sur « Aller voir cette vidéo ».

Le code source, la « recette de cuisine » de chacun de ces logiciels, est publié en toute transparence sur notre forge logicielle. N’importe quelle personne sachant lire ce code peut l’examiner, et déterminer s’il existe des outils pour tricher dans l’affichage des résultats, ou d’autres pour espionner vos comportements.

Nous, nous savons déjà que ces codes sont éthiques et ne vous espionnent pas. Nous avons une bonne raison : comme c’est marqué dans nos CGU, vos données ne nous intéressent vraiment, mais alors vraiment pas !

Un moteur de recherche modéré a posteriori (ouverture)

Toutes les instances PeerTube ne seront pas référencées sur Sepia Search. Ce moteur de recherche opèrera sur la liste d’instances que nous maintenons sur instances.joinpeertube.org.

Nous avons récemment annoncé un changement dans la politique d’indexation de cette liste afin qu’elle s’aligne sur la politique de l’ensemble des services que nous proposons :

Ainsi, si l’on nous signale une instance dont les contenus font explicitement l’apologie du terrorisme ou promeuvent le révisionnisme historique, nous la retirerons de l’index (non-respect des lois françaises, sur lequel nous insistons dans nos CGU), ce qui éliminera des résultats de recherche toutes les vidéos hébergées par cette instance.

A contrario, si une ou des personnes viennent abuser du temps de nos modérateur⋅ices par des signalements intempestifs et sans fondement, leur parole sera discréditée et ignorée (comme l’indique notre charte de modération).
Cette modération nous permettra de limiter les résultats proposés par Sepia Search aux vidéastes qui font des créations originales et aux chaînes (voire aux instances) qui contribuent à émanciper les esprits. Nous souhaitons qu’elle soit aussi légère que possible.

Illustration de David Revoy (CC-By)

Un outil reproductible, adaptable à vos conditions (liberté)

Il peut sembler paradoxal de parler d’ouverture pour détailler dans quelles conditions nous fermons Sepia Search à certains contenus (notamment illégaux).

Pourtant, à Framasoft, nous croyons au paradoxe de la tolérance, et donc que l’ouverture ne peut perdurer que si les limites de cette ouverture sont honnêtement définies et défendues.

Nous avons conscience qu’il s’agit là d’un point de vue venant de notre culture française, voire d’Europe de l’ouest. Il peut, par exemple, choquer des personnes de culture nord-américaine (où se pratique un Free Speech inconditionnel) ou de culture chinoise « officielle » (où, actuellement, le gouvernement pose des limites strictes à la liberté d’expression).

Nous ne voulons ni imposer notre culture, ni la renier. C’est pourquoi nous avons fait en sorte, légalement comme techniquement, que chacun·e soit libre d’éditer sa propre liste d’instances, son moteur d’indexation et son site de recherche, en copiant et adaptant ce que nous avons créé.

Sepia Search n’est que notre porte d’entrée vers PeerTube. Ce site a pour objectif de vous présenter le PeerTube émancipateur pour lequel nous travaillons, avec notre culture, notre militance et notre subjectivité.

Attendre d’un acteur qu’il fasse tout, tout seul, c’est finalement un réflexe de soumission à l’Internet des plateformes. Libre à vous de prendre le pouvoir (et les responsabilités) en hébergeant votre moteur de recherche, paramétré selon votre culture, votre politique d’indexation et vos valeurs !

Illustration de David Revoy (CC-By)

Ce que Sepia Search peut faire pour vous

Si nous avons bien travaillé, Sepia Search va vous permettre de découvrir des vidéos, donc des chaînes (voire des instances PeerTube) qui vous intéresseront !

Le site Sepia Search a été conçu pour vous informer en respectant votre attention :

  • Les résultats seront les mêmes pour tout le monde, en fonction uniquement de votre recherche (et de la langue de votre navigateur), et absolument pas pré-triés selon un profil (parce qu’il n’y a pas de profilage !) ;
  • Les résultats sont présentés de manière claire et détaillée, afin d’éviter la course à la vignette putassière et aux titres criards tout en majuscules ;
  • Les filtres de recherches vous donnent le pouvoir de trier l’affichage des résultats de manière avancée ;
  • Si vous voulez voir la vidéo, Sepia Search vous redirigera directement sur l’instance où elle est hébergée (puisque nous n’avons aucun intérêt à vous enfermer dans le site web du moteur de recherche). Cela permet au passage de montrer concrètement la notion de fédération.

Les 2 premiers résultats de la recherche du mot « critique », en filtrant pour ne garder que des vidéos en langue française.

Le moteur de recherche qui fait tourner Sepia Search est un logiciel libre, ce qui signifie qu’il est ouvert aux modifications et adaptations. Des usages plus poussés (passant par ce qu’on appelle une API) vont très vite permettre encore plus d’émancipation.

Par exemple, les internautes utilisant Firefox pourront ajouter Sepia Search à la liste des moteurs de recherche de leur navigateur directement depuis le site. De même, notre moteur (ou une autre installation du même moteur) pourra servir aux extensions qui permettent de signaler quand une vidéo YouTube est aussi disponible sur PeerTube, afin de les rendre plus performantes.

Un outil financé par la communauté

Sepia Search est une étape supplémentaire et nécessaire à la feuille de route vers la v3 de PeerTube, pour laquelle une collecte est toujours en cours.

Le fait de pouvoir rechercher des vidéos dans la fédération était très demandé : c’est pourquoi nous en avons fait la première étape de notre feuille de route. En effet, avant la version 2.3 de PeerTube, lorsqu’on utilisait la barre de recherche d’une instance, les résultats se limitaient aux vidéos dans la bulle de fédération de cette instance.

Grâce à vos dons qui ont financé notre travail, nous avons publié fin juillet la version 2.3 de PeerTube. Depuis, la même recherche peut désormais afficher les résultats de toutes les instances PeerTube listées dans un moteur de recherche « Search PeerTube », dont celui que nous mettons à disposition.

Cependant, les enquêtes d’utilisation menées par Marie-Cécile (la designer qui s’est engagée avec nous sur cette feuille de route afin d’améliorer PeerTube) et les retours dont vous nous faites part nous ont permis de comprendre que c’était insuffisant : il fallait, en plus, un site web spécifique, faisant office de moteur de recherche.

Cliquez pour découvrir SepiaSearch

Vos dons financent notre liberté d’action : nous avons vu ce manque, et nous avons annoncé mi-août que nous allions réaménager notre plan d’action et dégager du temps pour y remédier, ce qui nous semblait prioritaire. Voici comment est né Sepia Search.

Dernier arrêt avant le live !

Il reste désormais une seule et grosse ligne droite sur notre feuille de route vers la v3 de PeerTube : implémenter la diffusion de vidéos en direct et en pair à pair ! Comme nous l’avons annoncé, il s’agira là d’une première version de cette fonctionnalité, et elle sera très spartiate (sans module de tchat, ni filtres, ni réactions émoticonées).

Illustration de David Revoy (CC-By)

À l’heure où nous écrivons ces lignes, près de 1 000 personnes ont financé 42 000 € sur les 60 000 € nécessaires au développement complet de cette v3. Alors que le monde entier fait face à une pandémie, nous n’avons pas trouvé décent de conditionner ces développements à vos dons. Que nous récoltions les 60 000 € ou non, nous produirons cette v3, quitte à le faire sur nos fonds propres (ce que nous avions déjà fait pour la v2).

Nous espérons malgré tout que certain·es d’entre vous partagerons nos valeurs et notre démarche, et qu’en parlant de ce projet le plus largement possible, nous parviendrons à réunir cette somme (et à ne pas gréver notre budget pour l’an prochain !).

Pour soutenir PeerTube, pensez à partager la page de la feuille de route sur laquelle vous pouvez faire un don !

 

Pour aller plus loin

Pour aller encore plus loin (expert·es)

Décryptualité du 21 septembre 2020 - Health Data Hub, les données de santé des Français hébergées par MS

lfievet2
, 22/09/2020 | Source : APRIL (Décryptualité)

Écouter ou télécharger le Décryptualité du 21 septembre 2020 (15 minutes)

Cette semaine, on parle de la contestation autour de Health Data Hub, la plateforme des données de santé des Fançais hébergée sur le cloud Microsoft.

Decryptualité sur Mastodon

Syndiquer le contenu Syndiquer le contenu grâce à votre agrégateur de flux RSS

Musique de l'indicatif : Sebkha-Chott - CRPTS ND TPSTRZ - KHOLIK NEFAEHRTITIK

Décryptualité du 21 septembre 2020 - Health Data Hub, les données de santé des Français hébergées par MS

lfievet2
, 22/09/2020 | Source : APRIL (Actualités)

Écouter ou télécharger le Décryptualité du 21 septembre 2020 (15 minutes)

Cette semaine, on parle de la contestation autour de Health Data Hub, la plateforme des données de santé des Fançais hébergée sur le cloud Microsoft.

Decryptualité sur Mastodon

Syndiquer le contenu Syndiquer le contenu grâce à votre agrégateur de flux RSS

Musique de l'indicatif : Sebkha-Chott - CRPTS ND TPSTRZ - KHOLIK NEFAEHRTITIK