Merge branch 'contribution-6vkpsi6rhdo' into 'main'

Gavy
, 19/06/2025 | Source : Framalibre

Contribution de Ceciile sur les fichiers _notices/Grisbi.md See merge request !1019

Contribution de Ceciile sur les fichiers _notices/Grisbi.md

contributeur.rice formulaire framalibre - Ceciile
, 18/06/2025 | Source : Framalibre

Le Conseil d’État enterre de manière illégitime le débat sur la loi sur la censure d’internet

bastien
, 18/06/2025 | Source : La Quadrature du Net

En novembre 2023, La Quadrature du Net, Access Now, ARTICLE 19, European Center for Not-for-Profit Law (ECNL), European Digital Rights (EDRi) et Wikimedia France lançaient une action en justice contre le décret français d’application du Règlement européen relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (TCO, ou « TERREG »). L’objectif était d’obtenir l’invalidation par la Cour de justice de l’Union européenne (CJUE) de ce règlement dangereux en raison de son incompatibilité avec la Charte des droits fondamentaux de l’UE. Malheureusement, dans sa décision rendue lundi, la plus haute juridiction administrative française, le Conseil d’État, a rejeté les arguments des organisations et leur demande de renvoi de l’affaire devant la CJUE.

Ce résultat est extrêmement décevant pour deux raisons principales. Premièrement, le Conseil d’État s'est illégitimement approprié le débat juridique sur la compatibilité du règlement TCO avec le droit primaire de l'UE. Cette question devrait pourtant être traitée au niveau de l’UE. Selon les Traités, la CJUE est la juridiction principale compétente pour statuer sur la légalité des actes de l’UE – c’est pour cela que les organisations demandaient le renvoi de l’affaire devant celle-ci. En menant son propre contrôle de légalité, le Conseil d’État empêche de facto la CJUE d’exercer ses compétences exclusives.

Deuxièmement, cette décision signifie également que les polices de l’ensemble de l’UE peuvent continuer à exercer leurs pouvoirs de censure excessive en vertu du règlement TCO pour encore un certain temps. Depuis la publication initiale de la proposition en 2018, les organisations qui ont contesté le règlement TCO ont régulièrement fait part de leurs préoccupations quant aux violations potentielles des droits fondamentaux en raison de l’insuffisance des garanties prévues. Au vu des données disponibles sur la mise en œuvre du règlement, certains éléments indiquent que certains États membres pourraient utiliser le TERREG comme un outil politique pour réprimer certains types d’expressions en ligne.

Par exemple, sur les 349 injonctions de retrait émises dans l’UE entre juin 2022 et avril 2024, 249 l’ont été par les autorités allemandes à la suite des événements du 7-Octobre en Israël. Cette situation est très préoccupante compte tenu de la répression croissante en Allemagne à l’encontre de la liberté d’expression, de réunion et d’association qui vise celles et ceux qui défendent les droits des Palestiniens et Palestiniennes (notamment par des interdictions de manifester, annulations d'événements, répression d’initiatives étudiantes, etc.).

Les organisations insistent sur la nécessité urgente de mettre fin aux pouvoirs de censure disproportionnés que confère le TERREG à la police et de protéger la liberté d'expression en ligne, en particulier dans un contexte de rétrécissement de l’espace démocratique à travers tout le continent. Elles s’engagent à rechercher d’autres voies de recours afin d’obtenir le renvoi devant la CJUE de la question de la légalité du règlement TCO.


La Quadrature du Net (LQDN) promeut et défend les libertés fondamentales dans le monde numérique. Par ses activités de plaidoyer et de contentieux, elle lutte contre la censure et la surveillance, s’interroge sur la manière dont le monde numérique et la société s’influencent mutuellement et œuvre en faveur d’un internet libre, décentralisé et émancipateur.

Le European Center for Not-for-Profit Law (ECNL) est une organisation non-gouvernementale qui œuvre à la création d’environnements juridiques et politiques permettant aux individus, aux mouvements et aux organisations d’exercer et de protéger leurs libertés civiques.

Access Now défend et améliore les droits numériques des personnes et des communautés à risque. L’organisation défend une vision de la technologie compatible avec les droits fondamentaux, y compris la liberté d’expression en ligne.

European Digital Rights (EDRi) est le plus grand réseau européen d’ONG, d’expert·es, de militant·es et d’universitaires travaillant à la défense et à la progression des droits humains à l’ère du numérique sur l’ensemble du continent.

ARTICLE 19 œuvre pour un monde où tous les individus, où qu’ils soient, peuvent s’exprimer librement et s’engager activement dans la vie publique sans crainte de discrimination, en travaillant sur deux libertés étroitement liées : la liberté de s’exprimer et la liberté de savoir.

Wikimédia France est la branche française du mouvement Wikimédia. Elle promeut le libre partage de la connaissance, notamment à travers les projets Wikimédia, comme l’encyclopédie en ligne Wikipédia, et contribue à la défense de la liberté d’expression, notamment en ligne.

Réunion de bilan de la saison 8 de Libre à vous! et préparation de la saison 9

egonnu
, 17/06/2025 | Source : APRIL (Actualités)

27 Juin 2025 - 10:30
27 Juin 2025 - 12:00

Libre à vous !

L'émission Libre à vous! de l'April est diffusée chaque mardi de 15 h 30 à 17 h sur radio Cause Commune sur la bande FM en région parisienne (93.1) et sur le site web de la radio.

Le podcast de l'émission, les podcasts par sujets traités et les références citées sont disponibles dès que possible sur le site consacré à l'émission, quelques jours après l'émission en général.

Réunion de bilan de la saison 8 et préparation de la saison 9

Nous organisons une réunion de bilan de la saison 8 de Libre à vous ! et préparation de la saison 9 lieu vendredi 27 juin de 10 h 30 à 12 h. La réunion aura lieu en visio. Cette réunion est ouverte à toute personne qui souhaite assister, participer.

Réunion pour :

  • faire un bilan de la saison actuelle de Libre à vous !
  • préparer la saison prochaine

En attendant la réunion, n'hésitez pas à contribuer en signalant des points forts (ce qui vous plait), des points de vigilance/d'amélioration, des suggestions pour la saison 9. Vous pouvez le faire en complétant le bloc-notes.

« Libre à vous ! » sur radio Cause Commune (17 juin 2025)

ivanni
, 16/06/2025 | Source : APRIL (Actualités)

17 Juin 2025 - 15:30
17 Juin 2025 - 17:00

Photo d'illustration de l'émission

251e émission Libre à vous ! de l'April en direct sur radio Cause Commune 93.1 FM et DAB+ en Île-de-France, et sur le site web de la radio, mardi 17 juin 2025 de 15 h 30 à 17 h. Le podcast de l'émission et les podcasts par sujets traités sont disponibles dès que possible, quelques jours après l'émission en général.

Au programme :

  • sujet principal : l'association La Mouette et la bureautique libre, avec Laure Patas d’Illiers et Régis Perdreau. Sujet animé par laurent Costy
  • la chronique Les humeurs de Gee sur « L'IA ne s'en ira pas »
  • interview avec l'association Infini
  • quoi de Libre ? Actualités et annonces concernant l'April et le monde du Libre

Nous contacter pour poser une question :

Intervenir pendant le direct (mardi 17 juin 2025 de 15 h 30 à 17 h 00) :

Écouter le direct mardi 17 juin 2025 de 15 h 30 à 17 h 00   S'abonner au podcast S'abonner à la lettre d'actus

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h.

Les archives de l'émission

Écouter les émissions précédentes

Revue de presse de l’April pour la semaine 24 de l’année 2025

echarpentier
, 16/06/2025 | Source : APRIL (Actualités)

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Next] Dans les communautés de Wikipédia, l'utilisation de l'IA ne passe pas

✍ Martin Clavey, le .

[01net.] Le code d'Android reste open source, mais à quel prix?

✍ Mickaël Bazoge, le .

[Le Monde Informatique] La Fondation Linux assure un futur serein à WordPress

✍ Dominique Filippone, le .

[usine-digitale.fr] Souveraineté numérique: Copenhague et Aarhus enclenchent leur divorce avec Microsoft

✍ Alice Vitard, le .

Khrys’presso du lundi 16 juin 2025

Khrys
, 16/06/2025 | Source : Framablog

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Recrutements automatisés : défaillances spécifiques, défaillances systémiques

Framasoft
, 15/06/2025 | Source : Framablog

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 11 juin 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Démontrer les défaillances des systèmes de recrutement automatisé demeure compliqué. Les enquêtes et tests des usagers, des chercheurs, des médias… parviennent souvent à pointer des défaillances spécifiques que les entreprises ont beau jeu de rejeter comme n’étant pas représentatifs. Et effectivement, corriger les biais de recrutement nécessite d’être capable de les mesurer. Comment répondre aux défaillances du recrutement automatisé ?

 

C’est le dossier de Dans les Algorithmes !

 

 

 

 

 

Le problème auquel nous sommes confrontés dans les systèmes de recrutement automatisés est que ni les postulants ni les départements RH ni les régulateurs ni le grand public ne savent très bien comment les CV sont inspectés et scorés (voir la première partie de ce dossier). Les candidats savent rarement si ces outils sont la seule raison pour laquelle les entreprises les rejettent – et aucun de ces systèmes n’explique aux utilisateurs comment ils ont été évalués. Pourtant, les exemples flagrants de défaillances spécifiques sont nombreux, sans qu’il soit toujours possible de prouver leurs défaillances systémiques.

Dans son livre, The Algorithm : How AI decides who gets hired, monitored, promoted, and fired and why we need to fight back now (L’algorithme : comment l’IA décide de qui sera embauché, surveillé, promu et viré et pourquoi nous devons riposter, Hachette, 2024, non traduit), la journaliste Hilke Schellmann donne beaucoup la parole à des individus qui ont bataillé contre des systèmes : une développeuse black très compétente discriminée en continu, un data scientist écarté sans raisons de postes pour lesquels il était plus que compétent… un candidat d’une cinquantaine d’années, excédé qui finit par changer sa date de naissance et se voit magiquement accepté aux candidatures où il était refusé ! Le testing systémique des outils d’embauche automatisés est encore trop rare et trop souvent individuel… Mais il montre bien souvent combien ces systèmes sont défaillants, à l’image de celui initié récemment par Bloomberg : les journalistes ont demandé à ChatGPT de classer des CV dont le seul élément modifié était le prénom et le nom des candidats. Sans surprise, les CV avec des noms à consonance afro-américaine étaient à chaque fois les plus mal classés !

Pourtant, démontrer les dysfonctionnements de ces systèmes demeure compliqué, concède la journaliste. Notamment parce que ces éclairages reposent souvent sur des exemples spécifiques, de simples tests, des études limitées en ampleur, en profondeur et dans le temps… que les entreprises ont beau jeu de les rejeter comme n’étant pas représentatifs. L’accumulation de preuves de défaillances devrait néanmoins être plus que préoccupante.

Les informations sur le fonctionnement de ces systèmes sont rares, la plupart du temps elles ne nous parviennent que quand ces systèmes dysfonctionnent publiquement. En 2018, une enquête de Reuters avait montré que le système de recrutement d’Amazon était fortement biaisé au détriment des femmes : ses données d’entraînement (les CV des gens déjà recrutés par Amazon) comportaient trop peu de femmes et les écartait par défaut. Malgré les tentatives de l’équipe d’Amazon pour réparer le système d’embauche, l’équipe a fini par abandonner le projet, faute d’y parvenir. C’est dire que réparer les défaillances et les biais n’est pas si simple. Les problèmes de discriminations ne se sont pourtant pas arrêtés. La Commission pour l’égalité des chances en matière d’emploi (EEOC, l’agence fédérale américaine chargée de lutter contre la discrimination à l’emploi), poursuit chaque année de nombreuses entreprises qui ont des pratiques d’embauches discriminatoires massives et problématiques.

Vous avez du mal à trouver un emploi ? La faute aux robots recruteurs.
Image extraite d’un article de Hilke Schellmann pour The Guardian.

 

Pour John Jersin, longtemps vice-président de Linkedin, ces problèmes de discrimination invisibles, cachés dans d’autres pratiques ou au fin fond des mots, restent inaperçues des développeurs de systèmes, notamment parce que la réduction des biais évoque d’abord le risque qui affecte certaines catégories de population plutôt que d’autres. Le débiaisage invite à écarter des éléments visibles, comme le genre, les prénoms, les pronoms, les photos… mais n’insiste pas assez sur le fait que les biais peuvent être, par cascade, à plein d’autres endroits. Chez Linkedin, Jersin a construit une équipe d’ingénieurs en IA pour combattre les biais de l’IA. Pour réduire les biais de genre, la solution de Linkedin a été… de mettre encore plus d’IA en utilisant des coefficients de représentativité genrés selon les emplois pour corriger la visibilité des annonces (comme Meta envisage de le faire pour les annonces immobilières). L’exemple montre bien que pour corriger les biais, encore faut-il pouvoir les mesurer, et non seulement mesurer les biais de représentativité, mais également ceux de la diffusion des annonces. Sans compter que ces corrections qui visent à réduire les écarts de performance entre groupes démographiques risquent surtout de produire un “égalitarisme strict par défaut”, qu’une forme d’équité. Le débiaisage laisse ouvertes plusieurs questions : Quelles corrections appliquer ? Comment les rendre visibles ? Jusqu’où corriger ?

Sans compter qu’il faudrait pouvoir corriger toutes les autres formes de discrimination, liées à l’âge ou la couleur de peau… Ou encore des discriminations liées à l’origine géographique des candidats qui permet d’écarter très facilement des candidatures selon leur localisation. Et surtout de la plus prégnante d’entre elles : la discrimination de classe.

Pseudoscience automatisée

Les systèmes d’embauche automatisé reposent principalement sur l’analyse de mots et nous font croire que cette analyse permettrait de prédire la performance au travail, la personnalité des candidats ou l’adéquation entre une offre et un poste. Ces outils de sélection et d’évaluation sont partout promus comme s’ils fournissaient des informations stables, fiables, objectives et équitables, sans jamais se soucier de leur validité scientifique. Pourtant, les vendeurs de ces systèmes n’apportent jamais la moindre preuve de la validité scientifique de leurs solutions.

Pour les chercheurs Mona Sloane, Emanuel Moss et Rumman Chowdhury, ces systèmes reposent surtout sur des pratiques pseudoscientifiques qu’autre chose. Et bien souvent, les évaluations sont prises dans des chaînes de traitement qui impliquent plusieurs types d’outils et de techniques qui rendent leur audit difficile, notamment parce que certains résultats ont des conséquences sur d’autres mesures. Pour les chercheurs, il faudrait revenir aux « racines épistémologiques » des systèmes, c’est-à-dire aux prétentions à la connaissance qu’ils formulent, comme de prétendre que l’analyse des mots d’un CV puisse caractériser la performance au travail. La perspective de déployer des audits pour s’assurer de leur conformité qui ne se limiteraient qu’à des questions d’équité (de genre ou d’âge par exemple) ne peuvent pas corriger les problèmes que génère cette fausse prétention à la connaissance. Or, pour l’instant, sans même parler d’équité, les entreprises ne sont même pas obligées de révéler aux candidats les outils qu’elles mobilisent ni leurs effets. Nous ne connaissons ni la liste des systèmes mobilisés, ni leurs intentions, ni les données utilisées, ni celles utilisées pour la modélisation… L’opacité de l’emploi automatisé s’étend bien plus qu’il ne se résout.

Cambridge Analytica nous a permis de comprendre l’impact du profilage pseudo-psychologique. Dans le domaine du recrutement, on utilise depuis longtemps le profilage psychologique : la graphologie comme les tests psychologiques ont été inventés pour le travail, comme nous l’expliquait le psychologue Alexandre Saint-Jevin. Nombre d’outils tentent de prédire le profil psychologique des candidats, comme Humantic AI ou Crystal. IBM elle-même a longtemps promu une version dédiée de Watson… avant de l’arrêter. L’idée consiste le plus souvent à scanner le profil des candidats pour savoir qui ils sont vraiment, afin de prédire leurs comportements. Le secteur est en plein boom. Il représente quelque 2 milliards de dollars en 2023. Il n’est pourtant rien d’autre que de « l’astrologie de bureau » qui ne produit rien d’autre que de notre propre hallucination.

Pour compléter ces analyses pseudo-psychologiques, de nombreux outils comme Fama, Foley, Ferretly ou Intelligo… aspirent les contenus des médias sociaux (sans demander leur consentement aux candidats) et appliquent sur ces contenus des analyses émotionnelles souvent simplistes, consistant à caractériser positivement ou négativement les mots utilisés, les likes déposés… sans parvenir à distinguer le sarcasme ou l’ironie, comme l’a vécu une employée en recevant 300 pages d’analyse automatisé de son profil par Fama – une pratique qui, en France, rappelle un arrêt de la Cour de cassation, devrait être très encadrée, notamment parce que cette collecte d’informations tiers peut-être déloyale par rapport à l’objet de leur mise en ligne.

Dans ces profilages, les individus sont réduits à des schémas psychologiques simplistes, provenant de personnes qui ont passé ces tests de personnalités et dont les systèmes conservent les profils de réseaux sociaux associés, pour les comparer à ceux de nouveaux candidats dont on ne connaît pas les résultats aux tests de personnalités afin de les déduire par comparaison. Cela conduit bien souvent à produire des corrélations basiques : les fans de Battlestar Galactica sont introvertis, ceux de Lady Gaga extravertis ! Dans son livre, Schellmann teste Humantic sur son profil Twitter et Linked-in. Sur le premier, elle apparaît « autoritaire, énergique et impulsive ». Sur le second, elle est « analytique, prudente et réfléchie » ! Sur le second analysé par Crystal, elle est dite « franche, assurée et agressive » ! Elle fait passer le test à ses étudiants en data science. Ils téléchargent chacun un même CV qui produit des résultats différents ! Contactées suite à ces contradictions, les plateformes ont beau jeu de répondre que l’échantillon est trop faible pour être représentatif… À nouveau, le déni des résultats spécifiques sert toujours à masquer les défaillances systémiques.

Nombre de systèmes usent et abusent de tests psychologiques consistant à faire sens des mots d’un CV. Pourtant, la recherche dans le domaine a montré depuis longtemps que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité

À défaut de trouver des critères pertinents pour distinguer des candidats souvent assez proches les uns des autres, le recours à la pseudoscience permet d’imaginer des différences ou de recouvrir des discriminations bien réelles d’un vernis socio-culturel.

Schellmann a également testé des outils d’entretiens audio et vidéo comme Hirevue ou Retorio. Ce ne sont déjà plus des outils anodins. 60 des 100 plus grandes entreprises américaines utilisent Hirevue et quelque 50 000 candidats sont auditionnés chaque semaine par le système d’entretien automatisé développé par cette entreprise. Hirevue est peu disert sur le fonctionnement en boîte noire de son système. À ce qu’on en comprend, le système produit plusieurs scores qui tentent d’évaluer la capacité à négocier, à persuader… ou la stabilité émotionnelle. En tentant d’apprécier ce qui est dit et comment il est dit. Mais, comme toujours avec l’analyse émotionnelle, « les outils confondent la mesure avec son interprétation ». Ces outils innovants, démasqués par plusieurs enquêtes, ont pourtant peu à peu coupé certaines de leurs fonctionnalités. Retorio comme Hirevue n’utilisent plus la reconnaissance faciale ni l’analyse du ton de la voix pour analyser l’émotion des candidats, suite à des révélations sur leurs dysfonctionnements (un audit pour Hirevue et une enquête de journalistes allemands pour Retorio qui montrait que le score d’une même personne n’était pas le même selon la manière dont elle était habillée, si elle portait ou non des lunettes ou selon l’arrière-plan qu’elle utilisait). Cela n’empêche pas que leurs réponses, elles, soient scorées sur les mots utilisés selon leur « positivité » ou leur « négativité » (une analyse qui n’est pas sans poser problème non plus, puisque des termes très simples comme juif, féministe ou gay ne sont pas interprétés positivement par ces systèmes d’analyses de langue). Mais le problème n’est pas que là : la retranscription même des propos est parfois déficiente. S’amusant d’obtenir un bon score en anglais sur MyInterview, un système du même type, Schellmann se met alors à parler allemand, sa langue natale… avant de recevoir un transcript généré automatiquement qui transforme son Allemand en pur globish sans grand sens… tout en lui attribuant un très bon score ! De quoi interroger profondément les promesses de tous ces outils qui masquent sous des calculs complexes leurs profondes béances méthodologiques et leurs incapacités à produire autre chose que des leurres. Le problème, c’est que ces leurres peuvent tromper les entreprises qui achètent très chères ces solutions… mais ils trompent d’abord et avant tout les candidats, qui eux, n’ont pas beaucoup de modalités de recours, face à des systèmes bien plus aberrants que fiables.

Les outils automatisés pour l’embauche ne réduisent pas les biais du recrutement. Au mieux, ils les invisibilisent, au pire, ils les amplifient. Derrière leur vernis d’objectivité, ces systèmes produisent surtout une subjectivité cachée, à l’image des innombrables techniques de classements des employés qui ont de plus en plus cours dans les entreprises et que dénonce la journaliste de Marianne, Violaine des Courières, dans son livre, Le management totalitaire (Albin Michel, 2023). Pour assurer une compétition de plus en plus vive, explique-t-elle, on psychiatrise le monde du travail avec du profilage comportemental ou psychique. C’est un peu comme si la course au mérite n’était jamais totalement aboutie, qu’il fallait toujours l’améliorer jusqu’à parvenir à des critères qui ne regardent plus vraiment les compétences mais reposent sur des mesures de plus en plus absconses pour permettre de distinguer des candidats souvent très semblables.

Alors, comment améliorer les choses ?

Selon le chercheur Arvind Narayanan, l’embauche est l’un des pires secteurs pour utiliser l’IA, car ce que ces systèmes doivent prédire n’est pas clair. La productivité, la performance ou la qualité d’un employé ne sont pas des critères faciles à catégoriser. Apporter la preuve que leurs systèmes fonctionnent devrait être la première responsabilité des vendeurs de solutions, en publiant les études scientifiques indépendantes nécessaires, en laissant les entreprises les tester, et en permettant à ceux qui sont calculés d’obtenir des résultats et des explications sur la manière dont ils ont été calculés. Dans le domaine médical, les laboratoires doivent prouver que leurs médicaments fonctionnent avant de pouvoir être mis sur le marché, rappelle-t-il. Ce n’est pas le cas de ces systèmes d’évaluation des candidatures comme de bien des systèmes automatisés utilisés dans le domaine du travail. « Les essais contrôlés randomisés devraient être un standard dans tous les domaines de la prise de décision automatisée », plaide-t-il. Rappelant également la nécessité d’exiger la transparence des données d’entraînement des systèmes. Pas sûr cependant qu’inviter les acteurs du recrutement à inspecter, réformer et transformer leurs pratiques et leurs outils suffise, sans qu’une régulation et une responsabilité plus forte ne s’impose à eux. Sans sanction ni contrôle, les outils du recrutement automatisés ne se réformeront pas d’eux-mêmes. 

Mais encore faut-il pouvoir mieux mesurer et mettre en visibilité leurs défaillances. Pour cela, une autre piste consiste à ce que les recruteurs soient plus transparents sur leurs recrutements et leurs effets : qu’ils produisent des données sur les candidatures et les sélections auxquels ils procèdent, que ce soit sur le genre, l’âge, l’origine ethnique, géographique ou le niveau social. Pour faire reculer les discriminations invisibilisées et amplifiées, il faut que les entreprises soient contraintes à documenter les résultats de leurs sélections comparativement aux candidatures reçues et soient contraintes de documenter le niveau d’exposition et de publicisation de leurs annonces. C’est en ce sens qu’il faut lire les premiers efforts appelant à documenter l’égalité professionnelle… En France, l’index de l’égalité professionnelle n’observe que l’écart de rémunération des hommes et des femmes dans les entreprises de plus de 50 employés (mais sera suivi de la transparence des rémunérations et des salaires d’embauches qui doivent être intégrés par les entreprises d’ici juin 2026). Prolonger cet effort de transparence jusqu’aux systèmes de recrutement en demandant aux entreprises de produire des métriques sur leurs sélections à l’embauche et en automatisant les malus pour les entreprises dont les recrutements sont les plus discriminants par rapport au niveau de candidature reçu, pourrait être un puissant levier pour produire une transparence là où il n’y en a pas. Reste, comme le soulignait la CGT vis-à-vis d’un récent projet de loi contre la discrimination à l’embauche, la simple exposition des entreprises qui ont des pratiques discriminantes et les amendes ne suffiront pas à régler le problème des discriminations systématiques à l’embauche.

Reste que pour en prendre le chemin, il faudrait pourtant inverser la logique à l’œuvre aujourd’hui, où le contrôle s’exerce bien plus sur les candidats à l’emploi, notamment les chômeurs, que sur les pratiques des recruteurs. Celles-ci ne sont pourtant pas sans critiques, comme le soulignait une étude sur les offres d’emploi non pourvues menée par le Comité national CGT des travailleurs privés d’emploi et précaires, dénonçant la désorganisation des offres d’emploi, leur redondance voire le fait que nombres d’entre elles sont légalement problématiques.

Imposer la transparence et auditer les systèmes de recrutement, c’est la politique qu’a tenté d’initier la ville de New York l’année dernière… sans succès. Un article de recherche signé Lara Groves, Jacob Metcalf, Alayna Kennedy, Briana Vecchione et Andrew Strait explique justement pourquoi cette tentative de régulation n’a pas marché ! En juillet 2023, la ville de New York a mis en œuvre un règlement local imposant aux employeurs new-yorkais qui utilisent des outils de recrutement automatisés de les soumettre à des audits indépendants. Cet audit consiste en un audit de biais sur les discriminations raciales et de genres (mais pas sur l’âge ou le handicap) qui doit être publié sur le site web de l’employeur sous forme de ratio d’impact. Le ratio d’impact consiste à mesurer le taux de sélection des candidats selon les différents groupes démographiques, de genre et racial. L’idée est de mesurer la différence entre le niveau de sélection d’un groupe vis-à-vis de celui du groupe le plus sélectionné. Un ratio d’impact de 1,0 signifie que le taux de sélection est parfaitement égal entre les groupes, un ratio d’impact inférieur indique un résultat discriminatoire à l’encontre du groupe le moins sélectionné : plus le résultat est faible et plus il est discriminatoire, donc. Si le taux est inférieur à 0,8 selon les conventions juridiques américaines anti-discrimination, on estime qu’il y a une discrimination de fait (mais cette estimation tient plus d’un compromis arbitraire, car cette limite n’a jamais été concrètement questionnée ou évaluée). Enfin, même si elle prévoit des sanctions, la loi n’impose aucune obligation à un employeur qui découvrirait un impact discriminatoire, celui-ci devant uniquement publier un audit annuel de ses recrutements et de leurs effets.

Dans le tableau, plusieurs colonnes :* Race/Ethnicity Categories * Number Of Applicants * Scoring Rate * Impact Ratio Le contenu du tableau, ligne par ligne : * Hispanic or Latino - 470904 45% 0.89 * White 1457444 46% 0.9 * Black or African American 796447 48% 0.96 * Native Hawaiian or Pacific Islander 14904 45% 0.9 Asian 941554 50% 1.00 Native American or Alaska Native 29612 43% 0.85 Two or More Races 216700 46% 0.92

Dans le tableau ci-dessus, le ratio d’impact publié par une entreprise new-yorkaise montre par exemple que c’est la catégorie des populations autochtones qui sont le plus discriminées par le système de recrutement utilisé par l’entreprise. Image tirée de l’étude Auditing Work.

 

Les chercheurs ont constaté que très peu d’audits ont été rendus publics et aucun référentiel central n’a été créé par le Département de la protection des consommateurs et des travailleurs de la ville de New-York. Les chercheurs ont réussi à collecter seulement 19 audits, ce qui semble bien peu vu le nombre d’entreprises new-yorkaises. L’interview des cabinets chargés d’auditer les systèmes pointe que la loi proposée comportait trop d’imprécisions et laissait trop de marges de manœuvre aux employeurs (ceux-ci pouvant ne pas publier de rapport s’ils évaluaient que les systèmes automatisés n’aidaient pas « substantiellement » leur entreprise à embaucher). Pire, cette transparence ne permet pas vraiment aux candidats non recrutés et potentiellement discriminés d’agir à l’encontre des discriminations qu’ils auraient pu subir. Les chercheurs soulignent également la grande difficulté des auditeurs, à accéder aux données des services qu’utilisent les entreprises, pouvant rendre les audits peu fiables, voire tronqués. Les chercheurs en tirent quelques recommandations. La transparence (bien relative puisqu’elle se limitait ici à des tableaux de chiffres !) sur les discriminations à l’embauche ne suffit pas à produire du changement. Aucun candidat à l’embauche n’a semble-t-il tiré bénéfice de ces informations, et rien n’obligeait les entreprises prises en défaut à prendre des mesures correctives. Les chercheurs recommandent d’élargir le principe aux plateformes et fournisseurs d’outils de recrutement, que les documents de transparence soient collectés centralement et mieux accessibles aux candidats à l’emploi. Pour les chercheurs, les lois sur l’audit doivent également proposer des mesures et des définitions claires et précises. La loi doit également éclaircir les normes qui s’appliquent aux auditeurs plutôt que de leur laisser définir les bonnes pratiques. Enfin, la collecte de données doit être rendue plus fluide d’autant que l’enquête va un peu à l’encontre des principes de confidentialité. Elle doit permettre aux auditeurs de pouvoir mener des évaluations indépendantes, approfondies et significatives.

L’échec de la politique new-yorkaise montre en tout cas que la perspective d’un index de la discrimination automatisée à l’embauche doit être un peu plus organisé qu’il n’a été pour être rendu fonctionnel.

Passer des logiciels de recrutement… aux logiciels de candidature !

Quand on s’intéresse aux défaillances spécifiques et systémiques des outils de recrutement automatisé, le plus étonnant finalement, c’est de constater qu’en tant que société, nous soyons capables d’adopter des outils qui ne fonctionnent pas, des outils foncièrement contraire à l’éthique, profondément discriminants… sans provoquer de réaction de rejet forte du corps social. Cela est certainement lié au fait que les plus discriminés sont habitués à l’être. Ce n’est pas une raison pour s’y résigner ! La zone du recrutement reste un espace sans beaucoup de pouvoir pour les candidats. A ce jour, ils n’ont ni le droit de recevoir des explications ni celui de contester les décisions.

L’AI Act européen promet pourtant d’améliorer le niveau de responsabilité des systèmes de recrutement automatisés, puisque nombre d’entre eux devraient faire partie des systèmes à risque élevé. On verra à l’usage s’il fait progresser la transparence des systèmes, mais, sans règles plus claires, il est probable que les choses évoluent peu, autrement que sous les coups de scandales publics de dysfonctionnements visibles, comme cela a été le cas jusqu’à présent.

Peut-être que la solution pour contrer les défaillances fonctionnelles du recrutement consisterait plutôt à en inverser radicalement la logique à l’œuvre. Et c’est peut-être là que nous pourrions trouver les meilleures perspectives d’évolution.

Jusqu’à présent le monde du recrutement est façonné par une logique qui bénéficie totalement aux recruteurs. Ce n’est pas pour rien qu’on parle d’ailleurs de logiciels de recrutements. Alors peut-être que la solution consiste à passer aux logiciels de candidatures !  Et cette perspective, avec l’arrivée de l’IA générative et des agents intelligents est peut-être plus proche de se réaliser que jamais. Alors que les recruteurs disposent de tout pouvoir, il est possible que les candidats puissent en reconquérir. Comment ?

C’est la piste qu’explore le développeur Hussein Jundi sur Towards Data Science, en imaginant un robot logiciel capable de chercher des postes à sa place – ce qui ne serait déjà pas une mauvaise option tant la recherche sur les sites d’emploi est restée fruste et défaillante (oui, vous aussi, vous recevez des propositions de stages à Paris alors que vous avez une alerte pour des CDI à Nantes !). Mais on pourrait aller plus loin et imaginer un robot capable de candidater à notre place, d’adapter les termes de son CV aux mots clefs des annonces, de démultiplier de façon autonome ses candidatures en produisant des micro-variations sur les termes des compétences recherchées… Hussein Jundi nous suggère finalement une piste très stimulante pour finir de casser un recrutement déficient : doter les utilisateurs de robots capables d’adapter leurs candidatures aux systèmes de tris automatisés que les entreprises utilisent. Il ne propose rien d’autre que d’exploiter et d’amplifier les faiblesses du recrutement automatisé… pour le faire imploser.

Des agents robotiques pour candidater à notre place — Hussein Jundi.

 

Ce que dessine cette perspective, c’est que dans cette course sans fin à l’automatisation, il n’est pas sûr que les entreprises profitent de leurs avantages encore longtemps. À force de ne pas vouloir inspecter et réguler leurs pratiques, il est possible qu’à terme, les utilisateurs les subvertissent. Des logiciels capables de modifier votre profil Linked-in selon l’origine de celui qui le regarde. Des logiciels capables d’adapter vos CV aux annonces, de multiplier les candidatures à un même poste avec des variations de termes de son CV, des logiciels capables d’aller puiser dans les API des systèmes de recrutements pour informer des critères retenus… afin d’améliorer le matching. On pourrait même imaginer des systèmes capables d’inonder de candidatures les systèmes de recrutement pareils à des attaques de déni de services.

Incapable de réformer ses pratiques, le recrutement se moque des candidats. Il est temps que les candidats prennent les recruteurs à leur propre jeu et qu’ils retrouvent du pouvoir d’agir ! Chiche ? On lance une startup ! 😊

MAJ du 14/10/2024 : Les logiciels de candidatures, nous y sommes !

QSPTAG #321 — 13 juin 2025

nono
, 13/06/2025 | Source : La Quadrature du Net

Salut les marmottes !

Au Garage cette semaine, on revient sur les mesures du projet de loi « simplification » qui facilitera la prolifération d’immenses data centers, sur les robots de contrôle utilisés par la CAF, et sur le passage de la loi narcotrafic devant le Conseil constitutionnel (avec le retour de la reconnaissance faciale en embuscade).

Bonne lecture à vous !

Alex, Bastien, Eda, Eva, Félix, Marne, Mathieu, Myriam, Noémie, Nono et Vi

Loi simplification : vers des data center gros comme 70 terrains de foot !

La promesse faite cet hiver par Emmanuel Macron aux investisseurs de la tech est en passe d’être gravée dans le marbre de la loi « simplification » : parmi d’autres mesures de dérégulation poussées par les milieux patronaux et industriels, l’article 15 de ce projet de loi prévoit en effet des procédures accélérées pour faciliter le déploiement de monstrueux data centers censés permettre à la France et à l’Europe de rester dans la course à l’IA. Dans le cadre de la coalition Hiatus (https://hiatus.ooo/), nous avons pourtant mené bataille pour que cette disposition soit repoussée, pour que les projets de data centers ne fassent pas l’objet de dérogation au droit à la participation du public, déjà passablement rogné dans la pratique, mais aussi au droit de l’urbanisme et de l’environnement. Contre cette fuite en avant, nous avons demandé, de concert avec d’autres associations, militant·es écologistes comme Camille Étienne, mais aussi quelques responsables politiques, la suppression de cet article 15, un moratoire sur la construction de gros data centers et la mise en place de débats publics, qui pourraient prendre la forme de conventions citoyennes. Ça n’a pas été suffisant. Grâce aux voix de l’extrême droite et du Parti socialiste, le gouvernement est parvenu à maintenir cet article 15 par 71 voix contre et 33 voix pour notre amendement de suppression. Si nous avons perdu cette manche, un large front s’est néanmoins consolidé pour dénoncer la fuite en avant écocide liée à ces immenses infrastructures qui accompagnent l’essor démesuré de l’IA. La bataille ne fait que commencer !

Les robots-contrôleurs de France Travail

Dans le cadre de notre projet « France Contrôle », qui s’intéresse aux algorithmes qui accompagnent la casse sociale, on poursuit nos recherches concernant France Travail. Et on a levé un nouveau loup ! Les réformes successives du service public de l’emploi se succèdent dans le sens d’une répression toujours accrue des personnes sans d’emploi. Dans ce cadre, une partie du travail de contrôle des personnes au RSA et devant réaliser 15h hebdomadaires d’activités a été confiée à des algorithmes développés par France Travail. Après que toutes sortes de données personnelle ont été moulinées, les personnes concernées font l’objet d’une classification automatique en trois niveaux : « clôture » (pas de suspicion), « clôture potentielle » (suspicion moyenne) ou « contrôle potentiel » (suspicion forte). Les agent·es de France Travail en charge du contrôle sont ensuite invité·es à se concentrer sur les dossiers les plus « risqués », avec à la clé de possibles radiations et des personnes plongées un peu plus dans la précarité. Et ce alors qu’aucune preuve ne vient corroborer la doxa politique selon laquelle une répression accru·e des assuré·es sociaux aurait des conséquences positives pour la lutte contre la fraude et autres erreurs déclaratives.

Loi Narcotrafic : qu’en dit le Conseil constitutionnel ?

Cet hiver, nous avons mené une autre campagne législative contre les mesures de surveillance de la loi narcotrafic. Pour rappel, cette loi, adoptée au début du printemps, prévoit notamment l’activation à distance des appareils numériques (micros et caméras) pour les transformer en mouchards, l’extension du périmètre des « boîtes noires » de renseignement qui analysent le réseau pour trouver les comportements « suspects », la création d’un « dossier coffre », c’est-à-dire que les procès-verbaux d’instruction ne décriront plus les méthodes de surveillance utilisées, la censure administrative de contenus relatifs aux drogues sur les réseaux sociaux, ce qui pourrait entraver des démarches de soin et de prévention des risques. Les personnes visées par la définition large et mouvante de la « criminalité en bande organisée », si large qu’elle peut en venir à couvrir des actions militantes, pourront donc faire l’objet de ces mesures. Sur ces différents sujets, nous avons fait valoir nos arguments juridiques alors que le Conseil constitutionnel était saisi de ce projet de loi par des députés. 

Celui-ci a rendu sa décision hier et, sans grande surprise, il a validé quasiment l’ensemble du texte. Seule la surveillance des adresses URL au travers des algorithmes des « boites noires » du renseignement a été censurée. L’extension de ces « boites noires » à la criminalité organisée a également été censurée, mais le Conseil constitutionnel n’a pas émis de critiques de fond sur cette extension et n’a prononcé la censure qu’en raison de la manière dont la loi était rédigée. Cette extension pourrait donc très bien faire son retour à l’avenir… De 

même, si une condition de procédure des « dossiers coffres » est jugée contraire à la Constitution, leur principe est entièrement validé. Cela permettra donc à la police de ne pas rendre des comptes sur des mesures de surveillance très intrusives. Et comble du mauvais goût, l’ancien sénateur Philippe Bas, désormais membre du Conseil constitutionnel, n’a pas jugé utile de se déporter sur ce texte alors qu’il l’avait lui-même voté lorsqu’il était encore sénateur…

Bien que le processus législatif soit terminé, la lutte contre le narcotrafic continue cependant d’être instrumentalisée par les marchands de peur du gouvernement. Après les annonces de Gérald Darmanin début mai qui, décidément, a du mal à raccrocher le costume de « premier flic de France », c’est Bruno Retaillau qui lui a emboîté le pas la semaine dernière, estimant qu’« il faudrait nous permettre pour mieux déceler les visages d’utiliser la reconnaissance faciale » en temps réel https://www.bfmtv.com/police-justice/une-revolution-penale-et-technologique-la-reponse-de-bruno-retailleau-apres-les-violences-en-marge-du-sacre-du-psg_AN-202506040174.html. La prochaine bataille contre l’expansion de la surveillance ?

Campagne de soutien 2025

Notre campagne de soutien pour 2025 est toujours ouverte, aidez-nous à boucler le budget ! Vous pouvez nous faire un don sur notre site : https://www.laquadrature.net/donner/.

Agenda

  • 18 juin :  Lutter contre la technopolice : Bilan et perspectives avec LQDN et Technopolice Bruxelles – 18h30, 70B Rue de Danemark, 1060, Saint-Gilles, Belgique.
  • 2 juillet : Réunion mensuelle Technopolice Paris-Banlieue, 19h, Le Bar Commun, 135 rue des Poissonniers, Paris.
  • 10 juillet : Causerie mensuelle de Technopolice Marseille, 19h, Manifesten, 59 Rue Adolphe Thiers Marseille.
  • 25-27 juillet : Festival des imaginaires techniques « La Machine dans le jardin » à Meillonnec (22)

Retrouvez tout l’agenda en ligne https://www.laquadrature.net/agenda/

La Quadrature dans les médias

ZDNet : Des Nouvelles de Veesion ; https://www.zdnet.fr/actualites/videosurveillance-et-ia-veesion-leve-53-millions-pour-se-developper-a-linternational-476052.htm

Mediapart : Des nouvelles de Veesion ; https://www.mediapart.fr/journal/france/120625/veesion-une-start-prospere-de-la-videosurveillance-dans-le-viseur-de-la-cnil

Le Figaro : Les 800 drones de la Gendarmerie ; https://www.lefigaro.fr/actualite-france/analyse-des-scenes-de-crime-detection-des-emeutiers-800-drones-au-service-de-la-gendarmerie-20250606

Basta ! : L’utilisation de l’IA par France Travail https://basta.media/ia-et-controle-automatise-quand-france-travail-passe-en-mode-robot

Rapports de Force : L’utilisation de l’IA par France Travail ; https://rapportsdeforce.fr/pas-de-cote/quand-france-travail-passe-en-mode-robot-053124886

Mediapart : La censure des contenus terroristes contestée devant le conseil d’état ; https://www.mediapart.fr/journal/france/280525/la-censure-des-contenus-accuses-de-terrorisme-sur-internet-contestee-devant-le-conseil-d-etat

Le Républicain Lorrain : L’utilisation de la VSA par la ville de Metz ; https://www.republicain-lorrain.fr/defense-guerre-conflit/2025/05/23/l-ia-pour-securiser-la-ville-les-inquietudes-des-elus-de-gauche

Le Républicain Lorrain : Ce que la loi autorise en terme de VSA ; https://www.republicain-lorrain.fr/faits-divers-justice/2025/05/23/la-quadrature-du-net-qu-est-ce-que-la-loi-autorise

Les Échos : Analyse du marché de la VSA et des entreprises françaises ;  https://www.lesechos.fr/start-up/ecosysteme/les-start-up-de-la-french-tech-bousculent-le-marche-de-la-videosurveillance-algorithmique-2165053

Le Dauphiné : Analyse de la Quadrature après la décision de Moiran sur la VSA ; https://www.ledauphine.com/politique/2025/04/28/videosurveillance-algorithmique-plusieurs-centaines-de-communes-hors-la-loi

Le Relève et la Peste : Le prolongement de la VSA ; https://lareleveetlapeste.fr/le-gouvernement-francais-prolonge-la-videosurveillance-de-masse-jusquen-2027/

Radio Parleur : L’impact de la loi Narcotrafic sur les militants ; https://radioparleur.net/2025/04/03/loi-contre-le-narcotrafic-une-menace-cachee-contre-les-militant%c2%b7es/

Alternatives Économiques : L’impact de la Loi Simplification sur l’environnement ; https://www.alternatives-economiques.fr/simplification-cheval-de-troie-de-demolition-droit-de-lenv/00114695

L’Humanité : L’impact de la Loi Simplification ; https://www.humanite.fr/politique/droite/pourquoi-le-projet-de-loi-de-simplification-de-la-vie-economique-a-lassemblee-nationale-contient-des-mesures-regressives

Reflets.info : L’impact de la VSA sur la démocratie ; https://reflets.info/articles/le-braquage-democratique-de-la-vsa

L’Humanité : Utilisation de la VSA dans les bureaux de Tabac : https://www.humanite.fr/societe/cnil/des-cameras-augmentees-a-lia-pour-reconnaitre-les-mineurs-dans-les-bureaux-de-tabac-dans-le-viseur-de-la-cnil

Le Courrier Picard : Analyse de la loi Transport ; https://www.courrier-picard.fr/id616032/article/2025-03-20/fouilles-cameras-pietons-amendes-que-prevoit-la-nouvelle-loi-sur-la-securite

Développement d’application en Flutter : retours d’expérience (2/2)

Framasoft
, 13/06/2025 | Source : Framablog

Au cours du développement de l’application PeerTube, nous avons acquis certaines expériences dans le choix des technologies employées et les freins que certaines décisions ont entraîné. Nous les partageons ici.

Si vous ne l’avez pas déjà lu, nous vous conseillons de commencer par l’article précédent.

Publication sur les magasins d’application

Publier une application de streaming vidéo issue du fediverse sur les différents magasins d’applications a été un vrai parcours du combattant.

Entre les politiques parfois très strictes des stores, et la sensibilité autour des contenus vidéo — notamment ceux générés ou diffusés par des tiers — il a fallu redoubler de prudence. Apple et Google considèrent en effet qu’en tant qu’éditeur de l’application nous serions responsables de tout le contenu auquel l’application permet d’accéder, et sont particulièrement virulents sur la question dans le cas des formats vidéos (bien davantage que pour une application de podcasts ou même un navigateur internet, assez curieusement). Voici donc un retour sur les différentes étapes, de la toute première soumission à la mise en production.

Les précautions prises

Pour maximiser nos chances d’être acceptés sur les stores, nous avons pris plusieurs précautions dès le départ.

Filtrage des plateformes accessibles

Première mesure : restreindre l’accès aux plateformes via un système de filtrage utilisant des identifiants spécifiques à chaque magasin. Cet identifiant permet de maintenir une liste d’autorisation (allowlist) de plateformes de confiance adaptée à chaque store :

  • Sur le Play Store (Android), seule une allowlist restreinte de plateformes est accessible afin de répondre aux exigences de Google.
  • Sur l’App Store (iOS), l’allowlist est encore plus limitée, Apple imposant des critères de validation particulièrement élevés.
  • Sur F-Droid, en revanche, toutes les plateformes listées dans notre index (qui est modéré) sont accessibles sans filtrage supplémentaire.

L’avantage de ce système basé sur des tags, c’est qu’il est entièrement déporté côté serveur. Autrement dit, si nous devons retirer une plateforme problématique ou en ajouter une nouvelle, cela peut être fait sans mettre à jour l’application elle-même. Ce fonctionnement offre une grande souplesse et réactivité en cas de besoin.

Pas d’ajout manuel de plateformes au début

Pour garantir une validation rapide lors de la première soumission, nous avons volontairement désactivé la possibilité d’ajouter manuellement une plateforme dans l’application. Ainsi, seuls les serveurs autorisés par notre filtre, dont le nombre était très réduit, étaient disponibles.

Une fois l’application validée et disponible sur le Play Store, nous avons réactivé cette fonctionnalité manuelle côté Android, en observant attentivement si cela posait problème. Après plusieurs mois sans retour négatif, nous avons ensuite ouvert cette possibilité sur iOS également.

Présentation et stratégie de déploiement

Par ailleurs, pour mettre toutes les chances de notre côté, un soin particulier a été apporté à l’interface utilisateur de l’application ainsi qu’aux fiches des stores (miniatures, descriptions, mots-clés, captures d’écran, etc.), les stores étant également très sensibles à l’apparence, à la qualité perçue et au respect des bonnes pratiques UX/UI.

Nous avons décidé d’y aller étape par étape :

  1. D’abord le Play Store, plus rapide et souple.
  2. Puis l’App Store, plus exigeant mais incontournable.
  3. Et enfin F-Droid, qui demande une approche différente essentielle pour le public libriste.

Google Play Store, une validation sans accroc

Pour la publication sur le Google Play Store, la documentation officielle Flutter a été suivie : https://docs.flutter.dev/deployment/android

Le Play Store permet plusieurs types de déploiement, utiles pour tester différentes étapes de l’application :

  • Test interne : permet de distribuer l’application à un petit groupe de testeurs internes (jusqu’à 100).
  • Test fermé : permet de cibler un groupe restreint plus large via une liste d’adresses email ou un groupe Google.
  • Test ouvert : permet à n’importe quel utilisateur de rejoindre le programme de test via un lien public.
  • Production : c’est la version stable, publiée pour tous les utilisateurs sur le Play Store.

Les étapes de validation

Chaque type de déploiement est validé automatiquement par Google, avec des délais très courts :

  • Les tests internes et fermés sont généralement disponibles en moins d’une heure.
  • Les tests ouverts et la mise en production peuvent prendre quelques heures, rarement plus.

Google a toujours accepté l’application dès la première soumission, sans demander de modifications ou poser de questions. Aucun échange, aucun retour de leur part : uniquement la validation après envoi et un changelog bien rédigé.
À croire que les précautions mises en place en amont ont été suffisantes… voire qu’on aurait pu être un peu plus détendus !

Apple App Store, les complications…

Une fois l’étape Google franchie haut la main, direction Apple — réputé pour être nettement plus exigeant.

Comme pour Android, j’ai suivi la documentation officielle Flutter pour le déploiement iOS :
👉 Flutter iOS Deployment

Sur iOS, les applications peuvent être distribuées via deux canaux principaux :

  • TestFlight : pour partager des versions bêta avec un groupe de testeurs (jusqu’à 10 000). Le processus est plus souple que pour la production, mais reste soumis à validation.
  • Production : la version stable et publique de l’app, visible sur l’App Store.

Les étapes de validation

L’avertissement de Gabe

Avant de soumettre PeerTube sur iOS, nous avons échangé avec Gabe, développeur du projet OwnCast, qui avait essuyé plusieurs refus de la part d’Apple. Il nous a transmis ses précieux retours et stratégies pour répondre aux fameuses App Store Guidelines. Voici un résumé :

  • Guideline 1.2 – Safety – User Generated Content
    Solution : intégrer un système de signalement côté client, qui envoie un email à un modérateur capable de retirer une instance si besoin.
  • Guideline 5.2.3 – Legal
    ➤ Problème : Apple considère que l’app pourrait donner accès à des contenus vidéo ou audio tiers sans autorisation, ce qui pose un risque légal.
    Solution : fournir un document PDF listant chaque serveur vidéo préconfiguré dans l’app, avec la mention “Authorized” pour chacun. Apple ne se satisfait pas d’une simple déclaration : ils veulent des preuves tangibles.
  • Guideline 3.1.1 – Business – Payments – In-App Purchase
    Problème : l’app permettait de faire des dons via des liens comme PayPal, OpenCollective, KoFi, etc.
    Solution : supprimer toute interaction liée au paiement dans l’app. Tous les liens renvoyant vers des dons doivent ouvrir une page dans un navigateur externe (Safari, Chrome…). Aucun lien de paiement ne doit être affiché dans une WebView interne.
  • Guideline 5.2.3 – Legal (bis)
    Solution : fournir un maximum de documents, liens et preuves que les catalogues et services de découverte intégrés sont bien opérés par nous, et non une tierce partie non autorisée.

Merci encore à Gabe pour ces conseils précieux !

On se lance… et ça coince.

Notre plan était pourtant sans accros !

Malgré l’application rigoureuse des conseils de Gabe, Apple n’a pas fait de cadeau.

Entre Lokas et PeerTube, les deux apps que nous tentions de publier fin 2024, nous avons essuyé 8 refus pour Lokas avant d’obtenir la validation, et 3 refus pour PeerTube.

Dès qu’un reviewer Apple trouvait un souci (même mineur), la demande était rejetée, et il fallait corriger point par point avant de pouvoir espérer passer à l’étape suivante.

Voici les principales guidelines qui nous ont posées problème :

Guideline 5.2.3 – Legal

Votre application contient du contenu ou des fonctionnalités susceptibles de porter atteinte aux droits d’un ou plusieurs tiers. Plus précisément, votre application fournit un accès potentiellement non autorisé à des services tiers de streaming audio ou vidéo, à des catalogues et à des services de découverte.

Malgré l’envoi d’un document listant les plateformes autorisées dans l’app iOS, cela n’a pas suffi à convaincre Apple. Nous avons donc répondu :

Les plateformes répertoriées dans l’application PeerTube ont accordé à l’application PeerTube le droit de répertorier et d’accéder à leur contenu vidéo.

Ces autorisations sont répertoriées dans le document « Plateformes autorisées pour l’application PeerTube ».

Pouvez-vous expliquer quel type de preuve nous devons fournir pour démontrer que nous avons le droit d’accéder à ce contenu ?

Le document joint était rigoureusement le même que celui soumis lors du dépôt de l’application.

Guideline 3.1.1 – Business – Payments – In-App Purchase

Apple nous a signalé un lien vers le site joinpeertube.org dans l’app, qui contient… un bouton de don. Ce simple lien externe a suffi à justifier un rejet.

Nous avons alors tenté une première réponse, en expliquant que tous les liens de dons ouvraient désormais une page externe dans le navigateur, et qu’aucune collecte n’était réalisée dans l’application elle-même. Nous avons souligné que cette approche respectait les guidelines de l’App Store, puisque le processus de don était totalement séparé des fonctionnalités de l’app. Malgré cette clarification, Apple n’a pas été convaincu.

En replongeant dans les App Store Guidelines, j’ai repéré un paragraphe en notre faveur :

Section 3.2.2 (iv) : Les applications qui ne sont pas approuvées en tant qu’organisations à but non lucratif ou autrement autorisées en vertu de la section 3.2.1 (vi) peuvent collecter des dons caritatifs en dehors de l’application, par exemple via Safari ou SMS.

J’ai donc renvoyé un message à l’équipe de validation, en expliquant que l’application ne collecte aucun don en interne : tous les liens de soutien ouvrent une page externe dans le navigateur (Safari), conformément à la section 3.2.2 (iv) des App Store Guidelines qui autorise ce fonctionnement pour les apps non caritatives. J’ai ainsi demandé une réévaluation de la décision ou des précisions si d’autres points posaient problème.

🎉 Résultat : l’application PeerTube a officiellement été publiée sur iOS !

Depuis, j’ai soumis 5 mises à jour successives de PeerTube, toutes validées sans accroc — y compris celle qui introduisait la fonctionnalité de connexion.
Chaque mise à jour a été validée en quelques heures, au plus sous 24h.

L’App Store, ce n’est jamais simple… mais avec de la patience et une bonne lecture des guidelines, ça passe.

F-Droid, une autre aventure

Une fois l’étape Apple validée, je me suis attaqué à la soumission sur F-Droid.
Ici, ce n’est pas un problème de guidelines, mais plutôt de processus.

La documentation officielle est plutôt éparse, et j’ai eu du mal à trouver une ressource exhaustive pour un projet Flutter. Je me suis donc appuyé sur :

S’adapter au fonctionnement de F-Droid

F-Droid a des exigences particulières :

  • Le build doit être reproductible et entièrement libre.
  • Toute dépendance externe doit pouvoir être vérifiée ou supprimée.
  • Il faut déclarer les anti-features, c’est-à-dire des limitations qui ne correspondent pas aux idéaux du libre.

Exemple : TetheredNet

L’application PeerTube utilise par défaut deux services maintenus par Framasoft :

Ces services ne sont pas configurables par l’utilisateur, ce qui a été considéré comme une “anti-feature” du type TetheredNet (connexion à un service centralisé sans possibilité de le changer).

Cette mention a donc été ajoutée lors de la soumission initiale.
Bonne nouvelle : depuis, cette anti-feature a été retirée, car nous avons rendu ces services personnalisables dans l’app.

Dépasser le blocage d’une dépendance obsolète

Avant de parvenir à la validation, nous avons rencontré un obstacle lié à une dépendance utilisée pour la gestion de la base de données locale. Cette bibliothèque, pourtant populaire au moment du choix initial, n’était plus maintenue et ne proposait pas de version compatible avec la dernière version de Flutter requise par F-Droid pour garantir la reproductibilité des builds. Ce blocage a empêché la compilation de l’application sur l’infrastructure F-Droid, rendant impossible sa publication.

Après analyse, il est apparu que la meilleure solution, pour des raisons de pérennité et de sécurité, était de remplacer cette dépendance obsolète par une alternative maintenue et compatible avec les exigences de F-Droid. Ce changement a nécessité une réécriture partielle de la gestion des données locales, mais a permis de débloquer la situation et d’assurer la stabilité du projet sur le long terme.

Le merge request de soumission

Après plusieurs itérations, nous avons enfin pu soumettre notre app sur F-Droid.
Vous pouvez consulter la MR ici : https://gitlab.com/fdroid/fdroiddata/-/merge_requests/17235

Et pour voir la configuration finale de l’application PeerTube sur F-Droid (fichier metadata/*.yml) : https://gitlab.com/fdroid/fdroiddata/-/blob/master/metadata/org.framasoft.peertube.yml

F-Droid demande rigueur et patience, mais l’expérience permet aussi de mieux comprendre les enjeux du libre et de la décentralisation.

C’était un vrai défi, mais on est fier·es de faire partie du catalogue officiel.

 

Nous en profitons pour vous rappeler que le financement participatif pour le développement de l’application PeerTube est en cours jusqu’au 17 juin 2025 !