(Projet de motion ?) Pour une transparence sur l'utilisation de l'IAg au sein du parti pirate

Au sein du Parti Pirate, nous sommes pour beaucoup très enthousiaste quand aux évolutions technologiques, en particulier ces derniers temps sur le thème de l’Intelligence Artificielle Génératives (abrégée dans la suite en IAg).
Ces outils, bien que très utile et efficaces, comportent des risques quand leur utilisation est mal gérée ou non contrôlée.
Parmi ces risques, nous pouvons en particulier noter:

  • Hallucination de sources ou de données
  • Violation du droit d’auteur
  • Biais algorithmiques
  • Manque de transparence sur la provenance des textes

Cependant, au vu de l’importance prise dans notre quotidien par ces outils, et au vu de leur omniprésence dans les sources et dans nos usages de rédactions, de recherche et de mise en page, il semble impossible et contraire aux idéaux de progrès technologiques du PP de prononcer une interdiction de ces outils dans le cadre de nos travaux.

Aussi, je suggère de demander aux personnes une transparence totale concernant l’usage de l’IAg dans les textes rédigés pour le PP (motions, communication etc).
Sont concernées: la rédaction proprement dite, la recherche de source, la reformulation, la mise en page etc…
L’objectif n’est pas de diaboliser ou de montrer du doigt les utilisations de cet outil, mais de permettre une meilleure vigilance et une plus grande transparence quant à la façon dont le PP travaille.
Cette mention de l’utilisation de l’IAg pourra être ajoutée à la fin des différents contenus concernés sous la forme:

Utilisation de l’IAg:

  • Objectifs: Traduction de la source X, aide à la rédaction du point Y
  • Modèle utilisé: ChatGPT 4.5

Ainsi, nous pourrons collectivement être prudents et vigilants sur les sources données par l’IAg ainsi que si des informations posant problème sont découvertes sur un modèle particulier (exemple: biais)

N’hésitez pas à me faire des retours, si il n’y a pas d’objections je rédigerai ça sous forme de motion courant semaine prochaine

3 « J'aime »

Ai-je besoin de préciser que je soutiens totalement ça?

Et si on veut vraiment partir plus loin, n’autoriser que les IA éthiques voire en prendre une qu’on entraine nous-même sur uniquement des données libres me mettrait encore plus à l’aise.

Quelle sanction prévue pour ceux qui ne le font pas?
Comment on contrôle?

  • Ton message aborde des enjeux importants, et je comprends tout à fait la volonté de cadre et de transparence face à l’usage croissant des Intelligence Artificielles Génératives.

  • Cependant, il semble essentiel de rappeler que le Parti Pirate, par son ADN, n’a pas vocation à être plus royaliste que le roi et à servir la soupe aux ayants droit, ni à devancer les débats sur des sujets comme le droit d’auteur, où les tensions entre création, partage et rémunération existent bien avant l’émergence des IAG. Les risques que tu soulèves : hallucinations, biais algorithmiques, violations du droit d’auteur ou manque de transparence ne sont pas spécifiques à ces outils. Des erreurs factuelles, des interprétations biaisées ou des réutilisations problématiques de contenus protégés ont toujours existé, bien avant l’ère de l’IA. Les IAg ne font reproduire des problèmes déjà présents dans nos sociétés. Les biais algorithmiques reflètent avant tout les biais humains, et les « hallucinations » ne sont qu’une version moderne de la désinformation ou des erreurs de sources, contre lesquelles le PP a toujours milité via l’éducation critique et la vérification systématique.

  • De même, les sujets que tu abordes sont déjà couverts par le code des Pirates et le règlement intérieur du PP. La transparence, la responsabilité collective, la vérification des sources ou encore l’éthique technologique y sont des principes fondamentaux. Plutôt que de créer un cadre spécifique aux IAG, il serait plus logique de s’appuyer sur ces principes existants et de les appliquer avec rigueur. La mention systématique de l’usage des IAG en bas des documents, par exemple, pourrait être perçue comme une réponse administrative à un problème qui relève davantage de la vigilance collective et de la méthodologie de travail .

  • Enfin, il est important de souligner que le PP défend une approche pragmatique et critique des innovations technologiques . Interdire ou diaboliser les IAG irait à l’encontre de nos valeurs de progrès et d’ouverture. En revanche, encourager une utilisation responsable, en s’appuyant sur nos outils et nos pratiques existants (comme les historiques collaboratifs, les relectures croisées ou les licences libres), semble bien plus aligné avec notre esprit.

Si l’objectif est de renforcer la confiance dans nos travaux, pourquoi ne pas miser sur une application plus stricte de nos règles actuelles (vérification des sources, transparence des processus) plutôt que sur l’ajout de nouvelles contraintes ?

Incidemment, et en rapport, je vous soumets ceci chez Fabien Mikol qui souligne qu’on a des exigences plus élevées avec les LLM (sophisme de la solution parfaite) : https://x.com/Fabien_Mikol/status/2051277838267842728

2 « J'aime »

Bonjour,

Une réponse rapide de ma part sous forme de rebond sur les risques listés.

  • Hallucination de sources. Écrire « source X traduite via ChatGPT » ne valide pas la source. Si le modèle a inventé une référence, la mention d’usage ne change rien : le texte contient quand même une fausse information. Il faut apprendre à.. vérifier ses propos. C’était déjà dans la Netiquette.
  • Violation du droit d’auteur. Déclarer avoir utilisé un modèle ne règle pas le problème juridique. Un texte en infraction reste en infraction, avec ou sans mention. A mon sens on a même pas besoin de texte législatif supplémentaire : les juges savent déjà établir la contrefaçon ; l’intervention de l IA ne change que peu de choses.
    En définitive, je pense aussi que l’identité du PP sur le droit d’auteur n’est pas un détail. C’est une position construite sur des années de travail doctrinal.. je sais que l on devrait produire davantage de réflexion là dessus (----> mea culpa)
  • Biais algorithmiques. Savoir qu’un texte a été rédigé « avec l’aide de GPT-4.5 » ne permet pas de détecter les biais qu’il contient. Les biais ne sont pas étiquetés dans les outputs. La vigilance collective appelle en réalité une expertise technique.. il faut en passer par l éducation au numérique qui devrait être notre principale marotte.
    Pour illustrer cette nécessité : ChatGPT est une interface, pas un modèle. GPT-4.5 est un modèle d’OpenAI, mais il n’est pas accessible via ChatGPT grand public.
    Au final, la pédagogie, l’esprit critique, la vérification systématique des sources, la relecture croisée : ce sont des réponses qui valent pour n’importe quelle information mal étayée, qu’elle vienne d’un modèle de langage ou d’un édito politique. Créer un régime spécial pour l’IAg, c’est paradoxalement lui accorder un statut à part, renforcer l’idée qu’elle produit un type d’erreur qualitativement différent, alors que le problème est toujours le même.
3 « J'aime »

Pour ce qui est de la violation du droit d’auteur et des biais algorithmiques, ces problèmes sont intrinsèques à l’utilisation d’IAg (training).

Signaler que de l’IAg a été utilisée pour produire XY document est une courtoisie envers les autres membres de la discussion et leur indique de base que le texte est à prendre avec de plus grosses pincettes qu’à l’accoutumée. On a déjà eu des réponses de ChatGPT copiées/collées sans vérifications par des membres et présentées comme factuelles qui se sont révélées contenir des biais et des références hallucinées. Dans l’idéal, il serait de la responsabilité de la personne qui poste de vérifier ce qu’il affirme, mais ce n’est pas ce que l’expérience nous a montré, et forcer l’indication de l’utilisation d’IA serait une politesse minimum.

Hello tout le monde, merci pour vos retours !
Je prend bonne note de vos arguments et je suis d’accord que ma proposition n’est sans doute pas bonne actuellement. Cependant, je maintiens qu’il y a un enjeu d’honnêteté, de transparence et de confiance dans le fait que les personnes qui lisent un point de programme ou un post de comm’ etc sachent qu’il n’a pas été rédigé humainement.
Est ce que vous partagez ce point de vue ?
Merci pour vos retours en tout cas :slight_smile:

2 « J'aime »

L’ia n’est pas un argument d’autorité. La personne reste responsable de ce qu’elle écrit.

Assistée ou non par IA.

1 « J'aime »