« Discussion Projet:Observatoire des IA » : différence entre les versions
Ligne 660 : | Ligne 660 : | ||
::Et dans deux ans, 10% des articles sur WP seront affublés de ce modèle ? Nous aurons créé une nouvelle catégorie de contributeurs Gépétistes qui frelateront partout l'encyclopédie de leurs apports autant nombreux que suspects? non merci. L'IA c'est en back office et le mieux, c'est de s'en passer, mais si jamais, une note en page de discussion de l'article devrait suffire [[Discussion:Maria_Beasley|comme ici]]. Mon Carthago : la plus-value de WP, c'est ''Made by humans'', ouvrir la porte largement à l'IA, c'est fragiliser WP peut-être même jusqu'à un point critique. — [[File:Lettre M (signature).svg|16px]][[Utilisateur:Madelgarius|<small>''adel''</small>]] [[File:Le 22 à Asnières,.svg|20px|link=User_talk:Madelgarius]] 8 novembre 2024 à 09:28 (CET) |
::Et dans deux ans, 10% des articles sur WP seront affublés de ce modèle ? Nous aurons créé une nouvelle catégorie de contributeurs Gépétistes qui frelateront partout l'encyclopédie de leurs apports autant nombreux que suspects? non merci. L'IA c'est en back office et le mieux, c'est de s'en passer, mais si jamais, une note en page de discussion de l'article devrait suffire [[Discussion:Maria_Beasley|comme ici]]. Mon Carthago : la plus-value de WP, c'est ''Made by humans'', ouvrir la porte largement à l'IA, c'est fragiliser WP peut-être même jusqu'à un point critique. — [[File:Lettre M (signature).svg|16px]][[Utilisateur:Madelgarius|<small>''adel''</small>]] [[File:Le 22 à Asnières,.svg|20px|link=User_talk:Madelgarius]] 8 novembre 2024 à 09:28 (CET) |
||
:::Totalement d'accord avec @[[Utilisateur:Madelgarius|Madelgarius]]. [[Utilisateur:Apollinaire93|Apollinaire93]] ([[Discussion utilisateur:Apollinaire93|discuter]]) 8 novembre 2024 à 12:11 (CET) |
:::Totalement d'accord avec @[[Utilisateur:Madelgarius|Madelgarius]]. [[Utilisateur:Apollinaire93|Apollinaire93]] ([[Discussion utilisateur:Apollinaire93|discuter]]) 8 novembre 2024 à 12:11 (CET) |
||
::::Ça tombe bien, c'est une question que je comptais poser parce que je ne sais pas comment la traiter. |
|||
::::On risque en fait d'être confronté au problème général des traducteurs vu que les LLM commencent à y être intégrés (cf. p.e. [https://www.presse-citron.net/deepl-le-cauchemar-de-google-translate-poursuit-sa-folle-ascension/ pour DeepL]). Et problème général parce qu'on a déjà 8 216 pages dans [[:Catégorie:Pages avec des traductions non relues]] remplie par l'outil de traduction quand un texte n'a pas été assez réécrit. |
|||
::::Dans [[Projet:Observatoire_des_IA/Règlementation/Contrôle_des_textes_générés_par_IA|l'essai d'information sur les problèmes des IA]], l'exigence de base est que le texte ne soit pas identifiable comme issu d'une IA et on pourrait avoir la même exigence avec les traducteurs, que les gens ne fassent pas des pseudo-traductions parce qu'il suffit de cliquer en comptant sur les autres pour nettoyer, mais je n'ai pas le recul historique pour savoir ce qui aurait déjà été discuté. |
|||
::::P.e. le [[Projet:Traduction]] est-il actif là-dessus ? [[Utilisateur:Fabius Lector|Fabius Lector]] ([[Discussion utilisateur:Fabius Lector|discuter]]) 8 novembre 2024 à 13:45 (CET) |
Version du 8 novembre 2024 à 13:45
Points à valider sur le projet
Qu'y a-t-il à voir pour un projet utile et fonctionnel ?
- Le fond
- objectifs : actuellement, objectif « meta », visant à la régulation et l'anticipation des effets sur le Wikipédia francophone.
- plan de travail : actuellement, 3 propositions, documentation générale, projets de régulation, indexations des articles/utilisateurs concernés
- La forme
- Terminologie : IA est-il bien compris comme renvoyant essentiellement aux IA générative ou faut-il le préciser partout ?
- Navigation
- L'objet des pages : est-il clair ? D'autres propositions ?
- Onglets : sont-ils clairs ? Utiles sur toutes les pages (non-transcluses sur l'accueil) ?
- Le fonctionnement
- recherche de consensus : dans l'idéal, il faudrait mobiliser les utilisateurs ayant déjà fait des usages sur WP pour la recherche d'un consensus entre promoteurs et objecteurs. Nous ne sommes pas dans le cadre d'usages d'emblée irréguliers comme pour le projet:Antipub où il s'agit d'être essentiellement policier.
- liens à d'autres projets/groupes :
- patrouilleurs et admins peuvent enrichir la détection/suivi des articles/utilisateurs concernés
- intérêt partagé avec l'Observatoire des sources sur les sources impactées
- Autres ?
Fabius Lector (discuter) 7 octobre 2024 à 11:58 (CEST)
- Bonjour Fabius Lector. Il y a un consensus me semble-t-il sur le fait de ne pas utiliser des IA génératives pour produire des articles. « suivre l'évolution des usages d'IA, essentiellement IA génératives, et s'assurer qu'ils s'accordent aux principes fondateurs de Wikipédia ainsi qu'aux règles et recommandations définies par des prises de décision communautaires. » me semble au contraire encourager ces créations, en ignorant les problèmes connus. L'objectif pour moi du projet serait au contraire :
- d'identifier de tels articles, voire de documenter concrètement en quoi ils posent problème. Car on sait qu'ils ne sont pas fiables.
- d'étudier les usages plus (ou moins) admis en matière d'IA générative ou non : automatisation de mises en formes, recherches de sources, résumé de texte pour les RI, etc. et proposer des retours d'expérience sur ces autres usages, afin à terme de dégager un consensus sur les pratiques admises, celles nécessitant de la vigilance, et celles à interdire.
- Il est donc important de préciser dans chaque cas si l'on parle d'IA générative ou non.
- Liens avec d'autres projets : évident pour l'ODS, les pb posés par des sources elles-mêmes générés par IA est un des gros volets auquel nous aurons à faire face, ahma.
- Tout le monde peut enrichir la détection des pages, pas uniquement les patrouilleurs ou admins.
- Pour les autres points, je te réponds plus tard. Cdlt, --Pa2chant.bis (discuter) 11 octobre 2024 à 09:03 (CEST)
- Qu'appelles tu "produire un article" ? Générer entièrement un article à partir d'un prompt, ou synthétiser des sources par une IA ? Dans les deux cas on "produit un article". Mais je ne crois pas qu'il y a un consensus pour interdire ou décourager le deuxième cas. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 09:31 (CEST)
- Alors Jean-Christophe BENOIST il est urgent de documenter des cas pour montrer les problèmes. J'en ai récemment analysé deux proposés indirectement par Softenpoche sur le Bistro ( Dictionnaire historique de la suisse et un autre que je retrouve plus, l'hagiographie d'un santonnier), et si Wikipedia doit offrir ça, coincé entre de vrais articles, autant ne plus le lire.--Pa2chant.bis (discuter) 12 octobre 2024 à 04:55 (CEST)
- Bonjour @Pa2chant.bis,
- je pense qu'en fait j'ai fait plus large que tes objectifs pour éviter de rater des question mais que ceux-ci sont intégrés dans les 3 volets du plan de travail. Faudrait voir si cette organisation fonctionne et si on peut/doit faire plus précis ou plus simple, cf. p.e. chez les anglophones le en:Wikipedia:WikiProject_AI_Cleanup est nettement plus léger et pourrait correspondre à mon 3e volet.
- Sinon :
- sur la précision d'IA génératives ou pas, la page documentation serait là pour indiquer quelles technos sont à prendre en compte et cf. par ici où j'explique pourquoi j'ai préféré rester vague sur leur périmètre vu les vitesses d'évolution ;
- question consensus, usages admis ou pas, je travaille à la synthèse des positions en brouillon à partir de tout ce que j'ai réuni par ici (discussions, essais, sondage). Les problèmes sont déjà pas mal isolés sur le Wiki français ou anglais mais comme dit Jean-Christophe BENOIST, certains proposent des assistances à la création d'article qui vont loin, le consensus semblant surtout qu'en tout état de cause on est responsable de ce qu'on met sur WP et qu'on doit donc contrôler et valider avant de publier. Cf. cet essai qui parle d'assistance pour la synthèse de sources et pour le plan, ce qui à terme se rapproche d'une création complète, d'autres faisant des expérimentation dans ce sens, y compris au niveau de la WMF.
- note sur le périmètre du fond : ma synthèse commence par les discussions de principe impliquant la nature même de Wikipédia avec son aspect communautaire humain indépendamment des questions pratiques de fiabilité. Que fait-on si les IA deviennent fiables ? Il me semble pertinent de suivre ça aussi, pas juste les problèmes pratiques.
- la section sur la maîtrise des usages serait là pour les moyens de gestions des articles (modèles, catégories etc.) et noter ceux qui sont problématiques en lien avec l'onglet « Discuter ou signaler un usage sur Wikipédia » qui renvoie vers la page de discussion. Là aussi, il y a déjà des choses de faites, la détection concerne tout le monde mais si les problèmes s'amplifient, je me dis qu'il faudra sans doute coordonner l'usage avec patrouilleurs et admins. Pour l'heure, je n'ai noté qu'une RA (avec blocage d'utilisateur) Fabius Lector les admins ne sont pas trop concernés mais les risques de vandalisme, canulars et autre augmentent.
- (discuter) 11 octobre 2024 à 13:35 (CEST)
- Bonjour Fabius Lector
- Ma critique forte de la présentation proposée avec contre-proposition n'est pas une définition de l'objectif du projet, ou une limitation de son périmètre, mais un préalable à mon adhésion, je l'ai déjà écrit. Le relativisme consistant à dire "en tout état de cause on est responsable de ce qu'on met sur WP" oublie juste un point : c'est que les articles ne sont pas signés, et et que si on insère des conneries, il faudra des armées de petites mains derrière pour venir corriger.
- Je pense que les volets que tu proposes sont adaptés, mais devraient être scindés en sous-pages de même nom. Pour la même raison qu'alinéa précédent, "Maitrise des usages" induit une incitation à utiliser ces outils. Projet:Observatoire des IA/Concrètement sur WP ou un titre assimilé me semblerait plus adapté (je n'aime pas trop le titre "Observatoire", qui dénote un côté passif, et risque de ne pas mobiliser de pour identifier et corriger les pb). Plus sobrement "IA sur Wikipédia" me semble plus adapté comme titre, la volet veille ,'en n'étant qu'une annexe.
- Sur le ton vague, c'est l'un des points qui me met mal à l'aise, autant être concret et précis. A cet égard, l'objectif affiché sur en:Wikipedia:WikiProject_AI_Cleanup est nettement plus clair (ce qui n'empêche pas que les autres points que tu détailles soient traités eux aussi).
- L'essai Wikipédia:Intelligence artificielle est marrant, rédigé par un contributeur expert en utilisation d'IA, et capable de générer deux articles de 4000 ko à mins de 2 minutes d'intervalle. Voilà de la matière pour les études de cas.
- En ce qui concerne les expérimentations sur Storm relatées par Wikimedia (articles "Wikipedia-like"), là encore leur consensus est que les résultats actuels sont insuffisants pour créer des articles avec une IA.
- Et si un jour les IA permettent des résultats corrects ? Mon avis est qu'on avisera à ce moment-là.
- Sur le fond, clairement, dans mon esprit, l'objet d'un tel projet comportait un volet opérationnel important de détection des articles conçus par IA, et leur documentation (pb posés, aide à la détection). --Pa2chant.bis (discuter) 12 octobre 2024 à 04:55 (CEST)
- Bonjour Pa2chant.bis
- je vais réfléchir à la réorganisation, ce serait en effet bien de coller aux 3 volets. À la base, j'ai fait une distinction sur/hors de WP en pensant que la page documentation serait pour les technos utilisées hors WP mais ce n'est pas terrible, ça va faire vite catalogue de logiciel et je n'aime pas vraiment « IA sur Wikipédia » qui n'indique aucune visée (cf. ci-dessous) ;
- pour l'esprit même du projet, il y a un souci si il y a l'impression qu'il y a « incitation à utiliser ces outils » alors que ce n'est pas l'idée : dans Ce que n'est pas le projet, j'ai justement précisé que « il n'est pas dédié aux implémentation ou développement d'usages d'IA » parce que c'est une mécompréhension qui est apparu dès la discussion de la première idée nommée alors simplement Projet:IA générative, d'où la proposition par TigH (d · c) de nommer « observatoire » comme l'observatoire des sources qui fait la « police » des sources. « IA sur Wikipédia » ou « Concrètement sur WP » pourraient reproduire ce schéma, certains pensant qu'on veut en développer ici, et pour l'heure, je n'ai pas trouvé mieux que « observatoire ».
- « maîtriser les usages » se voulait le contraire d'une incitation puisqu'il s'agit de mettre des contraintes mais j'ai évité d'évoquer une simple prohibition pour qu'on discute aussi des tendances au sein de WP/WMF qui voient des IA comme outils pour améliorer l'encyclopédie, p.e. :
- le WikiProject AI Cleanup peut se faire soutien des utilisateurs d'IA en nettoyant juste les articles vu que « The purpose of this project is not to restrict or ban the use of AI in articles, but to verify that its output is acceptable and constructive, and to fix or remove it otherwise ». Faut que je creuse pour voir sur quoi ils se basent exactement pour agir, quels sont notamment leurs critères de révocation.
- l'essai français a évolué vers du conseil technique apparemment sans que personne n'en ait discuté, ce serait à voir notamment par rapport à l’essai anglophone en:Wikipedia:Large language models qui m'a l'air beaucoup plus axé sur les problèmes et donc dans la direction ici visée.
- peut-être aura-t-on à réfléchir à d'autres technos déjà implantées : les outils de traduction vu que des articles actuellement concernés par les IA sont liés à des traductions ou des bots produisant du contenu, cf. Roland45-Bot automatisant notamment l'écriture de sections « climat » depuis 2021, a priori sans IA générative.
- Bon, je vais réfléchir à tout ça, faudrait peut-être faire voter sur des alternatives pour voir comment c'est perçu.
- P.S. précision : je n'ai pas d'objection aux objectifs comme tu les as donné (identifier les articles, étudier les usages, consensus sur les pratiques admises etc.), c'est la synthèse que j'essaie de faire, il y a juste que je la vois comme étape intermédiaire pour l'établissement de règles/recommandation pouvant faire consensus/autorité. Je ne suis pas certain de ce que sont les consensus actuels et je n'ai pas spontanément l'idée d'intervenir sans précision d'un cadre « légal ». Fabius Lector (discuter) 12 octobre 2024 à 17:07 (CEST)
- Salut,
- Je veux bien qu'on précise ce que ça veut dire IA générative. Le cas auquel tout le monde pense c'est créer un article avec un prompt. C'est le graal (ou la damnation éternelle selon qui parle). Mais y'a plein d'autres use cases pour lesquels je suis perplexe pour savoir si ça rentre dans le scope du projet. Par exemple WMF est en train de remplacer le scoring ORES par ceux de LARR et MLRR. En sortie, pour automoderator (talk sur automoderator à la dernière Wikimania) c'est un simple score de qualité. Mais derrière il y a un Bert. Autre exemple, y'a des travaux de WMF sur la détection auto d'articles/edits avec un langage qui fait penser à de la grosse autopromo (p.ex. Wikipédia:Éviter les superlatifs). En sortie, y'a seulement un score qui idéalement devrait trigger un warning par exemple sur Antipub ou ODS. Y'a rien de généré (au sens d'article en langage naturel) mais « dedans » ça utilise quand même de l'IA générative (Bert ou ptet Llama).
- Une autre thématique qui pourrait être dans le scope du projet (ou de legifer ou d'avocats) : quelle licence pour du contenu généré par un LLM ? Est-ce qu'un utilisateur peut mettre du CC-BY-SA sur un edit ou article où il a juste tapé un prompt ?
- WMF produit pas mal d'outils et recherches sur ces questions (j'ai vu que qqn avait lié vers l'extension add a fact que je trouve très prometteuse) et à Wikimania j'étais le seul du projet francophone à suivre ces thématiques (ptet parce qu'il y avait des sessions parallèles) donc un peu dépassé pour tout suivre sur le long terme. Je pense que suivre les projets WMF (research, future) et leur faire des retours sur nos besoins, notre ressenti « terrain » est important. Est-ce que c'est aussi le lieu pour se coordonner là-dessus ?
- Si y'a besoin de caler des réunions de coordination (pas forcément sur la définition du scope du projet), il est possible d'obtenir des créneaux de visioconférence sur le server hebergé par Wikimédia France. Cordialement, (:Julien:) ✒ 21 octobre 2024 à 14:30 (CEST)
- Bonjour @(:Julien:),
- le projet est orienté pour l'heure vers le contrôle des contributions sur Wikipédia-fr (cf. le WikiProject AI Cleanup anglophone) qui pourraient altérer le fonctionnement du Wiki ou ne respecterait pas les règles/recommandations qui seraient adoptées, sans trop de précision sur les technos vu leur évolutivité.
- pour le côté technique : on a la page Documentation pour des infos sur les technos utiles, p.e. savoir si la WMF propose des outils opérationnels dans ce registre. Peut-être que les gens intéressés peuvent discuter des développements en cours en page de discussion (cf. le sujet ouvert Que documenter et comment ?) mais faudrait voir où trouver ces gens.
- autre option : j'ai proposé de mettre l'Observatoire en sous-catégorie du Projet:Intelligence artificielle, j'aurais cru que c'était plus actif mais apparemment personne ne semble s'en servir pour discuter (cf. sa page de discussion), ce serait peut-être le lieu pour toucher des gens d'orientation technique vu que c'est associé aux articles d'informatique. En fait, je ne sais pas trop : les développeurs n'ont-ils pas un endroit où ils discutent tout ça de manière technique du côté WMF ou sur les wiki ?
- pour le côté réglementation : on a la page Règlementation et tout ce qui est Legifer devrait être intégré dans la synthèse pour qu'on ait des guides d'action. Je n'ai pas encore creusé ce qui existait mais j'ai l'impression que le flou règne et que ce sont donc les normes adoptées par chaque Wiki qui prévalent sans cadre juridique bien défini ;
- pour des retours à WMF, ça me semble tout à fait adéquat. Avec un projet qui tourne correctement, on pourrait faire des bilans réguliers.
- pour l'organisation du projet, ça débute à peine, je l'ai lancé sans expérience de la chose, et est-il commun de gérer ça quasiment comme du IRL, avec réunions live ? De mon côté, je ne suis pas vraiment passionné par le sujet, et je n'aurais aucun souci à passer la main à plus motivé, mon objectif étant limité à mettre en place de quoi répondre aux problèmes qu'on a vu arriver p.e. dans cette liste de discussions ou avec un premier utilisateur bloqué.
- pour le côté technique : on a la page Documentation pour des infos sur les technos utiles, p.e. savoir si la WMF propose des outils opérationnels dans ce registre. Peut-être que les gens intéressés peuvent discuter des développements en cours en page de discussion (cf. le sujet ouvert Que documenter et comment ?) mais faudrait voir où trouver ces gens.
- Fabius Lector (discuter) 21 octobre 2024 à 16:18 (CEST)
- Bonjour Fabius Lector
Projet:Observatoire des IA/Participants
Pour cette page, je propose de rester simple. Faisons juste une liste de participants au projet. Pas besoin de faire des sous catégories à mon avis. PAC2 (il/lui) (discuter) 7 octobre 2024 à 22:17 (CEST)
- Ok, commençons simple, j'enlève les catégories. Fabius Lector (discuter) 8 octobre 2024 à 16:12 (CEST)
Projet de nettoyage des IA
Pour info, les anglophones ont créé un projet consacré au nettoyage des contributions sous IA : en:Wikipedia:WikiProject AI Cleanup. PAC2 (il/lui) (discuter) 7 octobre 2024 à 22:19 (CEST)
- Merci, c'est noté sur l'état des lieux. J'y ai regroupé ce que j'ai trouvé sur les Wiki en attendant d'attaquer une synthèse qui risque d'ailleurs de ne pas être simple, les initiatives m'ont l'air dispersées. Fabius Lector (discuter) 8 octobre 2024 à 18:31 (CEST)
Le fond
Bonjour,
Je pensais dire quelques mots sur la divergence que je ressens entre l'IA massivement connue comme ChatGPT et d'autres outils tels que Perplexity, dans lequel l'IA paraît seulement une énorme valeur ajoutée à des opérations par ailleurs très classiques et validées, comme la recherche de sources précises et valables. Je parle à l'imparfait parce que je crois maintenant qu'il faudrait avant tout être clair sur le périmètre de la veille ou celui des échanges relevant de ce projet. C'est l'IA générative qui semble poser problème et non d'autres formes qui d'ailleurs ne seraient pas manifestes pour le lecteur ou pour les "patrouilleurs" (on ne s'inquiète pas de la correction de l'orthographe par exemple ; donc s'inquiéterait-on de la correction du style ou de la modification d'un article par léger résumé et réécriture automatique avec un style personnel imposé à l'IA ?).
Donc voilà, il faudrait peut-être mieux préciser et énumérer les actions critiques, ou leurs modes opératoires. TigH (discuter) 8 octobre 2024 à 10:31 (CEST)
- Bonjour @TigH,
- j'ai voulu faire simple au niveau terminologie et ne pas trop fermer les questions en me disant qu'on peut recadrer ensuite si on s'aperçoit qu'on perd en pertinence/efficience. D'un côté c'est gênant parce que les questions ne concernent pas l'IA en général, c'est pour ça que j'ai évité « observatoire de l'IA », mais d'un autre côté « IA générative » me semblait trop restrictif vu qu'on ne sait pas comment les soucis peuvent évoluer :
- pour la documentation, si pour l'instant on est face à des systèmes assez repérables, je me dis que ça peut changer assez vite avec les intégrations, p.e. moteur de recherche + LLM, bureautique + LLM, suites logicielles graphiques + générateur d'image etc., et ce sera peut être un mélange de technos avec une évolution des pratiques qui sera à prendre en compte ;
- pour le traitement au niveau de IA sur Wikipédia, le centrage se ferait a posteriori par le suivi des questions discutées (bistro, sondages, essais...), sans définition précise a priori. C'est actuellement centré sur la gestion des textes/images par IA générative mais ce pourrait être plus large, cf. celle-ci sur l'avenir même de Wikipédia qui pourrait aussi concerner la stratégie de la WMF (p.e. qui participe à ce projet de recherche de génération d'article ?).
- Est-ce que ça semble cohérent ? Si, oui, je peux le préciser en deux mots à l'Accueil.
- P.S. j'ai indiqué un essai personnel de Perplexity sur la section dédiée qui m'a laissé perplexe avec l'impression qu'il utilisait trop Wikipédia comme base d'où un risque de cercle référentiel, ce qui est un problème touchant directement Wikipédia sans être un problème d'intégration de texte généré. Fabius Lector (discuter) 8 octobre 2024 à 18:13 (CEST)
- Il est pertinent de distinguer les différentes IA mais avec quelques haies sur le tour de pistes :
- Il faut avoir testé sois même les différentes IA pour savoir ce qu'elles ont dans le capot et leurs limites.
- Il est impossible de savoir quelle IA un contributeur a utilisé, et encore moins sa version (or par exemple la même IA utilisée via un accès pro ou un accès perso n'a pas du tout les mêmes bornes ni les mêmes accès, et donc le même rendu).
- Il me semble que les réflexions de ce nouveau projet doivent aussi porter sur les différents types d'IA et ce qu'ils peuvent ou pas apporter. Cela peut être une sous tâche du projet si besoin. Le chat perché (discuter) 9 octobre 2024 à 11:29 (CEST)
- Une bonne utilisation d'IA la rend presque indétectable, à part ceux qui l'utilisent n'importe comment et ceux qui annoncent qu'il l'utilisent, créer une liste d'utilisateurs concernés paraît utopiste. Actuellement l'un des meilleurs détecteurs, et parmi les plus fiables est Copyleaks (la plupart des autres sont des blagues qui ont des faux positifs et faux négatifs en surabondance), et c'est un projet commercial pour lequel l'utilisation sur du contenu français nécessite un abonnement. Mais sans outil du style, il parait difficile de repérer avec certitude un utilisateur. Global Donald (discuter) 9 octobre 2024 à 14:55 (CEST)
- Oui, c'est à la fois simple et compliqué. J'avance ainsi la comparaison avec un bug qui n'apparaît que dans une version et environnement et dans une opération précise (but attendu à partir de tel point de départ). Il serait aussi stupide d'ignorer le bug et le flop que d'en tirer des conclusions inconsidérément. Tout devrait se décanter au fil des mois et ce projet peut contribuer à avancer vers un ensemble de conclusions limitées et précises", mais sur deux niveaux (1. le déprécié. 2. l'appréciable). TigH (discuter) 9 octobre 2024 à 11:44 (CEST)
- On est d'accord, pour que ce projet soit efficient il faut avoir une vision binaire et pondérée. Je ne désespère pas non plus, et pour moi ce projet peut être l'endroit, encore une foi ça peut être une sous tâche, qu'on puisse aussi identifier des outils ou fonctionnalités d'IA à pousser à la WMF ou à mettre en place localement. Le chat perché (discuter) 9 octobre 2024 à 11:52 (CEST)
- Typiquement si on arrive à avoir une IA disponnible par défaut ou par paramétrage du compte qui sait aider à la recherche de sources ou à la synthèse ce serait un vrai plus. Le chat perché (discuter) 9 octobre 2024 à 11:54 (CEST)
- On est d'accord, pour que ce projet soit efficient il faut avoir une vision binaire et pondérée. Je ne désespère pas non plus, et pour moi ce projet peut être l'endroit, encore une foi ça peut être une sous tâche, qu'on puisse aussi identifier des outils ou fonctionnalités d'IA à pousser à la WMF ou à mettre en place localement. Le chat perché (discuter) 9 octobre 2024 à 11:52 (CEST)
- @Le chat perché La question est plus "de quelle manière est utilisée une IA" que "distinguer les différentes IA", ou savoir quelle IA a été utilisée. Les différences d'utilisation sont supérieures (de loin) aux différences entre les IA entre elles. Notamment, l'utilisation en production, ou en synthèse. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 11:57 (CEST)
- Pour ce qui fait consensus, nul besoin de subtilités en effet, et ce n'est pas l'objet de ce projet, par conséquent de cette discussion. TigH (discuter) 9 octobre 2024 à 12:07 (CEST)
- @Jean-Christophe BENOIST, personnellement je n'ai pas suffisament de recul pour en juger même si je suis d'accord que le "comment a été utilisé" est la première question, la plus importante.
- Mais j'identifie quand même le danger lié à ce à quoi une IA a accès. Je te donne un exemple simple. Comme je l'ai dit mon entreprise utilise Microsoft Copilot. Cela dit notre version de Copilot n'est pas la version disponible pour le grand publique. D'une part pour se protéger des fuites de données mais aussi pour éviter de violer le droit d'auteur ou de risque le détournement d'images. Typiquement la fonctionnalité de génération d'image n'a pas la possibilité chez nous d'utiliser des photos qui ne sont pas dans le domaine publique. Si je lui demande de mé générer une image se basant sur Macron ou sur Mel Gibson il ne le pourra pas. Alors que si j'achète un pmack office pour mon PC perso Copilot le pourra. L'IA est le reflet de ce à quoi elle a accès et ce quel que soit le prompt que tu lui donnes.
- Dans un autre domaine j'ai lu qu'un nouveau réseau social de type "twitter like" a été créé récemment et que ce RS n'a aucune modération. Si je transpose à l'IA, imagine la différence ente un Copilot ou un ChatGPT d'une part, et une éventuelle IA ayant accès sans contrôle au dark web (je grossis le trait mais ça me semble plus que vraissemblable que ça existe déjà).
- Alors OK pour ce qui est de faire par exemple des fonctions de synthèses on est d'accord qu'il n'y a pas de sujet, pour ce qui est d'usage plus créatifs comme rédiger un article (fut ce à partir de source sélectionnée par avance) je suis moins affirmatif. Le chat perché (discuter) 9 octobre 2024 à 12:11 (CEST)
- Le problème dont tu parles est surtout pour la "production", c.a.d pour faire simple, générer beaucoup plus de texte que le prompt. En synthèse, c'est l'inverse : l'IA ne se fonde pas sur ses connaissances, mais sur les documents que tu lui donne (ou les copier/coller qu'il synthétise), et donc produit beaucoup moins que ce que on lui injecte. Donc c'est bien l'usage dont on parle, plus que la différence entre les IA. Moi je suis affirmatif : les IA ne devraient pas être utilisées en production, avec leur connaissances, en tout cas dans l'état actuel des choses. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:18 (CEST)
- @Jean-Christophe BENOIST on est tout à fait d'accord mais si ce projet a été monté c'est bien parce que justement aujourd'hui l'usage de l'IA dans Wikipedia ne se limite pas à la synthèse. Si c'était le cas ce projet n'aurait que très peu de raison d'être. Mais on est confronté à des rédaction entière d'article via IA. Et ce phénomène doit être appréhendé par la communauté et pas juste par le biai des mises en garde de contributeurs voir de blocage de comptes récalcitrants comme ça a déjà été le cas. C'est un des grands enjeux de ce projet. Le chat perché (discuter) 9 octobre 2024 à 12:23 (CEST)
- Il y a tant de choses formidables pour Wikipédia à faire avec les IA sans utiliser la production ! Mais évidemment, c'est l'usage le plus "paresseux" qui gagne, pas le plus formidable. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:27 (CEST)
- Une question concrète par rapport à l'organisation du projet : est-on d'accord sur le nom « Observatoire des IA », est-ce que ça qualifie le fond de manière acceptable pour l'instant ou y a-t-il d'autres propositions, p.e. faudrait-il rajouter « génératives » ? Fabius Lector (discuter) 9 octobre 2024 à 12:48 (CEST)
- Pour moi c'est OK. Comme ce sont les usages surtout qui sont à discuter, cela concerne toutes sortes d'IA, y compris d'autres à venir. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 14:10 (CEST)
- Une question concrète par rapport à l'organisation du projet : est-on d'accord sur le nom « Observatoire des IA », est-ce que ça qualifie le fond de manière acceptable pour l'instant ou y a-t-il d'autres propositions, p.e. faudrait-il rajouter « génératives » ? Fabius Lector (discuter) 9 octobre 2024 à 12:48 (CEST)
- Il y a tant de choses formidables pour Wikipédia à faire avec les IA sans utiliser la production ! Mais évidemment, c'est l'usage le plus "paresseux" qui gagne, pas le plus formidable. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:27 (CEST)
- @Jean-Christophe BENOIST on est tout à fait d'accord mais si ce projet a été monté c'est bien parce que justement aujourd'hui l'usage de l'IA dans Wikipedia ne se limite pas à la synthèse. Si c'était le cas ce projet n'aurait que très peu de raison d'être. Mais on est confronté à des rédaction entière d'article via IA. Et ce phénomène doit être appréhendé par la communauté et pas juste par le biai des mises en garde de contributeurs voir de blocage de comptes récalcitrants comme ça a déjà été le cas. C'est un des grands enjeux de ce projet. Le chat perché (discuter) 9 octobre 2024 à 12:23 (CEST)
- Le problème dont tu parles est surtout pour la "production", c.a.d pour faire simple, générer beaucoup plus de texte que le prompt. En synthèse, c'est l'inverse : l'IA ne se fonde pas sur ses connaissances, mais sur les documents que tu lui donne (ou les copier/coller qu'il synthétise), et donc produit beaucoup moins que ce que on lui injecte. Donc c'est bien l'usage dont on parle, plus que la différence entre les IA. Moi je suis affirmatif : les IA ne devraient pas être utilisées en production, avec leur connaissances, en tout cas dans l'état actuel des choses. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:18 (CEST)
- Pour ce qui fait consensus, nul besoin de subtilités en effet, et ce n'est pas l'objet de ce projet, par conséquent de cette discussion. TigH (discuter) 9 octobre 2024 à 12:07 (CEST)
- @Global Donald, pour l'heure, l'idée d'une information sur les utilisateurs concernés vise surtout pour moi à pouvoir inviter ces personnes à travailler le consensus sur les usages ou non-usages. Il y aura peut-être des questions de vandalisme à traiter (merci d'avoir indiqué le détecteur de CopyLeaks que j'ai mis en documentation générale) mais c'est plus un auto-contrôle qui me semble d'actualité, le temps de faire le point sur les questions. Fabius Lector (discuter) 9 octobre 2024 à 15:48 (CEST)
- Oui, c'est à la fois simple et compliqué. J'avance ainsi la comparaison avec un bug qui n'apparaît que dans une version et environnement et dans une opération précise (but attendu à partir de tel point de départ). Il serait aussi stupide d'ignorer le bug et le flop que d'en tirer des conclusions inconsidérément. Tout devrait se décanter au fil des mois et ce projet peut contribuer à avancer vers un ensemble de conclusions limitées et précises", mais sur deux niveaux (1. le déprécié. 2. l'appréciable). TigH (discuter) 9 octobre 2024 à 11:44 (CEST)
- Il est pertinent de distinguer les différentes IA mais avec quelques haies sur le tour de pistes :
Communication sur l'existence du projet
Bonjour, Je me ralie à ce que TigH a répondu sur le bistro quant à la communication en première intention. Le message sur le bistro suffit, innutile d'en rajouter ce qui pourrait être vu comme du rameutage. Par contre je suis favorable à de la communication par opportunité. Dit autrement mentionner le projet au détour d'une discussion sur les IA. C'est ce que j'ai fait, sobrement, ce matin suite à l'ouverture d'une section sur le WP:BULPAT suite à une suspicion de création d'article rédigé entièrement par une IA ( Wikipédia:Bulletin_des_patrouilleurs#Réf_"GPT_4"/"Bing"). Le chat perché (discuter) 9 octobre 2024 à 11:36 (CEST)
- Bonjour @Le chat perché,
- j'ai quand même déposé quelques messages d'invitation sur des pages utilisateurs de personnes qui pourraient être mentionnées dans l'état des lieux des discussions et initiatives sur le sujet, ça me semble plus poli avant de faire état de leurs travaux/avis.
- Le message :
- Invitation au projet « Observatoire des IA »
- Bonjour,
- je me permets de vous signaler le lancement du projet « Observatoire des IA » (essentiellement IA génératives) dont je me suis dit qu'il pourrait vous intéresser vu que vous avez déjà participé à des échanges sur le sujet. Le projet est en phase de lancement avec des discussions sur son organisation à partir d'une proposition initiale de travail en 3 volets : documentation, projets de régulation, moyens de maîtrise des usages. Toute participation est la bienvenue.
- Cordialement.
- P.S. : il est possible que vous y soyez mentionné dans le cadre d'un état des lieux des discussions et initiatives sur le sujet. Fabius Lector (discuter) 9 octobre 2024 à 12:26 (CEST)
- Désolé pour le ping groupé, @Le chat perché, @PAC2, @Wikihydro, @Spartan.arbinger, @Kabsurde, @(:Julien:), @Jean-Christophe BENOIST mais une question : des annonces sur cette page avec les gens intéressés l'ayant en suivi suffisent-elles pour l'information ou y a-t-il d'autres moyens à mettre en place ?
- J'y pense parce que j'avance en essayant de prendre en compte toutes les remarques mais je préfère avoir confirmation que ça va dans une direction collectivement admise, que tout le monde est bien au courant de ce que je fais, auquel cas l'absence d'objection peut suffire pour que je poursuive. Fabius Lector (discuter) 21 octobre 2024 à 21:09 (CEST)
- oui et même pas forcement besoin de ping Spartan.arbinger (discuter) 22 octobre 2024 à 09:39 (CEST)
L'utilisation de ChatGPT pour rédiger et traduire des articles peut être totalement invisible.
Bonjour,
Je trouve l'idée de créer un espace de discussion autour des IA particulièrement intéressante. On m'a invité à partager mon avis et à contribuer, alors je profite de cette occasion pour le faire ici. L'utilisation de ChatGPT dans la création ou la traduction d'articles peut passer totalement inaperçue, tout dépend du soin apporté à l'élaboration des prompts et à la relecture. D'où l'importance de signaler les cas d'utilisation "bourrin" de l'IA ou d'un manque évident de relecture adéquate.
De mon point de vue, et je le considère même comme un fait, il est tout à fait possible de générer entre 95 et 100 % d'un article via ChatGPT sans que cela soit détecté. Contrairement à certaines idées reçues, l'ère des "hallucinations systématiques" générées par l'IA est derrière nous. Déjà avec GPT-4, ces erreurs se faisaient rares. Dans un cadre professionnel, j'utilise la version 4o avec des prompts spécifiques (c'est-à-dire des instructions données à l'IA pour ceux moins familiers avec le jargon technique), et bien que de nombreuses tâches ne soient pas encore automatisables, la rédaction d'articles pour Wikipédia peut l'être dans son entièreté (et je comprends que ça soit difficile à entendre). À moins que l'utilisateur fasse preuve de transparence sur son utilisation, je doute sincèrement qu'une utilisation raisonnée d'un utilisateur qui sait ce qu'il fait soit détectable. Sur 16 000 utilisateurs actifs par mois, je suis absolument certain qu'au moins 1% d'entre eux l'utilisent pour la rédaction.
À mes yeux, l'intérêt de signaler qu'un article a été rédigé ou traduit par l'IA n'est pas pertinent tant que le contenu est bien sourcé et vérifiable, comme c'est le cas avec ChatGPT, qui peut également fournir ces sources et même formater les références. Un bandeau devrait être réservé aux articles qui présentent des lacunes évidentes, que ce soit dans la qualité de la traduction ou de l'écriture. En revanche, imposer un bandeau "rédigé par l'IA" systématiquement, alors qu'un article pourrait tout aussi bien avoir été écrit par un humain, n'a pas vraiment de sens si le contenu est correct et vérifié.
Une suggestion toute simple que je propose, c'est de demander aux Wikipédiens utilisateurs d'IA de se déclarer sur une page dédiée, que ce soit pour de la simple reformulation, de la création d'infobox, ou pour des contributions à 80-100% assistées par IA. Afin de visibiliser l'initiative, un bandeau qui apparaitrait régulièrement sur la page d'accueil "Vous êtes assisté par une IA pour contribuer sur Wikipédia ? Déclarez.vous", ou quelque chose comme ça, pourrait aider en ce sens. Global Donald (discuter) 11 octobre 2024 à 03:02 (CEST)
- A mon avis, si les générations sont réellement indétectables, alors l'utilisateur n'aura aucun intérêt à se déclarer, cela ne pourra que lui attirer des ennuis. Je pense que tout ce que peut faire l'observatoire, c'est de donner des "guidelines" et recommandations : au moins l'utilisateur sait ce qui est autorisé, encouragé, découragé ou interdit par la communauté. Après, on juge l'arbre à ses fruits, et s'ils sont mauvais ou pas terrible et qu'il est fortement soupçonné d'utiliser l'IA, qu'il se soit déclaré ou non cela revient au même.
- Car à mon avis, un utilisateur qui utilise l'IA en génération est détectable, au moins par le rythme de ses contributions "non naturel", contribution "en gros bloc" sans fautes typographiques, pas ou peu de peaufinage ou de repentir, etc.. Et je demande à voir un article correctement sourcé entièrement généré par IA (je ne parle pas de synthèse), même si cela peut arriver un jour en effet. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 08:56 (CEST)
- De mon côté, deux questions que je poserais pour favoriser la pertinence des recommandations :
- quelles sont les motivations ? Quantitatif, augmenter le volume de l'encyclopédie ? Qualitatif, améliorer la qualité de ce qu'on ferait sans aide ? Faire ni plus ni mieux mais avec moins d'efforts ? Autre ?
- comment ça s'inscrit dans la construction communautaire de l'encyclopédie ? Est-ce que ça correspond à une représentation orientée vers l'objectif sans trop se soucier de la place de l'humain dans sa réalisation ? Cet article (en anglais) dit que c'est le débat entre contributeurs qui permet la fiabilité, ça me semble clair dès qu'on sort du « bêtement » factuel, mais même hors de cette question pratique, qui est intéressé par une collaboration entre humains ?
- P.S. au passage : on a eu le cas d'un utilisateur qui a été bloqué et je me demande combien vont vouloir simplement jouer au test de Turing pour voir si on les détecte, entre canular et vandalisme. Fabius Lector (discuter) 11 octobre 2024 à 15:44 (CEST)
- Que la contribution soit faite par un humain ou IA, on peut toujours contester - le cas échéant - les Proportions ou la pertinence de la contribution. Cela ne change pas les débats et la construction communautaire.
- Sinon pour "plus ou mieux", je constate que une grande force de travail, et beaucoup de contributeurs est consacrée aux articles d'actualité. J'ai même l'impression : une majorité, alors que cela devrait être 0%. Il y a un manque criant de "bras" sur les articles de fond, où on se retrouve souvent seul, et qui restent incomplets et souvent de faible qualité. Donc oui si on peut faire plus ET mieux sur les articles de fond avec l'aide des IA, cela peut contrebalancer ce fâcheux état des lieux. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 15:55 (CEST)
- Moi, par contre, j'ai un point de vue un peu différent. Je n'ai aucun souci à ce que des contributeurs utilisent l'IA en back office pour préparer des articles. Ceci étant dit pour l'avoir fait, en guise de test, avec Maria Beasley, ce ne fut pas concluant et le plaisir de la création en fut entaché. En revanche des IA maitrisant le wiki code, je les ai déjà utilisées pour créer de fastidieux tableaux par exemple en les réalisant sur excel et en leur demandant de me donner le code wiki. J'ai également eu à constater des hallucinations totales en matière d'entrées bibliographiques (inventions pures et simples). Ma position est désormais de dire : si utilisation d'IA, il est impératif de le signaler (les modèles ad hoc devraient être créés) ET le mieux serait encore de proscrire l'usage d'IA en tant que générateur de contenu sur WP (sauf en back office et pour des points de détail vérifiés ensuite par le contributeur, comme je le mentionnais, donc ne devant pas faire l'objet d'une déclaration). Demain, l'IA sera en mesure de produire bien mieux que nous des contenus totalement crédibles au format WP. La spécificité de WP sera alors de pouvoir dire made by humans et si nous ne sommes plus alors en mesure de le faire parce que déjà trop vérolé par l'IA... Eh bien ceci sonnerait le glas de WP. Bien à tous, — adel 11 octobre 2024 à 16:33 (CEST)
- Si c'est que pour la conversion de tableaux, il y a des outils en ligne qui font ça avec probablement beaucoup moins d'énergie que les IAs, je tombe sur cette url au hasard en cherchant viteuf' : https://tableconvert.com/html-to-mediawiki — TomT0m [bla] 11 octobre 2024 à 16:50 (CEST)
- bon, ben on peut complètement s'en passer alors , — adel 11 octobre 2024 à 16:55 (CEST)
- Je pense que c'est au niveau du sourçage que la visibilité est la plus évidente: j'ai vu passer des tentatives de texte avec IA mais le sourçage péchait.
- Par contre, la communauté a intérêt à mettre plus d'attention sur la qualité du sourçage car l'édifice Wp tient plus que jamais, à mon sens, sur cette clé de voûte.
- Rien n'empêche des esprits malins de faire des pages entières par IA et de mettre des sources pseudo-secondaires rémunérées très "propres sur elles", comme on en voit fleurir à l'envi, l'ensemble s'intégrant dans une stratégie promotionnelle. Limfjord69 (discuter) 11 octobre 2024 à 18:57 (CEST)
- Mais nous pouvons empêcher des sourçages approximatifs voire frivoles en durcissant un peu le ton (et en blacklistant les sources impropres de manière plus drastique), WP en a l'étoffe désormais et la plus-value de WP, c'est justement nous. — adel 11 octobre 2024 à 19:06 (CEST)
- Au passage, une synthèse des positions est en cours à partir de cette liste de discussions et initiatives et le post de @Global Donald me rappelle qu'il faudra sans doute y intégrer la comparaison avec les outils de traduction que j'ai déjà vue ailleurs.
- Personne ne conteste ces outils alors qu'ils ont des défauts en commun avec les IA génératives vu qu'ils facilitent l'importation de contenus peu vérifiés avec une rédaction parfois mauvaise. C'est d'ailleurs un des reproches que j'avais fait à l'article Intelligence morale créé par Global Donald, j'ai posé la même question de qualité pour une série d'articles sur la schizophrénie venus de la version anglophone et il m'est déjà arrivé d'abandonner une traduction parce que l'article original n'était pas bon.
- En fait, je me demande si la question des traductions automatisées ne devrait pas être intégrée au sujet par-delà celle des IA génératives. Fabius Lector (discuter) 11 octobre 2024 à 21:17 (CEST)
- Salut, je ne sais pas si les modèles de détection de contenu généré par un LLM vont s'améliorer pour permettre de mieux détecter si un contenu a été généré par une IA ou un humain, ou si au contraire les LLM vont devenir indétectables. Mais c'est peut-être pas la meilleure façon de regarder la question.
- La qualité du texte fait chier (surtout dans les traductions auto) et il faut retaper des articles face à des utilisateurs qui créent des pavés en 2 minutes. Et comme personne n'a l'idée d'interdire les traductions auto, le problème restera. Donc notre seul espoir du côté rédaction c'est d'avoir de meilleurs modèles de traduction (ou des outils auto de réécriture de traductions). L'un comme l'autre c'est pas vraiment de notre ressort. Si c'est détecté, on peut agir (quitte à bloquer), si la prose est indétectable bah osef. J'ai rien contre l'intégration de la dimension traduction dans le projet (comme tu le proposes Fabius Lector), mais je pense qu'il faut pas juger de l'outil (trop difficile) mais du résultat produit (ce que dit aussi Jean-Christophe BENOIST).
- Le truc qui me fait vraiment chier, c'est ce que disent Pa2chant et Limfjord69 (si j'ai bien compris, même s'ils sont plus polis), c'est l'adéquation entre le contenu textuel (qui peut être très agréable à lire comme dit Global Donald) et les sources citées. C'est la base de notre projet. Je classe dedans le travail de Madelgarius sur les fermes de liens. C'est là qu'il faut un outil de vérification de l'adéquation entre texte et contenu des sources (j'ai déjà vu un papier là-dessus, faut que je le retrouve). Je pense que ça peut le faire soit contre la base générale de connaissance (le train des LLM), soit avec un RAG uniquement sur le contenu des sources. On a déjà ce problème sans LLM, j'ai vu des personnes copier-coller des sources en chinois sans pour autant comprendre le chinois… c'est juste que la source était dispo soit sur en:, soit sur zh: et roule-roule, je recopie. Mais avec genAI, on risque de perdre cette chaîne de transmission du savoir (isnad, oué, on n'est pas les premiers) et c'est notre rôle de la conserver. Bonne journée, (:Julien:) ✒ 21 octobre 2024 à 15:16 (CEST)
- Mais nous pouvons empêcher des sourçages approximatifs voire frivoles en durcissant un peu le ton (et en blacklistant les sources impropres de manière plus drastique), WP en a l'étoffe désormais et la plus-value de WP, c'est justement nous. — adel 11 octobre 2024 à 19:06 (CEST)
- bon, ben on peut complètement s'en passer alors , — adel 11 octobre 2024 à 16:55 (CEST)
- Si c'est que pour la conversion de tableaux, il y a des outils en ligne qui font ça avec probablement beaucoup moins d'énergie que les IAs, je tombe sur cette url au hasard en cherchant viteuf' : https://tableconvert.com/html-to-mediawiki — TomT0m [bla] 11 octobre 2024 à 16:50 (CEST)
- Moi, par contre, j'ai un point de vue un peu différent. Je n'ai aucun souci à ce que des contributeurs utilisent l'IA en back office pour préparer des articles. Ceci étant dit pour l'avoir fait, en guise de test, avec Maria Beasley, ce ne fut pas concluant et le plaisir de la création en fut entaché. En revanche des IA maitrisant le wiki code, je les ai déjà utilisées pour créer de fastidieux tableaux par exemple en les réalisant sur excel et en leur demandant de me donner le code wiki. J'ai également eu à constater des hallucinations totales en matière d'entrées bibliographiques (inventions pures et simples). Ma position est désormais de dire : si utilisation d'IA, il est impératif de le signaler (les modèles ad hoc devraient être créés) ET le mieux serait encore de proscrire l'usage d'IA en tant que générateur de contenu sur WP (sauf en back office et pour des points de détail vérifiés ensuite par le contributeur, comme je le mentionnais, donc ne devant pas faire l'objet d'une déclaration). Demain, l'IA sera en mesure de produire bien mieux que nous des contenus totalement crédibles au format WP. La spécificité de WP sera alors de pouvoir dire made by humans et si nous ne sommes plus alors en mesure de le faire parce que déjà trop vérolé par l'IA... Eh bien ceci sonnerait le glas de WP. Bien à tous, — adel 11 octobre 2024 à 16:33 (CEST)
- De mon côté, deux questions que je poserais pour favoriser la pertinence des recommandations :
Nouvel essai
J'ai initié un essai sur Wikipedia et les LLMs : Wikipédia:Wikipédia et les grands modèles de langage. PAC2 (il/lui) (discuter) 13 octobre 2024 à 21:52 (CEST)
- @PAC2, je l'ai rajouté dans la liste de l'existant, dans la catégorie Sur l'avenir et les principes de Wikipédia qui me semble y correspondre par rapport aux autres.
- J'ai avancé sur la synthèse et notamment en résumant l'essai anglophone Large language model et comme je disais plus haut à Pa2chant.bis, on a l'essai Intelligence artificielle qui lui est lié mais qui a dérivé vers du conseil pratique, et je suis d'avis qu'on devrait avoir quelque part l'équivalent de l'anglophone pour se rapprocher d'une règle/recommandation sur les usages/non-usages.
- Mais de ce que je saisis du tien, il est plus orienté sur des questions de principe évoqué en début de synthèse et donc ça pourrait être complémentaire. On pourrait notamment y rajouter les positions prises par la WMF sur le sujet.
- P.S. : demain je devrais faire une proposition de révision de l'organisation pour prendre en compte les remarques de Pa2chant.bis qui trouve que le projet n'est pas assez clair. Cf. mon brouillon où je m'oriente sur le premier menu pour 3 pages correspondant aux 3 volets du plan de travail et une terminologie plus directe. Fabius Lector (discuter) 14 octobre 2024 à 22:14 (CEST)
Révision de l'organisation
Suite aux remarques de @Pa2chant.bis plus haut et mes avancées sur la synthèse de l'existant, je modifie les onglets pour :
- une terminologie plus directe sur les objectifs ;
- une tripartition correspondant au plan de travail avec :
- « Règlementation » qui pour l'heure renvoie vers la section Définir des règles et recommandations mais aurait sa page dédiée (<= renommage de IA sur Wikipédia). La visée est d'y présenter les principes, règles et recommandations liées aux IA avec en attendant les essais correspondant, particulièrement l'anglophone en:Wikipedia:Large language models pour la génération de texte qui serait à reprendre parce qu'il a pour moi l'essentiel de ce dont on a besoin sur le sujet ;
- « Contrôle », qui pour l'heure renvoie vers la section Maîtriser les usages, espace rédactionnel mais aurait sa page dédié (= nouvelle page Contrôle). La visée se rapprocherait du projet anglophone WikiProject AI Cleanup mais faudrait voir jusqu'à quel point on a envie de participer d'une reprise d'articles à problèmes comme ils semblent être prêts à le faire. Note : j'ai cherché un mot simple et « Contrôle » m'a semblé l'intermédiaire adéquat sur un spectre gestionnaire/policier du type « Gestion », « Maîtrise », « Contrôle », « Patrouille » .
- « Documentation », pas de changement mais je le mets en 3e position pour marquer l'aspect secondaire de l'objectif qu'on n'aille pas vers du catalogue de logiciels et tutoriels d'usage.
- Les discussions viennent ensuite, le projet, la règlementation (pour leur celle de IA sur Wikipedia mais irait vers future page correspondante) et «Signaler un usage» (future page «Contrôle») pour insister à nouveau sur le côté contrôle/patrouille.
Sauf objections ou proposition alternative, je ferai rapidement la scission et renommage de IA sur Wikipédia avec quelques modifications de la présentation du projet en accueil pour adapter à la nouvelle organisation.
P.S. au cas où, ping aux inscrits : PAC2, Le chat perché, Wikihydro, spartan.arbinger - Fabius Lector (discuter) 15 octobre 2024 à 16:26 (CEST)
- Lu et approuvé. Le chat perché (discuter) 15 octobre 2024 à 16:51 (CEST)
- J'ai fait la révision et j'invite plus compétent que moi à vérifier que c'est techniquement correct, p.e. j'ai fait du renommage en laissant des redirections par prudence mais c'est peut-être à nettoyer :
- renommage de IA sur Wikipédia -> Projet:Observatoire_des_IA/Règlementation
- nouvelle page Projet:Observatoire_des_IA/Contrôle
- renommage/déplacement de IA_sur_Wikipédia/Liste_d'échanges_et_initiatives_sur_les_IA vers Projet:Observatoire_des_IA/Liste d'échanges et initiatives sur les IA
- Fabius Lector (discuter) 17 octobre 2024 à 08:33 (CEST)
- Question d'ergonomie sur les discussions : 3 pages de discussion sont indiquées dans le menu d'onglets, mais tous les thèmes commence à apparaître sur « Discussion du projet » et il y a peut-être à être plus clair ou à abandonner l'idée d'une telle orientation.
- Ci-dessous, 3 propositions d'évolution :
- un seul renvoi titré « Discussion du projet », on verra à l'usage comment sont utilisées (ou pas) les autres pages de discussion ;
- deux renvois « Discuter l'organisation du projet » et « Discuter usages et règles », on met de côté pour l'instant les signalement pour simplifier ;
- trois renvois : « Discuter l'organisation du projet », « Discuter usages et règles », « Signaler un usage », on garde le signalement pour voir si des gens s'en servent.
- autre proposition : si vous avez d'autres idées
- Là, je voterais pour l'option 2 pour rester le plus simple possible tout en distinguant deux choses différentes à caler : l'aspect interne au projet avec l'organisation des participants et l'aspect externe avec les usages généraux, qu'on participe ou pas au projet. Fabius Lector (discuter) 20 octobre 2024 à 13:36 (CEST)
- J'ai fait la révision et j'invite plus compétent que moi à vérifier que c'est techniquement correct, p.e. j'ai fait du renommage en laissant des redirections par prudence mais c'est peut-être à nettoyer :
Analyse qualitative du sondage du 28 janvier 2024 sur les IA génératives
Bonjour @Fabius Lector, j'ai vu que tu citais parfois le Sondage 28-01-2024, Intelligence artificielle générative avec la mention "Analyse qualitative à faire". En allant consulté le sondage, je suis tombé sur une première analyse qualitative en page de discussion du sondage qui me semble déjà suffisamment riche pour être un apport au débat. Bien cordialement Gisyd (discuter) 16 octobre 2024 à 20:18 (CEST)
- Merci, je l'avais ratée. Je l'ai indiquée en disant qu'on pourrait la valider et la passer en sous-page des résultats du sondage. Fabius Lector (discuter) 17 octobre 2024 à 07:56 (CEST)
Quelque Banalité pour commencer
1. Faire connaitre le projets Il me semble important d'aller "au front" sur ce sujet, de provoquer discussion et débat ainsi que d'utiliser 2 outil qui nous permettrai de parler du projet et ainsi d'augmenter la presence d'intervention, et donc de solution :
- Creer un bandeau "Attention, ce contenu a très certainement été généré en partie ou totallement par l'IA, n'hesiter pas a le rendre plus "human friendly" en améliorant son plan, en supprimant les répétition et en réécrivant les paragraphe qui vous semble mal rédiger" ou un truc dans le genre
- Militer pour demander une transparence : ce n'est pas honteux de s'aider de l'IA, mais savoir qu'un article a été rediger a l'aide de cette outil permet une plus grande vigilance.
2. Comprendre les erreurs Si on ne retrouve plus, ou presque, ce que l'on appelait, par abus de language, des artefact IA dans les texte généré, certaines erreur sont tres presente, par nature :
- Les repetitions de termes (Du a la partie prédictive des ia generative, qui va préféré les termes les plus explicite)
- La mauvaise disposition des source avec la phrase relié (probleme de mise en forme du a la génération linéaire)
- Le sentimentalisme, le changement de ton d'une phrase à l'autre (Pour passer certain detecteur d'ia, l'ia ment en etant emphasique, voire publicitaire sur certain sujet)
Déjà, si un travail de maintenance est fait sur ces chose la on gagne en qualité, IA ou pas.
Il existe pas encore de boite utilisateur "Je m'aide de l'IA", "je suis contre l'utilisation de l'IA", "je participe au projet:Observatoire de l'IA" ?
Pardonnez les fautes d'orthographes, je suis vraiment terrible sur ce sujet. Kabsurde est ici 18 octobre 2024 à 20:12 (CEST)
- On pourrait aussi creer des "Patrouille" par sujet
- Par exemple, je suis caviste et assez renseigner sur le vin, je pourrais m'occuper de "patrouiller" sur les article du portail vigne et vin Kabsurde est ici 18 octobre 2024 à 20:26 (CEST)
- Bonjour, @Kabsurde, quelques remarques :
- faudrait compléter mais il y a déjà des modèles, cf. par ici Développement de moyens techniques avec
- le bandeau {{IA_générative}},
- la boite utilisateur {{Modèle:Utilisateur_ChatGPT}}
- le modèle {{TIA}} pour les illustrations.
- pour le suivi, ce serait sans doute des catégories qu'il faudrait utiliser comme font les anglophones sur le projet WikiProject_AI_Cleanup. De nôtre côté, sauf erreur, on n'a pour l'instant que Catégorie:Page comportant une illustration générée par une IA. Faudrait en créer d'autres adaptées à la génération de texte et peut-être d'autres usages (p.e. par ici une utilisatrice indique un usage pour de la traduction et faudrait voir si c'est autre chose que du Google Translate ou DeepL et si ça nécessite d'être indiqué vu qu'elle fait des articles de qualité). Je n'ai pas l'expérience de gestion de catégories mais a priori ce n'est pas compliqué.
- pour la communication : je pense que le plus simple sera de communiquer sur les outils concrets pour « tagger » des articles (modèles et catégories) quand une discussion parlant d'IA est lancée sur le bistro et en voyant du côté du Bulletin des patrouilleurs et du Bulletin des administrateurs pour qu'ils soient connus. Mais tant qu'on ne détectera pas de problème important, le plus compliqué sera sans doute de motiver du monde à avancer sur une règlementation et encore plus à re-travailler des articles si il n'y a pas prohibition. De leur côté, les anglophones ont catégorisé de 1 à 40 articles suspects par mois depuis un an et ça explique peut-être qu'ils aient 80 participants au « nettoyage ».
- faudrait compléter mais il y a déjà des modèles, cf. par ici Développement de moyens techniques avec
- Fabius Lector (discuter) 19 octobre 2024 à 14:36 (CEST)
- Catégorie « Suspicion IA Générative »
- à apposé dans le bandeau des catégorie sous cette forme Kabsurde est ici 19 octobre 2024 à 14:55 (CEST)
- Sous cette forme : {{Catégorie|Suspicion IA Générative|majuscule}}
- Il faudrait, en parrallèlle, créé des exemple et des critère, j'ai mis des critère bateau mais peut être faudrait-il en ajouter, modifier, supprimer Kabsurde est ici 19 octobre 2024 à 15:01 (CEST)
- Faut juste creer un modele, ou en modifier un pour que quand on utilise un modele Bandeaux, alerte ou autre, on relie la categorie directement Kabsurde est ici 19 octobre 2024 à 15:06 (CEST)
- Je viens de faire un test avec AIDetector et c'est flagrant:
- https://fr.wikipedia.org/wiki/Andrea_Bruno = 91 % IA Kabsurde est ici 19 octobre 2024 à 15:29 (CEST)
- Un problème possible est que les IA sont entrainées sur WP (entre autres, mais le corpus est important) donc les IA peuvent employer un style wikipédien mais qui est aussi employé par des humains. Donc les taux de faux positifs de ces outils auront tendance à être supérieur sur WP que dans d'autres contextes. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 10:02 (CEST)
- Et sinon on peut commencer par
- Il existe l'extension de navigateur Qui a écrit cela ? qui permet de montrer quand un passage a été introduit dans un article et qui l'a écrit. L'idéal serait de croiser les outils sur l'IA avec cela comme première vérification.
- On me la conseiller pour eviter les faux positif Kabsurde est ici 20 octobre 2024 à 11:22 (CEST)
- Trois points rapidement :
- j'ai lancé le sujet sur la création de catégories pour qu'on organise tout ça ;
- au niveau communication : faudrait lancer un sujet dédié pour mettre au point des messages standards à utiliser et notamment voir ce qu'on peut faire sur le principe de Messages à déposer sur les pages de discussion des utilisateurs. Poser simplement "Suspicion d'utilisation d'IA" en discussion d'un article me semble trop abrupt, il faudrait au minimum expliquer que c'est lié à ce projet-ci et qu'on invite chacun a donner ses positions, notamment pour des contributeurices expérimentés comme ici. Pour l'heure, il n'y a pas de règle/recommandation dédiée organisant des principes de « patrouille » et je pense qu'on doit éviter de braquer les gens en collant sans explication des étiquettes de suspicion. Un truc minimal qui fonctionnerrait aussi avec une catégorie dédiée : indiquer dans le résumé des modifications que c'est lié au projet avec lien vers la page de discussion Contrôle pour qui voudrait expliquer ce qui a été fait. Ça apparaît dans l'historique et ça permet d'expliquer rapidement pourquoi on a fait ça ;
- je ne compterais pas trop sur les développement technologiques pour l'instant, gadgets et autre, vu que d'après la présentation ci-dessous il y a déjà des soucis à régler avec les détecteurs.
- Fabius Lector (discuter) 20 octobre 2024 à 17:04 (CEST)
- Trois points rapidement :
- Un problème possible est que les IA sont entrainées sur WP (entre autres, mais le corpus est important) donc les IA peuvent employer un style wikipédien mais qui est aussi employé par des humains. Donc les taux de faux positifs de ces outils auront tendance à être supérieur sur WP que dans d'autres contextes. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 10:02 (CEST)
- Bonjour, @Kabsurde, quelques remarques :
Études sur l'utilisation des IAs dans les nouveaux articles
Dans le The Signpost (d) du moment, une étude sur l'utilisation de l'IA sur la wikipédia en anglais mais aussi en français dans les textes des nouveaux articles, cf. l'article (en anglais bien sûr).
Le résumé met en lumière de l'étude les motivations pour l'utilisation des IAs. Du "bon", comme l'écriture d'article bien rédigés par des gens qui savent de quoi ils parlent, avec un résultat sourcé, et du moins bon, comme l'autopromotion ou le poussage de point de vue. Aussi utilisé, sans surprise, pour la traduction.
Dans une précédente édition une recherche sur des articles sur les gènes était aussi ressortie, dans un cadre contrôlé et en synthétisant des articles de qualité, les IAs obtenaient des résultats jugés plutôt meilleurs que l'existant dans ce domaine. L'aspect automatique était cherché parce que le travail ne manque pas dans ce domaine, il y a plein de gène et plein de recherches et évidemment la synthèse des conclusions est d'intérêt pour toute la communauté. Synthèse … inédite ?
Les rédacteurice(s?) du SignPost font ensuite une lecture critique de l'article, en mettant notamment comme point faible : l'absence de bonne mesure de la qualité du résultat de l'échantillon, à part de fait que de nombreux éléments ont reçus des bandeaux d'alerte comme "l'article ne cite aucune source", des critiques sur la fiabilité des outils de détection, des critiques sur la méthodologie (en particulier, les données publiées ne permettent pas de répliquer les résultats).
D'intérêt pour le projet, il y a aussi d'autre articles sur le sujet dans la revue de littérature de la page. — TomT0m [bla] 19 octobre 2024 à 15:10 (CEST)
- Merci. Je l'ai indiqué en documentation générale.
- Au passage, les avis sont les bienvenus sur cette question d'ergonomie pour l'organisation (ou non-organisation...) des discussions. Fabius Lector (discuter) 20 octobre 2024 à 13:40 (CEST)
Futurs usages
J'utilise souvent l'IA générative pour les traductions (les traductions de ChatGPT conservent mieux le sens et sont moins littérales que celles de l'outil automatique de Wikipédia) et pour des vérifications de grammaire et reformulations superficielles (ChatGPT trouve souvent des formulations plus claires et moins verbeuses).
J'estime que l'IA générative a fait d'énormes progrès ces dernières années, notamment en termes de réduction des hallucinations, de compréhension des sujets, et de taille de fenêtres de contexte. Les progrès ne vont pas soudainement s'arrêter là. Des entreprises comme OpenAI parlent même d'"agents d'IA", potentiellement d'ici l'année prochaine.[1] En gros, des chatbots comme ChatGPT qui peuvent accomplir une série de tâches. Un exemple radical serait de pouvoir à la fois analyser les problèmes dans un article, chercher des sources, les synthétiser, formater, et proposer à l'utilisateur de publier la modification.
Supposons que la qualité du contenu généré soit au moins aussi bonne que celui du contributeur moyen. J'ai tendance à penser que la qualité des articles pour les lecteurs devrait être le souci premier, et que si l'IA générative améliore la qualité, tant mieux, autant l'exploiter. Mais en même temps, le fait de pouvoir générer beaucoup de contenu avec peu d'efforts a de quoi mettre mal à l'aise. Qu'en pensez vous? Est-ce que ça vous paraît encore trop lointain pour valoir le coup de l'envisager? Alenoach (discuter) 19 octobre 2024 à 20:23 (CEST)
- Nous verrons le jour où cela arrivera, et si cela arrivera. Je pense qu'il ne faut pas compliquer le débat par des spéculations, et des dissertations philosophiques sur les différences entre une AGI et l'esprit humain, car c'est à ça que cela revient. Jean-Christophe BENOIST (discuter) 19 octobre 2024 à 20:29 (CEST)
- Pour le coup, la ou nous devons nous concentrer c'est sur 2 chose :
- Alerter sur les article ou l'utilisation de l'IA est poussive
- Patrouiller pour détecter et corriger les erreur, artefact et synthèse inédite produite à l'IA
- Je continue à militer pour la transparence : cela n'a rien de honteux de généré du contenue en s'aidant de l'IA, mais il faut le signaler, afin que les autre puissent etre plus vigilant sur les article en question
- Comme toi, je pense qu'il faut d'abord voir le probleme par l'oeil de l'utilisateur de wp Kabsurde est ici 20 octobre 2024 à 11:26 (CEST)
- Dans les positions que je suis en train de synthétiser, on voit aussi que si on ne prend en compte que la satisfaction du lecteur, alors à terme, l'existence même de Wikipédia peut être mise en question avec le retour des encyclopédies privées/privatisées vu qu'un combo IA/expert rémunéré se contentant de valider les articles à la chaîne pourrait être plus satisfaisant pour le lecteur (et il ne m'étonnerait pas qu'un certain techno-milliardaire y pense[2]).
- Par contre, si la raison d'être de Wikipédia est de garder vivante une communauté de bénévoles pour la réalisation collective d'une encyclopédie, alors c'est à cette communauté de décider de la place qu'elle donne aux outils par rapport à l'humain, serait-ce dans l'acceptation d'une réduction de l'efficacité. C'est un peu le slogan de la WMF : Knowledge is human (cf. cette version archivée mentionnant les IA).
- Au passage : les avis sont les bienvenus sur cette question d'ergonomie pour l'organisation (ou non-organisation...) des discussions, voir si il faut changer le menu du projet pour distribuer les sujets. Fabius Lector (discuter) 20 octobre 2024 à 14:13 (CEST)
- Avis pris en compte. Il faut que je réfléchisse plus en profondeur sur le sujet. Kabsurde est ici 22 octobre 2024 à 18:06 (CEST)
Création de catégories
Proposition révisée 02/11/2024, usage de l'existant pour l'instant :
L'indentation correspond à une organisation catégorie/sous-catégorie, les liens bleus/rouge à de l'existant/à créer :
- Catégorie:Projet:Intelligence artificielle
- Catégorie:Projet:Observatoire des IA : pour ce qui concerne le projet
- renommage Catégorie:Signalement d'IA générative de Catégorie:Article_pouvant_contenir_un_contenu_généré_par_une_intelligence_artificielle associé à {{IA générative}}
- MàJ 02/11/2024 suite à cette discussion, création d'une catégorie dédiée Catégorie:Illustration par IA débattue associé à modèle nouveau à faire.
Renommage Catégorie:Signalement d'illustration par IA de Catégorie:Page comportant une illustration générée par une IA associé à {{TIA}} - Catégorie:Utilisateur_Projet/Observatoire_des_IA
- Catégorie:Projet:Observatoire des IA : pour ce qui concerne le projet
Première proposition
- Catégorie:Contenu généré par une IA : pour suivre tout ce qui intéresse le contrôle de génération
- Catégorie:Possibilité de contenu généré par une IA (ou Catégorie:Suspicion de contenu généré par une IA) : pour les articles où le statut est à clarifier sans autre précision
- Catégorie:Possibilité de texte généré par une IA (ou Catégorie:Suspicion de texte généré par une IA) : clarification à faire sur le texte
- Catégorie:Possibilité d'illustration générée par une IA (ou Catégorie:Suspicion d'illustration générée par une IA) : clarification à faire sur une illustration
- Catégorie:Page comportant du texte généré par une IA : texte généré avéré
- Catégorie:Page comportant une traduction assistée par une IA : traduction assistée pour préciser, les soucis n'étant pas forcément pires qu'avec les outils « standards » (Google Translate, DeepL)
- Catégorie:Page comportant une illustration générée par une IA : illustration générée avérée
- Catégorie:Possibilité de contenu généré par une IA (ou Catégorie:Suspicion de contenu généré par une IA) : pour les articles où le statut est à clarifier sans autre précision
- Catégorie:Adhérent à la charte d'usage responsable d'IA : catégorie à discuter cf. Projet de charte de l'usage responsable d'IA et discussion afférente.
Méthodologie d'usage :
- les catégories de suspicion (ou possibilité) sont pour indiquer qu'il y a enquête à mener, voir déjà si il y a problème ou pas.
celles indiquant une présence de contenu générées seraient utilisable à simple titre d'information si il est décidé qu'il n'y a pas de problème (on n'a pas de règlementation donc, je ne sais pas trop quel niveau d'acceptabilité est à avoir pour l'instant)
Questions techniques :
- si j'ai bien compris, l'arborescence se fait simplement en indiquant la/les catégorie(s) mère(s) dans la catégorie fille donc on peut réorganiser assez facilement tant qu'il n'y a pas de pages déjà catégorisées ;
- il n'y a pas grand chose d'indiqué comme convention sur les titres, j'ai évité les caractères spéciaux et toute simplification sera sans doute appréciable.
P.S. : je vais laisser un message en discussion du projet Catégories pour leur indiquer ce sujet pour qui voudrait faire des remarques. P.P.S. en passant : je rappelle que le projet concernerait aussi les images, cf. du côté anglophone leur page sur les images où ils choisissent de les garder ou les supprimer et sinon il y a un cette question d'ergonomie à voir pour l'organisation des discussions. Fabius Lector (discuter) 20 octobre 2024 à 16:03 (CEST)
- Il y a un truc a éclaircir absolument avant de mettre en marche ces catégories. Si l'article visé possède des problèmes de pertinence, de véracité, de TI, d'absence de sources.. alors il existe déjà les bandeaux et catégories associées. Si l'article ne possède apparemment aucun de ces défauts, mais est soupçonné ou convaincu d'IA, alors OK pour ces catégories, car rien n'existe. Mais sinon il faut poser d'abord les bandeaux habituels, éventuellement en précisant dans les commentaires du bandeau qu'il y a suspicion d'IA, mais pour moi cela suffit. Il n'y a aucune raison de sortir ces articles du système habituel de contestation de pertinence, ou faire un système parallèle pour l'IA, cela disperserait les efforts. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 16:55 (CEST)
- L'information sur les usages et les problèmes éventuels sont pour moi deux choses différentes : quand on indique qu'un article est la traduction d'un autre Wiki, on donne juste l'information en lien avec la traçabilité des auteurs, indépendamment des problèmes et idem ici, on indique juste qu'on suspecte ou qu'on sait qu'une IA est à créditer dans les auteurs, quelle que soit la qualité finale.
- Et dans cette idée, c'est pour ça que la catégorie « Utilisateur certifié d'IA » me semble beaucoup plus discutable vu qu'il ne s'agit plus là de ce type d'information. D'ailleurs, je me dis maintenant que si elle était adoptée, elle pourrait être plutôt « Utilisateur certifié d'IA par l'Observatoire », en sous-catégorie de celle du projet, pour qu'il soit clair que c'est simplement le projet qui indique qu'il fait confiance à la personne.
- En complément, cf. cette réponse à Kabsurde sur des points de communication à traiter pour éviter de braquer les gens avec un étiquetage de suspicion. Fabius Lector (discuter) 20 octobre 2024 à 17:29 (CEST)
- Mais "L'information sur les usages" risque de se substituer aux problèmes, surtout si dans l'esprit de leur utilisateur, c'est un problème en soi. L'indication de traduction n'a aucune connotation, et est là surtout pour des problèmes de license CC-BY. Nous verrons. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 17:47 (CEST)
- Pour info, autocritique : j'ai rajouté l'option « possibilité » plutôt que « suspicion » et ça me semble préférable dans un premier temps pour éviter le côté agressif de la suspicion. Fabius Lector (discuter) 21 octobre 2024 à 16:24 (CEST)
- Pour info (bis) : Modification des catégories proposées en lien avec un projet de charte. Fabius Lector (discuter) 21 octobre 2024 à 20:38 (CEST)
- Euh je ne comprend pas ceci : « on indique juste qu'on suspecte ou qu'on sait qu'une IA est à créditer dans les auteurs, quelle que soit la qualité finale ». Ou plutôt peut être je n'aurais pas utilisé le verbe "créditer". Il ne s'agit pas de créditer à proprement parler l'IA car d'un point de vue du fonctionnement wikipedien le crédit d'auteur est relatif aux comptes ayant publié et modifié un article. Le reste, par exemple pour une citation, c'est de l'ordre du sourçage. Une IA qui produit un contenu suite à un prompt ne dispose pas de droit d'auteur sur son résultat. Ce dont il peut être question c'est d'indiquer dans l'article qu'une IA a été utilisée pour aider à la rédaction, mais ce n'est pas, désolé d'être tatillon, du crédit d'auteur.
- Par ailleurs je rejoins JCB sur le fait de ne pas faire de confusion sur les rootcauses de problématiques. Si la problématique relève d'un type de bandeau déjà existant, c'est ce bandeau qui doit être mis en place et cette problématique sui doit être réglée en priorité. Par exemple si un article est promotionnel c'est ça l'information principale qui doit figurer. Le fait de relever une problématique liée à une possible contribution par IA ne doit pas un être un "annule et remplace" des autres sujets d'amélioration.
- Je suis d'accord aussi, si je synthétise un peu votre échange, pour dire qu'il faut travailler sur un langage qui ne soit pas accusatoire. On doit pouvoir embarqué avec nous les utilisateurs d'IA et non leur donner l'impression qu'on les cible ou qu'on les désigne comme des problèmes. Le chat perché (discuter) 23 octobre 2024 à 11:31 (CEST)
- Oui, j'ai fait la comparaison avec le crédit d'auteur non pas pour dire qu'il faut considérer les IA comme auteur mais pour le principe de transparence comme quand on indique qu'on a traduit à partir d'un autre Wiki même si on a ensuite beaucoup changé l'article et qu'il ne reste parfois pas grand chose de l'article original.
- Sinon, suite à cette discussion avec Jean-Christophe BENOIST, je suis en train de revoir assez en profondeur le projet de charte d'usage responsable qui a justement pour objectif d'amener à la mobilisation volontaire pour éviter le côté « accusatoire » voire punitif.
- J'espère pouvoir proposer la nouvelle mouture ce soir sur la base de l'adhésion à 4 principes (légalité, prudentiel (faire attention), responsabilité personnelle (ne pas déléguer le règlement des soucis à la communauté) et transparence) avec leurs déclinaisons concrète à voir, p.e. savoir sur quoi il y a nécessité de transparence et les modalités de mise en œuvre de celle-ci (indication en résumé de modif', catégorisation ou pas, bandeaux, modèles etc.). Fabius Lector (discuter) 23 octobre 2024 à 12:47 (CEST)
- @Fabius Lector, non ça ne n'est la même chose que le fait d'indiquer que l'article est traduit d'une autre version linguistique. Par ce que dans ce cas de figure précisément la raison majeure, la seule vraie qui soit importante, est bien de créditer les auteurs de la version dans la langue d'origine. Parce que c'est une obligation légale. Wikipedia a beau être sous licence libre les rédacteurs conservent un droit d'auteur, mais le conteny étant sous licence libre ils ne peuvent en revendiquer rémunération. Raison pour laquelle un site externe qui copie Wikipedia sans créditer Wikipedia est dans l'illégalité.
- Mais je pense qu'on se comprend . Le chat perché (discuter) 23 octobre 2024 à 13:36 (CEST)
- Bonjour. Je ne comprends pas la notion d'"utilisateurd'IA certifié par l"Observatoire". Si on parle IA générative, on sait que les résultats produits ne sont pas au niveau. Donc soit un utilisateur l'utilise quand même, mais passe du temps à vérifier les sources et à retravailler/vérifier le contenu produit, au point que cela ne se voit pas, et dans cas la question ne se pose pas ; soit ce travail de vérification/réécrityure n'est pas abouti, et il n'y a alors aucune raison de lui donner une imprimatur. Et cela risquerait d'être ressenti comme "L'IA est interdite sauf pour une petite coterie qui s'assiste dans son entre-soi". Voire comme "La génération de texte par IA est autorisée, mais musclez-vous pour avoir une imprimatur.
- Concernant les doublons/substitution avec les autres bandeaux, je pensais l'avoir dit, mais il peut y avoir des cas où on pressent que quelque chose ne va pas, que c'est généré par IA, sans pouvoir mettre le doigt dessus. Des catégories/bandeaux spécifiques sont adaptées, car vérifier un texte écrit par une IA est un travail bien spécifique : il faut se faire une idée de l'état de l'art sur un sujet donné, vérifier le contenu des sources, l'absence d'interprétation, le poids respectif s'il s'agit d'un article présenté comme complet ; et enfin vérifier que le style ne comporte pas trop de formules stéréotypées ou hagiographiques façon ChatGPT. On pourrait remplacer par une combinaison de TI +à vérifier + style non encyclopédique, mais cela me parait contre productif (il n'est pas possible ici a priori de donner un exemple d'un point qui serait à vérifier, ou de ce qui serait un TI).
- Pour les noms de catégorie, on privilégie en général des noms assez courts. Ici cela pourrait être "Image potentiellement générée par IA", ou pour un contenu de type texte "Possiblement généré par IA".
- Pour l'arborescence des catégories, oui, c'est exact. --Pa2chant.bis (discuter) 23 octobre 2024 à 16:48 (CEST)
- Bonsoir, réponses dans l'ordre sur la base de la version 2 de ce projet de charte d'usage responsable destiné à une mobilisation volontaire faute de règles et recommandations adoptées :
- @Le chat perché, oublions le droit d'auteur, disons juste qu'il s'agit d'un principe de transparence indiqué dans le projet de charte et dont les modalités concrètes d'application seraient à proposer en annexe ;
- @Pa2chant.bis, j'ai enlevé l'idée d'utilisateur certifié et remplacé par celle de la charte en considérant qu'il ne faut pas prendre pour acquis que « on sait que les résultats produits ne sont pas au niveau ». Qui sait ? Qui est convaincu de l'inverse ? Les usages se démocratisent, un tas de gens n'ont même pas conscience des questions qui se posent et il y a actuellement tension entre les discussions de problèmes et des propositions d'usages acceptables, donc je pars sur l'idée d'un premier travail de sensibilisation en visant le public le plus large possible, y compris ceux qui seraient aptes à des usages indétectables. J'ai mis dans la section Pourquoi cette charte (ébauche à travailler) les éléments à donner dont des questions de principe indépendantes de la capacité technique à produire des contenus corrects, parce que saurait-on le faire qu'on pourrait refuser de le faire.
- Pour la longueur des noms de catégories : je me suis basé sur Catégorie:Page comportant une illustration générée par une IA qui existait déjà avec 173 pages indiquées, le terme « illustration » étant sans doute lié à l'essai associé mais je ne serai pas contre raccourcir aussi son nom. "Image potentiellement etc." me semble peu clair vu qu'on caractérise un article mais simplement "Contient etc." allégerait par rapport à "Page comportant". Faut-il corriger tous les articles associés si on change le nom de la catégorie ?
- Fabius Lector (discuter) 23 octobre 2024 à 20:12 (CEST)
- Oui principe de transparence c'est parfait comme formulation. Merci à toi. Le chat perché (discuter) 23 octobre 2024 à 21:00 (CEST)
- « On sait que les résultats produits ne sont pas au niveau » : je ne connais que des sources allant dans ce sens, aucune qui dise l'inverse. Si quelqu'un en connait une seule, je m'incline. Je comprends le désir de ne pas heurter, mais en même temps j'ai un reproche à faire à la charte que tu proposes : risque de TL;DR (Trop long ; pas lu), et amha n'affiche pas assez la couleur de manière franche. Le problème n'est pas sur le fond, mais sur la manière de présenter. Il faudrait je pense être plus ferme, en commençant par "Il est interdit de générer des articles avec de l'IA, sauf si". C'est pour moi un point central (le refus "juste pour le principe" m'apparaissant a contrario tout à fait irréaliste).
- Nom des catégories : "Contient" irait bien, le tout est d'avoir le nom le plus court possible (mais explicite). Quand on change le nom d'une catégorie, il faut en effet la changer sur les articles. Cela arrive très souvent, et s'il y a plus d'une poignées d'articles concernés, on fait appel à des bots, sur la page de requêtes dédiées. --Pa2chant.bis (discuter) 25 octobre 2024 à 07:20 (CEST)
- Pour info : j'ai créé la Catégorie:Projet:Observatoire des IA, déjà un minimum pour indiquer des pages d'intérêt pour le projet. Catégorie non-cachée et catégorisée dans Catégorie:Projet de maintenance (j'ai pris exemple sur Catégorie:Projet:Sources qui me sert de modèle).
- Sinon, @Pa2chant.bis (ou qui saurait) est-ce bien en faisant p.e. Catégorie:Observatoire_des_IA/Contrôle qu'on fait communément des sous-catégories correspondant à des sections de projet ? Ce serait déjà pour catégoriser l'article Aksidan déplacé ici, et en fait, ce pourrait être une option simple pour indiquer ce qu'on aurait à voir avec une catégorie de maintenance invisible.
- Et pour la cohérence de l'organisation, je pensais renommer Aksidan en sous-page de Projet:Observatoire_des_IA/Contrôle et indiquer quelque part de faire ainsi si on avait d'autres cas. Des remarques là-dessus ? Fabius Lector (discuter) 26 octobre 2024 à 11:39 (CEST)
- Révision de proposition pour faire au plus simple avec l'existant vu qu'il y a déjà des catégories associées à des modèles :
- Catégorie:Projet:Intelligence artificielle
- Catégorie:Projet:Observatoire des IA : pour ce qui concerne le projet
- renommage Catégorie:Signalement d'IA générative de Catégorie:Article_pouvant_contenir_un_contenu_généré_par_une_intelligence_artificielle associé à {{IA générative}}
- renommage Catégorie:Signalement d'illustration par IA de Catégorie:Page comportant une illustration générée par une IA associé à {{TIA}}
- Catégorie:Utilisateur_Projet/Observatoire_des_IA
- Catégorie:Projet:Observatoire des IA : pour ce qui concerne le projet
- Catégorie:Projet:Intelligence artificielle
- Faut que je vérifie les usages actuels des catégories et que je revois le modèle IA générative avant renommage. Fabius Lector (discuter) 28 octobre 2024 à 11:39 (CET)
- et faire une règle qui dit que seul les membre du projet peuvent confirmée l'usage inappropriée de l'ia Spartan.arbinger (discuter) 28 octobre 2024 à 13:01 (CET)
- Révision de proposition pour faire au plus simple avec l'existant vu qu'il y a déjà des catégories associées à des modèles :
- Oui principe de transparence c'est parfait comme formulation. Merci à toi. Le chat perché (discuter) 23 octobre 2024 à 21:00 (CEST)
- Bonsoir, réponses dans l'ordre sur la base de la version 2 de ce projet de charte d'usage responsable destiné à une mobilisation volontaire faute de règles et recommandations adoptées :
- Pour info (bis) : Modification des catégories proposées en lien avec un projet de charte. Fabius Lector (discuter) 21 octobre 2024 à 20:38 (CEST)
- Pour info, autocritique : j'ai rajouté l'option « possibilité » plutôt que « suspicion » et ça me semble préférable dans un premier temps pour éviter le côté agressif de la suspicion. Fabius Lector (discuter) 21 octobre 2024 à 16:24 (CEST)
- Mais "L'information sur les usages" risque de se substituer aux problèmes, surtout si dans l'esprit de leur utilisateur, c'est un problème en soi. L'indication de traduction n'a aucune connotation, et est là surtout pour des problèmes de license CC-BY. Nous verrons. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 17:47 (CEST)
Projet de charte pour l'usage responsable d'IA
J'ai lancé un projet de charte pour l'usage responsable d'IA à discuter sur la discussion afférente. L'idée est d'avoir déjà des engagements volontaires à défaut de règles/recommandation et de répondre rapidement à des problèmes soulevés dans les discussions.
Tout commentaire et proposition d'amélioration sont bienvenus et je pense qu'on pourrait rapidement signaler l'initiative au bistro et peut-être sur les bulletins des patrouilleur et administrateur (ça se fait de leur indiquer les choses ainsi ?). Fabius Lector (discuter) 21 octobre 2024 à 20:54 (CEST)
Annonce : boîte utilisateur disponible
Une boîte utilisateur a été créée par Spartan.arbinger pour la participation au projet, c'est par ici : {{Modèle:Utilisateur_Projet/Observatoire_des_IA}}.
P.S. : rappel de discussion en cours sur l'orientation prise pour la question de la règlementation (contrainte ou volontariat ?) avec implications sur le contrôle, les avis sont les bienvenus. Fabius Lector (discuter) 25 octobre 2024 à 13:58 (CEST)
- est ce que on fait pas aussi celle ia et on considère que ceux qui participe ici son aussi des participant au projet ia Spartan.arbinger (discuter) 25 octobre 2024 à 16:12 (CEST)
- Peut-être pas maintenant, par prudence : on pourrait aussi avoir des membres qui viennent parce qu'ils sont anti-IA et ne veulent pas être affiliés au projet IA. Faut voir, la sous-catégorisation du projet dans le projet IA n'implique pas forcément celle des membres. Fabius Lector (discuter) 25 octobre 2024 à 20:19 (CEST)
- ok je desactive l'ajout auto Spartan.arbinger (discuter) 25 octobre 2024 à 20:38 (CEST)
- Peut-être pas maintenant, par prudence : on pourrait aussi avoir des membres qui viennent parce qu'ils sont anti-IA et ne veulent pas être affiliés au projet IA. Faut voir, la sous-catégorisation du projet dans le projet IA n'implique pas forcément celle des membres. Fabius Lector (discuter) 25 octobre 2024 à 20:19 (CEST)
Annonce : page Règlementation/Liste d'usages à traiter
J'ai créé la page Liste d'usages à traiter en sous-page de Règlementation et je vous invite à y indiquer vos préconisations en terme de règles/recommandation dans les listes à puce initiées. Vous pouvez bien sûr y rajouter ce que vous voulez en terme d'usages à traiter avec description de cas pour qu'on voit de quoi on parle. Fabius Lector (discuter) 25 octobre 2024 à 20:24 (CEST)
Annonce : procédure d'intervention
J'ai lancé une section dédiée à une procédure d'intervention pour le contrôle : Procédure d'intervention : identification, signalements, mesures.
Ce serait à corriger/compléter notamment au niveau des indices permettant une détection et des mesures déjà utilisées dans les cas de détection (annulations de modif', suppressions d'images, « quarantaine », RA... quoi d'autre ?). Fabius Lector (discuter) 26 octobre 2024 à 14:38 (CEST)
- Dans Projet:Observatoire_des_IA/Contrôle#Mesures, il faudrait commencer peut-être par "trouver un consensus en page de discussion", avant de passer au révert, la quarantaine etc.. ? Et il n'est pas rappelé dans "Signalement" qu'il faut en priorité signaler les problèmes avec les bandeaux habituel : pertinence, neutralité, etc.. --Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 11:58 (CET)
- Sur les mesures, ça se veut pour l'heure juste descriptif des pratiques constatées, pour ce qu'on devrait faire, de mon côté je ne sais pas précisément, d'où le recueil des avis sur les usages à traiter et les préconisations d'action.
- j'ai rajouté le fait de discuter, avec des exemples ;
- et proposer la recherche de consensus en PDD comme base pourrait-il signifier de laisser aux contributeurs l'option de gérer entre-eux, au cas par cas, sans règle spécifique ? Si c'est ça, ça pourrait être proposé en préconisation générale même si l'idée de règlementation et de contrôle par le projet va dans le sens inverse. Cf. aussi la PDD et l'historique de Aksidan, analyse/détection du problème et « quarantaine » pour l'article par Pa2chant.bis, sauf erreur sans discussion de ce qu'il y a à faire.
- Sur les signalements : il s'agit là des signalement spécifiques d'usages d'IA pas des problèmes communs de pertinence, neutralité etc. qui sont censés être déjà traités ailleurs, même si ça peut se cumuler avec le signalement spécifique. Mais je travaille sur une révision du modèle {{IA générative}} pour le rapprocher de en:Template:AI-generated avec la documentation donnant les modèles alternatifs à éventuellement utiliser et l'indication d'expliquer les problèmes en page de discussion.
- Sur les mesures, ça se veut pour l'heure juste descriptif des pratiques constatées, pour ce qu'on devrait faire, de mon côté je ne sais pas précisément, d'où le recueil des avis sur les usages à traiter et les préconisations d'action.
- P.S. : dans le code du modèle, j'ai découvert qu'il existait déjà la Catégorie:Article pouvant contenir un contenu généré par une intelligence artificielle pour du signalement. Va falloir que je révise la création de catégorie et sans doute faire au plus simple en en restant à l'existant pour l'instant. Fabius Lector (discuter) 27 octobre 2024 à 14:01 (CET)
- Les règles spécifiques existent surtout quand on ne trouve pas de consensus. Sachant que les règles de base : WP:V, WP:PROP; WP:NPOV sont intangibles, et le consensus doit être fondé sur ces règles (pas "entre-eux"). Sur les signalement, comme je l'ai déjà dit, il y a fort à parier que le signalement IA sera fait en priorité, et en lieu et place des autres, surtout s'il y a un caractère péjoratif à ce signalement qui suffit en soi à remettre en cause le passage. Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 14:42 (CET)
- Pas sûre d'avoir tout compris. Sur Aksidan, précision : ce n'est pas tant une quarantaine qu'une SI + une analyse des pb identifiés, le texte n'étant conservé que pour donner une assise à cette analyse. Et pour la mention ici « analyse/détection du problème et « quarantaine » pour l'article par Pa2chant.bis, sauf erreur sans discussion de ce qu'il y a à faire » si la critique porte sur le fait que j'ai demandé une SI sans en discuter au préalable, j'assume : c'est ainsi que je procède pour les TI sans sources, pas de raison de faire autrement ici, d'autant que je m'appuie sur le sondage autorisant "une plus grande sévérité". Si la critique porte sur le fait d'avoir conservé le contenu d'une page et ajouté mon analyse, j'ai toujours présenté ainsi (même si je l'ai pas forcément bien explicité) ma participation : un des objectifs/moyen du projet doit être de bâtir un corpus de cas pour nous doter d'aides à l'identification d'articles générés par IA.
- En ce qui me concerne, JCB, il est inconcevable de perdre du temps à dégager en PDD un consensus article par article sur ce qu'on conserve et que l'on rejette, si l'on s'est rendu compte d'un pb lié à l'utilisation d'IA. Cela a été dit par plusieurs et à de multiples reprises : nous, humains, ne sommes pas de taille à lutter contre une invasion de WP par des centaines de textes générés en quelques secondes par IA sous la main de contributeurs n'en maitrisant pas les effets. Le seul cas à mes yeux qui mérite une réflexion ou des discussions en PDD est celui des synthèses pures, et encore, à condition qu'il n'y ait pas trop de biais dans la sélection des sources. Mais même pour ça, en cas de pb visible, je serais pour une sévérité accrue. --Pa2chant.bis (discuter) 27 octobre 2024 à 17:59 (CET)
- Le biais potentiel dans la sélection des sources est le même, ni plus ni moins, qu'avec une synthèse humaine puisque c'est l'humain qui spécifie les sources. Je vois ce que tu veux dire, et je comprends. La submersion est le problème n°1 de l'IA, que les articles générés soient OK (en apparence) ou pas. Entre lire les sources, corriger le résultat, on peut sortir deux articles par jour (ou équivalent) à plein temps maxi en synthèse IA. Et en prenant ce temps, il n'y aura pas de problème visible (enfin, ni plus ni moins que ce qu'aurait fait l'humain qui a vérifié). Donc je suis d'accord sur : problème visible + suspicion d'IA => sévérité, mais j'aurais tendance à dire que c'estla même chose si un contributeur sort des contributions invalides à un rythme effréné sans IA. Et je pense aussi que si un compte sort plus de 2 articles ou équivalent par jour, il y a qqchose qui cloche, et le rythme en soi est un problème avec ou sans IA. Mais si le rythme d'un compte est "humain" et pas de problème visible, on a le temps de discuter. Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 19:17 (CET)
- @Pa2chant.bis, quand je disais « sans discussion de ce qu'il y a à faire », ce n'était pas une critique, ça me semble au contraire le principe même d'un contrôle plus ou moins centralisé que d'avoir des critères pour agir sans devoir à chaque fois discuter de ce qu'il y a à faire.
- Sinon, sauf erreur « SI » signifie « Suppression immédiate » et j'ai modifié l'explication de la mesure prise mais j'aurais cru qu'on réservait le terme aux suppressions faites par des admins par demande de suppression immédiate. Ça correspond aussi à ce que peut faire un Wikipédia:Révocateur ?
- En fait, va peut-être falloir organiser les mesures prises/prenables selon les statuts. Fabius Lector (discuter) 28 octobre 2024 à 10:58 (CET)
- @Spartan.arbinger, sauf erreur, l'article Projet:Observatoire_des_IA/Aksidan a été supprimé suite à ta demande mais @Pa2chant.bis disait ci-dessus l'avoir déplacée sur le projet pour présenter son analyse donc je voudrais savoir si c'est ok pour tout le monde. Ce pourrait être une procédure d'intervention à entériner : en cas de création d'article clairement suspecte, on met de côté ici pour présenter une analyse et on fait la demande de suppression.
- Je demande parce que j'ai fait la page Mesures prises pour avoir un historique et j'aimerais y inscrire la manière dont ça s'est fait.
- P.S. : si l'analyse qui était en PDD est récupérable quelque part, ça m'intéresse pour la documentation. Fabius Lector (discuter) 28 octobre 2024 à 17:15 (CET)
- je l'ai virée car un l'article était pas générer par l'ia ou sinon le type est hyper bon et était juste pas admissible Spartan.arbinger (discuter) 28 octobre 2024 à 17:39 (CET)
- Tu as regardé l'analyse qui était en PDD ? A priori, Pa2chant.bis pensait qu'il y avait de l'IA dedans, c'est pour ça que ça a été déplacé sur le projet.
- Enfin bon, faudrait se caler sur une procédure si ça doit se reproduire, qu'on sache pourquoi un article arrive ici et où le mettre (j'avais proposé en sous-page de Contrôle si c'est un article à contrôler). Fabius Lector (discuter) 28 octobre 2024 à 18:05 (CET)
- @Spartan.arbinger : alors là, je suis furieuse contre vous à un point que vous ne pouvez pas imaginer. Si vous aviez voulu être constructif, et pensez réellement que ce texte n'a pas été généré par IA, il aurait été beaucoup plus logique d'expliquer en PDD pourquoi selon vous, à la suite de mon analyse. Franchement, ce que vous faites est de la désorganisation pure et simple. Merci de demander le rétablissement de ce texte. --Pa2chant.bis (discuter) 28 octobre 2024 à 19:56 (CET)
- Ok, Fabius Lector. J'ai en effet fait une demande de SI (abus de langage quand j'ai parlé de SI ; les révocateurs n'ont pas plus de droits que d'autres).
- Je reviens au comportement de Spartan.arbinger, et d'un autre contributeur avant, qui avait déplacé la même page vers l'espace WP. Si on tolère de tels comportements, cela veut dire que la seule solution serait de conserver nos analyses sur nos espaces personnels. Pour un travail en projet, ce n'est pas vraiment idéal, mais je tenterai de m'en souvenir.--Pa2chant.bis (discuter) 28 octobre 2024 à 20:05 (CET)
- j'ai fait une sous page acheck ou on va mettre toutes les pages a vérifié (et demandée la restauration dedans Spartan.arbinger (discuter) 28 octobre 2024 à 20:15 (CET)
- De plus je pense être le contributeur qui a le plus de connaissance dans l'IA (c'est littéralement une partie de mon domaine d'étude et j'ai fait une conférence dessus) Spartan.arbinger (discuter) 28 octobre 2024 à 20:18 (CET)
- 1) pas du tout le phraser de n'importe laquelle des ia courante et on peut oublier les IA entrainées à la main
- 2) les IA ne sont pas capables de générer les infobox et le code mediawiki correctement
- 3) ce genre d'article ne peut pas être écrit par une IA, car il n'a strictement pas assez d'information alors que les ia ont comme biais de mettre trop d'info plutot que pas assez
- 4) la raison pour laquelle, j'ai demandé là si est que l'article n'avait rien à faire en sous page du projet directement si je dois vraiment récupérer l'article, il ne sera pas en sous page direct Spartan.arbinger (discuter) 28 octobre 2024 à 20:09 (CET)
- Attendez : vous débarquez ici, en prétendant avoir la plus grosse connaissance, vous faites supprimer une analyse sans concertation, vous décidez de comment doivent être organisées les pages sans vous préoccuper un instant de ce qui s'est dessiné au cours des discussions précédentes, et vous pensez que ça va passer crème ? Quand je serai calmée, je rediscuterai avec vous sur le fond SUR LA PDD IDOINE de vos arguments, qui à mon avis sont erronés et témoignent juste d'un manque de connaissances du phénomène. --Pa2chant.bis (discuter) 28 octobre 2024 à 20:27 (CET)
- Un point de méthodologie pour éviter des problèmes : communiquer pour coordonner.
- Ma méthode : pour chaque changement notable, un sujet « Annonce : » où j'explique ce que j'ai fait, que ça se discute si besoin est.
- Là, je vais en créer un pour la page « acheck » avec des commentaires. Fabius Lector (discuter) 29 octobre 2024 à 11:57 (CET)
- Pour info : j'ai réorganisé la page Contrôle en mettant en premier une section Articles à traiter.
- En attendant de clarifier la procédure et révision de modèle (cf. P.S.), si un article est concerné, on peut :
- lui mettre la catégorie Catégorie:Article pouvant contenir un contenu généré par une intelligence artificielle
- l'indiquer dans la section.
- Une fois traité, ça devrait être indiqué dans la page Mesures prises pour conserver un historique.
- P.S. : j'ai une révision du modèle {{IA générative}} en cours qui intègre la catégorie et sauf objection, je devrais la renommer « Signalement d'IA générative » pour faire simple vu que c'est censée être une catégorie de maintenance invisible. Fabius Lector (discuter) 29 octobre 2024 à 14:41 (CET)
- @Spartan.arbinger, il serait bon de faire preuve d'humilité. L'argument d'autorité étant précisément interdit dans Wikipedia. Personne n'a de préséance parce qu'il affirme avoir une expertise IRL. Wikipedia ne marche pas comme ça et il est inconcevable de vous laisser imposer unilatéralement vos vues. On construit ce projet collectivement avec notamment @Fabius Lector (merci de son engagement), @Jean-Christophe BENOIST, @Pa2chant.bis et quelques autres. Ce n'est pas pour qu'un contributeur débarque subitement et décide tout seul. Il vous a déjà par ailleurs plusieurs fois été demandé de modérer vos propos et de porter plus de respect à autrui dans vos interractions.
- Par ailleurs ceci est problématique : « et faire une règle qui dit que seul les membre du projet peuvent confirmée l'usage inappropriée de l'ia ». Non cela ne marche pas comme ça et cela montre une certaine méconnaissance des projets dans Wikipedia (ce qui n'est pas grave en soit, on en apprend tout les jours}}. Ce projet comme par exemple l'ODS n'a pas de mandat de la communauté pour lui imposer formellement quoi que ce soit ni pour s'auto-arroger une prérogative unilatérale. On en est à peine à construire le fonctionnement du projet. Le chat perché (discuter) 29 octobre 2024 à 14:47 (CET)
- Mais le problème est qu'il s'est porté volontaire pour répondre à un journaliste Suisse, et s'il fait cavalier seul.. Au moins il faudrait qu'il lui dise qu'il s'exprime en tant qu'individu et au nom de personne. Jean-Christophe BENOIST (discuter) 29 octobre 2024 à 16:44 (CET)
- pour info j'ai employée la première personne et surtout j'ai été le seul volontaire donc bon Spartan.arbinger (discuter) 29 octobre 2024 à 16:50 (CET)
- Encore une procédure à mettre en place pour la communication externe. Pour info, on m'a déjà proposé en privé d'intervenir sur le sujet pour une table ronde en visio ou IRL. J'ai dit que le mieux serait que si ça se fait, ce soit préparé collectivement par le projet et qu'on voit qui peut faire la présentation au mieux. Penser collectif.
- Sinon, Spartan.arbinger, pour renchérir sur ce que dit Le chat perché : il m'étonnerait qu'on puisse demander une règle réservant aux membres la définition de l'usage inappropriée d'IA, ce serait définir un nouveau statut du niveau des admins. On peut tout au plus argumenter dans une demande d'action administrative comme dans le projet Sources ou Antipub, l'Observatoire pouvant servir à centraliser les discussions/analyses. Fabius Lector (discuter) 29 octobre 2024 à 17:21 (CET)
- et pour le coup, c'est ça que j'entendais par uniquement les membres (et pas participant) Spartan.arbinger (discuter) 29 octobre 2024 à 17:31 (CET)
- en soit les page sont accessible à tout pour discuter Spartan.arbinger (discuter) 29 octobre 2024 à 17:40 (CET)
- On peut conseiller, suggérer, recommander...Mais certainement pas imposer. Wikipedia repose sur la notion de consensus sauf pour le non respect des règles communes, disons basiquement sur le respect des principes fondateurs. Pour tout ce qui est de l'ordre de l'éditorial il n'y a pas de prérogatives exclusives de tel ou tel projet. Et on aurait à juste titre, moi le premier, des levées de bouclier si on voulait s'en arroger. L'esprit collaboratif wikipedien est incompatible dans sa dimension éditoriale avec l'idée de chasse garder, de prescription de sachant. On peut avoir un avis éclairer parce que dans le cadre d'un projet on a travailler sur un sujet précis. Mais tout contributeur est légitime, qu'il soit participant ou membre ou aucun des deux à s'exprimer quand bon lui semble. Le chat perché (discuter) 29 octobre 2024 à 17:43 (CET)
- et pour le coup, c'est ça que j'entendais par uniquement les membres (et pas participant) Spartan.arbinger (discuter) 29 octobre 2024 à 17:31 (CET)
- pour info j'ai employée la première personne et surtout j'ai été le seul volontaire donc bon Spartan.arbinger (discuter) 29 octobre 2024 à 16:50 (CET)
- Mais le problème est qu'il s'est porté volontaire pour répondre à un journaliste Suisse, et s'il fait cavalier seul.. Au moins il faudrait qu'il lui dise qu'il s'exprime en tant qu'individu et au nom de personne. Jean-Christophe BENOIST (discuter) 29 octobre 2024 à 16:44 (CET)
- Attendez : vous débarquez ici, en prétendant avoir la plus grosse connaissance, vous faites supprimer une analyse sans concertation, vous décidez de comment doivent être organisées les pages sans vous préoccuper un instant de ce qui s'est dessiné au cours des discussions précédentes, et vous pensez que ça va passer crème ? Quand je serai calmée, je rediscuterai avec vous sur le fond SUR LA PDD IDOINE de vos arguments, qui à mon avis sont erronés et témoignent juste d'un manque de connaissances du phénomène. --Pa2chant.bis (discuter) 28 octobre 2024 à 20:27 (CET)
- @Spartan.arbinger : alors là, je suis furieuse contre vous à un point que vous ne pouvez pas imaginer. Si vous aviez voulu être constructif, et pensez réellement que ce texte n'a pas été généré par IA, il aurait été beaucoup plus logique d'expliquer en PDD pourquoi selon vous, à la suite de mon analyse. Franchement, ce que vous faites est de la désorganisation pure et simple. Merci de demander le rétablissement de ce texte. --Pa2chant.bis (discuter) 28 octobre 2024 à 19:56 (CET)
- je l'ai virée car un l'article était pas générer par l'ia ou sinon le type est hyper bon et était juste pas admissible Spartan.arbinger (discuter) 28 octobre 2024 à 17:39 (CET)
- Pas sûre d'avoir tout compris. Sur Aksidan, précision : ce n'est pas tant une quarantaine qu'une SI + une analyse des pb identifiés, le texte n'étant conservé que pour donner une assise à cette analyse. Et pour la mention ici « analyse/détection du problème et « quarantaine » pour l'article par Pa2chant.bis, sauf erreur sans discussion de ce qu'il y a à faire » si la critique porte sur le fait que j'ai demandé une SI sans en discuter au préalable, j'assume : c'est ainsi que je procède pour les TI sans sources, pas de raison de faire autrement ici, d'autant que je m'appuie sur le sondage autorisant "une plus grande sévérité". Si la critique porte sur le fait d'avoir conservé le contenu d'une page et ajouté mon analyse, j'ai toujours présenté ainsi (même si je l'ai pas forcément bien explicité) ma participation : un des objectifs/moyen du projet doit être de bâtir un corpus de cas pour nous doter d'aides à l'identification d'articles générés par IA.
- Les règles spécifiques existent surtout quand on ne trouve pas de consensus. Sachant que les règles de base : WP:V, WP:PROP; WP:NPOV sont intangibles, et le consensus doit être fondé sur ces règles (pas "entre-eux"). Sur les signalement, comme je l'ai déjà dit, il y a fort à parier que le signalement IA sera fait en priorité, et en lieu et place des autres, surtout s'il y a un caractère péjoratif à ce signalement qui suffit en soi à remettre en cause le passage. Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 14:42 (CET)
┌─────────────────────────────────────────────────┘
Proposition de procédure standard : sur la base de ce qui se fait du côté du Projet:Sources et du Projet:Antipub, j'ai donné un résumé de procédure standard en attendant des compléments après révisions des modèles et catégories.
Merci de me dire si ça vous va ou ce que vous amenderiez.
P.S. : la page d'archivage serait en fait un renommage de « acheck », cf. sujet ci-dessous où je vais détailler l'idée. Fabius Lector (discuter) 30 octobre 2024 à 17:58 (CET)
Demande de la RTS
Bonjour
Un journaliste pour la radio publique suisse (RTS) a contacté Wikimedia CH. Il cherche à parler à des contributeurs francophones suisses qui luttent contre les faux articles écrits avec IAG. https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup / https://fr.wikipedia.org/wiki/Discussion_Projet:Observatoire_des_IA.
Voici des articles anglophones sur la question : https://www.extremetech.com/internet/people-are-stuffing-wikipedia-with-ai-generated-garbage?utm_source=pocket_saves
Est-ce qu'il y a une contributrice ou un contributeur (suisse) pour parler de l’arrivée des textes/photos IAG sur Wikipédia et de votre expérience. Il doit rendre son sujet déjà demain, mardi 29 octobre à 12h ?
Merci de prendre contact avec moi par email à kerstin.sonnekalb@wikimedia.ch. Je suis la responsable d'outreach & communication chez Wikimedia CH:
Avec mes salutations les meilleures
Kerstin
Kerstin Sonnekalb (WMCH) (discuter) 28 octobre 2024 à 09:02 (CET)
- je suis francais et pas suisse mais je suis volontaire sa marche quand même Spartan.arbinger (discuter) 28 octobre 2024 à 13:00 (CET)
- Bonjour @Kerstin Sonnekalb (WMCH), le projet débute à peine et en croisant les premiers inscrits avec ceux du projet Suisse et cette catégorie, je ne pense pas qu'on ait pour l'heure de Suisse.
- Mais si c'est pour écrire une chronique, qu'il n'y a pas d'enregistrement audio, pourquoi ne pas lui proposer de venir poser ici les questions ? En plus, il faudrait faire passer le message que ça devrait sans doute plus se gérer par langue, ici le wiki francophone, que par nationalité.
P.S. pour @Spartan.arbinger, au cas où il y ait interview, je mets quelques points que de mon côté j'essaierais de placer, et j'invite d'autres participants à faire de même. Au pire, le journaliste pourra voir ce qu'on a à dire :
- dans le discours public, on s'intéresse surtout aux problèmes de fiabilité, canular etc. mais il y a aussi des problèmes de principe pour un projet basé sur une communauté humaine, le même genre de questions pouvant toucher la presse ou l'édition avec des rédacteurs devenant simples contrôleurs de rédaction par LLM (cf.Voici a publié sur son site ses premiers articles avec l’aide de l’IA) ou avec des images générées remplaçant un travail de graphiste ;
- l'impact est pour l'instant limité mais avec risque d'aggravation. Sur plusieurs millions d'articles, les anglophones ont environ 150 signalés, sur le francophone on n'a qu'une dizaine de cas identifiés mais il n'y a pas d'outil de détection automatique fiable donc on est un peu dans le flou. Au niveau vandalisme, sur le wiki francophone, un seul utilisateur bloqué, les usages signalés étant plutôt faits de bonne foi, même si le résultat est déficient.
- une mobilisation à plusieurs niveaux sur le sujet :
- au niveau de la Wikimedia Foundation, l'institution gérant les wiki, il y a une réflexion générale mais pour l'heure, à ma connaissance, pas de chose concrète proposée (outil de détection par exemple, recommandations pour tous les wikis etc.)
- au niveau des wikis organisés par langue : le niveau d'action et les objectifs peuvent varier selon les choix des communautés de bénévoles. Chez les anglophones le projet de suivi en:Wikipedia:WikiProject_AI_Cleanup date d'environ un an avec à ce jour une équipe de 89 « nettoyeurs » pour supprimer ou corriger des articles. Sur le francophone il y a déjà eu des interventions au cas par cas mais le projet d'organisation vient à peine de se lancer et il faudra un peu de temps pour voir comment ça se structure.
- Fabius Lector (discuter) 28 octobre 2024 à 14:33 (CET)
- vue de toute manière c'est les points que je pensais abordée Spartan.arbinger (discuter) 28 octobre 2024 à 14:47 (CET)
- Bonjour @Spartan.arbinger, est-ce que tu aurais un peu de temps pour nous débrieffer ? Comment ça c'est passé ? Le chat perché (discuter) 29 octobre 2024 à 14:33 (CET)
- echange de mail pour l'instant Spartan.arbinger (discuter) 29 octobre 2024 à 14:41 (CET)
- A priori, c'est cette chronique. Quelques infos bizarres, un peu de dramatisation inutile, mais je découvre qu'on a un-e francophone au départ du WikiProject AI Cleanup. Fabius Lector (discuter) 3 novembre 2024 à 10:40 (CET)
- et que les francais on pas été écoutée Spartan.arbinger (discuter) 3 novembre 2024 à 19:24 (CET)
- A priori, c'est cette chronique. Quelques infos bizarres, un peu de dramatisation inutile, mais je découvre qu'on a un-e francophone au départ du WikiProject AI Cleanup. Fabius Lector (discuter) 3 novembre 2024 à 10:40 (CET)
- echange de mail pour l'instant Spartan.arbinger (discuter) 29 octobre 2024 à 14:41 (CET)
- Bonjour @Spartan.arbinger, est-ce que tu aurais un peu de temps pour nous débrieffer ? Comment ça c'est passé ? Le chat perché (discuter) 29 octobre 2024 à 14:33 (CET)
- vue de toute manière c'est les points que je pensais abordée Spartan.arbinger (discuter) 28 octobre 2024 à 14:47 (CET)
Annonce : page « acheck » à checker
@Spartan.arbinger a créé la page « acheck » qui, si j'ai bien compris, servirait de répertoire pour des articles à analyser.
P.S. : je mettrais en réponse des commentaires après y avoir réfléchi (nom et lieu de la page, besoin ou pas de la fonction de création de sous-page si, en fait, on déplace des articles etc.) Fabius Lector (discuter) 29 octobre 2024 à 13:35 (CET)
- Une remarque : le but et le fonctionnement de cette page ne sont pas clairs. S'agit-il de lister les pages soupçonnées d'utiliser les IA ? Si elles sont juste soupçonnées, elles restent dans l'espace principal, sauf erreur. Ce que l'on pourrait mettre sur une page projet, ce sont les arguments montrant ou pas une utilisation de l'IA telle qu'une SI s'imposerait ou au contraire serait à rejeter. S'il s'agit de pages convaincues d'utiliser l'IA et passées en SI, elles sont destinées à faire partie d'un corpus d'analyse, et ne doivent pas à mon avis êtres confondues avec les premières. Il peut enfin s'agit de pages au statut trouble, "mise en quarantaine" ie renvoyées vers le brouillon de l'auteur ou ailleurs mais sorties de l'espace principal et destinées à être retravaillées(pas n"cessairement par le projet). Il est bon de les lister, mais doivent elles être transférées sur une page du projet ? Je n'en suis pas persuadée, sauf à donner l'illusion qu'une des taches du projet est la remise d'équerre de telles pages.
- Sinon, comment ça marche ? --Pa2chant.bis (discuter) 29 octobre 2024 à 22:09 (CET)
- J'ai fait une proposition de procédure standard sur le même type que ce qu'il y a sur les Projet:Sources et Antipub, cf. ci-dessus pour la valider/discuter.
- Si c'est ok, on renomme/déplace « acheck » en Projet:Observatoire_des_IA/Contrôle/Contenus archivés et on s'en sert pour ce qu'on voudrait garder, ne serait-ce que temporairement (quarantaine).
- Pour la fonctionnalité de création de sous-page, j'avais des doutes sur l'utilité mais je viens de penser qu'elle serait sans doute intéressante : plutôt que du déplacement d'article, il faudrait sans doute créer une page d'archive dédiée et y copier/coller le code pour qu'une SI soit possible et que ce soit signalé si quelqu'un retente de créer l'article.
- Si on est d'accord là-dessus, je modifie la procédure d'intervention pour indiquer l'archivage par création de sous-page.
- P.S. : dans la procédure, les analyses se feraient sur la page dédiée de l'Observatoire plutôt qu'en PDD, comme on fait sur les Projets Sources et Antipub avec les admins qui s'en servent pour les décisions, faudrait y copier/coller celle d'Aksidan si on veut la garder. Fabius Lector (discuter) 30 octobre 2024 à 18:20 (CET)
- en soit oui tu peut la transformé en archive Spartan.arbinger (discuter) 3 novembre 2024 à 19:47 (CET)
Gestion des images
Révision 4/11/2024 : cf. Procédure en test sur la base d'un traitement au cas par cas
Révision 3/11/2024 : texte barré = correction d'interprétation et changement de stratégie, cf. la discussion.
Bilan de révision de la Catégorie:Page comportant une illustration générée par une IA (cf. journal des opérations) : plus d'une centaine d'articles étaient restés liés sans raison après la suppression des images suite à cet appel à commentaire puis ce sondage et la demande de suppression de lien sur Commons par l'auteur, @Triton .
À voir au niveau règlementation, peut-on à partir du sondage de janvier
- entériner
comme Tritonque les images par IA pour illustrer des créatures fantastiques ne sont pas admises ? Fichiers impliqués : - étendre ça de manière générale aux illustrations artistiques comme ci-dessous ?
- sur L'Inconnue_de_la_Seine_(roman) : c:File:Une_femme_dans_la_Seine.png par @Melihys
- sur Vida_Movahed : c:File:Drawing_of_Vida_Movahed.png par @ManuRoquette
- était sur Paradoxe_de_l'âne_de_Buridan et reste sur Commons : c:File:Ane_de_Buridan_(illustration_ChatGPT4_-_Dall-e3).jpg par @Madelgarius
À voir au niveau suivi :
- Catégories
renommage en « Signalement d'illustration par IA » : c'est plus simple et plus explicite pour une catégorie de maintenance;créer une sous-catégorie : « Illustration autorisée par IA » :chez les anglophones, c'est « AI images in non-AI contexts » et ne sont pas concernée par exemple celles utilisées pour l'article Midjourney qu'on a nous dans la catégorie, mais on peut les classer dans une catégorie d'illustrations autorisées avec en plus celles qui le seraient éventuellement après discussion, p.e. les anglophones ont autorisés des images diffusées dans les cadres de théorie de complot ou d'élections.
- A-t-on un admin Commons dans le secteur pour savoir où ça en est chez eux au niveau règles et procédures ?
P.S. : il y aura aussi le modèle dédié à revoir {{TIA}}, j'ai commencé à travailler dessus. Fabius Lector (discuter) 30 octobre 2024 à 19:28 (CET)
- Hello, merci pour la notif. Tout d'abord, je n'avais pas connaissance de ce projet, qui semble pertinent pour suivre les avancées de ce sujet sur WP, donc je vais suivre les discussions de plus près.
- Ensuite, pour préciser mon état d'esprit malgré tout (En toute transparence ma demande de suppression en bloc de mes réalisations à l'époque a résulté du manque de discussion/bienveillance de la part d'autres wikipédiens, ce n'est pas le reflet de mon avis global sur les images générées par IA.) : je ne suis pas contre des illustrations sur les créatures fantastiques de base. Pour rappel j'ai lancé cet appel à commentaire que je n'ai pas conclu car il s'est fait télescopé par le sondage dont tu parles (qui manquait à mon sens de contexte et faisait intervenir tout le monde sur des sujets différents). Par contre il faut qu'elles collent au max aux descriptions disponibles dans l'article et doivent être discutées au cas par cas. Ces discussions ont par ailleurs abouti à Wikipédia:Illustrations générées par une intelligence artificielle par @Madelgarius.
- NB: j'ai rajouté pas mal d'articles dans Catégorie:Page comportant une illustration générée par une IA, toutes dans le même domaine dont j'avais connaissance (mais ce ne sont peut être pas les seules). A mon sens toutes ne sont pas opportunes mais ce n'est pas à jeter en bloc, encore une fois. Triton (discuter) 30 octobre 2024 à 20:46 (CET)
- Bonjour à tous, oui, je rappelle seulement un principe de base, on ne supprime pas "en masse" parce qu'on est contre l'image générée par IA. Ceci doit/devrait faire l'objet d'une discussion au cas par cas en pdd, sereine, argumentée et non étayée par une position de principe. C'est en tout cas ma position et celle, je pense de la communauté, que j'ai essayé de transcrire dans cet essai. Même si, de manière générale, je pense surtout par rapport à la génération de contenu (outre de pondre du code vérifié par un humain qui en assume dès lors la responsabilité) que WP a tout à gagner en se préservant des productions de contenus par IA. C'est cela notre plus-value (made by humans), car demain, des pseudos WP-IA existeront partout. Un avis tout en nuance donc dont nos décisions doivent être empreintes. — adel 30 octobre 2024 à 22:29 (CET)
- Bonjour @Madelgarius, @Triton,
- Sur les catégories, question urgente : la proposition de simplification du nom de catégorie fait suite à la discussion #Création de catégories, y a-t-il une objection à ce changement ?
- Si c'est non, je fais le changement et il ne faudrait pas rajouter d'articles maintenant parce qu'il va falloir changer le nom de la catégorie dans chacun d'eux. Et sauf objection, je ferais aussi une sous-catégorie pour les articles où il n'y a pas débat (ceux traitant d'IA, les articles d'artistes du domaine etc.), l'idée étant d'avoir un outil simple pour savoir ce qui est réellement en question.
- Précisions sur la démarche : j'essaie de mettre en place un suivi comme chez les anglophones où sont indiquées les images traitées et la jurisprudence de conservation/suppression pour s'éviter de répéter les mêmes débats et avoir une politique à peu près homogène où l'un ne s'offusque pas que lui soit refusé ce qui est accordé à l'autre (et vice-versa).
- Pour le sondage : il était indiqué comme justificatif de la demande de suppression sur Commons donc je ne sais pas trop comment le considérer, d'où les questions revenant à :
- donne-t-on au sondage un poids particulier dans les débats, voire une valeur de consensus communautaire ?
- si oui, présente-t-on un périmètre d'application selon la jurisprudence observée d'où l'indication du cas des créatures fantastiques ?
- De la réponse, dépendra la manière dont il serait présenté notamment si on travaille une règlementation pour passer de l'essai à une recommandation. Fabius Lector (discuter) 31 octobre 2024 à 12:23 (CET)
- Hello, pour les catégories je ne vois pas trop de différence entre la catégorie actuelle et "Signalement d'illustration par IA" (petite préférence pour l'actuelle qui est plus neutre que "signalement"). Et pour la sous catégorie je garderais les termes anglais : "Illustration générée par une IA en contexte IA" plutôt que "autorisé" (par qui?)
- Et pour la suppression sur Commons, comme je disais, c'est plus un saut d'humeur de ma part (créateur des images) que de consensus ^^' Triton (discuter) 31 octobre 2024 à 12:57 (CET)
- PS: avoir une page du type en:Wikipedia:WikiProject AI Cleanup/AI images in non-AI contexts me semble utile pour visualiser les images gardées et supprimées en effet (et comme dit Madel, discutés au cas par cas). Triton (discuter) 31 octobre 2024 à 12:58 (CET)
- Bonjour à tous, pas d'avis particulier sur les changements de nom de catégorie tant qu'on ne renomme pas celle qui est liée au modèle:TIA. Et dispo pour faire évoluer l'essai vers une reco même si je suis un peu craintif de la voir évoluer vers une usine à gaz. Je pense qu'il faut en définir l'esprit plutôt que de vouloir en préciser la lettre dans le menu détail pour éviter de se retrouver devant un "machin" totalement indigeste. Bien à tous, — adel 31 octobre 2024 à 13:39 (CET)
- Peut-être faisais-je fausse route : les oppositions dans le sondage étaient assez intenses et avec la suppression des images de créatures, je pensais qu'on allait vers une règle/recommandation de contrôle général puisqu'on a des arguments de principe comme le fait que ce sont des WP:TI. C'est une tâche qui s'accordait avec l'objet du projet avec possibilité d'initier les discussions pour chaque insertion.
- Mais vu que c'est moins clair, autant laisser la catégorie comme répertoire « neutre », et peut-être en faire une pour qui veut lancer un débat sur une image avec un modèle dédié, p.e. « Illustration par IA débattue ». Ça permettrait d'enregistrer la jurisprudence comme font les anglophones. Fabius Lector (discuter) 31 octobre 2024 à 14:31 (CET)
- nop, la forte opposition résultait à mon sens de différentes logiques, dont plusieurs (il me semble) issue de l'apparition de photo réalisées sous IA de personnes réelles. Il y avait cependant l'argument des droits d'auteurs qu'il faudrait régler mais qui relève plus de Commons que de WP fr. Triton (discuter) 31 octobre 2024 à 17:04 (CET)
- Sans doute plusieurs motivations mais pas sûr que ça ait été si spécifiquement lié aux portraits de personnes réelles. Dans ce que j'avais noté, il y avait la question du droit d'auteur, celle du TI qui revenait une dizaine de fois, celle de l'intérêt encyclopédique ou l'esthétique générale. Dans le genre, l'image de Madel sur Paradoxe de l'âne de Buridan a été remplacé avec la justification « Image avec un historique plus intéressant » (cf. diff) et je suppose que c'est l'attente « classique », une illustration ayant une valeur documentaire plutôt que d'en créer une au gré de l'imagination de wikipédiens plus ou moins bien inspirés.
- Mais bon, ce sera sans doute à clarifier si apparaît la nécessité d'aller vers une règle ou une recommandation. Fabius Lector (discuter) 31 octobre 2024 à 19:09 (CET)
- oui, encore du boulot de réflexion mais qui doit à mon sens être plus fin que ce débat. La question des portraits était juste un exemple indiquant que tout le monde ne venait pas avec la même vision de l'usage qui en est fait. Triton (discuter) 31 octobre 2024 à 21:00 (CET)
- Oui, et dans tout cela, l'intention de la personne qui soumet l'image reste importante, ceci ne se règle pas à la hache, mais avec discernement, le même qui a servi/sert à constituer WP, — adel 31 octobre 2024 à 22:34 (CET)
- oui, encore du boulot de réflexion mais qui doit à mon sens être plus fin que ce débat. La question des portraits était juste un exemple indiquant que tout le monde ne venait pas avec la même vision de l'usage qui en est fait. Triton (discuter) 31 octobre 2024 à 21:00 (CET)
- nop, la forte opposition résultait à mon sens de différentes logiques, dont plusieurs (il me semble) issue de l'apparition de photo réalisées sous IA de personnes réelles. Il y avait cependant l'argument des droits d'auteurs qu'il faudrait régler mais qui relève plus de Commons que de WP fr. Triton (discuter) 31 octobre 2024 à 17:04 (CET)
- Bonjour à tous, pas d'avis particulier sur les changements de nom de catégorie tant qu'on ne renomme pas celle qui est liée au modèle:TIA. Et dispo pour faire évoluer l'essai vers une reco même si je suis un peu craintif de la voir évoluer vers une usine à gaz. Je pense qu'il faut en définir l'esprit plutôt que de vouloir en préciser la lettre dans le menu détail pour éviter de se retrouver devant un "machin" totalement indigeste. Bien à tous, — adel 31 octobre 2024 à 13:39 (CET)
- PS: avoir une page du type en:Wikipedia:WikiProject AI Cleanup/AI images in non-AI contexts me semble utile pour visualiser les images gardées et supprimées en effet (et comme dit Madel, discutés au cas par cas). Triton (discuter) 31 octobre 2024 à 12:58 (CET)
- Bonjour à tous, oui, je rappelle seulement un principe de base, on ne supprime pas "en masse" parce qu'on est contre l'image générée par IA. Ceci doit/devrait faire l'objet d'une discussion au cas par cas en pdd, sereine, argumentée et non étayée par une position de principe. C'est en tout cas ma position et celle, je pense de la communauté, que j'ai essayé de transcrire dans cet essai. Même si, de manière générale, je pense surtout par rapport à la génération de contenu (outre de pondre du code vérifié par un humain qui en assume dès lors la responsabilité) que WP a tout à gagner en se préservant des productions de contenus par IA. C'est cela notre plus-value (made by humans), car demain, des pseudos WP-IA existeront partout. Un avis tout en nuance donc dont nos décisions doivent être empreintes. — adel 30 octobre 2024 à 22:29 (CET)
Bonjour à tous,
« P.S. : il y aura aussi le modèle dédié à revoir {{TIA}}, j'ai commencé à travailler dessus. »
Qu’est-ce qu’il faut revoir ? Ce modèle concerne les images / photographies existantes (comme des photos historiques ou des peintures) retouchées avec une IA (augmentation de résolution par exemple, qui vient avec son lot de défauts comme l’introduction de détails qui n'existent pas sur l’image d’origine) et non les images entièrement générées par une IA.
Ce modèle ajoute également Catégorie:Page comportant une illustration modifiée par une IA qui permet de suivre les ajouts et retraits et qui est complètement différente de Catégorie:Page comportant une illustration générée par une IA. — Thibaut (discuter) 3 novembre 2024 à 10:04 (CET)
- Bonjour Thibaut,
- suite à la discussion, j'ai laissé tomber l'idée de modifier TIA et la catégorie liée.
- L'objectif est d'avoir un suivi des décisions sur des illustrations en débat, comme chez les anglophones et pour le moment, une catégorie dédiée devrait suffire.
- Question au passage : a-t-on une catégorie/modèle utilisable pour des débats sur des illustrations d'articles, genre {{Admissibilité à vérifier}} ou {{Pertinence section}} mais uniquement pour la question d'une illustration ?
- J'ai trouvé des choses pour les pages de fichiers (p.e. {{Suppression image}}), mais pas pour indiquer une discussion dédiée dans un article. Ça existe ? Il y a des pratiques habituelles là-dessus ? Fabius Lector (discuter) 3 novembre 2024 à 11:49 (CET)
- Bonjour, je viens poser mon avis sur les images IA : sauf quelques pages où c'est le sujet (Intelligence artificielle, Intelligence artificielle dans la fiction, Intelligence artificielle et droit d'auteur dans l'art, Intelligence artificielle générale, Intelligence artificielle générative, Portrait d'Edmond de Belamy, DALL-E, etc.), nous devrions les proscrire complètement. Apollinaire93 (discuter) 4 novembre 2024 à 12:52 (CET)
- Bonjour,
- procédure en test sur la base d'un traitement au cas par cas :
- pour voir ce qui est connu de manière générale : Catégorie:Page comportant une illustration générée par une IA
- lancement d'une discussion pour débattre d'une illustration. Ex. : Discussion:Begizko#Illustration_par_IA
- indiquer la Catégorie:Illustration_par_IA_débattue dans l'article.
- remplir une ligne du tableau des débats en cours de la page de suivi du projet.
- On peut déjà voir ce que ça donne et ça donnera des indications sur l'accepté/contesté au cas par cas avec le problème des positions de principe qui peuvent mener à ce que toute image soit mise en débat.
- P.S. : je n'ai pas fait le modèle correspondant {{Illustration par IA débattue}} faute de savoir si il y a quelque chose de proche déjà utilisable à mettre dans les articles ou jusqu'à quel point il faudrait avertir d'un débat (un bandeau pour cette question est-il nécessaire ?) Fabius Lector (discuter) 4 novembre 2024 à 17:10 (CET)
- Pour info, je vais cloner {{TIA}} pour les images générées, pas celles modifiées, avec catégorisation dans Catégorie:Page comportant une illustration générée par une IA.
- Le nom serait « Image générée par IA » plutôt qu'un sigle et « image » plutôt que « illustration » parce que si une illustration d'article se fait par une image, une image n'est pas en soi une illustration.
- Et sinon, ne faudrait-il pas une redirection Modèle:Image traitée par IA vers TIA pour avoir un nom plus explicite ? Fabius Lector (discuter) 7 novembre 2024 à 10:33 (CET)
- Bonjour, je viens poser mon avis sur les images IA : sauf quelques pages où c'est le sujet (Intelligence artificielle, Intelligence artificielle dans la fiction, Intelligence artificielle et droit d'auteur dans l'art, Intelligence artificielle générale, Intelligence artificielle générative, Portrait d'Edmond de Belamy, DALL-E, etc.), nous devrions les proscrire complètement. Apollinaire93 (discuter) 4 novembre 2024 à 12:52 (CET)
Sujet sur les images générées par IA sur le bistro du jour
Pour info : un sujet sur le bistro du jour a abordé la question de la génération d'image par IA, à partir de la situation de l'article Mythologie galicienne. Les avis en réponse sont plus intéressants que le cas précis. En effet, les illustrations en question, qui n'avaient pas d’intérêt encyclopédique, ont été supprimé le jour même (lien diff) a raison selon moi. Gisyd (discuter) 1 novembre 2024 à 21:15 (CET)
Annonce : essai à évaluer, Contrôle des textes générés par IA
J'ai rédigé un essai devant jouer le même rôle que Large language models pour WikiProject AI Cleanup : informer sur les risques d'infractions aux règles, indiquer des mesures à prendre (modèles, signalements etc.), faire des recommandations pour qui voudrait malgré tout utiliser ces technologies.
L'essai : Contrôle des textes générés par IA.
Sujet en PDD pour son évaluation : Présentation de l'essai
P.S. : j'ai mis de côté le projet de charte, ce n'est pas mûr, et il faudrait rapidement des outils de base, plus simples. Fabius Lector (discuter) 3 novembre 2024 à 14:41 (CET)
- Oui, cela part dans tous les sens, personnellement je n'arrive pas à suivre (une discussion archivée sur un point important, les résumés, je n'ai pas encore cherché pourquoi, des "procédures" longues à lire et qui ne s'imposeront à personnes — et on devrait pouvoir faire plus simple en description —, des pages qui se multiplient. Bref, désolée, mais je n'ai pas le rythme. La charte à l'inverse me paraissait assez avancée. --Pa2chant.bis (discuter) 3 novembre 2024 à 19:57 (CET)
- Essai de clarification : je vise une base opérationnelle à indiquer rapidement sur les bulletins de patrouille et d'admin qu'on ait des retours sur leur fonctionnalité :
- l'essai pour l'information sur les problèmes comme chez les anglophones à qui j'ai repris des éléments vu que leur projet est fonctionnel ;
- {{IA générative}} à modifier pour indiquer l'essai, que les lecteurs aient l'information ;
- idem avec un modèle d'avertissement à faire pour page utilisateur.
- Cas d'application : ce signalement où on aurait le nécessaire pour informer l'auteur sur le problème que nous pose son brouillon vu qu'il a demandé ce qui n'allait pas.
- La charte : à voir plus tard en lien avec l'essai, parce qu'en fait, ça partait sur des engagements sans avoir exposé la base et en y réfléchissant, je crois que j'ai trouvé l'essentiel à dire avec : « tout texte généré par une IA identifiable comme tel doit être supprimé ou réécrit ».
- Les détails techniques expliquent pourquoi, mais la base est que si on voit que ça vient d'une IA, c'est mauvais et même si on ne le voit pas, c'est à utiliser avec précaution, transparence et en assumant sa responsabilité. On verra bien qui suivra ces indications et si une charte d'engagement est utile.
- Au passage : je pensais que les volontés de règlementation seraient plus consensuelles et je n'ai pas envie de passer des mois sur des discussions sans conclusion, donc je m'oriente vers de la mise en place directe : on pose des outils, et aux patrouilleurs/admins de se les approprier (ou pas) vu qu'on n'a pas les 90 volontaires des anglophones. Fabius Lector (discuter) 4 novembre 2024 à 06:53 (CET)
- Essai de clarification : je vise une base opérationnelle à indiquer rapidement sur les bulletins de patrouille et d'admin qu'on ait des retours sur leur fonctionnalité :
Questions aux candidat(e)s C.A. WM-Fr
Nous avons une une candidate au CA de Wikimédia France qui parle de « Consolider les mécanismes de modération à l'ère de l'IA ». La candidature est un peu singulière mais c'est l'occasion de lui poser des questions et aux autres candidat-e-s sur la stratégie de WM-fr. Je mets ici mes questions, on peut les corriger et mettre les vôtres en complément, j'irais les poser le 6/11 au nom du projet ou en nom propre si je suis le seul à les soutenir (je m'y prends tard, début des votes le 8, ça laisse peu de temps pour répondre).
Question préalable @Mathis_B : l'identité réelle de la candidate a-t-elle été vérifiée, est-on sûr de ne pas être à nouveau dans un test de Turing ? Je peux développer sur les raisons de ma parano si nécessaire.
Questions à Morgane Dawant (cf. questions/réponses déjà existantes)
- Vous ne contribuez pas sur les Wiki mais entendez « Consolider les mécanismes de modération à l'ère de l'IA » et vous faudra-t-il une période d'apprentissage pour comprendre l'existant ? P.e. déjà, maîtrisez vous le jargon et avez-vous une vision d'ensemble de l'articulation de WMF, WM-fr, WP-fr etc. ?
- Vous avez des responsabilités dans un grand groupe sur le sujet des IA et :
- quelles seront vos disponibilités pour WM-fr ?
- serez-vous tenue à une confidentialité vous empêchant d'informer au mieux sur l'état de certaines technologies, pratiques etc. pouvant être d'intérêt pour l'association et les wiki ?
- Par curiosité : avez-vous utilisé une assistance d'IA pour rédiger votre candidature et/ou des réponses ?
Question à tous les candidats
- Seriez-vous favorable à la gestion d'un poste (stage étudiant, service civil etc.) pour la constitution d'un état des lieux sur les technologies et pratiques à l'œuvre pour gérer les IA génératives sur les plateformes ? Ex.de sujets : détecteurs automatiques disponibles, stratégie de développement de WMF, normes (règles/recommandations etc.) des communautés (WP-en, WP-fr etc.), ressources humaines associés, pratiques des projets existant, résultats etc., avec recherche documentaire et sans doute contact avec les divers acteurs.
Fabius Lector (discuter) 4 novembre 2024 à 16:10 (CET)
- Salut, je sais pas si c'est des questions spécifiques au projet OIA (trouve un meilleur acronyme :p !).
- Par rapport à Morgane Dawant, j'avais un peu les mêmes questions et plus encore parce que le rôle de WMFR dans les thématiques GenAI qui ont un impact sur les communautés n'est pas évident. Mais j'ai encore rien écrit donc c'est bien que tu le fasses. Une session de questions en visio est prévue.
- Sur la stagiaire, j'avais ça en tête aussi, mais il faut qqn pour l'encadrer, avec du temps (au début d'un stage, je compte 2-3 h par jour pour lancer la stagiaire), des compétences reconnues (pour l'établissement de formation) et une identité réelle. Il faut aussi une vision claire du sujet du stage qui s'inscrive dans le cursus de l'étudiante. Je ne vois pas la stagiaire faire des règles/reco (une partie du bistro s'opposerait à des recos de WMFR ou même de WMF). Par contre, faire un état de l'art des détecteurs de genAI, avec un benchmark que la communauté fournirait, c'est une bonne idée. Et ça demande pas de trop de compétences techniques côté encadrement. (:Julien:) ✒ 4 novembre 2024 à 17:02 (CET)
- Bonjour {{notif|Fabius Lector}} la commission électorale a vérifié que la personne est bien adhérente et que son adresse courriel correspond bien à son identité donnée au moment de l'adhésion. Cordialement, Mathis Benguigui (discuter) 4 novembre 2024 à 17:58 (CET)
- Bon, finalement j'ai posé mes questions à Morgane Dawant en nom propre vu ce sentiment d'étrangeté que j'ai vis-à-vis de la candidature, et j'essaierai d'être présent à une visio ce soir où les candidats devraient participer pour poser la question de la possibilité d'un poste pour un état des lieux sur l'IA. Ça serait quand même utile à tous les wikis francophones d'avoir un rapport de ce genre. Fabius Lector (discuter) 6 novembre 2024 à 15:06 (CET)
- Rapport post-visio :
- ma paranoïa se porte mieux, Morgane Dawant était présente et on a eu quelques explications sur comment elle s'était retrouvée à candidater ;
- le sujet des IA n'a pas été évoqué ou de manière assez légère par les autres candidats, Antoine Srun a évoqué des conversations où ça parlait de rédaction de RI ce qui n'est pas forcément rassurant vu les essais qu'on a vu passer, et j'imagine que des initiatives de WM-fr sur le sujet ne sont pas à l'ordre du jour. Il y aurait malgré tout eu une note d'une salariée de l'association (si j'ai bien compris), faudrait voir ce qui y est dit.
- Fabius Lector (discuter) 6 novembre 2024 à 20:44 (CET)
- Rapport post-visio :
- Bon, finalement j'ai posé mes questions à Morgane Dawant en nom propre vu ce sentiment d'étrangeté que j'ai vis-à-vis de la candidature, et j'essaierai d'être présent à une visio ce soir où les candidats devraient participer pour poser la question de la possibilité d'un poste pour un état des lieux sur l'IA. Ça serait quand même utile à tous les wikis francophones d'avoir un rapport de ce genre. Fabius Lector (discuter) 6 novembre 2024 à 15:06 (CET)
- Bonjour {{notif|Fabius Lector}} la commission électorale a vérifié que la personne est bien adhérente et que son adresse courriel correspond bien à son identité donnée au moment de l'adhésion. Cordialement, Mathis Benguigui (discuter) 4 novembre 2024 à 17:58 (CET)
Révision du modèle {{IA générative}}
Objectif : se rapprocher du WikiProject AI Cleanup. Ici, rapprochement de {{IA générative}} avec en:Template:AI-generated.
Révision proposée cf. exemples d'usages en brouillon :
- documentation proposée : cf. par ici. Présentation à peu près standard avec demande d'explication en page de discussion ;
- même icône que les anglophones ;
- texte d'avertissement changé et renvoi vers l'essai Contrôle des textes générés par IA devant correspondre à celui des anglophones ;
- rajout d'un paramètre « certain » pour les cas où il n'y a pas de doute => «Article contenant du texte » vs « Article pouvant contenir du texte »
- à voir : dans la version actuelle, le 1er paramètre permet de changer «Cet article peut contenir». Je ne sais pas quelle était l'idée initiale donc à voir selon les commentaires. Pour l'heure, mon brouillon ne change que «Article» pour d'éventuel usage en section mais normalement, il faudrait un autre modèle utilisant {{Modèle:Méta_bandeau_de_section}}.
Si il n'y a pas de commentaire, je ferais les modifications dans la semaine.
P.S. ping au créateur/modificateurs du modèle : @Kropotkine_113, @Racconish, @Pharma
- Fabius Lector (discuter) 5 novembre 2024 à 16:44 (CET)
- Bonjour. Autant l'essai me convient, autant pour le modèle j trouve celui des anglophones plus clair : " It may include hallucinated information or references. Please remove claims that are unverifiable or copyright violations. See the project page about this."--Pa2chant.bis (discuter) 5 novembre 2024 à 17:12 (CET)
- Ok pour moi de rajouter des indications (hallucinations etc.) mais je n'aime pas leur « Please remove claims etc. ». Je vais réfléchir à une formulation mais elle n'engagera pas vraiment à commencer des corrections comme si c'était la chose à faire par défaut.
P.S. souci technique (édit. de 17:40, solution) : je n'aurais pas dû mettre {{IA générative}} dans le titre, encodage-pourcent pour renvoyer sur le sujet sans faire afficher le modèle : [[Discussion_Projet:Observatoire_des_IA#Révision du modèle_%7B%7BIA_générative%7D%7D]]
Fabius Lector (discuter) 5 novembre 2024 à 17:32 (CET)- @Pa2chant.bis, j'ai modifié le texte, cf. les exemples d'utilisation. Ok pour toi comme ça ? Fabius Lector (discuter) 7 novembre 2024 à 09:27 (CET)
- @Fabius Lector : C'est nettement mieux. Par contre, plutôt que les conventions de style (purement visuelles) j'aurais mentionné le style encyclopédique. Nota : je vois trois fois exactement le même bandeau, je ne sais si c'est normal, et si oui, à quoi ça correspond. --Pa2chant.bis (discuter) 7 novembre 2024 à 09:41 (CET)
- Ok, j'ai modifié pour le style. Faut d'ailleurs que je modifie le passage sur l'essai, j'y ai aussi confondu les deux.
- Pour les 4 bandeaux, ce sont des variantes pour voir le résultat selon les paramètres utilisés : sans date, avec date, avec date + certain=oui, et l'option de remplacer "Article", ici par "Section" mais à voir, je vais peut-être supprimer l'option et faire un clone dédié aux sections. Fabius Lector (discuter) 7 novembre 2024 à 09:58 (CET)
- Oups, j'avais raté la faute d'accord grammatical : " du texte générés"--Pa2chant.bis (discuter) 7 novembre 2024 à 11:36 (CET)
- Bien vu, c'est corrigé. Fabius Lector (discuter) 7 novembre 2024 à 11:46 (CET)
- Oups, j'avais raté la faute d'accord grammatical : " du texte générés"--Pa2chant.bis (discuter) 7 novembre 2024 à 11:36 (CET)
- @Fabius Lector : C'est nettement mieux. Par contre, plutôt que les conventions de style (purement visuelles) j'aurais mentionné le style encyclopédique. Nota : je vois trois fois exactement le même bandeau, je ne sais si c'est normal, et si oui, à quoi ça correspond. --Pa2chant.bis (discuter) 7 novembre 2024 à 09:41 (CET)
- @Pa2chant.bis, j'ai modifié le texte, cf. les exemples d'utilisation. Ok pour toi comme ça ? Fabius Lector (discuter) 7 novembre 2024 à 09:27 (CET)
Idée pour les traductions assistées par l'IA.
J'étais en train de traduire un article avec ChatGPT, et je me suis dit "en fait il est très bien ce modèle :
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Test » (voir la liste des auteurs).
Pourquoi ne pas faire un {{TraductionAI/References}} qui ressemblerait à ça :
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Test » (voir la liste des auteurs), avec l'assistance partielle ou complète d'une intelligence artificielle.
Edit 08-11 : Et ajouter une catégorie invisible sur l'article afin de permettre à ceux qui veulent vérifier ces articles d'apposer les bandeaux nécessaires. D'ailleurs ça permettrait aussi d'avoir des bases solides pour voir si les traductions "automatiques" sont nocives ou non pour wikipédia dans son ensemble. Ça permettrait d'avoir des bases plus solides pour statuer sur les IA et voir si une généralisation de son usage est souhaitable, acceptable ou complètement contreproductive pour Wikipédia. --Global Donald (discuter) 7 novembre 2024 à 20:44 (CET)
- Je suis pour Spartan.arbinger (discuter) 7 novembre 2024 à 21:15 (CET)
- Et dans deux ans, 10% des articles sur WP seront affublés de ce modèle ? Nous aurons créé une nouvelle catégorie de contributeurs Gépétistes qui frelateront partout l'encyclopédie de leurs apports autant nombreux que suspects? non merci. L'IA c'est en back office et le mieux, c'est de s'en passer, mais si jamais, une note en page de discussion de l'article devrait suffire comme ici. Mon Carthago : la plus-value de WP, c'est Made by humans, ouvrir la porte largement à l'IA, c'est fragiliser WP peut-être même jusqu'à un point critique. — adel 8 novembre 2024 à 09:28 (CET)
- Totalement d'accord avec @Madelgarius. Apollinaire93 (discuter) 8 novembre 2024 à 12:11 (CET)
- Ça tombe bien, c'est une question que je comptais poser parce que je ne sais pas comment la traiter.
- On risque en fait d'être confronté au problème général des traducteurs vu que les LLM commencent à y être intégrés (cf. p.e. pour DeepL). Et problème général parce qu'on a déjà 8 216 pages dans Catégorie:Pages avec des traductions non relues remplie par l'outil de traduction quand un texte n'a pas été assez réécrit.
- Dans l'essai d'information sur les problèmes des IA, l'exigence de base est que le texte ne soit pas identifiable comme issu d'une IA et on pourrait avoir la même exigence avec les traducteurs, que les gens ne fassent pas des pseudo-traductions parce qu'il suffit de cliquer en comptant sur les autres pour nettoyer, mais je n'ai pas le recul historique pour savoir ce qui aurait déjà été discuté.
- P.e. le Projet:Traduction est-il actif là-dessus ? Fabius Lector (discuter) 8 novembre 2024 à 13:45 (CET)
- Totalement d'accord avec @Madelgarius. Apollinaire93 (discuter) 8 novembre 2024 à 12:11 (CET)
- Et dans deux ans, 10% des articles sur WP seront affublés de ce modèle ? Nous aurons créé une nouvelle catégorie de contributeurs Gépétistes qui frelateront partout l'encyclopédie de leurs apports autant nombreux que suspects? non merci. L'IA c'est en back office et le mieux, c'est de s'en passer, mais si jamais, une note en page de discussion de l'article devrait suffire comme ici. Mon Carthago : la plus-value de WP, c'est Made by humans, ouvrir la porte largement à l'IA, c'est fragiliser WP peut-être même jusqu'à un point critique. — adel 8 novembre 2024 à 09:28 (CET)