Résumé de section

  • Ce cours est adapté du webinaire "L'IA risque-t-elle de remettre en cause la science ouverte ?" (#OAW25) organisé par le réseau des bibliothèques universitaires de Toulouse-Albi dans le cadre de la semaine "Ouvrez-la ! Toul'AO pour une Science Ouverte" (31 mars - 4 avril 2025).

    Il s'appuie sur les interventions de trois experts de l'Université Toulouse-Capitole :

    • Michel Fraysse, Conservateur en chef des bibliothèques, responsable du Département des services à la recherche au SCD
    • Rim-Sarah Alouane, Docteure en droit public, rattachée à l'Institut du Droit de l'Espace des Territoires, de la Culture et de la Communication (IDETCOM), spécialiste des droits et libertés fondamentaux
    • Laïsa Ferreira, Docteure en droit privé, rattachée au Centre de Droit des Affaires, spécialiste du droit de la propriété intellectuelle et du numérique

    Objectifs généraux

    • Identifier les points de friction entre IA et science ouverte
    • Analyser les craintes légitimes des chercheurs face à l'IA
    • Reconnaître les biais et erreurs de l'IA (hallucinations, biais algorithmiques)
    • Comprendre les enjeux juridiques (droit d'auteur, RGPD, IA Act)
    • Évaluer les conséquences éthiques (inégalités, privatisation du savoir)
    • Contribuer à une science ouverte compatible avec l'IA
    Ce cours est en libre accès !

    Aucune création de compte ou d'inscription n'est nécessaire. Bonne lecture !

    • Auteur(s) / Formateur(s): Michel Fraysse - Université Toulouse 1 Capitole (DSR), Rim-Sarah Alouane - Université Toulouse Capitole (IDETCOM), Laïsa Ferreira - Université Toulouse Capitole (CDA)
      Production cours: Viêt Jeannaud - Fondation Callisto
      Public cible: Chercheurs, doctorants
      Date de publication: 2 septembre 2025
      Durée estimée: 1 heure
      Licence: CC BY-NC-SA
      Open badge: Non
      Recours à une IA: Transcription générée par Gladia et nettoyée par Claude Sonnet 4
      Catalogue: Non
      Thématique: Science Ouverte, Éthique et Intégrité scientifique, Aspects juridiques, Accessibilité numérique
      Durée: Format moyen (1h - 1h30)
      Type d'accès: Libre accès
      Partenaire: Urfist
      Langue: Français
  • L'usage de l'intelligence artificielle générative est aujourd'hui présent dans beaucoup de secteurs, y compris la recherche scientifique. Michel Fraysse pose la question centrale : "En quoi l'irruption des outils d'intelligence artificielle générative change-t-elle la donne par rapport à la science ouverte ?"

    20 minutes de lecture

    • 1. Science ouverte et IA : rappels

      La science ouverte en bref

      Laïsa Ferreira rappelle que la science ouverte est un objectif qui porte sur l'ouverture des données en faveur de l'évolution de la recherche et de l'innovation. C'est une approche philosophique, économique, politique, qui résulte d'une volonté internationale d'institutions comme l'UNESCO.

      Le rapport de l'UNESCO de 2021 sur la science ouverte évoque même un "droit à la science" portant sur les données au sens large : chiffres, lettres, textes, images, sons, toutes formes de production scientifique constituant une source pour la recherche.

      La science ouverte repose sur trois piliers essentiels :


      L'accessibilité

      Rendre les résultats de recherche librement accessibles pour dépasser les barrières économiques traditionnelles.


      La transparence

      Partager les méthodes, données et processus pour permettre la vérification et la reproductibilité.


      La collaboration

      Favoriser les échanges entre chercheurs institutions et disciplines.

      Comme l'explique Laïsa Ferreira, cet objectif de science ouverte est assez récent comme volonté et résulte logiquement de l'open data.

      Cette volonté de science ouverte est assez récente et résulte logiquement de l'open data. L'open data, c'est l'ouverture des données, officiellement définie comme une volonté politique par laquelle un organisme met à la disposition de tous des données numériques dans un objectif de transparence - c'est le mot-clé - ou afin de permettre leur réutilisation à des fins économiques.

      Cette philosophie se traduit par des outils nationaux et institutionnels, comme les archives ouvertes pour les articles (HAL en France) et les entrepôts de données pour les données de recherche. Ces pratiques se sont progressivement imposées dans le paysage académique français et international.

      Au fil du temps, beaucoup de chercheurs ont pris l'habitude de déposer leurs articles en libre accès, comme le montre le graphique ci-dessous du baromètre de la science ouverte.

    • L'IA : un outil désormais incontournable

      L'Article 3 de l'EU Artificial Intelligence Act (AI Act) définit l'IA comme un système automatisé conçu pour fonctionner à différents niveaux d'autonomie, qui déduit à partir des entrées reçues comment générer des sorties (prédictions, contenu, recommandations, décisions).


      Depuis l'arrivée de ChatGPT, les IA génératives se sont rapidement démocratisées et sont désormais utilisées dans de très nombreux domaines, notamment la recherche scientifique.

    • 2. Science ouverte et IA : une convergence apparente

      Rim-Sarah Alouane nous indique qu'IA et science ouverte semblent à priori converger vers un même objectif, celui de démocratiser la production et la diffusion des connaissances.

      L'IA au service de l'accessibilité du savoir

      L'IA révolutionne l'accès aux savoirs de plusieurs manières. Elle permet d'analyser des milliers de données en un temps record, rendant possible des synthèses qui prendraient des mois à réaliser manuellement. Plus encore, elle facilite la vulgarisation scientifique en adaptant automatiquement le niveau de complexité des contenus selon le public visé.

      Réduction du cloisonnement disciplinaire

      L'IA contribue également à réduire le cloisonnement entre disciplines scientifiques. En quelques minutes, un chercheur peut accéder à des données provenant de plusieurs champs disciplinaires, évitant ainsi de perdre un temps précieux dans la recherche d'informations dispersées. Cette capacité d'analyse transversale favorise l'émergence de recherches interdisciplinaires et peut révéler des connexions inattendues entre domaines apparemment éloignés.

      Vulgarisation scientifique pour tous

      L'IA facilite considérablement la vulgarisation du savoir scientifique. Elle permet aux profanes d'accéder à des données scientifiques complexes en les rendant intelligibles et accessibles. Cette capacité de traduction automatique entre jargon scientifique et langage courant démocratise véritablement l'accès aux connaissances, élargissant ainsi le public potentiel de la recherche scientifique.

      Une telle démocratisation du savoir est en phase avec les principes fondateurs de la science ouverte, qui visent, là encore, à rendre le savoir accessible à tous, indépendamment des barrières linguistiques et des prérequis académiques.

    • 3. L'IA dans la recherche aujourd'hui

      Une aide pour les chercheurs

      Selon Rim-Sarah Alouane, l'IA se révèle un outil d'assistance des chercheurs qui les aide dans certaines tâches fastidieuses mais essentielles :

      • Faire de la recherche bibliographique, faciliter la sélection de sources pertinentes, éviter que certaines études soient ignorées
      • Trouver plus facilement des ressources dispersées, difficiles d'accès, provenant de différents champs disciplinaires
      • Accéder à de grandes quantités de données, les analyser plus rapidement
      • Corriger, traduire, synthétiser des articles

      En réduisant cette charge de travail et en accélérant la production scientifique, l'IA libère du temps pour les aspects les plus créatifs, les plus novateurs de la recherche.

    • L'IA nourrie par la science ouverte

      Les données scientifiques en libre accès (articles HAL, datasets publics, etc.) deviennent une "matière première" de qualité pour entraîner les systèmes d'IA.

      1. Les chercheurs déposent leurs travaux en accès ouvert

      2. L'IA s'entraîne sur ces données scientifiques fiables

      3. L'IA devient plus performante pour classer, organiser et synthétiser l'information scientifique

      4. Cette IA améliorée peut ensuite mieux aider la communauté de recherche

      Au final, nous pouvons y voir une "boucle vertueuse" potentielle. Plus il y a de science ouverte de qualité, plus l'IA devient "intelligente" sur les sujets scientifiques, ce qui peut bénéficier à tous les chercheurs.

    • En résumé

      L'IA et la science ouverte poursuivent un objectif commun : démocratiser l'accès aux connaissances en dépassant les barrières linguistiques, disciplinaires et techniques. Cette convergence se traduit par une complémentarité réelle où l'IA aide les chercheurs dans leurs tâches fastidieuses (analyse, traduction, corrections) tandis que la science ouverte fournit à l'IA des données de qualité pour s'améliorer. Cette relation complémentaire permet aux chercheurs de consacrer plus de temps aux aspects créatifs de leur recherche tout en réduisant le cloisonnement entre disciplines. 

      Cependant, cette convergence apparente cache-t-elle des tensions plus profondes ?

  • Si l'IA peut effectivement servir la science ouverte, son utilisation dans le champ académique n'est pas sans risque. Comme le souligne Rim-Sarah Alouane : "Cette efficacité soulève également quelques inquiétudes quant aux dérives potentielles d'une automatisation excessive du processus scientifique, notamment en termes de rigueur méthodologique et d'intégrité intellectuelle."

    20 minutes de lecture

    • 1. Les craintes légitimes des chercheurs

      Michel Fraysse souligne que les inquiétudes ne sont pas propres à la recherche. Tous les jours apportent leur lot de preuves que les IA génératives suscitent des craintes, des doutes, beaucoup de pessimisme dans de nombreuses professions créatives : traducteurs, photographes, musiciens, concepteurs de jeux vidéo...

      L'exemple révélateur des studios Ghibli

      Un cas concret illustre ces tensions : l'affaire des studios d'animation Ghibli opposés à ChatGPT. Des images dans le style Ghibli ont massivement circulé sur les réseaux sociaux, créées par la nouvelle version de ChatGPT. On devine qu'il y a un problème de reproduction d'un matériel protégé sans autorisation.

    • Le retour de la peur du plagiat

      Si on en vient au chercheur, c'est une crainte tout à fait compréhensible de voir ses articles "pillés", absorbés par des IA. Cette crainte rappelle le retour de la peur du plagiat, tel qu'il a été exprimé lorsque les premiers outils d'archives ouvertes sont apparus. Cette peur du plagiat avait alors été un frein à la généralisation de l'archive ouverte.

      Des chercheurs très favorables à la science ouverte, qui l'ont intégrée dans leurs pratiques [...] ceux-là même nous disent : "Je suis en train d'hésiter parce qu'avec l'IA, ça change tout, je n'ai pas de garantie par rapport à des plateformes pouvant moissonner, récupérer ces articles."

      Face à ces inquiétudes, une réaction naturelle consiste à penser que déposer uniquement dans des bases de données payantes ou des "coffres-forts numériques" offrirait une meilleure protection...

    • L'illusion du "coffre-fort numérique"

      Penser pouvoir se protéger des IA en ne déposant plus ses travaux en accès ouvert est en réalité une illusion. Les IA ne puisent pas uniquement dans le web gratuit

      Chaque document copié-collé dans une IA générative contribue à enrichir sa base de connaissances. Or, de nombreux utilisateurs alimentent involontairement ces systèmes en y versant des contenus protégés, notamment des articles issus de bases de données payantes qu'ils soumettent pour traduction, résumé ou analyse.

    • 2. Les risques techniques : "régurgitation" et hallucinations

      Au-delà du plagiat, d'autres craintes peuvent être identifiées :

      Déformation des propos

      Michel Fraysse utilise une image parlante pour décrire le comportement des IA : celle d'un "ogre qui régurgite et mâche des travaux de recherche". Cette métaphore illustre bien le processus par lequel l'IA ingère massivement des contenus pour ensuite les restituer de manière déformée, multipliant les erreurs, les fausses citations et les bibliographies fantaisistes.

      Cette préoccupation dépasse la question du vol intellectuel pour toucher à l'intégrité scientifique et au droit moral de l'auteur. Quand un chercheur est "cité" par une IA qui déforme ses idées, cela peut porter atteinte à sa réputation et à la qualité du débat scientifique.

      Hallucinations

      Rim-Sarah Alouane ajoute que les hallucinations représentent l'un des risques les plus sérieux de l'IA générative. Il s'agit d'erreurs parfois graves où l'IA produit des informations complètement erronées, approximatives ou totalement inventées. Ces erreurs sont d'autant plus dangereuses qu'elles peuvent sembler crédibles et être utilisées sans vérification par des chercheurs pressés.

      Le problème s'aggrave par la facilité d'utilisation de ces outils : obtenir une réponse ne prend que quelques secondes, ce qui incite à un usage sans discernement. Cette rapidité peut conduire à introduire des biais dans la littérature scientifique et altérer la crédibilité de la recherche.

    • 3. Les biais algorithmiques et leurs conséquences

      Contrairement aux processus de réflexion humains, les algorithmes d'IA prennent des décisions basées sur des données et des critères de calcul prédéfinis. Cette caractéristique peut introduire plusieurs types de biais systémiques qui se répercutent ensuite sur la production scientifique.

      Les biais liés aux données d'entraînement

      Ils constituent la première source de distorsion. Si les données utilisées pour entraîner l'IA sont elles-mêmes biaisées ou incomplètes, l'algorithme reproduira et amplifiera ces défauts.

      Les biais des concepteurs

      Ils représentent une deuxième source de problème. Les personnes qui créent ces algorithmes peuvent involontairement y injecter leurs propres préjugés culturels ou sociaux, sans même en avoir conscience.

      Les biais d'échantillonnage

      Ils constituent le troisième écueil. Les jeux de données utilisés peuvent être trop homogènes ou ne pas représenter suffisamment la diversité des situations réelles.

    • Quelques exemples d'impacts concrets sur la recherche

      Rim-Sarah Alouane illustre ces risques de biais algorithmiques par trois exemples concrets tirés de la recherche.

      Exemple en recherche médicale

      Certaines études ont été menées en recherche médicale. Elles montrent que si les modèles d'IA sont entraînés sur des données historiques qui sous-représentent certaines populations (femmes, minorités ethniques, personnes handicapées), ils produiront des résultats biaisés. Ces biais peuvent avoir des conséquences dramatiques sur l'efficacité des traitements pour les populations négligées.

      Distorsions dans la diffusion scientifique

      Les biais affectent également la circulation des connaissances. Les IA utilisées pour trier et recommander des publications scientifiques peuvent privilégier certains articles ou auteurs en fonction de leurs biais intégrés. Cette sélection automatisée crée un "biais de visibilité" qui peut marginaliser des recherches importantes ou des perspectives alternatives.

      Reproduction des inégalités dans le recrutement

      Le monde académique n'échappe pas aux biais algorithmiques dans ses processus de recrutement. L'utilisation d'algorithmes pour sélectionner des chercheurs risque de perpétuer les inégalités existantes si les critères d'évaluation reflètent des préjugés sociaux ou culturels.

    • 4. Les risques éthiques : "boîtes noires", privatisation et paper mills

      Rim-Sarah Alouane identifie trois risques éthiques majeurs qui menacent les fondements de la science ouverte.

      Le problème des "boîtes noires"

      L'opacité constitue un problème fondamental de nombreux systèmes d'IA. Ces "boîtes noires" prennent des décisions selon des processus que même leurs créateurs peinent parfois à expliquer. Cette opacité soulève des questions cruciales de responsabilité, d'éthique et de transparence, valeurs pourtant centrales dans la science ouverte.

      La menace de privatisation du savoir

      L'un des risques les plus préoccupants concerne la privatisation progressive du savoir scientifique. Cette évolution va à l'encontre des principes fondamentaux de la science ouverte qui prône l'accessibilité universelle des connaissances.

      Une fracture numérique risque d'émerger entre les institutions disposant des moyens financiers pour accéder aux outils d'IA les plus performants et celles qui en seront exclues. Cette inégalité d'accès menace l'idéal d'une science équitable et ouverte à tous, créant potentiellement deux vitesses dans la recherche mondiale.

      L'émergence des "paper mills"

      Un nouveau fléau menace l'intégrité scientifique : les "usines à papier" (paper mills) où l'IA génère en masse des articles pseudo-scientifiques de qualité douteuse. Le plus inquiétant dans ce phénomène, c'est qu'il arrive que ces contenus soient produits à la demande de chercheurs eux-mêmes.

      Cette dérive traduit une problématique plus large où la quantité de publications prime sur leur qualité. Lorsque les systèmes d'évaluation académique privilégient le nombre d'articles publiés, l'IA peut devenir un outil de contournement qui sape les fondements de l'intégrité scientifique.

    • Cas pratique : New York Times VS OpenAI

      Michel Fraysse cite l'exemple révélateur de l'affaire opposant le New York Times à OpenAI.

    • En résumé

      Les craintes exprimées par les chercheurs face à l'IA sont légitimes et rappellent les réticences initiales vis-à-vis des archives ouvertes. Les risques techniques sont bien réels, depuis les hallucinations jusqu'aux biais algorithmiques qui peuvent déformer la production scientifique.

      Se replier sur les archives fermées ne constitue pas une solution efficace puisque les IA accèdent également aux contenus protégés par d'autres voies. Les enjeux éthiques sont considérables, notamment le risque de privatisation du savoir et l'émergence de "paper mills" qui menacent l'intégrité scientifique.

      La difficulté à établir des preuves de contrefaçon et la complexité de la traçabilité rendent les recours juridiques incertains. Face à ces défis, l'intégrité scientifique est en jeu, avec un risque de dérive vers la quantité au détriment de la qualité.

  • Face aux tensions identifiées entre IA et science ouverte, il est essentiel de comprendre le cadre juridique qui encadre ces pratiques et les enjeux éthiques qu'elles soulèvent. Ce chapitre explore les règles existantes, les droits des chercheurs et les questions de responsabilité qui émergent dans ce nouveau paysage numérique.

    10 minutes de lecture

    • 1. Le cadre juridique protecteur existant

      La Loi pour une République numérique : un socle rassurant

      Michel Fraysse rappelle qu'avant même de s'inquiéter des IA, les chercheurs français disposent d'un cadre juridique solide pour leurs dépôts en archives ouvertes. La loi du 7 octobre 2016 "pour une République numérique" a créé l'article L. 533-4 du Code de la recherche, qui établit un "droit de seconde publication" inaliénable pour les chercheurs.


      Concrètement, même après avoir accordé des droits exclusifs à un éditeur, l'auteur conserve le droit de mettre gratuitement à disposition la version finale de son manuscrit acceptée pour publication. Ce droit s'applique aux recherches financées au moins pour moitié par des fonds publics, avec des délais de 6 mois pour les sciences exactes et 12 mois pour les sciences humaines et sociales.

      L'aspect le plus rassurant de cette loi réside dans son caractère d'ordre public : toute clause contractuelle qui tenterait de s'y opposer est automatiquement réputée non écrite. Les éditeurs ne peuvent donc pas empêcher légalement un chercheur français de déposer son travail en archive ouverte.

    • Le RGPD : protection des données personnelles

      Laïsa Ferreira précise que le Règlement Général sur la Protection des Données, entré en vigueur en 2018, encadre spécifiquement le traitement des données personnelles, y compris celles utilisées par les systèmes d'IA. Ce règlement introduit des principes fondamentaux comme la transparence, le consentement éclairé et le droit à l'oubli.

      Pour les chercheurs, le RGPD impose des obligations importantes lorsqu'ils manipulent des données personnelles, que ce soit dans leurs propres recherches ou lorsqu'ils utilisent des outils d'IA. Toute collecte de données se rapportant à une personne identifiée ou identifiable doit respecter ce cadre légal, incluant les obligations post-traitement pour maintenir la conformité.

    • L'IA Act : un cadre européen pionnier

      Michel Fraysse et Laïsa Ferreira soulignent que le règlement européen sur l'intelligence artificielle du 13 juin 2024 constitue une protection unique au monde. Ce texte adopte une approche par les risques :

      • Risque minime (peu régulés)
      • Haut risque
      • Usage général à risque systémique
      • Risque inacceptable (interdits)

      L'application de ce règlement se fait de manière échelonnée : les pratiques interdites (manipulation, reconnaissance biométrique abusive) sont entrées en vigueur en février 2025, les codes de bonnes pratiques en mai 2025, et les obligations des fournisseurs en août 2025.

      Bien que l'IA Act ne traite pas extensivement du droit d'auteur (seulement deux articles), il établit des principes de transparence, de partage d'informations et de conformité au droit d'auteur qui peuvent rassurer les chercheurs. Le règlement s'applique à toute activité d'IA en Europe, même pour des plateformes basées à l'étranger.

    • 2. Droits d'opposition et fouille de textes

      L'évolution de la fouille de textes et de données

      La fouille de texte et de données (text and data mining) est une technique informatique qui permet d'analyser automatiquement de grandes quantités de documents numériques pour en extraire des informations utiles.

      Laïsa Ferreira retrace cette évolution : la France a été pionnière en consacrant dès 2016 le droit à la fouille de textes et de données à des fins de recherche. Cette exception au droit d'auteur permet aux chercheurs d'utiliser ces techniques sur des œuvres protégées, à condition que l'accès soit licite.

      L'Union européenne a ensuite élargi cette exception en 2019 avec une directive qui prévoit deux niveaux d'autorisation :

      • d'une part, l'exploration de textes et de données reste libre dans le cadre de la recherche scientifique lorsque les œuvres ont été légalement consultées (ce qui équivaut à la Loi pour une République numérique de 2016) ;
      • d'autre part, une exception plus large autorise cette fouille pour toute finalité, sauf si l'auteur a manifesté explicitement son opposition (ce qu'on appelle "opt-out").
      Le mécanisme d'opt-out : un droit d'opposition limité

      Michel Fraysse souligne les limites pratiques de l'opt-out : cette opposition permet théoriquement aux auteurs de s'opposer à l'utilisation de leurs œuvres pour l'entraînement d'IA. Cependant, cette mesure de protection, bien que réelle et importante, sera certainement très difficile à mettre en œuvre et à contrôler dans les faits. Comment un auteur peut-il s'assurer que son opposition est respectée par tous les systèmes d'IA existants ? Comment peut-il même identifier quels systèmes utilisent ses travaux ?

    • Limites pratiques des recours juridiques

      Michel Fraysse souligne que la complexité des preuves constitue l'un des obstacles majeurs aux recours juridiques. Comment démontrer qu'une IA a utilisé spécifiquement vos travaux ? La traçabilité reste extrêmement difficile, et établir un lien de causalité direct entre un dépôt et une reproduction par l'IA relève souvent du défi technique.

      L'affaire New York Times VS OpenAI illustre ces difficultés : même avec des preuves apparemment évidentes (copier-coller manifeste), la défense peut contester la méthodologie utilisée pour obtenir ces reproductions, créant un doute sur la validité des preuves.

    • En résumé

      Les chercheurs français disposent d'un cadre juridique protecteur avec la loi de 2016 qui garantit le droit de seconde publication. Le RGPD et l'IA Act européen renforcent cette protection, bien que leur application pratique reste perfectible. Les droits d'opposition (opt-out) existent mais demeurent difficiles à mettre en œuvre concrètement.

      Plutôt que de se replier sur les archives fermées, la stratégie recommandée consiste à privilégier la "dépollution numérique" en alimentant les IA avec de la science de qualité. La validation humaine reste indispensable et les chercheurs doivent utiliser l'IA comme un outil d'assistance, non comme une source d'information.

      L'avenir semble pointer vers une complémentarité possible entre IA et science ouverte, à condition de développer une approche éthique et responsable. Cette cohabitation harmonieuse nécessite l'implication active de toute la communauté scientifique pour faire de l'IA un levier de progrès au service du savoir.

  • Après avoir identifié les tensions et analysé le cadre juridique, comment agir concrètement ? Ce dernier module présente les stratégies recommandées par nos experts, les exemples inspirants et les perspectives d'avenir pour une cohabitation harmonieuse entre IA et science ouverte.

    10 minutes de lecture

    • 3. Recommandations pratiques pour les chercheurs

      Privilégier la "dépollution numérique"

      La position de Michel Fraysse est la suivante : il faut être réaliste face aux défis posés par l'IA, mais il ne faut pas pour autant abandonner les pratiques de science ouverte. Les archives fermées ne sont pas une protection efficace puisque les IA accèdent également aux contenus protégés par d'autres voies.

      Toute requête dans une IA entraîne une saisie et un partage de données. Les utilisateurs lisent rarement les conditions d'utilisation (souvent en anglais) qui se défaussent en les invitant à ne pas entrer de données protégées - ce que tout le monde fait pourtant dès qu'on demande à une IA de traduire un article.

      Michel Fraysse propose donc une approche offensive plutôt que défensive : soutenir ce qu'il appelle la "dépollution numérique". Cette stratégie consiste à inonder le web d'informations scientifiques de qualité, puisque les IA sont en train d'inonder le web de fausses informations.

      Cette approche suggère qu'il faut précisément donner aux IA des informations fiables et les entraîner avec de bonnes données. Plus nous alimentons les systèmes d'IA avec de la science de qualité, plus nous contribuons à améliorer la fiabilité de leurs sorties.

    • Validation humaine indispensable

      Rim-Sarah Alouane insiste sur un principe fondamental : la validation humaine doit rester au cœur du processus scientifique. L'automatisation excessive du processus scientifique pose des risques en termes de rigueur méthodologique et d'intégrité intellectuelle.

      Les chercheurs doivent utiliser l'IA avec discernement, en gardant toujours à l'esprit qu'il s'agit d'outils d'aide à la rédaction et d'assistants, non de moteurs de recherche ou de sources d'information fiables. Cette distinction fondamentale peut éviter de nombreux écueils.

    • Développer une approche éthique

      Face aux défis identifiés, Rim-Sarah Alouane recommande une régulation éthique avant même juridique. Cette approche implique de promouvoir des modèles transparents et ouverts qui garantissent la traçabilité des sources et l'équité d'accès aux outils.

      L'établissement d'outils de certification pourrait constituer une voie prometteuse. Un système de labels pourrait mettre en valeur les articles ayant fait l'objet d'un processus précis et vérifié, créant ainsi une hiérarchie de qualité dans la production scientifique automatisée.

      En attendant l'émergence possible d'une certification des IA "éthiques", les chercheurs peuvent déjà faire des choix éclairés : privilégier les systèmes d'IA qui respectent le cadre juridique existant et qui adoptent des pratiques transparentes concernant leurs données d'entraînement.

    • 4. Vision prospective : vers une cohabitation harmonieuse ?

      Complémentarité plutôt qu'opposition

      L'analyse de Laïsa Ferreira suggère que dans l'axe de cette volonté d'ouverture des données, l'intelligence artificielle et la science ouverte peuvent plutôt être complémentaires. Cette vision optimiste repose sur une analyse des liens entre les deux domaines.

      Les institutions souhaitent encourager cette complémentarité. Le Plan national de la science ouverte mentionne explicitement les outils numériques comme moyens favorables à la science ouverte, et non comme des risques. De même, l'IA Act européen n'est pas réfractaire aux outils de science ouverte et reconnaît même que les systèmes d'IA déployés sous licence libre peuvent contribuer à la recherche et à l'innovation.

      Émergence possible d'accords sectoriels

      L'exemple des accords signés par certains éditeurs avec OpenAI (Springer, Le Monde) suggère l'émergence de nouveaux modèles économiques. Ces accords contractuels permettent une rémunération en échange de l'utilisation de contenus, tout en visant à contribuer à une information plus fiable.

      Cette approche pourrait se généraliser et créer un écosystème où les producteurs de contenu scientifique sont justement rémunérés, tout en permettant aux IA de s'entraîner sur des données de qualité. Cette évolution pourrait concilier les intérêts économiques et les exigences de qualité scientifique.

      Responsabilité collective

      La conclusion de Rim-Sarah Alouane, citant Ben Parker (l'oncle de Spider-Man), résonne particulièrement : "avec un grand pouvoir vient une grande responsabilité". Cette responsabilité incombe à tous les niveaux - bibliothèques, chercheurs, concepteurs d'IA, institutions.

      Une approche équilibrée associant innovation technologique, régulation éthique et implication active de la communauté scientifique permettra de faire de l'IA un véritable levier de progrès au service du savoir, de la société et de la démocratie.

    • En résumé

      Les chercheurs français disposent d'un cadre juridique protecteur avec la loi de 2016 qui garantit le droit de seconde publication. Le RGPD et l'IA Act européen renforcent cette protection, bien que leur application pratique reste perfectible. Les droits d'opposition (opt-out) existent mais demeurent difficiles à mettre en œuvre concrètement.

      Plutôt que de se replier sur les archives fermées, la stratégie recommandée consiste à privilégier la "dépollution numérique" en alimentant les IA avec de la science de qualité. La validation humaine reste indispensable et les chercheurs doivent utiliser l'IA comme un outil d'assistance, non comme une source d'information.

      L'avenir semble pointer vers une complémentarité possible entre IA et science ouverte, à condition de développer une approche éthique et responsable. Cette cohabitation harmonieuse nécessite l'implication active de toute la communauté scientifique pour faire de l'IA un levier de progrès au service du savoir.