Résumé de section

  • Après avoir identifié les tensions et analysé le cadre juridique, comment agir concrètement ? Ce dernier module présente les stratégies recommandées par nos experts, les exemples inspirants et les perspectives d'avenir pour une cohabitation harmonieuse entre IA et science ouverte.

    10 minutes de lecture

    • 3. Recommandations pratiques pour les chercheurs

      Privilégier la "dépollution numérique"

      La position de Michel Fraysse est la suivante : il faut être réaliste face aux défis posés par l'IA, mais il ne faut pas pour autant abandonner les pratiques de science ouverte. Les archives fermées ne sont pas une protection efficace puisque les IA accèdent également aux contenus protégés par d'autres voies.

      Toute requête dans une IA entraîne une saisie et un partage de données. Les utilisateurs lisent rarement les conditions d'utilisation (souvent en anglais) qui se défaussent en les invitant à ne pas entrer de données protégées - ce que tout le monde fait pourtant dès qu'on demande à une IA de traduire un article.

      Michel Fraysse propose donc une approche offensive plutôt que défensive : soutenir ce qu'il appelle la "dépollution numérique". Cette stratégie consiste à inonder le web d'informations scientifiques de qualité, puisque les IA sont en train d'inonder le web de fausses informations.

      Cette approche suggère qu'il faut précisément donner aux IA des informations fiables et les entraîner avec de bonnes données. Plus nous alimentons les systèmes d'IA avec de la science de qualité, plus nous contribuons à améliorer la fiabilité de leurs sorties.

    • Validation humaine indispensable

      Rim-Sarah Alouane insiste sur un principe fondamental : la validation humaine doit rester au cœur du processus scientifique. L'automatisation excessive du processus scientifique pose des risques en termes de rigueur méthodologique et d'intégrité intellectuelle.

      Les chercheurs doivent utiliser l'IA avec discernement, en gardant toujours à l'esprit qu'il s'agit d'outils d'aide à la rédaction et d'assistants, non de moteurs de recherche ou de sources d'information fiables. Cette distinction fondamentale peut éviter de nombreux écueils.

    • Développer une approche éthique

      Face aux défis identifiés, Rim-Sarah Alouane recommande une régulation éthique avant même juridique. Cette approche implique de promouvoir des modèles transparents et ouverts qui garantissent la traçabilité des sources et l'équité d'accès aux outils.

      L'établissement d'outils de certification pourrait constituer une voie prometteuse. Un système de labels pourrait mettre en valeur les articles ayant fait l'objet d'un processus précis et vérifié, créant ainsi une hiérarchie de qualité dans la production scientifique automatisée.

      En attendant l'émergence possible d'une certification des IA "éthiques", les chercheurs peuvent déjà faire des choix éclairés : privilégier les systèmes d'IA qui respectent le cadre juridique existant et qui adoptent des pratiques transparentes concernant leurs données d'entraînement.

    • 4. Vision prospective : vers une cohabitation harmonieuse ?

      Complémentarité plutôt qu'opposition

      L'analyse de Laïsa Ferreira suggère que dans l'axe de cette volonté d'ouverture des données, l'intelligence artificielle et la science ouverte peuvent plutôt être complémentaires. Cette vision optimiste repose sur une analyse des liens entre les deux domaines.

      Les institutions souhaitent encourager cette complémentarité. Le Plan national de la science ouverte mentionne explicitement les outils numériques comme moyens favorables à la science ouverte, et non comme des risques. De même, l'IA Act européen n'est pas réfractaire aux outils de science ouverte et reconnaît même que les systèmes d'IA déployés sous licence libre peuvent contribuer à la recherche et à l'innovation.

      Émergence possible d'accords sectoriels

      L'exemple des accords signés par certains éditeurs avec OpenAI (Springer, Le Monde) suggère l'émergence de nouveaux modèles économiques. Ces accords contractuels permettent une rémunération en échange de l'utilisation de contenus, tout en visant à contribuer à une information plus fiable.

      Cette approche pourrait se généraliser et créer un écosystème où les producteurs de contenu scientifique sont justement rémunérés, tout en permettant aux IA de s'entraîner sur des données de qualité. Cette évolution pourrait concilier les intérêts économiques et les exigences de qualité scientifique.

      Responsabilité collective

      La conclusion de Rim-Sarah Alouane, citant Ben Parker (l'oncle de Spider-Man), résonne particulièrement : "avec un grand pouvoir vient une grande responsabilité". Cette responsabilité incombe à tous les niveaux - bibliothèques, chercheurs, concepteurs d'IA, institutions.

      Une approche équilibrée associant innovation technologique, régulation éthique et implication active de la communauté scientifique permettra de faire de l'IA un véritable levier de progrès au service du savoir, de la société et de la démocratie.

    • En résumé

      Les chercheurs français disposent d'un cadre juridique protecteur avec la loi de 2016 qui garantit le droit de seconde publication. Le RGPD et l'IA Act européen renforcent cette protection, bien que leur application pratique reste perfectible. Les droits d'opposition (opt-out) existent mais demeurent difficiles à mettre en œuvre concrètement.

      Plutôt que de se replier sur les archives fermées, la stratégie recommandée consiste à privilégier la "dépollution numérique" en alimentant les IA avec de la science de qualité. La validation humaine reste indispensable et les chercheurs doivent utiliser l'IA comme un outil d'assistance, non comme une source d'information.

      L'avenir semble pointer vers une complémentarité possible entre IA et science ouverte, à condition de développer une approche éthique et responsable. Cette cohabitation harmonieuse nécessite l'implication active de toute la communauté scientifique pour faire de l'IA un levier de progrès au service du savoir.