^

Les IA peuvent-elles conduire à la perte de l’humanité ?

Les dangers de l’auto-alimentation des IA : une menace pour la connaissance humaine

L’intelligence artificielle (IA) générative* est à la fois une avancée prodigieuse et une source de préoccupations croissantes. Alors que ces systèmes deviennent capables de générer du contenu de manière autonome, il est crucial d’évaluer les risques potentiels associés à une auto-alimentation où les IA se basent principalement sur des contenus qu’elles ont elles-mêmes créés. Cette évolution pourrait conduire à un effondrement de la connaissance et à la disparition de certains domaines, impactant profondément notre société et notre compréhension du monde.

En d’autres termes, que se passe-t-il lorsque l’IA commence à se nourrir de ses propres productions, s’affranchissant des sources humaines ? Si la majorité des contenus proviennent d’IA, comment garantir la véracité, la diversité et l’objectivité de l’information ? Cette tendance, bien que prometteuse d’un point de vue technologique, recèle en réalité de nombreux dangers.

L’Auto-enrichissement de l’IA et ses conséquences

L’auto-enrichissement de l’IA, où les systèmes génératifs se nourrissent principalement de leurs propres productions, peut entraîner une amplification des biais, des lacunes, des erreurs voire des disparitions de données initiales.

Les risques de biais amplifiés : un exemple dans le domaine de la justice

Un exemple concret des risques de biais amplifiés dans le domaine de la justice. Si une IA générative s’auto-alimente en utilisant principalement des décisions judiciaires passées, elle pourrait renforcer les préjugés systémiques présents dans ces données. Par exemple, une IA formée sur des cas de profilage racial pourrait perpétuer ces pratiques discriminatoires en recommandant des décisions similaires à l’avenir, contribuant ainsi à une spirale de discrimination et d’injustice.

La perte de pertinence humaine dans la production de contenu

Une conséquence majeure de l’auto-alimentation de l’IA est la perte progressive de pertinence humaine dans la production de contenu. Si les IA deviennent les principales sources de connaissances et d’informations, les contributions, les perspectives et les nuances apportées par les humains pourraient être reléguées au second plan, voire complètement disparaître à terme. Cela pourrait conduire à une homogénéisation du contenu, avec des implications potentiellement néfastes pour la diversité des idées, des opinions et devenir un outil de propagande et de manipulation.

Le déclin de la créativité humaine : un avenir incertain pour les arts et les sciences

L’auto-alimentation de l’IA pourrait également entraîner un déclin de la créativité humaine, avec des répercussions importantes dans les domaines des arts et des sciences. Si des machines deviennent les principales sources d’inspiration et de création, les individus pourraient progressivement perdre leur capacité à innover et à créer de manière authentique.

Par exemple, dans le domaine de la littérature, si les œuvres générées par des IA deviennent prédominantes, nous pourrions assister à un appauvrissement de la richesse narrative et de l’émotion humaine dans les récits.

Négligence des domaines de recherche non rentables :

Dans un écosystème dominé par des IA génératives auto-alimentées, les domaines de recherche moins populaires ou moins rentables pourraient être négligés au profit de sujets plus attrayants pour les algorithmes. Par exemple, des branches de la recherche fondamentale qui ne génèrent pas immédiatement de résultats applicables pourraient être abandonnées, compromettant ainsi notre compréhension des phénomènes naturels fondamentaux.

Perte de contexte et de nuance dans les publications scientifiques :

Si les IA deviennent les principales productrices de contenu scientifique, il pourrait y avoir une perte de contexte et de nuance dans les publications. Les articles scientifiques générés par des IA pourraient manquer de l’expérience pratique et de l’intuition que les chercheurs humains apportent à leurs travaux, ce qui pourrait conduire à des conclusions simplistes ou erronées. En science on sait bien que ce n’est pas le nombre qui fait la vérité (ex. Galilée). Et surtout la science évolue en permanence, les « vérités de la science d’aujourd’hui » pourront être fausses demain !

Déclin de la collaboration et de l’échange d’idées :

La recherche scientifique repose souvent sur la collaboration entre des experts de différents domaines, ce qui favorise l’échange d’idées et la fertilisation croisée des connaissances. Si les IA deviennent les principales productrices de contenu scientifique, il pourrait y avoir un déclin de la collaboration interdisciplinaire, ce qui pourrait entraver l’innovation et la découverte.

La disparition de thèses ou de recherches alternatives par rapport à l’état de la science dominant et généré par les connaissances à un instant T.

Perspectives d’effondrement de la connaissance et de disparition de domaines

À long terme, l’auto-alimentation de l’IA pourrait donc conduire à un effondrement de la connaissance dans certains domaines, voire à la disparition de certains champs d’étude. Si les machines deviennent les principales productrices et consommatrices de contenu, les disciplines qui ne trouvent pas d’écho dans cet écosystème automatisé pourraient être reléguées aux oubliettes. Par exemple, des sujets moins populaires ou moins rentables pourraient être négligés, compromettant ainsi la diversité et la richesse de notre compréhension du monde.

Les 5 plus grands risques de l’IA

1. Amplification des biais et de la désinformation

L’IA, en apprenant des données existantes, risque de perpétuer et d’amplifier les biais présents dans celles-ci. Si les sources sont majoritairement biaisées, l’IA les intériorisera et les diffusera à grande échelle, créant une réalité virtuelle faussée et accentuant les divisions sociétales. La désinformation, déjà problématique aujourd’hui, pourrait devenir incontrôlable, avec des conséquences néfastes sur la démocratie et la prise de décision.

2. Perte de contrôle et d’expertise humaine

L’autoréférencement de l’IA pourrait mener à une perte de contrôle de la part des humains. En effet, si l’IA est capable de générer ses propres contenus et de les diffuser sans intervention humaine, il devient difficile de la réguler et de s’assurer qu’elle répond aux besoins et aux valeurs de la société.

L’expertise humaine, garante de la qualité et de l’éthique de l’information, risque de se marginaliser.

3. Création de « bulles informationnelles » et d’écosystèmes clos

L’IA, en s’adaptant aux préférences individuelles, pourrait enfermer les utilisateurs dans des « bulles informationnelles » où ils ne sont exposés qu’à des opinions et des informations conformes à leurs convictions. Cette fragmentation de l’information limite la confrontation d’idées divergentes et favorise l’émergence de radicalisations et de visions du monde étroites.

4. Affaiblissement de la pensée critique et de l’esprit de discernement

Face à une avalanche de contenus générés par l’IA, les utilisateurs risquent de devenir passifs et de ne plus développer leur esprit critique.

La capacité à analyser l’information, à identifier les sources fiables et à discerner le vrai du faux pourrait s’atrophier, laissant les individus à la merci de manipulations et de propagandes.

5. Menaces sur l’emploi et l’économie

L’essor de l’IA va engendrer des pertes d’emplois dans des secteurs où la création de contenu est prépondérante, comme le journalisme, la communication ou l’édition. De plus, l’économie de l’information pourrait se fragiliser si la confiance dans les sources et la véracité des contenus s’érode.

En 2022 une projection du célèbre journal Forbes prévoyait une perte de 85 millions d’emplois dans le monde d’ici 2025 (donc demain). Et les dernières prévision suite au dernier forum de DAVOS sont encore plus alarmantes près de 40% des emplois mondiaux pourraient disparaître (estimation de Goldman Sachs).

Les licenciements à cause des IA ont commencés depuis 2020

2020 Microsoft MSN licencie des journalistes remplacés par des robots

2023 Microsoft licencie les ingénieurs chargés de l’éthique de l’IA

2023 Le groupe de média AXEL SPINGER remplace des journalistes par l’IA

2023 IBM pourrait remplacer pas moins de 78000 employés par l’IA

2024 Google licencie des centaines d’employés des services Ads et ventes

2024 CISCO va licencier des centaines d’employés dans le monde

2024 LOS ANGELES TIMES licencie plus de 100 journalistes

Liste non exhaustive bien entendu ☹

 Conclusion : l’importance d’un équilibre entre l’IA et l’humain

En conclusion, si les avancées de l’IA générative offrent des opportunités excitantes et indéniables dans certains domaines, il est impératif de reconnaître et de gérer les risques associés à l’auto-alimentation des IA. Pour éviter un effondrement de la connaissance et la disparition de certains domaines, il est crucial de promouvoir un équilibre entre l’intervention humaine et l’automatisation. En guidant le développement de l’IA de manière éthique et responsable, nous pouvons garantir qu’elle reste au service de l’humanité, enrichissant notre compréhension du monde sans compromettre notre diversité, notre créativité et notre pertinence.

Une idée pourrait être de « tager » ou « certifier » un contenu généré par une IA afin que tout à chacun y compris une IA puisse faire la distinction avant de se servir du contenu comme référence sûre et fiable.

Définitions

* L’IA générative, ou intelligence artificielle générative, est une branche de l’IA qui se concentre sur la création de nouveaux contenus, comme du texte, des images, de la musique, de la vidéo ou encore du code informatique. En résumé, l’IA générative permet aux machines de produire de nouveaux contenus originaux, imitant le style et la structure des contenus créés par des humains.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.