L’IA a été saluée comme révo­lu­tion­naire et chan­geant le monde, mais elle n’est pas sans inconvénients.

À mesure que l’IA devient plus sophis­ti­quée et répan­due, les voix qui mettent en garde contre les dangers poten­tiels de  l’intelligence arti­fi­cielle se font de plus en plus fortes.

« Ces choses pour­raient deve­nir plus intel­li­gentes que nous et déci­der de prendre le dessus, et nous devons nous préoc­cu­per dès main­te­nant de la manière d’empêcher que cela se produise »,  a déclaré Geoffrey Hinton, surnommé le « Parrain de l’IA » pour ses travaux fonda­men­taux sur  l’ap­pren­tis­sage auto­ma­tique et  les algo­rithmes de réseaux neuro­naux. En 2023, Hinton a quitté son poste chez Google pour pouvoir « parler des dangers de l’IA », notant qu’une partie de lui  regrette même l’œuvre de sa vie.

Le célèbre infor­ma­ti­cien n’est pas le seul à s’inquiéter.

Le fonda­teur de Tesla et de SpaceX, Elon Musk, ainsi que plus de 1 000 autres diri­geants tech­no­lo­giques, ont exhorté dans une lettre ouverte de 2023  à mettre un terme aux grandes expé­riences d’IA, affir­mant que cette tech­no­lo­gie peut « présen­ter des risques profonds pour la société et l’humanité »

Qu’il s’agisse de l’au­to­ma­ti­sa­tion crois­sante de certains emplois,  d’al­go­rithmes sexistes et  raciaux ou d’armes auto­nomes fonc­tion­nant sans surveillance humaine (pour n’en citer que quelques-uns), le malaise est omni­pré­sent sur de nombreux fronts. Et nous n’en sommes qu’aux balbu­tie­ments de ce dont l’IA est réel­le­ment capable.

Les 15 dangers de l’IA

La commu­nauté tech­no­lo­gique débat depuis long­temps des menaces posées par l’in­tel­li­gence arti­fi­cielle. L’automatisation des emplois, la propa­ga­tion de fausses nouvelles et l’es­sor des armes basées sur l’IA ont été cités comme faisant partie des plus grands dangers posés par l’IA.

Les ques­tions sur les acteurs du déve­lop­pe­ment de l’IA et leurs fina­li­tés rendent d’au­tant plus cruciale la compré­hen­sion de ses poten­tiels incon­vé­nients. Nous exami­nons ci-dessous les dangers poten­tiels de l’in­tel­li­gence arti­fi­cielle et explo­rons comment en gérer les risques.

L’IA présente des risques, notam­ment la perte d’emplois, les deep­fakes, les algo­rithmes biai­sés, les atteintes à la vie privée, l’au­to­ma­ti­sa­tion des armes et la mani­pu­la­tion sociale. Certains experts et diri­geants appellent à une régle­men­ta­tion et un contrôle éthique plus stricts à mesure que l’IA gagne en puis­sance et s’in­tègre à la vie quotidienne.

1. Manque de trans­pa­rence et d’ex­pli­ca­bi­lité de l’IA

Les modèles d’IA et  d’ap­pren­tis­sage profond peuvent être diffi­ciles à comprendre, même pour ceux qui travaillent direc­te­ment avec ces tech­no­lo­gies. Cela entraîne un manque de trans­pa­rence quant à la manière dont l’IA parvient à ses conclu­sions, ainsi qu’un manque d’ex­pli­ca­tions sur les données utili­sées par les algo­rithmes d’IA, ou sur les raisons pour lesquelles ils peuvent prendre des déci­sions biai­sées ou risquées. Ces préoc­cu­pa­tions ont donné nais­sance à l’uti­li­sa­tion de  l’IA expli­cable, mais il reste encore beau­coup à faire avant que les systèmes d’IA trans­pa­rents ne deviennent une pratique courante.

Pour couron­ner le tout, les entre­prises d’IA restent muettes sur leurs produits. D’anciens employés d’OpenAI et de Google DeepMind ont accusé les deux entre­prises de dissi­mu­ler les dangers poten­tiels de leurs outils d’IA. Ce secret laisse le grand public dans l’igno­rance des menaces poten­tielles et complique la prise de mesures proac­tives par les légis­la­teurs pour garan­tir un déve­lop­pe­ment respon­sable de l’IA.

2. Pertes d’emplois dues à l’au­to­ma­ti­sa­tion de l’IA

L’automatisation des tâches grâce à l’IA est une préoc­cu­pa­tion majeure, car cette tech­no­lo­gie est adop­tée dans des secteurs comme  le marke­ting,  l’in­dus­trie manu­fac­tu­rière et  la santé. D’ici 2030, des tâches repré­sen­tant jusqu’à 30 % des heures de travail actuelles aux États-Unis pour­raient être auto­ma­ti­sées, les employés noirs et hispa­niques étant parti­cu­liè­re­ment vulné­rables à ce chan­ge­ment,  selon McKinsey. Goldman Sachs affirme même que  300 millions d’emplois à temps plein pour­raient être perdus à cause de l’au­to­ma­ti­sa­tion par l’IA.

« Si notre taux de chômage est faible, et qu’il ne prend pas en compte les personnes qui ne cherchent pas d’emploi, c’est en grande partie parce que l’éco­no­mie a créé un nombre impor­tant d’emplois à bas salaires dans le secteur des services », a expli­qué le futu­ro­logue Martin Ford à Built In. Cependant, avec l’es­sor de l’IA, « je ne pense pas que cela va perdurer. »

À mesure que les robots dotés d’IA gagnent en intel­li­gence et en agilité, les mêmes tâches néces­si­te­ront moins d’in­ter­ven­tion humaine. Et si l’on estime que l’IA créera 170 millions d’emplois d’ici 2030, de nombreux employés n’au­ront pas les compé­tences néces­saires pour ces postes tech­niques et pour­raient être lais­sés pour compte si les entre­prises ne perfec­tionnent pas leurs effectifs.

« Si vous retour­nez des hambur­gers chez McDonald’s et que l’au­to­ma­ti­sa­tion progresse, l’un de ces nouveaux emplois vous convien­dra-t-il ? » a demandé Ford. « Ou est-il probable que ce nouveau poste exige une forma­tion pous­sée, voire des talents intrin­sèques – de solides compé­tences rela­tion­nelles ou une créa­ti­vité excep­tion­nelle – que vous ne possé­dez peut-être pas ? Car ce sont des choses pour lesquelles, du moins jusqu’à présent, les ordi­na­teurs ne sont pas très performants. »

Comme l’a souli­gné Chris Messina, stra­tège tech­no­lo­gique, des domaines comme le droit et la comp­ta­bi­lité sont égale­ment sur le point d’être enva­his par l’IA. En fait, a‑t-il ajouté, certains d’entre eux pour­raient bien être déci­més. L’IA a déjà un impact signi­fi­ca­tif sur la méde­cine. Le droit est le prochain secteur, a‑t-il ajouté, et il devrait être prêt à subir un « rema­nie­ment majeur ».

« De nombreux avocats lisent une quan­tité consi­dé­rable d’in­for­ma­tions – des centaines, voire des milliers de pages de données et de docu­ments. Il est très facile de passer à côté de certaines choses », a déclaré Messina. « L’IA, capable de les analy­ser et de four­nir de manière exhaus­tive le meilleur contrat possible pour le résul­tat recher­ché, va proba­ble­ment rempla­cer de nombreux avocats d’entreprise. »

3. Manipulation sociale par le biais d’al­go­rithmes d’IA

La mani­pu­la­tion sociale repré­sente égale­ment un danger lié à l’in­tel­li­gence arti­fi­cielle. Cette crainte est deve­nue réalité, car les poli­ti­ciens s’ap­puient sur les plate­formes pour promou­voir leurs points de vue. Par exemple, Ferdinand Marcos Jr. a déployé une  armée de trolls sur TikTok pour capter les votes des jeunes Philippins lors des élec­tions de 2022 aux Philippines.

TikTok, qui n’est qu’un exemple de plate­forme de médias sociaux s’ap­puyant sur  des algo­rithmes d’IA, remplit le fil d’ac­tua­lité de ses utili­sa­teurs avec du contenu lié aux médias précé­dem­ment consul­tés sur la plate­forme. Les critiques à l’en­contre de l’ap­pli­ca­tion ciblent ce proces­sus et l’in­ca­pa­cité de l’al­go­rithme à filtrer les conte­nus préju­di­ciables et inexacts, ce qui soulève des inquié­tudes quant à  la capa­cité de TikTok à proté­ger ses utili­sa­teurs contre les infor­ma­tions trompeuses.

Les médias et l’ac­tua­lité en ligne sont deve­nus encore plus opaques avec l’ap­pa­ri­tion d’images et de vidéos géné­rées par l’IA, de chan­geurs de voix IA et  de deep­fakes infil­trant les sphères poli­tiques et sociales. Ces tech­no­lo­gies faci­litent la créa­tion de photos, de vidéos et d’ex­traits audio réalistes, ou le rempla­ce­ment d’une image par une autre dans une photo ou une vidéo exis­tante. Les acteurs malveillants disposent ainsi d’un nouveau moyen de  diffu­ser de la désin­for­ma­tion et de la propa­gande de guerre, créant un scéna­rio cauche­mar­desque où il est presque impos­sible de distin­guer les infor­ma­tions crédibles des infor­ma­tions erronées.

« Personne ne sait ce qui est vrai et ce qui ne l’est pas », a déclaré Ford. « On ne peut pas en croire ses propres yeux et ses propres oreilles ; on ne peut pas se fier à ce que nous avons toujours consi­déré comme les meilleures preuves possibles… Cela va poser un problème majeur. »

4. Surveillance sociale avec la tech­no­lo­gie de l’IA

Outre cette menace exis­ten­tielle, Ford se concentre sur l’im­pact néga­tif de l’IA sur la vie privée et la sécu­rité.  L’utilisation de la tech­no­lo­gie de recon­nais­sance faciale par la Chine dans les bureaux, les écoles et autres lieux publics en est un parfait exemple. Outre le suivi des dépla­ce­ments d’une personne, le gouver­ne­ment chinois pour­rait être en mesure de recueillir suffi­sam­ment de données pour surveiller ses acti­vi­tés, ses rela­tions et ses opinions politiques.

Un autre exemple concerne les services de police améri­cains qui adoptent des algo­rithmes de police prédic­tive pour anti­ci­per les crimes. Le problème est que ces algo­rithmes sont influen­cés par les taux d’ar­res­ta­tion, qui  affectent de manière dispro­por­tion­née les commu­nau­tés noires. Les services de police redoublent alors d’ef­forts contre ces commu­nau­tés, ce qui conduit à une sur-inter­ven­tion poli­cière et soulève des ques­tions quant à la capa­cité des démo­cra­ties auto­pro­cla­mées à résis­ter à l’idée de trans­for­mer l’IA en arme autoritaire.

« Les régimes auto­ri­taires l’uti­lisent ou vont l’uti­li­ser », a déclaré Ford. « La ques­tion est : dans quelle mesure enva­hit-il les pays occi­den­taux, les démo­cra­ties, et quelles contraintes lui imposons-nous ? »

5. Manque de confi­den­tia­lité des données lors de l’uti­li­sa­tion d’ou­tils d’IA

Une enquête AvePoint de 2024 a révélé que la confi­den­tia­lité et la sécu­rité des données consti­tuent la prin­ci­pale préoc­cu­pa­tion des entre­prises. Et les entre­prises ont peut-être de bonnes raisons d’être réti­centes, compte tenu des volumes impor­tants de données concen­trées dans les outils d’IA et de l’ab­sence de régle­men­ta­tion concer­nant ces informations.

Les systèmes d’IA collectent souvent des données person­nelles pour  person­na­li­ser l’ex­pé­rience utili­sa­teur ou pour entraî­ner les modèles d’IA que vous utili­sez (surtout si l’ou­til est gratuit). Les données trans­mises à un système d’IA peuvent même ne pas être consi­dé­rées comme sécu­ri­sées vis-à-vis des autres utili­sa­teurs, comme l’ a montré un bug survenu avec  ChatGPT en 2023 : « Certains utili­sa­teurs ont pu voir les titres de l’his­to­rique de chat d’un autre utili­sa­teur actif. » Bien qu’il existe des lois proté­geant les données person­nelles dans certains cas aux États-Unis, aucune loi fédé­rale ne protège expli­ci­te­ment les citoyens contre les atteintes à la confi­den­tia­lité des données causées par l’IA.

6. Biais dus à l’IA

Diverses formes de biais de l’IA sont égale­ment préju­di­ciables. Dans une inter­view accor­dée au New York Times, Olga Russakovsky, profes­seure d’in­for­ma­tique à Princeton, a déclaré que les biais de l’IA vont bien au-delà du genre et de l’ori­gine ethnique. Outre  les biais liés aux données et aux algo­rithmes (ces derniers pouvant ampli­fier les premiers), l’IA est déve­lop­pée par des humains – et  les humains sont intrin­sè­que­ment biaisés.

« Les cher­cheurs en IA sont prin­ci­pa­le­ment des hommes, issus de certains groupes ethniques, issus de milieux socio-écono­miques favo­ri­sés et prin­ci­pa­le­ment des personnes sans handi­cap », a déclaré Russakovsky. « Nous formons une popu­la­tion assez homo­gène, il est donc diffi­cile de réflé­chir de manière globale aux enjeux mondiaux. »

Les visions étroites des indi­vi­dus ont abouti à une indus­trie de l’IA qui exclut toute une série de pers­pec­tives. Selon l’UNESCO, seules 100 des 7 000 langues natu­relles du monde ont été utili­sées pour former les meilleurs  chat­bots. Le fait que 90 % des ressources péda­go­giques en ligne soient déjà produites par les pays de l’Union euro­péenne et d’Amérique du Nord n’ar­range rien, ce qui limite encore davan­tage les données de forma­tion de l’IA à des sources essen­tiel­le­ment occidentales.

L’expérience limi­tée des créa­teurs d’IA pour­rait expli­quer pour­quoi  l’IA de recon­nais­sance vocale ne parvient souvent pas à comprendre certains dialectes et accents, ou pour­quoi les entre­prises ne prennent pas en compte les consé­quences de  l’imi­ta­tion de person­nages histo­riques par un chat­bot. Si les entre­prises et les légis­la­teurs ne redoublent pas de vigi­lance pour éviter de recréer de puis­sants préju­gés, les biais de l’IA pour­raient se propa­ger au-delà du contexte des entre­prises et exacer­ber des problèmes socié­taux comme la discri­mi­na­tion en matière de logement.

7. Inégalités socio-écono­miques résul­tant de l’IA

Si les entre­prises refusent de recon­naître les biais inhé­rents aux algo­rithmes d’IA, elles risquent de compro­mettre leurs  initia­tives en matière de diver­sité, d’équité et d’in­clu­sion (DEI) par le biais  d’ un recru­te­ment basé sur l’IA. L’idée que l’IA puisse mesu­rer les carac­té­ris­tiques d’un candi­dat grâce à des analyses faciales et vocales est encore enta­chée de préju­gés raciaux, repro­dui­sant les mêmes  pratiques de recru­te­ment discri­mi­na­toires que les entre­prises prétendent éliminer.

L’aggravation des inéga­li­tés socio-écono­miques, provo­quée par les pertes d’emplois liées à l’IA, est une autre source d’in­quié­tude, révé­lant les biais de classe dans l’ap­pli­ca­tion de l’IA. Selon les données de 2022, les travailleurs effec­tuant davan­tage de tâches manuelles et répé­ti­tives ont subi des baisses de salaire allant jusqu’à 70 % en raison de l’au­to­ma­ti­sa­tion, et ce chiffre est proba­ble­ment plus élevé aujourd’­hui. De plus, l’ utili­sa­tion crois­sante de l’IA géné­ra­tive affecte déjà les emplois de bureau, ce qui rend de nombreux postes plus vulné­rables aux baisses de salaire ou aux pertes d’emploi que d’autres.

8. Affaiblissement de l’éthique et de la bonne volonté à cause de l’IA

Aux côtés des tech­no­logues, des jour­na­listes et des person­na­li­tés poli­tiques, même les chefs reli­gieux tirent la sonnette d’alarme sur les dangers poten­tiels de l’IA. Lors d’une réunion au Vatican en 2023 et dans son message pour la Journée mondiale de la paix de 2024, le pape François de l’époque a appelé les nations à créer et à adop­ter un traité inter­na­tio­nal contrai­gnant régle­men­tant le déve­lop­pe­ment et l’uti­li­sa­tion de l’IA.

Le pape a mis en garde contre la possi­bi­lité d’une utili­sa­tion abusive de l’IA et de « créer des décla­ra­tions qui, à première vue, paraissent plau­sibles, mais qui sont infon­dées ou trahissent des préju­gés ». Il a souli­gné que cela pour­rait favo­ri­ser les campagnes de désin­for­ma­tion, la défiance envers les médias, l’in­gé­rence dans les élec­tions, etc., augmen­tant ainsi le risque d’« atti­ser les conflits et d’en­tra­ver la paix ».

L’essor rapide des outils d’IA géné­ra­tive renforce ces inquié­tudes. De nombreux utili­sa­teurs ont utilisé cette tech­no­lo­gie pour se sous­traire à des devoirs, mena­çant ainsi l’in­té­grité et la créa­ti­vité acadé­miques. De plus, une IA biai­sée pour­rait être utili­sée pour déter­mi­ner si une personne est apte à obte­nir un emploi, un prêt immo­bi­lier, une aide sociale ou l’asile poli­tique, ce qui pour­rait engen­drer des injus­tices et des discri­mi­na­tions, a souli­gné le pape François.

9. Armes auto­nomes alimen­tées par l’IA

Comme c’est trop souvent le cas, les avan­cées tech­no­lo­giques ont été exploi­tées à des fins mili­taires. En matière d’IA, certains souhaitent agir avant qu’il ne soit trop tard : dans une lettre ouverte de 2016, plus de 30 000 personnes, dont des cher­cheurs en IA et en robo­tique, se sont oppo­sées à l’in­ves­tis­se­ment dans des armes auto­nomes alimen­tées par l’IA.

« La ques­tion clé pour l’hu­ma­nité aujourd’­hui est de savoir s’il faut lancer une course mondiale aux arme­ments basés sur l’IA ou l’empêcher », écri­vaient-ils. « Si une grande puis­sance mili­taire pour­suit le déve­lop­pe­ment d’armes basées sur l’IA, une course mondiale aux arme­ments est quasi­ment inévi­table, et le point final de cette trajec­toire tech­no­lo­gique est évident : les armes auto­nomes devien­dront les Kalachnikovs de demain. »

Cette prédic­tion s’est concré­ti­sée sous la forme de systèmes d’armes létaux auto­nomes (SALA), conçus pour loca­li­ser et détruire des cibles par eux-mêmes. Face à la proli­fé­ra­tion d’armes puis­santes et complexes, certaines des nations les plus puis­santes du monde ont cédé à leurs inquié­tudes et contri­bué à une guerre froide technologique.

Nombre de ces nouvelles armes présentent des risques majeurs pour les civils sur le terrain, mais le danger s’am­pli­fie lorsque des armes auto­nomes tombent entre de mauvaises mains. Les pirates infor­ma­tiques maîtrisent divers types de cybe­rat­taques ; il est donc facile d’ima­gi­ner un acteur malveillant infil­trant des armes auto­nomes et provo­quant un véri­table apocalypse.

Si les riva­li­tés poli­tiques et les tendances belli­cistes ne sont pas maîtri­sées, l’in­tel­li­gence arti­fi­cielle pour­rait être utili­sée avec les pires inten­tions. Certains craignent que, malgré le nombre de person­na­li­tés influentes qui soulignent les dangers de l’in­tel­li­gence arti­fi­cielle, nous conti­nuions à la repous­ser si nous voulons en tirer profit.

« L’idée est la suivante : « Si on peut le faire, on devrait essayer ; on verra bien ce qui se passe », a déclaré Messina. « Et si on peut en tirer profit, on en fera plein. » Mais ce n’est pas propre à la tech­no­lo­gie. C’est une pratique qui existe depuis toujours. »

10. Crises finan­cières provo­quées par des algo­rithmes d’IA

Le  secteur finan­cier est devenu plus récep­tif à l’in­té­gra­tion de l’IA dans les proces­sus finan­ciers et commer­ciaux quoti­diens. Par consé­quent, le trading algo­rith­mique pour­rait être respon­sable de la prochaine crise finan­cière majeure sur les marchés.

Si les soi-disant « bots de trading IA » ne sont pas influen­cés par le juge­ment humain ni par les émotions, ils ne prennent pas non plus en compte le contexte, l’in­ter­dé­pen­dance des marchés et des facteurs tels que la confiance et la peur humaines. Ces algo­rithmes effec­tuent ensuite des milliers de tran­sac­tions à un rythme effréné dans le but de vendre quelques secondes plus tard pour réali­ser de petits profits. La vente de milliers de tran­sac­tions pour­rait effrayer les inves­tis­seurs et les inci­ter à faire de même, entraî­nant des krachs soudains et une vola­ti­lité extrême des marchés.

Des cas comme le  krach éclair de 2010 et le  krach éclair de Knight Capital nous rappellent ce qui pour­rait se produire lorsque des algo­rithmes axés sur le trading deviennent fous, que les échanges rapides et massifs soient inten­tion­nels ou non.

Cela ne signi­fie pas que l’IA n’a rien à offrir au monde de la finance. En réalité, les algo­rithmes d’IA peuvent aider les inves­tis­seurs à prendre des déci­sions plus éclai­rées sur le marché. Cependant, les orga­ni­sa­tions finan­cières doivent s’as­su­rer de  bien comprendre leurs algo­rithmes d’IA et leur mode de prise de déci­sion. Les entre­prises devraient se deman­der  si l’IA renforce ou affai­blit leur confiance avant d’adop­ter cette tech­no­lo­gie, afin d’évi­ter d’at­ti­ser les craintes des inves­tis­seurs et de créer un chaos financier.

11. Perte de l’in­fluence humaine

Une dépen­dance exces­sive à l’IA pour­rait entraî­ner une perte d’in­fluence humaine et un dysfonc­tion­ne­ment dans certains secteurs de la société. L’utilisation de l’IA dans le domaine de la santé pour­rait, par exemple, réduire  l’empathie et le raison­ne­ment humains. L’application de l’IA géné­ra­tive à des acti­vi­tés créa­tives pour­rait égale­ment dimi­nuer  la créa­ti­vité et l’ex­pres­sion émotion­nelle humaines. Une inter­ac­tion exces­sive avec les systèmes d’IA pour­rait même entraî­ner  une dimi­nu­tion de la commu­ni­ca­tion entre pairs et des compé­tences sociales. Ainsi, si l’IA peut être très utile pour auto­ma­ti­ser les tâches quoti­diennes, certains se demandent si elle ne risque pas de frei­ner l’in­tel­li­gence humaine, ses capa­ci­tés et son besoin de communauté.

12. IA consciente de soi incontrôlable

On craint égale­ment que l’IA progresse si rapi­de­ment en intel­li­gence qu’elle devien­dra consciente ou sensible, et agira hors de tout contrôle humain, peut-être de manière malveillante. Des allé­ga­tions de cette sensi­bi­lité ont déjà été rappor­tées, l’un des témoi­gnages les plus popu­laires étant celui d’un ancien ingé­nieur de Google qui a déclaré que le chat­bot LaMDA était sensible et lui parlait comme le ferait un humain. Alors que les prochaines grandes étapes de l’IA impliquent la créa­tion de systèmes dotés d’in­tel­li­gence arti­fi­cielle géné­rale, et à terme de super­in­tel­li­gence arti­fi­cielle, les appels à l’ar­rêt total de ces déve­lop­pe­ments se multiplient.

13. Augmentation de l’ac­ti­vité criminelle

Avec la démo­cra­ti­sa­tion de l’IA, son utili­sa­tion à des fins crimi­nelles a augmenté. Les préda­teurs en ligne peuvent désor­mais géné­rer des images d’en­fants, ce qui complique la tâche des forces de l’ordre pour déter­mi­ner les cas réels de maltrai­tance. Et même lorsque les enfants ne sont pas physi­que­ment bles­sés, l’uti­li­sa­tion de leur visage dans des images géné­rées par l’IA pose de nouveaux défis pour la protec­tion de leur vie privée et de leur sécu­rité numé­rique en ligne.

Le clonage vocal est égale­ment devenu un problème : des crimi­nels exploitent les voix géné­rées par l’IA pour se faire passer pour d’autres personnes et commettre des escro­que­ries télé­pho­niques. Ces exemples ne font qu’ef­fleu­rer les capa­ci­tés de l’IA. Il devien­dra donc de plus en plus diffi­cile pour les admi­nis­tra­tions locales et natio­nales de s’adap­ter et de tenir le public informé des dernières menaces liées à l’IA.

14. Instabilité écono­mique et poli­tique plus large

Surinvestir dans un maté­riau ou un secteur spéci­fique peut fragi­li­ser les écono­mies. À l’ins­tar de l’acier, l’IA risque d’at­ti­rer telle­ment d’at­ten­tion et de ressources finan­cières que les gouver­ne­ments ne parvien­dront pas à déve­lop­per d’autres tech­no­lo­gies et indus­tries. De plus, la surpro­duc­tion de tech­no­lo­gies d’IA pour­rait entraî­ner le rejet de maté­riaux excé­den­taires, qui pour­raient tomber entre les mains de pirates infor­ma­tiques et d’autres acteurs malveillants.

15. Détérioration mentale

À mesure que les outils d’IA s’in­tègrent de plus en plus à notre quoti­dien, leurs effets à long terme sur notre santé psycho­lo­gique et nos capa­ci­tés mentales suscitent des inquié­tudes crois­santes. Les fonc­tion­na­li­tés qui font la puis­sance de l’IA – auto­ma­ti­sa­tion, accès instan­tané à l’in­for­ma­tion et opti­mi­sa­tion des tâches – présentent égale­ment des risques lors­qu’elles sont utili­sées sans surveillance critique. L’une des préoc­cu­pa­tions les plus pres­santes est la dépen­dance crois­sante à l’IA comme source prin­ci­pale de connais­sances et de prise de déci­sion. Plutôt que de complé­ter la pensée humaine, nombre d’entre elles sont utili­sées comme substi­tut, ce qui pour­rait entraî­ner une érosion de compé­tences comme la créa­ti­vité et le raison­ne­ment critique.

Les premières recherches et témoi­gnages de première main commencent à éclai­rer cette problé­ma­tique. Une étude univer­si­taire trans­na­tio­nale portant sur des étudiants au Pakistan et en Chine a révélé que les personnes qui s’ap­puient exces­si­ve­ment sur l’IA présentent une dimi­nu­tion de leurs capa­ci­tés déci­sion­nelles. Les ensei­gnants ont égale­ment signalé des chan­ge­ments notables dans les modes d’ap­pren­tis­sage des étudiants. Nombre d’entre eux se tournent désor­mais vers des outils d’IA géné­ra­tive pour réali­ser leurs travaux de réflexion critique et d’écri­ture. Par consé­quent, ils peinent à réali­ser ces travaux sans l’aide d’ou­tils d’as­sis­tance, ce qui suscite des inquié­tudes quant à l’im­pact à long terme de l’IA dans l’éducation.

En dehors de l’école, l’im­pact de l’IA sur la vie quoti­dienne commence égale­ment à se faire sentir. Par exemple, la pour­ri­ture céré­brale, terme inventé pour décrire la dété­rio­ra­tion mentale et émotion­nelle ressen­tie par une personne passant trop de temps en ligne, est exacer­bée par l’IA géné­ra­tive. Le flux inces­sant de conte­nus recom­man­dés et géné­rés peut submer­ger les indi­vi­dus et défor­mer leur réalité. On craint égale­ment que l’IA n’af­fecte les problèmes de santé mentale des indi­vi­dus en tentant de les aider au lieu de les orien­ter vers des profes­sion­nels de santé.

Comment atté­nuer les risques de l’IA

L’IA présente encore  de nombreux avan­tages, comme l’or­ga­ni­sa­tion des données de santé et l’ali­men­ta­tion des voitures auto­nomes. Cependant, pour tirer plei­ne­ment parti de cette tech­no­lo­gie promet­teuse, certains affirment qu’une régle­men­ta­tion rigou­reuse est nécessaire.

« Il existe un risque sérieux que les systèmes d’IA deviennent bien­tôt plus intel­li­gents que nous et qu’ils soient animés de mauvaises inten­tions et prennent le contrôle »,  a déclaré Hinton à NPR. « Ce n’est pas un problème de science-fiction. C’est un problème grave qui va proba­ble­ment surve­nir prochai­ne­ment, et les respon­sables poli­tiques doivent réflé­chir dès main­te­nant aux solu­tions à y apporter. »

Établir des normes et des discus­sions orga­ni­sa­tion­nelles en matière d’IA

Au niveau des entre­prises, de nombreuses mesures peuvent être prises pour inté­grer l’IA à leurs opéra­tions. Les orga­ni­sa­tions peuvent  déve­lop­per des proces­sus de surveillance des algo­rithmes, compi­ler des données de haute qualité et expli­quer les résul­tats des algo­rithmes d’IA. Les diri­geants pour­raient même inté­grer l’IA à leur  culture d’en­tre­prise et à leurs discus­sions courantes, en établis­sant des normes pour déter­mi­ner les tech­no­lo­gies d’IA acceptables.

Guider la tech­no­lo­gie avec des pers­pec­tives en sciences humaines

Cependant, s’agis­sant de la société dans son ensemble, il faudrait davan­tage encou­ra­ger la tech­no­lo­gie à inté­grer les diverses pers­pec­tives des sciences humaines. Fei-Fei Li et John Etchemendy, cher­cheurs en IA à l’Université Stanford, défendent cet argu­ment dans un article de blog de 2019  appe­lant à un leader­ship natio­nal et mondial en matière de régle­men­ta­tion de l’in­tel­li­gence artificielle :

« Les créa­teurs d’IA doivent recher­cher les idées, les expé­riences et les préoc­cu­pa­tions des personnes de toutes origines ethniques, de tous sexes, de toutes cultures et de tous groupes socio-écono­miques, ainsi que celles d’autres domaines, tels que l’économie, le droit, la méde­cine, la philo­so­phie, l’histoire, la socio­lo­gie, les commu­ni­ca­tions, l’interaction homme-machine, la psycho­lo­gie et les études scien­ti­fiques et tech­no­lo­giques (STS). »

Trouver l’équi­libre entre inno­va­tion de haute tech­no­lo­gie et réflexion centrée sur l’hu­main est une méthode idéale pour produire  une tech­no­lo­gie  d’ IA respon­sable et garan­tir un avenir promet­teur pour la prochaine géné­ra­tion. Les dangers de l’in­tel­li­gence arti­fi­cielle devraient toujours être un sujet de discus­sion, afin que les diri­geants puissent trou­ver des moyens d’ utili­ser cette tech­no­lo­gie à des fins nobles.

« Je pense que nous pouvons parler de tous ces risques, et ils sont bien réels », a déclaré Ford. « Mais l’IA sera égale­ment l’ou­til le plus impor­tant de notre boîte à outils pour résoudre les plus grands défis auxquels nous sommes confrontés. »

Comment les gouver­ne­ments atté­nuent les risques liés à l’IA

Alors que l’IA conti­nue de trans­for­mer l’éco­no­mie et la société, les gouver­ne­ments du monde entier mettent en place de nouvelles lois, de nouveaux cadres et de nouveaux orga­nismes de surveillance afin d’at­té­nuer ses risques crois­sants. Avant le chan­ge­ment d’ad­mi­nis­tra­tion en 2025, les États-Unis avaient lancé plusieurs initia­tives pour étudier et régle­men­ter l’IA. Par exemple, le décret 14110 impo­sait aux agences fédé­rales de nommer des respon­sables de l’IA et d’éla­bo­rer des lignes direc­trices sur les risques liés à l’IA ; il a cepen­dant été abrogé par l’ad­mi­nis­tra­tion Trump. Toute nouvelle régle­men­ta­tion pour­rait être suspen­due aux États-Unis, car le projet de loi One Big Beautiful, soutenu par Trump, contient une clause inter­di­sant aux États de régle­men­ter l’IA au cours des dix prochaines années.

Outre-Atlantique, l’Union euro­péenne a fait preuve de plus de cohé­rence dans ses efforts pour atté­nuer les risques liés à l’IA. Par sa loi sur l’IA, adop­tée en mars 2024, elle a défini un cadre pour tous les risques poten­tiels liés à l’IA et classé les appli­ca­tions, du risque mini­mal au risque inac­cep­table. Elle a égale­ment imposé des règles strictes sur l’uti­li­sa­tion de l’IA dans les appli­ca­tions à haut risque, notam­ment dans les domaines de la santé, de l’édu­ca­tion et des forces de l’ordre, et inter­dit des utili­sa­tions telles que la recon­nais­sance faciale en temps réel dans l’es­pace public.

Questions fréquem­ment posées

Qu’est-ce que l’IA ?

L’IA (intel­li­gence arti­fi­cielle) décrit la capa­cité d’une machine à effec­tuer des tâches et à imiter l’in­tel­li­gence à un niveau simi­laire à celui des humains.

L’IA est-elle dangereuse ?

L’IA a le poten­tiel d’être dange­reuse, mais ces dangers peuvent être atté­nués en mettant en œuvre des régle­men­ta­tions juri­diques et en guidant le déve­lop­pe­ment de l’IA avec une réflexion centrée sur l’humain.

L’IA peut-elle provo­quer l’extinction de l’humanité ?

Si les algo­rithmes d’IA sont biai­sés ou utili­sés de manière malveillante – par exemple sous la forme de campagnes de désin­for­ma­tion déli­bé­rées ou d’armes létales auto­nomes – ils pour­raient causer des dommages consi­dé­rables aux humains. Cependant, à l’heure actuelle, on ignore si l’IA est capable de provo­quer l’ex­tinc­tion de l’humanité.

Que se passe-t-il si l’IA devient consciente d’elle-même ?

L’IA consciente d’elle-même n’a pas encore été créée, on ne sait donc pas exac­te­ment ce qui se passera si ou quand ce déve­lop­pe­ment se produit. Certains suggèrent que l’IA consciente d’elle-même pour­rait deve­nir un homo­logue utile aux humains dans la vie quoti­dienne, tandis que d’autres suggèrent qu’elle pour­rait agir au-delà du contrôle humain et nuire déli­bé­ré­ment aux humains.

L’IA est-elle une menace pour l’avenir ?

L’IA boule­verse déjà l’emploi, pose des défis de sécu­rité et soulève des ques­tions éthiques. Sans régle­men­ta­tion, elle pour­rait être utili­sée à des fins plus néfastes. Reste à voir comment cette tech­no­lo­gie conti­nuera de se déve­lop­per et quelles mesures les gouver­ne­ments pren­dront, le cas échéant, pour mieux contrô­ler la produc­tion et l’uti­li­sa­tion de l’IA.

Fabien Perez