Les signaux que nous ne devrions pas ignorer s'agissant de l'Intelligence artificielle

Facebook Logo LinkedIn Logo Twitter Logo Email Logo Pinterest Logo

Il s'est passé quelque chose la semaine dernière que la plupart des gens ont ignoré.

Deux centres de données d'Amazon aux Émirats arabes unis ont été touchés lors des représailles iraniennes suite à l'intervention militaire américaine. Un autre site, situé à Bahreïn, aurait été endommagé par l'atterrissage d'un drone à proximité. Les frappes précédentes, à l'origine de ces représailles, auraient utilisé des systèmes de ciblage assistés par intelligence artificielle.

Ce fut un bref épisode de l'actualité, rapidement éclipsé par un autre sujet politique. Mais ses implications sont difficiles à ignorer.

L'intelligence artificielle est désormais entrée dans un conflit géopolitique actif.

L'infrastructure qui sous-tend le monde numérique — les mêmes systèmes qui stockent les photos de famille, font fonctionner les entreprises et répondent aux questions sur nos téléphones — est devenue une infrastructure stratégique en temps de guerre. Des algorithmes discrètement intégrés aux technologies civiles contribuent désormais à orienter les décisions relatives au déploiement des armes.

L'humanité a franchi un seuil, et la plupart d'entre nous l'avons ignoré.

Mais l'histoire nous apprend que les grandes mutations technologiques s'annoncent rarement par un seul événement spectaculaire. Elles se manifestent d'abord par des signaux discrets : actualités mineures, conflits politiques, départs inexpliqués de collaborateurs.

Un autre signal est apparu presque simultanément.

Le gouvernement fédéral a récemment retiré de ses réseaux les systèmes d'intelligence artificielle développés par Anthropic. Peu après, OpenAI a conclu son propre accord de défense.

Le public ignore les détails de ce changement. Nous ne savons pas précisément quelles exigences ont été formulées à huis clos, quelles règles éthiques ont été remises en question, ni pourquoi l'une des plus grandes entreprises mondiales d'IA a été soudainement exclue des systèmes fédéraux.

Mais cet épisode est lui-même un autre signal.

Et un autre signal apparaît discrètement au sein même de l'industrie de l'IA : le départ des chercheurs en sécurité.

Ces dernières années, de nombreux chercheurs de renom, chargés d'étudier les risques et la sécurité des systèmes d'IA avancés, ont quitté leurs postes au sein d'entreprises et de laboratoires de recherche de premier plan. Nombre de ces départs se sont faits sans explications publiques.

Ces chercheurs décrivent rarement les débats internes auxquels ils ont assisté. Rares sont ceux qui sont en mesure de le faire.

Mais ce genre de tendances est significatif. Lorsque les personnes les plus proches d'une technologie puissante commencent à s'en retirer discrètement, cela signifie souvent qu'elles ont perçu des tensions que le public n'a pas encore été invité à examiner.

L'histoire a déjà connu des moments semblables.

Au début des années 1940, les scientifiques travaillant sur ce qui allait devenir le projet Manhattan prirent conscience qu'ils étaient en train de construire quelque chose d'inédit. Certains s'inquiétèrent des conséquences que cette technologie pourrait avoir une fois sortie des laboratoires. Mais ces débats se déroulèrent en grande partie à huis clos. Le public ne comprit les enjeux qu'après que la technologie eut déjà été utilisée.

L’intelligence artificielle pourrait bien évoluer selon un schéma similaire. Nous en observons déjà les prémices : départs de chercheurs, désaccords entre gouvernements sur les règles éthiques et apparition de systèmes d’IA au cœur de véritables conflits géopolitiques.

Pourtant, le débat public sur l'intelligence artificielle reste façonné par un ensemble de suppositions qui rendent ces signaux plus difficiles à reconnaître.


Idée fausse n° 1 : L’IA n’est « qu’un outil »

Cette analogie est rassurante. Nous imaginons l'IA comme nous imaginons une calculatrice ou un traitement de texte : des machines qui accomplissent des tâches efficacement tout en restant fermement sous le contrôle humain.

Les outils peuvent devenir des atouts stratégiques en temps de guerre. Mais ils ne produisent pas de résultats propres que leurs créateurs ont parfois du mal à expliquer, et ils n'exigent pas non plus de négociations constantes sur les limites éthiques de leur utilisation.

Les systèmes d'IA modernes ne sont pas programmés ligne par ligne au sens traditionnel du terme. Ils sont entraînés sur de vastes ensembles de données et apprennent les tendances qui s'y dégagent. Leur comportement émerge de relations statistiques plutôt que d'instructions explicites. Les chercheurs en IA décrivent ces systèmes comme « évolués », et non construits. C'est ce qui les distingue fondamentalement des outils que nous avons l'habitude de contrôler.


Idée fausse n° 2 : L’IA est neutre

Les systèmes d'IA sont entraînés à partir d'informations générées par l'homme. Ces informations reflètent les biais humains, les conflits historiques et une représentation inégale.

Lorsqu'un système d'IA génère une réponse, il synthétise des schémas qu'il a absorbés à partir de ce matériau.

L'IA a développé des compétences linguistiques fluides qui peuvent créer l'illusion de l'objectivité. Mais un langage assuré n'est pas synonyme de vérité.

Les récents différends entre gouvernements et entreprises spécialisées en IA l'illustrent clairement. Les débats sur les limites de la surveillance ou les armes autonomes ne sont pas de simples questions techniques ; ce sont des questions morales. Ces garde-fous existent précisément parce que les systèmes eux-mêmes ne sont pas neutres.


Idée fausse n° 3 : Les humains contrôlent entièrement l’IA

Les logiciels traditionnels se comportent selon des instructions explicites écrites par les programmeurs.

Les systèmes d'IA modernes fonctionnent différemment. Leurs résultats sont probabilistes, générés par des couches de relations apprises au sein du modèle.

Les développeurs utilisent désormais des systèmes d'IA pour concevoir et gérer d'autres systèmes d'IA. Ils font appel à l'IA pour écrire du code qu'ils auraient auparavant écrit eux-mêmes, et ce processus est si rapide qu'il leur est impossible de surveiller ou même de comprendre chaque ligne de code générée par des systèmes fonctionnant en continu.

Dans ce contexte, le contrôle n'est pas un interrupteur. Il s'apparente davantage à une frontière mouvante inédite, et le langage permettant de la définir est encore balbutiant.


Idée fausse n° 4 : Les experts savent où cela va mener

Dans la plupart des domaines scientifiques, les experts divergent dans une marge relativement restreinte. En intelligence artificielle, la diversité des opinions est exceptionnellement grande.

Certains chercheurs estiment que l'IA va révolutionner la médecine et la découverte scientifique. D'autres mettent en garde contre les graves bouleversements sociaux que pourrait engendrer cette technologie si son développement dépasse la sagesse humaine.

Parmi ceux qui expriment ces préoccupations figure Geoffrey Hinton, lauréat du prix Nobel et l'une des figures fondatrices de la recherche moderne en IA.

Cette diversité d'opinions ne prouve pas qu'une catastrophe est imminente. Mais elle révèle que même ceux qui conçoivent ces systèmes ne s'accordent pas pleinement sur leurs conséquences.

L'intelligence artificielle s'intègre rapidement aux systèmes qui façonnent la vie moderne : communication, commerce, sécurité nationale et gouvernance.

Nous observons des signaux dans tous ces domaines. Il est clair que l'IA façonne notre avenir, que cela nous plaise ou non. La question est de savoir si nous saurons reconnaître ces signaux à temps pour comprendre ce qui se trame, ou si nous attendrons, comme c'est souvent le cas, que les conséquences rendent ces signaux impossibles à ignorer.



Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement celles de The Epoch Times

Source : The Epoch Times.

* * *

Facebook Logo LinkedIn Logo Twitter Logo Email Logo Pinterest Logo

Vous pouvez imprimer et faire circuler tous les articles publiés sur Clearharmony et leur contenu, mais veuillez ne pas omettre d'en citer la source.