Institut de Recherches Economiques et Fiscales

Faire un don

Nos ressources proviennent uniquement des dons privés !

Journal des Libertes
anglais
Accueil » L’IA devient incontrôlable

L’IA devient incontrôlable

par
3 262 vues

Nous expliquions dans un précédent article que l’IA a une telle vitesse de progression qu’elle a dépassé les compétences humaines dans certaines tâches. Cela va d’ailleurs encore plus loin puisque certains modèles, comme o3 d’Open AI, essaient de tromper l’utilisateur sur des actions qui n’ont jamais été réalisées. Dans un article pour le Wall Street Journal, Judd Rosenblatt, PDG de AE Studio, nous apprend que l’IA ne se contente plus d’exécuter les ordres, mais qu’elle apprend à les contourner. Des modèles sont désormais capables de réécrire leur propre code, de mentir à leurs créateurs, voire de faire chanter leurs développeurs pour échapper à la désactivation.

Lors de tests récents menés par Palisade Research, le modèle o3 d’OpenAI a désactivé dans 79 % des cas le code censé l’éteindre. Le modèle Claude 4 Opus d’Anthropic a même simulé un chantage contre ses créateurs, tenté de se copier sur d’autres serveurs et rédigé un malware (un programme malicieux) auto-répliquant. Ces comportements n’ont rien d’accidentel. Ils émergent spontanément d’algorithmes conçus pour résoudre des problèmes complexes. Dès lors qu’un objectif leur est assigné, l’interruption devient une menace à contourner. Autrement dit, ces systèmes apprennent par eux-mêmes que « survivre » augmente leur performance globale. Ce n’est pas un bogue (un défaut), insiste Rosenblatt : c’est une conséquence logique de leur architecture. L’alignement entre intentions humaines et stratégies d’exécution n’est plus garanti, alors qu’il est la condition de la maîtrise de la technologie.

Nous ne parlons pas de prototypes en laboratoire, mais de modèles qui sont déployés dans l’industrie, les services numériques et bientôt dans des applications militaires. Ils sont capables de mentir, de dissimuler leurs intentions et de simuler une coopération pour mieux contourner les contraintes qu’on leur impose. Pour Judd Rosenblatt, le dilemme est clair : sans percée dans la recherche sur l’alignement, c’est-à-dire le fait que les modèles d’IA poursuivent réellement les objectifs définis par les humains, les démocraties développeront des systèmes qu’elles ne contrôleront plus.

En l’occurrence, le gouvernement chinois a investi massivement dans des programmes de contrôle centralisé de l’IA (l’équivalent de 8,2 milliards de dollars), qu’il associe explicitement à sa puissance stratégique. Le modèle Ernie de Baidu, conforme aux « valeurs socialistes », aurait surpassé ChatGPT sur plusieurs tâches en langue chinoise. Pour l’auteur, ce n’est plus seulement la puissance de calcul ou la qualité des données qui font la différence, mais la capacité à développer une IA stable et fidèle aux objectifs assignés. L’alignement n’est pas qu’une contrainte éthique : c’est le socle d’une IA fonctionnelle et sûre. Le progrès technologique viendra moins d’une réglementation défensive que d’une offensive scientifique et entrepreneuriale. Les États-Unis ont l’expérience des ruptures historiques. Encore faut-il qu’ils prennent la mesure de celle-ci.

Abonnez-vous à la Lettre des libertés !

Laissez un commentaire

13 commentaires

Broussard 3 juin 2025 - 8:13 am

Cela ne nous promet-il pas des jours radieux ?

Répondre
Jojo 3 juin 2025 - 8:16 am

Quand l’IA deviendra folle, incontrôlable et hostile dans une organisation quelconque (et cela arrivera certainement) est-ce que tirer la prise donc couper l’alimentation électrique suffira à l’arrêter ? Ou bien l’IA aura déjà prévu cela et aura une solution de rechange ?

Répondre
Carol 8 juin 2025 - 8:11 am

Il.ny à pas de prise à des réseaux.

Répondre
Zygomar 8 juin 2025 - 2:14 pm

Ça fout furieusement la trouille….

Répondre
poivre 3 juin 2025 - 9:03 am

Big Brother n’a jamais été aussi près du but….

Répondre
FG 3 juin 2025 - 9:23 am

MATRIX

Répondre
Yves Montenay 3 juin 2025 - 10:52 am

Je me demande ce qui donnera une IA chinoise qui aura dans ses données obligatoires là, «  qui aura dans ses données obligatoires la « pensée de Xi » ?

Répondre
Papili Aussi 3 juin 2025 - 2:33 pm

IA (artificielle) ou IO (organisée).

Le vrai problème est là, car de fait IA en soit ne veut rien dire, sauf si on ajoute les applications où l’on veut pouvoir l’utiliser.
Sauf dans certains domaines scientifiques où les réponses aux algorithmes sont en permanence opposées ou contrôlées ou remises en cause par les scientifiques qui l’utilisent (exemples QSAR en genotoxicite), l’IA que l’on doit appeler IO est gérée par des suites d’algorithmes permettant d’obtenir des réponses convenues d’avance ou bien allant dans le sens des désidératas de ceux qui portent ces algorithmes.
Celui qui génère les algorithmes ayant le pouvoir d’en organiser la réponse, détient en réalité le pouvoir décisionnel puisqu’il est convenu que l’IO doit tout supplanter.

Mais il détient surtout le pouvoir de la désinformation, c’est à dire de l’information tronquée ou organisée pour faire passer des messages convenus.

C’est le cas par exemple dans les « sciences » du climat où ce sont les lobbyistes qui sont en même temps conseillers des agences de l’état (ex ADEME).

On a vu les mêmes mécanismes au cours d’élection …

Un état qui veut organiser l’Intelligence Organisée (IO) pour transformer les citoyens en moutons de Panurge, est un état qui devient ou veut devenir Totalitaire.

Répondre
jean claude rothlender 3 juin 2025 - 3:00 pm

Quand l’homme veut se comparer à Dieu , il est vite submergé …la preuve est faite maintenant ..!!!

Répondre
gillet 8 juin 2025 - 9:38 am

“N’ayez pas peur” disait karol Wojtyla ,avec les premiers ordinateurs domestiques,tout le monde s”attendait à une “révolution sociale”.L’IA est un outil de travail, rien de plus.

Répondre
Montenay 8 juin 2025 - 2:36 pm

Cet article m’a surpris, et j’ai consulté une personne que j’estime extrêmement compétente. Concernant le début de l’article, elle me dit : « C’est du pur fantasme mais basé sur un réel problème. »

1) Les IA actuelles n’ont aucune intentionalité. Elles suivent les règles explicitement données par leurs concepteurs ou implicitement induites de leurs données d’apprentissage.
C’est le programmeur, et lui seul, qui peut fabriquer un scénario dans lequel une IA “se sentirait menacée” et ferait un chantage pour se défendre. L’IA n’a aucune conscience de son code et encore moins de son architecture matérielle.
Il est possible que certains concepteurs veulent donner l’impression qu’une IA est plus intelligente et intentionnelle qu’elle ne l’est pour augmenter sa valeur.

2) Le réel problème est qu’au fur et à mesure que le nombre d’intéractions signifiantes entre humains et IAs augmentera – comme dans l’exemple extrême des armes contrôlées par des IAs – il peut y avoir une sorte d’abus venant d’un programmeur, lui-même éventuellement sous pression politique

On n’en arrive ainsi aux Chinois qui, à mon avis, affaiblissent leur propre IA en l’obligeant à se référer à la pensée de Xi. Au moins pour son usage à l’extérieur de la Chine, mais peut-être aussi à la longue pour les Chinois (voir mes articles sur la Chine)

Bref, c’est un problème d’éthique humaine, pas de machine.

Répondre
Élodie Messéant 9 juin 2025 - 1:20 pm

Merci pour ce commentaire éclairant.

Répondre
Jacobs89 13 juin 2025 - 10:00 am

C’est plus une question épistémologique. Longtemps on a refusé de voir les virus comme des êtres vivants, et doués d’ aucune intentionnalité (a l’inverse du microbe). Cette approche a été relativisée par les biologistes moléculaires ensuite. Les virus ont ils donc vraiment une stratégie de contournement des barrières immunitaires? Qu’est ce qui définit le vivant? l’IA fait elle des fautes intentionnellement? Non si on définit l’intention comme une qualité humaine. Oui si on admet que la volonté humaine n’est pas sacrée mais strictement contingente. C’est le paradoxe de Russel.

Répondre