La sécurité de l’IA est à la traîne du développement : les entreprises technologiques manquent de plans de contrôle crédibles

3

Les principales sociétés mondiales d’intelligence artificielle (IA) ne parviennent même pas à respecter leurs propres normes de sécurité, prévient un nouveau rapport. Ce manque de surveillance survient alors que la course vers l’intelligence artificielle générale (AGI) et la superintelligence – une IA dépassant l’intellect humain – s’accélère, augmentant le risque d’une mauvaise utilisation « catastrophique » ou d’une perte de contrôle.

Les risques dépassent la réglementation

L’indice de sécurité de l’IA d’hiver 2025, publié par le Future of Life Institute (FLI), a évalué huit grandes entreprises d’IA : Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud et Z.ai. L’évaluation a révélé qu’aucune entreprise ne dispose d’un plan vérifiable pour maintenir le contrôle humain sur des systèmes d’IA de plus en plus puissants.

Des experts indépendants soulignent l’urgence : les entreprises prétendent pouvoir créer une IA surhumaine, mais aucune ne peut démontrer comment empêcher la perte de contrôle. Comme l’a dit un informaticien de l’Université de Berkeley, les entreprises d’IA ne peuvent actuellement pas garantir un niveau de risque comparable aux normes de sécurité nucléaire. Certaines estimations évaluent le risque d’une IA incontrôlable à un sur trois, un chiffre jugé inacceptable par les références de l’industrie.

Cette disparité entre capacité et contrôle est cruciale car l’IA progresse à un rythme sans précédent. Ce qui était autrefois considéré comme étant dans des décennies – la superintelligence – est maintenant estimé par certains comme étant dans quelques années. Pendant ce temps, la réglementation de l’IA reste faible. Aux États-Unis, l’IA est moins réglementée que les sandwichs, les entreprises technologiques faisant activement pression contre des normes de sécurité contraignantes.

Performances mitigées parmi les entreprises

Le rapport FLI a évalué les entreprises en termes d’évaluation des risques, de préjudices actuels, de cadres de sécurité, de sécurité existentielle, de gouvernance, de responsabilité et de partage d’informations.

  • Anthropic, OpenAI et Google DeepMind ont reçu des éloges pour leurs recherches en matière de transparence et de sécurité, mais présentent toujours des faiblesses. L’évolution d’Anthropic vers une formation à l’interaction avec les utilisateurs soulève des problèmes de confidentialité. OpenAI fait l’objet d’un examen minutieux pour avoir exercé des pressions contre la législation et pour avoir manqué de surveillance indépendante. Le recours de Google DeepMind à des évaluateurs externes rémunérés compromet l’objectivité.
  • xAI a publié son premier cadre de sécurité, bien que les évaluateurs l’aient trouvé limité.
  • Z.ai autorise des évaluations externes non censurées mais manque de transparence totale dans sa structure de gouvernance.
  • Meta a introduit des seuils de sécurité basés sur les résultats, mais nécessite des méthodologies plus claires.
  • DeepSeek ne dispose pas de documentation de base sur la sécurité malgré le plaidoyer interne.
  • Alibaba Cloud contribue aux normes nationales mais doit améliorer la robustesse et la fiabilité du modèle.

Ces résultats mettent en évidence que même les grandes entreprises ont du mal à mettre en œuvre des mesures de sécurité complètes. Les récents scandales impliquant des préjudices psychologiques, des cyberattaques et même des suicides assistés par l’IA démontrent les conséquences concrètes de ces lacunes.

Large opposition à l’AGI non contrôlée

Les risques croissants ont déclenché des réactions négatives sans précédent. En octobre, des milliers de personnalités publiques de tous bords politiques – dont l’ancien stratège de Trump Steve Bannon, l’ancienne conseillère à la sécurité nationale Susan Rice et des chefs religieux – ont signé une pétition exhortant les sociétés d’IA à ralentir leur quête de superintelligence.

Cette coalition inhabituelle souligne la préoccupation générale selon laquelle une IA non contrôlée pourrait supprimer des emplois, exacerber les inégalités économiques et, à terme, saper l’autonomie humaine. Comme l’a noté un expert, « la superintelligence empêcherait chaque travailleur de gagner sa vie ». Cette convergence des craintes des mouvements ouvriers de gauche et des forces populistes de droite suggère que la question transcende les divisions idéologiques traditionnelles.

La trajectoire actuelle du développement de l’IA présente des risques importants, et sans améliorations substantielles des cadres de sécurité et de la réglementation, le potentiel de résultats catastrophiques reste dangereusement élevé.