Sécurité et gouvernance de l’IA en Suisse romande : un enjeu crucial à Prilly

Un événement majeur pour la sécurité de l’intelligence artificielle en Suisse romande

Le 30 octobre à Prilly, la start-up Surelio.ai a organisé la première édition du Circle of AI Safety, un événement destiné à renforcer la confiance dans les systèmes d’intelligence artificielle (IA) en Suisse romande. Près de soixante professionnels issus du numérique, de la cybersécurité et du monde académique ont participé à cette rencontre, soulignant l’importance de la sécurité et de la gouvernance dans ce domaine en pleine mutation.

Les vulnérabilités des modèles d’IA sous la loupe des experts

Les intervenants ont alerté sur la complexité de sécuriser l’IA, bien au-delà des enjeux classiques de cybersécurité. Selon le Dr Andrei Kucharavy, professeur assistant à la HES-SO Valais-Wallis, la sécurité des modèles d’IA implique de comprendre leur fonctionnement interne et leur potentiel de manipulation. Il a évoqué plusieurs incidents récents, notamment la faille du chatbot Salesforce en 2025, qui a révélé la vulnérabilité des systèmes face à la manipulation via prompt injections, exfiltration de données ou empoisonnement des jeux d’entraînement. Il a également mentionné les failles récurrentes dans les modèles de langage, où 35 à 40% des paquets générés sont inventés, et où certaines vulnérabilités connues depuis 2021 persistent, malgré leur apparition récente dans des modèles déployés en production.

Le chercheur insiste sur le fait que ces vulnérabilités ne sont plus théoriques, mais bien présentes dans le quotidien des systèmes déployés, rendant urgent un travail de prévention basé sur le threat modeling, une méthode visant à cartographier et anticiper les menaces spécifiques à chaque application d’IA.

La menace humaine et l’importance de la confiance

Au-delà des enjeux techniques, l’expert soulignait également le risque d’une confiance excessive accordée aux systèmes automatisés. Selon lui, lorsque l’IA semble fiable, l’humain tend à lui faire aveuglément confiance, ce qui peut amplifier les dangers en cas de défaillance ou d’attaque.

Les risques d’attaques pour l’IA et la nécessité d’une sécurité renforcée

Sur scène, Terry Vogelsang, responsable de la sécurité offensive chez Kudelski Security, a évoqué la vulnérabilité des interactions avec les modèles d’IA. Il a cité des exemples concrets de bots manipulés par prompt injection ou de codes générés automatiquement déployés sans contrôle, soulignant que près de 45% du code produit par des IA comporte des failles potentielles. Selon lui, la réponse ne réside pas dans de nouveaux outils, mais dans le respect des fondamentaux : segmentation des réseaux, contrôle des accès et supervision continue. Il insiste : l’IA doit être traitée comme un composant critique du système d’information.

Gouvernance et transparence : clés d’une IA fiable

Le dernier intervenant, Gilles Burnier du Groupe Mutuel, a rappelé que l’outil de l’IA n’a de succès que si sa mise en œuvre repose sur une gouvernance solide. Il cite une étude du MIT indiquant que 95% des projets d’IA échouent faute d’alignement entre stratégie, valeur ajoutée et gestion des risques. Le risque majeur est que des entreprises se lancent dans l’innovation pour suivre la concurrence, sans véritable anticipation des enjeux. Le Groupe Mutuel a adopté un cadre hybride combinant validation humaine et contrôle automatisé, avec un principe de supervision par un second modèle, pour garantir la fiabilité des réponses générées. Il insiste sur la nécessité d’une approche collective pour transformer ces projets en initiatives durables, en partageant les apprentissages et en cultivant une culture commune de la prévention.

Un nouveau cadre pour la sécurité de l’IA

Pour conclure la soirée, les cofondateurs de Surelio.ai ont annoncé le lancement d’une structure dédiée à la sécurité de l’IA en Suisse romande. Cette jeune entreprise vise à accompagner les organisations dans la sécurisation et l’audit de leurs systèmes d’IA, en menant des tests de robustesse à grande échelle et en proposant des formations pour sensibiliser les équipes techniques et dirigeantes. Gaetan Stein, l’un des cofondateurs, souligne que cet événement constitue une étape essentielle dans la structuration d’un écosystème de sécurité de l’IA dans la région, avec une seconde édition déjà programmée pour 2026.

Laisser un commentaire

mentionslegales ph