Aller au contenu principal

Hacking physique : Thales alerte sur le nouveau défi de l’intelligence artificielle

  • A l’occasion de la trentième édition de l’ACM Conference on Computer and Communications Security qui a lieu à Copenhague du 27 au 30 novembre 2023, dont une journée (AISec) est dédiée à la sécurité de l’intelligence artificielle, Thales a présenté une nouvelle technique de hacking physique d’IA, une première mondiale.
  • Si les entreprises sont aujourd’hui sensibilisées aux risques des attaques logicielles sur le modèle d’IA, les attaques matérielles de ces modèles demeurent encore méconnues.
  • L’intégration croissante d’IA dans les matériels de défense (drones, véhicules, aéronefs par exemple) nécessite la sécurisation de ces systèmes particulièrement critiques, et ce, dès leur conception, pour en protéger la propriété intellectuelle et à des fins de sécurité nationale.
Attaque matérielle sur l’IA par Thales ©Thales
Attaque matérielle sur l’IA par Thales ©Thales

Une IA est un système composé d’un logiciel (software) intégré à des composants physiques (hardware). Le but des attaques matérielles est d’atteindre la partie physique de l’IA. La démonstration d’attaque matérielle de Thales à l’AISec vise à sensibiliser la communauté scientifique et technique à ce nouveau type de menace et à la prendre en compte lors du développement de leurs systèmes.

La chaleur, le rayonnement électromagnétique ou encore la consommation électrique d’un système peuvent fournir de précieuses informations. Un attaquant peut ainsi exploiter les caractéristiques physiques des composants électroniques pour comprendre le fonctionnement du logiciel embarqué et accéder à ses données sensibles. La confidentialité des paramètres de décision d’une IA est alors compromise.

Joan Mazenc, Directeur du CESTI1 de Thales, déclare « Encore peu traitée dans le domaine de l’IA, la problématique des attaques matérielles nécessite la mise en place de développements spécifiques pour garantir fiabilité, robustesse et protection de la propriété intellectuelle. A travers la présentation de cette nouvelle menace à la communauté scientifique et technique mondiale dans le cadre de la conférence AISec, Thales entend alerter l’industrie sur ce risque émergent et sur les solutions avancées qui président à la construction d’une IA de confiance. »

L’attaque présentée lors de la conférence AISec se déroule en deux étapes :

​ ​ 1 . L’attaque par observation consiste en une analyse des comportements physiques du système en fonctionnement afin de découvrir les paramètres secrets utilisés par l’IA ciblée lors de la classification d’une image.

Avec les moyens classiques d’un laboratoire d’électronique, un rayonnement électromagnétique peut être mesuré au contact d’un composant du système. En reproduisant cette étape des milliers de fois, dans des conditions variables, une IA d’attaque peut être entrainée à reconnaitre les rayonnements observés. De cette manipulation découle la capacité à identifier les paramètres secrets de l’IA cible, sans connaissance préalable du système étudié.

​ ​ 2 . L’attaque active exploite les paramètres de décision de l’IA cible afin de la leurrer. Pour ce faire, elle construit des exemples adverses.

Ici, l’opérateur force l’IA à reconnaître le chiffre 7 comme étant un 5. ©Thales
Ici, l’opérateur force l’IA à reconnaître le chiffre 7 comme étant un 5. ©Thales

Cette attaque s’appuie sur des scripts permettant d’exploiter les paramètres secrets découverts précédemment afin de créer une image que l’IA classifiera incorrectement.

Par ailleurs, pour un attaquant ayant un accès physique au système cible, cet objectif pourrait aussi être atteint en perturbant physiquement le composant lors du fonctionnement de l’IA. En provoquant une brève surtension ou en exposant le composant électronique à une impulsion électromagnétique de forte puissance, la décision de l’IA pourrait être perturbée, conduisant à une décision erronée, quelle que soit l’image soumise à classification. Cette autre attaque physique, « l’injection de faute », devra aussi être prise en compte par les concepteurs de systèmes embarqués critiques pour bâtir une IA de confiance.

L’IA chez Thales

Face à ces menaces, Thales propose dès aujourd’hui de mettre en œuvre des évaluations de sécurité au sein du laboratoire CESTI, agréé par l’ANSSI, et d’apporter des solutions sur-mesure aux vulnérabilités décelées en s’appuyant sur l’ensemble de l’expertise du groupe.

Présent dans des activités de défense et de sécurité, où les enjeux critiques peuvent être vitaux, Thales s’est forgé un cadre éthique et scientifique permettant de développer une IA de confiance dont les exigences reposent sur quatre piliers stratégiques : la validité, la sécurité, l’explicabilité et la responsabilité. Le développement de ses solutions s’appuie sur l’expertise de plus de 300 experts seniors en IA et plus de 4 500 experts en cybersécurité associée à celle des experts métiers du Groupe dans les domaines de la défense et de la sécurité (aéronautique, défense terrestre, défense navale, spatial notamment).

A propos de Thales

Thales (Euronext Paris : HO) est un leader mondial des hautes technologies spécialisé dans trois secteurs d’activité : Défense & Sécurité, Aéronautique & Spatial, et Identité & Sécurité numériques. Il développe des produits et solutions qui contribuent à un monde plus sûr, plus respectueux de l’environnement et plus inclusif.

Le Groupe investit près de 4 milliards d’euros par an en Recherche & Développement, notamment dans des domaines clés de l’innovation tels que le quantique, l’Edge computing, la 6G et la cybersécurité.

Thales compte 77 000 collaborateurs répartis dans 68 pays. En 2022, le Groupe a réalisé un chiffre d'affaires de 17,6 milliards d'euros.

Contact
Marion Bonnet - Thales, Relations médias Sécurité
+33 (0)6 60 38 48 92 marion.bonnet@thalesgroup.com