• 6 hours
  • Easy

Free online content available in this course.

course.header.alt.is_certifying

Got it!

Last updated on 10/26/23

Identifiez les enjeux de sûreté de l’intelligence artificielle

Les techniques d’IA ont un potentiel formidable. Elles se développent rapidement et infusent progressivement tous les métiers et pans de notre société. Pour ces mêmes raisons, l’IA soulève aussi des questions de sûreté, ainsi que de responsabilité sociale et environnementale

Elle facilite le travail de certains acteurs malveillants, par exemple pour diffuser de fausses informations ou pour effectuer des attaques en ligne. Elle pose de nouvelles questions de sûreté : comment s’assurer que l’IA fait réellement ce qu’on attend d’elle ? Elle pose des questions concernant les données utilisées, en particulier si ce sont vos données personnelles ou des données biaisées. Et elle pose enfin des questions liées à son impact écologique.

Dans ce chapitre et le suivant, nous allons évoquer ces enjeux plus en détail. À chaque fois, nous vous proposerons des pistes de réflexion que vous pourrez suivre pour rester vigilant et adopter un comportement responsable. À la fin de ces deux chapitres, nous verrons comment la gouvernance de l’IA peut encourager, voire obliger, les entreprises à développer une IA sûre, responsable et digne de confiance. Vous êtes prêt ?

Découvrez les usages malveillants de l’IA

L’IA est un outil au service des humains. Comme nous l’avons vu, elle nous permet de réaliser des progrès spectaculaires dans de nombreux domaines comme la santé, l’éducation ou l’environnement. Elle peut néanmoins aussi faciliter le travail de certains acteurs malveillants. Nous allons explorer deux exemples d’usages malveillants de l’IA auxquels vous serez très certainement confrontés : les fausses informations et les attaques en ligne.

Les fausses informations

Vous avez peut-être déjà vu passer ces vidéos surréalistes : Barack Obama est en train d'insulter Donald Trump ou Mark Zuckerberg déclarant manipuler ses utilisateurs de Facebook. Apparus courant 2018, il s'agit bien entendu de trucages vidéo, mais leur réalisme est saisissant. La technologie sous-jacente repose sur une technique récente d’intelligence artificielle. Ces montages sont souvent qualifiés de deepfake, qu’on pourrait traduire en français par "hypertrucage".

Euh, mais le trucage vidéo, ça existait bien avant l'intelligence artificielle, non ?

En fait, le trucage de photos était auparavant la sphère de quelques experts en retouche photo. Il est aujourd’hui à la portée d’un nombre croissant d’individus. Et les résultats sont de plus en plus convaincants. On peut l’observer en visitant le site This person does not exist qui compile une série de portraits générés avec cette technique d’intelligence artificielle (il vous suffit de rafraîchir la page pour les faire défiler). On peut facilement se méprendre et croire à de réels visages, alors qu’ils sont générés artificiellement.

Les trucages de l’IA ne s’arrêtent pas aux images. L’IA peut être utilisée pour créer beaucoup de faux textes, fausses vidéos, etc. Ces nouvelles techniques suscitent des risques, notamment celui de désinformation massive. 

Comment s’en prémunir ?

Ici, deux outils pour vous protéger du deepfake : votre bon sens et votre esprit critique !

Ensuite, cela passe par quelques conseils à mettre en place :

  • questionnez vos sources : regardez si la source de l’information est légitime, si c’est un média reconnu, par exemple ;

  • recoupez vos informations : en allant voir sur d’autres sites d’information ; 

  • vous pouvez également utiliser des sites de fact-checking, comme le proposent des initiatives comme Les décodeurs par Le Monde, Factuel par l’AFP…

Les attaques en ligne

Avec l’augmentation croissante des capacités de l’IA et sa démocratisation, de plus en plus de cybercriminels utilisent l’IA pour réaliser des attaques en ligne. Ils s’en servent par exemple pour détecter les vulnérabilités de vos appareils ou pour automatiser le phishing, qui consiste à vous leurrer afin d’obtenir vos données personnelles, un mot de passe ou encore des identifiants bancaires. Voyons quelques exemples d’attaques en ligne possibles et d'ores et déjà employées.

Attaque par phishing

L’IA peut être mobilisée pour identifier plus facilement des profils de victimes qui cliqueront facilement sur les liens frauduleux ou pour personnaliser des mails avec des données récupérées (lors de précédentes fuites de données ou via les médias sociaux comme LinkedIn, Facebook, Twitter, etc.).

Usurpation d’identité

Les mêmes techniques de trucages décrites précédemment peuvent être utilisées pour des attaques en ligne. Une technologie appelée "deep voice" utilise l’IA pour se faire passer pour la voix d'une personne à partir d’échantillons audio de sa voix. Ces échantillons peuvent être obtenus à partir d'enregistrements de réunions en ligne ou de prises de paroles en public (facilement accessible quand il s’agit de journalistes, de politiques ou de dirigeants de grandes entreprises).

En 2020, un manager au sein d’un banque à Hong Kong a reçu un appel de son directeur pour lui annoncer la nouvelle très positive : l’entreprise va faire une acquisition importante, et pour ce faire, le manager doit obtenir l’approbation de sa banque pour réaliser plusieurs transferts d’un montant cumulé de 35 millions de dollars. Reconnaissant la voix de son directeur, l’employé pensait que tout était bien réel et a commencé à envoyer de l'argent alors qu’il s’agissait en réalité d’une voix simulée par intelligence artificielle

Une cyberattaque de bout en bout utilisant l'IA

Les différentes formes de cyberattaques vu précédemment ne sont qu’une infime partie des possibilités. Elles sont en soi une menace mais elles peuvent également être combinées et donner lieux à des attaques où l’IA réalise l’ensemble des actions nécessaires de bout-en-bout : qu’il s’agisse de la reconnaissance de cibles, de l’intrusion dans un système, de l’exécution de commande informatique, de l’élévation de privilège, ou de l’exfiltration dissimulée des données.

Découvrez les enjeux de sûreté de l’IA

Les modèles d’intelligence artificielle basés sur l'apprentissage machine sont très performants mais posent d’importantes questions de sûreté : ils ne se comportent pas toujours tel qu’on le souhaite, et parfois de façon dangereuse. Ce problème de sûreté est particulièrement important dans l’IA puisque ces systèmes deviennent de plus en plus autonomes et restent très largement imprévisibles, à la différence d’autres objets comme les voitures. Bien que les entreprises et les gouvernements aient investi peu de moyens dans la sûreté de l’IA, le sujet pourrait être l’un des enjeux clés du XXIe siècle, comme l’explique une note de l’Institut Montaigne. La sûreté de l’IA concerne trois grands problèmes : la robustesse, l'explicabilité et la spécification des objectifs. Voyons de quoi il s’agit.

Le manque de robustesse de l’IA

La robustesse d'un système d'IA signifie qu'il fonctionnera de manière fiable même dans des situations inconnues - c’est-à-dire des situations qu’il n’aurait pas rencontrées lors de son entraînement. Mais les systèmes d'apprentissage machine se basent sur des corrélations statistiques plutôt que sur une compréhension de la réalité. Par conséquent, lorsque la réalité change et que les corrélations ne sont plus valables, le système d'IA peut réagir de manière inappropriée.

Exemple concret : Supposons qu'un système d'IA soit entraîné pour détecter des objets dans des images de chiens. Il a été alimenté avec un ensemble de données d'entraînement comprenant des images de différentes races de chiens. Le système fonctionne bien et est capable de reconnaître et de classifier correctement les différentes races de chiens dans les images fournies.

Cependant, si le système est soudainement confronté à une image d'un animal inconnu qui ressemble à un chien mais qui n'est pas une race répertoriée dans son ensemble de données d'entraînement, il peut avoir du mal à le classifier correctement. En raison de son manque de compréhension de la réalité sous-jacente de cet animal inconnu, le système d'IA peut prendre une décision incorrecte ou donner une réponse imprévisible.

Un manque de robustesse peut ainsi être une source de danger. D’autant plus que certaines cyberattaques sont explicitement conçues pour exploiter cette vulnérabilité en cherchant à duper le modèle d’IA par de légères modifications des données d’entrée. Un attaquant pourrait cibler les véhicules autonomes en utilisant des autocollants ou de la peinture et modifier la manière dont sera perçu le panneau par le modèle et faire en sorte qu’il interprète un “cédez le passage” plutôt qu’un stop, au détriment des passagers.

Des images floues de panneaux stop.

Les deux images du panneau STOP sont similaires pour l'œil humain, mais quelques modifications invisibles à l'œil nu suffisent pour modifier la perception du modèle d’IA.

Le manque d’explicabilité de l’IA

L’explicabilité et la transparence d’un système d’IA permet à un humain de comprendre et d’analyser son fonctionnement, pour s’assurer qu’il fonctionne de la façon souhaitée. Or aujourd'hui la grande majorité des systèmes d’IA, qui utilisent de l’apprentissage machine, sont des “boîtes noires” qui fonctionnent en autonomie, sans que l’on sache réellement ni comment ni pourquoi. Les systèmes d’IA par apprentissage machine s'appuient sur des données et des méthodes de raisonnement statistiques afin d’apprendre des corrélations. Néanmoins ces corrélations ne reflètent pas nécessairement un lien de causalité.

Une image de règle posée sur la peau

Spécifier les bons objectifs à un système d’IA

Lorsqu'un modèle interagit avec les humains, il est amené à réaliser des actions ou à prendre des décisions qui ont de réels effets sur le monde : il est essentiel que ses objectifs soient bien spécifiés, au risque que ses actions et décisions ne correspondent pas à nos attentes.

Or, en pratique, il est extrêmement difficile de traduire la complexité et la nuance d’objectifs humains en langage informatique, et très facile pour une machine de se méprendre sur l’intention des instructions humaines, en les appliquant à la lettre. C’est le même problème auquel fait face l’apprenti sorcier en ensorcelant des objets avec l’objectif de nettoyer sa maison, comme on l’a vu précédemment.

En spécifiant à une IA de ne pas perdre au jeu Tetris par exemple, le modèle a identifié la meilleure manière de satisfaire la consigne sans pour autant satisfaire les attentes des concepteurs : mettre le jeu en pause dès l’instant où il estime qu’il va perdre la partie. Un autre exemple moins trivial : plusieurs plateformes de vidéos sur internet tentent de proposer des vidéos “que l’utilisateur a envie de voir” en spécifiant à l’IA l’objectif de lui proposer des vidéos qu’il va ensuite regarder dans leur intégralité. Néanmoins, spécifier l’objectif à l’IA de telle sorte conduit l’algorithme à favoriser les vidéos courtes, sensationnelles, ou qui vont dans le sens d’opinions fortes de l’utilisateur. L’utilisateur a en effet plus de chance de les visionner en intégralité, mais ce n'est pas pour autant qu’il s’agit des vidéos qu’il a le plus envie de voir. Comment expliquer à une machine ce qu’on entend réellement par “des vidéos que l’utilisateur a envie de voir” ? Ce n’est pas si simple.

En résumé

  • L’IA peut être utilisée à des fins malveillantes à votre encontre. Pour vous prémunir contre de fausses informations et des attaques en ligne, utilisez votre esprit critique ! Si quelque chose vous semble louche, prenez le temps de vérifier, de croiser vos sources. 

  • L’IA pose des questions de sûreté et ne se comporte pas toujours tel qu’on le souhaite. La sûreté de l’IA constitue un domaine de recherche important et en plein développement. La gouvernance et la réglementation sont également nécessaires pour limiter les risques de l’IA. 

Dans le prochain chapitre, nous allons regarder ensemble les enjeux de responsabilité sociale et environnementale posés par l’utilisation de l’intelligence artificielle.

Example of certificate of achievement
Example of certificate of achievement