• 6 hours
  • Easy

Free online content available in this course.

course.header.alt.is_certifying

Got it!

Last updated on 10/26/23

Identifiez les enjeux d’une IA responsable et digne de confiance

 

Découvrez les enjeux de données

Nous l’avons vu, les géants du numérique collectent beaucoup de données. Elles sont utilisées à des fins publicitaires, mais pas seulement. Avec l’avènement de l’intelligence artificielle, elles permettent d’automatiser certaines tâches. Ainsi, des décisions sont prises non plus par des humains mais par des algorithmes.

L’utilisation de données par les algorithmes d’IA vous concernent notamment : lorsqu’il s’agit de vos données personnelles, et lorsque ces données sont biaisées. Nous allons examiner chacun des cas.

Contrôlez l’utilisation de vos données personnelles

Vous échangez des emails tout au long de la journée. Pour vous déplacer, vous ouvrez sans doute vos applications d’itinéraires préférées. Vous utilisez des services numériques au quotidien.

Majoritairement, ces services, le plus souvent gratuits, ont un revers de la médaille à ne pas négliger. Lorsque vous les utilisez, les données produites peuvent être compilées et analysées, notamment à des fins publicitaires. Votre profil est ensuite analysé au fil des utilisations pour vous proposer les publicités les mieux ciblées et les fonctionnalités correspondant aux habitudes observées.

Un adage résume ce mécanisme : “si c’est gratuit, c’est que vous êtes le produit !”. Celui-ci se vérifie chez la grande majorité des géants du numérique et constitue souvent le cœur de leur modèle économique.

Comment alors m'assurer que mes données ne sont pas utilisées à des fins indésirables ?

En utilisant votre esprit critique ! Lorsque vous utilisez un service numérique, prenez un peu de temps pour identifier les données qui sont récoltées et pour comprendre comment elles peuvent être utilisées. 

Par exemple, lorsqu’on vous demande d’identifier des images pour prouver que vous n'êtes pas un robot (système CAPTCHA), vous participez à entraîner des algorithmes de reconnaissance d’images. Lorsque vous acceptez que votre activité sur une page soit suivie, en consentant aux “cookies”, vous permettez à des algorithmes de vous proposer des publicités ciblées en fonction de vos préférences.

Certaines pratiques vous paraîtront acceptables et d’autres non. L’important, c’est d’en être conscient !

Dans certains pays, on observe certaines utilisations qui peuvent poser question. C’est le cas de la Chine où on assiste à une surveillance de l'État qui analyse l’activité web de ses citoyens ainsi que leurs déplacements et comportements par reconnaissance d’images, les villes étant en majorité vidéosurveillées. Les données des citoyens et des systèmes d’IA sont utilisées pour attribuer à chaque citoyen un score en fonction de ses actions, qui lui permettra ensuite d’accéder plus ou moins facilement à des services, comme des crédits ou les transports, par exemple.

Comment garder le contrôle sur les données qui sont collectées ?

Concernant les services des géants du numérique, vous pouvez dans un premier temps consulter les informations collectées (par exemple pour Google, vous pouvez ici voir toutes vos données enregistrées) pour mieux comprendre leur nature. N’hésitez pas ensuite à modifier vos paramètres de confidentialité ! Par exemple, le pistage GPS des applications d'itinéraires, de sport ou de matching peut être désactivé. Vous pouvez également réduire leur activation en choisissant uniquement de l’activer lorsque vous utilisez les applications. 

Existe-t-il des acteurs qui ne collectent pas de données ?

Oui, des acteurs comme Qwant, Firefox ou Framasoft ne collectent pas ou ne font pas usage des données personnelles.

Soyez conscient du risque de biais

Nous allons le voir, les algorithmes peuvent reproduire les biais. Les algorithmes ne sont jamais neutres, car ils s’appuient sur des bases de données d’apprentissage. Les données peuvent être biaisées par exemple en étant une représentation imparfaite du monde (tel qu'un algorithme de reconnaissance visuelle qui apprend majoritairement sur des sujets blancs), ou en imitant un monde imparfait. Ainsi, si les données contiennent des traces de discrimination, l'algorithme pourra à son tour avoir un comportement discriminatoire.

Prenons un exemple concret : celui du recrutement. Les directions des ressources humaines aujourd’hui utilisent de plus en plus de solutions d’intelligence artificielle. Par exemple, des logiciels analysent automatiquement les documents tels que les CV pour retenir les profils les plus pertinents.

Ainsi, en 2015, Amazon a mis au point un logiciel de recrutement pour analyser les candidatures à ses offres d’emploi. Amazon a réalisé que l’algorithme était en fait biaisé à l’encontre des candidatures féminines. Le système écartait de lui-même plus souvent les candidatures de femmes que celles des hommes.  Et pour cause : le système avait été entraîné sur les données de l’organigramme des employés d’Amazon où 85 % des effectifs étaient masculins. Une fois cette information révélée, Amazon a décidé d’abandonner l’outil.

Bien entendu, de telles dérives ne sont pas systématiques, et de nombreux services à base d’intelligence artificielle sont tout à fait utiles. Dans le cas du recrutement, les services proposés sont souvent pertinents pour le chercheur d’emploi.

Si vous consultez par exemple des offres d’emploi, des systèmes d’IA sont mis en place pour vous présenter les offres qui correspondent le mieux à votre profil.

Le point de vigilance est que ces produits soient au service de tout le monde, qu’ils ne reproduisent pas des comportements sexistes ou racistes, par exemple. Il faut donc garder un esprit critique envers ces solutions d’IA qui nous entourent et exiger de la transparence de ces systèmes.

Découvrez les enjeux écologiques 

On entend parfois dire que la donnée est le nouveau pétrole du XXIe siècle. L’intelligence artificielle carbure à ce nouvel or noir.

Mais quel est l’impact environnemental de cette industrie ?

Pour fonctionner, l’économie numérique repose sur tous nos périphériques digitaux (smartphones, ordinateurs, tablettes, etc.), mais aussi sur de nombreuses infrastructures qui sont moins visibles du grand public : les réseaux fixes et mobiles, les réseaux d’entreprises et les centres de données ou data centers. Ces centres abritent les serveurs qui rendent possibles Internet et ses services.

Concrètement, dès que vous utilisez Internet ou un de ses services, vous sollicitez un serveur dans le monde qui va traiter votre demande et y apporter une réponse. Et pour cela, le serveur va consommer de l’énergie !

Et à échelle individuelle, comment limiter notre impact écologique au quotidien ?

Au quotidien, on peut œuvrer à réduire son empreinte écologique numérique. Il y a des gestes simples ; par exemple : supprimer ses vieux emails, se désabonner des newsletters inutiles ou limiter son usage des plateformes de streaming.

Le développement de l’intelligence artificielle s’ajoute tout de même à cet impact environnemental. En effet, l’intelligence artificielle demande de grandes capacités de stockage et de grandes capacités de calcul. Si les algorithmes du quotidien sont si performants, c’est notamment parce qu’ils ont été entraînés pendant des journées entières en utilisant des serveurs extrêmement puissants et très consommateurs d’énergie.

Bien que les algorithmes d’IA soient très énergivores, de nombreuses applications permettent d’améliorer les chaînes de production ainsi que notre consommation de ressources et d’énergie.

Limitez et prévenez les risques avec la gouvernance de l’IA

Nous l’avons vu, la recherche en sûreté de l’IA est essentielle pour tenter de résoudre les problèmes de l’explicabilité, de la robustesse et de la spécification des objectifs. La recherche sera tout aussi clé pour limiter les biais de l’IA et son impact environnemental. Mais proposer des solutions à ces problèmes techniques ne garantit pas que les acteurs qui développent l’IA s’en serviront. Pour cela, il faut s’intéresser à la gouvernance de l’IA.

S’intéresser à la gouvernance c’est réfléchir aux manières de développer, financer, encadrer, et réguler l’intelligence artificielle d’une manière qui s’accorde avec l’intérêt général.

Les entreprises ont souvent peu d’intérêt économique à investir dans la sûreté de l’IA qu’ils déploient. En particulier, les entreprises à la pointe de l’IA se font la course pour développer l’IA la plus puissante. Cette dynamique peut nuire à la bonne prise en compte des questions de sûreté, puisque le budget alloué à la sûreté est un budget qui n’est pas dédié aux activités rentables.

Dans ces conditions, les institutions jouent un rôle important pour réunir les acteurs autour de la table et favoriser la coordination, ajouter des incitations pour faire advenir des comportements positifs, ou encore, imposer de nouvelles règles aux acteurs. L’Union européenne (UE) construit actuellement une réglementation nommée AI Act qui a pour objectif de favoriser le bon développement et réduire les risques posés par l’IA. Toutes les entreprises qui utilisent de l’IA devront s’y conformer à partir de 2025. Si vous travaillez dans l’une d’elles, vous savez désormais pourquoi elle vous concerne !

En résumé

  • L’IA fait usage de données. Ces données peuvent être les vôtres, ou elles peuvent être biaisées. Il faut en être conscient. 

  • L'IA utilise beaucoup d'énergie. L'optimisation de ses coûts écologiques est un sujet important à garder en tête pour le futur. 

  • La recherche ne suffit pas pour développer une IA sûre, responsable et de confiance. La gouvernance permet d’encourager, voire d’obliger, les entreprises à développer une IA sûre et au service de l’intérêt général.

Dans le prochain chapitre, vous découvrirez l'impact de l'intelligence artificielle sur le marché du travail et sur les emplois en général.

Example of certificate of achievement
Example of certificate of achievement