Intitulée « Risques associés à l’usage de l’intelligence artificielle dans le monde de l’entreprise », la note de la DGSI n°9 met en garde contre une mauvaise utilisation de l’IA dans le cadre professionnel. Sans évidemment nier les apports de l’IA qui permet notamment des « gains de productivité très importants qui en font un outil de plus en plus incontournable », la DGSI (Direction générale de la Sécurité intérieure) préfère avertir des risques potentiels. « Ce développement rapide de l’IA suscite à la fois fascination et inquiétudes. Ces craintes peuvent découler d’une méconnaissance des mécanismes de l’IA, de doutes concernant ses conséquences sur l’emploi, ou encore de préoccupations éthiques liées à la confidentialité et à l’automatisation de la prise de décision » explique la DGSI. Dans le cadre de sa mission de sécurité économique, elle entend donc accompagner les sociétés et les établissements de recherche dans la prise en compte des risques d’ingérences étrangères liés à ces outils novateurs. Une entreprise avertit en vaut deux.
A travers plusieurs exemples éclairants de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA, la DGSI montre ce qu’il convient de faire pour réagir et éviter des problèmes futurs.
Elle évoque notamment ces salariés d’une entreprise française stratégique qui ont utilisé un outil d’IA générative pour traduire des documents confidentiels. Grossière erreur pointée du doigt par la Direction générale de la Sécurité intérieure qui rappelle que les versions grand public des principaux outils d’IA générative, gratuites et standards, utilisent souvent les données entrées par l’utilisateur pour entraîner leurs modèles. La politique de confidentialité de certains outils d’IA générative impose le stockage des données d’utilisateurs dans des serveurs situés à l’étranger, parfois sans obtenir le consentement clair et explicite des utilisateurs. « Ce stockage implique que ces données puissent être soumises à des lois étrangères à portée extraterritoriale et puissent entraîner la responsabilité de l’entreprise. Par ailleurs, la question de la propriété des données issues de l’IA doit également être étudiée au regard des conditions d’utilisation de l’outil » alerte la DGSI. « Le versement d’informations internes aux entreprises dans un outil d’IA générative, particulièrement si elles revêtent un caractère sensible, constitue un risque important de réutilisation de ces informations pour les entreprises concernées » insiste-t-elle.
Autre exemple, celui d’une entreprise française qui a délégué l’évaluation de ses partenaires commerciaux à un outil d’IA créé par une entreprise étrangère, « qui lui fournit un rapport d’évaluation sur son potentiel partenaire ». « Par manque de temps et par méconnaissance des biais potentiels de l’outil, la société ne procède à aucune vérification complémentaire et oriente systématiquement ses décisions en fonction du retour fait par l’outil » souligne la DGSI qui met en garde contre « une dépendance excessive » aux outils d’IA qui peut « diminuer la vigilance humaine ». Sans oublier les pertes de contrôle sur leurs données personnelles ou sur les décisions automatisées par les utilisateurs. « Les IA peuvent aussi reproduire ou amplifier des biais présents dans les données d’entrainement, pouvant mener à des décisions inéquitables ou discriminatoires » ajoute le service de renseignement français. Enfin, « les IA formulent leurs résultats sur la base de la réponse la plus probable à apporter statistiquement parlant et pas nécessairement la plus pertinente, ni exacte, dans le contexte de la question posée » rappelle la DGSI. « L’IA va, par exemple, jusqu’à créer des évènements de toute pièce, on parle dans ce cas d’« hallucination ». Cela peut influencer les opinions, manipuler les comportements ou nuire à la réputation ».
Le dernier exemple est encore plus inquiétant et montre combien il peut y avoir de risques importants si on n’y prend pas garde. La ficelle est même tellement grosse qu’on a même du mal à y croire. Et pourtant : une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage associant le visage et la voix de son dirigeant grâce à l’IA. Le responsable d’un site industriel d’un groupe français a reçu un appel en visio-conférence de la part d’une personne se présentant comme étant le dirigeant du groupe. Au premier abord, cet appel n’a pas suscité la curiosité du responsable, l’apparence physique et la voix de l’individu à l’écran correspondant bien à celles du dirigeant. Néanmoins, l’individu usurpant l’apparence du dirigeant a rapidement demandé au responsable du site de procéder à un transfert de fonds dans le cadre d’un soi-disant projet d’acquisition du groupe. Surpris par le caractère inhabituel de cette démarche, le responsable du site a mis un terme aux échanges et a alerté la direction de sa société par les canaux habituels. Il lui a été confirmé qu’il avait été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix du dirigeant grâce à l’usage d’une IA raconte la DGSI dans sa note.
Le danger est réel et les risques économiques pour une entreprise non négligeables mais sans doute un peu trop… négligés. Pour prévenir, la DGSI fait plusieurs préconisations qui pour certaines peuvent paraître évidentes. Elle recommande aux dirigeant de sociétés d’encadrer l’usage de l’IA au sein de son entreprise en définissant les conditions d’usage de l’outil. « Comme pour tout outil informatique, le cadre d’emploi de l’IA doit être explicité dans la charte informatique. Cette dernière doit préciser les limites de l’utilisation de l’outil et notamment le niveau de sensibilité des informations qui peuvent être confiées à l’IA. Un document interne sous forme de guide pratique peut être envisagé en complément de la charte informatique afin de décrire ce que les collaborateurs sont autorisés à faire ou non avec un système d’IA générative » suggère le service de renseignement. La DGSI milite ensuite en faveur du recours à des IA génératives françaises « qui hébergent leurs données en France et qui respectent le règlement général sur la protection des données (RGPD) ». Il faut aussi privilégier l’utilisation d’IA en local, c’est à dire qui fonctionne directement sur le système d’information (SI) de l’utilisateur, sans nécessiter de connexion constante à un serveur externe. Ainsi, toutes les données traitées restent sur le SI de l’utilisateur, assurant ainsi une plus grande confidentialité et un contrôle renforcé des données. Enfin, la DGSI recommande fortement aux entreprises de former régulièrement leurs équipes à l’usage de l’IA en organisant des ateliers par exemple. Le but est aussi bien « de démystifier l’IA, de rassurer les utilisateurs et de s’assurer de l’appropriation de l’outil que de développer une culture de la cybersécurité ».
La direction préconise par ailleurs une utilisation de l’IA générative de manière raisonnée et en toute transparence en signalant l’utilisation de l’IA générative à sa hiérarchie ou à son client. Elle demande aussi de ne pas intégrer de données personnelles (nom, téléphone, adresse, analyses médicales, photos personnelles, etc.) dans un outil d’IA. « Les IA génératives disponibles gratuitement sur Internet collectent les données soumises par l’utilisateur. Il est donc nécessaire d’anonymiser systématiquement les requêtes effectuées. Par mesure de précaution, il est préférable de ne pas utiliser ces outils pour des tâches sensibles, comme la rédaction de comptes-rendus de réunions confidentielles ». Il faut encore faire preuve de vigilance face à la manipulation de l’information et les réponses biaisées. « Certains modèles d’IA générative sont conditionnés, dès leur phase d’apprentissage, pour éluder certaines questions ou thématiques, ou encore pour relayer des informations manipulées, voire de la propagande ». Et enfin vérifier l’exactitude et la pertinence des résultats obtenus en s’appuyant sur des experts qualifiés.
Comme ultime conseil, la DGSI demande de l’avertir de tout évènement suspect lié à l’utilisation de l’IA sur son adresse dédiée (Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser.). Voilà les chefs d’entreprises prévenus. ■
