– Par Fabien Barotin
Source exploitée : Rapport de la DGSI
Contexte
Depuis quelques années, l’intelligence artificielle s’est véritablement ancrée dans le paysage entrepreneurial français. En effet, celle-ci est devenue un formidable outil pour rendre plus efficaces les tâches quotidiennes au sein du monde professionnel. Néanmoins, à bien des égards, l’IA s’avère également une source de risques majeurs, pouvant être utilisée à des fins politiques, par le biais d’ingérences étrangères, ou bien à des fins criminelles. Afin de former à cet enjeu crucial, la DGSI y a récemment consacré une note afin de former les entreprises à ces risques.
Un usage de l’IA aux risques multiples
-
Captation de données sensibles par des entreprises extérieures
Afin de gagner du temps, certaines entreprises peuvent être amenées à utiliser une IA pour traduire des documents parfois confidentiels. Or, les IA « grand public », gratuites et d’autant plus étrangères, stockent les données des utilisateurs afin d’entraîner leurs modèles de réponse. Cette utilisation crée ainsi un risque de fuite de données pouvant favoriser des attaques cybernétiques et la captation par des puissances étrangères.
-
Un conseil faussé par les biais de l’intelligence artificielle
Une entreprise peut également déléguer totalement, et sans vérification a posteriori, ses procédures d’évaluation ou d’aide à la décision à un outil fondé sur l’IA. Or, répondant à des biais manipulables et pas nécessairement les plus pertinents, l’IA peut influencer les opinions, manipuler les comportements et amener l’entreprise à prendre des décisions qui ne sont pas les meilleures. Les risques sont également accrus en cas de dépendance et de confiance totales envers l’IA.
-
Faire l’objet de tentatives d’escroqueries
Plus connues dans l’opinion publique, les tentatives d’escroquerie peuvent également viser les employés d’entreprises, à l’instar des hypertrucages – ou deepfakes –, des messages frauduleux, des faux sites web, etc. En effet, grâce à l’IA, les cybercriminels peuvent analyser rapidement les données publiques de leur cible, mais également copier à la perfection le style humain, voire – dans le cas des deepfakes – falsifier une identité.
Dès lors, la formation du monde professionnel est indispensable
Afin de répondre à tous ces enjeux, la DGSI préconise un encadrement strict et un usage raisonné de l’IA.
Soulignant l’intérêt d’une « culture de la cybersécurité », elle recommande le développement de chartes informatiques internes à l’entreprise visant à former aux points suivants :
- Une prévention accrue du recours à l’IA ;
- Ne pas soumettre de données personnelles ou confidentielles aux IA génératives en libre accès sur Internet ;
- Vérifier les résultats transmis par l’IA, en s’appuyant par exemple sur un expert en cybersécurité au sein de l’entreprise.
En outre, la DGSI préconise de favoriser les IA génératives françaises – répondant aux lois françaises de protection des données – ou bien des outils basés sur l’IA propres à l’entreprise. Cette souveraineté de l’intelligence artificielle permettrait un contrôle accru des données transmises et éviterait les fuites vers des pays ou des entreprises extra-nationales.
En Bref
En bref, si l’intelligence artificielle représente un levier majeur de performance pour les entreprises, elle constitue également une source de risques significatifs. Fuites de données, décisions biaisées et nouvelles formes de cybercriminalité imposent une vigilance accrue. Face à ces menaces, la sensibilisation et la formation des professionnels apparaissent indispensables. En effet, comme tout outil, les usages de l’intelligence artificielle doivent être encadrés et la vérification humaine doit rester au cœur des pratiques. Enfin, le développement d’une IA souveraine et sécurisée s’impose comme un enjeu stratégique pour la protection des entreprises.