L'urgence de la souveraineté numérique en Europe
Les menaces pesant sur la sécurité des données sont de plus en plus nombreuses et complexes, nous obligeant à repenser la protection des données, non seulement comme une question de vie privée, mais aussi comme un enjeu crucial de souveraineté européenne. Cette vision a été exprimée par Bernard Benhamou, expert en gouvernance de l'internet et technologies numériques, et Secrétaire général de l’Institut de la Souveraineté Numérique (ISN).
La sécurité des données comme enjeu politique
Lors de l'événement « The importance of safeguarding your data », organisé par LuxTrust, DEEP by POST Group et Thales au nouveau siège de POST Luxembourg le 14 novembre 2024, Bernard Benhamou a exposé les défis de la sécurité des données et proposé des stratégies de protection. Il a souligné que l'essor de l’intelligence artificielle (IA) et de l’informatique quantique — des technologies appelées à se généraliser dans les années à venir — ne fera qu’accentuer les défis liés à la sécurité des données.
Pour Benhamou, le concept de souveraineté numérique représente un changement de paradigme, où la sécurité des données devient une question politique autant que technique. « La sécurité et la protection sont essentielles, mais nous devons aussi développer une politique industrielle », a-t-il souligné.
Alors que la culture populaire a longtemps spéculé sur la capacité de l'IA à prendre des décisions cruciales, comme celles de vie ou de mort, ces préoccupations ne sont plus uniquement hypothétiques. Bernard Benhamou insiste sur le fait que les politiques en matière d’IA portent en elles des valeurs culturelles. Par exemple, dans les véhicules autonomes, les algorithmes doivent être programmés pour prioriser la vie humaine. Toutefois, les choix éthiques peuvent varier : en Europe, la vie d’un enfant est prioritaire, tandis que dans d’autres pays, les personnes âgées peuvent être privilégiées.
Une perspective élargie sur la protection des données
Bernard Benhamou invite à élargir notre compréhension des menaces pesant sur la sécurité des données. Les cyberattaques, par exemple, ne se limitent plus au vol d'argent ou de secrets militaires. De plus en plus, des hackers, souvent en lien avec des États, cherchent à collecter massivement des données pour entraîner des modèles d'IA, posant ainsi des risques majeurs pour la vie privée et la souveraineté.
Un autre problème concerne la portée extraterritoriale des agences de renseignement, notamment en dehors de l'UE. Bernard Benhamou cite l’exemple des grandes plateformes américaines, qui sont tenues, en vertu du Foreign Intelligence Surveillance Act (FISA), de transmettre des données à la NSA américaine sur demande. Ces pratiques affaiblissent la souveraineté numérique européenne et créent des vulnérabilités dans la protection des données personnelles.
Le microciblage par l'IA, souvent utilisé dans les campagnes de désinformation, représente une menace émergente. Ces campagnes peuvent manipuler l’opinion publique, influencer les décisions politiques et saper les processus démocratiques. Par exemple, Facebook désactive chaque année des milliards de faux comptes utilisés pour orchestrer ces campagnes. Certaines entreprises proposent même des services de désinformation pour influencer les élections en échange de rémunération.
Une économie de surveillance
En s’appuyant sur l'ouvrage de Shoshana Zuboff, « The Age of Surveillance Capitalism » (2018), Bernard Benhamou illustre l’économie de surveillance croissante. « Vous ne cherchez pas sur Google, c'est Google qui vous cherche », cite-t-il, soulignant comment les entreprises analysent les comportements en ligne pour tirer des informations sur les individus. Bien que certaines entreprises technologiques permettent désormais aux utilisateurs de désactiver certaines fonctionnalités de suivi, cela ne suffit pas selon lui. Une action politique est essentielle pour traiter ces questions à grande échelle.
La technologie comme acteur politique
L'IA ne se limite pas à un outil technique ; elle devient un acteur politique à part entière. Citant Kate Crawford et reprenant Clausewitz, Bernard Benhamou affirme que « l'IA est la politique par d'autres moyens ». Selon Yuval Harari, l'IA pourrait même « détourner le chemin culturel de l'humanité », en prenant le contrôle de la création de la religion, de la culture et de l’art.
Bernard Benhamou évoque également les risques d'une surveillance de masse et des systèmes de crédit social, comme celui en place en Chine, où les comportements sont récompensés ou sanctionnés automatiquement. « Nous ne voulons pas de cela en Europe, et c’est pourquoi nous avons besoin de lois robustes régulant l’IA », affirme-t-il.
Le besoin d’une loi unificatrice pour assurer la souveraineté
Bernard Benhamou anticipe que la future administration américaine pourrait adopter une approche plus permissive envers les grandes entreprises technologiques, au détriment de la vie privée et des préoccupations réglementaires. Bien que l'Europe ait déjà adopté des lois telles que le Digital Services Act (DSA), le Digital Markets Act (DMA), le Data Governance Act (DGA) et l'Artificial Intelligence Act (AIA), il soutient qu'il faut aller plus loin. Il appelle à un cadre juridique unificateur : « Nous devons passer du concept de privacy by design à celui d’ethics by design. Nous avons été trop prudents et nous devons changer cela, en reconnectant la politique industrielle avec la réglementation. »
Enfin, Bernard Benhamou souligne la nécessité pour l’Europe de parvenir à une indépendance numérique. Actuellement, 80 % des technologies numériques utilisées en Europe sont importées, et seules quatre des 50 plus grandes entreprises technologiques sont européennes. Pour que l’UE reste souveraine et compétitive, il se réfère au Rapport Draghi, qui propose d’allouer 5 % du PIB européen au développement technologique. Sans de tels investissements, avertit-il, l’Europe risque de devenir une « colonie technologique » des autres continents et de n’avoir qu’un rôle marginal dans l’histoire industrielle.