Evolution de la surveillance dans le Web3 - Partie 1 : "Face à la surveillance portée par l’IA"
la combinaison de l’intelligence artificielle et des systèmes de données centralisés constitue une menace importante pour la vie privée et la liberté d’expression. La leçon d’aujourd’hui approfondit la nature changeante de la surveillance et souligne le rôle essentiel des systèmes décentralisés pour contrer ces défis.
"Face à la surveillance pilotée par l’IA, nous avons besoin d’un traitement informatique confidentiel décentralisé" discute des dangers croissants de la surveillance pilotée par l’IA et préconise des solutions décentralisées pour protéger la confidentialité et l’autonomie des utilisateurs.
Face à la surveillance alimentée par l’IA, nous avons besoin d’une informatique confidentielle décentralisée
À mesure que la surveillance de l’IA se développe, DeCC offre une approche décentralisée pour protéger les informations confidentielles avec transparence et responsabilité.
Par Yannik Schrade
Oct. 26, 2024 at 2:21 pm UTC
Couverture/illustration via CryptoSlate. L’image comprend du contenu combiné qui peut inclure du contenu généré par AI.Lorsque le CTO de l’IA d’Oracle, Larry Ellison, a partagé sa vision d’un réseau mondial de surveillance alimenté par l’IA qui maintiendrait les citoyens dans leur "meilleur comportement", les critiques se sont empressés de faire des comparaisons avec 1984 de George Orwell et de décrire son discours d’entreprise comme dystopique. La surveillance de masse est une violation de la vie privée, a des effets psychologiques négatifs et incite les gens à ne pas participer aux protestations.
Mais le plus troublant dans la vision d’avenir d’Ellison est que la surveillance de masse alimentée par l’IA est déjà une réalité. Pendant les Jeux olympiques de cette année, le gouvernement français a engagé quatre entreprises technologiques - Videtics, Orange Business, ChapsVision et Wintics - Pour effectuer la vidéosurveillance à Paris, en utilisant des analyses basées sur l’IA pour surveiller le comportement et alerter la sécurité.
La réalité croissante de la surveillance de masse alimentée par l’IA
Cette politique controversée a été rendue possible par la législation adoptée en 2023, qui permet le développement d’un nouveau logiciel d’IA pour analyser les données sur le public. Bien que la France soit le premier pays de l’Union européenne à légaliser la surveillance basée sur l’IA, l’analyse vidéo n’est pas nouvelle.
Le gouvernement du Royaume-Uni a installé pour la première fois CCTV dans les villes pendant les années 1960, et en 2022, 78 des 179 pays de l’OCDE utilisaient l’IA pour les systèmes publics de reconnaissance faciale. La demande de cette technologie devrait augmenter à mesure que l’IA progresse et permet des services d’information plus précis et à plus grande échelle.
Historiquement, les gouvernements ont profité des progrès technologiques pour améliorer les systèmes de surveillance de masse, souvent en engageant des entreprises privées pour faire le sale boulot à leur place. Dans le cas des Jeux Olympiques de Paris, les entreprises technologiques ont pu tester leurs modèles de formation en IA à l’échelle d’un événement public, Obtenir des informations sur l’emplacement et le comportement de millions de personnes qui assistent aux jeux et s’occupent de leur vie quotidienne dans la ville.
Vie privée vs. sécurité publique : le dilemme éthique de la surveillance par l’IA
Les défenseurs de la vie privée comme moi argumenteraient que la vidéosurveillance empêche les gens de vivre librement et sans anxiété. Les politiciens qui utilisent ces tactiques peuvent prétendre qu’elles sont utilisées au nom de la sécurité publique; la surveillance garde également les autorités sous contrôle, par exemple en exigeant que les policiers utilisent des caméras corporelles. Premièrement, la question se pose de savoir si les entreprises technologiques doivent avoir accès aux données publiques, mais aussi à la quantité d’informations sensibles qui peuvent être stockées et transférées en toute sécurité entre plusieurs parties.
Ce qui nous amène à l’un des plus grands défis de notre génération : le stockage d’informations sensibles en ligne et la façon dont ces informations sont gérées entre les différentes parties. Quelle que soit l’intention des gouvernements ou des entreprises qui collectent des données privées grâce à la surveillance de l’IA, que ce soit pour la sécurité publique ou les villes intelligentes, il doit y avoir un environnement sûr pour l’analyse des données.
Informatique confidentielle décentralisée : une solution pour la confidentialité des données de l’IA
Le mouvement pour l’informatique confidentielle décentralisée (DeCC) donne un aperçu de la façon d’aborder ce problème. De nombreux modèles de formation à l’IA, tels que Apple Intelligence, utilisent des environnements d’exécution fiables (TEEs) qui dépendent d’une chaîne logistique avec des points de défaillance uniques nécessitant la confiance de tiers, de la fabrication au processus de certification. DeCC vise à éliminer ces points de défaillance uniques, en établissant un système décentralisé et sans confiance pour l’analyse et le traitement des données.
En outre, le DeCC pourrait permettre l’analyse des données sans déchiffrer les informations confidentielles. En théorie, un outil d’analyse vidéo construit sur un réseau DeCC peut alerter d’une menace pour la sécurité sans exposer des informations confidentielles sur les individus qui ont été enregistrés aux parties surveillées avec cet outil.
Plusieurs techniques décentralisées d’informatique confidentielle sont actuellement à l’essai, notamment les tests de connaissance zéro (ZKP), le chiffrement entièrement homomorphe (FHE) et le calcul multipartie (MPC). Toutes ces méthodes tentent essentiellement de faire la même chose - vérifier les informations essentielles sans révéler des informations sensibles d’aucune partie.
MPC est devenu le leader de DeCC, permettant un règlement transparent et une divulgation sélective avec la plus grande puissance de calcul et l’efficacité. Les MPCs permettent la construction d’environnements multipartites (MXE). Conteneurs virtuels et chiffrés dans lesquels tout programme informatique peut être exécuté de manière entièrement chiffrée et confidentielle.
Dans le contexte, cela permet à la fois la formation sur les données chiffrées hautement sensibles et isolées ainsi que l’inférence en utilisant des données chiffrées et des modèles chiffrés. Dans la pratique, la reconnaissance faciale pourrait donc être effectuée en gardant ces données cachées aux parties qui traitent ces informations.
Les analyses obtenues à partir de ces données pourraient alors être partagées entre différentes parties concernées, telles que les autorités chargées de la sécurité. Même dans un environnement fondé sur la surveillance, il est possible d’introduire au moins une transparence et une responsabilisation dans la surveillance qui s’exerce en maintenant la plupart des données confidentielles et protégées.
Bien que la technologie informatique confidentielle décentralisée soit encore à un stade de développement, son apparition met en évidence les risques associés aux systèmes de confiance et offre une méthode alternative pour chiffrer les données. Aujourd’hui, l’apprentissage automatique est intégré dans presque tous les secteurs, de la planification urbaine à la médecine, en passant par le divertissement.
Pour chacun de ces cas d’utilisation, les modèles de formation sont basés sur les données de l’utilisateur et le DeCC sera essentiel pour assurer la confidentialité individuelle et la protection des données à l’avenir. Pour éviter un avenir dystopique, nous devons décentraliser l’intelligence artificielle.
Article original en anglais : https://cryptoslate.com/in-the-face-of-ai-powered-surveillance-we-need-decentralized-confidential-computing/