TL;DR : L’essentiel
- Le fondateur de l’application Signal lance Confer, une initiative visant à reproduire pour l’intelligence artificielle la révolution de la confidentialité qu’il a menée pour les messageries instantanées.
- La solution repose sur l’attestation à distance et des journaux de transparence signés, permettant de vérifier bit par bit que seul le logiciel public et audité s’exécute sur les serveurs.
- Le modèle actuel des assistants IA est dénoncé comme un leurre cognitif : une interface intime qui cache un « chat de groupe » accessible aux entreprises, annonceurs et potentiels hackers.
- Face à cette surveillance, d’autres acteurs comme Proton Lumo et Venice rejoignent le mouvement, proposant respectivement un chiffrement par clés complexes ou un stockage strictement local.
Après avoir normalisé le chiffrement de bout en bout pour nos communications écrites, le créateur de Signal s’attaque à un défi bien plus intime : sécuriser nos conversations avec les intelligences artificielles. Partant du constat que l’IA conversationnelle invite naturellement à la confidence et à l’exploration d’idées inachevées, il propose une nouvelle infrastructure technique pour garantir que ces échanges restent strictement privés. L’objectif est de transformer ce qui est aujourd’hui un « journal intime stocké sur une API » en un véritable espace de réflexion clos, inaccessible aux regards extérieurs.
Répliquer le modèle Signal : Du message au modèle mental
L’ambition affichée est claire : faire pour l’IA ce qui a été fait pour la messagerie. Comme l’explique le blog de Confer, le problème actuel réside dans la dissonance entre l’interface et l’infrastructure. L’utilisateur, conditionné par des millénaires de dialogue humain, traite l’IA comme un confident, livrant le contexte de sa pensée, ses doutes et ses raisonnements bruts. Or, techniquement, il s’adresse à un « lac de données » conçu pour l’extraction de sens.
Cette vulnérabilité expose l’utilisateur à un risque : voir son propre modèle mental cartographié et exploité. Sans protection adéquate, ces « confessions » alimenteront inévitablement des systèmes publicitaires futurs, capables d’utiliser vos hésitations et votre cheminement intellectuel pour vous persuader, exactement comme si un tiers payait votre thérapeute pour influencer vos décisions. Le projet vise donc à briser cette boucle de rétroaction où nos pensées deviennent des ciblages publicitaires.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

L’attestation à distance : Une preuve mathématique de confidentialité
Pour concrétiser cette promesse, la solution technique ne repose pas sur la confiance, mais sur la vérification cryptographique. Selon Ars Technica, le système utilise l’attestation à distance pour garantir l’intégrité du code serveur. Contrairement aux grandes plateformes opaques, chaque version du logiciel est signée numériquement et consignée dans un journal de transparence. Cela permet à n’importe quel observateur de reproduire les sorties bit par bit et de confirmer que le logiciel proxy public — et uniquement lui — est celui qui traite les données.
Cette rigueur technique contraste avec les conditions d’utilisation floues des géants du secteur, qui conservent souvent des accès pour la modération ou l’entraînement des modèles. D’autres alternatives tentent également de combler ce vide sécuritaire, comme Proton Lumo qui utilise un système complexe de clés symétriques et asymétriques, ou Venice qui évacue le problème du serveur en stockant tout localement. Mais l’approche du fondateur de Signal se distingue par sa volonté de sécuriser le cloud lui-même, rendant la confidentialité « native » et vérifiable, quel que soit le terminal utilisé.
En redéfinissant les standards de l’IA privée, cette initiative pourrait bien forcer l’industrie à pivoter vers plus de transparence, avant que nos processus cognitifs ne deviennent définitivement des marchandises publicitaires.
FAQ : Concepts clés de la confidentialité
Qu’est-ce qu’une IA confidentielle ?
L’IA Confidentielle (ou Confidential AI) est une technologie de cybersécurité avancée qui permet de protéger les données pendant qu’elles sont analysées par l’intelligence artificielle.
Pour comprendre, il faut savoir que les données ont généralement trois états :
Au repos : Stockées sur un disque dur.
En transit : Lorsqu’elles voyagent sur Internet.
En cours d’utilisation : Lorsqu’elles sont traitées par le processeur pour générer une réponse.
La plupart des systèmes sécurisent les deux premiers états. L’IA Confidentielle va plus loin en sécurisant le troisième : l’état « en cours d’utilisation ».
Concrètement, l’IA et les données sont isolées dans une « enclave sécurisée » (un coffre-fort numérique au sein du processeur). Cela rend les données techniquement illisibles pour quiconque extérieur à cette enclave, y compris le fournisseur du cloud ou l’administrateur système, même au moment précis où l’IA travaille dessus.
Qu’est-ce que l’attestation à distance ?
C’est un mécanisme de sécurité qui permet à l’utilisateur de vérifier l’intégrité du logiciel exécuté sur un serveur distant. Le serveur fournit une signature cryptographique prouvant que le code qui tourne est exactement le même que la version publique et auditée. Si le code est modifié (par exemple pour espionner), la signature change et l’attestation échoue.
Que signifie le chiffrement de bout en bout (E2EE) ?
C’est une méthode de sécurisation où seuls l’expéditeur (vous) et le destinataire (ici, l’IA sécurisée) possèdent les clés pour lire les messages. Les données transitent de manière illisible pour tous les intermédiaires : fournisseurs d’accès, hébergeurs cloud, et même l’entreprise qui fournit le service. Personne d’autre ne peut techniquement déchiffrer le contenu.
Qu’entend-on par confidentialité « native » ?
Cela désigne une protection intégrée dès la conception de l’architecture (Privacy by Design), et non ajoutée après coup ou via une option à cocher. Dans ce modèle, la confidentialité ne dépend pas d’une promesse légale (Conditions Générales d’Utilisation) mais d’une barrière technique infranchissable par défaut, rendant la surveillance impossible structurellement.
Cette veille vous est utile ?
Offrez un café pour soutenir le serveur (et le rédacteur).