Recevez les nouveaux articles DCOD directement sur Telegram.
🔔 S’abonner au canalMalgré les risques croissants, le Conseil national suisse rejette une réglementation dédiée aux deepfakes.
Le 6 mai 2025, le Conseil national a rejeté par 111 voix contre 70 (et 7 abstentions) une motion portée par le député vaudois Raphaël Mahaim, soutenue par la gauche et le PVL, visant à introduire une réglementation spécifique sur les deepfakes. Ce vote relance le débat sur les limites actuelles du droit suisse face à cette technologie en plein essor.
Une menace bien réelle, mais sous-estimée ?
Les deepfakes sont des contenus audio, vidéo ou images modifiés grâce à l’intelligence artificielle pour imiter de manière réaliste le visage ou la voix d’une personne. Cela peut aller d’une simple animation humoristique à une fausse déclaration vidéo d’une personnalité. Pour les créer, on entraîne un algorithme à analyser de nombreux exemples de la personne ciblée, afin de reproduire ses expressions, sa voix ou ses gestes avec un réalisme saisissant.
Ces techniques sont déjà utilisées dans des campagnes de désinformation, pour manipuler l’opinion publique, tromper des individus ou nuire à la réputation d’une personne. Elles ont permis de fabriquer des contenus pornographiques non consentis, de fausses interviews ou encore d’organiser des escroqueries sophistiquées en imitant la voix et l’image de dirigeants d’entreprise.
Des instruments préventifs et dissuasifs proposés
La motion défendait l’idée que les bases légales existantes sont insuffisantes pour répondre aux risques posés par les deepfakes. Elle proposait de définir clairement cette notion et de distinguer les usages admissibles de ceux qui ne le sont pas.
Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODSur le plan administratif, l’une des mesures phares consistait à rendre obligatoire le signalement explicite des contenus deepfake, afin d’assurer plus de transparence sans restreindre la liberté d’expression, la satire ou la création artistique. Sur les volets civil et pénal, la motion appelait à préciser la responsabilité des auteurs et diffuseurs de deepfakes, ainsi qu’à introduire des infractions spécifiques en cas d’atteinte à la réputation ou à la personnalité.
Le refus du Conseil fédéral et les réponses existantes
Le Conseil fédéral a estimé qu’une réglementation spécifique sur les deepfakes n’était pas opportune. Il a demandé de ne pas créer une réglementation spécifique concernant uniquement les « deepfakes ». Une réglementation de l’IA est déjà prévue. De plus, si un deepfake porte atteinte à l’honneur, à la vie privée ou provoque une escroquerie, les dispositions existantes sont jugées applicables, notamment la nouvelle infraction d’usurpation d’identité (art. 179decies CP) introduite en 2023.
Le droit civil permet aussi de faire valoir les atteintes à la personnalité, à l’image ou à la voix. La responsabilité pour actes illicites s’applique également si les conditions sont remplies. En complément, la Loi sur la protection des données exige l’exactitude des données personnelles, ce qui peut couvrir certaines situations liées aux contenus falsifiés.
Pour en savoir plus
Motion Réglementer les « deep fakes »
Le Conseil fédéral est chargé de proposer à l’Assemblée fédérale une révision législative régulant sur le plan civil, pénal et administratif l’utilisation des deep fakes dans l’espace public.
Décision du 6 mai 2025
23.3563 | Réglementer les « deep fakes » | Bulletin officiel | Le Parlement suisse
Monsieur le conseiller fédéral, vous avez dit tout à l’heure, à l’occasion d’une discussion sur l’intelligence artificielle, qu’il fallait davantage voir l’intelligence artificielle comme une chance que comme un risque. Je fais partie des personnes qui pensent, en effet, qu’il…
Pas de réglementation spécifique pour les « deepfakes »
L’utilisation de « deepfakes » créés par l’intelligence artificielle ne devrait pas être spécifiquement réglementée en Suisse. Le National a rejeté mardi, par 111 voix contre 70, une motion de Raphaël Mahaim (Vert-e-s/VD) à ce sujet.
(Re)découvrez également:
Biométrie : les failles critiques à anticiper pour la cybersécurité en 2025
Face à l’essor de la biométrie, les cyberattaques évoluent. Découvrez les vulnérabilités à surveiller pour sécuriser ces technologies en 2025.
Des agents IT nord-coréens infiltrent des géants du Fortune 500
Des informaticiens nord-coréens opèrent clandestinement dans des entreprises majeures. Une menace discrète mais réelle au cœur du Fortune 500.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
Vous appréciez nos analyses ?
Soutenez DCOD en offrant un café ☕