Faits marquants de la semaine
- Google s’appuie sur ses modèles Gemini pour analyser des centaines de milliards de signaux et bloquer les publicités malveillantes : 8,3 milliards d’annonces supprimées et 24,9 millions de comptes suspendus en 2025, dont 602 millions d’annonces d’arnaques.
- OpenAI lance GPT‑5.4‑Cyber, une variante de GPT‑5.4 optimisée pour les usages de cybersécurité défensive, présentée comme un accélérateur pour les équipes chargées d’identifier et corriger les failles avant les attaquants.
- Un tribunal américain estime qu’échanger avec le chatbot Claude sur son exposition judiciaire ne bénéficie ni du secret professionnel ni de la protection des travaux d’avocat, les plateformes publiques d’IA n’ayant aucune obligation de confidentialité.
- La Cour fédérale australienne publie une nouvelle note de pratique encadrant l’usage de l’intelligence artificielle générative dans les procédures, et prévient que des sanctions financières ou pénales pourront viser les avocats utilisant des contenus erronés issus d’IA.
Les modèles d’intelligence artificielle deviennent simultanément outils de défense et sources de risques systémiques : Gemini et GPT‑5.4‑Cyber sont déployés pour contrer fraudes et vulnérabilités, tandis que les juridictions commencent à encadrer sévèrement l’usage de ces systèmes, entre remise en cause du secret des échanges avec les chatbots et menaces de sanctions pour les erreurs générées en justice.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
La sélection des 11 actualités à retenir cette semaine
Google supprime 602 millions d'annonces frauduleuses grâce à Gemini.
Google affirme que ses équipes de sécurité travaillent 24 h/24 et 7 j/7 grâce à ses modèles d'IA Gemini pour détecter et bloquer les publicités malveillantes. « Des personnes mal intentionnées utilisent l'IA générative pour créer des publicités… Lire la suite
OpenAI lance GPT-5.4-Cyber avec un accès étendu pour les équipes de sécurité
OpenAI a dévoilé mardi GPT-5.4-Cyber, une variante de son modèle phare GPT-5.4, optimisée pour les applications de cybersécurité défensive, quelques jours après la présentation par son concurrent Anthropic de son propre modèle de pointe, Mythos. « L’utilisation progressive… Lire la suite
Un juge américain a statué que les conversations entre un accusé de fraude et l'IA Claude ne sont pas protégées par le secret professionnel.
Dans une décision rendue en février et qualifiée de première du genre aux États-Unis, le juge Jed Rakoff a estimé que les conversations de Bradley Heppner avec Claude d'Anthropic concernant ses risques juridiques levaient le secret professionnel… Lire la suite
La Cour fédérale australienne met en garde les avocats contre l'utilisation « inacceptable » de l'IA
De nouvelles directives à la profession juridique « encouragent » l'utilisation des technologies, mais prévoient des sanctions pour les avocats qui « induisent le tribunal en erreur » avec des erreurs générées par l'IA. Suivez notre blog… Lire la suite
La Maison Blanche rencontre le PDG d'Anthropic dans l'espoir d'une trêve.
Le PDG de la start-up d'intelligence artificielle Anthropic a rencontré vendredi de hauts responsables de la Maison Blanche, alors que l'inquiétude grandit à Washington quant aux risques de cybersécurité posés par son nouveau modèle d'IA performant –… Lire la suite
Anthropic demande désormais pièce d'identité et selfie pour certains usages de Claude
Pour accéder à certaines fonctionnalités de Claude, Anthropic peut maintenant vous demander une pièce d'identité officielle (passeport, permis de conduire, carte nationale d'identité) et un selfie en temps réel. La vérification est gérée par Persona, un prestataire… Lire la suite
Faille MCP : 200 000 serveurs exposés à l'exécution de code, Anthropic dit que c'est normal
200 000 serveurs. C'est le nombre de machines potentiellement exposées à l'exécution de commandes système arbitraires via une faille de conception dans le SDK MCP d'Anthropic, d'après les chercheurs d'OX Security. L'interface STDIO du protocole permet de… Lire la suite
Le Japon lance son IA souveraine avec 8 géants industriels
Gros chantier IA au Japon. SoftBank a pris la tête d'un consortium qui réunit sept autres poids lourds nationaux : NEC, Honda, Sony, trois banques (MUFG, Sumitomo Mitsui, Mizuho) et deux sidérurgistes (Nippon Steel, Kobe Steel). L'objectif… Lire la suite
Ledger dévoile sa feuille de route en matière de sécurité de l'IA pour l'économie automatisée, en mettant l'accent sur le maintien du rôle de l'humain.
Ledger, fabricant de portefeuilles crypto, a dévoilé une feuille de route en matière de sécurité de l'IA, dans le cadre de son expansion sur le marché émergent de l'économie automatisée, où des agents d'IA autonomes gèrent des… Lire la suite
Les régulateurs européens mis à l'écart sur le modèle de super-piratage anthropique
Les autorités de régulation européennes n'ont pas été informées de la décision de la société américaine Anthropic de restreindre la diffusion de son nouveau modèle d'intelligence artificielle performant. La semaine dernière, Anthropic a annoncé limiter… Lire la suite
OpenAI révoque le certificat de son application macOS suite à un incident malveillant au sein de la chaîne d'approvisionnement d'Axios
OpenAI a révélé qu'un flux de travail GitHub Actions utilisé pour signer ses applications macOS avait téléchargé la bibliothèque malveillante Axios le 31 mars, mais a précisé qu'aucune donnée utilisateur ni aucun système interne n'avait été compromis…. Lire la suite
Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.










