Faits marquants de la semaine
- De faux informaticiens liés à la Corée du Nord utiliseraient des outils d’intelligence artificielle, dont des modificateurs de voix et de faux profils renforcés par des identités volées, pour décrocher des emplois distants et renvoyer leurs salaires vers Pyongyang.
- Le modèle d’IA Claude a été propulsé en tête des classements d’applications gratuites aux États-Unis, devant ChatGPT, après avoir été blacklisté par le Pentagone pour des motifs éthiques, tout en progressant fortement aussi au Royaume-Uni.
- L’armée américaine aurait utilisé le modèle Claude pour préparer des frappes en Iran quelques heures seulement après l’annonce d’une rupture officielle avec son éditeur, illustrant la difficulté de retirer des outils d’IA déjà intégrés aux opérations militaires.
- Près de 900 employés de Google et d’OpenAI ont signé une lettre ouverte fixant deux lignes rouges pour l’IA militaire — refus de la surveillance de masse et des armes autonomes sans supervision humaine — dans un contexte de bras de fer entre Anthropic et le Pentagone.
Les usages militaires et para-étatiques de l’intelligence artificielle s’imposent comme ligne de fracture centrale : entre armée américaine s’appuyant sur Claude malgré les interdictions, pression du Pentagone sur les fournisseurs, mobilisation inédite des salariés des grands groupes et détournement d’outils d’IA par des acteurs étatiques comme la Corée du Nord, la gouvernance de ces technologies devient un enjeu stratégique immédiat.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
La sélection des 11 actualités à retenir cette semaine
Des agents nord-coréens utilisent l'IA pour tromper des entreprises occidentales et se faire embaucher, selon Microsoft.
Une entreprise affirme que des outils d'IA masquent l'identité de faux candidats, qui détournent ensuite les salaires d'emplois informatiques à distance vers la Corée du Nord. De faux informaticiens déployés par la Corée du Nord utilisent des… Lire la suite
Le modèle d'IA d'Anthropic, Claude, voit sa popularité augmenter suite à une querelle avec l'armée américaine.
Claude grimpe en tête des classements de l'App Store aux États-Unis et au Royaume-Uni après avoir été mis sur liste noire par le Pentagone pour des raisons éthiques. Le modèle d'IA Claude a vu sa popularité exploser… Lire la suite
L'armée américaine aurait utilisé Claude lors de frappes en Iran malgré l'interdiction de Trump.
L'utilisation de Claude lors du bombardement massif mené conjointement par les États-Unis et Israël contre l'Iran, qui a débuté samedi, a été rapportée par le Wall Street Journal et Axios . Lire la suite
Près de 900 employés de Google et OpenAI réclament des limites sur l'IA militaire
Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l'usage militaire de l'IA. Le nombre de signataires est monté… Lire la suite
OpenAI défie les géants de la sécurité avec un nouvel agent IA
OpenAI a présenté un agent de sécurité applicatif conçu pour analyser en profondeur le contexte du projet de l'utilisateur afin d'identifier les vulnérabilités complexes et de minimiser les faux positifs. Cet agent, Codex Security, est actuellement en… Lire la suite
Les traductions automatiques ajoutent des « hallucinations » aux articles de Wikipédia
Les contributeurs de Wikipédia ont mis en place de nouvelles règles et restreint l'accès à certains contributeurs rémunérés pour traduire des articles existants de Wikipédia dans d'autres langues à l'aide de l'IA. Cette décision fait suite à… Lire la suite
Une cyberattaque contre des agences gouvernementales mexicaines met en lumière la menace que représente l'IA.
En utilisant Claude d'Anthropic, ChatGPT d'OpenAI et un scénario détaillé, une poignée de cybercriminels auraient obtenu l'accès aux données d'agences gouvernementales et de leurs citoyens. Lire la suite
L'outil CyberStrikeAI est adopté par les pirates informatiques pour des attaques basées sur l'IA.
Des chercheurs avertissent qu'une plateforme de test de sécurité IA open source récemment identifiée, appelée CyberStrikeAI, a été utilisée par le même acteur malveillant à l'origine d'une récente campagne ayant compromis des centaines de pare-feu Fortinet FortiGate…. Lire la suite
Transparent Tribe utilise l'IA pour produire en masse des implants de logiciels malveillants dans le cadre d'une campagne ciblant l'Inde.
Le groupe de cybercriminels Transparent Tribe, lié au Pakistan, est le dernier en date à utiliser des outils de programmation basés sur l'intelligence artificielle (IA) pour implanter divers logiciels malveillants à ses cibles. L'objectif de cette activité… Lire la suite
Sam Altman admet qu'OpenAI ne peut pas contrôler l'utilisation de l'IA par le Pentagone.
Les déclarations du PDG interviennent dans un contexte de surveillance accrue de l'utilisation de cette technologie par l'armée américaine et de préoccupations éthiques soulevées par les travailleurs du secteur de l'IA. Lire la suite
Une faille dans le panneau d'intelligence artificielle Gemini de Google ouvre la porte à un détournement.
Les attaquants auraient pu exploiter cette vulnérabilité pour élever leurs privilèges, violer la vie privée des utilisateurs lors de leur navigation et accéder à des ressources sensibles. Lire la suite
Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.










