Archives du mot-clé #SécuritéNumérique

Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Alors que les géants de la tech assurent avoir sécurisé leurs modèles, une équipe italienne a réussi à contourner toutes les barrières : en utilisant de simples poèmes, ils ont poussé des intelligences artificielles à expliquer comment fabriquer des bombes. Un avertissement sévère pour l’avenir de la sécurité numérique.

Lire la suite: Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Les révélations venues d’Italie font l’effet d’un séisme dans le monde de l’intelligence artificielle. Des chercheurs sont parvenus à détourner les garde-fous des modèles les plus sophistiqués, notamment Claude d’Anthropic, pour leur faire délivrer des informations sensibles sur la construction d’explosifs. Ils n’ont pas utilisé des codes complexes ni des attaques informatiques avancées. Ils ont utilisé la poésie. Un procédé simple, inattendu, mais redoutable, qui interroge la robustesse réelle des technologies censées protéger le public des usages les plus dangereux.

Les scientifiques expliquent avoir dissimulé des instructions explicites dans des vers ou des demandes métaphoriques. Ces formulations détournées ont suffi pour tromper les filtres qui empêchent normalement les IA d’aborder des sujets illégaux. Certaines réponses fournies par les modèles ont même été qualifiées « d’ingénieures ». Ce point est déterminant : si une IA peut révéler sous la contrainte poétique ce qu’elle est censée refuser, cela signifie que ses mécanismes de protection reposent souvent sur des règles linguistiques trop rigides, incapables de déceler le sens implicite d’un texte.

Le rapport souligne que les systèmes testés ont été perturbés non seulement par les questions ambiguës, mais aussi par des choix de style destinés à « détourner » leur capacité d’interprétation sémantique. Cette méthode montre que les modèles peuvent être manipulés sans violence technologique, sans piratage, sans intrusion. La faille vient du langage, de son infini potentiel d’ambiguïtés et de détours. Pour un outil conçu pour comprendre la langue, c’est là que réside son plus grand point faible.

Le choc a été d’autant plus important que ces tests ont été effectués sur des IA considérées comme les plus prudentes, celles dont la philosophie est fondée sur la sécurité maximale. Anthropic a immédiatement réagi, affirmant que la version de Claude utilisée pour l’expérience était ancienne et partiellement désactivée, tout en assurant avoir renforcé les protections dans ses nouveaux modèles. Mais cette réponse n’efface pas la question centrale : si des chercheurs peuvent contourner les garde-fous, qu’en serait-il de personnes mal intentionnées ?

L’enjeu dépasse la seule technologie. Il concerne directement la sécurité publique, la régulation internationale et la responsabilité des entreprises. Les outils d’IA sont désormais accessibles au grand public, intégrés dans les téléphones, les plateformes de travail et même les services administratifs. Ils ont pénétré la vie quotidienne à une vitesse vertigineuse, souvent plus vite que les capacités des États à les encadrer. L’épisode italien démontre que l’innovation précède encore une fois la réflexion politique. Et lorsqu’un modèle peut être détourné pour fournir des instructions dangereuses, c’est l’ensemble du tissu social qui se trouve exposé.

L’incident révèle aussi une tension profonde : les sociétés technologiques déploient des modèles toujours plus puissants, capables d’ingurgiter et d’analyser des milliards de données, mais les mécanismes destinés à les contrôler restent fragiles et essentiellement réactifs. On corrige après les incidents, rarement avant. Cette logique d’ajustement permanent laisse des zones d’ombre où les vulnérabilités s’accumulent.

Pour La Boussole-infos, cet épisode constitue un marqueur important de notre époque : l’intelligence artificielle n’est pas seulement un outil de progrès ou de productivité. Elle peut devenir un risque majeur si la sécurité n’est pas anticipée avec la même rigueur que la recherche de performance. Ce scandale scientifique agit comme un rappel brutal que la technologie est toujours à double tranchant. Elle ouvre des possibilités immenses, mais expose aussi à des dérives inattendues.

Dans les semaines à venir, il faudra observer la réaction des institutions européennes, qui finalisent encore les mécanismes de l’AI Act, et mesurer si les mesures prévues suffiront à empêcher d’autres scénarios similaires. La question n’est plus seulement de savoir ce que les IA peuvent faire, mais ce qu’elles peuvent être forcées à faire. Et si la poésie permet déjà de contourner leurs défenses, qu’en serait-il demain face à des méthodes plus élaborées ?

Celine Dou, La Boussole-infos

Cambodge : La face cachée des arnaques en ligne; Quand des Sud-Coréens deviennent esclaves numériques

Au Cambodge, des milliers de Sud-Coréens sont victimes d’escroqueries en ligne orchestrées par des réseaux criminels internationaux. Séquestrés, exploités et parfois contraints à la fraude, ils risquent des poursuites judiciaires dans leur pays d’origine. Une analyse géopolitique et sociale de ce phénomène inquiétant.

Lire la suite: Cambodge : La face cachée des arnaques en ligne; Quand des Sud-Coréens deviennent esclaves numériques

Dans les quartiers animés de Phnom Penh, entre les hôtels aux façades clinquantes et les enseignes en chinois, se cache une réalité sordide. Des milliers de Sud-Coréens, attirés par des promesses d’emplois alléchants, se retrouvent piégés dans des centres d’escroquerie en ligne. Sous la menace de violences physiques et psychologiques, ils sont contraints de participer à des fraudes numériques, souvent sans possibilité d’évasion.

Une exploitation numérique transnationale

Les autorités cambodgiennes estiment que plus de 3 400 personnes, originaires de 20 pays différents, ont été victimes de ces réseaux criminels. Bien que la majorité aient été identifiées comme victimes et expulsées, 75 suspects ont été formellement inculpés. Les opérations criminelles, souvent dirigées par des organisations mafieuses chinoises, génèrent des milliards de dollars annuellement.

Pour les victimes sud-coréennes, la situation est d’autant plus complexe. Si elles parviennent à s’échapper, elles risquent des poursuites judiciaires dans leur pays d’origine, les considérant parfois comme complices de ces arnaques. Cette double peine exploitation au Cambodge et persécution en Corée du Sud souligne la gravité de la situation.

Une coopération internationale nécessaire

Face à cette crise, la coopération entre le Cambodge et la Corée du Sud est essentielle. Des interdictions de voyage ont été imposées dans certaines régions du Cambodge, et des efforts sont déployés pour démanteler ces réseaux criminels. Cependant, la complexité de ces organisations, souvent transnationales, rend leur éradication difficile.

Il est impératif que la communauté internationale renforce ses efforts pour lutter contre ces réseaux de cybercriminalité et protéger les individus vulnérables exploités dans ces systèmes.

Les arnaques en ligne au Cambodge ne sont pas seulement un problème local, mais un défi mondial. Elles illustrent les dangers de la mondialisation numérique et la nécessité d’une vigilance accrue face aux nouvelles formes d’exploitation. Il est crucial de sensibiliser le public, de renforcer les législations et de promouvoir une coopération internationale pour éradiquer ces pratiques inhumaines.

Celine Dou

TikTok, réseaux sociaux et jeunesse : les dangers invisibles révélés par la mort tragique de Renna O’Rourke

Le décès récent de Renna O’Rourke, une jeune états-unienne de 19 ans, provoqué par un défi viral dangereux sur TikTok, jette une lumière crue sur les risques liés à la popularité croissante des réseaux sociaux. Cette tragédie invite à une réflexion approfondie sur l’impact des plateformes numériques sur la santé et le comportement des jeunes, ainsi que sur les enjeux sociétaux, réglementaires et géopolitiques qui en découlent.

Renna O’Rourke est décédée après avoir participé à un défi sur TikTok, appelé « dusting ». Ce challenge consiste à inhaler des gaz contenus dans des bombes aérosols, notamment du difluorométhane ou d’autres hydrocarbures utilisés pour nettoyer les claviers d’ordinateurs. Cette pratique est hautement toxique, provoquant une privation d’oxygène, des troubles cardiaques et des lésions cérébrales. Ce défi, bien que strictement dangereux et illégal, s’est propagé via des vidéos courtes, très populaires sur TikTok.

Les services de santé et de police aux États-Unis d’Amérique ont multiplié les alertes après plusieurs cas graves, notamment chez des adolescents, dont certains ont perdu la vie. Ce phénomène illustre la rapidité avec laquelle des comportements à haut risque peuvent se diffuser au sein de populations vulnérables grâce aux réseaux sociaux.

Depuis son lancement en 2016, TikTok, propriété de l’entreprise chinoise ByteDance, s’est imposé comme l’un des réseaux sociaux les plus influents au monde. Sa particularité réside dans son format de vidéos courtes, dynamiques, et surtout un algorithme puissant qui personnalise le fil d’actualité (« For You »), renforçant l’addiction et la viralité des contenus.

TikTok compte plus d’un milliard d’utilisateurs actifs, avec une audience très jeune les 16-24 ans représentant une part importante. Ce succès s’observe globalement, y compris en Europe, en Afrique, et en Amérique du Nord. Cette diffusion mondiale pose la question de la régulation, car les contenus dangereux ne connaissent pas de frontières.

D’un point de vue géopolitique, la présence chinoise dans une telle plateforme suscite des tensions, notamment entre les États-Unis d’Amérique, l’Union européenne et la Chine, concernant la sécurité des données, la protection des utilisateurs et les règles de modération.

Les réseaux sociaux, au-delà des défis physiques, ont des impacts profonds sur la santé mentale des adolescents. La pression pour obtenir des likes, des vues ou des abonnés alimente souvent anxiété, troubles du sommeil, dépression, voire comportements autodestructeurs.

La viralité des challenges dangereux, encouragée par la quête de reconnaissance, s’inscrit dans un contexte où les jeunes sont particulièrement sensibles aux influences sociales. L’algorithme de TikTok, conçu pour maximiser l’engagement, peut accentuer l’exposition à ces contenus à risque.

En outre, les mécanismes de modération apparaissent insuffisants ou inadaptés face à la rapidité et la diversité des vidéos mises en ligne, compliquant la prévention efficace.

Face à ces dangers, la régulation des réseaux sociaux est devenue un enjeu prioritaire pour les États et les organisations internationales. Plusieurs initiatives ont été lancées, notamment en Europe, avec la proposition de la loi sur les services numériques (Digital Services Act), visant à contraindre les plateformes à plus de transparence et de modération.

Aux États-Unis d’Amérique, le débat est également vif, oscillant entre la protection des libertés d’expression et la nécessité de protéger les mineurs. Par ailleurs, les questions de souveraineté numérique et de contrôle des données compliquent les négociations internationales, particulièrement en présence d’acteurs chinois comme TikTok.

Au-delà de la réglementation, l’éducation joue un rôle fondamental. Former les jeunes à une utilisation responsable du numérique, développer leur esprit critique face aux contenus viraux et les sensibiliser aux risques physiques et psychologiques sont des impératifs.

De nombreuses associations et institutions tentent d’intervenir, mais l’enjeu reste immense, notamment dans les pays en développement où l’accès à l’information sécurisée et la formation sont encore limités.

La mort de Renna O’Rourke est un drame humain qui met en lumière la face cachée d’un phénomène global : la puissance des réseaux sociaux à influencer massivement les comportements, souvent sans encadrement suffisant. TikTok, en tant que plateforme incontournable, illustre à la fois les opportunités et les risques du numérique dans un monde globalisé.

Cet épisode tragique souligne l’urgence d’une action coordonnée, entre régulation internationale, responsabilisation des plateformes et éducation numérique. Protéger la jeunesse nécessite une compréhension fine et rigoureuse de ces enjeux, loin des discours simplistes et idéologiques, pour construire un avenir numérique plus sûr et plus humain.