Archives pour la catégorie technologie

OpenAI entre innovation technologique et responsabilité éthique : de la démission de sa responsable robotique à la contestation des utilisateurs, quels enjeux pour les États‑Unis d’Amérique et la gouvernance mondiale des technologies avancées ?

Après le départ de Caitlin Kalinowski, OpenAI fait face à une fronde croissante de ses utilisateurs, préoccupés par l’usage militaire de ses technologies. Cette situation soulève des questions sur l’éthique, la stratégie et la régulation des intelligences artificielles avancées.

Lire la suite: OpenAI entre innovation technologique et responsabilité éthique : de la démission de sa responsable robotique à la contestation des utilisateurs, quels enjeux pour les États‑Unis d’Amérique et la gouvernance mondiale des technologies avancées ?

Le 7 mars 2026, Caitlin Kalinowski, responsable de la division robotique d’OpenAI, a quitté son poste, invoquant des motifs éthiques liés à l’emploi potentiel des technologies de l’entreprise dans des opérations militaires. Sa démission a été provoquée par la signature d’un contrat avec le Département de la Défense des États‑Unis d’Amérique, qui prévoit l’usage de certaines applications d’OpenAI dans des missions de cybersécurité et de robotique avancée. Dans les semaines qui ont suivi, l’application ChatGPT a enregistré une augmentation spectaculaire des évaluations négatives ainsi qu’un nombre record de désinstallations, traduisant le mécontentement des utilisateurs face à cette orientation stratégique.

Le contrat conclu avec le Pentagone illustre la volonté des États‑Unis d’Amérique de maintenir leur avance technologique, mais il a déclenché des désaccords internes au sein d’OpenAI. Caitlin Kalinowski a précisé, dans un message publié sur le réseau social X, que sa décision était motivée par le risque que des systèmes autonomes puissent être utilisés dans des contextes militaires sensibles et par les implications sur la surveillance des citoyens. Elle a insisté sur le fait qu’il s’agissait d’un choix personnel et non d’une critique contre ses collègues, soulignant l’importance de la responsabilité éthique dans la prise de décision technologique.

La réaction des utilisateurs est significative. Les évaluations à une étoile sur les stores d’applications ont augmenté de 775 % en 48 heures et le nombre de désinstallations a connu un bond de près de 300 %. Les critiques portent moins sur la qualité de l’application que sur l’orientation stratégique de l’entreprise, jugée incompatible avec les valeurs civiques et éthiques attendues par la communauté. La contestation traduit une défiance vis-à-vis de l’usage militaire des technologies et met en lumière le rôle central de la confiance dans les relations entre une entreprise technologique et ses utilisateurs.

Au-delà de la contestation, cette crise révèle les tensions structurelles auxquelles sont confrontées les entreprises innovantes. OpenAI doit arbitrer entre l’exploitation des opportunités stratégiques offertes par le partenariat militaire et le respect de principes éthiques, tant internes qu’externes. La situation souligne l’importance de mécanismes de consultation et de supervision robustes pour encadrer l’usage de technologies sensibles et garantir que les décisions ne compromettent ni la confiance des utilisateurs ni l’intégrité des systèmes.

L’affaire prend également une dimension géopolitique. Elle interroge la manière dont les États‑Unis d’Amérique exploitent les technologies privées pour leurs objectifs stratégiques et soulève des questions sur la régulation internationale des intelligences artificielles militaires. Le débat sur la responsabilité des entreprises, la transparence de leurs décisions et la protection des droits fondamentaux devient ainsi un enjeu global, qui dépasse le cadre national et concerne la gouvernance mondiale des technologies avancées.

La démission de Caitlin Kalinowski et la fronde des utilisateurs démontrent que les choix stratégiques d’une entreprise technologique peuvent avoir des répercussions immédiates sur la perception publique et la légitimité d’une innovation. L’équilibre entre innovation, responsabilité sociale et sécurité nationale s’avère fragile, et les décisions prises aujourd’hui influenceront la manière dont ces technologies seront utilisées à l’avenir, tant aux États‑Unis d’Amérique que dans le reste du monde.

Celine Dou, pour la Boussole-infos

États‑Unis d’Amérique : la responsable robotique d’OpenAI démissionne après un contrat militaire avec le Pentagone

Caitlin Kalinowski quitte OpenAI en raison de préoccupations sur l’usage militaire des technologies de l’entreprise

Lire la suite: États‑Unis d’Amérique : la responsable robotique d’OpenAI démissionne après un contrat militaire avec le Pentagone

Le 7 mars 2026, Caitlin Kalinowski, responsable de la division robotique d’OpenAI, a annoncé sa démission après la signature d’un contrat avec le Département de la Défense des États‑Unis d’Amérique. Selon elle, l’accord, qui permet l’utilisation de certaines technologies dans des opérations militaires classifiées, comporte des risques liés à la surveillance des citoyens et à l’emploi de systèmes autonomes dans des situations létales.

Le contrat prévoit l’utilisation de technologies avancées pour des missions de cybersécurité, d’analyse de données et de robotique. OpenAI s’est engagée à limiter certains usages, mais la décision de Kalinowski montre que ces garanties n’ont pas suffi à apaiser toutes les inquiétudes.

Anthropic, un concurrent direct, avait précédemment refusé de collaborer avec l’armée états-unienne pour des raisons similaires. Dans son message publié sur le réseau social X, Kalinowski a expliqué que sa démission n’était pas dirigée contre la direction ou ses collègues, mais qu’elle était motivée par ses principes concernant la surveillance et l’autonomie des systèmes militaires.

Le départ de Kalinowski reflète des désaccords au sein d’OpenAI sur la manière de gérer les engagements avec des acteurs gouvernementaux. Certains employés estiment que le contrat a été négocié trop rapidement, sans discussion suffisante sur ses implications éthiques et stratégiques. La question centrale porte sur la façon dont une entreprise technologique peut concilier ses objectifs commerciaux et ses responsabilités vis-à-vis de la société.

Cette démission soulève des questions plus larges sur la collaboration entre entreprises et forces armées. Elle invite à réfléchir sur la supervision des technologies sensibles, le respect des droits fondamentaux et la définition de limites claires pour l’usage des systèmes dans des contextes critiques.

Pour les États‑Unis d’Amérique, le contrat avec OpenAI s’inscrit dans une stratégie de maintien de leur avance technologique, mais il montre aussi que ces choix peuvent générer des désaccords internes et un débat public sur l’éthique et la gouvernance.

La décision de Kalinowski oblige l’entreprise et les autorités à examiner comment les projets sensibles sont préparés et validés. Elle souligne le rôle des employés dans les choix stratégiques et la nécessité d’instaurer des mécanismes de consultation et de contrôle avant de signer des accords à fort impact.

Au-delà d’OpenAI, cette affaire pose des questions sur la manière dont les gouvernements et les entreprises doivent encadrer les technologies qui influencent la sécurité, la vie privée et la prise de décision dans des situations critiques.

Le départ de la responsable robotique d’OpenAI n’est pas un simple événement interne. Il reflète des choix difficiles entre innovation, responsabilité et sécurité. La manière dont ces technologies seront utilisées dans le futur dépendra de la capacité des entreprises et des États à instaurer des règles claires, à respecter les droits fondamentaux et à garantir la supervision des systèmes critiques.

Cette affaire montre que les décisions individuelles au sein des entreprises peuvent avoir des implications directes sur la société et la gouvernance internationale.

Celine Dou, pour la Boussole-infos

À Stanford University, une interface cerveau-ordinateur parvient à traduire en texte des phrases imaginées par une patiente paralysée

Dans un laboratoire de Stanford University, une femme paralysée depuis près de vingt ans regarde des phrases apparaître sur un écran. Elle ne parle pas. Elle n’écrit pas. Elle imagine simplement les mots. Une interface cerveau-ordinateur associée à un système d’intelligence artificielle transforme alors l’activité de son cerveau en texte.

Lire la suite: À Stanford University, une interface cerveau-ordinateur parvient à traduire en texte des phrases imaginées par une patiente paralysée

Des chercheurs états-uniens ont réussi à décoder partiellement la parole intérieure d’une patiente grâce à une matrice d’électrodes implantée dans son cortex et à un algorithme capable d’interpréter l’activité neuronale. L’objectif immédiat est médical : redonner une capacité de communication à des personnes privées de parole. Mais cette avancée scientifique ouvre aussi un débat plus vaste sur les limites techniques et les implications éthiques de ces technologies.

L’expérience menée à Stanford University s’inscrit dans le champ des interfaces cerveau-ordinateur, un domaine de recherche qui cherche à établir un lien direct entre l’activité neuronale et des machines capables de l’interpréter.

Dans ce cas précis, les chercheurs ont implanté une matrice d’électrodes dans le cortex moteur de la patiente. Cette zone du cerveau est impliquée dans la planification et la production des mouvements nécessaires à la parole. Même si la personne ne peut plus parler physiquement, l’activité neuronale associée à l’intention de parler demeure.

Lorsque la patiente imagine prononcer des mots, les électrodes enregistrent les variations électriques produites par les neurones. Ces signaux sont ensuite analysés par un algorithme d’intelligence artificielle entraîné à reconnaître certains schémas d’activité cérébrale.

Les premières générations d’interfaces cerveau-ordinateur reposaient sur ce que les chercheurs appellent la « parole tentée » : les patients devaient essayer mentalement d’articuler les mots. La nouvelle approche explore un registre plus subtil : la parole intérieure, c’est-à-dire les mots que l’on se dit à soi-même sans les prononcer.

Les résultats restent imparfaits mais significatifs. Dans certaines tâches expérimentales, la précision atteint environ 74 % pour des phrases imaginées. Les chercheurs ont également réussi à restituer certains éléments de la prosodie le rythme et l’intonation qui donnent sens à la parole humaine.

L’un des prototypes expérimentaux permet même au participant de modifier la hauteur de la voix synthétique ou de produire une intonation interrogative. Dans des tests simples, il a été capable de reproduire des mélodies en imaginant les chanter.

Ces résultats demeurent toutefois limités par les contraintes technologiques actuelles. Les chercheurs n’observent qu’une infime fraction de l’activité cérébrale : quelques centaines de neurones parmi les milliards présents dans le cerveau humain.

L’avancée scientifique observée à Stanford University ne signifie pas que l’intelligence artificielle peut lire les pensées. Ce que les chercheurs parviennent à capter, ce sont des signaux associés à une tâche précise et répétée dans un cadre expérimental contrôlé.

Autrement dit, l’algorithme ne déchiffre pas librement le contenu de l’esprit. Il interprète des schémas neuronaux préalablement entraînés correspondant à certaines intentions linguistiques. La technologie reste donc très éloignée d’une lecture spontanée et générale de la pensée humaine.

La portée médicale de ces recherches est néanmoins considérable. Pour les personnes atteintes de paralysie sévère ou enfermées dans leur corps à la suite d’un accident vasculaire cérébral ou d’une maladie neurodégénérative, ces interfaces pourraient constituer un nouveau canal de communication.

Elles pourraient permettre à des patients incapables de parler ou d’écrire de formuler des phrases complètes à partir de leur activité cérébrale. Dans ce contexte, l’intelligence artificielle devient un outil de traduction entre le cerveau et le langage.

Mais ces travaux soulèvent aussi des interrogations plus larges. La captation de signaux cérébraux touche à l’une des dernières frontières de l’intimité humaine : l’activité mentale. À mesure que les dispositifs deviennent plus performants, la question de la protection des données neuronales pourrait s’imposer dans le débat public.

La perspective d’une commercialisation de ces technologies par des entreprises privées accentue cette interrogation. Plusieurs sociétés technologiques investissent déjà dans les implants cérébraux, convaincues que ces interfaces pourraient devenir un nouveau marché de l’informatique.

Les progrès réalisés dans les laboratoires universitaires s’inscrivent dans un mouvement plus large. Des entreprises comme Neuralink, fondée par Elon Musk, cherchent à développer des implants cérébraux capables d’interagir directement avec des systèmes informatiques.

À court terme, l’usage restera probablement médical. Mais à plus long terme, certains chercheurs envisagent des applications dépassant le champ thérapeutique : assistance cognitive, interaction directe avec des machines ou communication augmentée.

Ces perspectives, encore hypothétiques, alimentent un débat sur les limites à poser à l’interface entre cerveau humain et technologie numérique.

L’expérience menée à Stanford University constitue une avancée importante dans la recherche sur les interfaces cerveau-ordinateur. Elle montre qu’il est possible d’interpréter certains signaux neuronaux liés à la parole intérieure et de les traduire en texte.

La promesse principale reste médicale : offrir une voix à ceux qui l’ont perdue. Mais à mesure que ces technologies progressent, elles interrogent aussi la relation entre le cerveau humain et les machines capables d’en analyser l’activité. Une frontière scientifique s’ouvre, et avec elle un débat qui dépasse désormais le seul domaine de la médecine.

Celine Dou, pour la Boussole-infos

Vérification d’âge en ligne : la France et l’Europe face aux risques d’une surveillance généralisée

Alors que les gouvernements européens cherchent à limiter l’accès des mineurs aux réseaux sociaux, la question des libertés individuelles se pose avec acuité. Plus de 350 chercheurs internationaux alertent sur les risques d’un contrôle numérique généralisé.

Lire la suite: Vérification d’âge en ligne : la France et l’Europe face aux risques d’une surveillance généralisée

Si protéger les jeunes utilisateurs est un objectif légitime, les dispositifs de vérification d’âge obligatoires pourraient compromettre la vie privée de tous, adultes compris, et transformer l’espace numérique en un environnement entièrement traçable.

La France envisage d’imposer aux plateformes numériques une vérification stricte de l’âge des utilisateurs, avec des mesures techniques telles que l’analyse de pièces d’identité ou de selfies pour estimer l’âge. Des pays comme l’Espagne et le Danemark étudient des mesures similaires, tandis que la Chine applique déjà depuis plusieurs années un contrôle numérique systématique.

Les chercheurs, dans une lettre ouverte publiée début mars 2026, mettent en garde contre les risques liés à ces dispositifs. Ils soulignent que la centralisation des données personnelles sensibles accroît les risques de piratage et peut entraîner une surveillance permanente des citoyens. Par ailleurs, ces technologies peuvent être contournées par les jeunes et restreignent l’accès pour certains groupes n’ayant pas de documents officiels, générant ainsi des inégalités numériques.

Au-delà de la dimension technique, ce débat est fondamentalement démocratique. Imposer une identification obligatoire pour accéder à Internet transforme le numérique en un espace surveillé, où chaque action pourrait être enregistrée. Si l’objectif de protection des mineurs est réel, le risque est que cette logique serve de prétexte à un contrôle généralisé, similaire aux pratiques établies en Chine.

Cette tension illustre un dilemme central : comment garantir la sécurité des plus jeunes sans compromettre la liberté d’expression, le droit à la vie privée et le principe de proportionnalité dans les mesures de régulation numérique ?

La réflexion ne se limite pas à l’Europe : les législateurs du monde entier doivent se pencher sur les effets à long terme de la surveillance numérique. Des alternatives existent : l’éducation numérique, la sensibilisation des familles et des dispositifs de contrôle parental volontaires peuvent protéger les mineurs sans sacrifier les libertés des adultes.

La question centrale demeure : un Internet sécurisé pour les jeunes peut-il exister sans un espace numérique libre pour tous ? C’est ce défi que devront relever les démocraties modernes.

La vérification de l’âge sur les réseaux sociaux soulève un enjeu majeur pour les libertés numériques et la démocratie. Avant d’imposer des mesures intrusives, les États doivent évaluer leur efficacité réelle et leurs conséquences sur la société. Protéger les mineurs ne doit jamais se faire au prix de la surveillance généralisée des citoyens.

Celine Dou, pour la Boussole-infos

RentAHuman : des intelligences artificielles qui embauchent des humains pour leurs missions

Dans un monde où la technologie s’invite partout, une plateforme inédite permet aux intelligences artificielles de confier des missions à des personnes réelles. Une expérience qui interroge le travail, la régulation et la place de l’humain face à l’automatisation.

Lire la suite: RentAHuman : des intelligences artificielles qui embauchent des humains pour leurs missions

Lancée en 2026, RentAHuman propose aux intelligences artificielles de réserver des humains pour accomplir des tâches que les machines ne peuvent pas réaliser seules. Des missions variées, allant de la livraison d’objets à des tâches scientifiques, sont exécutées par des professionnels de tous horizons. Le concept soulève des questions sur la rémunération, la protection sociale et les limites de l’autonomie technologique.

Sur RentAHuman, chaque participant crée un profil avec ses compétences, sa localisation et ses disponibilités. Les intelligences artificielles identifient les profils appropriés et confient des missions concrètes. Certaines sont simples, comme photographier un lieu ou remettre un document. D’autres exigent des compétences pointues : participation à des protocoles scientifiques ou vérifications techniques sur le terrain.

Ce qui surprend, c’est la diversité des profils : des étudiants, des travailleurs indépendants, mais aussi des scientifiques et des experts spécialisés acceptent de rejoindre cette plateforme. Les motivations varient : curiosité, complément de revenu, intérêt pour l’expérience innovante.

Le modèle fonctionne grâce à une rémunération flexible, versée par des systèmes de paiement intégrés. Mais plusieurs observateurs signalent que toutes les missions ne sont pas sécurisées ou garanties, et que certaines posent des questions éthiques.

Si le concept paraît inédit, il s’inscrit dans une tendance déjà observée ailleurs. Aux États-Unis d’Amérique, les plateformes de « gig economy » permettent à des travailleurs de répondre à des tâches pilotées par des algorithmes. En Allemagne, les « mini-jobs » offrent une flexibilité légale pour certains emplois temporaires. En Italie ou en Grèce, l’économie informelle continue d’absorber une partie de la main-d’œuvre face aux rigidités du marché.

La particularité de RentAHuman est que la machine devient l’acteur qui commande, et l’humain exécute. Cette inversion soulève des questions inédites sur les responsabilités, la protection sociale et le rôle de l’humain dans un système où la technologie prend le contrôle.

RentAHuman illustre les transformations à venir du travail. Elle interroge la frontière entre automatisation et intervention humaine, et pose des questions sur les conditions de travail et la régulation de ces nouvelles formes d’emploi. La plateforme pourrait inspirer d’autres expériences dans le monde, mais elle oblige aussi à réfléchir à ce que signifie travailler dans un contexte dominé par des intelligences artificielles.

Cette initiative n’est pas seulement technologique : elle met l’humain au centre d’un processus où la machine orchestre l’activité. RentAHuman révèle les tensions entre innovation et protection sociale, flexibilité et sécurité, curiosité et responsabilité. Entre États-Unis d’Amérique, Europe et France, l’expérience rappelle que l’avenir du travail dépend autant de choix humains que de progrès technologiques.

Celine Dou, pour la Boussole-infos

Google expérimente la modification des adresses Gmail, une évolution majeure de la messagerie électronique

Changer d’adresse électronique Gmail sans perdre son historique ni ses services associés pourrait bientôt devenir possible. Google teste une évolution qui rompt avec l’un des principes fondateurs de sa messagerie : l’immuabilité des adresses en @gmail.com.

Lire la suite: Google expérimente la modification des adresses Gmail, une évolution majeure de la messagerie électronique

Longtemps présentée comme techniquement impossible, la modification d’une adresse Gmail semble aujourd’hui envisagée par Google. Derrière cette évolution apparente se cache un changement plus profond dans la gestion de l’identité numérique, alors que les géants du numérique cherchent à adapter leurs services aux usages contemporains.

Depuis sa création en 2004, Gmail s’est imposé comme l’un des services de messagerie les plus utilisés au monde. Le fonctionnement du service reposait jusqu’à présent sur une règle simple : une adresse créée demeurait définitive. Les utilisateurs souhaitant modifier leur identité numérique devaient ouvrir un nouveau compte, transférer leurs données et reconfigurer l’ensemble de leurs services connectés.

Google teste désormais un dispositif qui pourrait permettre aux utilisateurs de modifier leur adresse principale tout en conservant leur environnement numérique. Selon les informations disponibles, l’adresse d’origine pourrait être conservée sous forme d’alias, c’est-à-dire qu’elle continuerait de recevoir des messages, mais ne constituerait plus l’identité principale du compte.

Cette évolution viserait à simplifier la gestion des comptes pour les utilisateurs confrontés à des changements professionnels, personnels ou liés à la protection de leur vie privée. Elle pourrait également répondre à une demande croissante de flexibilité dans la gestion des identités numériques.

Pour l’instant, cette fonctionnalité semble être expérimentée de manière progressive. Google n’a pas encore annoncé un déploiement généralisé ni précisé les modalités techniques définitives.

Cette évolution s’inscrit dans une transformation plus large des usages numériques. L’adresse électronique, autrefois simple outil de communication, est devenue un élément central de l’identité numérique. Elle permet aujourd’hui d’accéder à de nombreux services : plateformes professionnelles, réseaux sociaux, services administratifs ou encore solutions bancaires.

L’impossibilité de modifier une adresse électronique constituait jusqu’ici une contrainte importante. Elle obligeait les utilisateurs à maintenir plusieurs comptes ou à conserver des adresses devenues obsolètes, parfois créées durant l’adolescence ou à des fins ponctuelles.

Pour Google, cette évolution représente également un enjeu stratégique. En facilitant la continuité des comptes, l’entreprise renforce la fidélisation des utilisateurs au sein de son écosystème numérique. Cette stratégie s’inscrit dans une compétition mondiale entre grandes plateformes technologiques pour conserver leurs utilisateurs face à l’émergence de nouveaux services de communication.

Cette transformation soulève néanmoins des interrogations en matière de sécurité et de traçabilité numérique. Modifier une adresse électronique peut compliquer l’identification des utilisateurs et poser des défis pour les systèmes d’authentification reposant sur l’adresse comme identifiant principal. Elle pourrait également nécessiter de nouvelles garanties pour prévenir les tentatives de fraude ou d’usurpation d’identité.

Au-delà de Gmail, cette évolution reflète un mouvement plus large dans la gestion des identités numériques. Les plateformes technologiques cherchent à concilier flexibilité pour les utilisateurs et exigences de sécurité renforcées. Cette question devient centrale dans un contexte où les services en ligne structurent une part croissante de la vie administrative, professionnelle et sociale.

Elle pose également la question du contrôle des données personnelles par les utilisateurs eux-mêmes, enjeu majeur des débats sur la souveraineté numérique dans de nombreux États, notamment au sein de l’Union européenne.

L’expérimentation menée par Google autour de la modification des adresses Gmail marque une évolution symbolique dans l’histoire de la messagerie électronique. Elle traduit l’adaptation progressive des services numériques aux parcours de vie des utilisateurs, tout en révélant les défis croissants liés à la gestion de l’identité en ligne.

Si cette fonctionnalité se généralise, elle pourrait redéfinir les standards de la communication électronique et renforcer la centralité des grandes plateformes dans l’organisation du quotidien numérique mondial.

Celine Dou pour, la Boussole-infos

Cryptomonnaies : l’augmentation des ventes à perte met à nu un déséquilibre financier mondial

Depuis plusieurs semaines, les marchés des cryptomonnaies sont traversés par un phénomène discret mais lourd de sens : un nombre croissant d’investisseurs revendent leurs actifs à un prix inférieur à celui de leur acquisition. Derrière ces opérations individuelles se dessine une réalité plus large, celle d’un système financier fondé sur une promesse de valeur dont les fondements apparaissent aujourd’hui fragiles.

Lire la suite: Cryptomonnaies : l’augmentation des ventes à perte met à nu un déséquilibre financier mondial

La progression des ventes à perte chez les investisseurs à court terme révèle la nature profondément spéculative des cryptomonnaies. Cette évolution soulève des interrogations majeures, notamment pour les États du Sud global qui ont vu dans les monnaies numériques une réponse possible à leurs difficultés économiques.

Les données récentes issues de l’observation des transactions montrent que de nombreux détenteurs de cryptomonnaies, entrés sur le marché au cours des derniers mois, choisissent désormais de liquider leurs positions malgré des pertes financières avérées. Ce mouvement concerne en priorité les investisseurs dits « à court terme », plus sensibles aux variations rapides de prix et aux retournements de tendance.

Ce comportement n’est pas marginal. Il traduit une modification du rapport au risque, alimentée par une baisse prolongée des cours et par l’effritement de l’optimisme qui avait accompagné les phases d’expansion précédentes. Lorsque la perspective de gains rapides disparaît, la conservation de ces actifs perd une partie de sa justification économique.

Contrairement aux monnaies émises par les États ou aux actifs adossés à une production réelle, les cryptomonnaies ne reposent sur aucun mécanisme institutionnel de stabilisation. Leur valeur est le produit d’un consensus mouvant, dépendant à la fois de la confiance collective et de l’anticipation de comportements futurs. Dans un tel cadre, la volatilité n’est pas une anomalie : elle constitue la norme.

La multiplication des ventes à perte ne peut être comprise indépendamment de la structure même du marché des cryptomonnaies. Celui-ci repose sur une asymétrie fondamentale entre ses acteurs. Les concepteurs des protocoles, les investisseurs initiaux et certaines plateformes bénéficient d’un avantage décisif : ils interviennent à un stade où le risque est limité et la valorisation encore faible.

À mesure que le marché s’élargit, ce risque est progressivement transféré vers les nouveaux entrants, souvent attirés par des récits de réussite et par l’illusion d’un accès démocratisé à la richesse financière. Lorsque la dynamique s’inverse, ce sont ces mêmes acteurs qui supportent l’essentiel des pertes.

Cette logique évoque les grandes phases spéculatives qui ont jalonné l’histoire économique moderne. Dans chaque cas, l’innovation réelle ou supposée a servi de vecteur à une revalorisation rapide des actifs, avant que la réalité des usages et des rendements ne rattrape les anticipations.

Pour les pays du Sud global, l’enjeu est particulièrement sensible. Certains gouvernements ont vu dans les monnaies numériques un instrument de contournement des contraintes monétaires internationales ou un moyen d’attirer des capitaux. Or, l’instabilité actuelle montre que l’exposition à ces actifs peut fragiliser davantage des économies déjà vulnérables, en transférant vers les populations des risques difficilement maîtrisables.

Face à ces constats, la question de la régulation s’impose avec une acuité renouvelée. Les cryptomonnaies posent un défi inédit aux autorités publiques : celui d’encadrer des instruments transnationaux, largement détachés des souverainetés nationales, sans pour autant étouffer l’innovation technologique qu’ils prétendent incarner.

Pour les États aux marges du système financier mondial, le choix n’est pas seulement technique. Il est politique et stratégique : s’agit-il de s’émanciper d’un ordre monétaire jugé contraignant, ou de s’exposer à une nouvelle forme de dépendance, fondée sur des marchés instables et des acteurs privés peu redevables ?

L’augmentation des ventes à perte sur les marchés des cryptomonnaies ne constitue pas un simple épisode de correction. Elle révèle un déséquilibre plus profond, lié à la nature même de ces actifs et à la manière dont ils redistribuent le risque. À l’heure où certains continuent d’y voir une solution universelle aux dysfonctionnements économiques, les faits invitent à une lecture plus mesurée : sans cadre institutionnel solide, la promesse de rupture peut rapidement céder la place à une désillusion collective.

Celine Dou, pour la boussole-infosde

Bibliothèques aux États‑Unis d’Amérique confrontées aux références fictives générées par l’intelligence artificielle

Aux États‑Unis d’Amérique, les bibliothécaires sont de plus en plus confrontés à des requêtes de livres qui n’existent pas. Ces références, issues d’interactions avec des intelligences artificielles génératives, interrogent le rôle même des institutions chargées de conserver et transmettre le savoir.

Lire la suite: Bibliothèques aux États‑Unis d’Amérique confrontées aux références fictives générées par l’intelligence artificielle

Alors que les outils d’IA conversationnelle se multiplient, une nouvelle difficulté surgit pour les bibliothèques : distinguer les ouvrages authentiques des suggestions inventées par des systèmes automatisés. Ce phénomène, encore inédit dans sa généralisation, révèle l’impact de l’intelligence artificielle sur la confiance dans les sources et la mission des professionnels du livre.

Depuis plusieurs mois, plusieurs bibliothèques aux États‑Unis d’Amérique signalent une recrudescence de demandes de livres inexistants, formulées par des usagers qui se fient à des agents conversationnels d’IA tels que ChatGPT ou Gemini. Ces systèmes génèrent parfois des titres plausibles, accompagnés de descriptions détaillées et d’auteurs fictifs, sans aucun lien avec des publications réelles.

À la bibliothèque de l’État de Virginie, une responsable a indiqué qu’environ 15 % des courriels reçus pour des recherches bibliographiques comportaient des références issues de l’intelligence artificielle et qui ne correspondent à aucun ouvrage. Les catalogues et moteurs de recherche, lorsqu’ils sont sollicités, peuvent donner des résultats partiels ou trompeurs, rendant la vérification plus ardue.

Le phénomène dépasse les simples livres : certaines références académiques ou scientifiques inventées par l’IA sont également utilisées par les étudiants, les chercheurs et le grand public. Les bibliothécaires doivent donc non seulement guider les usagers, mais aussi identifier et corriger les informations fictives, ce qui constitue une tâche complexe et exigeante.

Ce phénomène met en évidence un paradoxe central : les intelligences artificielles génératives sont conçues pour produire des réponses plausibles et cohérentes, mais leur fonctionnement repose sur la probabilité des chaînes de mots plutôt que sur la vérification de l’existence réelle des sources.

Pour les bibliothécaires, cette situation représente une mutation profonde de leur rôle traditionnel. Leur mission historique de médiation et de vérification est désormais confrontée à des systèmes capables de fabriquer du contenu crédible mais faux. Il ne s’agit plus seulement de rechercher et de classer le savoir existant, mais d’intervenir sur une frontière floue entre réalité et fiction algorithmique.

L’incident soulève également des enjeux éducatifs et sociaux : les usagers, souvent confiants dans la technologie, peuvent intégrer ces références fictives dans leurs recherches ou travaux. L’apparition de contenus littéraires ou scientifiques générés automatiquement questionne ainsi la fiabilité de l’information et le rôle des bibliothèques comme garantes de la connaissance vérifiable.

Au-delà des États‑Unis d’Amérique, cette problématique est susceptible de se diffuser dans d’autres pays disposant de bibliothèques numérisées ou connectées aux mêmes outils d’intelligence artificielle, rendant la question universelle et institutionnelle.

Face à ces défis, plusieurs pistes se dessinent. Les bibliothèques pourraient développer des protocoles spécifiques de vérification des références générées par IA, renforcer la formation des professionnels et des usagers sur la littératie numérique, et collaborer avec les concepteurs d’IA pour réduire les “hallucinations” dans les réponses fournies.

Cette situation invite également à réfléchir sur la responsabilité sociétale et éthique des intelligences artificielles dans le domaine de l’information et sur la manière dont les institutions traditionnelles doivent s’adapter pour préserver la confiance publique.

L’émergence des références fictives générées par l’intelligence artificielle met en lumière un changement profond dans la circulation du savoir. Les bibliothécaires aux États‑Unis d’Amérique, confrontés à ce phénomène inédit, doivent ajuster leurs pratiques pour garantir la véracité de l’information. Cette situation illustre l’urgence de repenser la médiation culturelle et scientifique à l’heure des technologies capables de produire un savoir plausible mais inventé, et de préserver ainsi l’intégrité des institutions qui incarnent la mémoire collective.

Celine Dou, pour la boussole-infos

Intelligence artificielle : le coût environnemental d’un progrès présenté comme immatériel

L’intelligence artificielle, souvent perçue comme une innovation abstraite, repose sur une infrastructure matérielle considérable. Derrière les algorithmes et les serveurs se cache une réalité tangible : l’épuisement de territoires et de ressources, principalement dans les régions périphériques du monde, tandis que les centres de décision technologique demeurent concentrés dans le Nord global.

Lire la suite: Intelligence artificielle : le coût environnemental d’un progrès présenté comme immatériel

Afrique, Asie du Sud-Est et Amérique latine portent aujourd’hui le poids environnemental et social d’une révolution présentée comme immatérielle. Extraction minière, centres de données énergivores et surexploitation des ressources hydriques révèlent les fractures structurelles d’un modèle de développement technologique profondément asymétrique.

Une infrastructure matérielle invisible mais exigeante

Contrairement à l’image d’un progrès dématérialisé, l’intelligence artificielle repose sur des infrastructures physiques extrêmement lourdes. Chaque modèle d’IA, chaque serveur, chaque centre de données exige des métaux rares, de l’électricité et de l’eau en volumes considérables. Cette dépendance matérialise une géographie de l’épuisement, concentrée sur les zones qui fournissent ces ressources.

Les flux matériels révèlent une asymétrie systémique : l’Afrique fournit cobalt, cuivre et manganèse ; l’Asie du Sud-Est livre terres rares et lithium ; l’Amérique latine extrait lithium et cuivre. Les bénéfices économiques et décisionnels se concentrent dans les sièges des entreprises technologiques situés aux États-Unis d’Amérique, en Europe occidentale et dans certaines puissances asiatiques.

L’Afrique : premier foyer de l’extractivisme numérique

L’Afrique centrale, notamment la République démocratique du Congo, constitue le principal réservoir mondial de cobalt, un composant indispensable des batteries et des serveurs. Le lithium du Zimbabwe et le cuivre du Zambia complètent cette dépendance. Or, l’exploitation intensive de ces ressources entraîne une dégradation sévère des écosystèmes : pollution des nappes phréatiques, contamination des sols et déforestation accélérée.

À ces coûts matériels s’ajoutent des tensions sociales : les communautés locales subissent les effets de l’extraction sans bénéficier d’un transfert technologique ou d’une valeur ajoutée locale significative. Les centres de données qui commencent à s’implanter sur le continent, bien qu’attirés par des coûts énergétiques relativement faibles, aggravent le stress sur l’eau et l’électricité, accentuant la fragilité des infrastructures locales.

Asie du Sud-Est : relocalisation et externalisation de la pollution

En Asie du Sud-Est, des zones comme le Myanmar, le Laos et certaines provinces indonésiennes subissent la pression de l’extraction de terres rares. La déforestation massive et la pollution des cours d’eau y sont documentées, souvent dans des contextes de gouvernance fragile. Ces activités montrent que la logique de l’externalisation des coûts environnementaux s’étend au-delà de l’Afrique, confirmant une structuration globale de la dépendance technologique.

Amérique latine : dualité extraction-infrastructure

L’Amérique latine illustre une combinaison d’impacts matériels et infrastructurels. Les bassins de lithium et de cuivre du Chili, du Pérou et de Bolivie alimentent les chaînes de valeur de l’IA, tandis que les centres de données au Brésil et au Mexique consomment d’importantes quantités d’électricité et d’eau dans des zones souvent affectées par la sécheresse. Cette double pression extraction minière et consommation énergétique accentue les tensions sur les ressources locales et fragilise les populations rurales dépendantes de l’agriculture et de l’eau potable.

Une fracture systémique Nord-Sud

L’intelligence artificielle illustre une fracture persistante : les pays producteurs de ressources paient l’addition écologique et sociale, tandis que les pays consommateurs concentrent les bénéfices économiques et le contrôle technologique. L’Afrique et certaines parties de l’Asie et de l’Amérique latine demeurent les périphéries d’un système dont les centres de décision restent éloignés.

Cette asymétrie soulève des questions de souveraineté et de responsabilité : la gouvernance mondiale de l’IA ne peut ignorer les zones qui en subissent le poids. La soutenabilité de cette technologie dépend de la capacité des États et des institutions internationales à réguler, redistribuer et intégrer les populations concernées dans la chaîne de décision.

Vers une gouvernance équitable et durable

L’intelligence artificielle ne peut être dissociée des territoires qui la rendent possible. Une gouvernance responsable implique :

  • la transparence sur l’empreinte environnementale ;
  • le respect des droits des communautés locales ;
  • l’intégration des pays producteurs dans les processus de décision technologique.

Sans ces mesures, la révolution numérique risque de reproduire les schémas historiques d’exploitation et de marginalisation, cette fois à l’échelle mondiale.

L’essor de l’intelligence artificielle n’est pas neutre : il concentre ses coûts sur des zones spécifiques du globe, particulièrement en Afrique, en Asie du Sud-Est et en Amérique latine. Si la promesse d’un progrès universel doit être crédible, elle ne peut se construire sur l’épuisement silencieux des territoires producteurs. Décrire cette réalité est un impératif pour repenser la technologie comme un outil véritablement inclusif et durable.

Celine Dou, pour la boussole-infos

France : les autorités sanitaires alertent sur les effets des réseaux sociaux sur la santé des adolescents

Longtemps perçus comme de simples outils de sociabilité numérique, les réseaux sociaux apparaissent désormais, aux yeux des autorités sanitaires, comme des facteurs de vulnérabilité préoccupants pour la santé des adolescents. En France, une alerte officielle vient rappeler que ces usages ne sont pas sans conséquences sur le développement physique, psychologique et comportemental des plus jeunes.

Lire la suite: France : les autorités sanitaires alertent sur les effets des réseaux sociaux sur la santé des adolescents

Troubles du sommeil, fragilités psychiques, exposition accrue à des comportements à risque : les autorités sanitaires françaises tirent la sonnette d’alarme sur l’usage intensif des réseaux sociaux chez les adolescents. Cette mise en garde, fondée sur des données scientifiques convergentes, relance le débat sur la régulation du numérique et la responsabilité collective face à un environnement devenu central dans la construction des jeunesses contemporaines.

Une alerte sanitaire fondée sur des constats médicaux établis

L’Agence nationale de sécurité du médicament et des produits de santé, en lien avec d’autres instances sanitaires, a récemment rendu publique une analyse préoccupante concernant l’impact des réseaux sociaux sur la santé des adolescents. Loin d’un discours alarmiste isolé, cette prise de position s’appuie sur un ensemble d’études cliniques et observationnelles mettant en évidence une corrélation entre usage intensif des plateformes numériques et dégradation de certains indicateurs de santé.

Les troubles du sommeil figurent parmi les manifestations les plus fréquemment observées. L’exposition prolongée aux écrans, en particulier en soirée, perturbe les rythmes biologiques et altère la qualité du repos nocturne. À moyen terme, ces déséquilibres affectent la concentration, les capacités d’apprentissage et l’équilibre émotionnel des adolescents.

À ces troubles physiologiques s’ajoutent des atteintes psychologiques plus diffuses mais tout aussi significatives. Les autorités sanitaires relèvent une augmentation des symptômes anxieux, des fragilités de l’estime de soi et des formes de mal-être liées à la comparaison sociale permanente induite par les réseaux sociaux.

Des comportements à risque amplifiés par la logique des plateformes

Au-delà des effets individuels sur la santé, les autorités soulignent le rôle des réseaux sociaux dans la diffusion et l’amplification de comportements à risque. Cyberharcèlement, banalisation de la violence, exposition à des contenus inadaptés ou dangereux : l’environnement numérique agit comme un accélérateur de phénomènes déjà existants dans la sphère sociale.

Les mécanismes algorithmiques de recommandation, conçus pour maximiser le temps d’attention, favorisent une exposition répétée à des contenus similaires, parfois anxiogènes ou extrêmes. Cette logique économique, fondée sur la captation de l’attention, entre en tension directe avec les impératifs de protection des mineurs et de santé publique.

Une problématique internationale aux réponses encore fragmentées

Si l’alerte émane des autorités françaises, la question dépasse largement les frontières nationales. Aux États-Unis d’Amérique, comme dans plusieurs États de l’Union européenne, les effets des réseaux sociaux sur la jeunesse font l’objet de débats croissants au sein des institutions publiques.

Certaines initiatives visent à renforcer les contrôles d’âge, à limiter l’accès nocturne aux plateformes ou à imposer davantage de transparence aux entreprises du numérique. Toutefois, ces réponses demeurent partielles et peinent à s’imposer face au poids économique et à l’influence politique des grands acteurs du secteur.

Entre responsabilité familiale et responsabilité publique

L’alerte sanitaire met en lumière un déséquilibre structurel. Si la responsabilité parentale est régulièrement invoquée pour encadrer les usages numériques, elle ne peut, à elle seule, compenser un environnement technologique conçu pour solliciter en permanence l’attention.

La question de la responsabilité publique se pose dès lors avec acuité. Non dans une logique de prohibition ou de censure, mais dans celle d’une régulation fondée sur des données scientifiques, visant à protéger les publics les plus vulnérables sans nier les apports réels du numérique en matière d’expression et d’accès à l’information.

Vers une régulation du numérique centrée sur la santé

L’alerte des autorités sanitaires ouvre un chantier plus vaste : celui de l’intégration des enjeux de santé mentale dans les politiques numériques. À mesure que les réseaux sociaux structurent les sociabilités adolescentes, la prise en compte de leurs effets sanitaires devient un impératif stratégique pour les États.

Cette réflexion pourrait conduire à repenser le cadre juridique applicable aux plateformes, en intégrant des obligations renforcées de prévention, de modération et de transparence algorithmique.

Loin des discours moralisateurs ou des paniques médiatiques, l’alerte sanitaire française invite à une lecture lucide des transformations numériques contemporaines. Les réseaux sociaux ne sont ni neutres ni anodins dans la construction des adolescents.

En signalant leurs effets sur la santé et les comportements, les autorités rappellent une évidence souvent occultée : la modernité technologique appelle une vigilance politique et sanitaire à la hauteur de ses impacts. Pour La Boussole – infos, comprendre ces dynamiques constitue une condition essentielle pour éclairer un débat public appelé à s’intensifier dans les années à venir.

Celine Dou, pour la boussole-infos