Archives du mot-clé #Technologie

L’ère post-réseaux sociaux : l’essor des intelligences artificielles conversationnelles et ses implications

Les grandes plateformes sociales traditionnelles connaissent un ralentissement de leur fréquentation et une saturation de leurs modèles économiques. Dans le même temps, les intelligences artificielles conversationnelles se développent rapidement, proposant des interactions personnalisées qui modifient déjà les pratiques numériques et la manière dont les individus communiquent et appréhendent la socialisation.

Lire la suite: L’ère post-réseaux sociaux : l’essor des intelligences artificielles conversationnelles et ses implications

Depuis plusieurs années, l’usage des plateformes telles que Facebook, Instagram, X ou Snapchat montre des signes de stagnation, avec une diminution de l’engagement et de la participation active. Ce phénomène résulte de la fatigue des utilisateurs, de la multiplication des contenus publicitaires et de la nature même des modèles économiques basés sur la collecte et l’exploitation des données personnelles. L’expérience offerte par ces plateformes ne répond plus de manière satisfaisante aux besoins sociaux et cognitifs des utilisateurs, tandis que les effets négatifs : polarisation de l’opinion, pression sociale et dépendance à l’attention deviennent plus visibles.

Parallèlement, les intelligences artificielles conversationnelles se positionnent comme de nouveaux acteurs majeurs du numérique. Les chatbots avancés et les assistants conversationnels offrent désormais la possibilité de tenir des échanges complexes, de s’adapter aux préférences et aux émotions des utilisateurs, et de fournir un accompagnement personnalisé. Ces outils, conçus pour compléter ou prolonger l’expérience sociale numérique, créent une forme de médiation artificielle dans les interactions humaines.

Cette transition technologique présente des avantages tangibles. Les intelligences artificielles conversationnelles peuvent apporter un soutien à des individus isolés, faciliter l’accès à des informations ou services personnalisés et permettre un accompagnement dans des contextes éducatifs ou professionnels. Cependant, les risques sont également importants. L’usage intensif de ces systèmes peut réduire la qualité des interactions humaines réelles, contribuer à l’isolement social et renforcer une dépendance aux dispositifs numériques. Les algorithmes, par nature propriétaires et opaques, soulèvent des questions sur la protection des données, la manipulation des comportements et la préservation de la liberté individuelle.

L’émergence de cette ère post-réseaux sociaux modifie profondément la structure des interactions numériques. Les plateformes traditionnelles avaient déjà transformé l’accès à l’information et les échanges sociaux ; les intelligences artificielles conversationnelles introduisent désormais une médiation directe, pouvant remplacer certaines relations humaines par des interactions artificielles. Cette évolution pose des enjeux majeurs pour la cohésion sociale, l’éducation, la santé mentale et la dynamique des échanges professionnels.

L’évolution future dépendra de la régulation, de l’éthique et de l’acceptation sociale. La législation devra encadrer l’usage de ces technologies et garantir la transparence des algorithmes, tandis que les concepteurs devront assumer la responsabilité de leurs outils face aux risques de dépendance et d’isolement. Enfin, la manière dont ces dispositifs seront intégrés dans le quotidien déterminera s’ils compléteront ou substitueront les interactions humaines traditionnelles.

Observer et analyser ces transformations avec rigueur est essentiel. La transition vers les intelligences artificielles conversationnelles n’est pas un simple changement technique : elle constitue un tournant sociétal, susceptible de redéfinir la communication, la socialisation et l’organisation des interactions humaines dans le monde numérique.

Celine Dou

Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Alors que les géants de la tech assurent avoir sécurisé leurs modèles, une équipe italienne a réussi à contourner toutes les barrières : en utilisant de simples poèmes, ils ont poussé des intelligences artificielles à expliquer comment fabriquer des bombes. Un avertissement sévère pour l’avenir de la sécurité numérique.

Lire la suite: Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Les révélations venues d’Italie font l’effet d’un séisme dans le monde de l’intelligence artificielle. Des chercheurs sont parvenus à détourner les garde-fous des modèles les plus sophistiqués, notamment Claude d’Anthropic, pour leur faire délivrer des informations sensibles sur la construction d’explosifs. Ils n’ont pas utilisé des codes complexes ni des attaques informatiques avancées. Ils ont utilisé la poésie. Un procédé simple, inattendu, mais redoutable, qui interroge la robustesse réelle des technologies censées protéger le public des usages les plus dangereux.

Les scientifiques expliquent avoir dissimulé des instructions explicites dans des vers ou des demandes métaphoriques. Ces formulations détournées ont suffi pour tromper les filtres qui empêchent normalement les IA d’aborder des sujets illégaux. Certaines réponses fournies par les modèles ont même été qualifiées « d’ingénieures ». Ce point est déterminant : si une IA peut révéler sous la contrainte poétique ce qu’elle est censée refuser, cela signifie que ses mécanismes de protection reposent souvent sur des règles linguistiques trop rigides, incapables de déceler le sens implicite d’un texte.

Le rapport souligne que les systèmes testés ont été perturbés non seulement par les questions ambiguës, mais aussi par des choix de style destinés à « détourner » leur capacité d’interprétation sémantique. Cette méthode montre que les modèles peuvent être manipulés sans violence technologique, sans piratage, sans intrusion. La faille vient du langage, de son infini potentiel d’ambiguïtés et de détours. Pour un outil conçu pour comprendre la langue, c’est là que réside son plus grand point faible.

Le choc a été d’autant plus important que ces tests ont été effectués sur des IA considérées comme les plus prudentes, celles dont la philosophie est fondée sur la sécurité maximale. Anthropic a immédiatement réagi, affirmant que la version de Claude utilisée pour l’expérience était ancienne et partiellement désactivée, tout en assurant avoir renforcé les protections dans ses nouveaux modèles. Mais cette réponse n’efface pas la question centrale : si des chercheurs peuvent contourner les garde-fous, qu’en serait-il de personnes mal intentionnées ?

L’enjeu dépasse la seule technologie. Il concerne directement la sécurité publique, la régulation internationale et la responsabilité des entreprises. Les outils d’IA sont désormais accessibles au grand public, intégrés dans les téléphones, les plateformes de travail et même les services administratifs. Ils ont pénétré la vie quotidienne à une vitesse vertigineuse, souvent plus vite que les capacités des États à les encadrer. L’épisode italien démontre que l’innovation précède encore une fois la réflexion politique. Et lorsqu’un modèle peut être détourné pour fournir des instructions dangereuses, c’est l’ensemble du tissu social qui se trouve exposé.

L’incident révèle aussi une tension profonde : les sociétés technologiques déploient des modèles toujours plus puissants, capables d’ingurgiter et d’analyser des milliards de données, mais les mécanismes destinés à les contrôler restent fragiles et essentiellement réactifs. On corrige après les incidents, rarement avant. Cette logique d’ajustement permanent laisse des zones d’ombre où les vulnérabilités s’accumulent.

Pour La Boussole-infos, cet épisode constitue un marqueur important de notre époque : l’intelligence artificielle n’est pas seulement un outil de progrès ou de productivité. Elle peut devenir un risque majeur si la sécurité n’est pas anticipée avec la même rigueur que la recherche de performance. Ce scandale scientifique agit comme un rappel brutal que la technologie est toujours à double tranchant. Elle ouvre des possibilités immenses, mais expose aussi à des dérives inattendues.

Dans les semaines à venir, il faudra observer la réaction des institutions européennes, qui finalisent encore les mécanismes de l’AI Act, et mesurer si les mesures prévues suffiront à empêcher d’autres scénarios similaires. La question n’est plus seulement de savoir ce que les IA peuvent faire, mais ce qu’elles peuvent être forcées à faire. Et si la poésie permet déjà de contourner leurs défenses, qu’en serait-il demain face à des méthodes plus élaborées ?

Celine Dou, La Boussole-infos

Dubaï inaugure un restaurant dirigé par un « chef IA » : une innovation culinaire qui interroge la place de l’humain

L’établissement Woohoo, présenté comme le premier restaurant au monde piloté par une intelligence artificielle, attire l’attention dans l’émirat. Entre engouement technologique et inquiétudes croissantes, cette initiative soulève un débat inédit sur l’avenir du travail, de la créativité et du progrès.

Lire la suite: Dubaï inaugure un restaurant dirigé par un « chef IA » : une innovation culinaire qui interroge la place de l’humain

À Dubaï, la récente ouverture du restaurant Woohoo marque une nouvelle étape dans l’intégration de l’intelligence artificielle dans des secteurs traditionnellement humains. L’établissement affirme que son menu est conçu intégralement par une IA, capable de combiner des ingrédients de manière inattendue et de proposer des plats qualifiés de « futuristes », dont un surprenant « tartare de dinosaure ». Mais au-delà de l’effet d’annonce, ce concept questionne notre rapport à la technologie et aux métiers du savoir-faire.

Une expérience culinaire qui place l’IA au centre de la création

Woohoo a été inauguré dans un Dubaï en quête permanente de nouveautés technologiques et d’expériences avant-gardistes. Selon ses promoteurs, le restaurant repose sur un système d’intelligence artificielle chargé d’analyser des millions de données gastronomiques pour inventer des recettes inédites. Le personnel humain, toujours présent, n’intervient qu’à titre exécutif, se contentant de reproduire les formulations générées par l’algorithme. Cette démarche attire autant la curiosité que l’incrédulité. Certains visiteurs y voient une expérience ludique et une prouesse technique. D’autres y perçoivent le signe d’une évolution inquiétante où même la cuisine, cet art fondé sur la sensibilité et le geste, devient un terrain d’expérimentation algorithmique.

Entre illusion du progrès et mise à distance de l’humain

L’enthousiasme suscité par Woohoo repose en grande partie sur une confusion persistante entre invention et recombinaison. L’intelligence artificielle n’invente rien de manière autonome. Elle calcule, agrège et imite en s’appuyant sur la créativité humaine déjà existante, captée sur internet. Présenter ces opérations comme une expression créative revient à méconnaître la nature profonde de la création culinaire, qui exige une sensibilité, une intuition, un apprentissage vécu et une expérience directe du monde. La machine ne ressent ni les saveurs, ni les textures, ni les émotions qui sous-tendent l’acte de cuisiner.

Mais l’enjeu dépasse largement la seule question de la créativité. Woohoo illustre une tendance mondiale qui voit le travail humain relégué à des fonctions secondaires, tandis que la technologie occupe une place de décision. Dans un métier aussi profondément artisanal que celui de cuisinier, cette dévalorisation du geste et du savoir-faire marque une rupture culturelle forte. La rentabilité et l’innovation spectacle risquent d’effacer les dimensions humaines essentielles : la transmission, la passion, l’héritage culinaire, la relation entre le chef et le convive.

Cette fascination pour l’IA révèle aussi une dépendance croissante envers la technologie. Progressivement, la société délègue des compétences, des choix et même des instincts à des systèmes automatisés. La cuisine n’est qu’un exemple parmi d’autres. À mesure que l’on confie nos tâches quotidiennes à des machines, notre autonomie intellectuelle s’atténue et nos capacités se fragilisent. Le problème n’est donc pas tant l’IA elle-même que l’abandon de nos propres aptitudes au profit d’outils que nous comprenons de moins en moins.

Le restaurant de Dubaï met également en lumière une forme de croyance moderne : le scientisme. Cette idéologie, qui connaît un regain de vigueur, postule que la science et la technologie seraient capables de résoudre toutes les difficultés humaines et de perfectionner la société. Or, l’histoire récente montre les limites d’une telle vision. Les crises politiques, environnementales et sociales n’ont jamais disparu sous l’effet du progrès technique. La technologie seule ne remplace ni la réflexion, ni la prudence, ni le sens critique. En ce sens, Woohoo apparaît comme un symbole : celui d’un monde qui confond innovation et solution universelle.

À travers cette initiative, c’est enfin une question civilisationnelle qui se dessine. Le risque n’est pas uniquement économique ou culturel, mais profondément humain. À force de valoriser la machine au détriment de la personne, la société avance vers une forme d’effacement de l’humain dans sa propre production culturelle. La cuisine, au même titre que l’art, que l’éducation ou que la pensée, est un miroir de l’humanité. La déléguer aux algorithmes interroge la manière dont nous concevons notre avenir collectif. Certaines philosophies, comme la pensée objectiviste, permettent d’analyser ce glissement idéologique ; elles pourront faire l’objet d’un traitement séparé tant leurs implications sont vastes.

L’ouverture de Woohoo à Dubaï ne relève pas d’un simple divertissement technologique. Elle révèle une tension profonde entre la fascination pour la machine et la nécessité de préserver l’intelligence humaine dans ses dimensions les plus sensibles. La question essentielle n’est pas de savoir si une IA peut concevoir un plat inhabituel, mais de comprendre ce que l’adoption massive de ces technologies dit de notre époque. Le défi consiste à distinguer le progrès réel de l’illusion technologique, afin de ne pas sacrifier la créativité humaine sur l’autel de la performance algorithmique.

Celine Dou

Chine : un adolescent sur quatre s’automutile, symptôme du mal-être d’une jeunesse en modernisation rapide

L’augmentation récente des comportements d’auto‑lésion chez les adolescents chinois révèle une fracture profonde entre les transformations économiques et technologiques du pays et la stabilité psychologique des jeunes générations. Selon plusieurs études menées dans les grandes villes chinoises, près d’un adolescent sur quatre s’est déjà infligé des blessures volontaires sans intention suicidaire. Ce chiffre, inédit en Chine, rapproche désormais le pays des sociétés occidentales, où ces comportements ont été documentés depuis plusieurs décennies.

Lire la suite: Chine : un adolescent sur quatre s’automutile, symptôme du mal-être d’une jeunesse en modernisation rapide

Le phénomène ne peut être réduit à un problème individuel ou médical isolé. Il s’inscrit dans un contexte de modernisation accélérée qui bouleverse les repères sociaux et culturels traditionnels. La transition de la Chine vers un modèle économique libéral et technologiquement avancé a créé un environnement où la compétition scolaire et sociale est intense, les pressions sur les jeunes immenses et les repères collectifs fragilisés. La culture confucéenne, qui structura longtemps l’éducation et les relations familiales, est mise à l’épreuve par la mobilité urbaine et la montée de l’individualisme. Les adolescents se retrouvent ainsi confrontés à des exigences personnelles et sociales sans précédent, mais avec moins de cadres solides pour y répondre.

La technologie joue un rôle amplificateur. L’usage intensif des smartphones et des réseaux sociaux expose les jeunes à une comparaison constante et à une surstimulation émotionnelle. L’isolement numérique et la dépendance aux écrans renforcent le sentiment de solitude et la difficulté à gérer les émotions, créant un terreau favorable aux comportements d’automutilation. Ces tendances sont accentuées par la pression scolaire et le rythme de vie urbain, qui imposent des performances académiques et sociales toujours plus élevées.

L’automutilation chez les adolescents chinois reflète aussi l’effet du libéralisme économique débridé sur la jeunesse. La croissance rapide et la consommation individualisée ont élargi les possibilités, mais ont simultanément réduit les repères collectifs et les valeurs transcendantes sur lesquelles les jeunes pouvaient s’appuyer pour structurer leur identité. La quête de sens, le sentiment d’appartenance et la stabilité affective deviennent fragiles, et certains adolescents cherchent à réguler leur détresse émotionnelle par des comportements d’auto‑lésion.

Au niveau de la santé publique, ce phénomène soulève des enjeux majeurs. La disponibilité limitée de psychologues scolaires, la stigmatisation persistante de la santé mentale et l’insuffisance des infrastructures de prévention mettent en danger la capacité des adolescents à recevoir un soutien adapté. Les initiatives récentes du gouvernement chinois pour alléger la pression scolaire et promouvoir le bien-être psychologique constituent un pas dans la bonne direction, mais leur impact reste encore limité face à l’ampleur du mal-être.

L’émergence de l’automutilation en Chine n’est pas un simple symptôme médical : elle illustre le coût humain des transformations socio-économiques rapides. La modernisation et l’ouverture économique, lorsqu’elles ne s’accompagnent pas de cadres sociaux, culturels et éducatifs protecteurs, peuvent générer des fragilités psychologiques inédites. Ce phénomène interroge non seulement les politiques éducatives et de santé publique, mais aussi la manière dont la société chinoise accompagne ses jeunes dans la transition vers une modernité accélérée.

La détresse des adolescents chinois est ainsi le reflet d’un paradoxe contemporain : la prospérité économique et technologique ne garantit pas le bien-être psychologique, et la jeunesse se retrouve souvent livrée à elle-même pour naviguer entre ambitions personnelles et exigences sociales. Comprendre ce phénomène exige une lecture fine et analytique, qui dépasse les chiffres bruts et met en lumière les transformations profondes de la société chinoise.

Celine Dou

Intelligence Artificielle : Plus de 800 personnalités appellent à encadrer l’IA superintelligente : risques, gouvernance et enjeux sociétaux

Le 22 octobre 2025, le Future of Life Institute (FLI) a lancé un signal d’alarme mondial. Dans une lettre ouverte publiée sur son site et relayée par les médias internationaux, plus de 800 personnalités chercheurs, entrepreneurs, figures culturelles et responsables politiques ont demandé l’interdiction temporaire du développement d’une intelligence artificielle superintelligente (IASI), jusqu’à ce qu’un consensus scientifique et sociétal soit atteint. Geoffrey Hinton et Yoshua Bengio, figures emblématiques de l’IA, aux côtés de Steve Wozniak, Meghan Markle et du prince Harry, ont choisi de s’associer à cet appel, soulignant l’ampleur et l’urgence du débat.

Lire la suite: Intelligence Artificielle : Plus de 800 personnalités appellent à encadrer l’IA superintelligente : risques, gouvernance et enjeux sociétaux

Les signataires mettent en garde contre des risques qui dépassent largement la sphère technologique. Selon eux, une IA superintelligente pourrait transformer radicalement les sociétés humaines, entraînant obsolescence des compétences, perturbation économique, perte de contrôle politique et menace directe sur les libertés fondamentales. La lettre évoque même la possibilité, dans des scénarios extrêmes, d’un impact existentiel sur l’humanité. Cette mise en garde illustre que l’innovation ne peut plus être pensée uniquement en termes de productivité ou de compétitivité : elle engage désormais l’équilibre social et la survie politique des nations.

Le débat prend d’autant plus d’importance que la course à l’IA est mondiale et féroce. Les États-Unis, la Chine et l’Union européenne investissent massivement dans des systèmes de plus en plus avancés, et des entreprises comme OpenAI, Google ou Meta rivalisent pour atteindre des capacités cognitives inédites. Dans ce contexte, la gouvernance de l’IA devient un enjeu stratégique, diplomatique et économique. La question n’est plus seulement technologique : elle est politique. Comment encadrer des systèmes qui pourraient échapper au contrôle humain ? Quelle régulation internationale peut assurer sécurité, équité et transparence ? Peut-on créer des garde‑fous efficaces alors que la compétition mondiale pousse à la précipitation ?

L’enjeu dépasse également le champ économique et géopolitique : il est profondément sociétal. La superintelligence pourrait bouleverser l’emploi, redéfinir les hiérarchies sociales et remettre en question le rôle de l’humain dans la production et la décision. L’éducation, les institutions démocratiques, la vie collective et même la notion de liberté pourraient se trouver affectées. La lettre ouverte insiste sur la nécessité d’un débat public global : chaque citoyen, chaque société, doit mesurer les conséquences des choix technologiques actuels sur les générations futures.

Le texte soulève aussi des interrogations éthiques fondamentales. Qui décide de ce qui est acceptable ? Quelle responsabilité assumer face à des machines capables d’apprendre et de s’auto‑améliorer ? L’IA superintelligente pose la question de la place de l’humain dans le monde : elle peut être un instrument de progrès ou devenir un facteur d’aliénation et de dépendance. Les signataires insistent sur le fait que la technologie ne peut se substituer à l’éthique et que toute innovation doit être encadrée par des valeurs humaines clairement définies.

Cependant, cet appel n’est pas sans contestation. Certains chercheurs et entrepreneurs estiment qu’une pause serait irréaliste, que la régulation pourrait freiner des progrès bénéfiques et que l’IA superintelligente reste, pour l’heure, largement théorique. Cette tension entre innovation et précaution illustre une fracture profonde : celle entre la vitesse du développement technologique et la capacité des sociétés à en maîtriser les conséquences.

Loin de se limiter à un débat académique, cette mobilisation témoigne d’une urgence sociale et morale. Elle rappelle que l’IA n’est pas seulement un enjeu technique : elle conditionne l’avenir de l’organisation humaine, la répartition du pouvoir et le rapport de chacun à la technologie. L’initiative du FLI ouvre un espace nécessaire pour réfléchir aux garde‑fous politiques, aux mécanismes de régulation internationale, mais aussi à la sensibilisation des citoyens. Elle pose la question de l’anticipation : vaut‑il mieux freiner une technologie avant qu’elle ne nous échappe, ou courir le risque d’une innovation incontrôlée ?

Le futur de l’IA superintelligente reste incertain, mais le débat qu’elle suscite est déjà une étape cruciale. La communauté scientifique, les gouvernements, l’industrie et la société civile sont désormais confrontés à un choix : laisser l’innovation précéder la réflexion ou instaurer un cadre rigoureux qui protège l’humain tout en permettant un progrès maîtrisé. Cette réflexion n’est pas seulement technique : elle est politique, éthique et profondément sociétale. Dans cette perspective, l’appel lancé par ces 800 personnalités constitue un jalon essentiel dans la définition du rapport futur de l’humanité à ses créations les plus puissantes.

Celine Dou

Inde : la pluie artificielle à New Delhi, un pari scientifique pour conjurer une crise environnementale durable

L’Inde vient de franchir une étape symbolique et controversée dans la lutte contre la pollution atmosphérique : le 24 octobre, les autorités de New Delhi ont procédé à un premier essai de pluie artificielle, en ensemençant les nuages afin de dissiper le brouillard toxique qui étouffe la capitale depuis plusieurs jours. L’expérience, menée en collaboration avec l’Institut indien de technologie de Kanpur, mobilise un avion Cessna équipé de fusées d’iodure d’argent pour provoquer des précipitations censées « nettoyer » l’air.

Lire la suite: Inde : la pluie artificielle à New Delhi, un pari scientifique pour conjurer une crise environnementale durable

Cette tentative traduit moins un triomphe scientifique qu’un aveu d’impuissance collective face à une crise environnementale désormais chronique. Chaque hiver, la mégapole de plus de trente millions d’habitants figure parmi les villes les plus polluées du monde : les particules fines y atteignent parfois soixante fois le seuil recommandé par l’Organisation mondiale de la santé. Entre émissions industrielles, trafic automobile et brûlis agricoles, la capitale indienne s’enferme dans un smog persistant que ni les interdictions de feux d’artifice ni les restrictions de circulation ne parviennent à endiguer.

Une fuite en avant technologique

Inventée dans les années 1940, la technique d’ensemencement des nuages consiste à introduire dans l’atmosphère des substances comme l’iodure d’argent ou le chlorure de sodium afin de favoriser la condensation de la vapeur d’eau. Elle a déjà été utilisée en Chine, aux Émirats arabes unis ou encore aux États-Unis d’Amérique, pour stimuler la pluie, réduire la grêle ou limiter les incendies. Mais son efficacité demeure incertaine et variable selon les conditions météorologiques, et son impact écologique n’est pas neutre.

En recourant à cette méthode, l’Inde s’inscrit dans un mouvement plus large de géo-ingénierie climatique, où la technologie prétend compenser les dérèglements qu’elle a souvent contribué à engendrer. Ces initiatives traduisent une volonté d’agir vite, mais elles posent des questions fondamentales : jusqu’où l’humanité peut-elle « corriger » les déséquilibres qu’elle a provoqués ? Et à quel coût environnemental, social et éthique ?

Un miroir des contradictions du développement

La pluie artificielle révèle les paradoxes des puissances émergentes. L’Inde, qui ambitionne de devenir la troisième économie mondiale, reste prisonnière d’un modèle de croissance intensif en énergie fossile, tandis que des millions d’Indiens subissent directement les conséquences sanitaires de cette pollution : affections respiratoires, maladies cardiovasculaires, baisse de l’espérance de vie.

Cette situation illustre le dilemme des pays du Sud : comment concilier essor économique et survie écologique, dans un système mondial encore dominé par les logiques productivistes héritées du Nord ? New Delhi, en cherchant à “faire pleuvoir” pour respirer, incarne cette tension entre modernité et fragilité.

Une réponse de court terme à un problème structurel

Les spécialistes de l’environnement s’accordent : seule une transformation profonde du modèle énergétique et urbain permettra de réduire durablement la pollution. La pluie artificielle, aussi spectaculaire soit-elle, ne traite pas la source du mal. Elle disperse un symptôme sans guérir la maladie.

Derrière le geste scientifique, se dessine ainsi une interrogation plus vaste : la technologie peut-elle vraiment réparer ce que l’homme dérègle ? Ou n’est-elle qu’un palliatif provisoire à une crise que seule une conversion écologique mondiale pourrait résoudre ?

Celine Dou

Quand ChatGPT ampute la pensée : inquiétudes sur la santé cognitive de la jeunesse

Le Massachusetts Institute of Technology (MIT) vient de publier une étude qui ravive un débat fondamental : l’impact des intelligences artificielles génératives, telles que ChatGPT, sur nos capacités cognitives. Les chercheurs mettent en lumière une possible baisse d’activité neuronale et de mémoire profonde chez les utilisateurs intensifs. Loin des promesses souvent dithyrambiques sur les bienfaits des IA dans la productivité et l’éducation, les conclusions soulèvent des interrogations sérieuses, en particulier pour les jeunes générations.

Lire la suite Quand ChatGPT ampute la pensée : inquiétudes sur la santé cognitive de la jeunesse

La population mondiale largement sous-estimée ? Une étude pointe des milliards de personnes ignorées

Une étude scientifique internationale remet en cause l’exactitude des chiffres officiels de la population mondiale. Selon les chercheurs, des erreurs systémiques dans les méthodes de recensement, en particulier dans les zones rurales, pourraient cacher l’existence de près de trois milliards de personnes supplémentaires.

Publiée dans la revue Nature Communications, l’étude est le fruit du travail d’une équipe de chercheurs de l’Université Aalto en Finlande. Leur méthode s’appuie sur la confrontation de plusieurs bases de données démographiques globales avec des registres de réinstallations forcées menées à l’occasion de projets d’infrastructures hydrauliques notamment des barrages dans 35 pays du monde, couvrant la période de 1975 à 2010.

Ces registres de déplacements, utilisés pour l’indemnisation des populations affectées, présentent généralement un haut niveau de fiabilité, offrant ainsi un point de comparaison inédit avec les estimations globales traditionnelles.

Les résultats sont saisissants : les populations rurales seraient régulièrement sous-estimées, avec des écarts allant de 53 % à 84 % selon les périodes et les régions étudiées. Même pour l’année 2010, censée bénéficier de méthodes plus modernes, le sous-comptage atteindrait encore entre 32 % et 77 %.

Si ces écarts sont généralisés à l’échelle mondiale, la population rurale officiellement estimée à 3,5 milliards de personnes en 2020 pourrait en réalité être beaucoup plus nombreuse. Les chercheurs avancent qu’entre 1,9 et 3 milliards de personnes pourraient ainsi être « invisibles » dans les données démographiques officielles. Cela signifierait que la population mondiale, aujourd’hui évaluée par les Nations unies à 8,2 milliards d’individus, serait en réalité nettement plus élevée.

Ces possibles erreurs de comptage ne sont pas qu’une question statistique. Elles peuvent affecter directement :

  • La planification des infrastructures et des services publics : routes, écoles, hôpitaux et réseaux d’assainissement dépendent des estimations de population pour leur implantation et leur dimensionnement.
  • Les politiques de santé publique : une sous-estimation des populations rurales peut fausser les stratégies de vaccination, de prévention et de lutte contre les pandémies.
  • La gestion des catastrophes naturelles : des populations entières pourraient ne pas être correctement prises en compte lors des plans d’évacuation ou de distribution de l’aide humanitaire.
  • La distribution de l’aide internationale et des financements : le développement rural, déjà souvent négligé, pourrait pâtir d’une vision tronquée de la réalité démographique.

Le phénomène touche de manière particulièrement sensible les régions où les populations rurales sont nombreuses et souvent difficiles à recenser : l’Afrique subsaharienne, l’Asie du Sud et l’Asie du Sud-Est. L’étude souligne que les progrès des dernières années tels que l’utilisation d’imageries satellitaires, de données mobiles et de systèmes de positionnement géographique n’ont pas encore permis de résorber entièrement ces biais dans les zones les plus reculées.

Pour les pays du Sud, où les investissements d’infrastructures sont directement liés aux prévisions démographiques, l’enjeu est stratégique : sous-estimer la population rurale, c’est risquer de sous-financer durablement des millions de citoyens invisibles.

Face à ces conclusions, les chercheurs appellent à une refonte profonde des méthodologies démographiques globales. Les recensements nationaux restent souvent incomplets, irréguliers, voire obsolètes dans certains États fragiles. Le développement de nouvelles approches mixtes combinant technologies satellitaires, intelligence artificielle, données de terrain et enquêtes participatives apparaît désormais essentiel pour obtenir une image plus fidèle de la répartition réelle des populations humaines.

Dans un contexte de tensions croissantes autour des ressources, du climat, de la sécurité alimentaire et de la migration, l’exactitude des chiffres démographiques devient un paramètre stratégique majeur. Cette étude éclaire ainsi une faiblesse fondamentale de nombreuses politiques internationales : bâties sur des données incertaines, elles pourraient ignorer des centaines de millions de personnes, invisibilisées malgré leur poids réel dans les dynamiques économiques, sociales et environnementales globales.

Hommage ou simulacre ? Disney reprogramme la mémoire de Walt, sa petite-fille s’indigne

Pour célébrer les 70 ans de Disneyland, la Walt Disney Company prépare une attraction inédite : un robot animatronique grandeur nature de Walt Disney, capable de parler et d’interagir avec le public. Ce projet ambitieux suscite une vive controverse, notamment au sein même de la famille Disney. Joanna Miller, petite-fille du créateur, dénonce une « déshumanisation » et une « instrumentalisation » de la mémoire de son grand-père, rappelant que la mémoire d’un homme ne saurait être réduite à un simple automate.

En juillet 2025, le parc Disneyland d’Anaheim, Californie, dévoilera une figure animée de Walt Disney, conçue pour reproduire ses expressions, sa voix et ses gestes. Présentée comme un hommage à la légende fondatrice, cette initiative technologique repose sur une intelligence artificielle avancée et un savoir-faire de pointe dans le domaine des animatroniques.

Pour la multinationale, il s’agit de transmettre l’héritage de Walt Disney aux nouvelles générations par un moyen innovant, mêlant spectacle et pédagogie. Mais cette démarche soulève des questions éthiques profondes, alimentées par l’opposition de Joanna Miller, qui s’est publiquement élevée contre ce qu’elle perçoit comme une usurpation.

Dans un message relayé sur les réseaux sociaux, Joanna Miller s’est dite bouleversée par la représentation robotique de son grand-père. Invitée à découvrir l’animatronique en avant-première, elle confie : « Ce n’est pas lui, c’est une coquille vide. Walt n’a jamais voulu être figé ainsi. » Elle souligne que la volonté intime de Walt Disney, selon les témoignages familiaux, était de ne pas laisser d’image posthume figée et artificielle.

Cette position contraste avec celle d’autres membres de la famille, qui soutiennent le projet et y voient un moyen de faire vivre la mémoire de Walt Disney auprès du public, dans un format adapté à notre époque. Ce désaccord met en lumière une fracture plus large : faut-il privilégier une mémoire incarnée, fragile et humaine, ou une mémoire scénarisée, numérisée et accessible ?

Au-delà du cas Disney, ce projet s’inscrit dans une tendance globale des industries culturelles, en particulier aux États-Unis d’Amérique, à recréer numériquement des figures historiques et artistiques disparues. Hologrammes de chanteurs, clones vocaux par intelligence artificielle, avatars digitaux dans des films : les possibilités technologiques de « ressusciter » les icônes sont aujourd’hui à portée de main.

Cette évolution soulève de nombreuses interrogations. Peut-on réellement capturer l’essence d’un être humain à travers une simulation ? Quel est le respect dû à la mémoire et à la volonté des défunts ? Et surtout, la mémoire ainsi médiatisée ne risque-t-elle pas de devenir un produit calibré, édulcoré, destiné avant tout à divertir et à générer du profit ?

L’animatronique de Walt Disney, qui sera installé dans le Main Street Opera House, illustre cette marchandisation de la mémoire. Derrière l’hommage se cache une stratégie commerciale qui vise à renforcer le lien affectif entre la marque Disney et ses visiteurs, tout en exploitant une nostalgie lucrative.

Joanna Miller alerte contre ce qu’elle considère comme une appropriation industrielle de la mémoire familiale, une mémoire qui devrait, selon elle, rester un lieu d’intimité et de respect, non un spectacle figé et commercialisé.

La controverse suscitée par le robot Walt Disney est bien plus qu’un simple différend familial. Elle interroge la place de la technologie dans la transmission de la mémoire, dans un monde où le numérique prétend aujourd’hui « faire revivre » les morts. Joanna Miller rappelle à juste titre que la mémoire humaine ne se réduit pas à une reproduction mécanique : elle est faite d’émotions, d’ombres et de silences. Face à l’essor des simulacres numériques, ce rappel devient un enjeu culturel majeur pour notre époque.

Des milliards perdus à cause des cookies : l’impasse réglementaire de l’Union européenne

14,3 milliards d’euros par an. C’est le coût économique estimé des bannières de cookies imposées aux internautes résidant dans l’Union européenne. À force de vouloir encadrer la vie privée numérique, les institutions union-européennes ont semble-t-il généré une nouvelle forme de nuisance : le clic obligatoire, chronophage, répétitif, qui ralentit le travail et dilue le sens même du consentement.

Selon une étude publiée par Legiscope, les Européens passeraient collectivement 575 millions d’heures par an à cliquer sur ces fenêtres de consentement, soit près d’1h30 par utilisateur chaque année. Ce chiffre, au-delà de sa charge symbolique, traduit une situation de perte sèche de productivité pour les particuliers comme pour les entreprises.

À l’origine, les bannières de cookies sont nées d’une ambition louable : redonner aux utilisateurs le contrôle de leurs données personnelles, conformément au Règlement général sur la protection des données (RGPD) entré en vigueur en mai 2018. Mais six ans après, la pratique s’est banalisée au point de s’industrialiser dans l’inefficacité.

Une majorité d’usagers cliquent sur « Accepter » sans lire les détails. Selon plusieurs analyses indépendantes, notamment relayées par Phonandroid, plus de 90 % des sites ne respecteraient pas fidèlement les choix des utilisateurs, soit par design manipulateur, soit par inaction technique. Le « privacy washing » est devenu la norme.

Le coût direct pour les utilisateurs est estimé à 14,375 milliards d’euros par an, selon les extrapolations faites sur la base du PIB horaire moyen. À cela s’ajoutent 1,8 milliard d’euros par an pour les entreprises, en frais de conformité (outils, prestataires, gestion juridique).

Au total, ce système, qui devait rétablir un équilibre dans le numérique européen, engendre un surcoût annuel équivalant à 0,10 % du PIB de l’Union européenne. Pour une politique publique, le ratio coût/bénéfice mérite donc réévaluation.

Dans un contexte de ralentissement économique et de tensions géopolitiques, l’Union européenne cherche à promouvoir une « souveraineté numérique ». Mais peut-elle se permettre de sacrifier autant de temps et de ressources à une mécanique inefficace ?

Certaines pistes de réforme sont évoquées : bannière unique centralisée, consentement par défaut dans les navigateurs, renforcement des sanctions contre les abus. Mais aucun consensus n’émerge, tant le terrain juridique est miné par les intérêts divergents entre éditeurs, régulateurs et acteurs de la publicité ciblée.

Ce cas union-européen mérite d’être analysé au-delà du continent. Il illustre les limites d’une approche technocratique du numérique, qui, en voulant tout encadrer, finit par asphyxier l’expérience utilisateur et l’efficacité économique. Les autres ensembles géopolitiques qu’il s’agisse de l’Afrique, des États-Unis d’Amérique ou de l’Asie orientale devront tirer les leçons de cette impasse réglementaire.

La protection de la vie privée ne doit pas se transformer en rituel bureaucratique. Elle suppose une technologie compréhensible, une réelle transparence, et une exigence d’efficacité. Faute de quoi, c’est la confiance elle-même qui s’effrite, et avec elle, l’un des piliers du numérique de demain.