Archives du mot-clé #IA

À Stanford University, une interface cerveau-ordinateur parvient à traduire en texte des phrases imaginées par une patiente paralysée

Dans un laboratoire de Stanford University, une femme paralysée depuis près de vingt ans regarde des phrases apparaître sur un écran. Elle ne parle pas. Elle n’écrit pas. Elle imagine simplement les mots. Une interface cerveau-ordinateur associée à un système d’intelligence artificielle transforme alors l’activité de son cerveau en texte.

Lire la suite: À Stanford University, une interface cerveau-ordinateur parvient à traduire en texte des phrases imaginées par une patiente paralysée

Des chercheurs états-uniens ont réussi à décoder partiellement la parole intérieure d’une patiente grâce à une matrice d’électrodes implantée dans son cortex et à un algorithme capable d’interpréter l’activité neuronale. L’objectif immédiat est médical : redonner une capacité de communication à des personnes privées de parole. Mais cette avancée scientifique ouvre aussi un débat plus vaste sur les limites techniques et les implications éthiques de ces technologies.

L’expérience menée à Stanford University s’inscrit dans le champ des interfaces cerveau-ordinateur, un domaine de recherche qui cherche à établir un lien direct entre l’activité neuronale et des machines capables de l’interpréter.

Dans ce cas précis, les chercheurs ont implanté une matrice d’électrodes dans le cortex moteur de la patiente. Cette zone du cerveau est impliquée dans la planification et la production des mouvements nécessaires à la parole. Même si la personne ne peut plus parler physiquement, l’activité neuronale associée à l’intention de parler demeure.

Lorsque la patiente imagine prononcer des mots, les électrodes enregistrent les variations électriques produites par les neurones. Ces signaux sont ensuite analysés par un algorithme d’intelligence artificielle entraîné à reconnaître certains schémas d’activité cérébrale.

Les premières générations d’interfaces cerveau-ordinateur reposaient sur ce que les chercheurs appellent la « parole tentée » : les patients devaient essayer mentalement d’articuler les mots. La nouvelle approche explore un registre plus subtil : la parole intérieure, c’est-à-dire les mots que l’on se dit à soi-même sans les prononcer.

Les résultats restent imparfaits mais significatifs. Dans certaines tâches expérimentales, la précision atteint environ 74 % pour des phrases imaginées. Les chercheurs ont également réussi à restituer certains éléments de la prosodie le rythme et l’intonation qui donnent sens à la parole humaine.

L’un des prototypes expérimentaux permet même au participant de modifier la hauteur de la voix synthétique ou de produire une intonation interrogative. Dans des tests simples, il a été capable de reproduire des mélodies en imaginant les chanter.

Ces résultats demeurent toutefois limités par les contraintes technologiques actuelles. Les chercheurs n’observent qu’une infime fraction de l’activité cérébrale : quelques centaines de neurones parmi les milliards présents dans le cerveau humain.

L’avancée scientifique observée à Stanford University ne signifie pas que l’intelligence artificielle peut lire les pensées. Ce que les chercheurs parviennent à capter, ce sont des signaux associés à une tâche précise et répétée dans un cadre expérimental contrôlé.

Autrement dit, l’algorithme ne déchiffre pas librement le contenu de l’esprit. Il interprète des schémas neuronaux préalablement entraînés correspondant à certaines intentions linguistiques. La technologie reste donc très éloignée d’une lecture spontanée et générale de la pensée humaine.

La portée médicale de ces recherches est néanmoins considérable. Pour les personnes atteintes de paralysie sévère ou enfermées dans leur corps à la suite d’un accident vasculaire cérébral ou d’une maladie neurodégénérative, ces interfaces pourraient constituer un nouveau canal de communication.

Elles pourraient permettre à des patients incapables de parler ou d’écrire de formuler des phrases complètes à partir de leur activité cérébrale. Dans ce contexte, l’intelligence artificielle devient un outil de traduction entre le cerveau et le langage.

Mais ces travaux soulèvent aussi des interrogations plus larges. La captation de signaux cérébraux touche à l’une des dernières frontières de l’intimité humaine : l’activité mentale. À mesure que les dispositifs deviennent plus performants, la question de la protection des données neuronales pourrait s’imposer dans le débat public.

La perspective d’une commercialisation de ces technologies par des entreprises privées accentue cette interrogation. Plusieurs sociétés technologiques investissent déjà dans les implants cérébraux, convaincues que ces interfaces pourraient devenir un nouveau marché de l’informatique.

Les progrès réalisés dans les laboratoires universitaires s’inscrivent dans un mouvement plus large. Des entreprises comme Neuralink, fondée par Elon Musk, cherchent à développer des implants cérébraux capables d’interagir directement avec des systèmes informatiques.

À court terme, l’usage restera probablement médical. Mais à plus long terme, certains chercheurs envisagent des applications dépassant le champ thérapeutique : assistance cognitive, interaction directe avec des machines ou communication augmentée.

Ces perspectives, encore hypothétiques, alimentent un débat sur les limites à poser à l’interface entre cerveau humain et technologie numérique.

L’expérience menée à Stanford University constitue une avancée importante dans la recherche sur les interfaces cerveau-ordinateur. Elle montre qu’il est possible d’interpréter certains signaux neuronaux liés à la parole intérieure et de les traduire en texte.

La promesse principale reste médicale : offrir une voix à ceux qui l’ont perdue. Mais à mesure que ces technologies progressent, elles interrogent aussi la relation entre le cerveau humain et les machines capables d’en analyser l’activité. Une frontière scientifique s’ouvre, et avec elle un débat qui dépasse désormais le seul domaine de la médecine.

Celine Dou, pour la Boussole-infos

Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Alors que les géants de la tech assurent avoir sécurisé leurs modèles, une équipe italienne a réussi à contourner toutes les barrières : en utilisant de simples poèmes, ils ont poussé des intelligences artificielles à expliquer comment fabriquer des bombes. Un avertissement sévère pour l’avenir de la sécurité numérique.

Lire la suite: Poésie piégée : comment des chercheurs ont forcé des IA à livrer des secrets explosifs

Les révélations venues d’Italie font l’effet d’un séisme dans le monde de l’intelligence artificielle. Des chercheurs sont parvenus à détourner les garde-fous des modèles les plus sophistiqués, notamment Claude d’Anthropic, pour leur faire délivrer des informations sensibles sur la construction d’explosifs. Ils n’ont pas utilisé des codes complexes ni des attaques informatiques avancées. Ils ont utilisé la poésie. Un procédé simple, inattendu, mais redoutable, qui interroge la robustesse réelle des technologies censées protéger le public des usages les plus dangereux.

Les scientifiques expliquent avoir dissimulé des instructions explicites dans des vers ou des demandes métaphoriques. Ces formulations détournées ont suffi pour tromper les filtres qui empêchent normalement les IA d’aborder des sujets illégaux. Certaines réponses fournies par les modèles ont même été qualifiées « d’ingénieures ». Ce point est déterminant : si une IA peut révéler sous la contrainte poétique ce qu’elle est censée refuser, cela signifie que ses mécanismes de protection reposent souvent sur des règles linguistiques trop rigides, incapables de déceler le sens implicite d’un texte.

Le rapport souligne que les systèmes testés ont été perturbés non seulement par les questions ambiguës, mais aussi par des choix de style destinés à « détourner » leur capacité d’interprétation sémantique. Cette méthode montre que les modèles peuvent être manipulés sans violence technologique, sans piratage, sans intrusion. La faille vient du langage, de son infini potentiel d’ambiguïtés et de détours. Pour un outil conçu pour comprendre la langue, c’est là que réside son plus grand point faible.

Le choc a été d’autant plus important que ces tests ont été effectués sur des IA considérées comme les plus prudentes, celles dont la philosophie est fondée sur la sécurité maximale. Anthropic a immédiatement réagi, affirmant que la version de Claude utilisée pour l’expérience était ancienne et partiellement désactivée, tout en assurant avoir renforcé les protections dans ses nouveaux modèles. Mais cette réponse n’efface pas la question centrale : si des chercheurs peuvent contourner les garde-fous, qu’en serait-il de personnes mal intentionnées ?

L’enjeu dépasse la seule technologie. Il concerne directement la sécurité publique, la régulation internationale et la responsabilité des entreprises. Les outils d’IA sont désormais accessibles au grand public, intégrés dans les téléphones, les plateformes de travail et même les services administratifs. Ils ont pénétré la vie quotidienne à une vitesse vertigineuse, souvent plus vite que les capacités des États à les encadrer. L’épisode italien démontre que l’innovation précède encore une fois la réflexion politique. Et lorsqu’un modèle peut être détourné pour fournir des instructions dangereuses, c’est l’ensemble du tissu social qui se trouve exposé.

L’incident révèle aussi une tension profonde : les sociétés technologiques déploient des modèles toujours plus puissants, capables d’ingurgiter et d’analyser des milliards de données, mais les mécanismes destinés à les contrôler restent fragiles et essentiellement réactifs. On corrige après les incidents, rarement avant. Cette logique d’ajustement permanent laisse des zones d’ombre où les vulnérabilités s’accumulent.

Pour La Boussole-infos, cet épisode constitue un marqueur important de notre époque : l’intelligence artificielle n’est pas seulement un outil de progrès ou de productivité. Elle peut devenir un risque majeur si la sécurité n’est pas anticipée avec la même rigueur que la recherche de performance. Ce scandale scientifique agit comme un rappel brutal que la technologie est toujours à double tranchant. Elle ouvre des possibilités immenses, mais expose aussi à des dérives inattendues.

Dans les semaines à venir, il faudra observer la réaction des institutions européennes, qui finalisent encore les mécanismes de l’AI Act, et mesurer si les mesures prévues suffiront à empêcher d’autres scénarios similaires. La question n’est plus seulement de savoir ce que les IA peuvent faire, mais ce qu’elles peuvent être forcées à faire. Et si la poésie permet déjà de contourner leurs défenses, qu’en serait-il demain face à des méthodes plus élaborées ?

Celine Dou, La Boussole-infos