Le 1er janvier 2025, un Cybertruck Tesla a explosé devant l’hôtel Trump à Las Vegas. Le suspect, Matthew Livelsberger, un vétéran de 37 ans, aurait utilisé ChatGPT pour préparer son attaque, selon la police. L’enquête met en lumière des recherches troublantes et relance le débat sur les risques liés à l’usage de l’IA générative.
Le drame s’est déroulé le jour de l’an, au pied de l’hôtel Trump à Las Vegas. Matthew Livelsberger, un ancien soldat déployé à deux reprises en Afghanistan, a fait exploser son Cybertruck Tesla avant de se donner la mort. D’après les autorités, l’homme souffrait de stress post-traumatique et n’aurait nourri aucune animosité envers le président récemment élu.
L’IA générative au cœur de l’enquête
Lors de l’examen de l’ordinateur de Livelsberger, les enquêteurs ont découvert qu’il avait utilisé ChatGPT pour rechercher des informations relatives à son acte. Ces recherches incluaient des questions sur les cibles explosives, la vitesse des cartouches et la légalité des feux d’artifice en Arizona.
« C’est la première fois que nous voyons ChatGPT impliqué dans un incident de ce type sur le sol américain », a déclaré Kevin McMahill, shérif du département de police métropolitaine de Las Vegas. Il a qualifié cette utilisation de l’IA de « moment inquiétant » et d’« un changement de donne ».
Un vétéran en détresse
Selon le FBI, aucune preuve ne relie Livelsberger à des mouvements extrémistes ou à l’attaque récente à la Nouvelle-Orléans. « Il semble qu’il s’agisse d’un cas tragique de suicide impliquant un vétéran décoré (…) luttant contre un syndrome de stress post-traumatique et d’autres problèmes », a expliqué Spencer Evans, l’agent responsable de l’enquête, lors d’une conférence de presse.
Ce drame soulève des questions cruciales sur l’impact de l’intelligence artificielle et la prise en charge des anciens combattants souffrant de troubles psychologiques.
Clara Höser