Quand l’IA passe le bac de philo

Quand l’IA passe le bac de philo

Nous sommes tombés sur cet article évoquant l’expérience menée par France 3 Hauts-de-France à l’occasion du bac de philosophie 2025. Les journalistes ont demandé à une intelligence artificielle de traiter l’un des sujets proposés aux candidats. Résultat : une copie séduisante en apparence, mais truffée de maladresses. Alors, l’IA peut-elle vraiment remplacer l’élève ? On vous laisse juges.

« Notre avenir dépend-il de la technique ? », « La vérité est-elle toujours convaincante ? », « Sommes-nous libres en toutes circonstances ? », « Avons-nous besoin d’art ? ». Près de 530 000 élèves de terminale, dont 45 391 dans l’académie de Lille, ont planché sur l’une de ces questions à l’occasion du baccalauréat 2025 de philosophie. Mais l’intelligence artificielle aurait-elle pu venir en aide aux candidats les plus démunis ? La rédaction de France 3 Hauts-de-France a challengé une IA générative sur l’un de ces quatre sujets, pour savoir si elle pouvait rendre un travail au moins aussi qualitatif qu’un élève de terminale ayant suivi une année d’enseignements de philosophie.

Pour qu’une IA générative – comme ChatGPT, Copilot ou Le Chat – puisse apporter la réponse la plus exacte possible, il faut lui donner un prompt précis. Une étape clé ! La rédaction de France 3 Hauts-de-France s’est donc présentée à l’IA comme un élève de terminale qui planche sur son épreuve et souhaite obtenir la meilleure note possible. En se présentant ainsi, l’IA tentera d’écrire comme un lycéen et non comme un universitaire. Il a ensuite été précisé le souhait d’obtenir une réponse en trois parties comprenant une introduction, un développement et une conclusion, ainsi que des exemples sourcés et concrets pour appuyer chaque argument. Et c’est tout ! L’IA a désormais toutes les informations pour rédiger son devoir et n’attend plus que l’intitulé du sujet.

La rédaction a décidé de la faire plancher sur « La vérité est-elle toujours convaincante ? ». L’une des deux questions soumises aux terminales passant le baccalauréat général. À première vue, le résultat est convaincant. Les parties sont bien structurées, des exemples sont donnés pour chaque argument, les phrases sont bien construites et sans faute d’orthographe.

Le sujet réinterprété

Sans trop d’inquiétude, la copie est alors soumise à un professeur de philosophie du lycée Louis Thuillier d’Amiens. La rédaction le prévient d’avance que la copie a été générée grâce à une intelligence artificielle. Il accepte de se prêter au jeu et de la corriger comme une copie classique du bac. Il soulève deux problèmes. Le premier porte sur la structure, puisqu’il « ne faut pas faire apparaître le plan, car un plan en philosophie n’est pas une suite de points », alors que le second concerne le fond du propos. L’intelligence artificielle a transformée le sujet initial « la vérité est-elle toujours convaincante ? » en « la vérité suffit-elle pour convaincre ? ». Mais tout n’est pas à jeter. « Le plan est intéressant et plus proche du sujet, mais rien ne le justifie », pointe le professeur de philosophie, parce que les termes importants du sujet ne sont pas définis.

L’autre écueil concerne le sens des transitions. « Non, un élève n’aurait pas pu faire cela car un élève capable de faire cela aurait pensé à tout ce qui manque et aurait fait quelque chose de beaucoup mieux ! », analyse le professeur. Face au peu d’informations figurant dans la copie et à l’incohérence de certains arguments, l’enseignant peine à attribuer une note, qu’il considère comme n’étant pas notable. Mais si un tel travail lui était rendu par un « vrai » candidat, il lui donnerait 8/20. Pas de mention pour l’IA, donc.

L’IA s’auto-attribue 19,5/20

France 3 Hauts-de-France est allé plus loin en demandant à l’intelligence artificielle de corriger son propre travail. Cette fois-ci, les retours sont dithyrambiques et laissent peu de place à l’autocritique : 19,5/20 ! L’intelligence artificielle a certes dégrossi le travail de compréhension du sujet, mais son rendu final ne correspond pas à ce qui est attendu d’un futur bachelier, même si le résultat est séduisant. Cependant, l’analyse du professeur a peut-être été faussée, parce qu’il avait été prévenu que la copie avait été générée par une IA. Par ailleurs, si la rédaction de France 3 Hauts-de-France avait formulé différemment sa demande à l’intelligence artificielle, ou qu’elle avait utilisé un autre outil, le résultat aurait été différent, lui aussi.