C'est un peu trop réducteur pour être juste. Un LLM ne fera certes pas de faute de grammaire ou d'orthographe, mais un Humain de bonne foi n'inventera pas des faits.
La situation est très différente entre les PC et les LLM. Je crois que j'en parlais plus haut : un LLM est un système stochastique dont le processus de production de texte est invérifiable. Il y a des équipes entières de chercheurs qui travaillent sur ce sujet depuis que les premiers algo de machine Learning ont commencé à être utilisés. Un PC est à l'inverse déterministe.
Même en décomposant les tâches dans des structures agentiques, on estime que 85% de fiabilité est aujourd'hui un score élevé pour une "IA". Or il y a beaucoup de cas d'application où 85% de fiabilité, c'est juste une catastrophe.
La difficulté actuelle est que les erreurs commises par les LLM ne sont plus les erreurs commises par les humains. Les processus de contrôle doivent changer en conséquence mais, au moins pour un temps, ils deviennent bien plus chronophage qu'ils n'étaient par le passé. Et il n'y a pas aujourd'hui de certitudes qu'il sera possible d'obtenir des résultats fiables à 100%.
Pour l'illustrer, prenons une chaîne de fabrication boîtes en plastique. Un contrôle qualité habituel portera probablement sur un % de boîtes dont on va vérifier manuellement régulièrement les dimensions principales, car on sait que la précision des machines, ou une erreur de paramétrage, peuvent entraîner des dérives dimensionnelle.
Et la plupart du temps on saura exactement d'où ça vient sinon trouve une erreur.
Remplacez cette chaîne par une "IA" et on se rendra compte que, une fois de temps en temps, elle sortira une boîte d'une forme totalement différente. Ça impose de mettre en place un contrôle qualité très différent, et on n'aura aucun moyen (pour l'instant) de savoir pourquoi elle a produit une boîte ronde alors qu'on la voulait carrée.
Si on rapporte ça à de la production documentaire : j'ai des collaborateurs qui doivent produire de la documentation scientifique et technique sur la base de documents source et d'entretien techniques.
Là où je faisais une relecture de cohérence qui me prenait environ 1h, je dois désormais réouvrir tous les documents pour vérifier que l'IA n'en a pas ignoré un, voir inventé un. On est sur une base de 2 à 3h de temps de relecture désormais. Pas de chance pour notre process, mes 2h heures perdues coûtent plus cher que les 3h gagnées par le rédacteur technique.
C'est extrêmement simple de détecter les erreurs d'un humain de bonne foi. C'est beaucoup plus complexe (pour l'instant en tout cas) de détecter celles des LLM