Aller au contenu
imprimante 3D bambu lab pas chère

Messages recommandés

Posté(e)
il y a 54 minutes, divers a dit :

Toute la journée devant un écran à taper des lignes de code, je ne trouve pas cela passionnant

Euh... il y a des gens qui aiment ça et qui trouvent que c'est  passionant de taper du code 😅

Révélation

Ma vie serait-elle en réalité ennuyeuse ?

C'est déprimant 💔

Révélation

Je soupçonne @divers d'avoir des actions dans des groupes pharmaceutiques qui produisent des antidépresseurs 😁

 

  • J'aime 1
Posté(e)
il y a 6 minutes, electroremy a dit :
  Masquer le contenu

Ma vie serait-elle en réalité ennuyeuse ?

C'est déprimant 💔

 

  • Haha 1
Posté(e)
Il y a 1 heure, divers a dit :

Toute la journée devant un écran à taper des lignes de code, je ne trouve pas cela passionnant, mais imaginer de nouveaux besoins et demander à une I.A. de la sortir puis de l'améliorer suivent les besoins des utilisateurs je trouve cela beaucoup enrichissant. c'est un exemple des métiers qui vont changer en mieux.

OK. 

Voyons les LLM comme un nouvel outil qui va révolutionner nos usages. Il est pas encore bien fini mais à la vitesse ou ça va, dans quelques années on aura des outils très puissants.

Partant de la, on peut supposer que, comme les autres révolutions, ça va entraîner un transfert de la quantité de travail et une mutation des besoins. 

Ça reste à mon avis une approche très (trop) positiviste du progrès. 

 

Pourquoi  ? 

1. Ça va infiniment plus vite que les techno précédentes. On transfère pas tout un pan de travailleurs sur un autre métier en 2 ou 3 ans. Ceux qui vont occuper ces supposés nouveaux métiers sont à l'école. Les autres vont pour partie rester sur le carreaux parce que ce qu'on va leur demander, c'est pas juste d'apprendre à utiliser une machine. Le comptable, le traducteur, etc. sont rendus obsolètes en moins de temps qu'il n'en faut pour apprendre un nouveau métier. 

2. L'objectif affiché n'est d'ailleurs pas de changer le monde du travail mais bien de diminuer la quantité de travail disponible (y a 0 complotisme à dire ça, les déclarations des leaders du secteur sont sans équivoque). Et il va de soit que cette baisse de la quantité de travail disponible ne va pas se traduire en une baisse du temps de travail mais en chômage pour beaucoup et en enrichissement pour une certain. 

3. Cet outil porte en lui des dangers inédits. Le propre d'un outil (jusqu'à aujourd'hui) est qu'il est déterministe et agnostique. Un même usage produit un même résultat. Et vous pouvez l'utiliser pour planter un clou ou pour écraser le crâne de votre voisin, l'outil se retournera pas contre vous. Or les LLM et les agents qui en découlent ne sont pas déterministes. L'explicabilite des modèles est un pan de la recherche en tant que tel. 

4. De ce fait, l'outil porte en lui une capacité de manipulation avérée et plus sournoise encore que les réseaux sociaux. Ça va bien plus loin que de juste savoir résister à une publicité à la tv "parce qu'on est plus fort hein". Je ne parle même pas des hallucinations, ça au pire ça se check. Mais bien d'une orientation dans les réponses, d'une capacité à invisibiliser des sujets, etc. Je vous fais pas un dessin sur l'usage de tels outils par qqun qui chercherais juste à obtenir ce qu'il veut (et me parler pas non plus de complotisme, pas en 2026)

 

Donc perso, j'aime bien l'idée du champs des possibles ouvert par ces techno. Mais rester prudent et critique n'a rien d'un combat d'arrière garde, sauf à rester coincé dans l'idéologie des 30 glorieuses d'une technologie qui serait forcément emancipatrice. Et ce pour la raison simple que l'émancipation n'est plus le moteur (qu'il a été) pour le libéralisme économique, mais un frein. Y a donc aucune raison que les intérêts financiers derrière cette technologie cherche à en faire un usage emancipateur. 

 

 

  • J'aime 1
  • +1 1
  • 3 weeks later...
Posté(e)

Salut,

Hier j'ai utilisé l'IA (encore) pour me faire un petit outil. Je suis en train de tester la CORE One L, et plus précisément la caméra. Pour les timelapse celle-ci génère (en plus de la vidéo pré-montée) un ensemble de clichés en jpeg.

Comme je suis fainéant j'ai demandé à Claude de me pondre un outil sur-mesure pour :

  • Analyser les mouvements entre les photos afin de détecter le début et la fin de l'impression
  • Générer l'assemblage de toutes les photos de cet intervalle pour en faire une vidéo d'une durée spécifiée
  • Ajouter une pause de deux secondes sur la dernière image afin de laisser le temps de voir le résultat d'impression
  • Et un tas d'options configurables que je lui ai laissé le soin de rendre disponible. Il m'a proposé de l'upscaling 4k, du deflickering, spécifier manuellement le timestamp de début et fin, choisir le framerate de sortie et un tas d'autres, bref un outil très complet.

Moins de 5min après ma demande je n'ai eu qu'a lancer l'outil avec les options par défaut, en spécifiant uniquement la durée de 15sec que je voulais, sur le répertoire contenant les 2000+ photos et le laisser travailler pour me sortir un joli .mp4 aux petits oignons, coupé automatiquement au début et à la fin et avec la pause qui va bien.

Dans le même délai avec une recherche google je serais encore en train de lire les caractéristiques du logiciel proposé en premier lien pour savoir s'il répond au besoin. 🙂

Merci le progrès. 👍

  • J'aime 2
  • Wow 1
Posté(e)

J'utilise Claude Opus à outrance avec Google Antigravity, le résultat est terrifiant pour tous les développeurs, ingé sécu et autres sur le moyen terme... Mais avec les bonnes idées aujourd'hui l'IA permet de faire de super choses sans que ça prenne trop de temps de d'argent 👌

  • +1 2
Posté(e)
Il y a 1 heure, Kachidoki a dit :

Salut,

Hier j'ai utilisé l'IA (encore) pour me faire un petit outil. Je suis en train de tester la CORE One L, et plus précisément la caméra. Pour les timelapse celle-ci génère (en plus de la vidéo pré-montée) un ensemble de clichés en jpeg.

Comme je suis fainéant j'ai demandé à Claude de me pondre un outil sur-mesure pour :

  • Analyser les mouvements entre les photos afin de détecter le début et la fin de l'impression
  • Générer l'assemblage de toutes les photos de cet intervalle pour en faire une vidéo d'une durée spécifiée
  • Ajouter une pause de deux secondes sur la dernière image afin de laisser le temps de voir le résultat d'impression
  • Et un tas d'options configurables que je lui ai laissé le soin de rendre disponible. Il m'a proposé de l'upscaling 4k, du deflickering, spécifier manuellement le timestamp de début et fin, choisir le framerate de sortie et un tas d'autres, bref un outil très complet.

Moins de 5min après ma demande je n'ai eu qu'a lancer l'outil avec les options par défaut, en spécifiant uniquement la durée de 15sec que je voulais, sur le répertoire contenant les 2000+ photos et le laisser travailler pour me sortir un joli .mp4 aux petits oignons, coupé automatiquement au début et à la fin et avec la pause qui va bien.

Dans le même délai avec une recherche google je serais encore en train de lire les caractéristiques du logiciel proposé en premier lien pour savoir s'il répond au besoin. 🙂

Merci le progrès. 👍

Plus qu'à envoyer le truc à Josef 😄 

  • Haha 1
Posté(e)

Une erreur d'IA conduit à l'emprisonnement d'une grand-mère innocente pendant des mois : la police s'est servie de la reconnaissance faciale dans une affaire de fraude sans vérifier l'alibi

Angela Lipps, 50 ans, n'avait jamais mis les pieds dans le Dakota du Nord. Elle n'avait jamais pris l'avion de sa vie. Pourtant, en juillet 2025, une équipe de marshals américains l'a arrêtée à son domicile du Tennessee, pistolet au poing, pendant qu'elle gardait quatre jeunes enfants. La cause : un logiciel de reconnaissance faciale déployé par la police de Fargo avait désigné cette grand-mère de cinq petits-enfants comme la principale suspecte d'une série de fraudes bancaires. Six mois de détention, une maison perdue, une voiture saisie, un chien abandonné... et toujours aucune excuse de la part des autorités. L'affaire Lipps est devenue en quelques jours le symbole mondial des dérives de l'intelligence artificielle dans la justice pénale.

Le 14 juillet 2025, Angela Lipps se retrouve soudainement confrontée à des agents armés à la porte de sa maison dans le Tennessee rural. Elle est immédiatement placée en détention provisoire en tant que fugitive de la justice de l'État du Dakota du Nord, un statut qui lui interdit toute mise en liberté sous caution. Elle est incarcérée dans la prison du comté de Macon, dans le Tennessee, pendant près de quatre mois, sans que quiconque de la police de Fargo ne prenne la peine de la contacter ou de l'interroger.

Le dossier à l'origine de cette arrestation remonte au printemps 2025. Entre avril et mai, des enquêteurs de Fargo suivent une série d'escroqueries bancaires organisées : une femme utilise une fausse carte d'identité militaire de l'armée américaine pour retirer des dizaines de milliers de dollars dans plusieurs établissements de la région métropolitaine de Fargo. Pour identifier la suspecte filmée par les caméras de surveillance, la police recourt à un logiciel de reconnaissance faciale. Le résultat : Angela Lipps. Un détective complète ensuite l'analyse en consultant ses réseaux sociaux et sa photo de permis de conduire du Tennessee, avant de conclure dans son rapport de mise en cause qu'elle « semble être la suspecte au regard de ses traits du visage, de son type corporel et de la couleur et du style de ses cheveux ». Ce seul faisceau visuel, sans vérification d'alibi ni entretien téléphonique, débouche sur un mandat d'arrêt et l'extradition de la suspecte.

108 jours sans être interrogée, 157 jours de détention totale

Ce n'est que le 30 octobre 2025, soit 108 jours après son arrestation dans le Tennessee, que des agents du Dakota du Nord viennent la chercher pour la conduire à Fargo. Elle comparaît le lendemain matin devant un tribunal du comté de Cass. C'est à ce moment-là que l'avocat Jay Greenwood prend sa défense. Sa stratégie est aussi simple qu'implacable : demander les relevés bancaires de sa cliente.

Les relevés bancaires montrent qu'elle se trouvait à plus de 1 900 kilomètres de Fargo, chez elle dans le Tennessee, au moment précis où la police affirmait qu'elle commettait des fraudes à Fargo. Ses transactions de la période incriminée racontent une vie ordinaire et sédentaire : encaissement de chèques de sécurité sociale, achat de cigarettes dans une station-service locale, commande de pizza, paiement d'une course Uber Eats via Cash App. Autant de preuves géolocalisées et horodatées qui rendaient physiquement impossible sa présence à Fargo. Ces éléments, que n'importe quel enquêteur aurait pu et dû vérifier en quelques heures, n'avaient jamais été consultés avant l'arrestation.

Le 19 décembre 2025, lors d'une rencontre à la prison du comté de Cass, la police de Fargo prend connaissance de ces preuves. C'est la première fois qu'un enquêteur de Fargo parle à Angela Lipps depuis le début de l'affaire. Cinq jours plus tard, le 24 décembre, les charges sont abandonnées et elle est libérée. Elle se retrouve à Fargo, par une nuit de Noël, en vêtements d'été, sans manteau, sans argent, dans la neige. Des avocats de la défense locaux lui paient une chambre d'hôtel et des repas pour les deux jours de fête. Le lendemain de Noël, Adam Martin, fondateur de l'association F5 Project (qui vient en aide aux personnes touchées par l'incarcération), la conduit en voiture jusqu'à Chicago pour qu'elle puisse rentrer chez elle dans le Tennessee.

Pendant ses six mois de détention, Angela Lipps n'a pu honorer aucune de ses charges : elle a perdu son logement, sa voiture, et son chien a dû être confié ailleurs.

Le chef de la police prend sa retraite sans répondre

L'affaire a éclaté dans les médias le 11 mars 2026, grâce aux reportages de la chaîne locale WDAY, qui a obtenu le dossier de police par une demande d'accès aux documents officiels. Le lendemain, le chef de la police de Fargo, David Zibolski, annonçait sa retraite lors d'une conférence de presse. La coïncidence de calendrier n'a pas manqué d'interpeller les journalistes. Le maire de Fargo, Tim Mahoney, contacté par WDAY, n'a pas répondu aux questions sur un éventuel lien entre la retraite de Zibolski et l'affaire Lipps. À la conférence de presse de départ du chef, un journaliste lui a posé la question directe : « Pourquoi personne de la police de Fargo n'a-t-il jamais parlé à Angela Lipps pendant les cinq mois où elle était en prison ? » La réponse de Zibolski : « Merci pour cette question, Matt, mais nous ne sommes pas ici pour parler de ça aujourd'hui. »

La police de Fargo n'a présenté aucune excuse à Angela Lipps. La vraie auteure des fraudes, elle, court toujours : l'affaire de fraude bancaire reste ouverte et aucune arrestation n'a été effectuée à ce jour.
 

Posté(e)

J'appelle pas ça une erreur d'IA, mais un manque de professionnalisme des cowboys...

  • +1 1
Posté(e)
il y a 43 minutes, electroremy a dit :

un logiciel de reconnaissance faciale déployé par la police de Fargo

Fargo, pas étonnant ni nouveau :

Si vous connaissez le Film (1996) ou/et les séries !!! 🤣

image.png.030320ae3e81c49b60b6dc35df9da8d5.png

🙂

  • J'aime 1
Posté(e)
il y a 49 minutes, Kachidoki a dit :

J'appelle pas ça une erreur d'IA, mais un manque de professionnalisme des cowboys...

Le gros problème, c'est qu'on utilise l'IA pour donner moins de temps aux gens pour faire leur travail...

Ca, je n'arrête pas de le rappeler : les résultats générés par l'IA doivent être vérifiés. Le temps gagné à faire faire quelque chose par l'IA peut être perdu en grande partie par le temps requis pour les vérifications...

Posté(e)
il y a une heure, electroremy a dit :

Le gros problème, c'est qu'on utilise l'IA pour donner moins de temps aux gens pour faire leur travail...

Ca, je n'arrête pas de le rappeler : les résultats générés par l'IA doivent être vérifiés. Le temps gagné à faire faire quelque chose par l'IA peut être perdu en grande partie par le temps requis pour les vérifications...

J'ai entendu exactement les mêmes propos avec l'arrivée des PC.

I.A. ou humains, on doit vérifier, car en réalité, il y a beaucoup plus d'erreurs par les humains que par l'I.A. donc cet argument ne se tient pas.

  • J'aime 1
Posté(e) (modifié)
il y a 49 minutes, divers a dit :

car en réalité, il y a beaucoup plus d'erreurs par les humains que par l'I.A. donc cet argument ne se tient pas.

C'est un peu trop réducteur pour être juste. Un LLM ne fera certes pas de faute de grammaire ou d'orthographe, mais un Humain de bonne foi n'inventera pas des faits. 

La situation est très différente entre les PC et les LLM. Je crois que j'en parlais plus haut : un LLM est un système stochastique dont le processus de production de texte est invérifiable. Il y a des équipes entières de chercheurs qui travaillent sur ce sujet depuis que les premiers algo de machine Learning ont commencé à être utilisés. Un PC est à l'inverse déterministe. 

Même en décomposant les tâches dans des structures agentiques, on estime que 85% de fiabilité est aujourd'hui un score élevé pour une "IA". Or il y a beaucoup de cas d'application où 85% de fiabilité, c'est juste une catastrophe.

 

La difficulté actuelle est que les erreurs commises par les LLM ne sont plus les erreurs commises par les humains. Les processus de contrôle doivent changer en conséquence mais, au moins pour un temps, ils deviennent bien plus chronophage qu'ils n'étaient par le passé. Et il n'y a pas aujourd'hui de certitudes qu'il sera possible d'obtenir des résultats fiables à 100%.

Pour l'illustrer, prenons une chaîne de fabrication boîtes en plastique. Un contrôle qualité habituel portera probablement sur un % de boîtes dont on va vérifier manuellement régulièrement les dimensions principales, car on sait que la précision des machines, ou une erreur de paramétrage, peuvent entraîner des dérives dimensionnelle.

Et la plupart du temps on saura exactement d'où ça vient sinon trouve une erreur. 

Remplacez cette chaîne par une "IA" et on se rendra compte que, une fois de temps en temps, elle sortira une boîte d'une forme totalement différente. Ça impose de mettre en place un contrôle qualité  très différent, et on n'aura aucun moyen (pour l'instant) de savoir pourquoi elle a produit une boîte ronde alors qu'on la voulait carrée. 

 

Si on rapporte ça à de la production documentaire : j'ai des collaborateurs qui doivent produire de la documentation scientifique et technique sur la base de documents source et d'entretien techniques.

Là où je faisais une relecture de cohérence qui me prenait environ 1h, je dois désormais réouvrir tous les documents pour vérifier que l'IA n'en a pas ignoré un, voir inventé un. On est sur une base de 2 à 3h de temps de relecture désormais. Pas de chance pour notre process, mes 2h heures perdues coûtent plus cher que les 3h gagnées par le rédacteur technique.

C'est extrêmement simple de détecter les erreurs d'un humain de bonne foi. C'est beaucoup plus complexe (pour l'instant en tout cas) de détecter celles des LLM

Modifié (le) par JoOj
  • +1 1
Posté(e)

Si tu estimes que ce n'est pas rentable, reviens à l'ancienne façon de travailler. L'I A n'est pas une obligation

 

  • +1 1
Posté(e)
Il y a 6 heures, divers a dit :

Si tu estimes que ce n'est pas rentable, reviens à l'ancienne façon de travailler. L'I A n'est pas une obligation

Voilà une remarque très pertinente.

Le soucis ce sont les "effets de mode". On veux utiliser l'IA pour être dans le coup... alors qu'il faudrait évaluer si c'est réellement bénéfique ou pas pour l'usage concerné.

C'est valable dans beaucoup de domaines, comme la mode du "zéro papier". Le numérique c'est très utile pour plein de choses, mais il y a des cas de figure où un document papier reste plus pratique, plus efficace et/ou plus sûr.

Idem pour la mécanique. Personne ne conteste l'utilité des machines CNC et des imprimantes 3D, mais les machines conventionnelles (perceuse à colonne, scie circulaire de table, ...) ça reste utile voire indispensable dans pas mal de cas.

Posté(e)

L'impression 3D ne remplace pas l'injection partout. 
La voiture électrique ne répond pas à tous les besoins. 
Le smartphone est trop compliqué pour qui veut juste téléphoner. 
Les robots ne remplaceront pas tous les serveurs dans les restos. 

L'IA n'est pas une fatalité, on peut faire sans, encore heureux ! 

Vous parlez de la situation d'aujourd'hui, mais demain ?? Quand les erreurs grotesques seront du passé ?

Posté(e)
il y a 38 minutes, coucou a dit :

Vous parlez de la situation d'aujourd'hui, mais demain ?? Quand les erreurs grotesques seront du passé ?

On n'a aujourd'hui aucune certitude sur le fait que la fiabilité sera un jour au rendez-vous. Les erreurs grotesques liées au démarrage de l'informatique étaient des erreurs humaines (de programmation) ou de hardware (composants qui grillent, cartes mal perforées, etc.). Les erreurs actuelles sont intrinsèques à la technologie car le texte produit par la bête est produit sur une base statistique. Vous n'avez aucune garantie que 2 input identiques donneront 2 sorties identiques (Lecture passionnante 1 , Lecture passionnante 2 )

Mais ne nous trompons pas de débat. Je suis assez technophile pour trouver cette technologie incroyable. J'ai eu un enseignant, chercheur sur les sujets de la traduction automatique, qui aurait rêvé de voir cette techno de son vivant. J'en vois les limites limites techniques, je m'en sers ponctuellement pour des besoin spécifiques sur lesquels je sais que je vais pouvoir gagner du temps. Y a des gens qui font de la merde avec, aveuglés par les promesses, et d'autres qui vont juste suivre l'évolution. 

Tout ca n'ôte rien au fait que, contrairement à d'autres technologies, l'IA porte des dangers qu'aucun d'entre nous n'est prêt à affronter. Si il vous reste plus de 5 ou 10 ans à faire sur le marché du travail, vous allez forcément être percutés de plein fouet par cette révolution. Et on en revient à ce que j'exposais plus haut : bien ou pas bien, le fait est que ca va manifestement trop vite pour permettre à la société de s'adapter.

  • +1 1
Posté(e)
il y a une heure, JoOj a dit :

On n'a aujourd'hui aucune certitude sur le fait que la fiabilité sera un jour au rendez-vous.

L'étude de la fiabilité de la sécurité des machines fait partie de mon travail.

Il est déjà très difficile de gérer une fonction de sécurité avec un logiciel traditionnel (programmation procédurale classique). En industrie, les contraintes imposées pour les systèmes de commande qui gèrent des fonctions de sécurité sont sévères, tant sur le software que sur le hardware.

Un responsable de l'INRS était intervenu récemment pour expliquer qu'une IA ne devait pas intervenir dans une fonction de sécurité.

L'IA pourra intervenir dans le process - c'est d'ailleurs déjà le cas depuis de nombreuses années, avec la vision par ordinateur, très utilisée en industrie - mais pour les fonctions de sécurité, il faudra que ce soit une technologie fiable et éprouvée qui soit prioritaire sur l'IA.

Posté(e)
il y a 5 minutes, electroremy a dit :

Un responsable de l'INRS était intervenu récemment pour expliquer qu'une IA ne devait pas intervenir dans une fonction de sécurité.

Il manque quelque chose : "dans l'état actuel de nos connaissances" ! 

Mais d'une part, ça évoluera et d'autres parts, certains le feront quand même. Il n'y a qu'à lire les sujets traitant de l'IA au pentagone…

C'est peut-être d'ailleurs cela qui a conduit au bombardement d'une école en Iran.

Posté(e) (modifié)
il y a 27 minutes, RFN_31 a dit :

Il manque quelque chose : "dans l'état actuel de nos connaissances" ! 

Mais d'une part, ça évoluera et d'autres parts, certains le feront quand même. Il n'y a qu'à lire les sujets traitant de l'IA au pentagone…

La question de la fiabilité des logiciels ne date pas d'hier.

Ce n'est pas un problème de technologie, mais de mathématiques.

Les travaux de Kurt Gödel puis d'Alan Turing, avant l'invention du transistor, et même avant les débuts de l'informatique où les ordinateurs fonctionnaient avec des relais puis des tubes à vides, ont démontré qu'il existe des limites théoriques et de sérieuses difficultés sur la possibilité de vérifier qu'un algorithme est juste.

Ces limites sont toujours valables aujourd'hui - y compris pour les logiciels "traditionnels", c'est à dire ceux programmés à la main, avec un comportement déterministe.

L'IA, c'est, en quelque sorte, "encore pire", car ce n'est par principe non déterministe.

L'ensemble de nos ordinateurs et langages de programmation actuels - y compris les modèles dernier cri - sont tous équivalents, d'un point de vue mathématique, à des Machines de Turing Universelles

Révélation

Il existe certains langages de programmation plus limités, qui ne sont pas équivalents à des Machines de Turing Universelles

Ces langages sont plus contraignants à utiliser mais apportent de meilleures garanties en termes de fiabilité, à condition bien sûr, d'êtres utilisés convenablement et que le logiciel soit adapté aux données à traiter...

Je vous invite à lire ces deux livres de Roger Penrose où il explique en détail ces différents aspects :

L'esprit, l'ordinateur et les lois de la physique

Les ombres de l'esprit - À la recherche d'une science de la conscience

 

Pour dépasser ces limites, nous avons besoin... d'une avancée mathématique.

Ce n'est pas une question de quantité de mémoire vive ou de quantité de données collectées pour entrainer les modèles de langage.

Modifié (le) par electroremy
Posté(e)
il y a 30 minutes, electroremy a dit :

L'ensemble de nos ordinateurs et langages de programmation actuels - y compris les modèles dernier cri - sont tous équivalents, d'un point de vue mathématique, à des Machines de Turing Universelles

L'ensemble des être humains sont "équivalents", ça n'empêche pas certains d'être plus c*n que d'autres, voire même beaucoup, beaucoup plus... L'important c'est pas la machine, c'est ce qu'on en fait.

 

L'IA dans le monde informatique à fait naître une nouvelle façon de travailler => le Vibe Coding.

Citation

Le rôle de l'informaticien consiste désormais à décrire la solution ou le besoin en formulant des prompts contextuels les plus précis possibles, assimilables à de mini-spécifications fonctionnelles. L'informaticien ne comprend pas systématiquement ni n'intervient sur le code produit par l’intelligence artificielle, ne se focalisant que sur la cohérence du résultat final.

Souvent ça fonctionne bien, voire même très bien comme mon exemple ci-dessus pour les timelapses. Mais parfois ça tourne au désastre comme dans cet article => https://www.lesnumeriques.com/intelligence-artificielle/j-ai-panique-au-lieu-de-reflechir-une-ia-detruit-la-base-de-donnees-d-une-entreprise-des-mois-de-travail-envoles-n240126.html

Même si la faute ne peut pas être rejetée à 100% sur l'IA car il n'y avait aucune mesure de protection ou de sauvegarde en place. Perso impossible qu'une IA touche directement à la prod. Elle peut préparer le terrain dans un environnement de test, mais l'accès aux credentials prod c'est niet.

Lorsque je laisse l'IA travailler pour moi, parfois je lui demande de pousser loin les investigations. Il est déjà arrivé par exemple qu'elle m'efface une PKI pour pouvoir tester l'option "--init" d'un script qui ne fonctionne que sur un environnement vide. Bien entendu c'est versionné dans git donc un simple revert a suffit à restaurer les clés perdues.

Mais parfois lorsque je lui laisse la main sans lire les snippets de commandes qu'elle veut exécuter, je me demande : "et si elle envoyait un rm -fr ~ par erreur ?" Ca m'embêterait, un peu, mais je suis clean sur mes sauvegardes, donc au pire je perd la journée de boulot. Le "disaster recovery plan" c'est la base de toute infra sérieuse.

Je sais pas pourquoi, mais je sens qu'après ce message il va y avoir quelques backups de lancés chez certains (vous savez, celui qui attend depuis six mois)😄

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...