Le Forum des Dispositifs Médicaux

Veuillez pour créer des messages et des sujets de discussion.

Chat GPT dans la documentation réglementaire

Bonjour à toutes et à tous,

Dans un contexte où la charge documentaire et la veille réglementaire sont de plus en plus complexes (MDR, ISO 13485, 14971...), j’ai commencé à tester Chat GPT dans mes activités quotidiennes.

J’ai notamment utilisé l’outil pour structurer des documents qualité, expliciter certains articles de normes, voire générer des idées pour des SOP.

Les résultats sont intéressants, mais évidemment, il ne s’agit en aucun cas d’une source "fiable" au sens réglementaire : il faut tout recouper, vérifier, contextualiser.

Toutefois, dans le cadre d’une première réflexion ou d’un gain de temps en amont, je trouve l’outil utile.

Voyez-vous un intérêt (ou un danger) à les intégrer dans nos processus qualité/réglementaires ?

Curieux de lire vos retours !

Bonjour,

ChatGPT se débrouille très bien avec les bases : réglementation et grosses normes. Il est également très bon pour trouver l’inspiration, par exemple pour identifier des risques.

Les résultats sont plus qu'intéressants, au niveau des meilleurs experts pour des sujets bien documentés (ex. : la qualité).

  • Intérêt : énorme gain de temps, réponses souvent fiables, réduction recours aux supports externes
  • Danger : risque de nawak sur des sujets pointus que vous ne maîtrisez pas ; les résultats dépendent beaucoup de l’utilisateur ; Sam Altman se goinfre de vos données

Je ne sais à quel point vous recoupez, vérifiez, contextualisez… mais, avec le temps, va, tout s’en va.

Point critique : la qualité des réponses varie beaucoup selon le modèle choisi et les données d’entrée (votre requête, et idéalement un prompt pour contextualiser et fournir des consignes). Quelles sont vos pratiques ?

Note : Qualitiso met à votre disposition ChatGPR : la version gratuite utilise les mêmes connaissances que ChatGPT, avec une surcouche propre à notre métier (le bot va « réfléchir » avant de répondre). Vous y trouverez également un mode dédié à la rédaction des documents.

De mon Côté, j'essaie de toujours préciser le contexte (ex : nom de norme, version, etc.) et je Vérifie systématiquement les infos importantes.
Je m'en sers surtout pour gagner du temps en début de réflexion ou pour clarifier certaines notions, mais jamais sur source unique.
Pour les invites, je fais simple : contexte + consigne claire.

Bonjour @rijik43659

Je l'utilise et l'ai vu utiliser par des porteurs de projets:

  • je n'aime pas le biais de confirmation (hyper alimenté par les articles de cabinet de conseil, articles venant de plus en plus d'une IA)
  • J’apprécie en revanche sa capacité à faire une sorte de médiation entre idées pluridisciplinaires, avec une tonalité objective et scientifique.
    Cela aide vraiment à connecter une créativité brute avec la conformité FDA, ISO, MDR, etc. [Pour ça, j’utilise deux superprompts de 2500 mots pour bien l’orienter au départ.]

Je suis d’accord avec Guillaume : il faut une vraie surcouche métier ET contextuelle.
Mon prototype de superprompt, personnalisé à l’entreprise, à l’équipe projet et à son capital humain — avec les bons mots clés et expressions fortes — aide à limiter les erreurs de perception et réduit les retours à 3-5%.
Mais ce n’est pas encore assez fluide pour un usage sans déconnection et temps mort au quotidien par une équipe pluridisciplinaire, surtout quand il faut intégrer et croiser des inputs variés — conception, industrialisation, correctifs de fiabilité — sur des enjeux critiques.

Je travaille sur une V2 de ce superprompt (très orienté copilotage de la R&D), qui vise à produire des analyses moins tranchées, plus nuancées, avec des questions intermédiaires et plusieurs angles de lecture, pour laisser la main à l’humain dans les choix progressifs de cadrage.

Cdt

Mathilde

Bonus

Voici les réponses d'après ChatGPT et Perplexity, en incluant au début le superprompt

🧊 Perplexity :

💡 ChatGPT = super copilote, pas pilote.
Il structure vite, clarifie les flous, lance la réflexion.
⚠️ Danger : créer une belle doc qui fige une décision floueopacité de cristallisation.
Conforme en apparence, pas alignée en réalité.

📌 L’IA doit amorcer, pas clore : si tu formalises trop tôt, tu enfouis le désaccord sans le résoudre.
Garde la tête froide, la collaboration chaude, et la réalité au centre.

ChatGPT :

Oui, l’IA fait gagner du temps : structurer, débloquer, reformuler.

Mais elle a un défaut majeur : elle répond trop vite, trop sûr, trop lisse.
💣 Résultat : une doc “clean” qui fige un flou. Belle sur le papier, vide sur le terrain.

🎯 Le bon usage ? Amorcer, explorer, ouvrir le débat.
❌ Pas formaliser un accord qui n’existe pas encore.

📌 En qualité comme en DevOps, on ne déploie rien sans tester, itérer, maîtriser.
👉 Ce n’est pas l’IA qui valide — c’est le terrain, les équipes, le contexte.

(une profonde aversion des listes à emoji se développe en moi)

j'ai également fait un superpromt (accessible ici, cliquer sur la bulle en bas à droite)

sa réponse

(réglage du prompt : Humain > Eric Cartman)