Les enjeux du couple
Un chatbot santé ne peut pas se permettre d'halluciner
En santé, une hallucination d'un LLM peut conduire à une erreur médicale. Un chatbot qui invente un médicament, un dosage, une contre-indication, c'est un désastre sanitaire et juridique.
Les chatbots santé qui fonctionnent ne sont pas des "GPT médicaux libres" — ce sont des systèmes très encadrés, avec RAG strict, validations, et fallback humain systématique sur les cas à risque.



