
Voilà, je voulais faire part d'une de mes réflexions. J'ai l'impression que c'est normal de nos jours que les médecins nous prescrivent des médicaments sans nous avertir de ce que ça implique réellement. Je m'explique : on ne nous parle pas des effets secondaires, des risques d'accoutumance, des effets négatifs tout simplement alors que ça peut impacter grandement notre santé. Peu importe quel type de médecine, je me suis toujours trouvée dans cette situation, et doit constamment faire mes propres recherches sur le traitement en question. Il y a un gros manque de transparence...
Avez-vous eu la même expérience ? Qu'en pensez-vous ?