organicisme

Définition

Théorie médicale qui s’efforce de rattacher toute maladie à une lésion matérielle d’un organe.

Mots suivants dans le dictionnaire

Voir tous les mots en O