dermatologie

Définition

(Médecine) Partie de la pathologie qui s’occupe des affections de la peau.

Mots suivants dans le dictionnaire

Voir tous les mots en D