Terme
Formation infirmière
Définition
Études professionnelles de niveau collégial ou universitaire
qui habilite à prodiguer des soins aux malades et à travailler
à la promotion de la santé ainsi qu'à la prévention de la maladie.
Terme générique
Équivalent anglais