✨Adjectifs(masculin/féminin)/plɑ̃.tɛʁ/
plantaire
#anatomie#médecine#corps humain
20
synonymes
📖 Définition
Plantaire est un mot qui décrit tout ce qui concerne le dessous du pied, la partie qui touche le sol. On l'utilise surtout pour parler de la santé ou des problèmes de nos pieds.
