terrir

Définition

(Didactique) Il se dit des tortues qui, sortant de la mer à certaines époques, viennent sur le rivage, et, après y avoir fait un trou dans le sable, y pondent leurs œufs, puis les recouvrent. (Marine) Prendre terre ou atterrir.

Mots suivants dans le dictionnaire

Voir tous les mots en T