jueves, 9 de febrero de 2012

Las plantas ¿Que significa plantar?

Plantar es una responsabilidad y es un deber tienes que echarle agua, tierra y abono.