¿Dientes siempre blancos?

Agencias
-

El hecho de que los dientes sean blancos se trata en general de un mito, ya que depende en muchos casos del tono de la piel y de los labios, pues el contraste con el color puede dar la impresión de que los dientes sean más o menos blancos.

«Sí lo son más en las primeras etapas de nuestra vida, ya que la cantidad de dentina es menor», explica Mercedes Arnas, jefa de Servicio HM Dental Center Sanchinarro.