Hallo,
ich weiß, das was ich dir hier sage, willst du - und wollen sicher viele Frauen - nicht hören. Schlimm finde ich, dass Ärzte das machen. Und warum? Der Mensch hat von Natur aus diese Härchen am Körper, weil sie wichtige Schutzfaktoren für unseren Organismus und unserem Körper sind! Selbst die Haut von Kindern ist mit einem Hauch von Flaum überzogen! Ich weiß, dass ursprünglich "die Frau" sich als kindlich und schutzbedürftig darstellen wollte, indem sie sich rasierte... Haben es Frauen in einer Zeit, wo sie doch - angeblich - "ihren Mann" stehen wollen, nötig, sich zu rasieren? Und - ich weiß, dass meine Antwort ganz schlimm für viele LeserInnen klingen mag, wenn ich sage: Schon viel zu viele Männer können die Hände von Kindern nicht lassen... egal, ob sich Frauen rasieren oder nicht! Überlege mal: Wie wichtig ist dir deine Gesundheit - und für wen willst du das tun!