Mittwoch, 13. Februar 2013

Die Rolle der Frau?!

Habt ihr euch jemals Gedanken über die generelle Rolle der Frau in der westlichen Gesellschaft gemacht? In letzter Zeit denke ich wieder häufiger über dieses Thema nach, was nicht zuletzt an der Sexismusdebatte liegt, die gerade Schlagzeilen macht.

Ich will zunächst völlig oberflächlich bleiben und mal von mir als Mädchen / Frau während meiner Bulimiezeit ausgehen. Auf der Straße wurde mir, wie jeder wahrscheinlich, auch mal hinterhergepfiffen oder irgendwas hinterhergerufen. In meiner generellen Unsicherheit habe ich das damals natüüürlich nicht als Beleidigung oder sexistische Handlung betrachtet, nein, ich fühlte mich geschmeichelt. Aber ich habe auch andere, weniger "erfreuliche" Dinge erlebt. Einmal während einer Ferienbeschäftigung hat mir ein Angestellter des Betriebs (ausschließlich männliche Kollegen) an den Busen gegrapscht, während der Arbeit, so dass es andere hätten sehen können. Wahrscheinlich nur um meine Reaktion zu testen. Und wie habe ich reagiert? Naja, ich war viel zu perplex und geschockt, um in irgendeiner Weise überhaupt darauf zu reagieren. Ich ärgere mich noch heute darüber, dass ich ihm keine schallende Ohrfeige verpasst und Anzeige gegen ihn erstattet habe.
Ein anderes Mal war ich mit dem Fahrrad unterwegs und hatte einen Platten. Der Radweg verlief neben einer relativ stark befahrenen Bundesstraße. Ich schob mein Fahrrad, als mir vom angrenzenden Waldstück her ein Mann zuwinkte. Er rief mir dann zu, ob er mir helfen könne. Ich dachte nur, naja, ist ja nett, aber rief "nein, danke, ich schiebe bis zum nächsten Ort, ist ja nicht weit" zurück. Und dachte, das habe sich damit erledigt. Aber nein, er kam dann näher und versuchte auf penetrante und aufdringliche Weise, mich in sein Gartenhäuschen zu locken. Ich bin dann schneller gegangen und schließlich gerannt, währenddessen immer die Straße im Blick.
10 Minuten später erstand ich mein erstes Pfefferspray. Ich trug es in diesem Sommer immer bei mir.

Das sind nur zwei Erfahrungen, die mir spontan einfallen. Ihr habt bestimmt Ähnliches erlebt.
Ich bin es so leid, solchen Situationen einfach ausgesetzt zu sein, und es widert mich an, dass Männer auf derlei Ideen kommen. Aber wisst ihr, was mir noch viel größere Kopfschmerzen bereitet? Dass wir Frauen uns nicht dagegen zur Wehr setzen. Ich war lange diejenige, die der Meinung war: "naja, das sind halt Männer. Hormongesteuert. Ist evolutionsbiologisch bedingt, die müssen ihren Samen möglichst weit verbreiten..." Aber dass Frauen kein Kontra geben, macht mich einfach nur sprachlos. Ich bin jetzt in einer Position, aus der heraus ich das sagen kann, damals konnte ich es auch nicht, denn sonst wären die Situationen anders abgelaufen. Aber dass sich Frauen selbst als Opfer darstellen, geht nicht in meinen Kopf. Klar, sie sind körperlich unterlegen, und es gibt genug Situationen, in denen sie wirklich NICHTS machen können (klassisches Beispiel: Frau nachts allein im Park), aber wie oft passieren solche Dinge tagsüber, in der Öffentlichkeit, auf der Arbeitsstelle?

Auf der Seite ihollaback.org könnt ihr eure eigenen Erfahrungen teilen und die Geschichten von anderen Mädchen und Frauen lesen. Aber auch dort habe ich im deutschsprachigen Raum keine einzige Geschichte einer Frau gelesen, die sich gegen verbale oder körperliche Angriffe zur Wehr gesetzt hat (bitte korrigiert mich an der Stelle, falls ihr euch dort umseht).

Wir haben heute ein, christlich veranlasstes (?) Patriarchat. Vor ein paar tausend Jahren gab es noch das Matriarchat, Gesellschaften, in denen Frauen verantwortungsvollen Positionen hatten, und Männer ordneten sich ihnen im Glaube an die weiblichen Kräfte sogar unter. Frauen waren Priesterinnen, Königinnen, sie waren nicht nur die Nährenden, sie halten die ganze Gesellschaft am Laufen! Die älteste Zivilisation überhaupt, die frühesten Siedlungen in Mesopotamien, wurden von Frauen angeleitet.

Ist die Zeit nicht langsam reif für eine neue Rolle der Frau in unserer Gesellschaft, anstatt dass Frauen versuchen zu sein wie Männer? Frauen müssen nicht die besseren Ingenieure und Techniker werden  -wenn sie Lust drauf haben, dürfen sie natürlich diese Berufe wählen- aber wieviel besser täte es der Gesellschaft, wenn Frauen zu einer echten Frauen-Rolle finden könnten und die weibliche Intution wieder Gehör in der Gesellschaft fände? Wenn Frauen nicht die "Männersprache" lernen müssten? Frauen können zuerst ihren eigenen Wert wieder entdecken. Im nächsten Schritt können Männer lernen, diesen Wert anzuerkennen und zu schätzen.

Bitte, lasst Bulimie und Magersucht hinter euch, denn das macht euch unsichtbar.

1 Kommentar

  1. Interessanter Artikel mit Dingen, über die ich mir schon schmerzlich den Kopf zerbrechen musste.

    AntwortenLöschen