Strategie durch Wettrechner – Wissenswertes rund um die Vorbereitung von Sportwetten!


Online Sportwettenanbieter erhalten immer öfter den Vorzug von Sport-Fans, wenn es darum geht eine Wette auf ein Sportereignis zu platzieren. So haben stationäre Wettbetreiber zunehmend häufiger das Nachsehen. Grund für das gestiegene Interesse für Online Wetten sind dabei nicht nur die höheren Gewinnaussichten, sondern auch die Möglichkeit einer besseren Vorbereitung von verschiedenen Wetten.

Ohne die nötige Analyse und Vorbereitung von Wetten auf ein Sport-Event, bleibt eine Sportwette pures Glücksspiel. So nutzen immer mehr Sport-Fans einen Wettrechner, um damit potenzielle Gewinne vorab auszurechnen. Auf diese Weise gelingt es besonders gut Risiko und Chancen gegeneinander abzuwägen und sich somit für oder gegen bestimmte Wettangebote zu unterscheiden. In Deutschland gibt es unter den Sportwetten-Tipper ein deutliches Mehrinteresse für Systemrechner. Die oftmals sehr umfangreiche und komplizierte Rechnung von komplexen Wettangeboten kann durch einen Wettrechner deutlich vereinfacht werden. Denn der Markt für Sportwetten hält eine Vielzahl von verschiedenen Wettsystem bereit, so dass nicht nur Laien schnell den Überblick verlieren können. Um einen Tippschein ideal vorzubereiten, ist ein Wettrechner eine große Hilfe. Doch was versteht man eigentlich unter einem Wettrechner? Und welche Wettangebote lassen sich mittels Systemrechner vorab besser kalkulieren?

Was ist ein Wettrechner? Bedeutung, Definition, Erklärung

Ein Wettrechner ist ein praktisches Werkzeug für alle Sport-Fans, die sich gelegentlich an der Tippabgabe im Internet versuchen. Hierfür ist es lediglich notwendig die Wettquoten der Online Buchmacher in den Wettrechner einzutragen und den gewünschten Wetteinsatz zu bestimmen. Innerhalb weniger Sekunden gelingt es so die genaue Gewinnsumme zu berechnen, was vor allem bei Systemwetten oftmals sehr komplex erscheint. Anfänger im Wett-Bereich sollten nicht auf dieses Tool verzichten, um die Zusammenhänge zwischen Wettquoten, dem Einsatz und den Gewinnchancen besser zu verstehen. Spielkunden erhalten damit einen Überblick von den potenziellen Gewinnaussichten für verschiedene Wettsysteme im Internet. Es ist demnach nur noch notwendig den Ausgang von Sportereignissen richtig einzuschätzen. Den Rest übernimmt der Wettrechner im Internet. Die Plattform wettanbieter.org erklärt hier alle Wettrechner ausführlich, so dass sich Sport-Fans einen Überblick von dem enormen Vorteil dieses Tools machen können. Denn mittels Wettrechner lässt sich vor der Tippabgabe schnell erkennen, ob sich eine Wette überhaupt auszahlt. Je nach Wettart gelingt es hierbei sehr komplexe Berechnungen schnell und simpel zu lösen.

Systemwetten, Einzelwetten und Co. einfach erklärt!

Der Wettrechner wird nicht nur bei gewöhnlichen Einzelwetten verwendet, sondern bietet gerade bei komplexeren Systemwetten eine große Hilfe. Auf den meisten Wettportalen im Internet gibt es mittlerweile für Spielkunden eine große Auswahl für verschiedene Wetten. So haben Sport-Fans die Qual der Wahl, wenn es um die Art einer Wette gibt. Umfangreiche Systemrechner ermöglichen es gleich verschiedene Ausgänge von mehreren Sportereignissen zu berechnen, so dass Spielkunden im Vorfeld einen detaillierten Überblick von unterschiedlichen Gewinnaussichten erhalten. Die folgende Übersicht bietet eine Auswahl von verschiedenen Wettarten und deren Definition:

Einzelwetten

Der Klassiker unter den Wetten ist die Einzelwette. Hierbei wird lediglich auf ein Sportereignis getippt. Dabei handelt es sich meistens um die Optionen Sieg, Remis und Niederlage. Schätzt man eine sportliche Partie oder ein Event richtig ein, hat man die Wette gewonnen. In der Regel nutzen nur wenige Sport-Fans einen Wettrechner für Einzelwetten, da hierbei nur die Wettquote mit dem Einsatz multipliziert werden muss, um sich einen Einblick von dem möglichen Gewinn zu verschaffen.

Kombinationswetten

Kombinationswetten sind unter Sport-Fans sehr beliebt, da es hier gelingt durch die Einschätzung auf zwei oder mehr Sportereignisse einen deutlich höheren Gewinn einzufahren, als bei einer bloßen Einzelwette. Kombinationen von bis zehn Spielen sind hier möglich und können mittels Wettrechner sehr unkompliziert berechnet werden. Doch aufgepasst: Ist nur eine Einschätzung eines Sportereignisses bei einer Kombination falsch, ist gleich die ganze Wette verloren.

Trixie Wette

Eine einfache Systemwette ist die Trixie Wette. Hierbei wird in einem System aus drei Spielen mit vier Wetten getippt. Demnach ist es möglich einen Fehler bei der Tippabgabe zu machen und dennoch einen erfolgreichen Wettschein vorzuweisen. Es gibt demnach die Möglichkeit auf vier potenzielle Gewinnchancen.

Heinz Wette

Das System Heinz verbindet sechs Partien aus dem Sportbereich zu insgesamt 57 Kombinationen. Hierbei gibt es demnach eine Menge verschiedene Spielausgänge, die allesamt einen Gewinn versprechen. Großer Vorteil: Die Gewinnchancen steigen enorm, so dass diese Wettart in den meisten Fällen erfolgreich verläuft. Doch sind die Kosten für den Einsatz dieser Wettart deutlich höher als bei einer konventionellen Einzel- oder Kombinationswette.

Goliath Wette

Bei der Goliath Wette werden insgesamt acht Spiel zu 247 möglichen Wetten miteinander verbunden. Auf fast sämtliche Spielausgänge wird hier eine Wette platziert. Den Namen dieses Wettsystem lässt richtig vermuten, dass sich diese Wettart besonders dann lohnt, wenn Underdogs und Außenseiter einer sportlichen Partie das Rennen machen. Gewinnen lediglich die Favoriten kommt es zwar trotzdem zur Gewinnausschüttung, allerdings mit einem Verlustgeschäft für Spielkunden.

Alphabet Wettsystem

Bei der Alphabet Wette werden sechs Spiele zu 26 Kombinationen verbunden. Die Chancen auf eine erfolgreiche Wette sind hier hoch, allerdings lohnt sich diese Art Wette nur, wenn vor allem hohe Quoten auf dem Tippschein zu finden sind.

Wann sollte man einen Wettrechner benutzen?

Grundsätzlich bietet es sich immer an einen Wettrechner zu nutzen, um sich einen Überblick von den Gewinnmöglichkeiten ausgesuchter Wetten zu verschaffen. So sind Wettrechner überaus nützlich, um ein perfektes Gleichgewicht aus Risiko und Gewinnchancen herzustellen. Viele Spielkunden nutzen einen Wettrechner zudem, um den Einfluss der Einsatzhöhe auf verschiedene Systemwetten zu kalkulieren. Damit gelingt es nicht nur den Ertrag einer Wette zu bestimmen, sondern auch die eigenen Ausgaben jederzeit im Blick zu haben.

Wie wird ein Wettrechner bedient?

Die meisten Wettrechner stehen kostenlos zur Verfügung. Durch die Eingabe der Einsatzhöhe und der Wettquoten gelingt es durch wenige Mausklicks gleich mehrere Berechnungen durchzuführen. Bei den Wettquoten unterscheiden Wettrechner im Internet zudem zwischen fraktionalen und amerikanischen Wettquoten und Quoten in Dezimalangaben. Sind die Wetten bereits platziert, ist es zudem möglich bereits vorhandene Ergebnisse einzutragen, um Gewinne und Verluste einfach zu überblicken.

Fazit: Wettrechner bieten Spielkunden vielerlei Vorteile!

Wer regelmäßig eine Wette im Internet platziert, sollte unbedingt auch einen Wettrechner nutzen. Denn mit einem Wettrechner wird es möglich Systemwetten deutlich einfacher zu berechnen und somit unterschiedliche Spielausgänge und den potenziellen Gewinnbetrag bereits vor der Tippabgabe einsehen zu können. Die Nutzung ist kostenlos und bietet bei der Vorbereitung einer Wette eine große Hilfe, so dass man nicht auf dieses praktische Tool verzichten sollte.

Was ist “Dall E Mini”? Erklärung, Bedeutung, Anleitung


“Dall E Mini” ist eine “text-to-image” künstliche Intelligenz, die aus geschriebenen Wörtern Bilder erzeugt.

“Dall E Mini” wird auch “Dalle Mini” oder “Dalle Mini Ai” genannt.

“Dall E Mini” ist kostenlos.

Wie funktioniert “Dall E Mini”? Erklärung, Bedeutung, Definition

Die künstliche Intelligenz “Dall E Mini” erstellt die Bilder unter anderem auf Grundlage der in der Google-Bildersuche gelisteten Bilder und Grafiken. In den Bildersuchen der Suchmaschinen sind die Bilder, Grafiken und Fotos anhand von Suchbegriffen, Bildnamen, Bildunterschriften und Alt-Texten gelistet und sortiert. Anhand dieser Texte nimmt “Dall E Mini” die gelisteten Bilder, scannt sie, ermittelt die Essenz und erschafft daraus neue Bilder.

Einfacher ausgedrückt: “Dall E Mini” schaut sich Millionen Bilder an und ermittelt in bzw. aus diesen Bildern sich wiederholende und identitätsstiftende Muster. (Die KI ermittelt, was allen Bildern gleich ist.) “Dall E Mini” ermittelt, was diese Bilder ausmacht. Hat “Dall E Mini” diese Analyse abgeschlossen, so kann “Dall E Mini” eigene Bilder erschaffen, da die KI jetzt ja weiß, was ein Wort oder einen Satz ausmacht.

“Dall E Mini” ermittelt die Essenz der gelisteten Bilder und erschafft aus dieser Essenz neue Bilder. (Mit Essenz ist gemeint, dass die KI übereinstimmende Merkmale findet und damit das Eigentliche, jenes das allen Bildern gemein ist, ermittelt.)

Hier muss natürlich gesagt werden, dass “Dall E Mini” die eingegebenen Worte nicht wirklich versteht, sondern nur versucht die Essenz der Worte in Bildern wiederzugeben. “Dall E Mini” rät nur.

Am besten kann man “Dall E Mini” verstehen, wenn man es anhand von berühmten Beispielen anwendet.

“Dall E Mini”: Berlin

Als Term verwenden wir das Wort “Berlin”.

dalle e mini berlin

Zu sehen sind die Wahrzeichen Berlins: Das Brandenburger Tor, der Fernsehturm, die Kuppel vom Berliner Dom.

Die KI hat verstanden, was Berlin ausmacht. Fotos von Wahrzeichen bei blauem Himmel.

“Dall E Mini”: Merkel eating fish

Doch was passiert beim Term “Merkel eating fish”?

dalle e mini merkel eating fish

Di KI hat verstanden, dass mit “Merkel” die ehemalige deutsche Bundeskanzlerin Dr. Angela Merkel gemeint ist. Das der Ausdruck “fish” und “eating” zusammengehören hat sie auch einigermaßen verstanden. Dies ist daran erkennbar, dass die KI den Fisch zum Mund von Angela Merkel “führt”.

Doch schön ist das Ergebnis nicht.

“Dall E Mini”: Germany

dalle e mini germany

Beim Suchwort “Germany” wird es etwas langweilig. Die KI zeigt nur deutsche Fahnen. Lustigerweise fliegen oder schweben diese teils durch die Luft.

“Dall E Mini”: Techno Party

dalle e mini techno party

Bei den Worten “Techno Party” hat “Dalle E Mini” gut eingefangen, was eine Techno Party ist: Dunkle Räume mit etwas buntem Licht.

Dall E Mini: “Too much traffic, please try again”

Wird der Fehler “Too much traffic, please try again” angezeigt, so ist die KI gerade überlastet, da zu viele Anfragen abgesendet werden.

Der einfachste Weg, um doch noch an seine Bilder zukommen ist: einfach noch einmal auf Run drücken. Sollte dies nicht funktionieren, so sollte mindestens zwei Minuten gewartet werden.

DallE Mini: Warum so beliebt?

Im Frühjahr und Sommer 2022 wurden bildgeneriernde KIs sehr beliebt. Für das IPhone gibt es z.B. die App “Dream”, die das gleiche macht wie Dalle Mini nur mit verschiedenen Filtern: neue Bilder aus der Essenz alter Bilder zu erstellen.

Die KI Dalle Mini kann neue Bilder erstellen, ohne dass diese auf Tatsachen beruhen oder real sind. Die KI erschafft diese einfach aus Kombinationen. Dies kann lustig sein.

Wassertest für Trinkwasser: Wissenswertes rund um den Qualitätstest


Leitungswasser in Deutschland weist allgemein eine gute Qualität auf und kann bedenkenlos verzehrt werden. Experten sprechen aus diesem Grund auch von Trinkwasserqualität. Dennoch gibt es regionale Unterschiede, etwa was den Mineraliengehalt oder auch den Kalkanteil betrifft. Verbraucher, die sich über die genauen Inhaltsstoffe und Konzentrationen in ihrem Leitungswasser informieren möchten, können einen Wassertest durchführen lassen.

Wer kontrolliert die Wasserqualität in Deutschland

Sowohl in der Bundesrepublik Deutschland als auch in Österreich und der Schweiz hat Leitungswasser allgemein eine gute Qualität. Diese wird von den Wasserwerken regelmäßig kontrolliert, um sicherzustellen, dass das Wasser von den Verbrauchern bedenkenlos genutzt und verzehrt werden kann, ohne dass gesundheitliche Schäden zu befürchten sind. So wird ausgeschlossen, dass sich etwa Schwermetalle in höheren Konzentrationen im Wasser befinden. Allerdings endet die Zuständigkeit der Wasserwerke an der Grundstücksgrenze: Ab dieser Stelle sind Hausbesitzer und Vermieter dafür verantwortlich, den Bewohnern und Mietern einwandfreies Trinkwasser zur Verfügung zu stellen.

Selbst wenn das Wasser in guter Qualität am Haus ankommt, kann es sein, dass alte Rohre mit einem hohen Bleigehalt etwa die Flüssigkeit auf den letzten Metern vor dem Wasserbahn verunreinigen und dafür sorgen, dass es zu gesundheitlichen Beeinträchtigungen kommt. Vor allem Kinder sowie alte und kranke Menschen sind an dieser Stelle gefährdet. Vermieter sind daher verpflichtet, das Trinkwasser in ihren Immobilien in regelmäßigen Abständen zu testen. Zahlreiche Anbieter bieten entsprechende Wassertests an, die auf Veranlassung des Vermieters durchgeführt werden und im Idealfall die einwandfreie Qualität des Leitungswassers bescheinigen.

Was genau ist ein Wassertest, und wo und wie wird er durchgeführt?

Ein Wassertest ist die genaue Überprüfung der Wasserqualität durch ein geeignetes und zertifiziertes Labor. Die zugesendeten Wasserproben werden chemisch auf ihre Bestandteile untersucht. Auf diese Weise kann beispielsweise zuverlässig ermittelt werden, wie viel Chlor und Kalk sich im Leitungswasser befindet, welche Mineralien in welcher Konzentration darin enthalten sind und ob etwa ein erhöhtes Schwermetallaufkommen vorliegt. Auf Basis dieser Testergebnisse kann dem Wasser Unbedenklichkeit bescheinigt werden, sofern es die jeweiligen Standards erfüllt. Ist dies nicht der Fall, müssen entsprechende Maßnahmen ergriffen und vor allem auch die Verbraucher gewarnt werden: So kann es etwa vorübergehend erforderlich sein, das Wasser vor dem Verzehr abzukochen oder es gegebenenfalls bis zum Beheben der Probleme gar nicht zu sich zu nehmen.

Einen Wassertest kann grundsätzlich jeder veranlassen. Besteht in einem Mietshaus der berechtigte Verdacht auf eine Verunreinigung des Trinkwassers, ist der Vermieter dafür verantwortlich, den Wassertest durchführen zu lassen. Er muss dann auch die Kosten für die Laboruntersuchung tragen. Diese können abhängig vom gewählten Labor und dem genauen Umfang der Untersuchung teils deutlich variieren. Im Durchschnitt liegen die Kosten für einen professionellen Wassertest zwischen 19€ und 49€. Heutzutage ist es problemlos möglich, eine Trinkwasserüberprüfung online zu veranlassen. Hierzu sind einige persönliche Daten sowie Angaben zum Wohnort erforderlich. Eine entnommene Wasserprobe wird nach dem ersten Kontakt und nach Aufforderung durch den Anbieter in das Labor geschickt, wo die Untersuchung stattfindet. Nach einigen Tagen bekommt der Auftraggeber das Ergebnis per E-Mail oder auf Wunsch auch auf dem Postweg.

Was ist Blutregen / Sahara-Regen? Erklärung, Bedeutung, Definition


Der sogenannte Blutregen ist ein Wetterphänomen, das in der Regel im Frühjahr oder auch im Sommer auftritt. Dabei verfärbt sich der Himmel Orange bis hin zu einem Rotton. Kommt es zu Regenschauern, ist das Regenwasser rötlich gefärbt. Das Phänomen rührt von verwehtem Saharasand her, weshalb das Wetterphänomen heutzutage auch eher als Sahararegen bezeichnet wird.

Wie entsteht der Blutregen / Sahararegen? Entstehung, Erklärung

Gerade im Frühling oder auch in den Sommermonaten kann es passieren, dass starke Winde über Afrika hinweg bis nach Europa wehen. Die Winde nehmen in ihrem Verlauf Saharasand auf und tragen den über das Meer hinweg bis nach Europa. In der Regel ist die Konzentration an Sand in der Luft recht gering und kaum wahrnehmbar. Je nachdem, wie stark und lang anhaltend die Winde wehen, können die Konzentrationen an Saharasand in den oberen Luftschichten aber auch so dicht werden, dass in manchen Gegenden der Himmel orange oder rötlich eingefärbt wirkt. Das hängt damit zusammen, dass die Sandpartikel die Lichtstrahlen anders brechen und in einem eher rötlichen statt in einem blauen Farbton scheinen lassen.

In der Regel löst sich die Konzentration an Saharasand auf, wenn sich die Strömungen der Winde ändern. Es kann aber auch passieren, dass während der Hochphasen der Sandkonzentrationen Regenschauer über einzelnen Gebieten niedergehen. Der in der Luft schwebende Sand wird vom Regen aufgenommen und fällt zur Erde. Die Regentropfen erscheinen rötlich und es bleiben hinterher rote oder orangene Sandspuren auf dem Erdboden, an Häusern und ähnlichem zurück. Dieses Phänomen ist dann der besagte Blutregen.

Woher hat der Blutregen seinen Namen?

Die Bezeichnung “Blutregen” geht auf das Mittelalter zurück. Damals war das Wissen über Wetterphänomene noch sehr begrenzt. Die Menschen waren ungebildeter und deutlich abergläubischer.

Weil man nicht wusste, dass der rötliche Regen von Sand eingefärbt wurde, suchten die Menschen nach anderen Erklärungen. Sie bezeichneten das Wetterphänomen als Blutregen und glaubten daran, dass es tatsächlich Blut regnen würde.

Viele Menschen hatten damals Angst vor diesem Regen. Sie dachten, dass eine höhere Macht bzw. Gott den Himmel aus Zorn mit Blut überzogen hätte, um die Menschen für ihre Fehler zu bestrafen. Der Blutregen galt als böses Omen, das eine Katastrophe in der nahen Zukunft ankündigen müsste.

Ist der Blutregen / Sahararegen gefährlich?

Auch wenn der Blutregen in früheren Zeiten ein deutlich schlechteres Image hatte, ist er für die meisten Menschen nahezu harmlos. Auch für Pflanzen oder die Gewässer ist die erhöhte Konzentration an Saharasand eher unbedenklich, weil der Sand an sich keine gefährlichen Eigenschaften hat. Er ist weder toxisch, noch besonders radioaktiv.

Es kommen jedes Jahr gut 1,8 Milliarden Tonnen Mineralstaub allein über der Nordhalbkugel in die Atmosphäre. Zwei Drittel davon bestehen alleine aus Staub aus der Sahara. Weil der Staub die Luftqualität etwas beeinträchtigt, kann es allerdings bei Menschen mit hoher Sensibilität oder mit Allergien zu leichten Atembeschwerden kommen.

Wie lange hält das Wetterphänomen an?

Der Blutregen/Sahararegen ist ein Phänomen, das sich über mehrere Tage hin erstrecken kann. Für gewöhnlich dauert es eine Woche bis zehn Tage – abhängig von der Menge an Niederschlägen und der verschiedenen Windströmungen – bevor die Menge an Saharastaub aus den oberen Luftschichten wieder verschwunden ist.

Die rötliche Färbung des Bodens kann dagegen etwas länger sichtbar sein. Anders als die Sandpartikel in der Luft verwirbelt sich der mit dem Regen gefallene rötliche Sand nicht weiter. Darum kann es einige Regenabschnitte benötigen, ehe auch die letzten Spuren vom Blutregen verschwunden sind.

Das Phänomen des Sahararegen ist außerdem kein einmaliges Wetterphänomen. Es kann mehrere Male in einem Jahr passieren und hängt immer von den Veränderungen der Luftströmungen ab. Darum ist es durchaus möglich, dass sich zwei Blutregen-Abschnitte direkt hintereinander ereignen. Allerdings ist das eher selten. Der Abstand zwischen den Phasen des Sahararegens ist eher unregelmäßig und endet auch, wenn nach dem Sommer die Windströmungen häufiger von Norden nach Süden wehen.

Was ist eine Kakophonie? Bedeutung, Definition, Erklärung


Kakophonie bedeutet Missklang oder Dissonanz. Dieser Missklang entsteht, wenn ein einzelner Satz oder ganzer Text aus unharmonisch klingenden Wörtern zusammengesetzt wird. Die Reihenfolge der akustisch nicht zusammenpassenden Elemente im Satzbau führt zur Kakophonie, die sogar als störend empfunden werden kann.

Gegenteil von Kakophonie

Das Antonym für Kakophonie ist Euphonie, was genau das Gegenteil bedeutet: wohlklingend.

Was bedeutet “Kakophonie”? Bedeutung, Definition, Erklärung

Kakophonie wird von dem griechischen Adjektiv κακός(kakós = schlecht) und dem Substantiv φωνή (phōné = Laut) abgeleitet und kann somit als schlechter Laut oder schlecht klingender Ton übersetzt werden.

Anwendung der Kakophonie

Der Begriff “Kakophonie” wird meistens in der Sprache und in der Musik verwendet.

Im alltäglichen Sprachgebrauch bezieht sich die Kakophonie, zum Beispiel, auf ein Durcheinander mehrerer Stimmen oder Meinungen. Wenn mehrere Personen gleichzeitig sprechen, wird es häufig als unangenehm empfunden. Durch das Stimmengewirr wird die Sprache unverständlich und nähert sich eher einem Geräusch anstatt einer Verständigungsmöglichkeit.

Im Bereich der Musik bezieht sich die Kakophonie auf unwohl klingende Werke. Das entsteht, zum Beispiel, wenn ein Musikinstrument verstimmt ist oder der Musiker nicht die richtige Note spielt.

Selbstverständlich kann auch ein Sänger oder eine Sängerin eine Kakophonie hervorrufen, wenn er oder sie den richtigen Ton verfehlt. Der daraus entstehende Missklang ruft eine unangenehme Reaktion des Publikums hervor.

Wie entsteht eine Kakophonie in der Sprache?

Folgen zwei gleiche Laute in einem Wort aufeinander, wird häufig der Sprachfluss unterbrochen. Das geschieht, zum Beispiel, in Wörtern, wo tz gefolgt von z steht. Ein Beispiel dafür ist das Wort “Jetztzeit”.

Die Kakophonie kann in einzelnen Wörtern oder in ganzen Sätzen vorkommen. Dies ist der Fall bei den sogenannten Zungenbrechern. Versucht man sie schnell auszusprechen, stolpert man häufig bei der Aussprache und die Harmonie wird somit unterbrochen.

Alle Buchstaben- oder Wortkombinationen, welche eine Sprechpause verursachen, werden als Kakophonie bezeichnet. Denn die Harmonie wird beim Zuhören unterbrochen und der Wortfluss wird nicht gewährleistet.

Jedoch beziehen sich manche Kakophonien auf ein persönliches Empfinden, denn sie haben oft eine sehr persönliche Auswirkung auf den Zuhörer. Sätze, die für manche als unharmonisch empfunden werden, kommen bei anderen Hörern ganz normal rüber.

Im Allgemeinen sollten Kakophonien vermieden werden, da sie nur unnötige Wiederholungen einzelner Buchstaben in ein und demselben Satz hervorrufen.

Beispiele einer Kakophonie

Schon einzelne Wörter rufen eine Kakophonie hervor:

  • nichtsdestotrotz,
  • Streichholzschächtelchen, oder
  • Strickstrumpf.

Aber auch komplette Sätze, wie die bekannten Zungenbrecher, bewirken eine Kakophonie. Der folgende Satz verdeutlicht die aufeinander folgende Wiederholung derselben Konsonanten: Fischers Fritz fischt frische Fische.

Die häufige Verwendung explosiver Konsonanten erzeugen die Kakophonie

Explosive Konsonanten werden auch als Stoppkonsonanten bezeichnet. Dafür gibt es eine einfache Begründung. Stehen in einem Satz mehrere Konsonanten in einer Reihenfolge hintereinander, kommt es bei der Aussprache zu plötzlichen Pausen, d. h., das flüssige Lesen kann hierbei nicht gewährleistet werden. Stattdessen kommt es zum Stocken.

Um welche Konsonanten handelt es sich dabei?

Die Konsonanten, welche am häufigsten eine Kakophonie hervorrufen, sind: B, D, K, P, T und G. Diese werden jedoch durch weitere explosive Konsonanten wie, zum Beispiel C, CH, Q und X, ergänzt

Kakophonie in der Kultur

Innerhalb der unterschiedlichen Sprachen und Kulturen kann ein Missklang ganz anders empfunden werden.

In der Literatur kann die Kakophonie absichtlich verwendet werden. Oft wird sie als rhetorische Figur verwendet, um den Leser über ein Paragraf stolpern zu lassen und somit gewisse Gefühle hervorzurufen.

Hier gilt jedoch, ob der Autor die Kakophonie absichtlich verwendet. Ist dies der Fall, dann dient es dazu, den Leser zum Nachdenken aufzufordern. Ferner möchten manche Schriftsteller anhand einer Kakophonie bestimmte Situationen hervorrufen.

Wird die Kakophonie jedoch unbewusst verwendet, deutet es eher auf ein mangelndes Können des Schriftstellers.

In welchen Situationen werden Kakophonien verwendet?

Je nach Inhalt der Geschichte kann, zum Beispiel, der Stadtverkehr oder Straßenlärm durch eine Kakophonie widergespiegelt werden. Der Lärm einer Klasse voller Schüler, während sie auf den Lehrer warten oder das entfernte Geräusch einer Kirchenglocke kann durch eine Kakophonie zum Leben erweckt werden.

Wird die Kakophonie im Text richtig eingesetzt, können sie den Leser in die Situation versetzen, die Geschichte zum Leben erwecken und gewisse Gefühle erwecken.

Richtige Rechtschreibung des Begriffs “Kakophonie”

Kakophonie und Kakofonie sind zwei akzeptierte Schreibvarianten. Das daraus entstehende Eigenschaftswort bietet mehrere Schreibweisen:

  • kakophon,
  • kakofon,
  • kakophonisch, oder
  • kakofonisch.

Hier werden alle 4 Formen akzeptiert.

Gibt es auch falsche Schreibformen der Kakophonie?

Typische Schreibfehler, welche hier häufig auftreten, sind:

  • Kackophonie,
  • Kakaphonie, oder
  • Kakofonia.

Diese Formen sollten nach Möglichkeit vermieden werden.

Fazit: Kakophonie

Wer die Kakophonie in einem Text anwenden möchte, sollte sich der Bedeutung und der richtigen Schreibweise bewusst sein. Ferner sollte man sich selbst vorher fragen: Was genau soll die Kakophonie bewirken? Dementsprechend sollte sie dann auch richtig angewendet werden. Andernfalls könnte es genau das Gegenteil hervorrufen.

Was sind Human Challenge Studien? Bedeutung, Definition, Erklärung


Human-Challenge-Studien sind Studien mit einer Herausforderung an Menschen (so die wörtliche Übersetzung). Der Begriff wird im Kontext der medizinischen Forschung verwendet und ist landläufig als Studie mit menschlichen Probanden bekannt. Im Falle der Erforschung von Covid-19-Viren wurden gesunde Freiwillige gezielt mit SARS-CoV-2 infiziert. Das Ergebnis: Die Viren sind ab dem zweiten Tag nach der Infektion ansteckend und bleiben es rund zehn Tage lang. Eine Fragestellung der kürzlich durchgeführten Human-Challenge-Studien zu diesem Thema lautete auch: Wie zuverlässig können Schnelltests die Ansteckungsgefahr erfassen?

Generelles zu Human-Challenge-Studien: Bedeutung, Erklärung

Human-Challenge-Studien sind ethisch umstritten, weil sie für die Freiwilligen immer ein hohes Risiko bergen. Es gibt sie auch für Grippe- oder Malariamedikamente. Die hier beschriebene spezielle Human-Challenge-Studie für die Erforschung von Coronaviren war auch deshalb umstritten, weil sie mit dem Wildtyp von SARS-CoV-2 durchgeführt wurde, obgleich man zu jenem Zeitpunkt schon wusste, dass das Virus relativ schnell und stark mutiert. Daher sind die Ergebnisse mit einer gewissen Vorsicht zu genießen. Dennoch ist sich die Forschung darüber einig, dass man weder auf Tierversuche noch auf Human-Challenge-Studien gänzlich verzichten kann.

Fragestellungen und Studiendesign der Corona-Studie

Im Jahr 2021 führten Forscher am Londoner Imperial College die erste Human-Challenge-Studie mit SARS-CoV-2-Viren durch. Sie infizierten gesunde, junge Probanden mit dem Virus. Ihre Auswahl war unter dem Gesichtspunkt erfolgt, dass jüngere und grundsätzlich gesunde Menschen mit einem vergleichsweise milden Verlauf, auf jeden Fall aber mit nur schwachen Komplikationen (Beatmung etc.) rechnen können. Gleichzeitig trägt gerade diese Gruppe durch die vielfach asymptomatischen, also nicht erkannten Verläufe erheblich zur Ausbreitung des Virus bei. Die britischen Wissenschaftler wollten nun wissen, ab welchem Zeitpunkt nach der Infektion und wie lange danach eine Person ansteckend ist. Diese Fragen sind bislang nicht umfassend geklärt. Seit dem 1. Februar 2022 gibt es einen Preprint zu dieser Studie. Folgende Fragestellungen standen bei der Human-Challenge-Studie im Fokus:

  • #1 Ab wann ist eine infizierte Person ansteckend?
  • #2 Ab wann entwickelt sie/er eigene Symptome?
  • #3 Wie lange ist sie/er ansteckend?
  • #4 Wie sicher können Schnelltests diese genannten Zeiträume erfassen?

Die Studienteilnehmer waren 36 gesunde Teilnehmer*innen, deren Risiko für einen riskanten COVID-19-Verlauf als sehr gering eingeschätzt wurde. Ihr Alter betrug 18 bis 29 Jahre. Sie waren bei ihrer Auswahl für die Studie nicht geimpft und nicht genesen. Zwei der Probanden hatten allerdings zwischen ihrer Auswahl und dem Beginn der Studie Kontakt mit einer infizierten Person (sogenannte Serokonversion), weshalb ihr individuelles Studienergebnis nicht in die Auswertung mit einfloss. Per Protokoll kann daher nur von 34 Teilnehmer*innen ausgegangen werden, was nach anerkannten wissenschaftlichen Maßstäben eine vergleichsweise geringe Teilnehmerzahl ist, die belastbare Aussagen zulassen kann, aber nicht muss. Die Infektion der Teilnehmer*innen erfolgte durch das Einbringen einer exakt definierten Menge von mit SARS-CoV-2-Viren kontaminierter Flüssigkeit in die Nase. Es wurde die am niedrigsten mögliche Virusdosis verabreicht, die gerade noch eine Infektion auslösen kann. Dies ist die Menge an Viren, die ein Tropfen Nasensekret einer infizierten Person enthält.

Studienergebnisse der Human Challenge Studien zu Covid-19

Trotz einiger Bedenken zur Aussagekraft der genannten Human-Challenge-Studie sollen hier wesentliche Ergebnisse zitiert werden:

  • 53 % (18 von 34) der Teilnehmer*innen infizierten sich mit SARS-CoV-2.
  • Das Virus wurde nach 40 Stunden zuerst im Rachen nachgewiesen, nach 58 Stunden erreichte es mit wesentlich höherer Last die Nase.
  • Der Spitzenwert der Virustiter wurde im Rachen nach 112 Stunden erreicht, in der Nase nach 148 Stunden.
  • Die Viruslast blieb in der Nase durchweg signifikant höher als im Rachen.
  • Sämtliche Infizierten wurden auch nach 14 Tagen noch positiv auf SARS-CoV-2 getestet.
  • Die Viruslast war allerdings etwa ab dem 11. Tag so gering, dass die von den Probanden ausgehende Ansteckungsgefahr signifikant gesunken war (bis zu „vernachlässigbar klein“).
  • Nachweisbar blieben die Viren bei 83 % der Probanden bis 14 Tage nach der Ansteckung und bei 33 % bis 28 Tage nach der Ansteckung. Komplett negativ wurden sämtliche Teilnehmer*innen erst 90 Tage nach der Ansteckung getestet.

Schlussfolgerungen

Offenkundig ist aufgrund der deutlich höheren Viruslast die Ansteckungsgefahr über die Nase wesentlich größer als über den Mundatem. Die Maske sollte daher stets die Nase bedecken. Die symptom- und nachweisfreie Inkubationszeit ist mit unter zwei Tagen deutlich kürzer, als man bislang geschätzt hatte (bis zu sechs Tage). Nach der Inkubationszeit bleibt die Viruslast rund eine Woche lang sehr hoch. In dieser Zeit geht von Infizierten eine hohe Ansteckungsgefahr aus. Später – etwa ab Tag 11 nach der Ansteckung – sind sie zwar nicht gänzlich virenfrei, jedoch kaum noch ansteckend.

Das deutsche RKI hat hierzu eigene Studien durchgeführt und einen Ct-Wert von 30 ermittelt (Wert für die Viruslast), ab dem die Ansteckungsgefahr zu vernachlässigen ist. Die britischen Wissenschaftler bestätigen im Wesentlichen diese Aussage. Dieser Wert bedeutet auch, dass die Verdünnung von Aerosolen durch Wind im Freien und große Abstände zwischen Personen die Ansteckungsgefahr sehr deutlich senkt. In der vorliegenden Human-Challenge-Studie gelten überdies die zehn Tage, in denen die Infizierten eine Gefahr für ihre Umgebung darstellen und daher isoliert werden sollten, als reichlich bemessen.

Der eigentliche Median (Mitte der erhobenen Daten) für das Ende der Ansteckungsgefahr liegt eigentlich bei 6,5 Tagen für Viren aus der Nase und 6,25 Tagen für Viren aus dem Rachen. Nach 10,2 Tagen soll auch von der Nase praktisch keine Gefahr mehr ausgehen. Die bislang empfohlene Quarantänezeit von zehn Tagen sei gut gewählt, heißt es im Statement der britischen Wissenschaftler.

Einschränkung der Studienbewertung

Die Forscher nennen selbst die Einschränkungen, denen ihre Studienergebnisse unterliegen. Diese sind:

  • geringe Teilnehmerzahl
  • Gesundheitszustand der Probanden (jung und gesund)
  • relativ kurze Nachbeobachtungszeit
  • Durchführung mit dem Wildtyp des Coronavirus

Trotz dieser Einschränkungen hält der Leiter der Studie Prof. Christopher Chiu die Ergebnisse für relevant. Er räumt zwar ein, dass sich andere Virusvarianten (Delta, Omikron) anders ausbreiten könnten, doch die Faktoren für den Schutz vor Corona seien bei ihnen dieselben. Er weist auch darauf hin, dass die Infektiosität von Corona bislang möglicherweise immer noch unterschätzt werde.

Symptome der Probanden während der Human-Challenge-Studie

89 % der Probanden entwickelten leichte bis mittelschwere Symptome, die nach der Inkubationszeit (ab dem späten zweiten Tag) bis zum vierten Tag nach der Infektion begannen. Es waren typische Erkältungssymptome:

  • Geruchsverlust
  • Niesen
  • verstopfte oder laufende Nase
  • Halsschmerzen
  • Kopf-, Muskel- und Gelenkschmerzen
  • Fieber
  • Müdigkeit

Nach der Aussage des Studienleiters Prof. Chiu gab es keine klinisch behandlungsbedürftigen Symptome und keine Lungenveränderungen. Der Geruchssinn war nach 90 Tagen bei fast allen Teilnehmer*innen wieder komplett hergestellt. Bei zwei Probanden dauerte es rund fünf Monate. Aufgrund dieser Symptome und des überwiegend sehr leichten Krankheitsverlaufs, der allerdings am Alter und Gesundheitszustand der Freiwilligen und an der sehr geringen Viruslast bei der Infektion lag, hält das britische Forscherteam prinzipiell eine Human-Challenge-Studie mit Coronaviren und so einem Studiendesign ethisch für vertretbar.

Ergebnisse der Antigen-Schnelltests

Antigen-Schnelltests sind nach Aussage der Wissenschaftler „ein guter Indikator“ für den Nachweis einer Infektion kurz nach der Ansteckung. Aus der kurzen Inkubationszeit, die inzwischen für die Omikron-Variante des Virus bestätigt wurde, ergibt sich eine sehr große Sicherheit mit Antigen-Schnelltests, wenn diese etwa alle drei Tage durchgeführt werden. Es kann sich auch um Selbsttests handeln, wenn diese ordnungsgemäß durchgeführt werden. Dazu muss der Nasenabstrich tief genug und gründlich genug genommen werden, anschließend muss die Probe lange genug in der Testflüssigkeit bleiben (mindestens eine Minute).

Grundsätzlich, so das britische Forscherteam, korrelierten die Ergebnisse der Antigen-Schnelltests sehr gut mit denjenigen der PCR-Tests. Das funktionierte auch bei einem symptomfreien Verlauf. Zu beachten ist allerdings, dass Antigen-Schnelltests ihre Wirkung am ehesten bei hoher Viruslast entfalten, also etwa zwischen dem dritten bis achten Tag nach der Ansteckung. Die britischen Wissenschaftler empfehlen jedermann mindestens zwei Antigen-Schnelltests (auch Selbsttests) pro Woche.

Was ist Speziesismus? Bedeutung, Definition, Erklärung


Speziesismus ist ein Begriff aus der Tiertethik: Tiere werden durch diese fragwürdige Verhaltensweise gegenüber dem Menschen als minderwertig dargestellt. Verhalten auf der Basis des Speziesismus versucht dabei, tierisches Leid zu legitimieren. Tierschädigende Handlungen werden zuweilen damit gerechtfertigt, dass das Leben von Tieren weniger wertvoll als das von Menschen erscheint. Diese Position ist jedoch hochumstritten. Speziesismus wird insbesondere von Tierrechtsorganisationen aber auch von vielen ethischen lebenden Menschen als großes Unrecht angesehen.

Was ist Speziesismus? Herkunft, Ursprung, Bedeutung, Erklärung

Seine historischen Wurzeln hat der Begriff in den 70er-Jahren. Auch wenn ein Bewusstsein für tierisches Leid schon vorher existierte, definierte der britische Psychologe Richard Ryder damals zum ersten Mal den Begriff. Der Speziesismus wird von ihm als eine Art Artenarroganz gesehen, die zum tierischen Leid führt. Dabei werden von einigen Tierrechtlern auch Analogien zum Rassismus oder Sexismus gezogen.

Für erhöhte Popularität der Theorie sorgte der australische Ethiker und Philosoph Peter Singer, der einen großen Teil seines Werks der Tierethik gewidmet hat. In seinem berühmten 1975 veröffentlichten Buch Animal Liberation. Die Befreiung der Tiere verwendet Singer den von Ryder erfundenen Begriff Speziesismus und beschreibt eine Diskriminierung und Ausbeutung von Tierarten. Tiere werden durch diese Verhaltensweisen als minderwertige Art plakatiert und so zum Objekt von Diskriminierung. Singer möchte hingegen ein Gleichheitsprinzip angewandt sehen, das nicht nur Rassismus und Sexismus aufheben soll, sondern auch den Speziesismus gegen Tiere.

Das ethische Problem von Speziesismus ist im Extremfall der Umgang mit Tieren wie mit Objekten. Anstatt sie als Lebewesen mit einem individuellen Lebensrecht zu sehen, werden sie durch unethisches Verhalten zu einem Spielball menschlicher Interessen. Diese Benachteiligung soll laut Kritikern des Spezisismus – darunter Peter Singer – aufgehoben werden.

Negative Folgen von Speziesismus

Wo sich der Gedanke ausbreitet, dass Tiere weniger Anerkennung und Wert verdient haben, als Menschen, ist der Ausbeutung als logische Konsequenz die Türe geöffnet. Dem Tier ist so im Speziesismus bereits qua Artzugehörigkeit eine Minderwertigkeit zugeschrieben. Dies muss nicht, kann aber zu einer argumentativen Rechtfertigung von Quälerei und Tiermisshandlung werden. Die kritische Betrachtung des Speziesismus öffnet die Türe zu einer komplexen ethischen Diskussion über Tierrechte.

Ist es beispielsweise das Recht des Menschen, Tiere in einer hochindustrialisierten Massentierhaltung für die Umwandlung in Nahrung und Konsumprodukte zu halten? Und wie ethisch fragwürdig ist die Haustierhaltung von Vögeln in Käfigen und von Hunden an der Leine? Der Begriff Speziesismus und seine kritische Betrachtung kann also zu einer Debatte führen, die unser ethisches Verhalten gegenüber Tieren überprüft. Dabei öffnen sich zuweilen komplexe Dilemmata. Denn die Vorteile von Tierversuchen für medizinische Fortschritte sind sichtbar. Die Alternative wären Menschenversuche oder eine mangelhafte Testung von Medikamenten und ähnlichen kritisch notwendigen Produkten. Zugleich würde es vielen Menschen schwerfallen, den Tieren per se das Recht auf ein freies Leben fernab von quälenden Tierversuchen zuzusprechen. Was also tun?

Eine Tierschutzorganisationen setzten bereits bei der Sprache an. Wie beim Sexismus kann man im Fall des Speziesismus bereits bei herabwürdigen Sprachmustern die Missachtung von Tieren erkennen. So werden Menschen als „hässliche Sau“, „dummer Esel“ disqualifiziert. Es ist gar eine gängige Redewendung, ein „Hühnchen zu rupfen“, was eine gewisse Akzeptanz dieser Praxis impliziert. Allerdings kann man hier auch entgegenhalten, dass es Sprüche wie „Schlau wie ein Fuchs“ gibt, die Tiere nicht qua Spezies negativ abqualifizieren. Dennoch kann sich die Missachtung von Tieren bereits in der Sprache zeigen.

Gegenkonzepte und Alternativen zu Speziesismus

Das Bewusstsein, dass Tiere ebenso ein Recht auf Leben, auf Freiheit und auf den Status eines Subjekts haben, entfaltet sich in der Tierethik. Tierethik versucht genau das Problem des Speziesismus zu vermeiden: Eben nicht Tiere per se wegen ihrer Art als minderwertig abzuqualifizieren. Stattdessen versucht sie, Antworten darauf zu finden, wie man mit Tieren gerecht umgehen kann. Sie versucht in vielen Fällen auch die anthropozentrische Sichtweise zu überwinden, nach welcher der Mensch das Maß aller Dinge ist. Peter Singer gehört zu den berühmten Tierethikern, aber auch historische Philosophen wie Jeremy Bentham. Bentham, ein englischer Philosoph, Jurist und Ethiker, stellte bereits im Jahr 1789 in seiner Schrift An Introduction to the Principles of Morals and Legislation fest, dass Tiere durch ihre Fähigkeit zu Leiden eine tiefe Gemeinsamkeit mit Menschen teilen. Bentham vertrat in dieser Frage eine aufklärerische Position, die anerkannte, dass auch irgendwann Tiere das Recht auf ein selbstbestimmtes Leben haben sollten.

Von diesem Ideal der Tierethik ist die menschliche Gegenwart noch weit entfernt. Allerdings gibt es schrittweise Erfolge hin zu mehr Tierrechten. So wurde in Deutschland wie auch in vielen weiteren Ländern ein rechtlich bindendes Tierschutzgesetz etabliert, das Tierquälerei und mit gewissen Einschränkungen schädliche Tierhaltung unter Strafe stellt. Auch Phänomene wie Veganismus und Vegetarismus sind in den letzten Jahren deutlich präsenter geworden. Laut Bundesministerium für Ernährung und Landwirtschaft ernährten sich im Jahr 2021 etwa 10 % der deutschen Bürger vegetarisch, dazu kamen 2 % Veganer. Die Frage des Tierrechts schlägt sich mittlerweile also auch im Alltag in Form der Ernährung nieder.

Die schädlichen Folgen des Speziesismus und die Vorteile eine Achtung von Tierrechten sind offensichtlich. Dennoch kann es extreme Gegenbeispiele zum Speziesismus geben, die nicht immer im Sinne der Tiere sind. So gibt es den sogenannten Anthropomorphismus – der Drang, in Tieren aber auch Gegenständen und Naturphänomenen menschlichte Eigenschaften zu sehen. Das begann bereits zur Zeit der antiken Gottheiten, denen teils menschliche Züge zugeschrieben wurden: Ob der ägyptische Gott Horus oder die Verwandlung von Zeus in einen Stier. Eine Vermenschlichung von Tieren kann ungewollt zu Nachteilen für die Tiere führen. Wird zum Beispiel ein Haustier mit den gleichen Mahlzeiten gefüttert wie ein Mensch, kann dies gesundheitsschädlich sein. So gelten Schokolade oder Salz für Hunde als gefährlich. Ein Ausweg aus dem Dilemma zwischen Speziesismus und Anthropomorphismus wäre, die Tiere als Lebewesen zu sehen, die sich von uns klar unterscheiden können, jedoch dennoch ein großes Spektrum an Rechten verdient haben.

Überblick – Was Speziesismus ist

Speziesismus ist die Wahrnehmung von Tieren gegenüber Menschen als minderwerting. Einige Tierrechtler sehen darin ein äquivalent zum Sexismus und Rassismus. Tierethiker versuchen seit Jahrhunderten die Rechte der Tiere zu berücksichtigen. Dabei tragen Tierschutzgesetze, Veganismus wie Vegetarismus dazu bei, das Leid von Tieren zu mindern. Ein problematisches Gegenteil zum Speziesismus ist die Vermenschlichung von Tieren, der Anthropomorphismus.

Kann man einen Hund vegan ernähren? Erklärung


Da Hunde im Gegensatz zu Katzen keine reinen Fleischfresser (Karnivoren) sind, können sie somit auch vegan ernährt werden. Der folgende Artikel verrät Ihnen die Vor- und Nachteile einer veganen Hundeernährung und was es dabei zu beachten gilt.

Hunde: Worauf muss bei einer veganen Ernährung geachtet werden?

Herkömmliches Hundefutter enthält außer Fleisch auch Mägen, Knochen, Blut und weitere Teile des Körpers toter Tiere. Häufig kommt es sogar vor, dass Körperteile von erkrankten Tieren für Hundefutter verwendet werden. Immer häufiger erkranken Hunde an Krebs und Dickleibigkeit durch die industrielle Herstellung von Tierfutter.

Einen Hund vegan zu ernähren, gestaltet sich relativ unkompliziert, auch wenn diese Methode als umstritten gilt. Die Versorgung notwendiger Nährstoffe muss hierbei gewährleistet sein, da es sonst zu Mangelerscheinungen kommen könnte. Die Mahlzeiten lassen sich selbst zubereiten, aber auch im Handel gibt es Hundefutter, welches rein vegan ist.

Die Zähne von Hunden sind nicht dafür vorgesehen, Nahrungsteile zu zermahlen. Ihr Gebiss ist dafür ausgelegt, die Beute zu packen und zu reißen. Der Darm eines Hundes ist hauptsächlich für fleischhaltige Nahrung gedacht, deshalb ist der Dünndarm auch relativ kurz. Bei pflanzlichen Stoffen dauert der Prozess der Verdauung länger, was für den Hund von Nachteil ist.

Welche Nährstoffe benötigt ein Hund? Ernährung

Um Mangelerscheinungen zu vermeiden, benötigen Hunde folgende Nährstoffe:

  • Kohlenhydrate
  • Gemüse
  • Proteine
  • Öl
  • weitere Nährstoffe

Öl sollte dem Futter unbedingt beigemengt werden, sonst nimmt der Hund die Proteine nicht auf! Des Weiteren sollte bei der Zubereitung auf Gewürze verzichtet werden.

Die jeweiligen Anteile bestehen aus:

  • ca. 40 Prozent Kohlenhydrate
  • ca. 30 Prozent Proteine
  • ca. 27 Prozent Gemüse
  • ca. 3 Prozent Öl

Eisen, Kalzium, Phosphor, Jod, Vitamin E, Vitamin B12, Vitamin D, L-Carnitin und Taurin sind weitere Nähr- und Mineralstoffe, welche bei einer veganen Ernährung hinzugegeben werden sollten.

Was ist bei einer veganen Hunde-Ernährung erlaubt?

Ist ein Hundefutter vegan, darf es kein Fisch, Fleisch oder sonstige Bestandteile tierischer Herkunft wie beispielsweise Quark, Frischkäse oder Eier enthalten. Alternativ kann man seinem Vierbeiner zum Beispiel Süßkartoffeln, braunen Reis, Erbsen und Obst anbieten.

Eine vegetarische Ernährung hingegen erlaubt Produkte wie Quark oder Eier. Beide Methoden erfordern jedoch eine Zufuhr von Kohlenhydraten (Reis, Hafer, Weizen), um den Bedarf an Energie zu decken.

Welche Vorteile hat eine vegane Hundeernährung?

1. Verträglicher für den Hund

Ganz oft löst Futter bei Hunden Allergien aus. Einige Hunde reagieren allergisch auf fast sämtliche Sorten Fleisch oder andere Zutaten in gewöhnlichem Hundefutter. Durch veganes Hundefutter werden weniger Allergien ausgelöst und der Hund verträgt es deshalb besser.

2. Entlastet die Umwelt

Für rund 50 % der Treibhausgase in der Landwirtschaft sind die Nutztiere die Ursache. Durch vegane Ernährung werden Treibhausgase eingespart. Außerdem wird eine erhebliche Menge Wasser gespart. Als Beispiel: Es werden 15.000 Liter Wasser für 1 kg Rindfleisch verbraucht.

3. Weniger Übergewicht

Erkrankungen der Gelenke oder Diabetes sind nur zwei Folgeerscheinungen von Übergewicht. Rund 50 Prozent aller ausgewachsenen Hunde sind hierzulande zu dick. Eine vegane Ernährung kann diesem Problem entgegenwirken.

4. Weniger Tierleiden

Veganes Futter wirkt sich positiv auf die Massentierhaltung aus, da durch pflanzliche Nahrung weniger Tiere leiden müssen.

Welche Nachteile hat eine vegane Hundeernährung?

1. Setzt Grundwissen voraus

Besonders bei Junghunden ist es wichtig, ihnen alle nötigen Nährstoffe gewissenhaft zukommen zu lassen. Bereitet man das Futter selbst zu, sollte man deshalb die Zusammensetzung der Nährstoffe genau wissen. Nur so kann eine langfristige ausgewogene Ernährung sichergestellt werden. In veganem Fertigfutter hingegen sind im Regelfall bereits alle nötigen Nährstoffe enthalten.

2. Keine Akzeptanz des Futters

Manche Hunde entwickeln eine wahre Leidenschaft für Fleisch. Dies kann ein Grund dafür sein, dass er veganes Futter absolut nicht annehmen möchte.

3. Mischfutter erleichtert eine ausgewogene Ernährung

Da Welpen noch in der Wachstumsphase sind, haben sie noch einen höheren Bedarf an Nährstoffen. Deshalb ist es wichtig, auf eine ausgewogene Ernährung zu achten. Das ist leichter gewährleistet, wenn das Futter aus pflanzlichen sowie fleischlichen Zutaten besteht.

Fazit: Kann man einen Hund vegan ernähren? Erklärung

Einen Hund vegan zu ernähren, kann sowohl Vorteile als auch Nachteile mit sich bringen. Jeder Besitzer muss selbst entscheiden, was für seinen Vierbeiner das Beste ist. Eine gesunde und ausgewogene Ernährung ist das wichtigste dabei und sollte stets beachtet werden.

Am besten führt man seinen Hund langsam an eine Umstellung des Futters heran, idealerweise mit tierärztlicher Beratung. Erhält der Hund alle Nährstoffe, die er benötigt, steht einer veganen Ernährung nichts im Wege.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung


Da Hauswirtschaftsräume und Waschkeller oft nicht sehr groß sind, kommt häufig die Frage auf, ob man einen elektronischen Wäschetrockner auf eine Waschmaschine stellen kann. Zusätzlich zum Platzfaktor erleichtert es die Hausarbeit ungemein, wenn beide Geräte in unmittelbarer Nähe zueinander stehen. Einen Trockner auf eine Waschmaschine zu stapeln ist grundsätzlich möglich, jedoch gibt es einige Faktoren zu beachten, auf die im folgenden Text eingegangen wird.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung

Waschmaschinen wiegen je nach Modell zwischen 60 und 100 Kilogramm. Zusätzlich zum Gewicht der Bauteile wird ein sogenanntes Gegengewicht eingebaut, damit die Maschine beim Schleudergang einen festen Stand hat und nicht umkippt. Dennoch bleiben kleine Bewegungen nicht aus, was mitunter sogar dazu führen kann, dass das Gerät “wandert”. Es ist deshalb ratsam, die Maschine auf eine ebene Fläche zu stellen und die meist verstellbaren Füße so auszurichten, dass sie möglichst wenig wackelt. Die ruckelnden Bewegungen sind auch der Grund, wieso man einen Trockner niemals direkt auf eine Waschmaschine stellen sollte. Das Risiko, dass er während des Waschgangs hinunterfällt, ist zu groß. Es gibt dennoch verschiedene Methoden, dieses Problem zu umgehen.

Trockner auf Waschmaschine: Matte oder Vibrationsdämpfer 

Eine Antivibrationsmatte oder Vibrationsdämpfer sind der einfachste Weg, um einen Trockner auf eine Waschmaschine zu stellen.

Die Antivibrationsmatte ist eine Matte, die die Schwingungen absorbiert. Die Vibrationsdämpfer machen genau das gleiche, nur dass sie wie erweiterte Füße funktionieren.

Do it yourself – Zwischenboden

Mit ein wenig handwerklichem Geschick lässt sich selbstständig ein Zwischenboden bauen. Hierzu bietet sich ein Stück Arbeitsplatte oder eine lackierte Massivholzplatte an, denn diese sind in der Regel tief genug, damit der Trockner vollständig darauf Platz findet. Da Wäschetrockner ca. 35 – 50 Kilogramm wiegen, ist eine gewisse Materialstärke unerlässlich, auch hier haben sich Küchenarbeitsplatten bewährt.

Die Platte sollte an mindestens einer Seite fest mit der Wand verschraubt werden, um ein Verrutschen zu vermeiden. Je nach Länge der Platte sollte ein Zwischenfuß in Betracht gezogen werden, damit sich der Boden in der Mitte nicht durchbiegt. Außerdem ist darauf zu achten, dass der Zu- und Ablaufschlauch der Waschmaschine jederzeit leicht zugänglich ist, um im Notfall schnell Reparaturarbeiten erledigen zu können. Nachdem die Trennplatte auf einen festen Stand überprüft wurde, kann die Waschmaschine unter die Platte geschoben werden und der Trockner darüber platziert werden. So stehen beide Geräte übereinander, ohne direkten Kontakt miteinander zu haben. Die Heimwerkermethode ist zeitaufwändig und, wenn keine Restmaterialien verwendet werden, mitunter auch kostspielig. Der Vorteil dieser Methode besteht darin, dass sie oft optisch ansprechend ist und nach den eignen Bedürfnissen angepasst werden kann.

Die schnelle Lösung – der Zwischenbaurahmen

Die meisten Waschmaschinenhersteller bieten inzwischen sogenannte Zwischenbaurahmen zum Verbinden von Waschmaschine und Trockner an. Diese werden sowohl mit der Waschmaschine, als auch mit dem Trockner verschraubt, sodass das obere Gerät nicht herunterfallen kann. Die Kosten für einen Zwischenbaurahmen sind je nach Anbieter sehr unterschiedlich, Universalrahmen gibt es im Internet bereits ab 14 Euro. Der Vorteil eines Zwischenbaurahmens ist, dass man ihn selbst und meistens recht schnell anbringen kann. Allerdings sind aufgrund der unterschiedlichen Maße der einzelnen Anbieter nicht immer alle Geräte miteinander kombinierbar. So kann es sein, dass der Rahmen zwar auf die Waschmaschine passt, der Trockner dann aber nicht mehr auf den Rahmen. Daher sollte vor dem Kauf genau darauf geachtet werden, welche Abmessungen die Geräte zu Hause haben und ob sie auf die entsprechenden Zwischenbaurahmen passen.

Im Fachhandel – der Schrank

Im Möbelfachgeschäft gibt es fertige Waschmaschinenschränke zu kaufen, die zwei übereinander gelegene Fächer haben, wo die beiden Geräte genau hineinpassen. Zwar haben die meisten Waschmaschinen ein Universalmaß, es bietet sich aber dennoch an, vorher einen Blick auf die Abmessungen zu werfen. Manche Waschmaschinenschränke verfügen sogar über Türen, sodass man die Geräte bei Nichtbenutzung nicht sieht.
Auch hier sind Preise, Ausführungen und Qualitäten stark unterschiedlich.

Einen Trockner auf eine Waschmaschine zu stellen, ist also durchaus möglich. Andersherum sollte man es aber nicht machen, da die Waschmaschine schwerer ist und durch ihre starken Bewegungen den Trockner beschädigen könnte.

Was ist die Pomodoro-Technik? Wie funktioniert sie? Bedeutung, Definition, Erklärung


Die Pomodoro-Technik ist eine Methode des Zeitmanagements, die dabei helfen soll die eigene Produktivität durch das systematische Planen von Pausen zu steigern. Der italienische Erfinder Francesco Cirillo hat die Technik erfunden, da er während des Studiums dazu neigte, Aufgaben vor sich her zu schieben. Er ging davon aus, dass man am besten alle 25 Minuten eine Pause notwendig ist, um Produktivitätsabfälle zu vermeiden. Um dieses Schema einzuhalten, organisierte sich Cirillo mit Hilfe einer Küchenuhr in Tomatenform. Diese erinnerte den Erfinder an die Pausen.

Wie funktioniert die Pomodoro-Technik?

Die Pomodoro-Technik folgt folgendem Prinzip: Konzentrierte Arbeitsphasen von 25 Minuten werden mit durch regelmäßige Pausen von 5 Minuten getrennt. Damit wird dem Gehirn deutlich, wann gearbeitet wird und wann Zeit für die Erholung ist. Das soll die Konzentration fördern. Cirillo nennt eine Abfolge von Arbeitsphase und Pause Pomidori. Nach 4 Pomidori, die 2 Stunden und 25 Minuten beträgt, sollte eine längere Pause eingeplant werden, die zwischen 20 bis 30 Minuten beträgt. Danach kann erneut mit Pomidori begonnen werden.

Wirksamkeit der Pomodoro-Technik

Im Wesentlichen geht es bei der Pomodoro-Technik darum, den Fokus bei der Arbeit zu erhöhen, wodurch Multitasking verhindert wird. Daneben steigert die feste Struktur die Disziplin, da Arbeitsunterbrechungen und Ablenkungen komplett aus den produktiven Arbeitsphasen genommen werden. Die feste Strukturierung beugt durch die Aufteilung in sehr kleine Arbeitseinheiten und Ziele Prokastination vor. Schließlich ist es einfacher, sich an kleine, überschaubare Aufgaben zu machen.

Anwendung der Pomodoro-Technik

Die Erfolgreiche Durchführung der Pomodoro-Technik hängt von einer guten Vorbereitung ab. Bevor begonnen wird empfiehlt es sich, alle Aufgaben zu notieren und zu priorisieren. Wichtig ist dabei eine größere Aufgabe in kleine Einheiten zu unterteilen, die gemeinsam in einem 25-Minuten-Block bearbeitet werden können. Zum Beispiel Informationen nachschlagen (10 Minuten) und Folien gestalten (15 Minuten).

Ist eine Übersicht über aktuelle Aufgaben geschaffen, können diese in den Tagesplan aufgenommen werden. Dieser wird fokussiert und stringent durchgezogen, um die Konzentration zu halten und Ablenkungen zu vermeiden. Es kann einige Zeit dauern, sich an die Zeitintervalle zu gewöhnen. Werden diese auch nach längerer Zeit als unpassend empfunden, können die Zeitinvervalle an die eigene Produktivitätsspanne angepasst werden. In der Praxis haben sich hier 15-Minuten oder 40-Minuten-Blöcke bewährt. Die produktiven Phasen sollten jedoch nicht zu Weit ausgeweitet werden, da man oft mit Zeit unproduktiver wird und dies selbst nicht wahrnimmt.

Wichtig ist, Pausen effektiv zur Erholung zu nutzen. Etwas Bewegung kann helfen den Kopf frei zu bekommen. Nicht förderlich ist es, andere To Dos einzuschieben, wie beispielsweise ein kurzes Anruf etc. Schließlich sollen die 5 Minuten Pausen ausschließlich der mentalen Erholung dienen. Dementsprechend sollten in der Pause Dinge getan werden, die wirklich gut tun: Tief durchatmen, sich eine Tasse Kaffee holen oder eine kleine Einheit Yoga.

Es ist wichtig bei der Pomodoro-Technik den richtigen Umgang mit Ablenkungen zu lernen. Kommt ein Geistesblitz, kann man sich diesen notieren und auf einen späteren Zeitpunkt verschieben. Dasselbe gilt für ToDos die nachträglich aufkommen. Daneben gibt es natürlich wirklich wichtige Anrufe und Grundbedürfnisse, welche auch trotz Arbeitsphase bedient werden müssen. Schließlich wirkt es sich auf die Produktivität aus, wenn es uns nicht gut geht. In diesen Fällen kann eine 25-Minuten-Einheit auch kurz unterbrochen werden.

Klassischwerweise wird empfohlen die Pomodoro-Technik ausschließlich mit Stift und Papier umzusetzen. Denn digitale Helfer bergen die Gefahr durch weitere Ablenkung. In diesem Sinne empfiehlt sich der Einsatz einer handelsüblichen Küchenuhr, um die Zeitintervalle zu stoppen. Menschen die ohnehin am Laptop arbeiten können auch einen der zahlreichen Pomodoro-Timer im Internet benutzen. Auch für das Smartphone gibt es Pomodoro-Apps.

Kann man einen Schwan essen? Nein! Erklärung, Antwort, Gründe


Man kann einen Schwan (technisch gesehen) essen, aber es gibt viele gute Gründe, warum man es unterlassen sollte. Diese werden in diesem Beitrag erklärt.

Niedlichkeit oder ein zartes Alter schützt viele Tiere nicht davor, auf dem Teller zu landen. Kleine Lämmer und Zicklein gelten als Delikatessen. Kalbfleisch ist bei Feinschmeckern für seine Zartheit beliebt. Ente und Gans schmecken vielen besonders im Winter. Zu keiner der vier Jahreszeiten ist jedoch ein Schwan auf den meisten Speisekarten zu finden.

Der Schwan als Delikatesse, historischer Rückblick

In früheren Zeiten wurden Schwäne vor allem bei Hofe häufig gegessen. Dabei diente ein gebratener Schwan nicht nur als Nahrung, er erfüllte auch Dekorationszwecke auf der mittelalterlichen Tafel. Nach dem Braten wieder mit Federn bestückt, war er ein Augenfang für die Tafelgäste.
Weniger prunkvoll war die Zubereitung des Schwans während Kriegszeiten. Hier stillten die großen Entenvögel den Hunger und sicherten so manchem das Überleben.

Royale Schwanenflotte

Weil Schwäne in England zu früheren Zeiten als besondere Leckerbissen gejagt wurden, beschloss die englische Krone im 15. Jahrhundert sie unter Schutz zu stellen. Nun gehörten die großen, weißen Vögel dem Königshaus. Sie zu jagen war illegal und zog eine Strafe nach sich. Noch in der heutigen Zeit werden die Schwäne, die auf der englischen Themse schwimmen, im Juni jeden Jahres durchgezählt.

Schwanenfleisch in der heutigen Zeit

Wer Bilder von mittelalterlichen Festtafeln sieht, in deren Mitte ein hübsch dekorierter, stattlicher Schwan thront, fragt sich unweigerlich, wieso Schwanenfleisch auf kaum einer Speisekarte zu finden ist. Dass Schwan sich in Restaurants und den heimischen Küchen rar macht, hat mehrere Gründe.
Der Lebensraum von Schwänen sind bevorzugt eher seichte Seen und Flüsse mit geringer Strömung. Solche Gewässer und deren Bewohner sind nicht selten mit Keimen belastet, welche beim Verzehr auf den Menschen übergehen und Krankheiten auslösen können.

Außerdem mundet Schwanenfleisch alles andere als gut. Sein Geschmack wird mit tranig und sumpfig umschrieben. Mit entsprechenden Kenntnissen ist es wohl möglich, den Wasservogel auch schmackhafter zuzubereiten. Nur, wieso sollte sich jemand die Mühe machen, wenn es bei Enten und anderem Geflügel ganz ohne Aufwand geht.

Nicht zuletzt gilt der Schwan als Symbol für Treue und Liebe. Er steht auch für Königlichkeit, Vollkommenheit und Anmut und ist auf zahlreichen Wappen zu finden. Ein solch symbolträchtiges Tier, das ohne große Aufwand zudem nicht schmeckt, zu jagen und zu verspeisen ist heutzutage schlicht unpopulär.

Steckbrief des Schwans

Der Schwan gehört zur Familie der Entenvögel. Ein Schwan kann bis zu 14 kg schwer und über einen Meter groß werden. Dank seines langen Halses fällt ihm das Gründeln, also das Absuchen von Gewässerböden nach Nahrung, leicht. Bevorzugte Lebensbereiche sind Gewässer wie Seen und Flüsse. Auch in Sümpfen fühlen sich Schwäne wohl. Damit die Nahrungssuche am Boden des Gewässers gelingt, darf dieses nicht zu tief sein. Wasserpflanzen und Pflanzen des Uferbereichs sind Hauptnahrung der weißfedrigen Vögel. Ab und an stehen jedoch auch Insekten oder kleinere Fische auf dem Speiseplan.

Findet ein Schwanenpaar zusammen, so geht es meist einen Bund fürs Leben ein. Auch der Nestbau aus Pflanzenresten und Zweigen findet gemeinsam statt. Gewässernahe, aber möglichst ungestörte Standorte werden dabei bevorzugt. Ist das Nest fertig, legt das Schwanenweibchen Eier, die es, bewacht und beschützt vom seinem Partner, ausbrütet. Der Aufzucht der Jungen widmen sich dann wieder beide Partner.

Was ist eine Glückskatze? Bedeutung, Definition, Erklärung


Glückskatzen zählen eher zur Seltenheit und gelten als Glücksbringer, weswegen sie sehr beliebt sind. Was man unter Glückskatzen versteht und was sie ausmachen, zeigt der folgende Artikel.

Was versteht man unter einer Glückskatze? Erklärung

Als Glückskatzen werden im Volksmund Katzen bezeichnet, welche drei Farben, nämlich schwarz, rot und weiß aufzeigen. Bereits im Mittelalter war man der Überzeugung, dass solche Katzen Feuer von eigenen Häusern fernhalten. Seefahrer aus Japan nahmen die Glückskatzen bereitwillig mit auf Schiffe, um sie auf hoher See vor Unheil zu bewahren.

Des Weiteren sollen sie arme Menschen zu Reichtum verholfen haben, doch nur, wenn die Katzen gut behandelt wurden. Eine Glückskatze hingegen zu verletzen oder gar zu töten sollte Unglück über diese Menschen bringen.

Maneki Neko werden in Japan die dreifarbigen und laut Volksmund glücksbringenden Winkekatzen genannt. Eine Legende besagt, solch eine Glückskatze rettete einst eine Geisha vor dem tödlichen Biss einer Schlange.

Wissenschaftlich konnte nie nachgewiesen werden, ob dreifarbige Katzen ihren Besitzern Glück bringen, was den Begriff Glückskatze wohl eher zu einem Mythos macht.

Die Entstehung einer dreifarbigen Katze: Genetik

Das X-Chromosom ist für die Farbe des Fells einer Katze verantwortlich, wobei rot und schwarz die Grundfarben sind. Weibchen verfügen über 2 X-Chromosomen, weshalb sie beide Grundfarben zeitgleich haben können. Besitzt eine Katze diese rot-schwarze Färbung, bezeichnet man das auch als Schildpattmuster.

Da ein Kater im Gegensatz zur Katze für gewöhnlich nur ein X-Chromosom und ein Y-Chromosom besitzt, können die Katzenbabys auch im Regelfall entweder nur schwarz oder rot gefärbt sein. Aus diesem Grund sind Glückskatzen meist weiblicher Natur.

Um einer Glückskatze diesen Namen zu verleihen, benötigt sie ein sogenanntes S-Gen (Scheckungs-Gen). Dieses Gen ist für die weißen Flächen im Fell der Katze verantwortlich. Wie sich diese Flecken verteilen und wie groß sie sind, ist reiner Zufall. Solch eine Gen-Variante tritt eher selten auf, weshalb dreifarbige Katzen nicht so oft vorkommen. Das schwarz-weiß-rote Fell ist auch unter dem Namen Tricolor bekannt.

Ganz selten können Glückskatzen auch männlich sein, doch das ist wirklich eine absolute Ausnahme. Der Grund dafür ist eine Anomalie der Gene und nur möglich, wenn der Kater über 2 X-Chromosomen verfügt. Außer Schwarz und Rot bedarf es dabei auch noch einer weißen Scheckung, um ein Glückskater zu sein. In diesem Fall sind die Tiere allerdings unfruchtbar, somit können diese Gene auch nicht weiter vererbt werden.

Es kommt nicht auf die Rasse an

Die Rasse ist bei Glückskatzen unerheblich, denn sie können überall vorkommen, vorausgesetzt, die nötige Veranlagung der Katze ist gegeben. Ebenso muss sie das Scheckungs-Gen enthalten.

Ob eine Schildpatt-Katze, das heißt eine schwarz-rot gefärbte Katze entsteht, bleibt weiterhin der Natur vorbehalten und lässt sich nicht bewusst züchten.

Bei einer Katzenrasse tritt die 3-Farben-Zeichnung jedoch des Öfteren auf, nämlich bei der Crysanthemenkatze (Japanese Bobtail). Diese Rassekatze hat ihren Ursprung in Asien und Scheckungen kommen bei ihr häufiger vor. Tiere mit drei Farben werden dort überaus geschätzt.

Haben Glückskatzen einen speziellen Charakter?

Es gibt viel, was man einer Glückskatze an charakteristischen Eigenschaften nachsagt. So sollen diese Katzen laut einer Umfrage beispielsweise mehr temperamentvoll und eigensinniger sein als andere ihrer Artgenossen.

Von den Umfragen unabhängig meldeten Besitzer von Glückskatzen allerdings, dass diese Eigenschaften auf ihre Glückskatzen in keiner Weise zutreffen. Im Gegenteil, ihre Katzen wären sehr auf den Menschen bezogen und liebesbedürftig.

Beweise für solche Eigenschaften bei einer dreifarbigen Katze gibt es bisher nicht. Das hat den Grund, dass Katzen generell sehr individuell sind und jede ihre Vor-und Nachteile besitzt.

Fazit: Glückskatzen

Es ist und bleibt wohl eher ein Mythos, dass dreifarbige Katzen Glück bescheren sollen, denn es gibt keinen wissenschaftlichen Beweis dafür. Jede Katze hat ihren eigenen Charakter, welcher nicht von ihrer Farbe abhängt. Trotzdem kann sich jeder, der Besitzer solch einer Schönheit ist, sehr wohl überaus glücklich schätzen.

Was bedeutet “Sockenpuppe”? Bedeutung, Definition, Erklärung


In Diskussionen im Internet versteht man unter dem Vorwurf einer Sockenpuppe in der Regel einen Zweit- oder Mehrfachaccount eines Benutzers, der bereits über ein Benutzerkonto verfügt, aber unter verschiedenen Gründen in einer Diskussion nicht mit diesem Konto posten möchte. Die Sockenpuppen fallen daher nicht selten unter die Kategorie der Trolle, Agenda-Accounts oder Wegwerfaccounts. In der Regel werden die Sockenpuppen dafür genutzt, Diskussionen durch besonders kontroverse Äußerungen entgleisen zu lassen oder direkte Regelverletzungen auf einer Plattform vorzunehmen. Sockenpuppen können aber bei heiklen Themen auch einfach dem Wunsch nach Anonymität in einer Debatte entsprechen.

Was sind Sockenpuppen und wie funktionieren sie? Internet, Social Media

Bei einer Sockenpuppe handelt es sich in fast allen Fällen um einen weiteren Account einer Person, die entweder nur bei bestimmten Themen und Diskussionen auftritt oder stets dort, wo der User mit seinem eigentlichen Account in einer Diskussion verstrickt ist. Mit der Hilfe des zusätzlichen Accounts soll erreicht werden, dass die Meinung des Sockenpuppen-Besitzers als von anderen geteilt erscheint und damit mehr Legitimität hat. Sockenpuppen werden auch dafür genutzt, bestehende Diskussionen in eine bestimmte Richtung entgleisen zu lassen – etwas, das unter dem Begriff Derailing auf vielen Plattformen sanktioniert wird.

Der Einsatz von Sockenpuppen ist im Internet keine neue Entwicklung lässt sich in dieser Form bereits in die ersten Usenet-Gruppen zurückverfolgen. Vergleiche wurden auch mit Publikationen im Mittelalter gemacht, in denen wichtige Leute unter falschen Namen Leserbriefe oder Kolumnen in Zeitungen geschrieben habe, um ihren Standpunkt mit der Hilfe dieser vermeintlich neutralen Person zu verdeutlichen oder die Diskussion zu beeinflussen.

Vor allem die modernen sozialen Netzwerke, Foren und Kommentar-Bereiche in Online-Publikationen machen den Einsatz von Sockenpuppen heute einfach wie nie. In der Regel braucht es für die Verifizierung des Accounts nur eine E-Mail-Adresse und diese ist wiederum bei den verschiedensten Diensten in wenigen Minuten angelegt. Da man auch ohne irgendeine Form von Verifizierung und ohne Vorlauf in Diskussionen einsteigen kann, ist es für Sockenpuppen besonders einfach, bereits kurz nach der Registrierung aktiv zu werden. Das wiederum hat zur Folge, dass Accounts mit wenige Aktivität oder einem geringen Alter inzwischen in den sozialen Netzwerken von vielen Benutzern in Diskussionen besonders kritisch betrachtet werden.

Die Ziele hinter dem Einsatz von Sockenpuppen

Es gibt verschiedene Gründe für den Einsatz von Sockenpuppen. So setzen verschiedene Benutzer auf den Einsatz von mehreren Accounts, um ihre Anonymität im Internet zu wahren. Da sie keine zusammenhängende Historie haben, wird es schwieriger, eine Person hinter dem Account zu doxxen und somit die Verbindung zu einer realen Person herzustellen. Besonders in Zeiten, in denen die Cookies sonst zu einem Problem werden können, wird dieser Grund häufig benutzt. Allerdings würden in diesem Fall die Sockenpuppen nicht als Störungen oder als Agenda Pushing in bestimmte Richtungen dienen, sondern einzig zu dem Einsatz bei verschiedenen Themen.

Der eigentliche Grund liegt aber in der Regel bei einer Verschiebung des Diskurses. Mit der Hilfe von Sockenpuppen lässt sich beispielsweise in Diskussionen recht mühelos das Gefühl aufbauen, dass eine bestimmte Position von einer Mehrheit vertreten wird. Wenn ein Benutzer ein kontroverses Statement macht, ihm zwei Leute widersprechen, gleichzeitig aber zwei Sockenpuppen das kontroverse Statement aufgreifen, werden die Mehrheitsverhältnisse verfälscht. In größeren Dimensionen kann auf diese Weise eine bestimmte Ansicht oder Position besonders sichtbar gemacht werden. Durch das Gefühl, dass eine Mehrheit für kontroverse Statements werden sich daher auch Leute hervortrauen, die diese bestätigen. Das kann eine eigene Dynamik entwickeln.

Natürlich lassen sich auf diese Weise auch konkrete Vorhaben sichtbarer machen, als sie in einer organischen Diskussion sein würden. Sei es nun bei einer Petition, einer Umfrage oder bei einer einfachen Diskussion bei einem Forum im Internet – alles in allem werden durch Sockenpuppen Meinungen mehrheitsfähig gemacht, die in einem organischen Diskurs nicht mehrheitsfähig wären. Genau dort liegt auch das bisher größte Problem bei der Suche nach einer Lösung dieses Problems.

Unterscheidung zwischen Bot-Netzwerken und Sockenpuppen

Oftmals gehen in der Beschreibung Trolle, Sockenpuppen und Bots die Begrifflichkeit ineinander über. Tatsächlich gibt es aber Unterscheidungen. Ein Troll wird in der Regel einfach nur versuchen die anderen User zu provozieren, ohne dabei eine klare Agenda zu verfolgen. Ein Bot oder ein Bot-Netzwerk wird nicht nur von mehreren Personen oder Organisationen gesteuert, sondern agiert in den Diskussionen auch ganz automatisch. Es ist also selten eine einzelne Person dahinter, sondern ein Algorithmus, der beispielsweise in den sozialen Netzwerken auf einzelne Keywords anspringt und daraufhin anfängt aktiv zu werden.

Hinter den meisten Sockenpuppen in sozialen Netzwerken stehen einzelne Personen. Es gibt zwar auch eine Vielzahl von Berichten, nach denen etwa Geheimdienste in Russland, den USA und China inzwischen eine große Zahl von Sockenpuppen für die Beeinflussung von Diskussionen im Internet nutzen, das konnte aber bisher im größeren Maße nicht bestätigt werden. Zudem werden immer mehr Benutzer vorsichtig im Umgang mit einer speziellen Sorte von Accounts und bei einer genaueren Prüfung sind die Sockenpuppen für den Betreiber relativ einfach zu entdecken.

Was ist ein Seil? Ursprung, Bedeutung und Verwendungszwecke


Seile sind elastische Elemente, die aus Natur- oder Kunstfasern bestehen und nur auf Zugkraft beansprucht werden können. Weitere Begriffe, die in diesem Zusammenhang verwendet werden, sind Leine, Schnur, Tau oder Trosse. Die verschiedenen Bezeichnungen können umgangssprachlich unterschiedlich definiert sein.

Jede Seilart zeichnet sich durch unterschiedliche Merkmale aus

Ein dünnes Seil mit einem Durchmesser von weniger als sechs Millimetern gilt als Schnur, wobei eine lange Schnur auch als Leine bezeichnet wird. Dicke Seile, deren Durchmesser 50 Millimeter oder beträgt, sind Taue (Einzahl: Tau). Für Seile aus Stahl wird der Fachbegriff Trossen verwendet. Jede Seilart zeichnet sich durch besondere Merkmale aus und ist daher auch für bestimmte Einsatzbereiche geeignet, während sie für andere Fachgebiete vollkommen ungeeignet ist. Am häufigsten werden Seile, Schnüre und Kordeln im Bau- und Transportwesen genutzt. Außerdem bestehen Anwendungsmöglichkeiten als Sicherungsseile und Abhängeseile. In der Medizintechnik, Leuchtenindustrie, Möbelindustrie, Gartengerätetechnik und Agrartechnik sowie in der Automobilindustrie kommen Drahtseile zum Einsatz. In der Förder- und Hebetechnik ist das Edelstahlseil für das Tragen hoher Lasten unverzichtbar. Überall dort, wo hohe Tragkräfte, hohe Abriebfestigkeit sowie eine geringe Dehnung gefordert sind, wie bei der Sicherung von Transporten, auf Schiffen, im Ingenieurbau und Brückenbau kommt das Edelstahlseil zur Verwendung. Edelstahlseile, wie sie beispielsweise bei cgahrens zu finden sind, gelten als langlebig und optisch ansprechender als verzinkte Drahtseile. Der Bereich Drahtseiltechnik umfasst neben verschiedenen Einsatzmöglichkeiten für Drahtseile auch Drahtseilzubehör wie Drahtseilklemmen, Schäkel und Terminals sowie spezielle Werkzeuge für die Drahtseilverarbeitung.

Die Seilschaft, sprachlich verwandt, jedoch mit völlig anderer Bedeutung

Im Zusammenhang mit dem Begriff Seil existiert der sprachlich verwandte Ausdruck Seilschaft. Allerdings handelt es sich beim Begriff Seilschaft um etwas völlig anderes. In Unternehmen sowie in Bereichen wie Wirtschaft und Finanzen kennt man Seilschaften als Netzwerke von Personen, die gemeinsame Interessen, die oft über den beruflichen Kontext hinausgehen, verbinden. Daher wird die Bezeichnung Seilschaft oft negativ assoziiert. Die ursprüngliche Bedeutung der Seilschaft wird im Duden folgendermaßen beschrieben: Gruppe von Personen, die beispielsweise im politischen Bereich zusammenarbeiten und sich gegenseitig begünstigen. Eine Seilschaft kann jedoch auch eine Gruppe von Kletterern oder Bergsteigern sein, die bei Trekkingtouren durch ein Sicherungsseil miteinander verbunden sind. Im allgemeinen Sprachgebrauch wird eine Bergsteigergruppe auch dann als Seilschaft bezeichnet, wenn diese zwar gemeinsam unterwegs, allerdings nicht mit einem Seil verbunden ist.

Gleichzeitig bildet eine Seilschaft eine Gefahrengemeinschaft, da unter ungünstigen Bedingungen der Sturz eines einzelnen Mitgliedes bereits zum Absturz der gesamten Seilschaft führen kann. Durch das Sicherungsseil soll die Seilschaft ihren Mitgliedern zuverlässige Sicherung gegen Absturz bieten. In unserem modernen Zeitalter werden für technische Fachausdrücke oft Anglizismen verwendet. So handelt es sich bei einem Circuit Breaker um eine Sicherungsvorrichtung, die dazu dient, einen Stromkreis zu unterbrechen. Im Deutschen wird das Fachwort Circuit Breaker mit Sicherung oder Leistungsschutzschalter genannt. Da heutzutage vorwiegend online kommuniziert wird, haben die Internetsprache und der Netzjargon eine große Bedeutung. Die WLAN-Namen, die zur Identifizierung eines Internet-Anschlusses vergeben werden, können individuell und witzig, aber auch beleidigend und böse sein. Generell werden gern Abkürzungen verwendet, da diese fester Teil des Sprachgebrauches sind. Abkürzungen sollen den Lesefluss verbessern, Texte kürzer gestalten und Wortwiederholungen verhindern.

Was ist eine Impfprämie? Vorteile, Nachteile, Bedeutung, Definition, Erklärung


Mit einer Impfprämie sollen Bürgerinnen und Bürger motiviert werden, sich gegen Corona impfen zu lassen. Das Modell gibt es zumindest im Ausland schon seit2021, in Deutschland setzt es sich nur langsam und meistens durch privatwirtschaftliche Initiativen durch. Die Impfprämie kann direkt in Geld gezahlt werden, doch auch andere Anreize sind möglich: Bundesweite Schlagzeilen machten 2021 Gemeinden in Thüringen, die den Impfwilligen nach dem Pieks eine kostenlose Bratwurst spendierten.

Warum kommt die Diskussion um eine Impfprämie auf?

Dass eine Schutzimpfung die Folgen einer Infektion mit SARS-CoV-2 am besten auffängt oder diese Infektion gleich ganz verhindert, gilt zumindest in der Wissenschaft als unstrittig. Die Impfung mag aber nicht jeder, es gibt bekanntlich erklärte Gegner dieser Vorsichtsmaßnahme. Eine Impfpflicht, über die der deutsche Bundestag am 26. Januar 2022 erstmals debattierte und die in Österreich inzwischen beschlossen wurde, dürfte allerdings zur Radikalisierung einiger Impfgegner führen. Da radikale Strömungen auch immer einen Teil der eigentlich unentschlossenen Bevölkerung beeinflussen, wie an den Demonstrationen gegen die Coronamaßnahmen zu erkennen ist, wäre eine Impfprämie ein sanftes Motivationsmittel, um diese große Menge der Unentschlossenen zur Impfung zu bewegen. Die Privatwirtschaft hat das schon längst erkannt: In den USA boten schon im Frühjahr 2021 einige große Unternehmen ihren Beschäftigten Impfprämien an, gleich nachdem es erste Impfstoffe gab. Viele deutsche Unternehmen folgen inzwischen diesem Weg. Ihre Motivation ist vollkommen klar: Sie brauchen geimpfte Mitarbeitende, wenn ihre Produktion weiterlaufen soll.

Impfprämie: Beispiele aus Deutschland

Gerade in den Bundesländern Sachsen und Thüringen, in denen die Impfquote deutschlandweit am niedrigsten ist, preschen Firmen mit einer Impfprämie für ihre Beschäftigten vor. Sie lassen sich von Forschungsdaten leiten, welche die Motivation durch die Prämie belegen. Der Unternehmerverband Sachsen begrüßt das Modell grundsätzlich, verweist aber darauf, dass sich dieses weder alle Firmen noch alle Branchen leisten können. Hinter dieser Aussage stecken handfeste Zahlen: So zahlt die Böttcher AG aus Thüringen (Büroversand) jedem Mitarbeiter 5.000 Euro Prämie für die Impfung. Das ist eine enorme Summe, die in der Tat nur wenige Unternehmen stemmen können.

Böttcher-Vorstand Danilo Frasiak kann die Entscheidung aber begründen, die kurz vor dem Weihnachtsgeschäft 2021 getroffen wurde: Im Versandhandel (wie auch in anderen Handelsbereichen) ist der Dezember mit Abstand der stärkste Monat des Jahres. Die Böttcher AG konnte sich keine Ausfälle durch Coronaerkrankungen oder Quarantänemaßnahmen leisten. Die Prämie rechnete sich für das Unternehmen. Dieses steuerte damit auch den extrem hohen Inzidenzen in Thüringen und Sachsen entgegen. Frasiak führt aber noch weitere Gründe außerhalb der reinen Ökonomie für die Impfprämie an. Man habe, so der Manager, die Belegschaft zur Auseinandersetzung mit dem Impfthema bewegen wollen.

Der positive Anreiz einer hohen Prämie habe dabei als echter Motivationsbooster gewirkt. Frasiak spricht damit die beiden Seiten des Bonus-Malus-Systems via Geld an: Dem Bonus der Impfprämie würde nämlich bei der Einführung einer Impfpflicht als Malus die Geldbuße bei der Impfverweigerung gegenüberstehen. Wirtschaftsvertreter setzen ganz eindeutig auf den Bonus, also die Impfprämie. Sie wissen, wie man Menschen am besten motiviert. Hier einige Zahlen dazu:

  • Die 5.000 Euro bekommen die Beschäftigten der Böttcher AG nach der Zweitimpfung, und zwar auch, wenn sie diese schon vor dem Beginn der Prämienaktion bekommen hatten. Auch das ist wichtig bei einer Impfprämie. Sie muss gerecht ausgeschüttet werden.
  • Das Unternehmen bezahlte für seine Großzügigkeit drei Millionen Euro.
  • Es freut sich über eine Impfquote von 100 % in den meisten Abteilungen.
  • Niedriger als 80 % (eher: ~90 %) lag sie Anfang Januar 2022 in keinem Bereich des Unternehmens.
  • Zum Vergleich: Die deutschlandweite Quote der zweimal Geimpften lag am 26. Januar 2022 bei 73,6 %.
  • Seit Mitte Dezember 2021 gab es nur noch einen einzigen Infektionsfall bei der Thüringer Böttcher AG.

Die Belegschaft habe durchweg positiv auf das Prämienangebot reagiert, auch wenn es nicht ausnahmslos von allen Mitarbeitenden angenommen wurde, so Frasiak. Es wurde auch niemand benachteiligt, der sich nicht impfen lassen wollte.

Wissenschaftliche Untersuchungen zur Impfprämie

Solche Modelle gibt es in der Privatwirtschaft weltweit, die Forschung hat sich seit März 2021 (erste Impfprämien durch US-Unternehmen) damit befasst. Das Ergebnis der Untersuchungen ist eindeutig: Die Impfquote steigt direkt proportional zur Höhe der Impfprämie. Der Geldwert der Prämie darf hierfür aber nicht zu niedrig liegen.

Im Sommer 2021 ermittelte das KIT (Karlsruher Institut für Technologie) eine Mindestprämie von 100 Euro, um einen nennenswerten Effekt zu erzielen. Prof. Nora Szech vom KIT verweist darauf, dass die Impfprämie die Zeit für die Impfung kompensiere. Es gibt aber auch gegenteilige Meinungen aus der Wissenschaft. Der Doktorand Philipp Sprengholz von der Universität Erfurt führte im Sommer 2021 eine Studie durch, bei der er den Testpersonen zwischen 25 und 200 Euro nach der Impfung zahlte. Laut seinen Untersuchungen konnte er die Impfbereitschaft damit nicht steigern.

Durch Befragungen will er ermittelt haben, dass die Prämie mindestens 1.000 Euro betragen muss, um die Impfbereitschaft um wenige Prozentpunkte zu steigern. Dem widerspricht wiederum Prof. Szech, die auf US-Studien verweist. Schon ab 100 Euro steige demnach deutlich die Impfbereitschaft, und zwar bei 80 % aller Studienteilnehmer*innen. Ab 500 Euro waren es 90 %. Es gebe aber auch einen gegenteiligen Effekt durch die Prämie, so die Forscherin. Bei Prämien bis 20 Euro ließe die Impfbereitschaft nach. Prof. Szech verweist gleichzeitig auf den ökonomischen Wert einer Impfung, der sich durch ausbleibende Schäden infolge einer Coronainfektion oder einen schweren Krankheitsverlauf auf ~1.500 Euro pro geimpfter Person schätzen lasse. Gleichzeitig weisen jüngere Untersuchungen darauf hin, dass die Prämie nicht alternativlos ist.

Neben einer Strafzahlung nach Einführung einer allgemeinen Impfpflicht sind auch Zwischenlösungen möglich. So setzt der Hartmannsdorfer Kommunikationsdienstleister Komsa AG auf durchgängige, sehr leicht zugängliche Testungen und freiwillige Impfangebote. Die Impfprämie ist dem sächsischen Unternehmen zu teuer, zudem möchte es seine Mitarbeitenden weder positiv noch negativ auf die Impfung hin motivieren. Die Entscheidung solle der einzelne Mitarbeiter selbst treffen, so die Firmenleitung. Wie viele deutsche Unternehmen inzwischen Impfprämien zahlen (und in welcher Höhe), ist mit Stand Ende Januar 2022 noch nicht bekannt. Aus Befragungen von Journalisten, die allerdings kein statistisch exaktes Datenbild ergeben, geht hervor, dass in vielen Firmen eine Impfprämie von rund 100 bis 500 Euro gezahlt wird.

Impfprämie in Österreich

Die österreichische Bundesregierung will Impfprämien an Gemeinden nach dem Stand der Impfquote ausschütten, deren Höhe allerdings mit Stand 27. Januar 2022 noch nicht bekannt ist. Außerdem wurde eine Impflotterie aufgelegt. Jede geimpfte Person nimmt daran automatisch teil und kann also das große Los ziehen. Hinter der Aktion stehen die ÖVP, vertreten durch den Bundeskanzler Karl Nehammer, die Grünen, die mit Werner Kogler den Vizekanzler stellen, und auch die SPÖ, deren Chefin Pamela Rendi-Wagner an der Ausarbeitung des Prämienmodells beteiligt war. Gemeinden, die eine Impfquote von 80, 85 und 90 % erreichen, profitieren abgestuft mit immer höheren Prämien vom „Anreiz- und Belohnungspaket“. Darauf reagierten viele Gemeindevorstände äußerst positiv.

In Eisenerz etwa (Bezirk Leoben) zeigte man sich überrascht und erfreut. Die Impfquote liegt dort schon über 80 %, sodass das Extrageld der Gemeinde ohne weitere Anstrengung in den Schoß fällt. Der Bürgermeister Thomas Rauninger (ÖVP) will mit dem Geldsegen seine Stadt neu belegen, in der aktuell viele Häuser leerstehen. Der Tourismus soll eine Finanzspritze erhalten, aber auch die Kinderbetreuung wird die Kommune verbessern.

Es gibt allerdings auch kritische Stimmen, so aus der Nachbargemeinde Vordernberg, wo der Bürgermeister Walter Hubner (SPÖ) den Bonus als „irritierend“ bezeichnete. Er empfindet den Anreiz eher als Bürde, weil die Motivationsarbeit nun den Gemeinden zugeschoben würde. In Österreich diskutiert man ebenso wie in Deutschland über ein generelles Versagen der Bundesregierung in der Coronapandemie. Hubner verweist daneben auf ein praktisch-technisches Problem: Man müsse darüber reden, welche Personen in die Quote hineingerechnet würden. Im hiesigen Anhaltezentrum (Abschiebegefängnis für abgelehnte Asylbewerber) säßen derzeit 130 Schubhäftlinge, von denen nicht einmal eine Handvoll geimpft seien, so der Lokalpolitiker. Dies würde ihm ungerechterweise die Impfquote drücken. Ohne die Schubhäftlinge hätte sein Ort eine Impfquote von bis zu 84 %.

Impfprämien in den USA schon seit 2021

In den USA schütteten Unternehmen wie erwähnt schon seit März 2021 Impfprämien aus. Sie gingen dabei unterschiedlich vor. Prämien waren:

  • Geld
  • Freibier
  • Donuts
  • Gratis-Substanzen-Zigaretten in Bundesstaaten, in denen Cannabis legal ist

Zu den Firmen zählten auch damals schon die deutschen Discounter Aldi und Lidl, die in den USA viele Filialen unterhalten. Ihren US-Angestellten zahlten und zahlen sie Prämien für die Impfung (Aldi durchschnittlich zwei Stundenlöhne und Sonderkosten, Lidl bis 200 Dollar), in Deutschland sind sie bis heute nicht so großzügig, auch wenn sie mit diversen Maßnahmen die Impfbereitschaft ihrer Beschäftigten unterstützen, so etwa über die eigenen Betriebsärzte und bezahlte Freistellungen für den Impftermin. Die US-Fluggesellschaft American Airlines vergibt als Impfprämie an ihre Angestellten 50 Bonusmeilenpunkte und einen Tag Sonderurlaub.

Amazon zahlt 80 Dollar, bei McDonald’s beträgt die Prämie vier Stundenlöhne. Einige US-Unternehmen verknüpfen die Impfprämie mit ihrem Marketing. Die Lebensmittelkette Krispy Kreme, berühmt für ihre Donuts, spendiert allen Mitarbeitenden für den Impfnachweis einen glasierten Donut – und zwar täglich, nachdem sie am Betriebstor ihren Impfpass vorgezeigt haben. In New Jersey spendieren Brauereien den dortigen Einwohnern schon nach der ersten Impfung Freibier. Den Joint gibt es im Bundesstaat New York gratis von Aktivisten, die für die Cannabislegalisierung in New York gekämpft haben.

Was ist Oneirologie? Bedeutung, Definition, Erklärung


Oneirologie ist die Lehre der Deutung von Träumen, bzw. der Traumanalyse. In der Alltagssprache wird meist der Begriff Traumdeutung genutzt. Das Wort Oneirologie leitet sich von den griechischen Begriffen Oneiros für Traum und Logos für Lehre ab.

Oneirologie: Definition, Bedeutung, Erklärung

Die Traumdeutungslehre bezeichnet Versuche, in Träumen erlebte Handlungen, Bilder oder Emotionen einer methodischen Deutung zu unterziehen, um daraus Erkenntnisse und/oder Handlungsanweisungen abzuleiten.

Die Idee der Traumdeutung ist schon sehr alt und in nahezu allen Kulturen bekannt. Dabei werden und wurden unterschiedliche Ansätze verfolgt.
In der Vergangenheit wurden Träume häufig als Botschaften gedeutet, die Menschen zu bestimmten Handlungen bewegen sollten. Diese Botschaften konnten dabei sowohl göttlichen als auch teuflischen Ursprungs sein.
Zu den bekanntesten neuzeitlichen Vertretern der Oneirologie zählen Sigmund Freud und C.G. Jung, die Traumerlebnissen eine tiefenpsychologische Bedeutung beimaßen. Die Interpretation von Träumen sollte dementsprechend Informationen über die unbewussten Anteile der Psyche liefern.

Die Traumdeutung spielt auch im Volks- und Aberglauben eine Rolle. Dabei werden einzelne Traumsymbole meist mit einer mehr oder weniger festen Bedeutung verknüpft. Die Deutung verschiedener Traumsymbole erfolgt dabei weniger individuell, sondern eher nach populären Deutungsschemata.

Die Traumdeutung in der Psychologie

Mit der Analyse von Träumen haben sich vor allem Vertreter der Tiefenpsychologie und Psychoanalyse auseinandergesetzt. In der Tiefenpsychologie gelten die unbewussten Anteile der menschlichen Psyche als entscheidender Faktor für das individuelle Denken und Handeln. Ihnen auf die Spur zu kommen, soll helfen, psychische Probleme, wie etwa Komplexe, zu erklären und bestenfalls aufzulösen. Als bedeutendster Vertreter dieses Ansatzes und Begründer der Psychoanalyse gilt Sigmund Freud. Träume und deren Interpretation sah er als einen entscheidenden Zugangsweg zum Unbewussten an.

Auch der Begründer der analytischen Psychologie C.G. Jung maß Träumen in dieser Hinsicht Bedeutung zu. Er unterschied dabei auch zwischen unterschiedlichen Arten von Träumen:

  • Wiederholungsträume: Eine Erfahrung oder ein Problem dringt durch den Traum wiederholt ins Bewusstsein, um aufgearbeitet zu werden.
  • Kompensatorische Träume: Der Traum stellt eine Gegenwelt zur nicht zufriedenstellenden Realität dar.
  • Archetypische Träume: Träume, die nicht im individuellen, sondern im kollektiv Unterbewussten verankert sind.
  • Präkognitive Träume: Traumwahrnehmungen, die durch bekannte Wissensquellen nicht erklärt werden können.

Jung schrieb Träumen eine bewusstseinserweiternde Kraft zu, die Potenziale eröffnet, die im Wachzustand nicht ausgeschöpft werden können.

Ein weiterer bekannter psychologischer Ansatz zur Traumdeutung ist die Traumbearbeitung in der Gestalttherapie nach Fritz Perls. Dabei wird in mehreren Schritten vor allem das szenische Erleben des Traums entschlüsselt, um dessen Botschaft auf die Spur zu kommen. Perls Herangehensweise legt Wert auf die Unterscheidung zwischen dem erfahrenen Trauminhalt und dem zugrunde liegenden Traumgedanken.
Von den tiefenpsychologischen Ansätzen ist die Psychologie heute großteils abgerückt. Dennoch kommt der Interpretation von Träumen mitunter eine Bedeutung zu, da das Traumerleben häufig mit tatsächlichen Erfahrungen und Emotionen verknüpft ist und somit der Selbstreflexion dienen kann.

Alltagsdeutung von Träumen

Bei der Alltagsdeutung von Träumen liegt der Fokus meist auf der Betrachtung bestimmter Traumbilder, denen eine symbolische Bedeutung zugeschrieben wird. Sie können in zahlreichen Traumlexika und Glossaren nachgeschlagen werden oder werden von Mund zu Mund überliefert. So wird beispielsweise das Träumen von einer Spinne als Zeichen für eine Intrige interpretiert oder das Träumen von einem ausfallenden Zahn als bevorstehender Todesfall.

Aus wissenschaftlicher Sicht fällt diese Art der Traumdeutung häufig eher in den Bereich des Aberglaubens, da das Träumen ein sehr individueller Vorgang ist, der sich kaum allgemeingültig deuten lässt. Unter anderem ist das sozio-kulturelle Umfeld entscheidend dafür, welche (Be-)Deutung bestimmten Dingen und Ereignissen beigemessen wird. Auch individuelle Erfahrungen und Gefühle lassen sehr unterschiedliche Interpretationen zu. Träumt beispielsweise ein Metzger davon ein Schwein zu zerlegen, lässt sich das nicht auf die gleiche Weise interpretieren, wie wenn ein überzeugter Vegetarier denselben Traum hat.

Allerdings sehen auch einige Psychologen Muster in bestimmten Traumbildern, die sich relativ verlässlich deuten lassen. Ein Beispiel dafür wäre das Verfolgtwerden im Traum als Ausdruck dafür einer Situation oder einem Problem ausweichen zu wollen.

Erkenntnisse der Traumforschung

Träume werden nicht nur psychologisch, sondern in jüngerer Zeit auch neurowissenschaftlich erforscht. Moderne Technik macht das möglich. So werden beispielsweise in Schlaflaboren die Gehirnströme Träumender aufgezeichnet.

Dennoch gibt es zur Funktion, Bedeutung und möglichen Deutung von Träumen bislang wenig eindeutige Erkenntnisse. Und so ist auch die Oneirologie bis heute wissenschaftlich umstritten.

Es gibt verschiedene Theorien, warum Träume entstehen. Während einige Wissenschaftler glauben, Träume seien möglicherweise nur zufällig Begleiterscheinungen des Schlafens, sind andere Forscher der Meinung, dass im Traum Erlebnisse und Erfahrungen verarbeitet werden. Eine weitere Theorie sieht Träume als eine Art Trainingssimulation für das Gehirn an, die dann im realen Leben dabei hilft, bestimmte Situationen zu meistern.

Es ist wahrscheinlich, dass das Träumen letztendlich mehrere Funktionen erfüllt.

Hirnscans zeigen, dass während des Träumens insbesondere die für Emotionen zuständigen Regionen des Gehirns besonders aktiv sind. Das emotionale Erleben und Verarbeiten scheint also eine entscheidende Rolle zu spielen. Der frontale Cortex, unter anderem zuständig für das logische Denken, ist hingegen im Schlaf meist weitgehend inaktiv. Das liefert eine Erklärung dafür, warum Traum und Realität im Schlaf normalerweise nicht auseinandergehalten werden können.

Luzides Träumen – Was ist dran?

In jüngster Vergangenheit macht des Öfteren das Phänomen des sogenannten luziden Träumens von sich reden. Es ist bereits seit den 1980er Jahren bekannt, durch neueste Untersuchungen aber wieder ins Forschungsinteresse gerückt. Beim luziden Träumen oder auch Klarträumen soll es möglich sein, Träume bewusst als solche wahrnehmen und sie mitunter sogar beeinflussen und steuern zu können. Das soll durch gezieltes Training möglich sein und entwickelt sich zu einem regelrechten Trend.

Traumforscher haben auch dieses Phänomen untersucht und die Ergebnisse weisen darauf hin, dass Menschen offenbar tatsächlich einen gewissen Zugang zu ihren Träumen bekommen können.

Messungen zeigten beispielsweise, dass bei dieser Art des Träumens der frontale Cortex aktiver ist als bei normalen Schläfern. Geübte Klarträumer könnten also tatsächlich ihre Traumerlebnisse reflektiert betrachten. Andere Untersuchungen legen nahe, dass auch das bewusste Eingreifen in das Traumerleben möglich zu sein scheint.

Nun wird erforscht, wie und ob sich das luzide Träumen vielleicht nutzbar machen lässt. Menschen mit Prüfungsangst könnten dann zum Beispiel Prüfungssituationen im Traum bewusst trainieren, um ihre Angst abzulegen.

Inwiefern jeder mit entsprechenden Techniken das luzide Träumen lernen und es sich vielleicht sogar zunutze machen kann, ist unklar. Viele Traumforscher sehen hier aber interessantes Potenzial für die Forschung und Psychologie.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung


Kollagenpeptide werden auch als Kollagen-Hydrolysate bezeichnet. Es handelt sich hierbei um sogenannte Struktur-Proteine, also Eiweiße, die für Zellen und generell dem Gewebe des Körpers struktur-/formgebend sind. Diese werden aus Kollagen-Proteinen gewonnen und sind für die Flexibilität wie auch Festigkeit sämtlicher Zellen, Muskeln und Sehnen sowie des Bindegewebes im Körper verantwortlich.

Der Unterschied von Kollagen-Proteinen und Kollagenpeptiden (reines Kollagen) besteht darin, dass Kollegen-Proteine aufgrund einer Hydrolisierung wasserlöslich sind. Für Kollagenpeptide wird dafür während der Herstellung ein bestimmtes Enzym zugefügt.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung

Kollagenpeptid (Kollagen-Hydrolysat) ist also prinzipiell Kollagen, welches durch die Beimischung von ausgewählten Enzymen in ein wasserlösliches Präparat verwandelt wird.

Kollagenpeptide stehen in drei unterschiedlichen Ausführungen zur Verfügung:

  • trinkbares, flüssiges Kollagen-Hydrolysat
  • Kapseln beziehungsweise Tabletten
  • Pulver.

Kollagen-Hydrolysate können den Körper auf sehr vielfältige Weise positiv beeinflussen. Das Eiweiß kann unter anderem bei Arthrose und deren unterschiedlichen Varianten, bei Sportverletzungen sowie gegen Hautfalten verwendet werden. Durch zahlreiche wissenschaftliche Studien konnte die Wirksamkeit der Kollagenpeptide bereits bestätigt werden.

Wasserlösliche Kollagenpeptide lassen sich problemlos oral einnehmen. Dadurch kann das Eiweiß direkt vom Körper aufgenommen werden. Dieser Vorteil wird genutzt, um viele Lebensmittel sowie wie auch Produkte aus dem Gesundheits- und Kosmetikbereich, welche täglich verwendet werden, damit anzureichern. Ein sehr wichtiger und wertvoller Vorteil der Kollagen-Hydrolysate ist zudem, dass diese so gut wie kein Risiko für Allergiker darstellen.

Daher beinhalten beispielsweise etliche Proteinpulver, Proteinriegel sowie weitere eiweißhaltige Supplements Kollagenpeptide. Dadurch können wiederum schwache oder angegriffene Zellen und körperliches Gewebe an sich gestärkt und neu aufgebaut werden.

Wie wirken sich Kollagen-Hydrolysate im Körper aus? Wirkung

Durch die orale Einnahme von Kollagenpeptiden sind diese für den körperlichen Stoffwechsel sofort verfügbar (Bio-Verfügbarkeit). Dadurch kann der körpereigene Vorrat von Kollagen erhöht und verbessert werden. Dies ist ein wichtiger Faktor, denn Kollagen kann beispielsweise bei gewissen körperlichen Symptomen, spezifischen Verletzungen sowie bei vielen anderen Zwecken verschiedene Wirkungen zeigen.

Die Wirksamkeit der Kollagenpeptide ist in diversen Studien dokumentiert. Dadurch ist ein sehr umfangreiches Spektrum der Wirkungsweise bekannt. Trotzdem stehen immer noch kritische Meinungen im Raum, welche die positiven Ergebnisse der Forschungen hinterfragen.

Kollagen-Hydrolysate – wer und wann sollte das Präparat konsumieren?

Diverse Unternehmen und Marken bewerben Kollagenpeptide speziell für ältere Personen. Denn im Verlauf des Lebens nimmt die körpereigene Produktion von Kollagen stetig ab. Jüngere Personen, die noch keine 25 Jahre alt sind, benötigen normalerweise keine zusätzlichen Kollagenpeptide. Wichtig ist allerdings, dass eine eiweißhaltige, ausgewogene Ernährung stattfindet, die bewirkt, dass der Körper seine Kollagenfasern eigenständig elastisch erhält.

Kollagen-Hydrolysate empfehlen sich besonders dann, wenn gewisse Anzeichen beziehungsweise Symptome beispielsweise von Arthrose und Osteoporose, vermehrtem Haarausfall und Falten auftreten/diagnostiziert werden.

Wirkung bei Osteoporose und Arthrose

Kollagen-Hydrolysate beziehungsweise Kollagenpeptide sind durch zuständige Behörden anerkannt. Dadurch haben sich die Präparate bereits seit geraumer Zeit unter anderem zur nachhaltigen Therapie von Osteoporose wie auch Arthrose etabliert.

Im Rahmen dieser Behandlung stimulieren Kollagenpeptide die Produktion neuer Zellen innerhalb der sogenannten extra-zellulären Matrix (kollagenhaltige Knorpelschicht). Diese ist für eine schmerzfreie Gelenkfunktion essenziell. Während einer langfristigen Einnahme von Kollagenpeptiden bei Osteoporose/Arthrose können sich allerdings teilweise Magen-Darm-Beschwerden zeigen.

Kollagenpeptide für eine gesunde Kopfhaut

Die derzeitige Forschung ist, wenn es um Kollagen-Hydrolysate zum verbesserten Haarwuchs geht, oft unterschiedlicher Meinung. Denn einerseits kann Kollagen eine verletzte Kopfhaut positiv beeinflussen, sodass sich wieder mehr neue Haarfollikel (Basis der Haarwurzeln) bilden können.

Andererseits kann ein Mangel oder das Nichtvorhandensein des Kollagen VI (spezielles Kollagen) für Haarausfall verantwortlich sein. Diese Art Kollagen lagert sich in Haarwurzeln ab und kann zudem in Kollagenpeptiden vorhanden sein. Das Haarwachstum wird dadurch enorm beeinträchtigt. Die Wirkung ist also auch aus wissenschaftlicher Sicht noch nicht vollständig erforscht.

Um letztendlich gesunde Haarfollikel auszubilden, ist eine intakte Kopfhaut essenziell. Diese kann durch die Einnahme von Kollagenpeptide erheblich unterstützt werden.

Kollagenpeptide für eine Reduzierung der Falten

Die Alterung der Haut beginnt normalerweise ab dem 30. Lebensjahr. Somit kann durch die Einnahme der Kollagen-Hydrolysate eine beginnende Faltenbildung abgemildert werden. Bereits vorhandene Falten können in gewissem Maße deutlich verringert werden.

Kollagenpeptide beziehungsweise Kollagen-Hydrolysate können die sogenannte extra-zellulare Matrix also äußerst positiv unterstützen, um Alterserscheinungen zu reduzieren. Kollagenpeptide sind im Vergleich mit Kollagen-Hautcremes wesentlich effizienter, da sie unmittelbar im Körper wirken, Cremes dagegen lediglich auf der Hautoberfläche aufgetragen werden.

Kollagen-Hydrolysate bei Sportverletzungen

Ein wichtiger Bereich für den Einsatz der Kollagenpeptide sind speziell Verletzungen durch Sportunfälle und allgemeine Beschwerden, unter denen Sportler leiden. In Studien haben sich Kollagenpeptide als hochaktiv gezeigt, wenn es um die Wirkung auf Sprunggelenke geht. Die Einnahme der Kollagen-Hydrosylate kann als Prävention gegen Verletzungen also sehr hilfreich sein. So werden Kollagenpeptide mittlerweile unter anderem beim Bodybuilding vermehrt eingesetzt. Verbände sowie Sportler selbst kommunizieren die Verwendung des Supplements allerdings nicht.

Gibt es Nebenwirkungen durch Kollagenpeptide?

Die Forschung kann derzeit allerdings nicht gänzlich beantworten, ob Kollagen-Hydrolysate gesundheitlich völlig unbedenklich sind. Die aktuellen wissenschaftlichen Ergebnisse zeigen jedoch generell, dass sich eine bemerkenswert hohe Verträglichkeit zeigt.

Zudem sind derzeit keinerlei Wechselwirkungen bekannt, die eventuell durch Kollagenpeptide auftreten können. Allerdings ist es bei einer langfristigen Einnahme möglich, dass sich bei einigen Personen Magen-/Darmbeschwerden zeigen können.

Während einer Schwangerschaft gelten laut Wissenschaftler Kollagenpeptide als unbedenklich. Allerdings sollten Schwangere eine Supplement-Einnahme generell mit ihrem Frauenarzt besprechen.

Tagesdosis für Kollagen-Hydrolysate

Empfehlungen für eine exakte tägliche Dosierung der Kollagenpeptide steht derzeit nicht zur Verfügung. Aktuelle Studien über Kollagen-Hydrolysat beinhalten Informationen, welche meistens eine Tagesdosis zwischen 2 und 12 Gramm bei den Probanden nachweist.

Handelsübliche Trinkampullen mit Kollagenpeptid enthalten bereits eine Tagesdosis. Das Präparat als Pulver steht ebenfalls in einzeln dosierten Tagesdosen zur Verfügung. Grundsätzlich wird empfohlen, dass unbedingt die Herstellerhinweise zur Dosierung auf den Präparaten selbst beachtet werden sollten!

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung


Das Kollagenhydrolysat ist Bestandteil von Kollagen und wird aus rechtlicher Sicht als Nahrungsmittel eingestuft. So kommen spezielle Kollagenhydrolysatformen oft in Nahrungsergänzungsmitteln vor. Auch in Kosmetika ist das Hydrolysat häufig enthalten. Seine Gewinnung erfolgt aus Kollagen. Bei Kollagen handelt es sich um ein Strukturprotein (Eiweiß), das wichtig für die Festigkeit und Struktur des Bindegewebes ist. Ungefähr 30 Prozent des Proteins setzen sich aus Kollagen zusammen. Vor allem Haut und Gelenkknorpel profitieren vom Kollagen, dessen Herstellung durch den Körper selbst stattfindet.

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung

Wird der Mensch älter, geht die Produktion des Kollagens allmählich zurück. Die Folge davon können Beschwerden wie die Bildung von Orangenhaut (Cellulite), eine Verschlechterung des Hautbildes oder sogar Schmerzen an den Gelenken sein. Als Mittel dagegen gilt die Zufuhr von Kollagenhydrolysat.

Die Entstehung des Kollagenhydrolysats geschieht durch das Aufspalten von Kollagen in mehrere Fragmente. In aufgespaltener Form gilt das Kollagen als gut wasserlöslich und verdaulich. Die Haut und der Darm des Menschen können es besser aufnehmen. Außerdem sinkt das Risiko von allergischen Reaktionen. Zusätzliche Eigenschaften sind stärkere antioxidative Effekte sowie ausgeprägte antimikrobielle Funktionen.

Bekannt ist das Kollagenhydrolysat auch als vorverdautes oder hydrolisiertes Kollagen. Manche Produkte tragen zudem die Bezeichnung Kollagenpeptide.

Wirkung des Kollagenhydrolysats

In Nahrungsergänzungsmitteln sind Kollagenhydrolysate zu finden, in denen Kollagenpeptide vorkommen. Sie gelten als essentielle Nährstoffe. Durch ihre Einnahme sollen sie in Mitleidenschaft gezogenes Knorpelgewebe aufbauen, erhalten und regenerieren. Durch das besondere Kollagenhydrolysat lassen sich die Knorpelzellen des Körpers zur verstärkten Bildung von Knorpelgewebe stimulieren.

Der Verlust an Kollagen setzt bereits ab einem Alter zwischen und 18 und 29 Jahren ein. Ungefähr ab dem 40. Lebensjahr büßt der Mensch pro Jahr ca. 1 Prozent an Kollagen ein. Bei Menschen über 80 Jahren ist ein Absinken der Kollagenherstellung, verglichen mit jungen Menschen, um bis zu 75 Prozent möglich.

Zu welchen Zwecken lässt sich Kollagenhydrolysat verwenden?

Das in Nahrungsergänzungen enthaltene Kollagenhydrolysat soll sich positiv auf Haut und Gelenke auswirken. So dienen Kollagenhydrolysate zur Vorbeugung und Behandlung von Knorpelverschleiß innerhalb der Gelenke. Sie lindern Schmerzen und verbessern die Beweglichkeit der Gelenke.

Ebenfalls zu den Indikationen von Kollagenhydrolysat gehört das Anregen der Hautregeneration. Dabei kommen Kollagenhydrolysate mit kurzkettigen Kollagenpeptiden zur Anwendung, die die Gesundheit und Erscheinung der Haut verbessern. Zum Beispiel wird die Bildung von Falten bekämpft.

Eine andere positive Eigenschaft des Kollagens ist seine Auswirkung auf den Stoffwechsel. Durch die Einnahme von Nahrungsergänzungsmitteln sollen Körpergewicht und Blutzuckerspiegel stabil bleiben. Von seinen antioxidativen Effekten können zudem Knorpel, Knochen, Muskeln sowie die Herzgesundheit profitieren.

Zur Anwendung gelangt Kollagenhydrolysat mitunter, um den Heilungsverlauf bei Verbrennungen und Wunden zu unterstützen. Aber auch in verarbeiteten Nahrungsmitteln wie Suppen, Fleischerzeugnissen oder Getränken ist das Kollagenhydrolysat zu finden. Dort verbessert es Eiweißgehalt und Stabilität. Darüber hinaus vermindert es den Fettgehalt.

Herstellung von Kollagenhydrolysat

Es kommen unterschiedliche Verfahren zur Kollagenhydrolysatherstellung infrage. Natives Kollagen lässt sich mit bestimmten Säuren wie Salzsäure, Essigsäure oder Phosphorsäure behandeln. Gleiches gilt für Basen, Enzyme, Druck oder hohe Temperaturen.

In der Regel wird das angebotene Kollagenhydrolysat durch das Denaturieren von nativem Kollagen hergestellt. Dabei findet eine Enzym-Behandlung statt, zu deren Zweck Enzyme wie zum Beispiel Pepsin, Alkalase oder Papain Verwendung finden.

Mit dem enzymatischen Abbau kommt es zu hydrolisiertem Kollagen. Es setzt sich aus Peptiden, bei denen es sich um Proteinfragmente handelt, zusammen.

Aus welchen Quellen stammt das Kollagen?

Kollagenpeptide entstammen ausschließlich Tieren. So gibt es keinerlei Kollagen aus Pflanzen. Die Gewinnung des Kollagens erfolgt in den meisten Fällen aus Lebensmittelindustrieabfällen. Dazu zählen u. a. Knochen, Knorpel, Haut und Sehnen. Zu differenzieren ist zwischen Hühnerkollagen, Rinderkollagen, Schweinekollagen und Fischkollagen.

In früheren Jahren wurde das Kollagen für Nahrungsergänzungsmittel aus Schlachtabfällen von Rindern und Schweinen entnommen. Aus Gesundheitsgründen wie zum Beispiel BSE kam es allerdings zu Beschränkungen bei der Gewinnung von hydrolisiertem Kollagen aus Rindern und Schweinen. Ebenso spielten religiöse Aspekte eine Rolle.

Gestiegen ist dagegen die Nachfrage nach Fischkollagen oder Meereskollagen. Dabei lassen sich Bestandteile von Süß- und Salzwasserfischen wie Schuppen, Haut oder Gräten verwenden. Als Alternativen gelten überdies Schwämme oder Quallen. Sie werden als wirbellose Meerestiere eingestuft.

Unterschieden wird beim Kollagen weiterhin nach Typ 1 und Typ 2. Quellen wie Fisch, die reichlich Typ-1-Kollagen enthalten, gelangen für kosmetische Produkte zur Anwendung. Knorpel vom Huhn, Rind oder Schwein zählen zum Typ-2-Kollagen. Dieses findet für therapeutische Produkte für Gelenke Verwendung.

Aufnahme des Kollagenhydrolysats

In mehreren Studien stellte sich heraus, dass der menschliche Organismus hydrolisiertes Kollagen einfacher aufnimmt, als dies bei nativem Kollagen der Fall ist. Während der Verdauung wird das Kollagen in kleine Peptide und Aminosäuren aufgespalten. Im Anschluss an seine Resorption lässt es sich zum neuerlichen Aufbau von Kollagen oder anderen Eiweißen nutzen.

Vorteile von Kollagenhydrolysat

Durch die Aufnahme von Kollagenhydrolysat durch die Darmschleimhaut lassen sich die Peptide zu den unterschiedlichen Gewebearten weiterleiten. An diesen Stellen erfolgt ihre Umwandlung durch Spezialzellen in Spiralen. Diese Spiralen sind wichtig zum Regenerieren der extrazellulären Gewebematrix. Außerdem ersetzen sie zerstörte Kollagenfasern. Die Kollagenfasern werden zu den wichtigsten Hautbestandteilen gerechnet. Sie sind in der Demis (Lederhaut) vorhanden, die sich zwischen Ober- und Unterhaut befindet.

Kollagenhydrolysat in Nahrungsergänzungsmitteln

Kollagenhydrolysat, das in Nahrungsergänzungsmitteln enthalten ist, soll vor allem bei Arthrose eine positive Wirkung erzielen. Ebenso verbessert sich das Bindegewebe. Anwenden lässt sich das Kollagenhydrolysat in Form von Pulver oder als Tablette. Das geschmacksneutrale Pulver wird mit Wasser oder Fruchtsaft vermischt und anschließend verabreicht.

Eine wichtige Rolle bei der Auswahl des Pulvers spielt dessen Qualität. Als Qualitätsmerkmale gelten eine enzymatische Herstellung, gute Löslichkeit, die Weidehaltung der Tiere sowie die Reinheit des Produktes.

Warum macht Zucker süchtig? Definition, Symptome, Ursachen, Folgen und Lösungen


Weißer Zucker, der allgemein bekannte Haushaltszucker, wird auch als Saccharose bezeichnet. Er ist ein sogenanntes Disaccharid (Zweifachzucker). Die zwei Monosaccharide (Einfachzucker), aus denen es sich zusammensetzt, sind die Fructose (Fruchtzucker) und die Glucose (Traubenzucker).

Die Saccharose wird aus Pflanzen, wie zum Beispiel dem Zuckerrohr oder der Zuckerrübe gewonnen.

 Zuckersucht: Symptome und Hinweise

Von einer Zuckersucht wird gesprochen, da sich hierbei in vielen Fällen die Krankheitszeichen einer herkömmlichen Drogensucht erkennen lassen.
Der Verzicht auf Zucker führt dazu, dass der Verbrauch anderer Genussmittel, wie zum Beispiel Tabak oder Kaffee deutlich gesteigert wird.

Kann die zuckerfreie Phase selbst über einen längeren Zeitraum durchgehalten werden, kommt es anschließend, bei einem erneuten Verzehr, zu einer extremen Erhöhung der Einnahmemenge.
Zusätzlich besteht ein übermäßiges Verlangen nach Süßem, das den Tagesablauf kontrolliert und tägliche Aktivitäten immer weiter einschränkt.

Es kann dabei nur eine geringe Selbstkontrolle hinsichtlich des Konsums aufgebracht werden. Mit der Zeit wird die erforderliche Zuckermenge immer weiter gesteigert.

Gibt es keine Möglichkeit der Zuckeraufnahme, sinkt die Konzentrationsfähigkeit, das psychische Wohlbefinden sowie die geistige Leistungsfähigkeit.

Die Zuckersucht: Ursachen

Es gibt verschiedene Gründe dafür, dass Zucker süchtig macht:

1. Darmpilzerkrankung

Der menschliche Darm besitzt eine Vielzahl von Bakterien, die die Verdauung unterstützen und einen wichtigen Teil des Immunsystems darstellen. Teilweise siedeln sich aber auch Hefepilze, wie der Candida albicans an, die zu Blähungen und Bauchschmerzen führen können. Bei einem gesunden Menschen werden diese jedoch von den nützlichen Bakterien unter Kontrolle gehalten.

Die Hefepilze ernähren sich von Zucker, weshalb sie sich bei einer zu hohen Aufnahme dieses Stoffes leicht vermehren können. Es kommt zu Heißhungerattacken und infolgedessen zu einer erhöhten Zuckeraufnahme, wodurch ein Teufelskreis entsteht.

2. Erhöhte Dopaminausschüttung

Zucker wird als süß und positiv wahrgenommen. Durch seine Einnahme wird, ähnlich wie bei einem Drogenkonsum, das menschliche Belohnungsareal im Gehirn aktiviert und das Glückshormon Dopamin ausgeschüttet. Auf die Dauer kommt es an der Verbindungsstelle der Nerven zu anderen Zellen (Synapsen) zu Veränderungen. Vor allem übergewichtige Personen sind häufig davon betroffen. Alleine der Anblick einer süßen Speise führt zu einer Reaktion im Belohnungssystem und dem Drang, Zucker zu konsumieren.

Der Mensch möchte dieses positive Gefühl immer häufiger erleben, wodurch letztendlich eine Zuckersucht entsteht.

3. Psychische Probleme und seelische Unruhe

Neben der Dopaminausschüttung aktiviert der Zucker im menschlichen Körper auch die Produktion des Glückshormons Serotonin.
Bei Traurigkeit sinkt der Serotoninspiegel. Der Mensch versucht diesen Mangel auszugleichen, indem er Zucker zu sich nimmt. Die Hormonausschüttung wird wieder anregt und ein Glücksgefühl setzt ein.
Das Verhalten sich mit Süßigkeiten zu Belohnen oder Traurigkeit zu bekämpfen, wird oftmals bereits in der Kindheit von Eltern und Familie unbewusst antrainiert.

4. Schwankungen des Blutzuckerspiegels

Ein zu hoher Zuckerkonsum lässt den Blutzuckerspiegel im Blut rasch in die Höhe steigen. Um diesen wieder zu senken, schüttet die Bauchspeicheldrüse Insulin aus – ein Hormon, das den Zucker aus dem Blut in die Zelle transportiert.

Wird zu viel Zucker auf einmal aufgenommen, steigt der Blutzuckerspiegel so rasch an, dass zu viel Insulin produziert wird. Der Blutzuckerspiegel im Blut sinkt unter den Normalwert. Ein Unterzucker entsteht, der die Person aggressiv, unruhig und hungrig macht. Anschließende Heißhungerattacken führen zu einer erneuten übermäßigen Zuckeraufnahme.

Zuckersucht: Folgen und Gefahren

Zuckerhaltige Speisen in der täglichen Ernährung können zu Übergewicht führen, da sie häufig in viel zu hohen Mengen aufgenommen werden. Weiterführend steigt das Risiko, an Diabetes mellitus oder Herz-Kreislauf-Erkrankungen zu erkranken, welche lebensbedrohliche Ausmaße annehmen können.

Des Weiteren beschädigt zu viel Zucker die Darmflora und schwächt somit den Teil des sich dort befindenden Immunsystems. Die Abwehrkräfte sinken und Krankheiten haben es leichter, den Körper zu befallen.
Zuckersucht kann darüber hinaus die Entstehung von Krebs, Depressionen und Schlafproblemen fördern. Durch eine zuckerreiche Ernährung werden die Zähne angegriffen und Karies begünstigt. Zusätzlich verschlechtert sich das Hautbild und Akne entsteht.

Zuckersucht: Auswege und Lösungen

Zwar kommt es bei erhöhtem Zuckerkonsum schnell zu einer Abhängigkeit, dennoch gibt es Lösungsansätze, um diese Sucht zu bekämpfen:

1. Der Verzehr von zuckerhaltigen Lebensmittel sollte drastisch reduziert und komplett eingestellt werden. Besonders ist dabei auch auf versteckte Zucker zu achten, die sich hinter Namen wie Saccharose, Fruchtzucker, Lactose, Maltodextrin etc. verbergen. Fertigprodukte, Süßigkeiten und Backwaren müssen vom Speiseplan verbannt werden.

2. Ein weiterer Ausweg aus der Zuckersucht ist der Verzicht auf Zucker in Getränken. Hierdurch kommt es unbewusst zu einer viel zu hohen Aufnahme des weißen Zuckers.

3. Um Heißhungerattacken zu vermeiden, sollte eine ausgewogene Ernährung mit gesunden Fetten und vielen Ballaststoffen angestrebt werden. Der Blutzuckerspiegel steigt dadurch nur langsam an und sinkt nicht zu rasch wieder ab.

4. Ist der Drang nach Zucker zu stark, sollten Ersatzmittel bereit liegen. Dabei kann es sich um Nüsse oder Obst handeln, was den Blutzuckerspiegel nicht zu stark ansteigen lässt und trotzdem das Verlangen nach Zucker befriedigt.

5. Liegt das Problem der Zuckersucht im Darm, ist eine Darmsanierung empfehlenswert.

6. Depressive Verstimmungen können anstatt mit Zucker durch Meditations- oder Atemübungen vertrieben werden.

Was bedeutet Datastrophe? Bedeutung, Definition, Erklärung


Als Datastrophe wird ein schweres Unglücksereignis bezeichnet, dass durch falsche oder schlechte Daten verursacht wurde.

Als Datastrophe kann aber auch ein Datendiebstahl von sensiblen Daten bezeichnet werden.

Datastrophe: Bedeutung, Definition, Erklärung

Eine Datastrophe entsteht in dem auf Grundlage von falschen, schlechten oder manipulierten Daten Entscheidungen getroffen wurden, die schwere Folgen für und Auswirkungen auf Betroffene haben bzw. hatten.

Grundursache der Datastrophe sind falsche und/oder schlechte Daten. Diese wurden entweder absichtlich manipuliert, sind falsch, sind fehlerhaft, verfälscht oder wurden schlecht erhoben. Die Datenintegrität ist schlecht. (Daten sind integer, also gut und brauchbar, wenn sie korrekt, vollständig und konsistent sind. Daten sind korrupt, also schlecht und unbrauchbar, wenn sie inkorrekt, unvollständig und inkonsistent sind.)

Ursachen für schlechte Datenerhebung können sein:

  • mangelhaftes, schlechtes oder manipulatives Erfassen der Daten von zuständigen Verantwortlichen;
  • politische Einfärbung der Daten, um ein gewünschtes Ergebnis zu “erfälschen”;
  • Fälschung der Daten, um ein gewünschtes Ergebnis zu erzielen und ein unerwünschtes Ergebnis zu vermeiden.

Die kastastrophalen Folgen einer Datastrophe können Auswirkungen auf das Leib und Leben sowie Psyche und Seele haben. Die Auswirkungen können mit wirtschaftlichen Schaden und psychischen Schäden einhergehen.

Ein Datendiebstahl von sensiblen und wichtigen Daten kann auch als “Datastrophe” bezeichnet werden. Hier besteht die Katastrophe dadrin, dass Ungewollte Zugriff und Macht über Daten haben, die sie nicht haben sollten und zum Nachteil der Betroffenen verwenden können.

Datastrophe ist ein Kofferwort aus den Worten “Daten” (engl. Data) und Katastrophe.

Verbreitung: Datastrophe

Der Ausdruck “Datastrophe” findet sich bei Google Trends nur im August 2006. Die Redaktion konnte leider nicht ermitteln, warum der Ausdruck “Datastrophe” im August 2006 so oft bei Google gesucht wurde. Ein Datenfehler ist hier möglich.

Der Hashtag #Datastrophe trendete am 18. Dezember 2021 auf Twitter. Unter dem Hashtag wurden Aussagen über die Erfassung von Covid-19-Hospitalisierungen sowie deren Einordnung in Geimpft und Ungeimpft verbreitet. Außerdem wurden Aussagen über die Zählung von Ungeimpften und Geimpften sowie deren Einordnung nach Impfstatus verbreitet.
In diesem Zusammenhang kann der Ausdruck Datastrophe so verstanden werden, dass die Daten katastrophal gewesen sein sollen und die Daten zu katastrophalen Entscheidungen geführt haben.

Was ist das Web3? Erklärung, Definition, Bedeutung


Das Web3 ist die jüngste Evolutionsstufe des Internets. Eine zusätzliche Begrifflichkeit ist „semantisches Web“. Hinter dem Web3 stehen vor allem neue Technologien wie die Blockchain, die eine viel stärker Dezentralisierung des Internets ermöglichen und damit auch die Macht einzelner Onlinegiganten wie Google und Facebook brechen könnten.

Was ist das Web3? Erklärung, Definition, Bedeutung

Den Begriff Web3 prägte Tim Berners-Lee, dem maßgeblich die Entwicklung des gegenwärtigen Web 2.0 – also des heute (2021) existierenden Internets mit dem schlichten Namen World Wide Web (www) – zugeschrieben wird. Dass die Entwicklung fortschreitet, war zwangsläufig zu erwarten.

Mit der Bezeichnung Web3 wird folgerichtig angedeutet, dass es bislang zwei Stufen des Internets (Web 1.0 und Web 2.0) gab, auch wenn sie niemand explizit so bezeichnet hat. Web3 (oder auch Web 3.0) wäre nun die dritte Stufe. Es geht im Web3 um die rein maschinelle Auswertung aller Informationen, welche die Nutzer des Internets verbreiten. Darüber hinaus werden Informationen überwiegend und in manchen Bereichen ausschließlich von Maschinen generiert.

Welche Unterschiede erkennen wir zwischen dem Web 2.0 und Web3?

Beim immer noch existierenden Web 2.0 generieren die Nutzer die Inhalte selbstständig. Im Web3 liegt der Fokus darauf, nutzergenerierte Informationen mit eindeutigen Beschreibungen zu versehen. Daher kommt die Bezeichnung als semantisches Web. Die Semantik muss so beschaffen sein, dass sie Computer verarbeiten können. In diesem Fall kann die Maschine Abfragevarianten zu jeder Information generieren, welche den Nutzern zur Verfügung stehen. In Ansätzen existiert diese Semantik schon.

Wenn Nutzer bei Google eine Suchanfrage eingeben, ergänzt die Suchmaschine die ersten Buchstaben- und Worteingaben semantisch so, wie es der Suchintention des Nutzers entsprechen könnte. Das funktioniert immer dann sehr gut, wenn es sich um eine gängige Suchanfrage handelt, die viele andere Nutzer schon gestellt haben. Das Web3 perfektioniert diese semantische Suche und bezieht viel mehr ungewöhnliche Varianten mit ein.

Es ist auch in der Lage, Informationen zu Menschen, Dingen oder auch Ländern zueinander in Relation zu setzen. So könnte die Abfrage zu einem antiken Gebäude in Rom automatisch die Antwort „Kolosseum“ generieren. Zur Information: Das Kolosseum taucht auch jetzt schon als Antwort auf (Stand Dezember 2021), doch es steht nur an der Spitze einer ganzen Reihe von antiken römischen Gebäuden (gefolgt beispielsweise dem Pantheon, der Engelsburg und dem Titusbogen), weil die gegenwärtige Googlesuche noch nicht zwischen „antikes“ und „antike“ Gebäude in Rom unterscheidet (Einzahl und Mehrzahl). Das Web3 soll in der Lage sein, aus der Semantik der in der Einzahl gestellten Suchanfrage und der Intention der meisten Nutzer das Kolosseum herauszufiltern: Wer nur ein, und zwar das antike Gebäude in Rom schlechthin sucht, meint damit das Kolosseum. Das ist die Idee des semantischen Web3.

Ist das Web3 dem Web 2.0 zwangsläufig überlegen?

Nicht unbedingt, jedenfalls nicht mit dem Stand Ende 2021. Um bei dem genannten Beispiel zu bleiben: Vielleicht war ja der suchende Nutzer ein Gymnasiast, der für eine Hausarbeit irgendein antikes Gebäude in Rom beschreiben soll und nicht unbedingt das Kolosseum meint, das seine Mitschüler*innen bestimmt überwiegend wählen. Er möchte schon etwas Besonderes beschreiben. Die Idee, dass er in der Mehrzahl nach allen antiken römischen Gebäuden suchen und dann eines selbstständig auswählen müsste, könnte ihm nicht gleich kommen. In diesem Fall hätte ihn das Web3 verwirrt. Es bleibt nämlich dabei, dass Menschen schon ganz eigene Vorstellungen davon haben, was sie mit ihrer Suche meinen. Das Web3 soll ihnen aber offenkundig mit seiner Semantik das Denken ein Stück weit abnehmen, was nur mehr oder weniger gewollt ist. Es ist zu beachten, dass die Semantik des Internets (auch die gegenwärtig schon existierende) die menschliche Intelligenz beeinflusst. Assoziationen und Suchintentionen werden zunehmend davon geprägt, wie die am schnellsten zu findenden Informationen – die in der Suchmaschine – aufbereitet werden.

Wer vertritt das Web3

Wie bei den bisherigen Varianten des Internets gibt es auch für das Web3 eine Foundation (Web3 Foundation und Web3 Community). Diese Verfechter der Evolution wünschen, dass die Blockchain oder vergleichbare Technologien wie der DAG (Directed Acyclic Graph) zur technischen Basis des Web3 werden. Sie argumentieren, dass sich der technologische Fortschritt ohnehin nicht aufhalten lässt und seinen Niederschlag im Internet finden muss. Ein Verfechter der Evolution zum Web3 ist beispielsweise der Mitbegründer von Protocol Labs Juan Benet. Er sagte auf einem Web3-Gipfel im Jahr 2018, dass schon die gegenwärtige Kommunikationsgeschwindigkeit alles übertrifft, was Menschen seit vielen Jahrtausenden gewohnt waren, doch dass sich durchaus noch ein viel schnellerer Datendurchsatz inklusive der Aufnahme dieser Informationen durch Menschen denken lässt. Auch die zunehmende, aber längst nicht abgeschlossene Vernetzung der gesamten Menschheit sprach er an. Nach seiner Auffassung muss es ein Web3 geben, um die grenzenlose Kommunikation dann zu ermöglichen, wenn wirklich jede Person in jedem Winkel des Planeten Zugang zum Internet hat und sich Menschen über Länder- und Sprachgrenzen hinweg blitzschnell austauschen können.

Das Web3 solle ihnen dann helfen, so Benet, diejenigen Informationen zu filtern, die sie wirklich benötigen. Ansonsten würden alle Menschen in einem Meer von Informationen ertrinken. Diese nötige Filterung wiederum könne nur ein semantisches Web3 bewältigen. Gleichzeitig räumte Benet zumindest im Jahr 2018 noch die bestehenden Unzulänglichkeiten ein. Nach den bisherigen Erfahrungen ist allerdings davon auszugehen, dass diese behoben werden.

Welche Rolle spielen dezentrale Netze wie die Blockchain und DAG?

Die Blockchain- und DAG-Technologien, die bislang vorrangig durch Kryptowährungen allgemein bekannt sind, aber längst auch in der Industrie und in der allgemeinen Informationsverarbeitung genutzt werden, sollen zu viel mehr Demokratie im Web3 führen. So, wie schon gegenwärtig die Kryptowährungen über das Potenzial verfügen, die finanzielle Macht von Zentralbanken zu brechen, könnten dieselben Technologien im Web3 auch die Macht von Konzernen brechen, welche gegenwärtig die Informations- und Kommunikationswelten dominieren. Gemeint sind eindeutig Google und Facebook. Wenn die Vernetzung im Web3 über eine sichere, aber dezentrale Datenhaltung via Blockchain oder DAG stattfindet, kann nicht mehr ein einzelner Konzern die Spielregeln im Netz bestimmen. Vielmehr würden die Nutzer die Informationen untereinander austauschen. Dies erscheint zwar gegenwärtig auch so, doch in Wahrheit bestimmen die Algorithmen von Google, Facebook, Amazon & Co, welche Informationen wir im Netz zuerst finden (Google), mit wem wir vorrangig kommunizieren (Facebook) und was wir bevorzugt kaufen (Amazon).

Allerdings bedarf es hierfür einer gänzlich neuen Architektur des Web3, die nicht mehr von Algorithmen geprägt wird, die ein einzelner Konzern verantwortet und auch noch geheim hält. Darauf wies Juan Benet auf dem Web3-Gipfel-Rede 2018 ebenfalls hin: Er wies die teilnehmenden Entwickler und Programmierer darauf hin, dass sie diese Architektur verantworten würden und daher genau bedenken sollten, wie das Web3 beschaffen sein muss.

Entwickung zum Web3

Um die generische Entwicklung zum Web3 zu verstehen, ist es wichtig, sich das Web1 und Web 2.0 anzuschauen. Das Web1 entwickelte sich als öffentlich zugängliches Internet in den 1970er-Jahren aus dem ARPANET (für Advanced Research Projects Agency Network), einem Netzwerk der US-Army, das schon in den späten 1960er-Jahren entstanden war. Lange Zeit lief es über Modems, auf welche Telefonhörer gelegt wurden. Es knarzte dementsprechend und war sehr langsam. Suchmaschinen im heutigen Sinne gab es noch nicht, Google entstand erst 1998. Man könnte diese Phase als Übergang zum Web 2.0 bezeichnen, die aber auch durch entscheidende technologische Veränderungen geprägt war, nämlich vor allem den Aufbau von viel mehr Internetknoten auf der Welt und der redundanten Datenvorhaltung auf verschiedenen Servern.

Erst mit dem Web 2.0 entstand ein Zustand, in welchem einmal ins Netz eingespeiste (und nicht vorsätzlich und total gelöschte) Informationen praktisch nicht mehr verloren gehen können. Im Web1 lagen sie vielfach nur auf einem Server, auf den zwar theoretisch (bei entsprechender Freigabe) die ganze Welt zugreifen konnte, dessen Daten aber auch physisch vernichtet werden konnten. Zwar gab es Backups, aber nicht wie im späteren Web 2.0 etwa ab den 2010er-Jahren in einer Cloud und im Sekundentakt. Der größte Unterschied zwischen dem Web1 und dem Web 2.0 besteht sicherlich in der sicheren Datenspeicherung durch Redundanz und permanente Cloudspeicherung. Dies bedeutet: Wer etwa ab 2000 etwas ins Netz gestellt hat, hat sich damit verewigt, wenn nicht eine gigantische Katastrophe die Menschheit bzw. ihre komplette Technologie auslöscht.

Das Web3 nun wird wieder zu einem revolutionären Schritt führen, wenn auch gänzlich anderer Art. Es wird die Dominanz von Internetkonzernen überwinden und damit eine grenzenlose Netzdemokratie zulassen, außerdem wird es unsere Informationsverarbeitung durch Semantik völlig neu organisieren. Beides ist nötig. Dass uns Google- und Facebookalgorithmen unser Informationsstreben und Kommunikationsleben diktieren und dabei nicht einmal durchschaubar sind, ist ein unhaltbarer Zustand. Die Auswirkungen sind sichtbar: Es entwickeln sich weltweit extremistische Bewegungen, weil die Menschen im Netz finden, was sie finden wollen (via Googlealgorithmus), und weil Hasstiraden durch Facebookalgorithmen unterschwellig gefördert werden. Abweichende Meinungen und Intentionen (auch harmlose wie alternative Kaufangebote) erscheinen gar nicht mehr. Wir müssten zu lange danach suchen, das schaffen wir nicht. Diesen Zustand soll das Web3 überwinden.

Was kostet eine Elektroheizung? Erklärung, Informationen


Dieses Jahr hatten wir in Deutschland leider mit einem viel zu kühlen Sommer zu kämpfen. Daher steht den meisten der Sinn eher nach Wärme als nach Erfrischung. Bei Temperaturen deutlich unter 20 Grad sogar mittags vergeht vielen die Lust auf ein Eis im Freien. Dagegen freuen wir uns auf ein warmes Getränk oder ein geschütztes Plätzchen in der Sonne. Zuhause versuchen wir, noch ohne Heizung auszukommen, zumal ein Öl- oder Gaskessel in der Übergangszeit extrem unwirtschaftlich arbeitet. Für einige wenige Stunden Heizwärme in den kühlen Morgen- und Abendstunden muss der Kessel bereits auf Temperatur gebracht werden, um danach wieder in den Ruhezustand zu gehen. Das verbraucht viel Energie, um das gesamte Heizwassersystem aufzuwärmen, während danach in der langen Stillstandzeit Versottung des Kessels droht. Öl- und Gasheizungen sind eben normalerweise für den Dauerbetrieb im Winter gedacht.

Was sind Elektroheizungen und wie war der Anfang?

Eine mittlerweile sehr wirtschaftliche Alternative sind Heizsysteme, die mit Strom betrieben werden. Den Ursprung haben strombetriebene Heizungen in den Nachtspeicheröfen, die ihre Blütezeit in den siebziger Jahren hatten. Damals boten die Stromerzeuger spezielle Tarifmodelle mit sehr günstigen Nachttarifen an, welche diese Form der Beheizung günstig machte. Heutzutage ist diese Methode sowohl von den Verbrauchskosten als auch vom Bedienkomfort völlig veraltet und daher nicht mehr zu empfehlen.

Was kostet eine Elektroheizung?

An die Stelle dieser “Stromfresser” sind heute hochmoderne, wirtschaftliche Elektroheizungen getreten, die alle aktuellen Forderungen an Energieersparnis und Umweltfreundlichkeit erfüllen und zudem noch günstig im Verbrauch sind. Tatsächlich gibt es heute eine breitgefächerte Auswahl verschiedener Systeme der Elektroheizung. Einen ersten Überblick können Sie sich hier verschaffen. Alle Systeme werden detailliert mit ihren jeweiligen Vor- und Nachteilen beschrieben. Längst sind Elektroheizungen dank moderner Technik und erheblich gestiegener Öl- und Erdgaspreise wirtschaftlich geworden und im direkten Kostenvergleich durchaus nicht teurer als andere Systeme, wenn man die ersparten Wartungs- und Installationskosten mit einberechnet.

Welche Arten von Elektroheizung gibt es?

Fest steht: eine perfekte Lösung für alle Einsatzorte gibt es nicht. Je nach Verwendungszweck kann die eine oder andere Lösung sinnvoller sein. Grundsätzlich muss entschieden werden zwischen Elektroheizungen für Wohnbereiche, Nutzflächen und Außenbereiche. Danach richtet sich, welches System am besten geeignet ist. Es gibt Ölradiatoren und Heizlüfter, die aufgrund Ihrer Bauart eher indirekt arbeiten. Das bedeutet, dass die Wärme erst über “Umwege” und mit Verzögerung zur Verfügung steht. Gleiches gilt auch für die Fußbodenheizung. Direkte, schnelle Wärme erreichen Sie dagegen mit der Infrarotheizung.

Was ist eine Infrarot-Elektroheizung? Wie funktioniert sie?

Was unterscheidet nun eine Infrarotheizung von den weiteren Elektroheizungen? Der wesentliche Unterschied ist, wie die Wärme produziert wird. Der Infrarotstab erzeugt langwellige Wärmestrahlen, die direkt jeden Körper in der Nähe aufwärmen, unabhängig, ob Wind weht oder Sie innen oder außen sind. Anders als bei Heizlüftern müssen Sie nicht die Tür schließen. Die Wärmestrahlung wärmt an jedem Ort, sofort beim Einschalten.

Allen strombetriebenen Heizungen gemeinsam ist die einfache Installation, der extrem hohe Strahlungswärmeanteil, die schnelle Wärme und Kosten nur im Moment der Nutzung.

Ab wann sind Elektroheizungen sinnvoll?

Immer mehr Haus- und Wohnungsbesitzer installieren heutzutage auch als Zentralheizung ein elektrisches System. Das hat einen einfachen Grund: Moderne, erneuerbare Energiequellen produzieren Strom, der anschließend umweltfreundlich für die Beheizung des Gebäudes genutzt werden kann. Aber auch die Tatsache, kein Brennstofflager zu benötigen und einen wasserfreien Heizkreislauf zu haben, sind gute Argumente. Davon abgesehen gibt es natürlich andere Orte, bei denen es gar keine Alternative zu Heizstrahlern gibt. Gelegentlich genutzte Räume, Terrassen und Gartenbereiche sind der klassische Einsatzort für Infrarotstrahler.

Ausspannen bei einer Pause im Warmen

(Nicht nur) der Herbst lädt zu einer gemütlichen Pause in einem warmen, einladenden Raum ein. Egal, ob Sie einen stärkenden Snack in einem Bistro zu sich nehmen, ein leckeres Dessert probieren oder sich einfach nur bei einem Slow Coffee entspannen – diese Verschnaufpause ist nicht nur wichtig für Ihren Körper, sondern belebt auch Ihren Geist.

Was bedeuten eigentlich die vielen Wortkombinationen mit “Slow”, die in den letzten Jahren immer mehr die Runde machen? Begonnen hat alles mit der Slow Food Bewegung aus Italien. Einige Aktivisten um den italienischen Publizisten Carlo Petrini gründeten Mitte der achtziger Jahre eine Protestbewegung, die ihren Keim in der Ablehnung der Eröffnung eines bekannten Fast Food Restaurants am Fuß der berühmten Spanischen Treppe in Rom hatte. Man wollte der “architektonischen Verschandelung” entgegentreten und ein Zeichen setzen. Daraus entstand die Slow Food Bewegung mit dem Ziel, die lokale, ländlich geprägte Küche zu fördern. Mittlerweile hat die Bewegung auf der ganzen Welt unzählige Anhänger. Allein in Deutschland hat Slow Food im Moment über aktive 13000 Mitglieder.

Dabei geht es nicht nur um langsames Essen, sondern vor allen Dingen auch um die Langsamkeit in der Produktion und Zubereitung der Nahrungsmittel. Dabei stehen bevorzugt regionale, typische Lebensmittel im Mittelpunkt. Insbesondere sollen vergessene oder vom Aussterben bedrohte Pflanzen oder Tierarten promoviert werden. Die Bewegung Slow Food will den Konsumenten sensibilisieren, statt industrieller Fertiggerichte wieder natürliche, regionale Lebensmittel für die Ernährung einzusetzen.

Zuhause eine warme Oase schaffen

Wenn wir an kalte Winterabende denken, kommt uns zuerst ein knisterndes Kaminfeuer in den Sinn. Sicherlich geht nichts über einen gemütlichen Sonntagabend am Kamin, aber nicht jeder hat ein Haus, geschweige denn jeden Abend Zeit, Holzscheite zu bereiten und hinterher die Asche zu entfernen. Aber es gibt zum Glück viele andere Möglichkeiten, das eigene Heim behaglich warm zu haben.

Falls Sie im Eigentum wohnen, können Sie über den Einbau einer elektrischen Fußbodenheizung nachdenken. Diese Flächenheizung sorgt für ein fußwarmes Zuhause, auch wenn Sie Stein- oder Keramikböden haben, und erspart Ihnen die Installation und Wartung eines Heizkessels und der wassergefüllten Heizungsrohre, die nach Jahren auch einmal undicht werden können. Ideal ist diese Heizung auch in nur temporär genutzten Ferienwohnungen.

Sowohl im Eigentum als auch in einer Mietwohnung können Sie dagegen problemlos eine Infrarot Elektroheizung installieren. Es gibt sie zum Beispiel in Form von kleinen und großen Panels oder in Kombination mit Handtuchradiatoren. Genau wie die elektrische Wand- oder Fußbodenheizung sorgt sie für ein gesundes Raumklima ohne Zugerscheinungen oder Staubaufwirbelungen, im Gegensatz zu dem auch gebräuchlichen elektrischen Heizlüfter, der außer eines sehr geringen Wirkungsgrades viel Schmutz aufwirbelt.

In nur gelegentlich genutzten Räumen kann dagegen ein Infrarot Heizstrahler die beste Lösung sein. Dieser erzeugt in Sekundenschnelle Wärme und ist sofort nach dem Ausschalten wieder kalt, im Gegensatz zu den vorgenannten Heizsystemen, die immer eine gewisse Vor- und Nachlaufzeit haben. Das macht ihn ideal in Freizeit- oder Arbeitsräumen, die dann im Moment des Betretens sofort erwärmt werden. Die luftbewegungsunabhängige Strahlungswärme erlaubt einen effektiven Einsatz sogar im Außenbereich. Terrassen können ebenso kurzfristig beheizt werden wie ein Gartenbereich.

Weiterhin gibt es noch die seit Jahrzehnten bekannten Öl Radiatoren. Diese mögen gelegentlich in einem kleinen Raum oder als schnell transportable Lösung noch ihre Funktion erfüllen, allerdings sprechen der relativ hohe Stromverbrauch, die lange Vorwärmzeit und die erzeugte Konvektion gegen dieses Heizsystem.

Zusammenfassend lässt sich sagen, dass die gesündeste und effektivste Form der Raumerwärmung immer die Strahlungswärme ist, die wesentlich niedrigere Heiztemperaturen erlaubt als die Konvektion. Durch moderne Technik und die Verbreitung der erneuerbaren Energiequellen sind heute strombetriebene Heizsysteme wirtschaftlich und umweltfreundlich.

Was bedeutet “Deep Dive”? Bedeutung, Definition, Erklärung


Einen “Deep Dive” vorzunehmen bedeutet, dass man eine umfangreiche Untersuchung oder Analyse eines bestimmen Themas oder eines Sachverhalts durchführt.

Was bedeutet “Deep Dive”? Bedeutung, Definition, Erklärung

Der Begriff “deep dive” bezog sich früher auf eine Art des Brainstormings, aber in den letzten Jahrzehnten wurde er auf eine aussagekräftige Untersuchung oder Analyse einer Sache ausgeweitet.

Dieser Begriff muss sich auch nicht unbedingt auf die Geschäftswelt beziehen – man kann in so ziemlich alles (tief) eintauchen, was eine Entscheidung erfordert.

“Deep dive” bedeutet auf deutsch “tiefer Tauchgang”. Der Ausdruck ist ein Gleichnis für das Vorgehen bei einer Analyse. Um im Gleichnis zu bleiben: Man bearbeitet bei einem “Deep Dive” ein Thema nicht oberflächlich, also nicht so als ob man Brust schwimmen oder schnorcheln würde. Bei einem “Deep Dive” geht man in die Tiefe, man erforscht Details und will richtig tief in die Materie eintauchen. (Hier hilft z.B. die “5 Why Methode“.)

Eine wichtige Anmerkung

Mann sollte darauf achten, dass man sich auf das Wesentliche konzentriert. Was würde der eigenen Meinung nach den Prozess wirklich verbessern und hat einen Geldwert?

Man muss sicherstellen, dass die eigenen Deep Dives Signale und kein Rauschen erzeugen.

Deep Dive: Signale versus Rauschen

  • Deep-Dives können leicht zu einem Daten-Overload werden. Unabhängig davon, ob man Deep-Dives für den eigenen Chef, die Teamkollegen oder den Untergebenen durchführt, müssen man sich an einige Regeln halten.
  • Man sollte die Deep Dives nicht zu einer Ablenkung werden lassen.
  • Man sollte dem Vorgesetzten keine Deep-Dive-Daten mitteilen, die weniger als 1 % des Jahresumsatzes ausmachen.
  • Man sollte den eigenen Kollegen keine Deep-Dive-Daten mitteilen, die weniger als 0,5 % Ihres Jahresumsatzes wert sind.
  • Man sollte den Untergebenen keine Deep-Dive-Daten mitteilen, die weniger als 0,25 % Ihres Jahresumsatzes wert sind.

“Deep Dive”: Beispiel

Man kann sich vorstellen, dass man jedes Jahr in die Türkei fliegt, um Urlaub zu machen und weil man das Speerfischen lieben. Auch wenn man ein miserabler Schwimmer ist, versucht man es jedes Jahr aufs neue. Das “Deep Diving” ist eine perfekte Analogie zum Geschäftsleben, denn:

  • Genau wie die eigene Luft beim Speerfischen, ist auch die eigene Zeit begrenzt. Das ist die ultimative, endliche Ressource.
  • Man sollte eine grundlegende Vorstellung davon haben, wonach man sucht: einen Fisch!
  • Man muss irgendwann wieder auf das hohe Niveau zurückkehren; die Lunge reicht einer durchschnittlichen Person nur für etwa 3 Minuten
  • Der Wasserdruck macht das Leben schwerer, je tiefer man kommt, und die
  • Datenkomplexität wirkt sich auf dieselbe Weise aus. Die Lösung? Bessere Normalisierung, Formatierung, Gruppierung und Visualisierung von Daten.

Beispiel 1 – Heatmaps und bessere Nutzung des Splash-Screens für Webseiten

1-Satz-Lernen: Nachdem die Verhaltensdaten für einer kritischen Webseite gesammelt worden sind, konnte festgestellt werden, dass die Seitenhöhe auf der Grundlage von Page-Scroll-Daten auf Hotjar nicht effektiv genutzt wird.

Maßnahme: Die Inhalte werden vom Verantwortlichen der Website neu priorisiert und die geschäftskritischen Inhalte in den oberen Teil der Seiten verschoben. Außerdem wurden zwei A/B-Experimente mit den Landing Pages durchgeführt; es wird gleichzeitig eine inhaltslastige und eine übermäßig vereinfachte Version der Website getestet.

Beispiel 2 – Testimonials & Konversion

1-Satz-Lernen: Es wurden Testimonial-Inhalte auf der Grundlage von Hypothesen erstellt und durch die Nutzung von Analytics-Daten konnten die Verhaltensunterschiede der potenziellen Kunden vor und nach der Beschäftigung mit den Testimonial-Inhalten verstanden werden.

Maßnahme: Es wird ein automatisiertes Dashboard erstellt, um Verhaltensunterschiede und die Leistung der Testimonial-Inhalte zu verfolgen.

Beispiel 3 – Vergleich der Kanäle

2-Satz-Lernen: Ein Unternehmen erhält beispielsweise mehr als 20.000 Bewerbungen pro Woche, weshalb es notwendig ist, einen Deep Dive durchzuführen, um die Leistung von bezahlten und organischen Kanälen mit einer funktionalen Aufschlüsselung der Bereiche zu vergleichen. Dieser Deep-Dive ergab, dass die organischen Kanäle genauso gut abschneiden, wie die bezahlten Kanäle.

Aktion: Durchführung eines Deep-Dives in organische Kanäle, um den durch Marketinginhalte, soziale Medien und organischen Suchverkehr erzielten Dollarwert zu ermitteln.

Beispiel 4 – Der Mehrwert eines zufälligen Unternehmens in den Schwellenländern

3-Satz-Lernen: Als großer Verfechter von Remote-Software-Talenten bietet das Beispielunternehmen Fachkräften aus Schwellenländern einen enormen Mehrwert. Das Unternehmen möchte genau wissen, wie viel. Hierzu wurde mit vier verschiedenen Modellen gearbeitet, um den Mehrwert des Unternehmens in jedem Markt zu verstehen.

Handeln: Jetzt, da das Unternehmen die Arbitragemöglichkeiten der eigenen Investitionen kennt und daher diese Daten nutzen kann, um die Märkte und Marketinginvestitionen zu priorisieren.

Beispiel 5 – Testen der Erfolgsquote von Inhalten

3-Satz-Lernen: Das Beispielunternehmen evaluiert wöchentlich über 20.000 Kandidaten, und das dazugehörige Testverfahren besteht aus vier Hauptteilen: Grundlegende Eignungsfragen, kognitiver Eignungstest, fachliche Fragen und freie Fragen. Nach einer eingehenden Untersuchung der Bewerberdaten konnte festgestellt werden, dass einige der Pipelines gute Kandidaten ausschließen und andere schlechte Kandidaten durchlassen. In Anbetracht der enormen Summen, die das Unternehmen jedes Jahr in die Lead-Generierung investiert, haben diese Fehler Auswirkungen auf den Geldwert.

Maßnahme: Erstellung eines anpassbaren Berichts für die internen Teams, der Zugriff auf alle Bewerberdaten bietet und alarmierende Erfolgsquoten für jeden Testschritt anzeigt, mit der Möglichkeit, bei Bedarf pipeline-spezifische Deep Dives durchzuführen. Das Ergebnis war, dass die fehlerhaften Pipelines repariert werden konnten.

Man sollte immer daran denken, dass Deep Dives eine der wirkungsvollsten Aktivitäten sind, die man für das eigene Unternehmen durchführen kann:

  • Nur wenn man Deep-Dives durchführt, kann man andere dazu inspirieren, Deep-Dives mit den Daten durchzuführen, die sie haben
  • Verbesserungen auf der Grundlage der gewonnenen Erkenntnisse umsetzen, was zu Prozessverbesserungen über Tage, Wochen, Monate und in manchen Fällen sogar Jahre führt.
  • Ein besseres Verständnis über die eigenen Daten erlangen, was dazu führt, dass man bessere Fragen stellen kann.
Warum wird ein kalter Entzug auch “Cold Turkey” genannt? Erklärung, Bedeutung, Definition


Der Begriff Cold Turkey ist gleichzusetzen mit einem kalten Drogenentzug. Wortwörtlich bedeutet Cold Turkey so viel wie kalter Truthahn. Der Ursprung dieser Redewendung liegt darin begründet, dass die entsprechende Person massive Entzugserscheinungen aufweist. Diese beginnen in einer ersten Phase mit einer auffallend kalten Hautoberfläche und Gänsehaut, welche an die eines kalten Truthahns erinnern.

Welche Arten von Entzügen gibt es?

Bei der Abhängigkeit von einer oder mehreren Substanzen existieren verschiedene Möglichkeiten des Drogenentzugs:

  • die langsame Verringerung der Dosis bis zur Abstinenz (Aversionstherapie)
  • das sofortige und vollkommene Absetzen der Droge
  • das Absetzen unter vorübergehender Anwendung von Ersatzdrogen
  • der Turbo-Entzug unter Narkose in besonders schweren Fällen und sekundären Erkrankungen

Welche Drogen verursachen einen Cold Turkey?

Der Cold Turkey tritt beim plötzlichen Absetzen einer Substanz auf, von der eine körperliche Abhängigkeit besteht. Oftmals sind – gerade nach lange andauerndem Konsum – körperliche sowie psychosomatische Symptome nicht klar voneinander abgrenzbar und beeinflussen sich wechselseitig.

Klassischerweise assoziiert man Alkohol, Opiate und Barbiturate mit schweren körperlichen Entzugserscheinungen. Das ist jedoch nur teilweise richtig. Auch als softe Drogen bekannte Stoffe wie Cannabis können nach jahrelangem und täglichem Gebrauch zu einem Cold Turkey führen. Ausschlaggebend sind die Dauer, Intensität und Regelmäßigkeit des vorigen Konsums.

Warum entstehen Entzugserscheinungen?

Entzugserscheinungen entstehen bei manchen Drogen bereits nach einmaligem oder seltener Gebrauch; beispielsweise bei Heroin oder Crack. Bei anderen substanzgebundenen Abhängigkeiten ist die Entwicklung von Entzugserscheinungen bei Abstinenz ein mittel- bis langfristiger Prozess.

Entzugserscheinungen treten auf, wenn dem Körper sich an die Zufuhr der Droge gewöhnt hat. Das erkennt man unter anderem daran, dass immer höhere Dosen in zunehmender Häufigkeit konsumiert werden müssen. Zunächst, um überhaupt noch das Gefühl des Highseins zu erreichen. In einem späteren Stadium lässt die Wirkung jedoch erheblich nach und reicht nur noch, um das Aufkommen eines Cold Turkeys zu verhindern. Der Teufelskreis der Sucht ist entstanden.

Was sind die Symptome eines kalten Entzugs?

Je mehr der Körper die Reste der Substanz abbaut, desto mehr Symptome treten auf. Zu Beginn bemerkt man Unwohlsein, Appetitlosigkeit, ein flaues Gefühl, Angespanntheit und Nervosität, eventuell Kopfschmerzen und Mundtrockenheit.

Die zu Anfang eher diffusen Anzeichen steigern sich im Verlauf. Hinzu kommen dann vegetative Symptome wie Zittern, Schweißausbrüche, Kreislaufprobleme sowie krampfartiges und nicht enden wollendes Erbrechen. Der Körper hat Schwierigkeiten, Blutdruck und Körpertemperatur zu regulieren. Extremes Frieren und Hitzewallungen wechseln sich ab, weil das Nervensystem außer Kontrolle gerät. Auf psychischer Ebene kann es zu einer Einengung des Bewusstseins bis hin zum Delirium kommen.

Was hilft bei einem kalten Entzug?

Einige Medikamente können die Symptome des kalten Entzugs deutlich reduzieren. Dazu werden – meist im stationären Setting – Clomethiazol und Benzodiazepine verwendet. Sie wirken angstlösend, beruhigend und verhindern Krampfanfälle. Alternative Heilmethoden wie Shiatsu und Akupressur zeigen im Rahmen ganzheitlicher Therapien vor allem auf psychischer Ebene gute Effekte, indem sie die Selbstregulation des Körpers unterstützen.

Die Entgiftung sollte man zudem mit ausreichend Bewegung an der frischen Luft fördern. Sie bringt Kreislauf und Stoffwechsel in Schwung. Über die Atmung und Transpiration werden Schadstoffe ausgeschieden. Tee aus Mariendistel, Löwenzahn und Artischocke sowie Cranberry-Saft unterstützen die Ausscheidung von Stoffwechselprodukten.

Wie gefährlich ist ein Cold Turkey bei schwerer Abhängigkeit?

Gerade bei schwerer körperlicher Abhängigkeit können außer Kontrolle geratene Entzugssymptomatiken in ein Delirium tremens münden, welches tödlich enden kann. Man unterscheidet unterschiedliche Schweregrade dieses Deliriums: die Vorphase, das voll ausgeprägte Delirium und den intensivmedizinischen Notfall.

Neben Halluzinationen, starkem Zittern, Schweißausbrüchen und Angstzuständen ist die Störung des Bewusstseins ein zentrales Kriterium des organischen Psychosyndroms. Kennzeichnend sind Störungen von Aufmerksamkeit, Denken, Gedächtnis, Psychomotorik, Wahrnehmung und Schlaf-Wach-Rhythmus. Je nach Schweregrad des Deliriums, Alter und Gesamtkonstitution der Person sowie Komorbiditäten kann das Delirium leicht bis tödlich verlaufen. Insbesondere bei schweren, seit Jahren bestehenden Suchterkrankungen sollte deshalb genau abgewägt werden, ob der kalte Entzug stationär erfolgen sollte, da die Sterblichkeitsrate unbehandelt bei etwa 25 % liegt.

Wo finde ich Unterstützung für einen kalten Entzug?

Ein kalter Entzug ist eine Mammutaufgabe. Zwar erfolgt die Entgiftung zunächst nur auf körperlicher Ebene, jedoch ist die Psyche untrennbar in den Prozess involviert. Zum Einen, weil körperliche und psychische Symptome sich gegenseitig beeinflussen, zum Anderen, weil psychische Vorgänge ursächlich an der Entstehung der Sucht beteiligt waren. Daher sollte man Körper und Psyche gleichermaßen in den kalten Entzug involvieren.

Der erste Schritt zu medizinischer Hilfe kann über den Hausarzt erfolgen. Er kann die Überweisung und ambulante oder stationäre Weiterbehandlung durch einen Facharzt veranlassen. Die Drogenberatung sozialer Träger wie der Caritas vermittelt sozialtherapeutische Angebote, welche den Entzug psychologisch und sozial begleiten. Zudem hilft der Austausch mit anderen Betroffenen, Scham, Schuld und soziale Phobien zu überwinden.

Warum sollte man einen kalten Entzug machen?

Wer über einen kalten Entzug nachdenkt, hat den ersten Schritt bereits unternommen. Betroffenen sind die mit ihrer Sucht eingehenden Nachteile bewusst; sie wünschen sich ein Leben, welches frei von Abhängigkeiten und selbst auferlegten Einschränkungen ist.

Meist sind es Ängste, unverarbeitete Konflikte und Traumata, welche den eigenen Bewegungsradius Stück für Stück eingeschränkt haben. Mit dem richtigen Werkzeug an der Hand ist es ein wunderbares Gefühl, sich den persönlichen Lebensraum wieder langsam und durch eigene Kraft zurückzuerobern sowie Perspektiven und Handlungsalternativen zu entwickeln, die einem die Freiheit verschaffen, nach der man durch den Konsum ursprünglich auf der Suche war.

Warum altern wir? Was passiert beim altern? Erklärung, Wissenschaft


Das Altern beim Menschen und bei den Tieren ist ein natürlicher Ablauf, der zum Leben dazu gehört. Doch viele stellen sich die bestimmt Frage, was während des Alterns eigentlich geschieht oder mit welchen Erscheinungen man rechnen muss. Im folgenden Ratgeber erfahren Sie alles rund um das Thema Veränderungen beim Altern.

Warum altert der Körper?

Diese Frage konnte bis heute nicht genau geklärt werden. Fakt jedoch ist, dass das Altern mit dem Verschleiß des Körpersystems zusammenhängt. Der Organismus eines Menschen ist zwar in der Lage, gewisse Beschädigungen wieder zu richten (Immunsystem, Zellerneuerung). Doch je älter man wird, desto weniger schafft der Körper die Bewältigung von Störungen.

Wie machen sich Alterserscheinungen bemerkbar?

Einige Merkmale des Alterns lassen sich sehr leicht erkennen. Die Haut wird faltig, die Haare werden grau und es sind Altersflecken zu sehen. Der Körper kann im Alter nicht mehr so viel Wasser speichern, was beispielsweise das Schrumpfen der Bandscheiben zur Folge hat und sie dadurch an Flexibilität verlieren. Deshalb wird man im Alter auch kleiner.

Wenn man älter wird, fallen verschiedene Dinge immer schwerer. Die Reaktionstüchtigkeit lässt nach, ebenso das Denkvermögen. Das hat den Grund, dass Impulse nur noch langsam an das Gehirn weitergeleitet werden und deshalb Informationen nicht mehr so einwandfrei verarbeitet werden können. Nach und nach lassen außerdem die Sinnesorgane nach. Mit dem Alter sieht man schlechter und hört schwerer. Auch besteht die Möglichkeit, dass das Empfinden für den Geschmack und den Geruch schwächer wird.

Wie kann man dem Altern entgegenwirken?

Außer das Beste aus dem Altern zu machen, kann man gegen das älter werden selbst nichts tun. Alt zu werden bedeutet gleichzeitig aber auch, ein langes und glückliches Leben führen zu können. In einer langen Lebenszeit ist es außerdem möglich, wertvolle Erfahrungen zu sammeln und weiterzugeben. Dafür ist allerdings wichtig, die Gesundheit bestmöglich zu erhalten, sodass man auch lange körperlich aktiv sein kann.

Zum Teil hängt das Altern sicherlich auch mit der Genetik zusammen, trotzdem kann man einiges dafür tun, die Gesundheit so lange wie möglich zu erhalten. Dabei spielt genügend Bewegung sowie eine ausgewogene Ernährung eine maßgebliche Rolle. Betreibt man regelmäßig angemessenen Sport, verhilft dies dazu, Stress abzubauen und Übergewicht entgegenzuwirken. Das Immunsystem wird aktiviert und der Alterungsprozess erfolgreich verlangsamt. Zudem wird das Risiko für Bluthochdruck, Krebs und Schlaganfall gesenkt.

Durch sportliche Aktivitäten wird die Muskulatur gestärkt, außerdem erhält die Haut bedeutende Nährstoffe. Sowohl geistige als auch körperliche Alterserscheinungen können durch regelmäßigen Sport im Alter hinausgezögert werden.

Was genau passiert, wenn man älter wird?

Es kommen verschiedene Arten von Gewebe im Körper vor. Einige davon wie beispielsweise die Haut, müssen fortwährend erneuert werden. Da mit der Zeit immer weniger Zellen der Haut die Möglichkeit haben, sich zu teilen, tritt die Erneuerung der Haut stetig langsamer auf. Anders sieht es beim Gehirn aus. Hier können sich die Nervenzellen generell nicht teilen. Sie haben zwar eine lange Überlebenszeit, wenn sie aber einmal abgestorben sind, sind sie nicht ersetzbar.

Dies hat zur Folge, dass die Leistung der Organe langsam abnimmt. Beim Altern wird auch die Masse einiger Organe weniger. Organe verfügen jedoch über ausreichend Reserven, welche mit Belastungen umzugehen wissen. Im alltäglichen Leben bemerkt man lange nicht, wenn die Reserven nachlassen.

Erst wenn die Reserven deutlich weniger geworden sind, treten die klassischen Erscheinungen des Alterns auf. Da dies aber nicht mit Erkrankungen zusammenhängt, kann man diesem Prozess lange entgegenwirken. Werden beispielsweise Muskeln schwächer, können sie lebenslang durchtrainiert werden. Viel Bewegung ist generell sehr von Vorteil, denn so kann das Herz-Kreislauf-System fit gehalten werden. Zudem ist Sport auch ideal für die Gesundheit der Organe.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung


Der Trickle-down-Effekt („Durchsickereffekt)“ besagt, dass wohlhabende Bevölkerungsschichten durch ihren Konsum und ihre wirtschaftlichen Investitionen ihren Reichtum nach unten an die mittleren und ärmeren Schichten durchreichen.

Als Trickle-down-Effekt wird dieses Phänomen aufgrund einer Metapher bezeichnet: Der US-Komiker Will Rogers verglich den Effekt mit dem von Pferdeäpfeln, die den Boden düngen und in denen sogar die Spatzen Nahrung finden. Daher gibt es auch die deutsche Bezeichnung als Pferdeapfel-Spatz-Theorie. Dieser Effekt ist umstritten.

Empirische Befunde scheinen nahezulegen, dass eine Einkommenskonzentration in wenigen Händen eher das gesamtwirtschaftliche Wachstum beeinträchtigt, während eine Einkommenssteigerung der untersten Bevölkerungsschichten, wie sie von eher linken Parteien zum Beispiel über einen höheren Mindestlohn gefordert wird, das BIP der Nation eher steigert.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung

Erste Ansätze zu dieser Theorie finden sich schon in Werken des Ökonomen Adam Smith. Dieser postulierte im letzten Drittel des 18. Jahrhunderts, dass in gut geführten Staaten mit diverser Produktion ein universeller Reichtum entsteht, von dem letzten Endes auch niedrigste Bevölkerungsstände profitieren („Wohlstand der Nationen“).

Smith plädierte für eher freie Märkte mit der Möglichkeit, durch Unternehmertum sehr reich zu werden, und gleichzeitig für eine reduzierte staatliche Lenkung, weil dies den gesamtgesellschaftlichen Wohlstand erhöhe. Diese Grundannahme vertreten heute hauptsächlich liberale Parteien. Die Vorstellung hielt sich und führte immer wieder zu Wirtschaftsreformen, die den Märkten ein deutlich freieres Spiel einräumten.

In den USA war in den 1920er-Jahren der Autounternehmer Henry Ford ein Vertreter dieser Theorie, der seinerseits in der Tat viele gut bezahlte Arbeitsplätze schuf. Allerdings setzte 1929 eine Weltwirtschaftskrise ein, für die Wirtschaftshistoriker gerade diesen sehr wirtschaftsliberalen Ansatz verantwortlich machen. Dennoch hielt er sich und fand in den USA zu neuer Blüte ab den 1980er-Jahren unter Ronald Reagan (sogenannte Reaganomics).

In Großbritannien regierte Margret Thatcher zur selben Zeit unter dieser Prämisse. Diese hat ein breites theoretisches Fundament. Neben Adam Smith vertraten unter anderem auch die Ökonomen J. A. Hobson ab 1889, Waddill Catchings und William Trufant Foster ab 1928 sowie John Maynard Keynes ab 1936 die These, dass Wirtschaftskrisen vorrangig durch einen Mangel an Nachfrage ausgelöst werden und dass Reichtum an der Spitze immer auch zu Wohlstand in der Gesamtgesellschaft führt, der wiederum die Binnennachfrage ankurbelt.

Es gab aber auch intellektuelle Gegenbewegungen spätestens ab den 1950er-Jahren, die genau das Gegenteil behaupten und ihren Ansatz dementsprechend als Trickle-up-Theorie bezeichnen. Sie plädieren zwar ebenso für einen freien Markt und eine dezentralisierte Wirtschaft, fordern aber eine Wohlstandsverteilung in die Hände breiter Bevölkerungsschichten, weil gerade dies die Nachfrage ankurbeln könne. Barack Obama griff dieses Konzept in seiner Regierungszeit von 2009 bis 2017 auf, Donald Trump wandte sich dagegen, Joe Biden versucht es wieder umzusetzen.

Anwendung der Trickle-down-Theorie in der Regierungszeit von Ronald Reagan

Die Reaganomics ab 1981 waren ein tiefster Ausdruck des Umsetzungsversuchs von Trickle-down-Effekten. Allerdings war der Begriff damals schon negativ besetzt, weshalb die Reagan-Regierung lieber von angebotsorientierter Wirtschaftspolitik sprach. Umgesetzt wird eine Trickle-down-Politik immer über Steuern. Sie sieht Steuersenkungen für hohe Einkommen vor, wie sie beispielsweise im Bundestagswahlkampf 2021 die deutsche CDU gefordert hat.

Während der Reagan-Regierung war der Ansatz ein Kern der gesamten Wirtschaftspolitik, der weltweit diskutiert wurde. Reagan konnte während seiner zwei Amtszeiten ein Gesamtwachstum des US-BIP um 31 % erreichen, mithin 3,875 % pro Jahr, was beachtlich ist. Flankiert wurde sein Steuersenkungsprogramm von staatlicher Deregulierung. Allerdings verweisen Experten darauf, dass es für einen Wirtschaftsaufschwung immer auch andere Gründe gibt, so etwa die Weltkonjunktur oder die Entwicklung von Rohstoffpreisen. Dennoch ist zu konstatieren, dass die US-Wirtschaft sehr stark von der Binnennachfrage lebt und daher Trickle-down in gewissem Umfang funktioniert haben könnte.

Trickle-down-Ansatz in Deutschland

Die Steuerreform des Jahres 2000 führte in Deutschland zur Entlastung sehr hoher Einkommen und Vermögen. Das DIW analysierte, dass der abgesenkte Spitzeneinkommensteuersatz und die geringere Unternehmensbesteuerung 10 % der reichsten Haushalte um 2,3 % sowie 1 % der reichsten Haushalte um 4,8 % entlasteten. Da gleichzeitig indirekte Steuern leicht erhöht wurden, stieg die Steuerbelastung für alle Einkommensgruppen um 0,1 %.

Das BIP reagierte offenkundig nicht auf den Trickle-down-Ansatz, es schwankte in den Folgejahren heftig. Dazu trug allerdings auch die Finanzkrise 2008/2009 bei. Die genauen Zahlen zeigt statista.de/deutsches BIP 1992 bis 2020. In Deutschland vertreten unter anderem Friedrich Merz und weitere CDU-Politiker offensiv einen Trickle-down-Ansatz, während die FDP ihre Ambitionen in dieser Hinsicht nur latent andeutet. In den laufenden Koalitionsverhandlungen mit den Grünen und der SPD konnte sie sich bislang mit Steuersenkungen für obere Einkommen nicht durchsetzen (Stand: Ende Oktober 2021).

Kritik an der Trickle-down-Theorie

Wirtschaftswissenschaftler wie Paul Krugman, Joseph Stiglitz, Achim Truger und Marcel Fratzscher bezweifeln den Trickle-down-Effekt und sehen hierfür keine Belege. Marcel Fratzscher positionierte sich zuletzt 2021 dagegen. Er versuchte zu belegen, dass Trickle-down höhere Staatsschulden bei weniger gesamtgesellschaftlichem Wohlstand verursache. Sein Kollege Achim Truger differenzierte stärker: Nach seiner Auffassung funktioniert Trickle-down in Deutschland nicht, jedenfalls nicht mit der seit 2000 praktizierten Steuerpolitik. In den USA führte der Congressional Research Service bis 2012 eine Untersuchung zur Thematik durch und stellte fest, dass ein signifikanter Zusammenhang zwischen einem geringeren Spitzensteuersatz und Wirtschaftswachstum inklusive Arbeitsplatzschaffung nicht nachweisbar sei. Dieser Bericht wurde nach einer Meldung der New York Times von November 2012 auf Druck von Abgeordneten der Republikaner nicht veröffentlicht.

Die Senatoren hatten Bedenken zur Methodik und den daraus abgeleiteten Erkenntnissen angemeldet. Dies stieß auf demokratischer Seite auf starke Kritik unter anderem vom Senator Charles Schumer, der das Vorgehen der Republikaner als „Methoden einer Bananenrepublik“ kritisierte. Unabhängige Ökonomen und Berater des Kongresses merkten an, dass das Vorgehen der Republikaner gegen einen Bericht des wissenschaftlichen Kongressdienstes einmalig sei.

Papst Franziskus positionierte sich 2013 in einem apostolischen Brief gegen die Trickle-down-Theorie. Nach seinen Worten basiere diese auf einem undifferenzierten, naiven Vertrauen in die Güte der Reichen und wirtschaftlich Mächtigen. Der Wirtschaftsjournalist Mark Schieritz kritisiert die Vorstellung, dass Reiche durch Konsumption oder Investition ihr Geld in die Gesellschaft transferieren würden. Vielmehr würden sie es sparen oder an der Börse anlegen, so der Fachmann. Auch den verklärenden Ansatz der Trickle-down-Theorie greift er an. Das Anhäufen von Reichtümern sei beleibe keine gute Tat, welche der Gesellschaft etwa nütze. Vielmehr diene die Trickle-down-Theorie lediglich der moralischen Absicherung für bloße Gier nach Reichtum.

Ähnlich positioniert sich das Center for American Progress. Nach der Auffassung der dort tätigen Wissenschaftler haben Trickle-down-Maßnahmen eher kontraproduktive Effekte, weil die Reichen die durch Steuersenkungen erhaltenen Geldgeschenke seltener verkonsumieren oder in die Produktion investieren und häufiger an der Börse anlegen oder sparen. Auch würden sie ihre Mittel gern in Steuerparadiese transferieren. Insgesamt mache Trickle-down die Gesellschaft ungleicher und führe zu geringeren finanziellen Mitteln in der Mittel- und Unterschicht. Die Nachfrage sinke dadurch, was das BIP mittelfristig schwäche.

Fazit: Was ist der Trickle Down Effekt? 

Die Trickle-down-Theorie wird in der Öffentlichkeit regelmäßig zu plakativ dargestellt. In dieser Darstellung sind Belege für ihre Wirksamkeit oder das Gegenteil davon nicht plausibel zu kommunizieren. Zweifellos konsumieren Reiche mehr, wenn sie mehr Geld zur Verfügung haben. Dieser Konsum kann punktuell Arbeitsplätze schaffen und das Wirtschaftswachstum insgesamt fördern, doch der Effekt dürfte bei Weitem nicht so hoch ausfallen wie eine stärkere Nachfrage durch die breite Bevölkerung, wenn diese etwa durch höhere Mindestlöhne mehr Geld in der Tasche hat.

Wenn sich Reiche Luxusgüter kaufen, hat das auf die Beschäftigungsquote nur einen sehr kleinen Effekt, denn in der Luxusgüterindustrie sind nicht sehr viele Arbeitnehmer*innen beschäftigt. Deutlich höher dürfte der Effekt ausfallen, wenn Unternehmenssteuern gesenkt werden und Mittelständler dadurch ihre Betriebe ausbauen, weil sie über mehr Liquidität verfügen. Diese Effekte müssten aber genauer untersucht werden.

Wer hat Mathe erfunden? Geschichte der Mathematik


Die Mathematik beginnt mit dem Zählen, das der Homo sapiens wahrscheinlich schon sehr lange beherrscht – nachweislich seit rund 50.000 Jahren, aber vermutlich auch noch länger. Für die Zahlen bis 10 oder 20 nutzten die frühen Menschen ihre Finger und Zehen als Vergleichsmaßstäbe.

Wer hat Mathe erfunden? Geschichte der Mathematik

In den modernen Sprachen ist feststellbar, ob sie eine Reihe bis 10 nur mit den Fingern oder eine Reihe bis 20 mit Fingern und Zehen bildeten: Im Deutschen, Englischen und vielen weiteren Sprachen setzen die Zahlwörter ab 11 auf denen ab 1 auf, im Französischen hingegen nicht. Dort gibt es bis 20 völlig eigene Zahlwörter. Die frühen Franzosen vor 50.000 Jahren zählten also Finger und Zehen ab, um eine Reihe bis 20 zu bilden.

Das Zählen entwickelte sich wie die Sprache beim Übergang vom Tierreich zum Menschen. Auch Tiere können zählen. Die Bienen etwa zählen für ihre Orientierung Wegmarken ab, Pferde erkennen die ihnen angebotene Futtermenge, Schimpansen zählen an Geräuschen die Zahl ihrer Artgenossen in der Nähe ab. Einige Tiere scheinen sogar rechnen zu können, wie aufwendige Experimente offenkundig nachweisen konnten.

Als schließlich die alten Ägypter vor rund 4.500 Jahren ihre ersten Pyramiden bauten, war die Mathematik schon relativ weit entwickelt: Ohne sie wären diese Bauwerke nicht möglich gewesen.

Was weiß man über die Mathematik vor rund 5.000 Jahren?

Die Ägypter berechneten die Formen ihrer Pyramiden und deren Tunnelgänge und Kammern sehr exakt. Allerdings hielten sie ihre Aufzeichnungen auf Papyros fest, der die Zeiten kaum überdauert, weshalb von ihrer Mathematik nur spärliche Fragmente überliefert sind. Die zeitgleich zur kulturellen Blüte aufsteigenden Babylonier hingegen ritzten ihre Mathematik in Tontafeln, von denen viele erhalten blieben. Die babylonische und ägyptische Mathematik unterschieden sich zwar, jedoch kannten beide Kulturen die vier Grundrechenarten und auch schon Annäherungen an die Kreiszahl π (Pi). Die Belege für die chinesische, indische und islamische Mathematik sind jünger, was wiederum daran liegt, dass Aufzeichnungen leider nicht erhalten blieben. Wichtig zu wissen: Die frühe Mathematik nutzte in verschiedenen Kulturen unterschiedliche Zahlsysteme, die auf 6, 10, 12 oder 60 basieren konnten.

Die Entwicklung einzelner mathematischer Teilgebiete

Die alten Ägypter, die Babylonier und nach ihnen die Griechen und Römer widmeten sich sehr intensiv der Geometrie, weil sie diese für ihre Bauwerke benötigten. Sie konnten aber auch gut Löhne oder Getreidemengen berechnen. Die persischen und arabischen Mathematiker ab der Zeitenwende begründeten die Algebra, die sich nach ihren europäischen Eroberungsfeldzügen in den ersten christlichen Jahrhunderten über Spanien nach Europa verbreitete. Dort wurde sie an Universitäten und Klosterschulen gelehrt. Die höhere Algebra, die analytische Geometrie, die Wahrscheinlichkeitstheorie und die Analysis entwickelten europäische Mathematiker ab der Renaissance. Bis zum 19. Jahrhundert blieb fortan Europa das Zentrum der mathematischen Forschung, bis im 20. Jahrhundert US-Mathematiker die führende Rolle übernahmen.

Erste Blüte der griechischen Mathematik

Den Griechen verdanken wir viele mathematische Erkenntnisse. Ihre wissenschaftlichen Entdeckungen fanden in vier Hauptperioden statt:

  • Ionische Periode (600 – 400 v. Chr.)
  • Athenische Periode (400 – 300 v. Chr.)
  • Alexandrinische Periode (300 – 200 v. Chr.)
  • Spätzeit (200 v. Chr. – 300 n. Chr.)

Pythagoras, von dem wir alle den berühmten Flächenberechnungssatz a² = b² + c² kennen, wird der Ionischen Periode zugerechnet und soll quasi der Stammvater der antiken griechischen Mathematik sein. Er erhob sie zur Wissenschaft und Philosophie, während die Babylonier und Ägypter 2.000 Jahre zuvor eher aus rein praktischen Gründen gerechnet hatten.

Die nach Pythagoras benannte mathematische Schule der Pythagoreer entdeckte unter anderem irrationale Zahlen anhand geometrischer Streckenverhältnisse. Diese Forschungen setzten später Platon, Aristoteles und Archimedes fort. Letzterer konnte die Kreiszahl π schon wesentlich genauer als vor ihm die Ägypter und Babylonier berechnen. Eine Zusammenfassung der griechischen Mathematik stammt schließlich von Euklid, der unter anderem die unendliche Reihe der Primzahlen darstellte und dies mit einer strengen, bis dahin beispiellosen Beweisführung belegte.

Die zeitgleich wirkenden römischen Mathematiker wiederum wandten sich wie vor ihnen die Ägypter und Babylonier sehr praktischen Anwendungen zu. Von ihnen stammen Methoden für die Vermessung und das Ingenieurswesen. Ein Zentrum der antiken Mathematik blieb auch nach der Alexandrinischen Periode Alexandria. Dort wirkte die Mathematikerin Hypatia, die im Jahr 415 ein christlicher Mob tötete.

Mathematik in Asien

In anderen Weltgegenden entwickelte sich die Mathematik in etwa zeitgleich zu den Forschungen in Nordafrika und Südeuropa. Die chinesische Mathematik lässt sich bis ins 18. Jahrhundert v. Chr. belegen. Erhalten ist das Lehrbuch Zhoubi suanjing, das vermutlich im vierten bis dritten vorchristlichen Jahrhundert entstand und während der Han-Dynastie (206 v. Chr. – 220 n. Chr.) ergänzt wurde. Auch chinesische Mathematiker kannten schon einen Näherungswert für π.

Im 13. Jahrhundert n. Chr. erreichte ihre Mathematik eine hohe Blüte mit algebraischen Gleichungssystemen. Danach stockte die Forschung. Nach 1600 griffen die Japaner die chinesischen Kenntnisse auf und führten sie fort. In Indien gab es offenkundig schon in vorchristlicher Zeit eine gut entwickelte Geometrie, nur fehlen hierfür fast sämtliche Belege.

Aus dem 6. nachchristlichen Jahrhundert sind astronomische Berechnungen überliefert. In Asien rechnete man übrigens mit einem Dezimalsystem. Unsere Zahlzeichen (1, 2, 3 usw.) leiten sich eigentlich von indischen Symbolen ab, jedoch wurden sie uneinheitlich benannt: Die Araber nannten sie „indische Zahlen“, während sie die Europäer dann von den Arabern als „arabische Zahlen“ übernahmen. Die Japaner wiederum übernahmen sie als „römische Zahlen“, unter denen die Europäer aber die Darstellung von Zahlen mit Buchstaben verstehen (XX = 20, MMXXI = 2021 usw.).

Mathematik in Persien

In Persien und der gesamten islamischen Welt war Bagdad ein wissenschaftliches Zentrum. Die muslimischen Mathematiker hatten Kontakt zur indischen Kultur und übernahmen von ihr die Positionsarithmetik und Sinusberechnungen. Die indische und griechische Trigonometrie sowie die griechische, ägyptische und römische Geometrie entwickelten sie weiter. Die Algebra entwickelten sie selbstständig, die Europäer profitierten davon (siehe oben). Frühe islamische Schriften zur Mathematik sind ab dem 9. Jahrhundert überliefert. Um das Jahr 1000 erreichte die persische Mathematik ihre Hochblüte.

Mathematik der Maya

Die Maya, deren Hochkultur etwa 400 – 900 n. Chr. existierte, wandten sich in ihren mathematischen Forschungen sehr stark der Astronomie zu, konnten sehr gut Kalender berechnen und nutzten als Zahlenbasis wie die frühen Franzosen die 20, weil sie ebenso Finger und Zehen abzählten. Ihre Mathematik soll höher als die im Orient entwickelt gewesen sein. Ihr Kalender war in dieser Epoche der weltweit genaueste.

Europäische Mathematik ab dem Mittelalter

Die Europäer konnten auf dem Import der arabischen Mathematik aufsetzen, auch griechische und römische Schriften studierten sie intensiv. Der Mittelmeerraum wurde zu einem wichtigen Zentrum der mittelalterlichen europäischen Mathematik, ein wichtiger Vertreter war Leonardo da Pisa (1170 – 1240), von dem die Fibonacci-Zahlenreihe stammt. Mathematik wurde in den Klosterschulen und an den damals gegründeten Universitäten gelehrt.

Die mathematischen Teilgebiete waren die Arithmetik, die euklidische Geometrie, die Astronomie und die musikalische Harmonielehre, welche die Gelehrten unter mathematischen Gesichtspunkten betrachteten, was grundsätzlich nicht falsch ist. Mit Kalenderberechnungen mussten sich mittelalterlichen europäischen Mathematiker noch intensiv beschäftigen. Unter anderem ging es darum, das Datum für das Osterfest exakt zu berechnen.

An den mittelalterlichen Universitäten und Klosterschulen wurden Werke der antiken griechischen Mathematik abgeschrieben und ins Lateinische übersetzt. Ab dem 13. Jahrhundert führten die Europäer neue Methoden ein, entwickelten Experimente und die sichere Beweisführung, stießen in unendliche Zahlenreihen vor und befassten sich im Zuge der großen Kirchenbauten auch intensiv mit praktischer Mathematik.

Auch die sich rasant entwickelnde Geldwirtschaft erforderte neue mathematische Methoden. Der Deutsche Adam Ries(e) übertrug das Rechnen ins Deutsche, auch wurden im 15. bis 16. Jahrhundert die vorher geltenden römischen durch arabische (eigentlich: indische, siehe oben) Ziffern ersetzt. Es folgten die Wahrscheinlichkeitsrechnung, die Kombinatorik nach Blaise Pascal, die Variationsrechnung nach Pierre de Fermat, dessen Annahmen erst 1995 mathematisch bewiesen werden konnten, die Differential- und Integralrechnung ab dem 17. Jahrhundert sowie die Infinitesimalrechnung nach Newton und Leibniz.

Ab dem 18. und 19. Jahrhundert stieß die Mathematik in höhere Sphären vor, auf denen später komplexe technische Leistungen wie die Raumfahrt aufsetzten. Die mathematische Forschung ist keinesfalls an ihrem Ende: Mathematiker entdecken immer wieder neue spannende Probleme und suchen nach Lösungen dafür.

Was ist ein Exploit? Bedeutung, Definition, Erklärung


Ein Exploit nutzt Schwachstellen bei der Softwareprogrammierung für Hackerangriffe oder auch für die Überprüfung des Programms aus. Das Wort kommt vom Englischen to exploit = ausnutzen. Ein Zero-Day-Exploit nutzt solche Sicherheitslücken gleich nach dem Start des Programms aus, wenn es für dieses noch keinen Patch des Herstellers gibt.

Wie kann ein Exploit funktionieren?

Es gibt in Programmen a) Schwachstellen bei der Neuprogrammierung und b) systemische Schwachstellen. Letztere existieren beispielsweise bei den gängigen Home- und Officerechnern, deren sogenannte Von-Neumann-Architektur nicht zwischen den Nutzdaten und dem Programmcode unterscheidet. Diese Architektur schreibt unter anderem bei einem Pufferüberlauf den Angreifercode in dafür nicht gedachte Speicherbereiche. Das erleichtert den Manipulationsversuch. Es gibt noch weitere Möglichkeiten wie Formatstringangriffe. In so einem Fall übergibt das Programm Benutzereingaben ungefiltert an Formatierungsfunktionen. Auch können Hacker oft eigenes Codes ausführen lassen, die ihm Privilegien des angegriffenen Programms via Shell liefern. Exploits lassen sich wie folgt klassifizieren:

  • Remote-Exploits
  • lokale Exploits
  • DoS-Exploits
  • SQL-Injection-Exploits
  • Command-Execution-Exploits
  • Zero-Day-Exploits

Lokale Exploits werden beim Öffnen von scheinbar völlig harmlosen Dateien wie etwa Officedokumenten aktiviert, wenn die Anwendung für diesen Dateityp durch eine unsaubere Verarbeitung eine Sicherheitslücke aufweist. Der Exploit kann sich in einer Excel- oder Worddatei und auch in einem PDF-Dokument verbergen. Er nutzt die Sicherheitslücken im betreffenden Programm aus und erhält damit eine höhere Privilegienstufe. Mit dieser kann er schädlichen Code ins Betriebssystem laden. Die gesamte Aktion heißt Payload (Nutzlast).

Es gibt etliche Exploit-Frameworks wie Metasploit, die ein separates Konfigurieren der Payload ermöglichen, doch sie kann auch im Exploit fest verankert sein. Remote-Exploits werden aus dem Netz mit manipulierten Datenpaketen eingespielt. Sie zielen auf Schwachstellen der Netzwerksoftware. DoS-Exploits lösen einen Denial-of-Service-Angriff aus, überlasten also das System, führen aber keinen fremden Programmcode aus und beinhalten auch keine Privilegieneskalation. Command-Execution-Exploits erlauben dem Angreifer, die Ausführung des Programmcodes auf dem angegriffenen Rechner zu steuern. Diese Exploits gelten als sehr gefährlich, weil sich damit das angegriffene System komplett übernehmen lässt. SQL-Injection-Exploits zielen speziell auf SQL-Datenbanken.

Beispiele für Hackerangriffe mit Exploits

2012 schaltete ein Exploit den Securitymanager von Java ab und konnte danach auf den betroffenen Rechnern beliebige Programme starten. 2014 trat eine Zero-Day-Lücke in MS-Office-Dokumenten nahezu aller Windowsversionen auf. Ebenfalls im Jahr 2014 griffen Hacker mit einem SQL-Injection-Exploit Kundendaten aus dem Playstationnetzwerk von Sony ab. Ebenfalls mit einem SQL-Injection-Exploit wurde das beliebte CMS WordPress im Jahr 2015 angegriffen. Die Sicherheitslücke befand sich im Analytics-Plug-in Slimstat. Rund eine Million Websites weltweit hätten damit von Hackern übernommen werden können. Der tatsächliche Schaden war weitaus geringer. Hacker testen vielfach nur Exploits, um sie gegebenenfalls zu einem späteren Zeitpunkt zu verwenden.

Gefahren durch Zero-Day-Exploits

Zero-Day-Exploits geben den Entwicklern null Tage (zero days) Zeit für einen Sicherheitspatch. Hacker wissen, dass neue Programme anfällig für Schwachstellen sind, weshalb sie gezielt auf Zero-Day-Exploits setzen. Die Gefahr besteht darin, dass die Schwachstelle manchmal erst lange nach diesem ersten Angriff aufgedeckt wird. Die Hacker selbst halten die Zero-Day-Exploits geheim, damit sie lange mit ihnen operieren können. Sie handeln auch untereinander damit oder bieten sie den Softwareentwicklern für hohe Summen an, was praktisch eine Erpressung darstellt.

Mit der zunehmenden Digitalisierung und damit der steigenden Programmvielfalt werden auch Zero-Day-Exploits immer interessanter: Die Preise hierfür haben sich im letzten Jahrzehnt in etwa verzehnfacht. Allerdings nutzt der Staat der Exploits ebenfalls. Der BND kauft offenbar Zero-Day-Exploits an und hört damit SSL-Verschlüsselungen ab. Solche Exploits kosten teilweise 100.000 Dollar. Die Bundesregierung soll dem BND für eine entsprechende Aktion (Codename „Swop“) allein 2015 rund 4,5 Millionen Euro zur Verfügung gestellt haben.

Gegenreaktion der Softwareentwickler

Private Entwicklerfirmen und staatliche Organe suchen seit etwa 2015 sehr gezielt und intensiv selbst nach möglichen Exploits, um die Sicherheitslücken schneller schließen zu können. Sobald sie diese erkannt haben, veröffentlichen die Hersteller Patches, mit denen die eigenen Systeme abgesichert, aber auch die Hackersysteme angegriffen werden. Das ist schon praktischer Cyberwar. Dieser dürfte sich künftig verschärften, weil heute alle modernen Systeme digitalisiert sind und durch Exploits große Gefahren für die Infrastruktur bestehen. Schon 2014 wurde nachgewiesen, dass sich sogar die digitale Steuerung moderner Autos per Exploit übernehmen und sich die Fahrzeuge damit fernsteuern lassen. Schwachstellen für Hackerangriffe fanden sich unter anderem in Infotainmentsystemen.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung


Soft Robotics, also “weiche Roboter”, imitieren Bewegungsabläufe aus der Natur. Statt starrer Materialien werden weiche, organische Strukturen in der Robotik eingesetzt.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung

Roboter, die sich unmenschlich und abgehakt bewegen, gehören der Vergangenheit an. Soft Robotics imitieren Bewegungen aus der belebten Natur. Das ermöglicht neue Einsätze in der Industrie, denn die Technologie lässt sich von der Biologie inspirieren.

Roboter sollen auf diese Weise intuitiv und einfühlsam agieren können. Neben weichen Strukturen erreichen das Sensoren oder Algorithmen. Forschende arbeiten an der Weiterentwicklung, darunter Material- und Biomechanikforscher. Softwareentwickler machen das Team komplett.

Hauptanwendungsfelder finden sich in der Industrie. Aktuell werden immer noch sehr viele Roboter eingesetzt, die zwar smart agieren können, dafür aber nicht nachgiebig sind. Roboter sollen Menschen unterstützen und Hand in Hand mit ihnen arbeiten. Das ist auch das Ziel von Soft Robotics. Sie können vor allem im Bereich der Pflege, zum Beispiel als Serviceroboter, eingesetzt werden. Auch als Assistenzroboter in der Medizintechnik sind sie denkbar.

Warum sind harte Roboter ein Nachteil?

Industrieroboter sind aus der Produktion nicht mehr wegzudenken. Sei es bei der Produktion von Autos oder dem Zusammensetzen von Smartphones: Robotics ist Teil unseres Lebens. Doch sie haben einen entscheidenden Nachteil: Bei dem direkten Austausch mit Menschen sind sie zu hart und können sogar Verletzungen hervorrufen. Softe Roboter sind so weich, dass in der Pflege oder als Servierer in einem Restaurant keine unangenehmen Aufeinandertreffen geschehen können. Die neuartige Struktur macht es möglich.

Wie weit ist der Forschungsstand von Soft Robotics?

Soft Robots befinden sich in stetiger Entwicklung, werden heute aber schon eingesetzt. Das Fraunhofer-Institut und Vertreter aus der Industrie forschen beispielsweise an der Entwicklung. Zu Demonstrationsobjekte zählen unter anderem X‑förmige Kriechroboter und fisch- sowie rochenartige Roboter. Der Bau ist angelehnt an die Natur.

Außerdem gibt es Soft Roboter, die Händen ähneln und greifen können. Das Potenzial für Wissenschaft und Industrie ist groß.

Wie werden Soft Robots hergestellt?

Ein Soft Roboter benötigt neben dem Material eine intelligente Software. Algorithmen paaren sich mit naturnahen Formen. Funktion und Design sollen möglichst naturtreu sein oder gar an ein Tier erinnern. Komplexere Roboter werden aus CAD-Dateien in generativen Fertigungsverfahren erstellt.

Die verwendeten Materialien bestehen in der Regel aus:

  • natürlichem Gewebe wie Muskeln, Haut, Knorpel
  • Elastischen Materialien
  • Hydrogele

Damit sich der weiche Roboter auch geschmeidig bewegen kann, wird eine Aktorik benötigt. Diese lässt die einzelnen Komponenten bewegen. Hier kommen entweder Spanndrähte, elektroaktive Polymere oder Formgedächtnismaterialien zum Einsatz. Das können Silicone sein. Über Reize wie Licht, Temperatur oder Strom werden Kräfte gezielt in die Struktur des Roboters geleitet. Dieser Prozess kann auch mechanisch verlaufen.

Auf jeden Fall bedarf es ausreichender elektronischer Komponenten, um den Roboter zu steuern.

Welche Herausforderungen bestehen?

Beim Betrieb von Soft Robotics gibt es eine zentrale Herausforderung: die Energieversorgung. Im besten Fall gibt es tragbare Energiequellen, die ebenfalls klein und weich sind. Das können zum Beispiel Miniatur-Kompressoren sein. Aktuell wird an Batterie-Systemen gearbeitet.

Die Sensoren von weichen Robotern

Ohne Sensoren kommen softe Roboter nicht aus. Da an den speziellen Robotern alles weich ist, sind es die Sensoren im besten Fall auch. Sie messen Verformungen und können unter anderem Rückschlüsse auf die Steifigkeit des Roboters ziehen.

Softsensoren sind:

  • Softe Dehnungssensoren
  • Weiche Biegesensoren
  • Drucksensoren
  • Kraftsensoren

Softe Roboter als Exoanzüge

Exoanzüge kommen bei der Rehabilitation von Patienten zum Einsatz. Sie helfen Senioren und kräftigen den Körperaufbau. Soft Robotics kann auch hier genutzt werden. Forschende aus Harvard haben aus den Materialien einen Exoanzug entwickelt, der nicht mehr steif sich an den Bewegungsapparat des Menschen anpasst. Dabei handelt es sich um Metallgerüste, die mit motorisierten Muskeln ausgestattet sind. Die weicheren Roboteranzüge spiegeln die innere Skelettstruktur des Trägers wider. Angehobene Gegenstände fühlen sich in einem Exoanzug viel leichter – fast schwerelos – an. Verletzungen auf der Arbeit werden verhindert.

Was bedeutet “false balance”? Bedeutung, Definition, Erklärung


Die „false balance“ ist eine falsche Ausgewogenheit oder Gleichgewichtung von Argumenten zu einem Thema. Sie spielt vornehmlich im Wissenschaftsjournalismus eine Rolle, der auch politisch stark beachtet wird und daher auf eine ausgewogene Berichterstattung achten sollte.

Ein Beispiel wäre die unangemessen starke Darstellung von Argumenten der Leugner eines menschengemachten Klimawandels. Es gibt solche Argumente, doch sie werden von einer absoluten Minderheit (weniger als ein Prozent aller Wissenschaftler) vertreten. Ihnen also in der medialen Berichterstattung einen Raum von deutlich mehr als einem Prozent einzuräumen wäre eine „false balance“.

Effekte der „false balance“

Der wichtigste Effekt der unausgewogenen, nämlich nahezu gleichwertigen Darstellung von Minderheiten- und Konsensmeinung ist der öffentliche Eindruck, die Argumente beider Lager seien gleichwertig. Das sind sie nicht, wenn eine teilweise überwältigende Mehrheit aller Forscher zu einem einheitlichen Ergebnis kommt, das der Minderheitenmeinung widerspricht. Allerdings müssen Minderheitenmeinungen zugelassen und auch publiziert werden. Das gibt es nicht nur in der Wissenschaft, sondern beispielsweise auch vor Gericht: Hier würdigt der Richter vom Grundsatz her zunächst vier Meinungen: die beiden Meinungen der Kontrahenten, eine Mehrheitsmeinung unter den Juristen und eine Minderheitenposition.

Manchmal setzt sich auch Letztere durch, wenn sie deckungsgleich mit der Meinung eines der Kontrahenten ist, der sie sehr gut mit Argumenten unterfüttert. Das bedeutet: Minderheitenmeinungen können manchmal richtig sein, auch wenn daran momentan nur sehr wenige Menschen glauben. In der Wissenschaft verhält es sich genauso. Das von Nikolaus Kopernikus (1473 – 1543) vertretene heliozentrische Weltbild, an das übrigens vor ihm schon andere Astronomen geglaubt hatten, war damals eine Minderheitenmeinung, denn nach christlicher Auffassung stand die Erde im Mittelpunkt der Welt. Dieser Meinung schlossen sich diverse Astronomen und die breite Mehrheit der Bevölkerung an, weil ja auch der Augenschein zu belegen scheint, dass sich die Sonne und andere Himmelskörper um die Erde drehen.

Die Minderheitenmeinung wurde dementsprechend unterdrückt, Giordano Bruno (1548 – 1600) landete für diese Position auf dem Scheiterhaufen (und wurde übrigens erst im Jahr 2000 durch Papst Johannes Paul II. rehabilitiert). Daraus schließen wir, dass Minderheitenmeinungen durchaus gehört werden sollen und es sträflich wäre, ihre Anhänger zu diskriminieren oder gar auf den Scheiterhaufen zu schicken – selbst wenn sie den menschengemachten Klimawandel leugnen. Nur muss die Berichterstattung zu ihren Argumenten ausgewogen ausfallen, damit keine false balance entsteht. Diese kann durchaus gefährlich sein. Menschen schätzen dann aufgrund einer verzerrten Wahrnehmung Risiken falsch ein. Dies war zum Beispiel zu Beginn der Coronapandemie der Fall. Es wurde im ersten Halbjahr 2020 noch übermäßig stark darüber diskutiert und publiziert, welchen Sinn eine Maskenpflicht hat. Die Mehrheit der Wissenschaftler war sich zwar längst darüber einig, dass besonders FFP2-Masken sehr effektiv schützen können, doch die false balance in der Berichterstattung führte bei vielen Menschen zur Maskenverweigerung wegen vermeintlicher Risiken des Maskentragens bei vermeintlicher Nutzlosigkeit der Masken.

Wie kann der Wissenschaftsjournalismus eine false balance unterbinden?

Wissenschaftsjournalisten sollten die Belege für eine Theorie genau überprüfen. Wenn diese fehlen oder sehr schwach sind, könnte die Theorie schwach sein. Des Weiteren können sie evaluieren, wer unter den anerkannten Wissenschaftlern sich welcher Meinung anschließt. Auch sind Argumentationsketten von Vertretern einer Meinung interessant.

Wer eine Position als „wissenschaftlich“ darstellt, aber wenig bis keine wissenschaftlichen Nachweise vorweisen kann und sogar Informationen unberücksichtigt lässt, die seine Meinung widerlegen, ist offenkundig auf dem Holzweg. Diese Evaluation von Wissenschaftsjournalisten ist vor allem dann wichtig, wenn eine Meinung neu auftaucht und sich die Wissenschaftswelt bislang wenig dazu positioniert hat. Es ist dann noch nicht feststellbar, dass es sich um eine Minderheitenmeinung handelt. Da bislang wenig dazu publiziert wurde, ist auch noch keine false balance festzustellen.

Die Journalist*innen können sich also noch nicht an mehrheitlichen Meinungen orientieren. Beim Klimawandel ist das mit Stand 2021 sehr viel einfacher: Nach einschlägigen Untersuchungen (Sichtung von Publikationen zum Thema) glauben ~99 % aller Wissenschaftler, dass die Industrialisierung seit dem 19. Jahrhundert unseren gegenwärtigen Klimawandel verursacht hat und noch verursacht. Wer also eine haltlose Gegenthese als plausibel präsentiert, muss mit viel Gegenwind rechnen. Sollte aber dieser These zu viel Raum in der öffentlichen Berichterstattung gegeben werden, wäre dies eine false balance. Es genügt für die ausgewogene Darstellung, die These als „Gut-zu-wissen-Information“ am Rande zu erwähnen. Dass es zu einer false balance im Wissenschaftsjournalismus kommt, hat zwei Gründe:

  • #1 Die Journalisten kennen natürlich das oben zitierte Beispiel von Kopernikus und Giordano Bruno. Es gibt diverse weitere solcher Geschichten aus der Wissenschaftsgeschichte. Sie möchten daher nicht als Unterdrücker einer Minderheitenposition dastehen, die sich möglicherweise irgendwann einmal als richtig erweist.
  • #2 Manche Minderheitenpositionen sind auf den ersten Blick so spannend, dass sie auch von seriösen Journalisten gern zitiert werden – vor allem dann, wenn diese Berichterstattung eigentlich keinen Schaden anrichtet, sondern eher dem Infotainment dient. Berichte über UFO-Sichtungen fallen möglicherweise in diese Kategorie. Die Allgemeinheit findet es sehr interessant, dass vielleicht Aliens unter uns wandeln oder uns von einem benachbarten Sonnensystem aus beobachten. Die seriöse Wissenschaft hält das für extrem unwahrscheinlich, doch was macht es schon, darüber zu berichten?

Gibt es eine false balance auch bei anderen Themen?

Der Begriff wird nur für Fachthemen und speziell für den Wissenschaftsjournalismus verwendet. Bei der politischen Berichtserstattung ist es hingegen sinnvoll, gegensätzliche Meinungen durchaus gleichwertig darzustellen. Das wird auch so praktiziert, wie wir aus diversen Talkshows wissen. Dort wird sogar penibel darauf geachtet, den Kontrahenten die annähernd gleiche Redezeit einzuräumen, selbst wenn einer von ihnen eine (absolute) Minderheitenposition vertritt. Die Öffentlichkeit muss das aushalten, auch wenn dadurch Vertreter extremer Positionen zu Wort kommen. Solange diese Vertreter legal handeln und sogar in den Bundestag gewählt wurden, haben sie ein Anrecht darauf, gehört zu werden. In der Wissenschaftswelt hingegen, die mit Studien und handfesten Nachweisen operiert, ist es legitim, der Mehrheitsposition auch mehr Platz für die Darstellung zu geben, damit keine false balance entsteht.

Beispiele für false balance und ihre Folgen

Die Tabakindustrie leugnete bis ins letzte Drittel des 20. Jahrhunderts die gesundheitlichen Gefahren des Rauchens. Es gab zwar schon vor mindestens 100 Jahren Studien, die solche Gefahren aufzeigten, doch es gab auch immer Gegenstudien. Die Lobbyisten der Tabakindustrie schafften es, Gegenargumente („Rauchen ist nicht oder nur sehr wenig schädlich“) so aufzubauschen, dass in der Öffentlichkeit ein verzerrtes Bild von den Gesundheitsgefahren entstand und bis heute Tabakrauchen erlaubt ist.

Eigentlich müsste es wie viele andere Drogen verboten werden. Die Tabaklobbyisten nutzten den Wunsch der Wissenschaftsjournalisten nach einer ausgewogenen Berichterstattung aus und ließen dadurch eine gefährliche false balance entstehen. Auch dass Journalisten gern Kontroversen aufgreifen, spielte dieser false balance in die Hände. Im Jahr 2021 gibt es im Grunde keine Kontroverse mehr dazu: Tabakrauchen ist schädlich und Punkt, niemand widerspricht mehr. Bis zu dieser Einsicht vergingen viele Jahrhunderte mit vielen Millionen Tabaktoten.

Ein jüngeres Beispiel für false balance liefern die Kontroversen um den menschengemachten Klimawandel. Diese false balance ist gut untersucht. So berichteten zwischen den 1980er-bis frühen 2000er-Jahren zumindest US-Medien so „ausgewogen“ zum Thema, dass die Öffentlichkeit zweifeln musste, ob nun der Mensch oder andere Einflüsse den Klimawandel auslösen. Rund 53 % aller Zeitungsartikel jener Zeit gaben beiden Meinungen in etwa gleich viel Raum: Menschen verursachen den Klimawandel, oder sie tun es nicht. Das wirkte bis zur Präsidentschaft von Donald Trump ab 2016 nach, der sich immer noch auf Argumente der Leugner eines menschengemachten Klimawandels stützte, um die einheimische Kohleindustrie nicht zu gefährden.

Bis in die frühen 2000er-Jahre betonten 35 % aller Artikel in US-Medien, dass die Erderwärmung eindeutig vom Menschen kommt, ließen aber die Gegenthese von den natürlichen Ursachen ebenso gelten, wenn auch mit weniger Raum. Lediglich 6 % der Artikel publizierten den schon damals vorherrschenden wissenschaftlichen Konsens, dass wir Menschen unser Klima beschädigen. Die false balance zu diesem Thema nahm übrigens zwischen den frühen 1980er- und den späten 1990er-Jahren nicht ab, sondern zu: Es setzten gezielte Desinformationskampagnen einer organisierten Klimaleugnerszene ein, die vermutlich durch die Kohle- und Autolobby gesponsort wurde. Also stellten die Wissenschaftsjournalisten vermehrt die Argumente beider Seiten dar, was zu jener Zeit schon eine extreme false balance bedeutete.

Was sind Trap Streets und Paper Towns? Bedeutung, Definition, Erklärung


Immer dann, wenn von sogenannten Trap Streets und Paper Towns die Rede ist, handelt es sich um Fälschungen. Eine Vielzahl dieser Fälschungen beziehen sich auf Karten, die bei Google Maps veröffentlicht worden sind.

Kuriose Straßennamen und Ortsbezeichnungen

Der Bonner Galgenpfad oder Vordery in Hamburg sind nur einige von vielen dieser Beispiele. Im Falle dieser beiden Straßenbezeichnungen wird dem Nutzer einer Karte unter Umständen nicht im ersten Momenten ersichtlich werden, dass es sich hierbei um Fake-Bezeichnungen handelt, denn Straßen dieser Art gab es nie und wird es unter Umständen auch nie geben.

Doch was ist der Sinn einer solchen irreführenden Bezeichnung? Warum werden diese falschen Straßennamen oder in einigen Fällen sogar ganze Landschaftszüge, die so nicht existieren, hier vermerkt? Im Prinzip ist es ganz einfach. Jeder Kartenhersteller, der diese Bezeichnungen in einer neu veröffentlichten Karte einsehen kann, hat nun die Möglichkeit ein Plagiat aufzudecken. Der Diebstahl geistigen Eigentums und auch die Kopie von Karten sind keine Bagatellen. In nicht wenigen Fällen landen Vorgänge dieser Art vor dem Gericht und werden hart bestraft.

Was sind Trap Streets? Bedeutung, Definition, Erklärung

Bei den sogenannten Trap Streets handelt es sich, wie bereits angedeutet, um falsche Straßen, die in der Realität nicht existent sind. Die Kopie des jeweiligen Kartenwerks soll somit um ein Vielfaches erschwert werden. Man könnte hier auch sagen, dass eine Trap Street eine gute Alternative zu einem klassischen Wasserzeichen darstellen kann.

Besonders oberflächliche und wenig gewissenhafte Kartendiebe und Fälscher werden die fehlerhaften Einträge nicht bemerken und somit auch in die Raubkopie übernehmen. Mitunter werden Trap Streets allerdings auch verwendet, um andere Nutzer ganz bewusst in die Falle zu locken oder zumindest zu täuschen. Dies war bereits im Zweiten Weltkrieg üblich. Hier hatte die Sowjetunion den gegnerischen Truppen ganz bewusst falsche Karten zukommen lassen, damit diese in Schwierigkeiten gerieten.

Was konkret sind Paper Towns? Bedeutung, Definition, Erklärung

Bei den sogenannten Paper Towns handelt es sich schlichtweg um frei erfundene Städte. Auch hier wurde in der Vergangenheit versucht andere Nutzer zu täuschen. Im Falle eines Plagiats wird der Fälscher wohl auch in diesem Fall die falschen Städte übernehmen.

Vielen Menschen ist der Begriff Paper Towns allerdings auch noch in einem komplett anderem Zusammenhang geläufig. Hierbei handelt es sich um einen Film aus dem Jahre 2015, der eine Romanverfilmung von John Green ist und insbesondere bei allen Liebhabern romantischer Mysterien-Verfilmungen sehr beliebt sein dürfte.

Die Liste von Fake-Orten ist unendlich lang

Eine ganz besonders berühmte Paper Town ist Argleton. Diese Stadt wurde im Nordosten von England verortet. Es handelte sich um eine lebhafte Stadt mit bedeutenden Hotels und Geschäften, zumindest in der Fantasie des Verfassers, denn Argleton ist ein mehr oder minder unbedeutendes Feld. Vom bunten Treiben einer nordenglischen Stadt kann hier also tatsächlich keineswegs die Rede sein.

Die benannten Häuser, Geschäfte und Hotels gab es allerdings in der Realität tatsächlich. Jedoch befanden sich diese einige Kilometer weit entfernt. Als es zu diesem Eintrag kam, hatte Google Maps noch nicht alle Straße und Orte selbst abgefahren. Als der Schwindel im Jahre 2009 aufflog, wurde dieser Eintrag dann jedoch ordnungsgemäß entfernt.

Eine überaus berühmte Trap Street ist die Moat Lane im Norden von London. Sie gilt bzw. galt bis zu ihrer Löschung seitens Google Maps als überaus reich an Kurven. Sie befand sich über mehrere Jahre vollkommen zu Unrecht als Eintrag auf Google Maps.

Kartenfälschungen sind ein lukratives Geschäft

Wer hochwertige Karten (heute vor allem digitale Karten) in den Umlauf bringt, kann damit durchaus sehr viel Geld verdienen. Diese selbst zu erstellen und ausreichend Recherche zu betreiben ist jedoch sehr aufwendig. Um die Arbeit entsprechend zu erleichtern versuchen Betrüger durch Fälschungen schneller ans Ziel zu kommen. Wer dabei erwischt wird, muss allerdings mit empfindlichen Geldstrafen rechnen. Trap Streets und Paper Towns sind in diesem Zusammenhang eine wirklich sehr gute Möglichkeit eine solche Fälschung zielgerichtet aufzudecken und nachzuweisen.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung


Immer dann, wenn von einem sogenannten Reply Deboosting die Rede ist, geht es um den bekannten und weltweit genutzten Nachrichtendienst Twitter. Konkret geht es hier um Antworten bei Twitter, die auf einen bestimmten Kommentar oder Beitrag erfolgen. Die jeweiligen Antworten sollen dann durch eine spezielle interne Funktion ausgeblendet werden.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung

Sieht man sich mit einem unbekannten aus der englischen Sprache stammenden Begriff konfrontiert, wird es zunächst sinnvoll sein, eine wörtliche Übersetzung herauszufinden. In diesem Fall ist dies jedoch leider wirklich alles andere als sinnvoll, denn der Begriff Reply Deboosting kann praktisch nicht einfach wörtlich übersetzt werden. Wer wirklich wissen möchte, was sich hinter dieser Begrifflichkeit verbirgt, sollte sich vorzugsweise mit den Funktionen des Nachrichtendienstes Twitters befassen.

Wie bereits angedeutet werden beim sogenannten Reply Deboosting Antworten auf einen Beitrag oder Kommentar per Standard ausgeblendet. Wer dennoch mehr erfahren möchte, muss nun einen zusätzlichen Klick vornehmen. Hierfür gibt es die Funktion „Weitere Antworten anzeigen“. Ist dieser Vorgang ausgeführt erscheinen nun alle verdeckten Antworten.

Unterschiede zwischen Followern und weiteren Mitgliedern auf Twitter

Datenschutz und Anonymität sind wichtige Werte in den sozialen Netzwerken und bei sämtlichen Nachrichtendiensten. Dies hat sich auch bei Twitter verstetigt. Die sogenannte Funktion „Weitere Antworten anzeigen“ ist aus diesem Grund nicht unabhängig vom Status nutzbar. Ist man kein Follower des betreffenden Accounts, erhält man keinen Zugriff auf die zusätzlichen Antworten.

Ausblenden negativer Inhalte

Das sogenannte Reply Deboosting ist jedoch nicht nur unbedingt im Sinne des Datenschutzes und der Privatsphäre erfunden worden. Man kann sich als User regelrecht für ein Reply Deboosting qualifizieren.

Es liegt hier vollkommen in der Macht des Nachrichtendienstes Twitters einzelne Nutzer mit dem Reply Deboosting zu belegen. Hier können dann standardmäßig die Antworten einer bestimmten Person ausgeblendet werden. Dies ist natürlich insbesondere immer dann der Fall, wenn sich ein ganz bestimmter User durch beleidigende oder herabwürdigende Bemerkungen im großen Umfang hervorgetan hat.

Wurde man von Twitter mit einer solchen Funktion belegt, gibt es praktisch keinen realistischen Ausweg mehr. Man kann hier auch nicht zurückrudern, Kommentare richtig stellen oder gar ständig liebevolle Tweets veröffentlichen. Zwar sind diese Dinge aus technischer Sicht durchaus umsetzbar, allerdings erlangt man den alten Standard nicht wieder zurück. Es bleibt auf Dauer bei dieser durchaus sehr unbeliebten Funktion.

Reply Deboosting: Eine neue Form der Sicherheit

Das Internet ist kein rechtsfreier Raum und somit gelten auch auf Twitter überaus strenge Regeln der Kommunikation. In der digitalen Welt ist es besonders leicht bestimmte Leute zu beleidigen oder in die Ecke zu drängen, weil man diesen nicht direkt in die Augen schauen muss. Genau dies weiß auch Twitter und hat mittels Reply Deboosting eine einfache und vor allem auch sehr effektive Funktion geschaffen, die vorbeugt und zudem auch jeder Person einleuchtet.

Ist man mit dieser Funktion belegt, hat man natürlich erhebliche Nachteile und kann Twitter nur noch recht eingeschränkt nutzen. Wer sich jedoch auf Dauer an alle geltenden Regeln hält, wird in diesem Bereich überhaupt keine Probleme bekommen.

Durch die Funktion Reply Deboosting werden Nutzer nicht einseitig eingeschränkt, sondern bestimmte Nutzer vor Beleidigungen und Nachteilen beschützt. Dieses Vorgehen durch den Nachrichtendienst Twitter ist im besonderen Maße vorbildlich und kann außerdem in jedem Fall als sehr fortschrittlich erachtet werden.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung


Das sogenannte Subtweeting wird insbesondere auf dem berühmten und sehr erfolgreichen Nachrichtendienst Twitter zum Einsatz gebracht. Die sogenannten Subtweets nehmen dabei Stellung zu bereits gemachten Kommentaren. Allerdings haben diese immer auch einen ganz bestimmten Bezug zu den Äußerungen einer Person. Subtweets sind dabei nicht selten herablassend, hinterhältig oder zumindest sehr stark kritisierender Natur.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung

Jeder kennt es, wenn man hinter dem Rücken einer anderen Person redet. Unter Umständen ist man selbst auch schon Opfer einer solchen Diffamierung geworden und hat es dann später durch Zufall erfahren müssen.

Beim Subtweeting handelt es sich demnach um das Äquivalent zur realen Welt. Doch warum spricht man hier nun davon, dass etwas hinter dem Rücken einer Person geschieht? Dies ist deswegen der Fall, weil die genannte Person nicht direkt angesprochen wird. Darüber hinaus erfolgt auch innerhalb des Subtweets keine direkte Nennung der Person. Hierbei ist für andere jedoch oft ersichtlich, dass es sich um eine ganz bestimmte Person handelt und dieser kritisiert oder gar herabgelassen werden soll.

Verdeckte und offene Subtweets

Wie das jeweilige Subtweeting genau ausgestaltet wird, hängt immer auch vom jeweiligen Autor des Subtweets und den damit verbundenen technischen Möglichkeiten zusammen. So kann es durchaus sein, dass ein Kommentar für die jeweils angesprochene Person nicht sichtbar ist. Andere Personen können jedoch dieses Subtweet sehen und sich darüber auslassen.

In anderen Fällen kann das Subtweeting jedoch auch vollkommen offen erfolgen. Die gemeinte Person nimmt dann auch alle weiteren Einträge wahr und hat zudem selbst die Möglichkeit darauf zu reagieren.

Eine Kette, die endlos sein kann

Ein Subtweet muss nicht unkommentiert bleiben. Aus einem einzigen Subtweet kann eine durchaus sehr aufgeheizte digitale Unterhaltung entstehen. Dabei muss es außerdem nicht immer sachlich bleiben. Letzteres hängt vor allem auch von der Brisanz des jeweiligen Themas ab. Je brisanter das Thema, desto heftiger ist am Ende oft auch die Konversation. Diese Unterhaltung kann lange und zähe Ausmaße annehmen und somit unendlich wirken.

Mitunter am Rande der Legalität

Im Netz kann man, wie im öffentlichen Leben auch, seine Meinung frei äußern und zur Geltung bringen. Dies sollte jedoch dort enden, wo andere User offen beleidigt, in die Ecke gedrängt oder Umständen sogar bedroht werden. Die Meinungsfreiheit darf nun einmal nicht dazu genutzt werden, um Straftaten zu begehen.

Wird man im Netz offen angegriffen, kann man sich im schlimmsten Fall auch juristisch dagegen wehren. Zudem drohen den Verfassern eventueller Hasskommentare auch Nachteile und Sanktionen seitens der Plattform. So könnte ein Nachrichtendienst, wie zum Beispiel Twitter Subtweets entsprechend löschen. Darüber hinaus können Nutzer, die mehrfach gegen die Richtlinien verstoßen, von der Plattform entfernt und somit gelöscht werden.

Subtweeting ist nicht immer unbedingt nur negativ

Subtweets haben tendenziell einen eher schlechten Ruf. Doch genau dies ist mehr oder weniger unnötig, denn Subtweeting pauschal zu verurteilen ist im Prinzip vollkommen falsch.

Im Netz gibt es immer wieder User, die besonders gern auf einen Kommentar antworten und aus diesem Grund sich voll und ganz dem Subtweeting hingeben. Dies muss absolut nicht verwerflich sein und entspricht in vielen Fällen den geltenden Normen und Regeln.

Besonders ist beim Subtweeting jedoch nur, dass bestimmte Personen nicht direkt genannt oder offen angesprochen werden. Man agiert sozusagen gegenüber einer anderen Person anonym. Dies kann durchaus eine Reihe von Ursachen haben. Mitunter möchten, die Leute, die einen Subtweet verfassen, andere Menschen nicht in Verlegenheit bringen. In einem anderen Fall möchte man sich vielleicht auch selbst einfach nicht in Verlegenheit bringen und handelt daher verdeckt.

Was ist “Petrichor”? Bedeutung, Definition, Erklärung


Unter “Petrichor” wird der typische und unverwechselbare Geruch verstanden, der bei Regen aufkommt. Genauer gesagt: wenn der Regen zu Beginn eines Schauers auf die zunächst noch trockene Erde fällt.

Was ist “Petrichor”? Bedeutung, Definition, Erklärung

Bei dem Begriff handelt es sich um eine Zusammensetzung zweier Wörter aus dem Altgrichischen, nämlich einerseits “Petros” für Stein und andererseits “Ichor”, das die Flüssigkeit bezeichnet, das anstelle von Blut in den Adern der klassischen griechischen Götter geflossen sein soll.

Und obwohl es sich bei Petrichor um ein natürliches Phänomen handelt, das den Menschen folglich seit tausenden von Jahren bekannt ist, wurde der Begriff erst 1964 erstmals verwendet, und zwar von den australischen Chemikern Isabel J. Bear und Richard G. Thomas in einem Artikel für das britische Fachmagazin “Nature”. In ihrem Beitrag lieferten die Forscher erstmals eine wissenschaftliche Erklärung für das Zustandekommen des typischen Geruchs.

Die Wissenschaft hinter dem Petrichor

Bear und Thomas beschreiben in ihrem Artikel, dass bestimmte Pflanzen während trockener Perioden ein gelbliches, ätherisches Öl mit komplexer Zusammensetzung – mehr als 50 Stoffe sind beteiligt – freisetzen, das anschließend von Gesteinen und tonhaltigen Böden aufgenommen und gespeichert wird. Beginnt es nun zu regnen, dann gelangt dieses Öl in die Luft, und zwar gemeinsam mit einer anderen Substanz, dem Geosmin. Dies ist ein von im Boden lebenden Mikroorganismen produzierter Alkohol, der einen stark muffigen Geruch besitzt und generell für den typischen Geruch von Erde – und auch von Schimmelpilzen – verantwortlich ist. Die menschliche Nase ist aus bislang nicht geklärten Gründen äußerst empfindlich für Geosmin, sie kann es schon bei einer geringen Konzentration von nur 0,1 Teilen pro Milliarde wahrnehmen.

Wenn nun das Öl und das Geosmin bei einsetzendem Regen gemeinsam an die Luft gelangen, dann vermischen sie sich dort und erzeugen zusammen den unverkennbaren “Regengeruch”, den Petrichor.

Etwas später konnten Bear und Thomas auch erklären, was die eigentliche Funktion des von den Pflanzen abgesonderten Öls ist. Im Jahr 1965 veröffentlichten sie, wiederum in der “Nature”, einen weiteren Artikel, in dem sie darlegten, dass das Öl dazu dient, die Keimung von Pflanzensamen und das frühe Pflanzenwachstum in der Trockenzeit zu verzögern.

Im Jahr 2015 schließlich konnten Wissenschaftler des Massachusetts Institute Of Technology mithilfe von Hochgeschwindigkeitskameras auch den genauen physikalischen Prozess der Freisetzung von Petrichor beobachten und entschlüsseln. Hierzu führten sie insgesamt etwa 600 Experimente mit 28 Bodenoberflächen und verschiedenen Arten von Regen durch. So stellten die MIT-Forscher fest, dass ein Regentropfen, der auf eine poröse Oberfläche fällt, dazu führt, dass die Luft in der Pore winzige Bläschen bildet. Diese steigen an die Oberfläche des Tropfens, wo sie platzen und dabei Aerosole freisetzen. Diese Aerosole tragen die Duftstoffe, aber auch Bakterien und Viren in die Luft. Tendenziell scheinen langsam fallende Regentropfen eine größere Menge an Aerosolen freizusetzen. Es wird angenommen, dass dies der Grund dafür ist, dass Petrichor besonders bei leichtem Regen auftritt. Wenn es zu lang oder zu stark regnet, bildet das Wasser gar eine undurchlässige Schicht auf dem Erdboden. Aerosole können dann nicht mehr freigesetzt werden, und der Petrichor verschwindet.

Die Aerosole, die sich beim Regen bilden, sind so klein, dass sie schon vom leisesten Lufthauch weggeweht werden. Deshalb ist es möglich, Regen schon zu riechen, wenn er noch kilometerweit entfernt ist.

Petrichor in der weiteren Forschung

Da Petrichor zuerst in Australien wissenschaftlich untersucht wurde, verwundert es nicht, dass besonders dort auch weiter an dem Thema geforscht wurde. So geht der Biologe Hugh Tyndale-Biscoe in seinem Buch über das Leben der Beuteltiere davon aus, dass der markante Geruch bei weiblichen Kängurus die Paarungsbereitschaft auslöst. Und wenn der Duftstoff ins Wasser gelangt, dann signalisiert er offenbar den dort lebenden Fischen und Wirbellosen, dass das Wetter nun feucht genug ist, um mit der Paarung zu beginnen. Diese vermuteten Zusammenhänge müssen allerdings noch eingehender erforscht werden, bevor sie als gesichert gelten können.

Kurioses zu / über Petrichor

Da Petrichor von den meisten Menschen als angenehm empfunden wird, auch wenn einige ihn nicht ausstehen können, gibt es das Aroma längst auch künstlich zu kaufen. So werden etwa Duftkerzen oder Räucherstäbchen mit Petrichor-Geruch angeboten, und als Zusatz in Raumluft-Befeuchtern soll er für eine gute Atmosphäre daheim sorgen.

Was ist Threat Intelligence? Bedeutung, Definition, Erklärung


Threat Intelligence oder auch der Threat Intelligence Service ist für die Lieferung von aktuellen Informationen in Bezug auf die Bedrohungslage in Form von Cyberangriffen oder andere Gefahren auf die IT bzw. Netzwerke. Um die Bedrohungslage zu analysieren werden die Informationen durch den Service aufbereitet, aus unterschiedlichen Quellen zusammengestellt und dem Unternehmen bzw. dem Auftraggeber zur Verfügung gestellt.

Welche Arten von Threat Intelligence sind existent?

Threat Intelligence kann von allgemeinen, nicht-technischen Informationen bis hin zu technischen Details über bestimmte Angriffe reichen. Folgend werden die möglichen Arten von Threat Intelligence:

Die strategische Threat Intelligence: Strategische Threat Intelligence sind allgemeine Informationen, welche die etwaigen Bedrohungen in einen Kontext stellen. Die Informationen, welche den jeweiligen Unternehmen nachgewiesen werden können, sind nicht technisch. Ein mögliches Beispiel diese Art von Threat Intelligence ist bspw. eine Risiko-Analyse, welche die Entscheidung für ein Business hinsichtlich der Gefahr für Cyberangriffe untersucht und detailliert wiedergibt.

Die taktische Threat Intelligence: Bei der taktischen Threat Intelligence sind Details in Bezug auf die Ausführung und Abwehr von potenziellen Bedrohungen enthalten. Darin integriert sind unter anderem Angriffsvektoren, Infrastrukturen oder Tools, welche durch die Angreifer genutzt werden. Ergänzend dazu werden die Unternehmensarten und Technologien berücksichtigt, auf die Angriff gerichtet sine könnten sowie die dahingehend möglichen Strategien zur Vermeidung dieser Gefahren. Mit den vielfältigen Informationen können potenzielle Gefahren für Unternehmen in Bezug auf die Angriffswahrscheinlichkeit verschiedener Bedrohungen abgeleitet werden. Bei der taktischen Threat Intelligence können Expertinnen und Experten der Cyber-Sicherheit auf Basis taktischer Informationen fundierte Entscheidungen treffen können, um eine bestmögliche Sicherheitskontrolle und Verteidigungsstrategie implementieren zu können.

Die operative Threat Intelligence: Bei dieser Form werden Informationen in Verbindung mit einem aktiven Bedrohungsmanagement durch die eigenen IT-Abteilungen genutzt, damit Maßnahmen gegen einen bestimmten Angriff genutzt werden können. Dabei geht es um konkrete Informationen, welche für das Angriffsszenario genutzt werden konnten, um die Angriffsabsicht, die Angriffsart sowie den Zeitpunkt zu fixieren. Bestenfalls können diese Informationen umgehend von den Angreifern erfasst werden, um die Beschaffung zu erschweren.

Die technische Threat Intelligence: Bei dieser Art geht es um die Lieferung von konkreten Beweisen, dass derzeit ein Angriff stattfindet bzw. Indicators of Compromise (IoCs) vorliegen. Dabei handelt es sich bspw. um außergewöhnliche Netzaktivitäten, besondere Dateien, Eintragungen in Logfiles oder ungewohnte gestartete Prozesse, welche auf eine Kompromittierung eines Computersystems oder Netzwerks hindeuten.
Es gibt Tools für Threat Intelligence, welche mit Unterstützung von künstlicher Intelligenz diese Indikatoren untersucht. Dabei können bspw. Inhalte aus Phishing-Kampagnen, IP-Adressen von C2-Infrastrukturen bzw. Artefakte mit bekannten Mustern von Malware in den Mailadresse analysiert werden.

Die Umsetzungsmöglichkeiten von Threat Intelligence:

Realisierungsmöglichkeiten eines Threat Intelligence Service

Die Realisierung von Threat Intelligence Service kann sich stark unterscheiden und variieren. Bei einfachen Systemen werden aus verschiedenen Quellen Data-Feeds gesammelt. Diese Informationen wurden mit Hilfe von Positiv- oder Negativ-Listen bereinigt und individuell auf das Unternehmen bezogen. Alternative Systeme können ergänzend dazu über aktive und konkret laufende Bedrohungslagen zu informieren. In dieser Konstellation können die akuten Bedrohungen bspw. durch individuelle Meldungen in Form von Warnungen oder als proaktiver Alarm angezeigt werden.

Je nach der Leistungsfähigkeit der Threat Intelligence Services können die Informationen so aggregiert und korreliert werden, dass die gesammelten Informationen direkt an die entsprechenden Firewalls weitergegeben werden können und somit die Gefahr potenzieller Angriffe deutlich reduziert werden können. Mit Hilfe dieser Informationen kann die Firewall aus den gelieferten Informationen automatische Filter automatisch setzen und vorher fixierten Traffic eigenständig blockieren. Der Service von Threat Intelligence kann auf Basis eines Cloud-Dienstes bzw. in Form einer On-Premise-Lösung realisiert werden. Die meisten Anbieter bieten die Dienstleistungen als Abonnement mit zeitlichen Befristungen und fixierten Funktionsumfängen an.

Was sind die Vorteile von Threat Intelligence?

Durch die Nutzung von Tools für Threat Intelligence können Bedrohungen durch Cyberangriffe frühzeitig erkannt und präventiv abgesichert werden. Damit sind Unternehmen in der Lage, die stetig wachsenden Bedrohungen und Angriffsrisiken besser verstanden und frühzeitig erkannt werden. Durch die Nutzung von Threat Intelligence können Angriffe abgemildert werden, welche gegenwärtig stattfinden. Dabei gibt es verschiedene Optionen. Eine Möglichkeit ist die eigenständige Erfassung der Daten durch die firmeneigene IT-Abteilung innerhalb des jeweiligen Unternehmens. Alternativ kann ein Threat Intelligence-Service in Anspruch genommen werden. In dieser Konstellation werden Informationen gesammelt. Dabei können verschiedene Sicherheitspraktiken empfohlen werden und je nach Bedarf und Expertise angeboten werden. Dabei können bspw. Software-Defined Networking (SDN) eingesetzt werden, sodass mit Hilfe moderner Threat Intelligence Optionen die Netzwerke neu konfiguriert werden, um sich gegen diverse Optionen von Cyberangriffen zu verteidigen.

Welche konkreten Threat Intelligence-Tools sind am Markt existent?

Parallel zu kostenpflichtigen Tools im Bereich der Threat Intelligence gibt es auch kostenfreie Optionen im Bereich von Open Source-Tools angeboten. Bei der Erfassung von Informationen in Bezug auf Threat Intelligence gibt es verschiedene mögliche Herangehensweisen:

Der Malware-Disassembler: Mit diesen Tools wird durch Reverse-Engineering versucht, weitere Informationen über die Funktionalitäten von Malware in Erfahrung zu bringen. Dabei werden Sicherheitsingenieure bei relevanten Entscheidungen in Bezug auf die Abwehr von ähnlichen Angriffen in der Zukunft unterstützt.

Die Sicherheitsinformations- sowie Ereignismanagement(SIEM)-Tools: Mit den sogenannten SIEM-Tools erfolgt die Überwachung des Netzwerkes durch Teams mit dem Fokus auf die Sicherheit in Realzeit. Dabei erfolgt die Erfassung der relevanten Informationen über ungewöhnliche Verhaltensmuster sowie verdächtigen Datenverkehr.

Die weiteren Analysetools für den Verkehr im Netzwerk: Die analytischen Tools für den Traffic im Netzwerk sorgen für die Erfassung von Informationen im Bereich der Netzwerke. Ergänzend dazu werden die Aktivitäten des Netzwerkes aufgezeichnet. Mit diesen Informationen konnten Versuche von nicht gerechtfertigten Angriffen erleichtert werden.

Threat Intelligence-Communitys und Sammlungen von Ressourcen: Als wertvolle Informationsquelle in Bezug auf Bedrohungen liefern frei zugängliche Internetseiten, auf welche Indicators of Compromise bzw. generierte Daten über Bedrohungen gesammelt werden, vielfältige wichtige und relevante Informationen. Diese Communitys sind für die Unterstützung von kollaborativen Forschungen bekannt und bieten ergänzend dazu Hinweise für umsetzbare Verhinderungsmethoden oder Bekämpfungsmöglichkeiten von Bedrohungen.

Was ist Smishing? Wie verhindert man es? Bedeutung, Definition, Erklärung


Beim Smishing handelt es sich um eine Betrugsmethode. Mithilfe von falschen SMS-Nachrichten durch gefälschte Internetseiten sollen die Opfer dazu gebracht werden, ihre persönlichen Daten an die Urheber der Fälschung zu senden.

Was ist Smishing? Eigenschaften, Bedeutung

Die Bezeichnung Smishing ist ein Kunstwort. Es setzt sich aus den Begriffen SMS und Phishing zusammen. So ergibt SMS + Phishing Smishing. Gemeint ist damit ein betrügerischer Versuch, gezielt SMS zu versenden, die irreführende Informationen enthalten, damit der Empfänger seine persönlichen Daten an Betrüger herausgibt.

Eine solche schädliche Textnachricht kann scheinbar von einer Bank kommen. Dabei sollen dem Opfer wichtige finanzielle oder persönliche Infos entlockt werden, wie zum Beispiel die PIN-Nummer oder die Kontonummer. Beim Phishing wollen Cyberkriminelle auf diese Weise quasi einen Schlüssel zum Bankkonto erlangen. Der Empfänger muss zu diesem Zweck einen beigefügten Anhang oder einen schädlichen Link öffnen, der durch eine E-Mail zugesendet wird. Beim Smishing werden anstelle von E-Mails Textnachrichten verwendet.

Ablauf des Smishing

Im Rahmen des Smishing werden von den Cyberkriminellen SMS mit gefälschten Absendern verschickt, die als vertrauenswürdig gelten. Diese können von einer Bank oder einem Telekommunikationsunternehmen stammen. Dabei wird ein spezielles Problem vorgegeben, das jedoch in Wirklichkeit fingiert ist. Zu den Möglichkeiten der Fälscher gehören:

  • Telefonanbieter, die höhere Gebühren für spezielle Leistungen verlangen
  • eine Bank, die sonderbare Aktivitäten auf dem Konto des Empfängers bemerkt haben will
  • Rückzahlungen aus einem Bonusprogramm
  • Dating-Services, von denen das Eröffnen eines Kontos bestätigt wird, dessen Einrichtung aber nie erfolgte
  • der Vorwurf, dass bestimmte Zahlungen nicht ausgeführt wurden
  • Rückzahlungen, die aus einem Bonusprogramm stammen

Für diese erfundenen Probleme liefern die Cyberkriminellen die Lösungen gleich mit.

Klicken auf einen mitgelieferten Link

Für diese Betrugsmasche bestehen zwei Optionen. In Variante 1 soll der Empfänger einen Download vornehmen. Dieser enthält jedoch eine Schadsoftware. Um an die sensiblen Daten zu gelangen, spioniert sie das Handy aus. Bei Variante 2 leitet der Link das Betrugsopfer auf eine Webseite weiter, in der es aufgefordert wird, die Daten selbst in eine Eingabemaske einzutragen.

Smishing: Anrufen einer bestimmten Telefonnummer

Eine weitere Möglichkeit ist, dass der Täter selbst oder eine Bandansage sich als Mitarbeiter eines Unternehmens ausgeben. Dabei fordern sie den Empfänger auf, spezielle Daten zu übermitteln, um sich zu verifizieren, damit sich das vermeintliche Problem lösen lässt.

Wie kann Smishing verhindert werden und wie ist es zu erkennen?

Als bester Schutz gegen Smishing gilt ein ausgeprägtes Misstrauen. Dazu ist es wichtig zu wissen, dass es im Internet nichts umsonst gibt. So wird mitunter mit den Kontaktdaten bezahlt oder damit, seine Zustimmung zu einer Werbung zu erteilen. In anderen Fällen wird der User zum Kauf von Produkten aufgefordert. Werden zum Beispiel angebliche Gewinngutscheine von Unternehmen angeboten, ist es ratsam, dies auf der offiziellen Internetseite des jeweiligen Anbieters nachzuprüfen.

Vorsicht ist zudem bei Sprachnachrichten oder Voice-Mails geboten. Als gute Gründe für Misstrauen gelten:

  • Sprachnachrichten lassen sich nicht auf Webseiten abhören. Der einzige Link darf die Telefonnummer der Mailbox sein.
  • die Nummer der Nachricht stammt zumeist von einem unbekannten Handy und stellt nicht die Nummer der Mailbox dar. Oft kommt sie nicht einmal vom gleichen Netz.
  • die Links führen zu Seiten im Internet, die gar nichts mit dem eigenen Mobilfunkprovider zu tun haben.
  • beim Deaktivieren der Mailbox ist es gar nicht möglich, Sprachnachrichten aufzuzeichnen, mit denen Benachrichtigungen erteilt werden.

Ein Problem ist, dass Textnachrichten einen besseren Ruf als sogenannte Spam-Mails haben, bei denen bereits ein hoher Gewöhnungsgrad vorherrscht. Außerdem findet das Handy mittlerweile im Alltag so häufig Verwendung, dass in bestimmten Situationen gar nicht mehr daran gedacht wird, auf schädliche Links zu achten. Zum Schutz vor Smishing ist auf der Infografik von Europol eine informative Übersicht zu finden. Diese entstand durch die Zusammenarbeit mit dem deutschen Bundeskriminalamt (BKA).

Smishing: Zusätzliche Schutzmaßnahmen

Außerdem ist es sinnvoll, zu bedenken, dass von seriösen Firmen niemals nach PINs, Passwörtern oder anderen wichtigen Daten gefragt wird. Selbst wenn es so aussieht, als würde es sich um eine legitime Nachricht handeln, sollte für einen Kontakt stets nur die offizielle Telefonnummer oder Internetseite verwendet werden. Niemals darf dagegen auf Links solcher Nachrichten geklickt werden. Auch eine angegebene Telefonnummer für einen Rückruf ist nicht zu verwenden.

Coupons, die sofort eingelöst werden sollen oder dringende Sicherheitswarnungen gelten als Alarmzeichen für einen möglichen Angriff. Grundsätzlich sollten keine Informationen über Bank und Kreditkarten auf dem Handy gespeichert werden. Ohne diese Informationen sind die Cyberkriminellen gar nicht in der Lage, die sensiblen Daten aufzuspüren. Dies gilt selbst dann, wenn schädliche Malware auf dem Handy installiert wird.

Fazit: Smishing ist eine Betrugsmethode, vor der Vorsicht geboten ist.

Am besten ist es, gar nicht erst auf das Smishing einzugehen, nichts zu unternehmen und auch nicht darauf zu antworten. Wird der Angriffsversuch ignoriert, entsteht durch die gefälschte SMS auch kein Schaden. Kommt es dennoch einmal zu einer Attacke, empfiehlt es sich, dies der Verbraucherzentrale mitzuteilen. Auf diese Weise können andere Nutzer vor der Betrugsmethode geschützt werden.

Was ist Exnotation / Exnovation? Bedeutung, Definition, Erklärung


Der Begriff Exnovation bzw. Exnotation beschreibt das Gegenteil von Innovation. Bei einer gegenteiligen Wortbedeutung spricht man von einem sogenannten Antonym. Während Innovation vom lateinischen Begriff innovare abgeleitet ist und mit Erneuerung umschrieben werden kann, gestaltet sich die Definition vom Gegenteil etwas schwieriger. Die oftmalige Definition von Exnovation in Form von „Abschaffung von Altem“ ist jedoch nicht ganz korrekt.

Was ist Exnotation / Exnovation? Bedeutung, Definition, Erklärung

Bei der Exnovation bzw. Exnotation geht es nicht primär um die Abschaffung von Altem, indem man bisher bestehende Technologien, Stoffe, Prozesse oder Praktiken einfach abschafft oder verbietet. Vielmehr geht es darum, dass man diese nicht mehr weiterverfolgt und so Platz für Alternativen bzw. Innovation schafft. Exnovation bzw. Exnotation kann in sehr vielen Bereichen stattfinden. Neben den Bereichen der Wirtschaft kann Exnovation auch im persönlichen bzw. privaten Bereich stattfinden. In der Geschäftswelt wird der Begriff aktuell vor allem in Verbindung im Rahmen der Nachhaltigkeitsforschung angewandt, aber auch im allgemeinen geschäftlichen Umfeld für die Abschaffung von bewährten, aber nicht mehr erwünschten Handlungsweisen, Produkten oder Verhalten.

Im persönlichen Bereich kann Exnovation bzw. Exnotation beispielsweise durch die Trennung einer bestehenden Partnerschaft oder durch Beendigung eines Arbeitsverhältnisses erfolgen. Hierbei geht es darum, dass der aktuelle Zustand keine Weiterentwicklung mehr zulässt (d. h. im übertragenen Sinne keine Innovation mehr möglich ist). Als Beispiel kann hierfür die Tatsache genannt werden, dass sich Personen in einer Partnerschaft unterschiedlich entwickeln und andere zukünftige Ziele verfolgen.

Der Begriff Innovation ist im Alltag wesentlich positiver behaftet als Exnovation bzw. Exnotation, da Innovation immer mit einer vorwärts gerichteten Denkweise assoziiert ist und es wesentlich attraktiver ist, Neues zu schaffen, als Altes zu verlernen bzw. loszulassen.

Wo hat eine Exnovation bzw. Exnotation bereits stattgefunden und wo wird sie geplant?

Als Beispiele für eine der Wortbedeutung nicht ganz korrekte Form der Exnovation bzw. Exnotation können z. B. das Verschwinden des Webstuhls oder der Video- und Kassettenrekordern genannt werden. Hierbei fand jedoch keine aktive Exnovation bzw. Exnotation statt, vielmehr wurden diese Technologien durch den Fortschritt durch neuere ersetzt, wodurch ihre Nachfrage sank und sie schließlich vom Markt verschwanden. Auch Wikipedia verdrängte bzw. verkleinerte gewissermaßen den Markt von gedruckten Enzyklopädien, welche ohne gewollte Exnovation bzw. Exnotation erfolgte.

Im Gegensatz dazu fand die Exnovation zum Ausstieg aus den sogenannten Fluorchlorkohlenwasserstoffen (FCKW) bzw. die Abschaffung der klassischen und ineffizienten Glühlampen in der EU zielgerichtet und bewusst in Form eines politischen Instruments statt.
Zukünftig anberaumte Exnovationen bzw. Exnotationen stellen beispielsweise der Kohleausstieg oder auch das Verbot des konventionellen Verbrennungsmotors dar. Auch der Fleischkonsum sowie der Flächenverbrauch durch Verbauung könnte in Form von Exnovation gesteuert werden.

Alternativen zur Exnovation bzw. Exnotation

Neben der klassischen und beschriebenen Innovation sowie der Exnovation, welche gewissermaßen eine Form der Substitution darstellt, gibt es noch weitere Formen und Alternativen von Innovationstypen. Die genannte Substitution ersetzt dabei der Wortherkunft nach eine Technologie, einen Stoff, Prozess oder Praktik durch eine andere. Als weitere Alternative kann die Renovation genannt werden. Hierbei geht es darum, das Bestehende zu erhalten und den Handlungsraum zu erweitern, ohne die Innovationsmenge zu erhöhen. Ein Beispiel hierfür ist das Remanufacturing, bei welchem es darum geht, gebrauchte Geräte derart aufzubereiten, dass sie einem neuwertigen Gerät entsprechen. Eine weitere Alternative stellt die Imitation in Form von Reaktivierung dar. Damit ist gemeint, dass ehemals Bestehendes bzw. Inaktives wieder reaktiviert wird und dadurch wieder Anwendung findet.

Chancen der Exnovation

Eine Chance der Exnovation bzw. Exnotation stellt die Tatsache dar, dass durch gezielte Exnovation gewissermaßen Druck zur Innovation ausgelöst werden kann. Diese Form wird durch die Politik beispielsweise im Rahmen des Kohleausstiegs bzw. dem zukünftigen Verbot des Verbrennungsmotors angewandt. Durch die Einstellung des Kohleabbaus bzw. des Verbots des Verbrennungsmotors ist die Wirtschaft gefordert, Alternativen zu den bisherigen bewährten Technologien, Stoffen, Prozessen und Praktiken zu finden, womit Druck zur Innovationstätigkeit aufgebaut wird.

Ein weiteres mögliches Potenzial der Exnovation ist, dass damit Pfadabhängigkeiten aufgebrochen werden sollen. Pfadabhängigkeiten beschreiben dabei den Umstand, dass vergangene bzw. frühere Entscheidungen zukünftige Entscheidungen beeinflussen und man dadurch einen vordefinierten Entscheidungspfad verfolgt, welcher eventuell nicht die beste Lösung darstellt, jedoch aufgrund der Historie vorbestimmt ist. Durch die Exnovation bzw. Exnotation möchte man diese Pfadabhängigkeit ausschließen, indem man durch die Abschaffung von Altem zur Innovation getrieben wird.

Trotz der beschriebenen Chancen darf nicht außer Acht gelassen werden, dass Exnovation auch Unsicherheit, Skepsis und Widerstand schüren kann, da man sich dadurch von Bewährtem und Gewohnten verabschieden muss.

Was ist Solution Engineering? Bedeutung, Definition, Erklärung


Solution Engineering ist mit der Entwicklung lösungsorientierter Spezifikationen von technischen Systemen befasst. Es folgt auf das Requirement Engineering, das nach den gestellten Anforderungen ein System entwickelt und hierfür bestimmte Spezifikationen erstellt. Es entsteht eine grundsätzliche technische Basis, die das Solution Engineering nun in ein handhabbares System überführen muss. Dabei orientiert es sich an spezifischen Kundenanforderungen, weshalb das Customizing (Anpassung an Kundenwünsche) eine große Rolle spielt. Die beiden Tätigkeitsfelder sind grundsätzlich in allen Bereichen des Engineerings gefragt, allerdings werden die Begriffe vorrangig in der Softwarebranche verwendet.

Praktische Veranschaulichung von Solution Engineering

Es mag sein, dass ein Kunde die Anforderung stellt, einen Dateninput in seine betriebsspezifische, möglicherweise proprietäre IT zu überführen und dort tabellarisch und als Grafik darzustellen. Das Requirement Engineering setzt diese Anforderung zunächst so um, dass alle eingehenden Daten in tabellarisch darstellbare Zahlen und in Grafiken übersetzt werden. Das Solution Engineering schafft hierfür ein Programm, das der Anwender nur noch aufrufen muss, um sich wahlweise Tabellen oder Grafiken anzusehen, wobei ihm der Solution Engineer eine komfortable Oberfläche schafft. Die Aufgabe des Solution Engineerings ist es auch, diese Lösung dem Kunden zu präsentieren und somit zu verkaufen.

Solution Engineering im Vertriebsprozess

Im Vertriebsprozess spielt Solution Engineering auch die Rolle, für den Kunden eine von mehreren möglichen (schon vorhandenen) Lösungen auszusuchen und sie ihm zu verkaufen. Dafür muss der ganz spezifische Bedarf des Kunden ermittelt werden. Es gibt in vielen Bereichen zahllose Lösungen, wenn wir etwa an CRM- oder ERP-Systeme denken, die wiederum zu ganz bestimmten Kundenanforderungen passen. Ein Solution Engineer muss diese Lösungen kennen und dem Kunden wenige gut passende Varianten präsentieren (oft nicht mehr als zwei bis vier). In der Regel gehört zum Solution Engineering in solchen Fällen, Produktdemonstrationen vorzubereiten sie gemeinsam mit einem Vertriebsingenieur dem Kunden zu präsentieren. Dieser wird verschiedene Fragen dazu haben, die häufig die Wirtschaftlichkeit betreffen. Diese kann der Solution Engineer berechnen. In diesem Moment fällt ihm die Rolle eines Pre-Sales- bzw. Sales-Mitarbeiters zu. In dieser Funktion kann er die Vertriebsabteilung bei der Kundengewinnung unterstützen, wobei sich das Solution Engineering hauptsächlich bis ausschließlich auf technische Aspekte konzentriert.

Gewünschte Fähigkeiten im Solution Engineering

Solution Engineers müssen auf jeden Fall die Anwendung der präsentierten Lösung beherrschen und bei Neuentwicklungen im Vorfeld in der Lage sein, eine handhabbare Lösung zu entwickeln. Dazu gehört vertieftes technisches Wissen zur Entwicklung, das wiederum im Rahmen der Kundenberatung in die Sprache des Anwenders übersetzt werden muss. Des Weiteren muss ein Solution Engineer für die Entwicklung die technische Umsetzbarkeit bestimmter Anforderungen einschätzen können, während er für die Anwendung Best Practices kennen sollte. Gegenüber dem Kunden sind technische Unklarheiten auszuräumen. Wenn sich dieser für das Produkt entscheidet, übergibt der Solution Engineer dem nachfolgenden Implementierungsteam die nötigen technischen Informationen, die er im Vertriebsprozess evaluiert hat. Dazu gehören Anforderungen, bereits entwickelte Lösungen und eventuelle Besonderheiten. Mit diesen Informationen lässt sich die Lösung leichter implementieren, weil sie schon durch den technisch orientierten Solution Engineer auf ihre Machbarkeit hin überprüft wurde. Solution Engineers haben häufig Wirtschaftsinformatik oder Wirtschaftsingenieurwesen studiert. Ihre wichtigsten Skills sind:

  • Verständnis von IT-Architektur und Programmierung
  • betriebswirtschaftliche Kenntnisse zum Marketing und Vertrieb
  • strukturiertes, lösungsorientiertes und konzeptionelles Arbeiten
  • hohe Kundenorientierung
  • Verständnis für Investitionsentscheidungen, Kosten- und Leistungsrechnung sowie Finanzierung

Wichtig ist zudem die Einschätzung der aktuellen Kundenanforderungen. Einige Kunden wissen schon sehr genau, was sie benötigen, andere haben praktisch noch gar keine Vorstellung und dementsprechend einen viel höheren Beratungsbedarf.

Berufsalltag und Verdienst im Solution Engineering

Die Vertreter dieses Berufes reisen viel zu Kunden, arbeiten aber auch in der Entwicklungsabteilung ihres Unternehmens. Es ist möglich, dass sich diese beiden Tätigkeitsschwerpunkte permanent abwechseln. Das ist anstrengend, wird aber vergleichsweise gut bezahlt. Einstiegsgehälter liegen in diesem Beruf zwischen 45.000 und 50.000 Euro, nach einigen Berufsjahren verdienen Solution Engineers um 55.000 bis 83.000 Euro, in großen Unternehmen und wirtschaftlich starken Regionen auch mehr.

Was bedeuten die Zahlen des Thermostats der Heizung? Erklärung


Die meisten der manuell per Drehung einstellbaren Heizthermostate sind mit einer Skala versehen, die in der Regel mit einer Zahlenreihe von 1 bis 5 unterteilt ist. Der Thermostat hat die Aufgabe, für eine stabile Raumtemperatur zu sorgen. Dabei steht die Ziffer 1 für eine Raumtemperatur von 12 Grad. Mit jeder weiteren Zahl erhöht sich die Temperatur um weitere 4 Grad – entsprechend folgendem Muster:

  • 1 = 12 Grad
  • 2 = 16 Grad
  • 3 = 20 Grad
  • 4 = 24 Grad
  • 5 = 28 Grad

Was bedeuten die Zahlen des Thermostats der Heizung? Erklärung

Viele Thermostaten weisen zwischen den einzelnen Ziffern noch vier weitere Teilstriche auf. Hier steht jeder Strich für jeweils einem Grad Celsius. Darüber hinaus gibt es noch weitere Symbole, die eine bestimmte Bedeutung haben. So steht ein Sonnensymbol über der 3 für die Grundeinstellung von 20 Grad, die tagsüber für Ess- und Wohnbereiche sinnvoll ist. Sollte ein Mondsymbol vorhanden sein, ist dies eine geeignete Nachteinstellung für eine Raumtemperatur von 14 Grad – auch als sogenannte Nachtabsenkung bekannt.

Ist darüber hinaus auch noch eine Schneeflocke nahe der linken “Heizung-aus-Einstellung” zu sehen, so schaltet der Thermostat an dieser Markierung die Heizung nicht komplett aus, sondern das Zeichen symbolisiert den Frostschutz und stellt die Heizung so ein, dass die Raumtemperatur nicht unter sechs Grad abfällt. Dies soll verhindern, dass bei längerer Abwesenheit im Winter die Heizung einfriert.

Thermostat voll aufdrehen – wird das Zimmer schneller warm?

Wenn man den Thermostaten einer kalten Heizung auf 3 einstellt, so sorgt er dafür, dass so lange heißes Wasser in die Heizung fließt, bis die Raumtemperatur 20 Grad erreicht und danach nur noch so viel Heißwasser nachfließt, um diese Temperatur zu halten. Wenn man den Regler dagegen im Kaltzustand der Heizung auf 5 aufdreht, dauert es genauso lange, bis 20 Grad Raumtemperatur erreicht ist und setzt den Heizvorgang lediglich so lange fort, bis das Zimmer 28 Grad warm ist.

Man kann also den Aufwärmvorgang des Raumes auf keinen Fall beschleunigen, indem man den Thermostaten bis zum rechten Anschlag aufdreht.

Funktionsweise eines Heizthermostaten

Die Zifferndarstellung anstatt von Temperaturangaben auf einem Heizregler liegt darin begründet, dass die Technik der Temperaturmessung nicht sehr genau ist. Das Innere eines Thermostatkopfes ist mit einem flüssigen Stoff gefüllt, der sich bei zunehmender Wärme ausdehnt. Sobald die eingestellte Temperatur (1 bis 5) erreicht ist, drückt die Flüssigkeit auf einen Ventilstift, sodass das Ventil schließt und dadurch weiterer Zufluss des heißen Wassers gestoppt wird. Auf diese Weise wird kontinuierlich nachjustiert, um die eingestellte Wunschtemperatur zu halten. Dennoch stimmen Wunsch- und Raumtemperatur nicht immer exakt überein. So braucht ein größerer Wohnraum natürlich länger als ein kleinerer, um warm zu werden. Auch innerhalb eines Raumes gibt es unterschiedliche Temperaturzonen, z. B. in der Nähe von Fenstern und Türen sowie mit zunehmendem Abstand zum Heizkörper.

Darüber hinaus können auch Möbel, Wohn­ac­ces­soires oder schwere Vorhänge vor der Heizung die Heizleistung beeinflussen. Befindet sich beispielsweise ein Sofa vor dem Heizkörper, hat die Luft um den Thermostaten schnell die eingestellte Temperatur erreicht – die Warmwasserzufuhr in die Heizung wird gestoppt, obwohl der umgebende Raum noch kühl ist.

Durch nur einem Grad Raumtemperatur weniger sind Heizkostenersparnisse bis zu sechs Prozent möglich. Aus diesem Grund bieten eine Reihe von Herstellern nicht nur die Ziffern und Symbole auf dem Thermostaten an, sondern ergänzend dazu auch sogenannte Sparclips. Mit diesen lassen sich untere und obere Temperaturlimits festlegen oder sogar zu hohe Temperaturen (z. B. höher als 4) blockieren.

Was ist Hangul? Bedeutung, Definition, Erklärung


Der Begriff Hangul steht für das koreanische Alphabet, dessen Buchstaben für die schriftliche Umsetzung der Sprache gedacht sind. Anders als beispielsweise das japanische Kanji oder das chinesische Hànzì funktioniert das koreanische Hangul nicht auf logographischer Ebene. Das heißt, das koreanische Alphabet baut nicht auf einer komplexen Anzahl von morphologischen Silben in Schriftform auf, sondern basiert ähnlich wie das westlich gebräuchliche lateinische Alphabet auf Buchstaben in Form von Konsonanten und Vokalen. Damit ist das koreanische Alphabet wesentlich einfacher zu erlernen als die komplexen japanischen oder chinesischen Schriftvarianten. Die Wurzeln des modernen Hangul lassen sich bis in das 15. Jahrhundert zurückverfolgen.

Geschichte und Ursprung des Hangul

Tatsächlich griff man im heutigen Korea lange auf die chinesischen Schriftzeichen zurück. In Konkurrenz zu den chinesischen Schriftzeichen entwickelten sich Jahrhunderte vor der Etablierung des Hangul phonetische Schriftsysteme wie das Hyanchal oder das Gugyeol. Bereits das Gugyeol aus dem 13. Jahrhundert sollte die komplexen chinesischen Schriftformen vereinfachen und die Kompatibilität mit der koreanischen Sprache erhöhen.

Die Wurzeln des modernen Hangul liegen im 15. Jahrhundert: So strebte König Sejong eine Vereinfachung des Alphabets an, um den literarischen und sprachlichen Zugang für die Allgemeinheit zu erleichtern. Tatsächlich entstand das Hangul zwischen 1443 und 1446 und wurde zum ersten Mal im Dokument Hunminjeongeum (1446) festgehalten. Das Hangul emanzipierte sich so von dem teils komplexen chinesischen Alphabet und vereinfachte die Schriftsprache auf die Darstellung von 17 Konsonanten und 11 Vokalen. Das heutige Hangul besteht aus 24 grundlegenden Buchstaben: 14 Konsonanten und 10 Vokalen. Dabei gibt es auch einige ergänzende komplexere Zeichen. Doch das Grundprinzip ist klar: Das Hangul ist eine vergleichsweise zugängliche Schriftform. Die koreanische Schrift sollte, so der Plan von Sejong, innerhalb eines Tages erlernt werden können.

Zur Zeit der japanischen Herrschaft und Besetzung wurde Japanisch zur offiziellen Sprache erklärt – und damit auch versucht, das japanische Alphabet zu etablieren. Zu jener Zeit wurde auch die koreanische Sprache wie das Hangul aus der Öffentlichkeit verbannt. Mit der Unabhängigkeit von Korea wurde 1946 die moderne koreanische Schrift aus Basis des Hangul wieder eingeführt. Von dem Ursprung der Sprache im 15. Jahrhundert bis heute befand sich das Hangul, wie viele andere Schriftsprachen, im stetigen Wandel.

Siehe: K-Pop / koreanisch Wörterbuch

Besondere Eigenheiten des Hangul

Das Hangul wird heute offiziell nicht nur in Südkorea, sondern auch in Nordkorea und China verwendet. Dabei gibt es abweichende Varianten zwischen den nord- und südkoreanischen Schreibweisen der Buchstaben. Grundsätzlich orientierte sich die Schrift wie das chinesische Alphabet in der Schreibausrichtung von oben nach unten sowie in Spalten, die von rechts nach links führen. Nach europäischer Wahrnehmung las man das Hangul also “umgekehrt”. Allerdings orientiert sich die moderne Umsetzung des Hangul an der europäischen Schreibrichtung von links nach rechts.

Das moderne Hangul funktioniert jedoch nicht komplett losgelöst von der chinesischen Schrift. So werden vereinzelte Schriftzeichen mit chinesischem Ursprung auch im Hangul verwendet. Diese Zeichen sind auch unter dem Namen Hanja bekannt. Diese sollen die vergleichbar wenigen Schriftzeichen des Alphabets ergänzen. Auch in der Schule werden typischerweise noch die chinesischen Hanja-Schriftzeichen gelehrt. Doch die Grundlage der modernen koreanischen Sprache bleibt das Hangul.

Historisch hat das Hangul eine weitere Eigenheit. Denn während bei nahezu allen Alphabeten der Welt die genaue Entstehungszeit nicht überliefert ist, weiß man beim Hangul bis heute, wann und von wem es erschaffen wurde. Doch so sehr es geplant wurde: Das Hangul entstand nicht im luftleeren Raum, sondern nahm sich bewusst Vorbild an asiatischen und der chinesischen Phonologien. Denn König Sejong war ein gebildeter Linguist, der mit seinem Vorhaben ein klares Ziel verfolgte: Die koreanische Sprache zugänglicher zu machen.

Zusammenfassende Erkenntnisse zum koreanischen Hangul

Seit dem 15. Jahrhundert ist das koreanische Alphabet Hangul etabliert. Es war ein bewusster Versuch des Herrschers Sejong, die koreanische Schriftsprache zu vereinfachen und der Allgemeinheit zugänglich zu machen. Obwohl zwischenzeitlich verboten, konnte sich das Hangul bis heute in einer modernen Variante durchsetzen. Noch immer finden sich in dem Alphabet chinesische Schriftzeichen, die Hanja. Doch anders als das Japanische oder Chinesische ist das koreanische Hangul mit seinen 14 Konsonanten und 10 Vokalen innerhalb weniger Stunden erlernbar.

Was bedeutet die Regenwahrscheinlichkeit? Bedeutung, Definition, Erklärung


Die Regenwahrscheinlichkeit wird bei jedem Wetterbericht mit angegeben. Häufig wird sie fälschlicherweise als Regenrisiko bezeichnet. Das ist nicht ganz richtig, da der Wert der Niederschlagswahrscheinlichkeit lediglich aussagt, wie hoch die Wahrscheinlichkeit für einen bestimmten Ort ist, dass es mindestens zu einem Niederschlagsergebnis kommt.

Was ist die Regenwahrscheinlichkeit? Bedeutung, Definition, Erklärung

Wird in einem Wetterbericht die Regenwahrscheinlichkeit bekannt gegeben, wird häufig zusätzlich eine Angabe über die mögliche Literzahl an Regen pro Quadratmeter angegeben, die in einer Stunde fallen können. Wenn eine Regenmenge von 25 bis Liter in einer Stunde pro Quadratmeter fällt, ist mit Starkregen zu rechnen. Ähnlich wie bei einer Angabe von 35 bis 60 Litern in sechs Stunden pro Quadratmeter handelt es sich um ein Unwetter. Ist eine Regenwahrscheinlichkeit von 80% angegeben, kann man davon ausgehen, dass es für einen bestimmten Vorhersagezeitraum für einen bestimmten Ort in 8 bis 10 Fällen regnet.

Wie wird die Niederschlagswahrscheinlichkeit definiert?

Die Regenwahrscheinlichkeit wird vom nationalen Wetterdienst in den USA ermittelt. Übersetzt bedeutet es probability of precipitation. Sie wird durch die Multiplikation der Wahrscheinlichkeit berechnet. Hierbei wird ermittelt, in welchem Gebiet es regnet sowie der Anteil der Gesamtfläche, in dem es regnen soll, wenn es überhaupt regnet. Liegt die Regenwahrscheinlichkeit bei 50% bedeutet sie, dass es mindestens einmal am Tag zu 50% schneien oder regnen könnte. Umso höher dieser Wert liegt, desto mehr muss von einem Niederschlag am Tag gerechnet werden. Er bedeutet nicht, dass nur zur Hälfte in einem Gebiet mit einem Niederschlag zu rechnen ist oder dass nur an einer Hälfte des Tages regnet. Der Wert der Regenwahrscheinlichkeit wird immer in Prozent veröffentlich. Das sorgt bei einigen Menschen für Verwirrung, da nicht weiß, was die Prozentangaben aussagen.

Die Angabe der Niederschlagswahrscheinlichkeit liefern wichtige zusätzliche Informationen darüber, ob mit Regen gerechnet werden muss oder nicht. Noch zuverlässiger ist die Aussage darüber, mit welcher Sicherheit ein bestimmter Ort vom Vorhersagezeitrum des Regens fällt. Man kann sich bei einer Regenwahrscheinlichkeit von 10% sicher sein, dass es trocken bleibt. Ab 30% kann man dagegen damit rechnen, dass es irgendwo in der Stadt regnet. Einen zusätzlichen wichtigen Hinweis kann ein Wetterradar liefern. Hier sieht man auf einem Blick, wohin die Regenwolken ziehen.

Was bedeutet eine Regenwahrscheinlichkeit von 50%?

Das bedeutet tatsächlich eine 50:50 Chance, dass man trocken zur Arbeit kommt oder nass. Beide Varianten sind gleichermäßen möglich. Da die Lage bei einer derart niedrigen Wahrscheinlichkeit so unsicher ist, sollte man sich besser mit einem Schirm schützen und die Aktivitäten des Tages nicht unbedingt im Freien planen.

Bei einer Regenwahrscheinlichkeit von 90% kann man auf jeden Fall davon ausgehen, dass man im Laufe des Tages nass wird. Bisher kann noch nicht vorausgesagt werden, wie kräftig und lange es regnet. Dementsprechend kann es auch bei einer hohen Regenwahrscheinlichkeit um einen kleinen Niederschlag handeln. An anderen Tagen bedeuten die gleichen Werte, dass ein langanhaltender Regenschauer erwartet wird. Häufig wird von Wetterdiensten die Bezeichnung Niederschlagswahrscheinlichkeiten verwendet. Das liegt unter anderem daran, dass es sich bei den Niederschlägen nicht unbedingt um Regen handeln muss. Es kann auch zu einem starken Hagel- oder Schneeschauer kommen. Die Regenwahrscheinlichkeit kann täglich auf den unterschiedlichsten Wettervorhersagen entnommen werden. Die Daten stehen bis zu einem Zeitraum von 16 Tagen zur Verfügung.

Wofür / Wozu sind Hornissen gut? Erklärung, Nutzen


Hornissen sind wesentlich ungefährlicher, als die meisten Menschen glauben. Im Ökosystem erfüllen sie eine wichtige Aufgabe: Sie vertilgen viele Lästlinge und Schädlinge, womit ihre Aufgabe in etwa der von Spinnen gleicht.

Hornissen als Naturpolizei im Ökosystem

Nun zur Hauptfrage, wozu die Hornissen gut sind. Sie erfüllen die Aufgabe einer Naturpolizei in unserem einheimischen Ökosystem. Pro Tag verfüttert ein stärkeres Hornissenvolk rund 500 g Fliegen, Mücken, Nachtfalter, Wespen, Forstschädlinge und weitere Insekten (selten auch Bienen) an seine Brut. Dieselbe Menge schaffen etwa fünf Meisenfamilien. Im Gegensatz zu Bienen und Wespen sind Hornissen eher selten auf Süßes aus, weshalb sie unser Eis, die Limonade und den Kuchen auf dem Kaffeetisch links liegen lassen.

Vorurteile gegen Hornissen

Hornissen leiden noch mehr als Wespen (die ebenfalls unter Natur- und Artenschutz stehen) und Mücken unter Vorurteilen. Diese basieren größtenteils auf Unkenntnis. So sind Hornissen entgegen der landläufigen Meinung nicht aggressiv. Sie schädigen auch weder Obstbauern noch Imker, jedenfalls nicht unsere einheimischen Arten. Anders sieht es bei der asiatischen Riesenhornisse aus (siehe oben). Weitere Mythen lauten: Zwei Hornissenstiche töten ein Kind, drei einen Erwachsenen, sieben sogar ein Pferd. Das ist Unfug. Hornissenstiche sind nicht gefährlicher als Bienen- oder Wespenstiche, allerdings oft schmerzhafter. Auch mehrere Stiche überleben Menschen und Pferde, allerdings ist bei einer Wespenstichallergie der Arztbesuch ratsam.

Wie sind Hornissen einzuordnen?

Sie gehören zu den sogenannten sozialen Faltenwespen (Vespa crabro), unter denen ihre Exemplare die größten der Gattung sind. Die Körperlänge einheimischer Hornissen erreicht bis zu 4 cm, womit sie die größten staatenbildenden Insekten unserer heimischen Tierwelt sind. Es gibt in Mitteleuropa 16 Arten der sozialen Faltenwespen. Zwei von ihnen können sehr lästig werden: die Deutsche Wespe und die Gewöhnliche Wespe. Die Hornisse hingegen ist eigentlich ein umgänglicher Geselle. Nur am Rande sei vermerkt, dass es auch deutlich größere Hornissen gibt, so die asiatische Riesenhornisse mit einer Körperlänge von bis zu 5,6 cm und einer Flügelspannweite von bis zu 9,1 cm. Diese gelten als Schädlinge, weil sie bevorzugt Bienen fressen. Unsere einheimischen Hornissen fallen hingegen nur gelegentlich über Bienen her.

Steckbrief zur Hornisse

  • lateinischer Name: Vespa crabro
  • Lebenserwartung: Königin 1 Jahr, Arbeiterin 3 – 4 Wochen, Nestdauer eine Saison
  • Körpergröße: Königin bis 35 mm, Arbeiterin 18 – 25 mm, Drohne 21 – 28mm
  • Ernährung: Insekten, Baumsäfte, Fallobst, Nektar, Honigtau
  • Nistplatz: in Vogelnistkästen, Baumhöhlen und manchmal auch Rollladenkästen
  • Nestgründung: ab Ende April allein durch die begattete Jungkönigin
  • Nestgröße: durchschnittlich 60 x 30 cm, bei mehr Platz auch etwas größer
  • Filialgründung: bei kleiner Nisthöhle in der Nachbarschaft möglich
  • Volksstärke: bis zu 700 Individuen
  • Paarung: Anfang Oktober
  • Überwinterung: nur durch eine begattete Jungkönigin
  • Verhalten: friedfertig, Stich ausschließlich zur Verteidigung
  • Gefahr durch Stich: vergleichbar mit der Gefahr durch Bienen- oder Wespenstich, jedoch schmerzhafter
  • Allergiegefahr: bei 2 – 3 % der Mitteleuropäer
  • Bestandsgefährdung: regional stark
  • Schutzstatus: geschützt nach NatSchG und BArtSchV

Hornissen und ihre Lebensräume

Die natürlichen Lebensräume von Hornissen sind lichte und artenreiche Laubmischwälder sowie Streuobstwiesen. Der Nestbau erfolgt bevorzugt dort in Höhlen, doch mangels solcher Lebensräume siedeln sich Hornissenvölker immer häufiger im Vogelhaus unseres Gartens oder auch im Schuppen, auf dem Dachboden oder im Rolladenkasten an. Es kommt nun darauf an, wie tolerant wir damit umgehen können. Eine Vernichtung der Nester ohne ausdrückliche Gefahr für den Menschen ist verboten. Ein Umsiedeln ist erlaubt, dieses muss eine Fachfirma vornehmen. Sie holt dafür eine amtliche Ausnahmegenehmigung ein. Es gibt auch ehrenamtliche Hornissen- und Wespenfachberater, welche die untere Naturschutzbehörde vermittelt. Sie hat ihren Sitz bei der Gemeindeverwaltung oder beim Landratsamt.

Umgang mit Hornissen

Außerhalb ihres Nestbereichs fliehen Hornissen vor einem Störenfried. Der Nestbereich hat in ihren Augen ein Umfeld von 5,0 m, das Menschen respektieren sollten. Wer in diesen Bereich eindringt, muss zwingend mit einem Angriff des Volkes rechnen, der gezielt und koordiniert erfolgt. Der Hornissenschwarm verfolgt den Eindringling unter Umständen auch auf eine größere Entfernung und greift ihn mit Stichen an. Dies dient der Verteidigung des Nistplatzes mit all seinen Insassen. Störung im Nestbereich sind für die Hornissen:

  • Eindringen in die Sicherheitszone innerhalb des 5-m-Radius
  • heftige Bewegungen auch leicht außerhalb dieses Radius
  • starke Erschütterungen des Nistplatzes
  • Anpusten einer Hornisse oder des Einflugloches
  • längeres Versperren der Flugbahn
  • Lärm in der Nähe des Nestes (zum Beispiel durch den Rasenmäher)
  • Manipulationen am Nest

Wer nachts eine Hornisse im Zimmer vorfindet – sie jagt auch nachts –, sollte wie bei jedem Insekt das Fenster öffnen und das Licht ausschalten. Wenn sich draußen eine Lichtquelle befindet (Straßenlaterne etc.), fliegt die Hornisse sie an. Ansonsten kann es hilfreich sein, draußen kurz das Außenlicht anzuschalten. Die Insekten können auch vorsichtig mit Glas und Pappdeckel gefangen und dann draußen freigelassen werden.

Das Leben von Hornissen

Die begatteten Jungköniginnen überwintern als einzige Individuen ihres Volkes und erwachen ab Anfang Mai. Den Winterschlaf verbringen sie in der Erde oder in einer Baumhöhle. Nach dem Erwachen erkundet die Königin ihre Umgebung, bis sie einen geeigneten Nistplatz gefunden hat. Dort beginnt sie, erste Brutzellen zu bauen, die wie bei Bienennestern wabenförmig aufgebaut sind. Jede Zelle belegt sie mit einem Ei. Nach rund einer Woche sind aus den Eiern kleine Larven geworden, die ein klebriges Sekret in ihrer Zelle festhält. In den nächsten zwei Wochen durchläuft die Larve fünf Stadien. Zum Schluss spinnt sie einen Seidendeckel. Wenn sie ausgewachsen ist, kratzt sie an den Wänden der Larvenwiege, was ein rhyhtmisches, kratzendes Geräusch erzeugt (sogenanntes Hungerkratzen).

Die Larve ist jetzt rund und tonnenförmig, sie wird in nochmals zwei Wochen zur Hornisse. Diese durchbeißt den Zelldeckel und schlüpft aus. Arbeiterinnen leben rund vier Wochen, die Königin legt noch weitere Eier, aus denen Jungköniginnen und Männchen schlüpfen. Diese paaren sich, die Jungköniginnen überleben teilweise, die Altkönigin und das übrige Volk sterben zum Ende des Sommers. Das Nest wird dann aufgegeben. Hornissen nisten an einem Platz grundsätzlich nur ein einziges Mal.

Wofür / Wozu sind Ohrwürmer gut? Erklärung, Nutzen


Frei nach dem Motto gemeinsam sind wir stark, helfen die Ohrwürmer, der lateinische Name lautet auricula, beim Pflanzenschutz. Die als Nützlinge im Garten bezeichneten kleinen Insekten sind natürliche Feinde von bestimmten Schädlingen.

Charakteristische Merkmale der Ohrwürmer

Ohrwürmer, Dermaptera, sind weltweit verbreitet. In der Insektenordnung sind sie den Geradflüglern nahestehend. Der Ohrwurm ist lang, schlank und hat kurze, lederartige Vorderflügel sowie fächer- oder ohrenähnliche Hinterflügel. Einige Arten sind flügellos. Charakteristisch für den Ohrwurm sind die Facettenaugen, die kauenden Mundwerkzeuge mit den fadenförmigen Antennen sowie die großen Hinterleibszangen, die bei den männlichen und den weiblichen Ohrwürmern unterschiedlich ausgeprägt sind. Die Weibchen haben gerade, die Männchen hingegen auffallend gebogene Zangen.

Ohrwürmer sind harmlos

Der einheimische Gemeine Ohrwurm, Forficula auricularia, ist harmlos. Das Weibchen betreibt Brutpflege. Die Larven werden in selbst errichteten Höhlen oder unter der Baumrinde bewacht, gepflegt und mit Nahrung versorgt. Ohrwürmer haben meist nur einmal im Jahr Nachwuchs.

Die Lebensweise des Ohrwurms

Der dämmerungs- und nachtaktive Ohrwurm bevorzugt Wärme. Tagsüber befinden sie sich in ihren Verstecken und sind nur selten zu sehen. Als Versteck dienen hauptsächlich Steine, Mauerritzen oder Baumrinden.

Ohrwürmer sind Nützlinge. Obwohl sie an verschiedenen Blütenknospen, weil sie sich nicht nur von abgestorbenen Pflanzenteilen ernähren, durchaus leichte Schäden anrichten, ist ihr Nutzen im Garten ungleich größer. Der Grund dafür ist, dass sie sich auch von Blattläusen, Blutläusen und anderen, für Pflanzen schädliche, Insekten ernähren.

Biologischer Schädlingsbekämpfer

Vor allem im naturnahen Garten spielt der Ohrwurm als biologischer Schädlingsbekämpfer eine wichtige Rolle. Statt Pflanzenschutzmitteln, die im Selbstversorgergarten tabu sind, übernimmt der Ohrwurm als Allesfresser die Aufgabe, Schädlinge unter Kontrolle zu halten.

Die Nützlinge fördern

Ein mit Holzwolle oder Stroh gefüllter Tonblumentopf lockt die Ohrwürmer in den Garten. Um den Nützlingen einen Unterschlupf zu bieten, wird der Blumentopf mit der Öffnung nach unten an eine Astgabel gehängt. Gerne werden vom Ohrwurm auch Rosenkugeln als Nisthilfe angenommen.

Winterhilfe für den Ohrwurm

Abgeblühte Blütenstände werden nicht im Herbst, sondern erst im Frühling geschnitten. In den Stängeln können die kleinen Ohrwürmer überwintern.

Kleine Stein- und Laubhaufen an einem warmen, auch im Winter sonnigen Platz, bieten den Ohrwürmern einen idealen Unterschlupf in der kalten Jahreszeit.

Um Ohrwürmer dauerhaft im Garten anzusiedeln ist es sinnvoll, ein Insektenhotel aufzustellen. Es ist ein ideales Quartier, um dem Ohrwurm Schutz vor der Kälte zu bieten.

Ohrwürmer und Obst

Den Beinamen Schädling haben die Insekten deshalb bekommen, weil sie nicht nur Blattläuse und andere Pflanzenschädlinge fressen, sondern auch gerne Obst anknabbern. Vor allem weiche Früchte, wie Trauben oder Pflaumen. Die Bezeichnung Schädling ist aber dennoch ungerecht, ganz besonders im privaten Garten. Die Ohrwürmer fressen nämlich nur jenes Obst, das schon geschädigt oder faul ist.

Ohrwürmer und kommerzieller Obstbau

Im Weingarten und in den Obstplantagen ist der Ohrwurm nicht gerne gesehen und im Vergleich zum privaten Garten kein Nützling, sondern ein Schädling. Besonders in heißen Monaten ohne ausreichenden Niederschlägen vermehrt sich der Ohrwurm stärker und frisst Blätter und Früchte, um seinen Wasserbedarf zu decken. Aufgrund der starken Vermehrung und dem Fressen der Früchte entstehen größere Schäden.

Wofür / Wozu sind Tauben gut? Erklärung, Nutzen


Schon seit Jahrtausenden werden Tauben als schnelle Helfer eingesetzt. Sie zeichnen sich durch ihre hervorragenden Flugeigenschaften aus. Diese sind mit ihren besonderen Fähigkeiten verbunden. Sie bestehen beispielsweise in ihrem Orientierungssinn, der sich am Magnetfeld der Erde orientiert. So finden sie auch den Weg zu ihrem Heimathorsten.

Die Taube in der Antike

In der Antike suchten die Verantwortlichen nach einem Vogel, der vor allem die weiblichen Eigenschaften verkörpern konnte. Hierzu konzentrierte man sich auf die weißé Taube, die mit der römischen Göttin der Liebe, Venus gleichgesetzt werden konnte. Gleichzeitig wurde diese weiße Taube zum Sinnbild des Friedens.

Leider wurde die Taube im Altertum als Fleischlieferant genutzt. Außerdem setzte man schon sie schon damals ein, um die begehrten Greifvögel wie Falken und Habichte zu fangen. Auch während der Abrichtung der Raubvögel sowie zum Training wurden Tauben verwendet, die bei diesem Verfahren gleichzeitig als Beute und Nahrung dienten.

Tauben: Einsatz im Ersten Weltkrieg

Während des Ersten Weltkrieges zwischen 1914 und 1918 gab es zwar schon verschiedene Funksysteme. Diese waren jedoch sehr anfällig und wurden oft bei Kämpfen beschädigt. Aus diesem Grund entschied man sich für den Einsatz von Brieftauben. Die heimatlichen Nistplätze befanden sich hinter den eigenen Frontlinien. Die Taube selbst wurde mit nach vorne genommen. Sollte eine Nachricht hinter die Front geschickt werden, band der Betreffende der Taube eine kleine Nachricht ans Bein. Innerhalb kurzer Zeit landete sie danach an ihrem Heimatort und leistete so einen Beitrag für das Land, zu dem sie gehörte.

Gibt es unterschiedliche Tauben und wie leben sie?

Insgesamt gibt es mehr als dreihundert verschiedene Arten von Tauben. Diese unterscheiden sich im Aussehen, im Verhalten und in der Größe. Während kleine Exemplare in ihrer Gestalt einer Lerche ähneln, können andere mit einem Huhn verwechselt werden.

Ihre Haltung ist sowohl auf dem Land als auch in der Stadt möglich. Dazu werden spezielle Käfiganlagen mit Volieren gebaut. In ihnen können sich die Tauben bis zu einem gewissen Grad frei bewegen.

Tauben als Symbole

In vielen Religionen steht die weiße Taube für ein gutes Omen. So soll Noah – laut der Bibel – ein Exemplar ausgeschickt haben, damit dieses – von der Arche kommend – nach einer neuen Heimat suchen sollte. Zu seinem Glück soll die Taube mit einem Ölzweig zurückgekehrt sein, der für eine neue Zukunft und das verheißende Land stand. Sie verkörpert seitdem außerdem den Wunsch nach Zuversicht, Frieden und Harmonie.

Tauben als Vorbild für die Paarbindung

Viele Paare trennen sich, auch wenn sie bereits Kinder haben. Dieses Verhalten ist den Tauben fremd. Sie bleiben ein Leben lang zusammen und ziehen ihren Nachwuchs gemeinsam groß. Schon nach sechs Monaten kann der weibliche Vogel Eier legen. Die Aufzucht der Jungen beträgt nach einer Brutzeit von achtzehn noch weitere 30- bis 40 Tage, bis der Jungvogel das Nest verlassen kann. Aufgrund der biologischen Besonderheiten kann die Taube auch während des gesamten Jahres brüten.

Welche Fähigkeiten besitzen Tauben?

Zum Einen können sie sich am Magnetfeld der Erde orientieren. Während des Fluges folgen sie dem kürzesten Weg, um zu ihrem Heimatplatz zurückzugelangen. Hier pflegen sie ein soziales Verhältnis mit ihren Genossen.

Durch verschiedene Tests wurde mittlerweile der Beweis erbracht, dass viele Tauben Menschen an ihren Gesichtszügen erkennen.

Tauben dienen dem natürlichen Ökosystem

Tauben benötigen im Laufe der Brutpflege auch tierisches Eiweiß. Es wird eingesetzt, um das Wachstum der Jungen zu beschleunigen und die Kraft der Eltern zu erhalten. Dieses tierische Eiweiß stammt beispielsweise von Insekten und kleinen Tieren, die sich sonst als Schädlinge negativ auf den natürlichen Lebensraum auswirken.

Gleichzeitig nehmen sie die Samen von Pflanzen mit ihrer vegetarischen Nahrung auf. Nach dem Verdauungsprozess verteilen sie die Basen für neue Blumen und Sträucher in ihrer Umwelt. Deshalb sollte man die Tauben nicht mit menschlicher Nahrung füttern. Diese reduziert nicht nur die Möglichkeiten der Tauben, sich spezielle biologisch sinnvolle Pflanzen zu suchen. Gleichzeitig werden die Vögel fett und verlieren ihre ihnen eigene Beweglichkeit. Außerdem wird das Lebensalter der betreffenden Taube signifikant gesenkt.

Leider stellen die Tauben, die zum größten Teil eine beachtliche Größe erreichen können, eine gute Nahrungsquelle für tierische Jäger wie Habichte, Eulen oder Katzen dar.

Wofür / Wozu sind Mücken gut? Erklärung, Nutzen


Mücken sind als Larven und im Erwachsenalter eine wichtige Nahrungsgrundlage für eine Vielzahl an anderen Tieren. Dementsprechend sind die kleinen Insekten wichtig für Spinnen, Amphibien, Vögel, Libellen und Fische. Wenn sie aus dem Ökosystem verschwinden, hätte das für viele andere Tiere eine gravierende Folge. Viele Menschen sehen Stechmücken nur als lästige Plagemeister. Das liegt vor allem daran, dass ein Stich ein heftiges Jucken verursachen kann und man sich an feuchtwarmen Sommertagen kaum vor Mücken retten kann.

Was machen Mücken?

Im Sommer bei heißen Temperaturen liegen die Eier der Mücken über einen längeren Zeitraum auf dem Boden. Wenn es anfängt zu regnet, werden Wiesen und Senken mit Wasser überschwemmt. Das sorgt für eine Art Massenschlupf. Wenn sich die geschlüpften Mücken in Schwärmen auf die Suche nach Opfern machen, sind sie eine gute Nahrungsquelle für Vögel oder Fledermäuse. Viele Mücken ernähren sich von Nektar. Dadurch bestäuben sie die Pflanzen.

Lediglich die weibliche Mücke benötigt für ihre Eierproduktion eine Blutmahlzeit. Sie benötigt für ihre Eier viel Protein. Viele Studien haben bewiesen, dass Menschen mit der Blutgruppe 0 wesentlich häufiger gestochen werden als Menschen mit der Blutgruppe B. Die Stechrate ist bei der Blutgruppe 0 sogar doppelt so hoch. Menschen mit der Blutgruppe A werden von Mücken nur sehr selten attackiert. Sie scheinen für die Mücken unsichtbar zu sein. Neben Stechmücken findet man in Deutschland vor allem auch Bartmücken, Schmetterlingsmücken und Kriebelmücken. Insgesamt gibt es 50 Arten an Kriebelmücken, die sehr rundlich, klein und schwarz aussehen. Man kann sie leicht an den kurzen Flügeln erkennen. Sandmücken sind dagegen klein und beige.

Welche Aufgabe haben Mücken? Erklärung

An feuchten Tagen treten Mücken vermehrt auf, sodass die unterschiedlichsten Tierarten ausreichend zu fressen haben. Es gibt aber kein Tier, dass sich speziell auf Mücken als Nahrungsquelle spezialisiert hat. Somit verhungert auch kein Tier, wenn es einen trockenen Sommer und somit kaum Mücken gibt. Treten Mücken dagegen in Schwärmen auf, sind besonders Vögel gut versorgt. Experten haben festgestellt, dass sie während einer starken Mückenpopulation sogar eine dritte Brut gut durchbringen können.

In Deutschland gibt es über 28 Mückenarten. Stechmücken sind somit nur ein Teil dieser Familie. Biologen haben herausgefunden, dass die verschiedenen Mückenarten alle ökologischen Nischen füllen. Nicht nur Vögel und Fledermäuse, sondern auch viele räuberische Insekten ernähren sich von den fliegenden und ausgewachsenen Mücken. Wassertiere fressen dagegen gerne Mückenlarven. Vor allem Amphibien und Fische fressen die Mückenart, die für Menschen am gefährlichsten angesehen werden, die Kriebelmücke. Bei einigen Fischarten können die Larven der Kriebelmücken bis zu 80% der Fischnahrung dar.

Wie und wo nützen Mücken? Nutzen

Nicht nur Bienen, sondern auch Mücken und Fliegen sorgen dafür, dass Pflanzen im Garten bestäubt werden. Diese Tatsache wird von vielen Menschen vergessen, da Mücken aufgrund ihres lästigen Stechverhaltens als sehr negativ angesehen werden. Ohne bestimmte Mückenarten würde es in Zukunft keine Schokolade mehr geben. Nur der Rüssel von Mücken ist lang und fein genug, um an die kleinen Blüten des Kakaos zu kommen. Sie übertragen die Pollen von einem Kakaobaum zu anderen. Dadurch kann es zu einer Kreuzbefruchtung kommen und neue Kakaofrüchte können sich bilden. Auch in Deutschland gibt es viele Mückenarten, die sich auf bestimmte Bäume oder Doldenblütler spezialisiert haben. Auf Pflanzen, die de doldenartige Blüten- oder Fruchtstände haben, können Stechmücken sehr häufig beobachtet werden.

Was ist ein Jump-Scare? Bedeutung, Definition, Erklärung


Das Wort Jump-Scare setzt sich aus jump (springen) und scare (ängstigen) zusammen und beschreibt damit eine plötzlich auftretende Situation, durch die sich eine Person erschrickt. In Filmen sind damit Szenen gemeint, die einen überraschenden Moment haben, wodurch sich der Protagonist und im besten Fall auch die Zuschauer erschrecken. Verstärkt wird dieser kurze Moment oft von dramatisch anschwellender Musik, diffuser Beleuchtung und dem erschreckten Aufschrei der überraschten Person.

Was ist der Zweck eines Jump-Scares?

Sinn ist es, den Zuschauer zu erschrecken und für einen Gänsehautmoment zu sorgen. Geht der Protagonist beispielsweise einen langen, dunklen Flur entlang, an dessen Ende ein geöffnetes Fenster mit wehendem Vorhang zu sehen ist, erwartet der Zuschauer ein Ereignis am Fenster. Springt aber schon viel früher jemand plötzlich und völlig unerwartet aus einer seitlichen Tür, hat keiner damit gerechnet und erschrickt sich. Ein eigentlich sehr einfaches Stilmittel, mit dem aber ein großer Effekt erzielt wird. Dieses Prinzip wird übrigens auch in den klassischen Geisterbahnen angewendet. Auch wenn man den Schrecken erwartet, ist man im Moment des Erschreckens doch überrascht.

Somit werden Jump-Scares in Horrorfilmen und Thrillern ganz bewusst eingesetzt, um Spannung zu erzeugen. Daher können Jump-Scare Filme auch ganz ohne Blut oder Gewalt auskommen und trotzdem eine dunkle Stimmung erzeugen.

Welche Vorteile hat ein Jump-Scare Film?

Für den Produzenten des Filmes ist dieses Stilmittel einfach und effektiv einzusetzen und damit auch recht kostengünstig. Die aufwendige Arbeit der Make-up-Artisten, Kunstblut oder künstliche Körperteile werden hier nicht benötigt, was Zeit und Geld spart. Schauspielerische Leistung sowie zeitliche Abstimmung von Erscheinen des Ereignisses und Reaktion des Opfers muss stimmen. Die erschreckten Schauspieler sollten Angst und Entsetzen glaubhaft darstellen.

Vorteile gibt es für die Zuschauer, die sich gruseln oder erschrecken möchten, aber keine Blutbäder oder abgetrennte Körperteile sehen möchten. Für die ist ein reiner Jump-Scare Movie die bessere Wahl.

Variationen und Kombinationen mit anderen Stilmitteln

Nicht alle Horrorfilme bestehen ausschließlich aus Jump-Scares, oft werden diese zusätzlich zu Gewalt, Blut und Action eingesetzt, um die Spannung im Film zu erhöhen. So eine Kombination gibt es zum Beispiel in den Saw-Filmen.

Aktuell sind auch Filme beliebt, in denen der Zuschauer das Ereignis vorhersieht. So sieht er von außen auf die Szene und bemerkt, wie sich der Mörder von hinten an das ahnungslose Opfer anschleicht. Damit gibt es eine emotionale Verbindung zum Opfer und den Wunsch, dieses zu warnen. Natürlich ohne Aussicht auf Erfolg.

Beispiele für bekannte Jump-Scare Filme

Bereits der erste Draculafilm, der 1932 in die Kinos kam, bediente sich dieses Stilmittels. Und auch in Alfred Hitchcocks Thrillern in den 60er-Jahren wurden diese Schreckensmomente gerne angewandt.

Ihre Blütezeit erlebten Jump-Scares aber in den 80er und 90er-Jahren. Zum Beispiel im ersten Teil des “Halloween” Filmes mit Jamie Lee Curties und “Freddy Kruger – Nigthmare on Elm Street”.

Um das Jahr 2000 herum wurden Jump-Scare Filme mit einer mystischen Atomsphäre und kleinem Budget gedreht.

1999 Mit “The Blair Witch Project” kam ein Film in die Kinos, der komplett auf Blut verzichtet und ausschließlich mit Jump-Scares eine Spannung aufbaut. Und auch die 2007 gestartete Fimlreihe “Paranormal Activity” lebt hauptsächlich von Jump-Scares.

Weitere Beispiele sind “The Conjuring”, “Sinister” oder “Es” von Stephen Spielberg.

Fazit: Was ist ein Jump-Scare? Bedeutung, Definition, Erklärung

Ein Jump-Scare ist ein einfach umzusetzendes und beliebtes Mittel, um in Filmen Angst und Schrecken zu erzeugen. Sie können mit anderen Stilmittel (Gewalt) oder auch alleine in Filmen verwendet werden. Durch die Anwendung in fast 100 Jahren Filmgeschichte sind sie offensichtlich beliebt und noch immer aktuell.

Was bedeutet “Punch Hole”? Bedeutung, Definition, Erklärung


Wörtlich übersetzt bedeutet der Begriff Punch Hole so viel wie Lochung oder auch Lochstelle. Er wird in der Hauptsache in Zusammenhang mit Smartphones oder Tablet PCs verwendet.

Was hat das mit Smartphones zu tun?

Neben einer oder mehreren Hauptkameras auf der Rückseite besitzen Smartphones und Tablets in der Regel auch eine zweite Kamera auf der Vorderseite. Sie ist für Selfies und Videochats gedacht. Die Hersteller benutzen verschiedene Methoden, um die Frontkamera in das Display zu integrieren. Neben der Notch (Aussparung, Kerbe) und dem Raindrop setzt sich das Punch Hole bei immer mehr Geräten durch. Damit ist nichts weiter als ein kleines Loch im Display gemeint, hinter dem sich die Kamera verbirgt.

Welche Vorteile hat ein Punch Hole?

Seine Popularität bei den Handyherstellern hat einen guten Grund. Es ist die platzsparendste Methode, um die Frontkamera unterzubringen. Der Trend bei Smartphones geht zu Modellen mit immer größeren Displays. Das liegt daran, dass die Geräte mehr und mehr für multimediale Anwendungen genutzt werden. Verbraucher wollen damit Filme anschauen oder mit ihren Freunden Videochats machen. Dafür benötigen sie ein möglichst großes Display. Die Frontkamera, die wegen der Videofunktion unverzichtbar ist, hinter einem Punch Hole zu verbergen, ist die optimalste Lösung, weil sie am wenigsten Platz beansprucht. Der Displayrand kann durch das Punch Hole deutlich schmaler gefertigt werden. Deshalb findet man diese Art der Unterbringung der Frontkamera besonders häufig bei rahmenlosen Displays. Diese Art von Display ist aktuell bei fast allen Top-Marken Standard.

Dazu kommt noch ein weiterer Vorteil. Weil die Frontkamera hinter einem Punch Hole sitzt, bildet das Display eine glatte Oberfläche. Es lässt sich dadurch leichter reinigen. Sitzt die Kamera in einer Notch oder einem Raindrop setzt sich dort an den Ecken und Kanten Schmutz fest. Er ist nur schwer zu entfernen und kann die Bildqualität negativ beeinflussen. Zudem ist die Kamera hinter dem Punch Hole besser geschützt.

Hat ein Punch Hole Display auch Nachteile?

Beim normalen Betrieb gibt es keine Nachteile. Die eingesetzte Technik der Frontkamera ist dieselbe, unabhängig von der Art des Displays. Wird das Smartphone im Vollbildmodus verwendet, kann das Punch Hole mitunter etwas störend wirken. Das ist aber kein großes Problem. Mehr oder weniger handelt es sich um eine Gewohnheitssache. Einige Verbraucher kritisieren jedoch, dass ein Punch Hole bei der Gesichtserkennung nicht so gut funktioniert wie eine Frontkamera in einem Notch oder Raindrop Display.

Seit wann gibt es Smartphones mit Punch Hole?

Der südkoreanische Elektronikkonzern Samsung war der Vorreiter dieser Entwicklung. Sein Smartphone Samsung Galaxy S10 war das erste Modell, dessen Frontkamera hinter einem Punch Hole Display versteckt wurde. Das Handy kam in Deutschland im März 2019 auf den Markt. Es erwies sich als Verkaufshit und gehörte schnell zu den beliebtesten Smartphones seiner Klasse. Seinen Erfolg hatte es unter vielen anderen Dingen auch der eleganten Lösung des Punch Holes zu verdanken. Andere Hersteller wurden auf den Erfolg aufmerksam und übernahmen die Lösung. Im Gegensatz verbirgt aber Apple die Frontkamera seiner iPhones weiterhin in einer Notch.

Was tun, wen das Punch Hole stört?

User, die das Punch Hole stört, können sich im Google Play Store Hintergrundbilder auf ihr Smartphone laden, die das Punch Hole je nach Design entweder verbergen oder betonen. Beliebt sind zum Beispiel die Minions oder auch Kunstwerke wie Banksys “Mädchen mit Luftballon” oder andere Motive, bei denen sich ein Detail des Bildes genau an der Stelle des Punch Holes befindet.

Kann man das Punch Hole verstecken?

Das ist zumindest teilweise möglich. Dazu muss man das Menü “Systemeinstellungen” öffnen. Im nächsten Schritt wählt man den Menüpunkt “Anzeige”. Dort geht man zum Punkt Apps in Vollbildmodus. Zum Schluss klickt man auf den Button “Frontkamera ausblenden”. Jetzt verschwindet die Frontkamera zumindest optisch, verkleinert aber gleichzeitig das nutzbare Display. Wenn man die Aktion rückgängig machen möchte, genügt es, die Option “Frontkamera ausblenden” zu deaktivieren, um den ursprünglichen Zustand wieder herzustellen.

Wofür / Wozu sind Schmetterlinge gut? Erklärung, Nutzen


Schmetterlinge sind nicht nur schön, einige Exemplare von ihnen nehmen in der Natur durchaus wichtige Funktionen wahr wie das Bestäuben der Blüten.

Welchen Nutzen haben Schmetterlinge?

Mit ihrer Schönheit erfreuen die Schmetterlinge viele Menschen. Sie erfüllen aber auch wichtige Aufgaben in der Natur oder im Garten. So fliegen sie von Blume zu Blume und saugen mithilfe ihres Rüssels den Nektar. Dabei erfolgt ihre Bedeckung mit Pollen. Wenn die Schmetterlinge anschließend zur nächsten Blüte fliegen, geben sie die Pollen an sie weiter. Dadurch sind die schönen Insekten für die Bestäubung von großer Wichtigkeit.

Einige Falter sind aufgrund ihrer Rüssellänge speziell an bestimmte Pflanzen angepasst. Daher steuern sie immer die gleiche Pflanzengattung an, wodurch diese sich vermehren kann. Es gibt sogar Pflanzen, die ausschließlich von Schmetterlingen bestäubt werden können, wie zum Beispiel die Kuckucks-Lichtnelke.

Als Lieblingspflanze der Schmetterlinge gilt der Schmetterlingsbaum. Weitere Pflanzen, die von den Schmetterlingen profitieren sind:

  • Lavendel
  • Sommerflieder
  • Blaukissen
  • Gold-Akelei
  • Eisenkraut
  • Majoran
  • Fette Henne
  • Verbene
  • Herbstaster
  • Zwergflieder
  • Schmetterlingsflieder
  • Phlox
  • Bartnelken

Für die Schmetterlinge ist die Vielfalt an Arten wichtig zum Überleben.

Schmetterlinge im Garten

Von großer Bedeutung sind die Schmetterlinge auch für den Garten. Sie bilden dort wichtige Nützlinge und haben Anteil an einem ausgewogenen Kleinökosystem. So bleiben auch hier die Pollen beim Nektarnaschen der Insekten an ihrem Körper haften. Beim Anflug auf die nächste Pflanze bleiben die Pollen an ihr hängen, was wiederum zur natürlichen Bestäubung beiträgt.

Schon im Frühjahr zeigen sich die ersten Schmetterlinge wie der Zitronenfalter oder der Kleine Fuchs im Garten. Die Schmetterlinge lassen sich zudem als Zeiger für spezielle Pflanzen nutzen, denn viele Arten beschränken sich auf einen begrenzten Lebensraum. Dabei legen sie ihre Eier immer nur an bestimmten Pflanzen ab. Das Anlegen eines Schmetterlingsgartens gilt daher als sinnvoll.

Nutzen der Schmetterlinge für Tiere

Sehr nützlich sind Schmetterlinge auch für verschiedene Tierarten. So dienen Schmetterlings-Raupen vor allem Vögeln als wichtige Nahrungsquelle. Einige Singvögel benötigen sie sogar, um überleben zu können. Als Nahrung sind die Schmetterlinge für manche Vögel also von großer Bedeutung.

Die Schmetterlinge

Die Schmetterlinge (Lepidoptera) bilden eine Insekten-Ordnung. Sie umfassen ca. 160.000 bekannte Arten, rund 130 Familien sowie 46 Überfamilien. Damit stellen die nach den Käfern die artenreichste Ordnung der Insekten dar. Pro Jahr kommen etwa 700 neuentdeckte Arten hinzu. Allein in Deutschland leben ungefähr 3700 Arten.

Merkmale der Schmetterlinge

Schmetterlinge kommen in den verschiedensten Farben und Formen vor. Einige Schmetterlingsfamilien sind sowohl bei Tage als auch in der Nacht aktiv. Während die Tagfalter zumeist durch ihre bunten Färbungen auffallen, zeigen sich die Nachtfalter eher unscheinbar.

Das wohl wichtigste Merkmal des Schmetterlings sind seine Flügel. Aber auch die Färbung spielt eine Rolle. Sie bildet sich durch Pigmente, die verschiedene Färbungen aufweisen. Mitunter entsteht die Färbung aber auch durch spezielle Oberflächenstrukturen auf den Flügeln. Weil das Licht auf den Flügeln in unterschiedlicher Weise gebrochen wird, nimmt der Mensch sie als schillernde Farben wahr.

Als größter Schmetterling der Welt gilt der südostasiatische Atlasspinner. Seine Flügel bringen es auf eine Spannweite von 25 bis 30 Zentimeter. Zu den kleinsten Schmetterlingen zählen die Schopstirnmotten. Diese erreichen lediglich eine Flügelspannweite von 1,5 bis 2 Millimetern. Die meisten Schmetterlinge, die in Deutschland vorkommen, bringen es auf eine Flügelspannweite von rund 10 Zentimetern.

So unterschiedlich die Schmetterlinge sind, umso verschiedener fällt auch der Aufbau ihrer Fühler aus. So sind sie entweder gekeult, fadenförmig oder gekämmt. Durch die Fühler sind die Insekten imstande, Temperaturen zu spüren, zu riechen oder zu schmecken.

Die Lebensweise der Schmetterlinge

Bevor die Insekten zu bewundernswerten Schmetterlingen werden, durchlaufen sie ein Entwicklungsstadium, das vom Ei über die Raupe bis hin zur Puppe reicht. Dabei kommt es zur Metamorphose der Raupe zum schönen Falter. Die Lebenszeit der meisten Schmetterlinge ist nur auf einige Wochen beschränkt. Im Frühling, wenn die Pflanzen erblühen, beginnen die Schmetterlinge zu fliegen. Im Herbst, wenn die Temperaturen absinken, neigt sich ihr Leben wieder dem Ende zu.

Manche Arten können aber auch als Falter den Winter überstehen, wie der Zitronenfalter, das Tagpfauenauge oder der Kleine Fuchs. Sie verkriechen sind dann in die Ecken von Schuppen oder in hohle Bäume. Dort bleiben sie vollkommen bewegungslos während des Winters.

Fazit: Wofür / Wozu sind Schmetterlinge gut? Erklärung, Nutzen

Schmetterlinge sind für das Bestäuben von Blüten von Wichtigkeit. So entstehen durch ihre Einwirkung neue Samen. Aus diesen Samen gehen wiederum Pflanzen hervor. Infolgedessen gedeihen durch die Schmetterlinge frische Pflanzen und Blumen. Manche Menschen erfreuen sich auch nur an ihrer Schönheit.

Was ist konvergentes Denken? Was ist divergentes Denken? Bedeutung, Definition, Erklärung


Ist von konvergentem Denken die Rede, handelt es sich um ein problemorientiertes Lösungsdenken, bei dem die bestmögliche Lösung für eine vorliegende Problemstellung gefunden wird bzw. werden soll. Die individuellen Fähigkeiten im Rahmen des konvergenten Denkens werden zudem als Kernkompetenzen im Rahmen von zahlreichen standardisierten Tests in Schulen und im Rahmen von Einstellungsprüfungen oder Intelligenztests abgefragt. Auch Multiple-Choice- und Rechtsschreib-Tests erfassen in zahlreichen Fällen wesentliche Fähigkeiten im Rahmen der konvergenten Denkprozesse.

Das divergente Denken beschreibt im Gegensatz zum konvergenten Denken einen kreativen, oft mehrstufigen Denkprozess, der im Rahmen von kreativen und offenen Aufgabenstellungen gefordert ist.

Woher stammt der Begriff des konvergenten Denkens?

Der Begriff „konvergent“ kommt von dem lateinischen Verb „convergere“, das zu Deutsch mit „sich annähern“ oder „übereinstimmen“ übersetzt werden kann. Dieser etymologische Exkurs ins Lateinische hilft schnell weiter, wenn man der Frage nachgeht, welche Form des Denkens das konvergente Denken impliziert:

Beim konvergenten Denken geht es primär um einen Denkvorgang, bei dem man sich der Lösung durch systematisches, logisches Denken annähert. Die Lösung bzw. der Lösungsentwurf wird dabei oft in mehreren Teilschritten hinsichtlich ihrer bzw. seines logischen Aufbaus bzw. der hinsichtlich der Passung und Übereinstimmung der einzelnen Denkschritte kritisch überprüft und mit der Aufgabenstellung abgeglichen.

Konvergentes Denken und divergentes Denken: Bedeutung, Definition, Erklärung

Das konvergente Denken ist das Gegenteil zum divergenten Denken, das oft situativ und kreativer Natur ist. Während beim konvergenten Denken die stets bestmögliche Lösung im Fokus der Problemlösungsstrategien steht und beispielsweise zwischen vorgegebenen Lösungen oder Lösungswegen gewählt werden kann, bezeichnet das divergente Denken den frei fließenden Denkprozess, der per se kreativ ausgerichtet ist und Lösungs-Optionen auch neu erdenkt, ohne dabei dogmatisch das bestmögliche Optimum als Qualitätskriterium der Lösung anzusehen.

Der entscheidende Unterschied zwischen dem konvergenten und divergenten Denken ist also im Fall des konvergenten Denkens das Primat der Logik während das divergente Denken ein kreatives Arbeiten und Denken voraussetzt, das sehr häufig beispielsweise in Form von offenen Aufgabenstellungen gefordert ist.

So liegt es auf der Hand, dass das konvergente Denken am besten in solchen Situationen funktioniert, in denen nur eine einzige, bestmögliche Antwort bzw. Lösung existiert. Die Lösung im Rahmen von Aufgaben, die logisches, konvergentes Denken erfordern, lässt sich finden, indem die in der Aufgabenstellung verfügbaren Informationen gebündelt und in einem oder mehreren Teilschritten systematisch analysiert und evaluiert werden.

Beispiele für das klassisches konvergentes Denken

Konvergentes Denken begegnet uns nicht nur im Rahmen wissenschaftlicher Studien und komplexer Problemstellungen, sondern auch immer wieder im Alltag. Eine wohl einfache und sofort verständliche Aufgabe, die ausschließlich konvergentes Denken erfordert, ist die mathematische Aufgabe 5+5.

Werden die beiden Summanden in der Aufgabe als gespeicherte Information analysiert, kommt man schnell zu der einzig richtigen und wahren Lösung, nämlich der Summe 10, zu der es keine anderen kreativen oder alternativ korrekten Lösungen gibt.

Divergentes Denken hingegen ist für die Bearbeitung der Aufgabenstellung „Finde jeweils 2 mögliche Summanden, die die Summe 10 ergeben“ nötig. Bei dieser so formulierten Aufgabenstellung gibt es keine antizipierte als bestmögliche und einzig korrekt geltende Lösung. Das kreative bzw. divergente Denken ist gefordert: Sowohl die Lösung 4+6 als auch die Lösungen 1+9 oder 2,7+7,3 gelten als mögliche, akzeptierte Lösungen für die Aufgabenstellung.

Konvergentes und divergentes Denken sind aber nicht nur in der Mathematik gefordert Auch eine offene bzw. geschlossene Aufgabe aus dem Sport mag den Unterschied zwischen dem konvergenten und divergenten Denken exemplarisch zu veranschaulichen:

Lautet die Aufgabe „Überspringe die Hochsprunglatte mit Hilfe der Technik des Fosbury Flops“, gibt es nur eine aus biomechanischer Sicht optimale Lösung, bei der der Athlet seinen Körperschwerpunkt durch eine leicht überstreckte Position während der Überquerung des Hindernisses absenkt und somit energieeffizient an Höhe gewinnt. Lautet die offene Bewegungsaufgabe jedoch: „Finde Lösungen, das Hindernis elegant zu überqueren“, sind unendlich viele Lösungen denkbar, die der Athlet beim Springen selbst erproben, reflektieren und evaluieren muss. Hier lässt sich also keine bestmögliche Lösung aus der Aufgabe ableiten.

Fazit: Konvergentes und divergentes Denken

Konvergentes Denken ist ein auf Logik basierter Denkansatz mit dem Ziel, die bestmögliche und oft einzig richtige Lösung für ein Problem oder eine Aufgabe zu finden. Im Gegensatz zum konvergenten Denken existieren beim Ansatz des divergenten Denkens zumeist keine einzig besten Lösungen und auch die Auswahl zwischen mehreren Alternativen zur Lösungsfindung ist nicht möglich. Stattdessen bedarf es eines Ausprobierens und kreativer Ansätze, um eine akzeptierte und gute Lösung für die Aufgabenstellung zu finden.

Was ist der Albedo Effekt? Bedeutung, Definition, Erklärung


Die Albedo ist ein Maß für das Rückstrahlungsvermögen bzw. die Reflexionsstrahlung von diffus reflektierenden, d. h. nicht selbst leuchtenden Oberflächen. Physikalisch kann die Albedo auch als Reflexionsgrad bezeichnet werden.

Was ist der Albedo Effekt? Bedeutung, Definition, Erklärung

Die Albedo wird als dimensionslose Zahl angegeben und entspricht dem Verhältnis von Rückstrahlung zu einfallendem Licht, d. h. sie lässt sich aus dem Quotienten aus reflektierter Lichtmenge zu einfallender Lichtmenge bestimmten.

Der Wert, den die Albedo dabei annehmen kann, wird auch Albedo-Wert genannt. Er reicht von 0, (= keine Reflektion von Licht) bis 1 (= vollständige Reflektion des vorhandenen Lichts) und kann auch in Prozent angegeben werden (0 – 100%). Beispielsweise entspricht eine Albedo von 0,9 eine Rückstrahlung von 90%).

Umso heller die Oberfläche ist, desto größer ist der Anteil der von ihr reflektierten Strahlung. d. h. je höher das Rückstrahlungsvermögen, desto höher die Albedo.

Die Albedo ist insbesondere in der Meteorologie von Bedeutung. Durch sie ist es möglich, Aussagen darüber zu treffen, wie stark sich eine Oberfläche erwärmt – und somit auch die Luft, die in Kontakt mit der Oberfläche steht.
Wird bei geringer Albedo das Sonnenlicht nicht reflektiert sondern absorbiert, erwärmt sich die Oberfläche und die sie umgebende Luftschicht (vgl. Abschnitt ‘Verschiedene Oberflächen und ihre Albedo’).
In diesem Zusammenhang ist in der Klimatologie die sog. Eis-Albedo-Rückkopplung wesentlicher Faktor.

Die Eis-Albedo-Rückkopplung beeinflusst den Strahlungsantrieb und damit die Strahlungsbilanz der Erde – womit dieser Faktor auch relevant für das Weltklima ist (vgl. Abschnitt ‘Klimaänderungen und die Albedo’).

Arten der Albedo

Es gibt zwei verschiedene Arten der Albedo, die zu unterscheiden sind:

Die sphärische Albedo (Bondsche Albedo) und die geometrische Albedo.

Unter Ersterer versteht man das Verhältnis des von der Oberfläche einer Kugel in alle Richtungen reflektierten Lichts zu der Strahlung, welche auf den Kugelquerschnitt einfällt.

Unter Zweiterer versteht man das Verhältnis des Strahlungsstrom, welcher von einer voll bestrahlten Fläche zum Betrachter gelangt zu dem Strahlungsstrom, der von einem sog. Lambertscher Strahler, d. h. einer diffus reflektierenden, vollkommenen weißen Scheibe von gleicher Größe bei einem senkrechtem Lichteinfall zum Betrachter gelangen würde.

Verschiedene Oberflächen und ihre Albedo

Die Albedo eines Körpers wird durch seine Oberflächenbeschaffenheit bestimmt, d. h. die verschiedenen Oberflächen haben eine unterschiedliche Rückstrahlung und demzufolge unterschiedliche Albedo-Werte, beispielsweise:

  • Schnee 40–90%
  • Wüste 20–45%
  • Wald 5–20%

Glatte Oberflächen, wie z. B. Wasser, Sand oder Schnee, besitzen einen verhältnismäßig recht großen Anteil an spiegelnder Reflexion. Ihre Albedo ist daher im Wesentlichen vom Einfallswinkel der Sonnenstrahlung abhängig.

Außerdem ist die Albedo abhängig von der Wellenlänge des Lichts, das untersucht wird. Daher sollte bei der Angabe der Albedo-Werte immer der entsprechende Wellenlängenbereich (z. B. Sonnenspektrum oder sichtbares Licht) mit angegeben werden.

Wolken und ihre Albedo

Die Albedo eines bewölkten Planeten unterscheidet sich stark zu der von unbewölkten Planeten. Der Unterschied kommt daher zustande, dass durch die Wolken mehr Licht in das Weltall zurück reflektiert wird, als bei einem blauen, wolkenloser Himmel.

Die Albedo der Wolken ist von verschiedenen Faktoren abhängig:

  • die Höhe der Wolke
  • die Größe der Wolke
  • die Anzahl sowie Größe der Tropfen, die die Wolke enthält.

Für gewöhnlich hat eine Wolke im Vergleich zum Erdboden neben ihr eine höhere Albedo. Daher reflektiert eine bewölkte Oberfläche mehr Strahlung ins Weltall zurück, als es ein Oberfläche bei klarem, unbewölkten Himmel tun würde. Wolken verhindern somit das Eindringen von Sonnenlicht, welches die Atmosphäre erwärmt – sie funkgieren für den Planeten somit ähnlich wie eine Markise im Wintergarten.

Klimaänderungen und die Albedo

Die Albedo bzw. das Rückstrahlungsvermögen des Planeten ist für dessen Erwärmung und das Weltklima von großer Bedeutung. Veränderungen von Landschaft sowie Klima können dazu führen, dass sich die Albedo verändert. Veränderungen in der Albedo können wiederum Auswirkungen auf den Strahlungshaushalt der Erde haben – und damit eine Erwärmung oder Abkühlung des Planeten bewirken.

In folgenden Fällen ist eine Änderung der Albedo besonders wirk- und bedeutsam:

  • Schwund von Schnee- und Eisflächen (Eis-Albedo-Rückkopplung)

Einer der bedeutsamsten regionalen Effekte des Klimawandels ist der Schwund von Meereis im nördlichen Polarmeer.
Dort wird mit dem Abschmelzen der polaren Eiskappe eine Oberfläche (Eis), welche eine hohe Rückstrahlung besitz, durch eine Oberfläche (Meerwasser) mit einer deutlich geringeren Rückstrahlung ersetzt. Die Eisfläche nimmt ab, die Albedo wird geringer.
Die Folge ist, dass die Aufnahme von Energie erheblich erhöht ist, die wiederum regional eine wesentlich stärkere Erwärmung verursacht, als für die restliche Welt zu erwarten ist. Je weniger Eis, desto stärker die Erwärmung. Dieser Effekt wird auch als Eis-Albedo-Rückkopplung bezeichnet, und Ursache dafür, dass der Klimawandel im Nordpolarmeer schneller abläuft und sichtbarer ist.

  • Änderung der Vegetation (Landnutzungswandel)

Der sog. Landnutzungswandel, der mit einem Verlust von Wäldern bei einer gleichzeitigen Ausdehnung landwirtschaftlich genutzter Flächen einhergeht, bedingt eine Erhöhung der Albedo. Bedingt durch die Art des Pflanzenaufwuchses ist Ackerland heller als bewaldete Fläche, daher besitzt es ein höheres Rückstrahlungsvermögen als Wald. Hieraus resultiert eine kühlende Wirkung. Diese kann jedoch andere nachteilige Faktoren (CO2-Zunahme und Biodiversitätsverlust), die mit dem Verschwinden von Regenwald einhergehen nicht ausgleichen.

Wofür / Wozu sind Quallen gut? Erklärung, Nutzen


Quallen fressen Kleinstlebewesen und Plankton. Dadurch tragen sie dazu bei, dass sich die kleinen Lebewesen nicht zu stark vermehren und es zu einer Plage kommt. Quallen leisten daher einen großen Beitrag für das Ökosystem. In den Meeren sind sie immer häufiger zu entdecken. Das liegt unter anderem daran, dass sich durch Dünger, der in die Meere gelangt, das Leben der Quallen begünstigt werden. Der Dünger sorgt dafür, dass die Algenfauna wächst, wodurch auch die Population an Plankton, kleinen Fischen und Ringelwürmer an Popularität zunehmen. Somit kommt es zu einer Invasion der Nesseltiere.

Was machen Quallen? Erklärung, Nutzen

Quallen bestehen zu 98% aus Wasser. Sie gehören zu den ältesten Lebewesen der Erdgeschichte und sind in allen Meeren zu finden. Die Nesseltiere gelten als wahren Überlebenskünstler. Ihrer besonderen Anpassungsfähigkeit ist es zu verdanken, dass sie bereits seit 670 Millionen die Erde besiedeln. Zu den Nesseltieren gehören auch Blumentiere und Seeanemonen. Quallen verfügen über Nesselkapseln an den Tentakeln. Bei einer Berührung schießt aus diesen Kapseln ein Gift heraus. Menschen, die mit dem Gift in Berührung kommen, haben ähnliche Symptome wie bei einer Brennnessel.

Quallen werden in zwei Kategorien unterteilt. Hierbei handelt es sich um die harmlosen Schirm- und Scheibenquallen und die giftigen, gefährlichen und vierkantigen Würfelquallen. Zusätzlich sind mehr Meer Rippenquallen, die nicht zu den echten Quallen gehören. Sie besitzen keine Nesselkapseln, was für Quallen sehr untypisch ist. Aufgrund ihres leichten Gewichts und ihrer speziellen Form werden Quallen von der Strömung getrieben. Je nach Art bevölkern sie würfelförmig, kugelig, schirmartig in vielen Farben die Meere.

Welche Aufgabe haben Quallen?

Quallen sorgen allgemein dafür, dass es keine Plagen von kleinen Fischen und Ringelwürmern gibt. Ein Quallenkörper besteht aus einem Gebilde, welches sich aus zwei sehr dünnen Zellschichten zusammensetzt. Zwischen der inneren und äußeren Zellschicht befindet sich eine Gallertmasse, die als Stützschicht dient. Diese Schicht gilt als Sauerstofflager. Die Qualle versorgt hierüber den Körper mit Sauerstoff.

An der inneren Zellschicht befindet sich ein Hohlraum. Hierbei handelt es sich um den Magen. Wenn die Quallen einen Fisch oder Plankton mit ihren Tentakeln erbeutet hat, übernehmen die Zellen der Schicht den eigentlichen Verdauungsprozess. Die Qualle hält während des Verdauungsprozesses zu ihrem Opfer immer einen besonders engen Körperkontakt.

Ansonsten könnte es passieren, dass der Verdauungssaft vom Meerwasser weggespült wird. Zu diesem Zweck liegt bei einer Qualle der Mageninhalt immer eng an den Verdauungszellen an. Somit werden Ringelwürmer oder Plankton von der Zellwand verdaut. Alles Unverdauliche wird über ein Kanalsystem entsorgt, welches sich ebenfalls in der Zellschicht befindet. Zusätzlich werden Quallen darüber mit allen benötigten Nährstoffen versorgt.

Wie und wo nützen Quallen?

Quallen leben ausschließlich im Meer. Wenn sie an den Strand gespült werden, haben sie sich innerhalb weniger Tage aufgelöst. Das liegt daran, dass sie fast nur aus Wasser bestehen. Einige Arten sind mit einem dichten Kranz an kurzen Fangarmen ausgestattet. Andere Quallenarten sind zum Jagen mit bis zu 20 Meter langen Tentakeln ausgestattet. Aus diesen Fangarmen können sich schnelle Opfer zwar noch befreien, aber Quallen sind zusätzlich in der Lage, Plankton, Würmer oder kleine Fische kampfunfähig zu machen. Zu diesem Zweck sind die Tentakeln mit giftigen Nesselkapseln ausgestattet.

Auf einer zehn Meter langen Tentakel befinden sich bis zu 700.000 Kapseln. Diese werden beim Fangen eingesetzt wie Harpunen und können blitzschnell reagieren. Berührt ein Fisch die giftige Harpune, schießt eine feine Injektionsnadel in die Haut und es dringt über einen Nesselschlauch ausreichend Gift in die Wunde. Der Angriff einer Qualle dauert eine hunderttausendstel Sekunde. Das Opfer wird sofort getötet oder gelähmt. In der Regel ernähren sich Schirmquallen, die beispielsweise in der Ostsee vermehrt auftreten von Plankton. Auf dem Speiseplan von Würfelquallen gehören dagegen kleine Fische. Zu den giftigsten Quallenarten gehört die australische Seewespe. Sie kann auch für Menschen tödlich sein.

Was ist der Chantalismus / Kevinismus? Bedeutung, Definition, Erklärung


Mit dem Begriff des Kevinismus, der synonym mit dem Begriff des Chantalismus verwendet wird, handelt es sich um ein psychologisches Phänomen, dessen Auftreten besonders in bestimmten Gesellschaftsschichten beschrieben wird. Das Phänomen ist keinesfalls neu, sondern bereits seit der spätmittelalterlichen Phase belegt.

Was ist der Chantalismus / Kevinismus? Bedeutung, Definition, Erklärung

Ist von Kevinismus die Rede, wird das konkrete psychologische Phänomen beschrieben, dass speziell Eltern aus gesellschaftlich bildungsfernen Schichten ihren Kindern Vornamen aus der anglo-amerikanischen Kultur geben. In der Vergangenheit ist umfänglich nach den Gründen geforscht worden, weshalb der sogenannte Kevinismus gerade in gesellschaftlich bildungsfernen Schichten zu finden ist. In psychologischen und soziologischen Studien konnte schließlich nachgewiesen werden, dass sich das beschriebene Phänomen aufgrund mehrerer Faktoren besonders in der bildungsfernen Gesellschaft finden lässt:

Kevinismus – welche Gründe gibt es für das Phänomen?

Versucht man den Kevinismus zu erklären, sind zwei Faktoren von besonderer Bedeutung: Zum einen sind der Faktor Wohlstand und zum anderen die kulturelle Nähe von Bedeutung für die Entstehung des beschriebenen gesellschaftlichen Phänomens.

Die Vergebung von Namen hat bei den Eltern etwas mit Wertschätzung und Anerkennung zu tun. Eltern in bildungsfernen Milieus gefallen besonders diejenigen Namen, die aus einem kulturell und historisch bekannten Segment stammen und die ihnen zudem aus den unterhaltenden, oft populärkulturellen Medien bekannt sind.

Dabei konnte nachgewiesen werden, dass Eltern aus bildungsfernen Schichten ihren Kindern insbesondere Namen von denjenigen Personen geben, die in den Medien als erfolgreich und in Wohlstand lebend präsentiert werden. Bei den Eltern spielt der Wunsch nach einem sozialen Aufstieg ihrer Kinder in erfolgreiche, wohlständige Gesellschaftsschichten bei der Namensgebung eine wesentliche Rolle.

Das heute als Kevinismus beschriebene Phänomen, ist in ähnlicher Form bereits aus der spätmittelalterlichen Kultur bekannt. Bildungsferne Schichten griffen bei der Namensgebung für ihre Kinder beispielsweise auf die Vornamen von erfolgreichen Protagonisten aus populärkulturellen Balladen, Gedichten oder Liedern zurück.

Abgrenzungsbedürfnis in der Oberschicht

Der Kevinismus wird indirekt durch das Bedürfnis nach Abgrenzung in der Oberschicht verstärkt. So wählen Eltern aus den elitären Gesellschaftsbereichen insbesondere lokale, zum Teil als klassisch geltende Namen für ihre Kinder, die häufig auf eine familiäre Tradition zurückgehen.

Auch der zweite Vorname wird insbesondere in den elitären Milieus wieder beliebter und ist ebenfalls dem Bedürfnis nach Abgrenzung elitärer Gesellschaftsschichten zuzuschreiben.

Der Kevinismus ist heute im Kontext der Bildungsforschung und weiterer fachübergreifender soziologischer und psychologischer Studien von großem Interesse. Unbestritten ist nämlich bisweilen, dass die Wahl des Vornamens für das Kind richtungsweisend für das spätere Leben sein kann.

Diesbezüglich wurde in voneinander unabhängigen Studien dargelegt, dass der Kevinismus einer von mehreren Faktoren für die Entstehung von ungleichen Bildungschancen sein kann.

Mit anderen Worten: Bereits die Wahl des Namens kann den nachhaltigen Bildungserfolg eines jungen Menschen beeinflussen, den gesellschaftlichen Alltag prägen bzw. im späteren Verlauf des Lebens die Wahl des sozial prägenden Umfelds beeinflussen und nicht zuletzt auch die Wahrscheinlichkeit eines sozialen Aufstiegs beeinflussen.

Bestimmte Vornamen rufen Vorurteile hervor

Im Rahmen eines Forschungsanliegens im Zusammenhang mit dem Kevinismus sind Lehrkräfte im Rahmen einer qualitativen Analyse nach ihren Attributionen zu bestimmten Vornamen befragt worden.

Die Befragung ergab, dass ausgewählte Vornamen tatsächlich das Potential haben, negativ konnotierte Vorurteile hervorzurufen. Konkret hat sich gezeigt, dass einige Vornamen der Lernenden von den Lehrkräften positiv wahrgenommen werden, während anderen Vornamen durch die Lehrkräfte überwiegend negative Charakteristiken zugeschrieben werden. Auffallend ist, dass nur eine Minderheit der befragten Lehrerinnen und Lehrer den teils unbewusst vorgenommenen Attributionen kritisch gegenüber eingestellt sind.

Namen wie Kevin, Justin oder Chantal werden mit Verhaltensauffälligkeiten in Verbindung gebracht

Dass das psychologische Phänomen des Kevinismus bzw. des Chantalismus auf den männlichen Vornamen Kevin bzw. auf den weiblichen Vornamen Chantal zurückgeht, kommt nicht von ungefähr:

In bildungsfernen Schichten galten lange Zeit die Namen Justin, Kevin, Chantal, Mandy und Maurice als präferierte Vornamen. Dass sich in Erhebungen bestätigte, dass Lehrkräfte gerade mit den soeben genannten Vornamen Verhaltensauffälligkeiten assoziieren, liegt dabei natürlich nicht an den Vornamen per se als vielmehr daran, dass in den bildungsfernen Milieus zum Teil andere Erziehungsstile vorherrschen, die von der elitären Gesellschaft kritisch hinterfragt werden und zu einem Verhalten der Heranwachsenden führen, das als sozial auffällig klassifiziert wird.

These um typische Unterschichtsnamen bleibt umstritten

Die These um die Existenz von besonderen Vornamen in der gesellschaftlichen Unterschicht bleibt dennoch umstritten. In der Psychologie weist man darauf hin, dass das Greifen nach besonderen, exotisch klingenden Namen den Wunsch nach einem besseren Leben spiegelt. Belegt und allgemein akzeptiert ist diese Auffassung bisweilen allerdings nicht.

Was bedeutet “zu x Prozent wirksam”? Bedeutung, Definition, Erklärung


Die Wirksamkeit eines Impfstoffes im gängigen Sinne gibt Auskunft darüber, wie viel Prozent niedriger das Risiko einer geimpften Person im Vergleich zu einer nicht-geimpften Person ist, Symptome der betreffenden Krankheit zu entwickeln. Wirksamkeiten von Impfstoffen spielten in der Vergangenheit selten eine Rolle, oft, weil für eine Krankheit nur ein Impfstoff zugelassen war, seit dem Ausbruch der Corona-Pandemie und der Entwicklung verschiedener Impfstoffe gegen das Corona-Virus spielen die verschiedenen Wirksamkeiten der Impfstoffe in der medialen Aufmerksamkeit eine größere Rolle und haben einen nicht unerheblichen Einfluss auf die persönlichen Impfentscheidungen vieler Menschen.

Wie wird die „Wirksamkeit“ eines Impfstoffes bestimmt? Was bedeutet “zu x Prozent wirksam”?

Um die Wirksamkeit eines Impfstoffes zu bestimmen, werden vor der Zulassung des Impfstoffes große Studien durchgeführt. Dabei erhält eine Gruppe von Testpersonen den Impfstoff, eine andere Gruppe (Kontrollgruppe) ein Placebo, also zum Beispiel eine Kochsalzlösung. Wer zu welcher Gruppe gehört, ist zunächst weder für die Testpersonen, noch für die behandelnden Ärzte erkenntlich. Dieses Studienprinzip bezeichnet man als sogenannte Doppelblindstudie. In einem vorher festgelegten Zeitintervall oder anderweitigen Rahmen wird nun beobachtet, wie viele Menschen sich mit dem Virus, gegen das der Impfstoff wirken soll, infizieren.

Was bedeutet “zu 95 Prozent wirksam”?

Ist eine vorher festgelegte Menge an Infektionen erreicht, wird die Verblindung aufgehoben und die Studie ausgewertet. Dazu wird zunächst überprüft, wie viele Menschen aus der Kontrollgruppe und aus der geimpften Gruppe infiziert wurden. Daraus errechnet sich dann die Wirksamkeit des Impfstoffes. Erkrankten von den Testpersonen aus der Kontrollgruppe beispielsweise 95 und in der geimpften Gruppe nur 5, so liegt die Wirksamkeit des Impfstoffes bei 95 Prozent. Das bedeutet allerdings nicht, dass fünf Prozent der geimpften Personen erkranken. Es bezeichnet lediglich, dass das Risiko, zu erkranken von geimpften im Vergleich zu ungeimpften 95 Prozent niedriger ist. Die Wahrscheinlichkeit, als ungeimpfter Mensch zu erkranken, hängt wiederum von verschiedenen Parametern wie der Verbreitung des Virus oder den Schutzmaßnahmen ab. Diese eben erklärte Methode bestimmt also die Wirksamkeit eines Impfstoffs, eine symptomatische Erkrankung zu verhindern.

Impfstoff-Wirksamkeit gegen Ansteckung

Eine andere Wirksamkeit, die sich nicht so leicht bestimmen lässt, ist die Wirksamkeit eines Impfstoffes gegen eine Ansteckung, also gegen die Ansiedlung des betroffenen Virus im Körper. Auch wenn eine Impfung vor Symptomen einer Krankheit schützt, können sich die Viren dennoch begrenzt im Körper vermehren, nur eben nicht so stark, dass es zu einer Erkrankung er Person kommt. Beim Corona-Virus siedeln sich vereinzelt beispielsweise Viren im Hals und Rachenbereich an, die Person kann also so gesehen infiziert sein, ohne jedoch Symptome der Krankheit zu haben.

Da solche symptomlosen Ansteckungen oft unbemerkt bleiben, ist es schwer, die Wirksamkeit einer Impfung gegen diese zu bestimmen, da man eine solche Ansteckung nur über Test (bei Corona zum Beispiel durch PCR-Tests) nachweisen kann. Generell lässt sich sagen, dass die Wirksamkeit gegen Ansteckungen meist niedriger liegt die Wirksamkeit gegen einen symptomatischen Ausbruch der Krankheit. Liegt die Wirksamkeit eines Impfstoffes gegen die Ansteckung bei 100 Prozent, so genießen geimpfte Personen die sogenannte „sterile Immunität“.

Impfstoff-Wirksamkeit gegen schwere Verläufe und Tod

Des Weiteren lässt sich noch eine andere Wirksamkeit definieren, nämlich die Wahrscheinlichkeit, mit der ein Impfstoff vor schweren Symptomen der Krankheit oder dem Tod an dieser schützt. Gerade in der Corona-Pandemie hat diese Wirksamkeit an Bedeutung gewonnen, weil auch Impfstoffe, die nur 60- bis 70-prozentigen Schutz vor einer Ansteckung boten, einen fast 100-prozentigen Schutz vor schweren Verläufen boten. Dies lässt sich dadurch erklären, dass es wie vorher beschrieben auch bei geimpften Personen selten zu einer Infektion mit dem Virus kommen kann. Da das Immunsystem durch die Impfung aber bereits auf den Krankheiterreger eingestellt ist, wird dieser besser bekämpft als bei einer ungeimpften Person und kann sich daher nur begrenzt ausbreiten und nur mildere Symptome auslösen. Schwere Krankheitsverläufe, beim Coronavirus zum Beispiel Lungenentzündungen werden so meist verhindert.

Um zu untersuchen, wie wirksam ein Impfstoff vor schweren Verläufen schützt, wird wie vorhin beschrieben die Anzahl an schweren Verläufen in der Kontrollgruppe und in der geimpften Gruppe verglichen. Auch hier gilt dann wieder: Wirksamkeit vor schweren Verläufen bedeutet, wie viel niedriger das Risiko eines schweren Verlaufs gegenüber einer ungeimpften Person ist. Moderne Impfstoffe zum Beispiel gegen das Coronavirus erreichen hier häufig Werte von 95 bis 100 Prozent. Dennoch kann es gerade bei älteren oder immungeschwächten Personen trotz Impfung sehr selten zu solch schweren Verläufen kommen.

Wirksamkeit gegen mutierte Viren

Ebenfalls von Bedeutung, gerade in der Corona-Pandemie, ist die Wirkung eines Impfstoffes gegenüber Mutationen des ursprünglichen Virus, gegen den der Impfstoff entwickelt wurde. Je nach Virus kann es mit der zunehmenden Vermehrung dazu kommen, dass bei sich Mutationen bilden, bei denen die Virus-DNA verändert ist. Es kann vorkommen, dass so entstehende Varianten sich in ihren Eigenschaften so unterscheiden, dass das menschliche Immunsystem sie nicht mehr oder schlechter als das ursprüngliche Virus erkennt. So leidet dann auch die Wirksamkeit eines Impfstoffes. Dieses Phänomen nennt man „Immune Escape“. In der Corona-Pandemie aufgetretene Mutationen wie beispielsweise die Delta-Variante sorgten dafür, dass sich die Wirksamkeit einiger Impfstoffe vor einer Erkrankung verschlechterte, weil die neuen Virusmutationen vom Immunsystem nicht mehr ganz so gut erkannt werden konnten. Dennoch schützen die zugelassenen Impfstoffe gegen das Corona-Virus auch bei den Mutationen sehr effektiv gegen schwere Verläufe und den Tod.

Wofür / Wozu sind Bürsten an der Rolltreppe? Erklärung


Haben Sie sich jemals gefragt, warum es auf der Rolltreppe Bürsten gibt? Sie scheinen nichts weiter zu tun, als Platz zu beanspruchen. Und wer soll diese Dinger überhaupt reinigen? Die Bürsten sind eigentlich dazu da, die Unterseite Ihrer Schuhe zu reinigen, bevor Sie eine Rolltreppe betreten. Die meisten Menschen laufen nämlich mit Schmutz und Dreck an den Füßen herum, der auf die Stufen einer Rolltreppe gelangen kann. Dies stellt ein Sicherheitsrisiko dar, da jemandem der Schuh abrutschen und er hinunterfallen könnte. Indem wir unsere öffentlichen Räume sauber halten, tragen wir auch zu deren Sicherheit bei!

Wofür / Wozu sind Bürsten an der Rolltreppe? Erklärung

Rolltreppenbürsten gehören zu den am meisten vernachlässigten Ausrüstungsgegenständen im öffentlichen Raum. Sie tun jedoch viel mehr, als nur Schmutz und Ablagerungen von den Rolltreppen zu entfernen. Rolltreppenbürsten haben drei Hauptaufgaben, die sie auf einer Rolltreppe erfüllen.

1. Sie kehren Schmutz und andere Materialien von den Stufen, um sie für die Fußgänger sauber zu halten.

2. Sie entfernen kleine Partikel von den Schuhen, damit die Menschen die Rolltreppe leichter betreten können.

3. Sie schrubben Schmutz und Ablagerungen an den Seiten und an der Unterkante jeder Stufe weg.

4. Die Bürsten der Rolltreppen werden mit Strom betrieben.

Welche Aufgaben haben die Bürsten an der Rolltreppe?

Eine Rolltreppe ist eine Treppe, die Menschen zwischen den Stockwerken eines Gebäudes befördert. Sie ist oft Teil eines Aufzugssystems und kann eine große Anzahl von Personen schnell und effizient befördern. Rolltreppen werden mit Strom betrieben, müssen aber gewartet werden, um einen reibungslosen Betrieb zu gewährleisten. Das Wort “Rolltreppe” setzt sich aus den Wörtern “ease” (Leichtigkeit) und “camel” (Kamel) zusammen, was Ihnen eine Vorstellung davon vermittelt, wie sie funktionieren. Sie fahren auf der einen Seite nach oben und auf der anderen Seite nach unten, um Ihnen den Weg zu erleichtern!

Haben Sie sich schon einmal gefragt, welche Aufgaben die Rolltreppenbürsten haben? Wir haben sie alle schon auf den Rolltreppen in Aktion gesehen, aber wissen wir wirklich, was sie dort tun? Die Hauptaufgabe dieser Bürsten besteht darin, Schmutz und Ablagerungen zu entfernen, die sich auf den Stufen ansammeln. Dies dient der Sicherheit und sorgt für eine reibungslose Fahrt.

Wie und wo nützen die Bürsten an der Rolltreppe?

Rolltreppen sind an den meisten öffentlichen Plätzen zu finden. Auch in Flughäfen, Einkaufszentren, bei unterirdischen Bahnhöfen, einem Kaufhaus und anderen Bereichen mit hohem Verkehrsaufkommen sind sie immer häufiger zu finden. Sie sind die goldene Treppe zum Himmel für alle, deren Knie keine Stufen mehr aushalten! Rolltreppen sind eine großartige Erfindung, die das Leben für alle viel einfacher gemacht hat. Allerdings können sie auch sehr schmutzig sein. Hier kommen die Rolltreppenbürsten ins Spiel! Rolltreppenbürsten sind so konzipiert, dass sie die Oberfläche einer Rolltreppe reinigen, während die Menschen auf ihr gehen oder stehen und auf ihren Zug oder Bus warten. Sie haben Borsten, die Schmutz und Ablagerungen von den Seitenwänden einer Rolltreppe fegen, so dass Sie sich keine Sorgen machen müssen, mit Schmutz bedeckt zu sein, wenn Sie die nächste Etage betreten! Fahrtreppen und Fahrsteige sind eine tragende Säule des modernen Verkehrs.

Was ist Vakzinologie? Bedeutung, Definition, Erklärung


Die Vakzinologie ist die Wissenschaft von und der Impfstoffe. Ziel der Vakzinologie ist es Impfstoffe gegen Krankheiten zu entwickeln.

Was ist Vakzinologie? Bedeutung, Definition, Erklärung

Das Wort “Vakzinologie” setzt sich aus dem Wort “Vakzin” und dem Wortteil “-logie” zusammen. Ein “Vakzin” ist ein Impfstoff. Der Wortteil “-logie” ist griechisch und bedeutet auf deutsch “Wissenschaft”. Also ist die “Vakzinologie” die Wissenschaft der Impfstoffe.

Geschichte der Vakzinologie

Die ersten Versuche der Vakzinologie sind fast so alt wie die Versuche, Krankheiten den Gar auszumachen. Es gibt Hinweise darauf, dass die Chinesen bereits im 6. Jahrhundert die Pocken durch Impfung behandelt haben, obwohl die frühesten schriftlichen Aufzeichnungen aus der Zeit um das Jahr 1000 stammen.

Der erste ernst zu nehmende Versuch, eine Infektionskrankheit durch eine systematische Impfung zu bekämpfen, war Jenners Arbeit mit dem Pockenimpfstoff. Der nächste Durchbruch im Bereich der Impfung gelang Pasteur mit seinen Studien zur Impfung mit dem Geflügelcholeravirus. Er legte damit wichtige Meilensteine wie die Abschwächung, die Veränderung durch wiederholte Verabreichung und die Notwendigkeit, die Immunmachung von Mensch zu Mensch durch etwas Sichereres, Beständigeres und weniger Gefährliches zu ersetzen.

In den letzten 200 Jahren ist es gelungen, durch Impfungen mehrere schwere Krankheiten zu bekämpfen: Pocken, Diphtherie, Tetanus, Polio und Masern sind in vielen Teilen der Welt ausgerottet. Im Falle der Pocken hat sich der Traum von Jenner erfüllt, denn die Krankheit ist vollständig verschwunden. Auch durch die Entwicklung einer Impfung gegen Influenza, Hepatitis B, Pneumokokken und Haemophilus influenzae Typ B wurden große Fortschritte bei der Bekämpfung dieser Infektionen erzielt, aber es bleibt noch viel zu tun, selbst in den Industrieländern, da das Phänomen der neu auftretenden und wieder auftauchenden Infektionskrankheiten eine der aktuellen Herausforderungen in diesem Bereich darstellt.

Die Auswirkungen von Impfungen und die Forschungsergebnisse der Vakzinologie auf die Gesundheit können gar nicht hoch genug eingeschätzt werden, denn mit Ausnahme der Wasseraufbereitung hat keine andere Maßnahme, nicht einmal der Einsatz von Antibiotika, eine so große Wirkung auf die Verringerung der Sterblichkeit und das Bevölkerungswachstum gehabt. Die Vakzinologie ist aus Sicht der öffentlichen Gesundheit die wirksamste Maßnahme, wird aber derzeit vor allem in den Entwicklungsländern zu wenig genutzt. Tragischerweise sterben weltweit immer noch jedes Jahr etwa zwei Millionen Kinder an vermeidbaren Krankheiten. Die Gründe dafür sind vielfältig, aber Tatsache ist, dass in der Dritten Welt der skalierbare Einsatz von bereits vermarkteten Impfstoffen lange auf sich warten lässt.

Der erste Versuch, eine vermeidbare Krankheit auszurotten, geht auf das Jahr 1956 zurück, als die Weltgesundheitsorganisation (WHO) erfolgreich versuchte, die Pocken weltweit auszurotten, was 1980 durch den massenhaften Einsatz des Pockenimpfstoffs gelang. Es folgten Polio (seit 2003 sind Nord- und Südamerika, der Westpazifik und die Europäische Region poliofrei), Masern (Ende 2004 lag die weltweite Durchimpfungsrate bei 76 % und viele Länder hatten das Ziel erreicht, Polio bis Ende 2004 auszurotten) und Masern (Ende 2004 lag die weltweite Durchimpfungsrate bei 76 % und viele Länder hatten das Ziel erreicht, Polio bis Ende 2004 auszurotten).

Seitdem wurden viele Anstrengungen unternommen und viel erreicht bei der Entwicklung neuer Impfstoffe, wobei die Fortschritte in Bereichen wie Molekularbiologie, rekombinante DNA-Technologie, Proteinbiochemie, Polysaccharidchemie, Bakteriologie, Virologie und Immunologie genutzt wurden. Einige der Bereiche, in denen diese neuen Technologien angewandt wurden, umfassen die Verbesserung bestehender Impfstoffe mit dem Ziel, ihr Angebot oder ihre Sicherheit zu erhöhen. Die meisten Versuche zielten jedoch auf die Entwicklung neuer Impfstoffe ab.

Aktive Immunisierung

Um zu entscheiden, welche Strategie bei der Entwicklung eines Lebendimpfstoffs (bei dem der Mikroorganismus als Immunogen fungiert, das in der Lage ist, Zellen zu infizieren und sich im Wirt zu vermehren, ohne eine natürliche Krankheit auszulösen) oder eines Nicht-Lebendimpfstoffs (ein Immunogen, das daher keine Zellen infizieren kann) verfolgt werden soll, müssen die Epidemiologie und Immunbiologie der natürlichen Infektion oder die Physiologie des betreffenden Erregers sowie die technische Durchführbarkeit der Herstellung von Impfstoffen des einen oder anderen Typs berücksichtigt werden.

Die Zielpopulation für eine Impfung hängt von der Epidemiologie der Krankheit und der Fähigkeit ab, die gefährdete Bevölkerung zu erfassen. Das Alter und der Gesundheitszustand der gefährdeten Bevölkerung können über die geeignetsten Impfstrategien zum Erreichen einer schützenden Immunität entscheiden.

Attenuierte Lebendimpfstoffe: klassische virale und bakterielle Technologien

Die meisten bestehenden Lebendimpfstoffe erfüllen die Kriterien für einen idealen Impfstoff, und wenn dies der Fall ist, wird in einigen Fällen die durch den Wildtyp-Mikroorganismus verursachte natürliche Infektion eliminiert und das Immunsystem gegen den Mikroorganismus alarmiert, wodurch ein lang anhaltender Schutz erreicht wird. Solche Impfstoffe enthalten lebende Mikroorganismen, die den Wirt in einer Weise infizieren, die der natürlichen Infektion ähnelt, aber nicht die Virulenz der natürlichen Infektion aufweist, so dass eine Immunantwort ausgelöst wird, die derjenigen ähnelt, die durch den Wildtyp-Mikroorganismus während der natürlichen Infektion ausgelöst wird.

Obwohl es aufgrund dieser Eigenschaften an sich wünschenswert wäre, dass alle aktiven Impfstoffe Lebendimpfstoffe sind, ist dies technisch nicht für alle pathogenen Mikroorganismen möglich. Ein Lebendimpfstoff kann unvollständig abgeschwächt sein und daher bei einem Teil der Geimpften seine natürliche Krankheit auslösen. Da er sich vermehren kann, besteht außerdem die Möglichkeit, dass der Mikroorganismus in seine pathogene (natürlichere) Form zurückkehrt oder reaktogen wird. Es ist auch möglich, dass einige Mikroorganismen in Lebendimpfstoffen vom Geimpften übertragen werden können, was eine gewisse Gefahr darstellt, wenn der Empfänger eine Immunschwäche hat oder eine Immunsuppressionstherapie erhält.

Die klassischen Technologien erfordern die Fähigkeit, das Virus effizient zu züchten, vorzugsweise im Lebendzustand. Der erste klassische Ansatz besteht darin, ein Tiervirus zu isolieren und zu kultivieren, das eine Tierkrankheit auslöst, die der menschlichen Krankheit ähnlich ist. Die zweite klassische Strategie, die Abschwächung in Zellkulturen, wurde in den 1940er Jahren mit der Entwicklung von Zellkulturtechniken und der Fähigkeit, das Virus in Zellkulturen zu vermehren, möglich. Ältere Ansätze für abgetötete Impfstoffe, die den oben beschriebenen klassischen Strategien für Lebendimpfstoffe ähneln, beruhen auf der Inaktivierung ganzer Bakterien oder Viren, um die Synthese von Antikörpern gegen ihre zahlreichen Immunogene auszulösen. Zugelassene inaktivierte bakterielle Impfstoffe wurden vor mehreren Jahrzehnten entwickelt, als bakterielle Antigene und ihre spezifische Rolle bei der Immunität noch nicht bekannt waren.

Passive Immunisierung

In manchen Situationen ist ein sofortiger immunologischer Schutz erforderlich, um eine Infektionskrankheit zu behandeln. Da es 1 bis 2 Wochen dauert, bis eine aktive Impfstoffinjektion eine Reaktion hervorruft, kann ein Antikörperpräparat mit Schutzwirkung gegen einen Krankheitserreger wirksam sein, wenn es zu dem Zeitpunkt oder sehr bald nach einer vermuteten oder bekannten Exposition gegenüber einem Krankheitserreger verabreicht wird. Beispiele hierfür sind die Prophylaxe nach einer Exposition gegenüber dem Hepatitis-B-Virus oder dem Varizellazoster-Virus sowie die Verabreichung an schwangere Mütter, die mit dem Zytomegalievirus infiziert sind, um perinatale Infektionen zu verhindern. Die Schutzwirkung der meisten dieser Antikörperpräparate besteht darin, den Erreger zu neutralisieren oder an die betroffene Zelle zu binden, die dann zerstört wird.

Die ersten Antikörper- oder Immunglobulinpräparate, die für die akute antimikrobielle Therapie wirksam waren, wurden von Tierarten wie Pferden gewonnen, denen inaktivierte Bakterientoxine injiziert wurden. Obwohl diese Antiseren wirksam waren, verursachten die fremden Antikörper bei den Empfängern schwerwiegende unerwünschte Wirkungen, wie z. B. die Serumkrankheit. Aus diesem Grund werden sie in der Regel nicht verabreicht, es sei denn, es handelt sich um einen Notfall, für den es keine alternative Therapie gibt.

Wofür / Wozu sind Fliegen gut? Erklärung, Nutzen


Fliegen sind ein wichtiger Bestandteil der Natur und spielen in vielen Ökosystemen eine Rolle. Fliegen sind unter anderem deshalb so wichtig, weil sie dazu beitragen, Gegenstände auf dem Boden zu zersetzen und sie wieder in die Umwelt zurückzuführen. Sie dienen auch als Nahrung für andere Tiere und Insekten, wie Spinnen und Eulen. Fliegen bestäuben auch Blumen, indem sie mit ihren Mundwerkzeugen oder Füßen Pollen von einer Blume auf eine andere übertragen!

Welche Aufgaben haben Fliegen?

Es gibt über 150.000 Fliegenarten auf der Welt und jede hat ihre eigne Aufgabe oder ihren eigenen Zweck! Die folgende Liste enthält nur einige Beispiel:

1) Bestäubung – Einige Arten von Fliegen helfenblüten zu bestäuben, indem sie Pollen von einer Pflanze zur anderen tragen.

2) Prädation – Viele Fliegenarten fressen andere Insekten und Schädlinge! Dies trägt zum Schutz unserer Kulturpflanzen und Bäume bei, was bedeutet, dass wir weniger Lebensmittel im Laden kaufen oder im Garten anbauen müssen.

3) Einige Fliegenarten sind Parasiten, die ihre Eier auf kleineren Tieren ablegen, wie z. Bnagetiere. Die Larven der Fliege schlüpfen und fressen das lebende Gewebe ihres Wirts!

4) Fliegenarten sind auch für Wissenschaftler sehr nützlich, denn sie können in der Genforschung oder sogar zur Überwachung eingesetzt werden.

5) Einige Fliegen werden sogar von Menschen als Nahrungsmittel verwendet! So können die Larven einiger Fliegenarten in Mexiko als frittierter Snack namens “Chapulines” gegessen werden.

Was machen Fliegen?

Was machen Fliegen? Das ist eine Frage, über die Wissenschaftler seit Jahren diskutieren. Die einen sagen, sie seien schmutzige Schädlinge, die anderen halten sie für fliegende Kreaturen mit großer Geschwindigkeit und Schönheit. Es ist unbestritten, dass sie eine wichtige Rolle in unserem Ökosystem spielen. Einige Arten fressen zum Beispiel tote Tiere oder verrottende Pflanzen, um die Erde sauber zu halten. Außerdem bestäuben sie Blumen und tragen so zum Gedeihen der Pflanzen bei!

Wie und wo nützen Fliegen?

Stubenfliegen sind ein alltäglicher Anblick in vielen Haushalten. Man sieht sie oft um den Mülleimer herumschwirren, auf dem Küchentisch hocken oder sich an einem schmutzigen Futternapf festhalten. Wir denken oft an Fliegen als Schädlinge und reden darüber, dass sie ständig versuchen, in unsere Speisen und Getränke zu gelangen. Aber es gibt auch eine andere Seite dieser Geschichte!

Wenn Sie auf der Suche nach einem Insekt sind, das leicht zu züchten und relativ produktiv ist und dabei viele Vorteile bietet, dann sind Stubenfliegen die beste Wahl. Die Larven können Geflügel oder Schweine ernähren, wenn sie zu Fliegenmehl verarbeitet werden. Dadurch wird eine Menge Fischmehl eingespart, was den Fischereidruck auf unsere Meere verringert – ein indirekter ökologischer Vorteil. Stubenfliegenlarven liefern außerdem hochwertiges Eiweiß mit geringem Fett- und Cholesteringehalt im Vergleich zu anderen häufig verwendeten Futtermitteln für Nutztiere.

Die Fliegen sind in vielen Bereichen ein nützliches Forschungsinstrument. Sie liefern der Forschung regelmäßig wertvolle Erkenntnisse, zum Beispiel in der Genetik, bei der Entwicklung innovativer (sanfter) Methoden zur Insektenbekämpfung, in der Resistenzforschung oder bei der Erforschung der Krankheitsübertragung. Die Nützlichkeit dieser Fliege findet sich nicht nur an Universitäten und in Labors, sondern beispielsweise auch auf Mülldeponien, wo sie zur Untersuchung der Zersetzung von organischem Material eingesetzt wird.

Wofür / Wozu sind Läuse gut? Erklärung, Nutzen


Läuse sind winzige, flügellose Insekten, die auf der Kopfhaut leben. Sie ernähren sich, indem sie zubeißen und Blut vom Kopf ihres Wirtes saugen. Läuse können sich durch direkten Kontakt mit anderen Menschen oder Gegenständen wie Mützen, Kämmen, Bettwäsche, Kissen und Kleidung verbreiten. Selbst eine kurze Begegnung mit einer Person, die Läuse hat, kann einen Befall bei einer anderen Person auslösen!

Welche Aufgaben haben Läuse?

Was sind die Funktionen von Läusen? Läuse scheinen nur ein Ärgernis zu sein, aber sie erfüllen tatsächlich einige sehr wichtige Funktionen. Diese winzigen Lebewesen können Kindern helfen, in Zukunft resistenter gegen Kopfläuse und andere Parasiten zu werden! Sie können Kindern auch die Bedeutung von Hygiene und Sauberkeit vermitteln.

Wofür sind Läuse gut?

Sie haben vielleicht schon einmal gehört, dass Läuse ein Schädling sind, aber sie erfüllen tatsächlich eine wichtige Funktion im Ökosystem. Ohne sie wären die Vögel überbevölkert und viele andere Tierarten würden ebenfalls leiden. Läuse tragen dazu bei, die Populationen im Gleichgewicht zu halten, indem sie das Blut des Wirtstieres aufnehmen, um ihre Jungen zu ernähren. Sollten Sie jedoch befallene Haustiere oder Kinder haben, ist es wichtig, sie loszuwerden, um jedes Infektionsrisiko zu vermeiden!

Ebenso können sie verwendet werden, um das Alter einer Leiche zu bestimmen oder Tiere zu identifizieren, die mit Menschen in Kontakt gekommen sind. Wenn man zum Beispiel Läuseeier auf einem Tier findet, kann man feststellen, ob es mit jemandem in Kontakt gekommen ist, der Kopfläuse hatte und sich die Kopfhaut gekratzt hat. Das liegt daran, dass menschliche Kopfläuse ohne Blutmahlzeit nicht länger als 24 Stunden außerhalb des menschlichen Körpers überleben können.

Wie und wo nutzen Läuse?

Es ist ein weit verbreiteter Irrtum, dass sich Läuse von Blut ernähren. Das ist aber nicht wahr! Läuse ernähren sich in erster Linie von menschlichem Haar, aber sie bevorzugen auch die Nissen (Eier), in denen sie leben. Der Speichel der Läuse enthält ein Enzym, das ihnen hilft, die Proteine im menschlichen Haar aufzuspalten, damit sie es verdauen können. Sie brauchen weder Blut noch irgendetwas anderes, um sich zu ernähren. Man kann also mit Sicherheit sagen, dass sie keine Vampire sind – nur winzige Käfer mit großem Appetit!

Fakten über Läuse

  • Läuse können weder springen noch fliegen.
  • Ein Läusebefall kann sich leicht von Mensch zu Mensch durch engen Kontakt, z. B. durch das gemeinsame Benutzen von Kämmen, Hüten und Bürsten, ausbreiten.
  • Die meisten Läuse treten bei Kindern zwischen drei und zehn Jahren auf, weil sie häufiger Kopf-zu-Kopf-Kontakt haben.
  • Läuse übertragen keine Krankheiten, aber ihre Bisse können die Kopfhaut jucken lassen oder sogar eine allergische Reaktion hervorrufen.
  • Es ist nicht notwendig, alles zu waschen, was man besitzt, nachdem man einen Läusebefall hatte.
  • Läuse können auch Nahrung für Parasiten sein – eine Lausart ist sogar selbst ein Parasit!
  • Die weibliche Milbe lebt auf dem Körper des Wirts, während sie in dessen Haarfollikeln Eier ablegt, bis sie etwa zwei Wochen später stirbt.
  • Läuse werden von Fischen, Vögeln und anderen Tieren wie Schildkröten gefressen.
Was ist Trockenstress? Bedeutung, Definition, Erklärung


Der Begriff Trockenstress, in der Biologie auch unter dem Synonym Wasserstress bekannt, bezeichnet eine Form von Stress in der Pflanzenwelt, die durch den Mangel von Wasser in lebenden Organismen und Pflanzen hervorgerufen wird. Trockenstress bedeutet nicht zwangsläufig, dass der Wasserhaushalt der Pflanze / dem Organismus durch zu geringe Wasserzufuhr eine negative Wasserbilanz entstanden ist. Diese kann ebenfalls durch erhöhte Transpiration und zu geringe Wasserverfügbarkeit im Boden entstehen.

Wodurch kann Trockenstress entstehen und was passiert beim Trockenstress?

Durch ungewöhnliche Klimaverhältnisse kann es in der Pflanzenwelt leicht zu einer erhöhten Transpiration und damit zu Trockenstress kommen (oder bei nicht ordnungsgemäßer Auswahl des Standort beim Anbau bestimmter Pflanzenarten in nicht dafür vorgesehenen Böden). Insbesondere niedrige Niederschlagsmengen in Kombination mit hohen Temperaturen, geringe Luftfeuchtigkeit oder ungünstige Bodeneigenschaften können Trockenstress bedingen. Durch die defizitäre Versorgung mit Wasser werden Wachstums- und Lebensprozesse beeinträchtigt. Die kann die Erträge landwirtschaftlicher Produktionen limitieren.

In welchen Regionen tritt Trockenstress besonders häufig auf?

Trockenstress tritt häufig in besonders warmen und trockenen (ariden) Klimagebieten (Wüstengürtel oder Subtropen) oder in extrem kalten Gebieten (Tundra, alpine Regionen) auf. Diese klimatischen Verhältnisse führen in ariden Regionen bei der Pflanze dazu, dass die Transpiration höher ist als die Wasserzufuhr. In kalten Gebieten hingegen besteht die Gefahr, dass durch Bodenfrost die Wassernachlieferung nicht ausreichend gesichert ist.

Welche Schäden kann Trockenstress im Pflanzenreich auslösen?

Langfristiger Trockenstress kann zu verschiedenen Störungen des Pflanzenwachstums führen. Häufig treten durch mangelnde Nährstoffnachlieferung aus dem Boden Welkeschäden auf. Die Pflanze minimiert in dieser Zeit die Wasserzufuhr in die einzelnen Areale auf ein Minimum. Hält die Trockenheit darüber hinaus an, überhitzen die Blattflächen (durch erhöhte Transpiration und verringerte Wasserzufuhr) und die Blätter trocknen ein und sterben ab. Als eindeutige Anzeichen von Trockenstress an Pflanzen gelten daher: Gelbe Blätter, Blätterverlust, gelb Färbung der Fruchtknollen, eingetrocknete Triebe, eingerollte Blätter sowie kleinere Blüten.

Können sich Pflanzen an Trockenstress anpassen? Wie schaffen es Pflanzen trockene Phasen unbeschadet zu überstehen?

Im Bereich der Pflanzenwelt unterscheidet man mit Blick auf das Phänomen des Trockenstress zwischen zwei unterschiedlichen Formen von Pflanzen: Hydrostabile und Hydrolabile Pflanzenarten. Hydrostabile Pflanzen unterscheiden sich von hydrolabilen Pflanzen darin, dass sie sich im Laufe der Entwicklung so an den Wassermangel ihres Umfeld angepasst haben (Anatomie und Stoffwechsel), dass sie in der Lage sind auf Trockenheiten zu reagieren und diese für einen gewissen Zeitraum zu überstehen. Dies tun sie insbesondere dadurch, dass sie bestimmte Areale durch die Reduktion der Wasserzufuhr in diese Gewebe minimieren. So kann der Wassergehalt für einen bestimmten Zeitraum im Gewebe aufrechterhalten werden.
Hydrolabile Pflanzen hingegen werden nochmals in wasserverbrauchende und wassersparende Pflanzengruppen unterschieden. Wassersparende Pflanzen entziehen dem Boden das Wasser nicht sofort, sondern teilen es ein, um bei einem Wassermangel darauf zurückgreifen und es länger nutzen zu können.

Wasserverbrauchende Pflanzen verfolgen die entgegengesetzte Strategie bei der Vorsorgung ihrer Bestandteile mit Wasser: Sobald eine Trockenheit auftritt entziehen sie dem Boden sein gesamtes Wasser und speichern es in ihrem Gewebe ein. In Trockenphasen verfügen sie dann über genügend Reserven um sämtliche Areale ihrer Gewebe mit ausreichend Wasser zu versorgen. Die Wurzeln dieses Pflanzentyps reichen oftmals sehr tief in den Boden (hier gibt es die meisten Wasserreserven).

Was ist Hitzestress? Bedeutung, Definition, Erklärung


Hitzestress bedeutet, dass Organismen unter Hitze leiden. Ihre Funktionen laufen nicht mehr wie gewohnt ab. Das betrifft Menschen, Tiere und Pflanzen gleichermaßen.

Was passiert physiologisch bei Hitzestress? Bedeutung, Definition, Erklärung

Organismen regulieren ihren Wärmehaushalt. Der menschliche Körper verfügt hierfür über ein fein austariertes System. Er ist gezwungen, seine Körperkerntemperatur (die von inneren Organen und Gehirn) konstant auf knapp unter 37 °C zu halten. Schon bei 38 °C fällt das Leistungsvermögen des Gehirns ab. Die Stoffwechselvorgänge beschleunigen sich bei Hitze, was noch mehr Wärme im Körper produziert. Bei weiter ansteigender Temperatur können die Eiweiße ihre Aufgaben erst nur noch unzureichend und schließlich gar nicht mehr erfüllen.

Die Regularien des Organismus sorgen daher dafür, Hitzestress konsequent zu bekämpfen – zum Beispiel durch Durst, dem Wasserzufuhr und nachfolgendes Schwitzen folgen, um den Körper zu kühlen. Dieser Mechanismus ist uralt: Der Körper des Frühmenschen hat in der afrikanischen Savanne gelernt, mit Hitze umzugehen. Wir empfinden daher auch nur einen sehr kleinen Temperaturbereich von rund einem Kelvin (Temperaturunterschied in °C) unserer Umgebung als behaglich. Dieser ist die sogenannte „Indifferenztemperatur“. Sie liegt unbekleidet zwischen 27 und 28 °C, bekleidet zwischen 21 und 22 °C, bei manchen Menschen auch etwas höher. Bei der Indifferenztemperatur investiert der Körper kaum Energie zur Regulierung des Wärmehaushalts.

Bei Abweichungen reagiert er schnell über ein komplexes sensorisches System. Die Temperaturfühler der Haut und des Körperinneren melden dann dem Hypothalamus, dass die Temperatur auszugleichen ist – bei Kälte durch Bekleidung und Heizen bzw. das Aufsuchen warmer Räume, bei Hitze durch Kühlung, Trinken und Schwitzen. Um zu viel Hitze abzustrahlen, steigt die Durchblutung der oberen Hautschichten (die bei Kälte sinkt), weil geweitete Blutgefäße warmes Blut aus dem Inneren des Organismus nach außen leiten und damit Wärme abführen können.

Die Durchblutung der Haut kann bei diesem Prozess von 10 auf 80 % steigen, was allerdings die inneren Organe belastet. Der Magen-Darm-Trakt hat kaum noch Blut für die Verdauung, weshalb bei Hitze unbedingt leichte Speisen zu bevorzugen sind. Dennoch kann es zu Durchfall kommen, weil fehlendes Blut im Darm das Immunsystem schwächt. Das Herz arbeitet bei Hitze auf Hochtouren, es kann seine Leistung verdreifachen. Damit pumpt es für die Kühlung mehr warmes Blut in die peripheren Gefäße, was wiederum den Organismus belastet. Wenn die Temperatur über mehrere Tage auch nachts nicht unter 21 °C abfällt, kann das für Personen mit kardiovaskulären Problemen tödlich enden.

Gesundheitliche Folgen von Hitzestress beim Menschen

Hitzestress löst beim Menschen zusammen mit hohen bodennahen Ozonkonzentrationen unter Umständen schwerwiegende gesundheitliche Folgen aus. Betroffen sind insbesondere Kinder, ältere und im Freien arbeitende Personen sowie Menschen mit Herz-Kreislauf- und Atemwegserkrankungen. Bei diesen Risikogruppen steigt das Risiko für Krankenhauseinweisungen und unter Umständen den vorzeitigen Tod. Der Lancet Countdown von 2018 befürchtet bis zum Jahr 2030 eine Zunahme hitzebedingter Todesfälle in der EU um 30.000 Personen jährlich. Die meisten Todesfälle seien dabei in den urbanen Wärmeinseln zu befürchten, so die Autoren. Der Beton der Städte mitsamt ihren versiegelten Flächen nimmt die Hitze gut auf und strahlt sie nachts ab, sodass gerade in den Städten die nächtlichen Temperaturen viel zu wenig sinken.

Hitzestress bekämpfen

Kühlung, schwitzen und trinken sind die drei Maßnahmen gegen Hitzestress. Wer zu wenig trinkt, hat zu wenig Schweiß für die Temperaturabführung. Das Wasser im Körper lässt sich durch Wiegen ermitteln.

Wenn eine Person, die normalerweise 75 kg wiegt, während einer Hitzewelle plötzlich nur noch 73 bis 74 kg auf die Waage bringt, sich aber keiner strengen Diät unterzogen hat, beruht die Gewichtsdifferenz auf einem Wasserverlust, der unbedingt auszugleichen ist. Das geschieht am besten abends.

Es ist so viel Wasser zu trinken, wie der Gewichtsverlust beträgt: 1,0 l Wasser wiegt 1,0 kg. Bei 2,0 kg Gewichtsverlust müssen es 2,0 l sein. Der Körper eines erwachsenen Menschen kann ~2,0 l/h ausschwitzen. Trainierte und hitzeadaptierte Körper von jüngeren Sportlern schaffen sogar bis zu 4,0 l/h. Diese Zahlen kennen die meisten Menschen nicht. Sie bedeuten, dass bei großer Hitze und keiner Möglichkeit, einen kühlen Raum aufzusuchen, durchaus 2,0 l/h getrunken werden sollten.

Es folgt dann großes, unangenehmes Schwitzen und auch häufigeres Wasserlassen, doch das ist unumgänglich, um den Hitzestress gesundheitlich unbeschadet zu überstehen. Der Körper passt sich in rund zwei Wochen an die Hitze an, er schwitzt beispielsweise mehr und schneller. Das Schweißprofil ändert sich: Der Schweiß tritt weniger am Rumpf, dafür vermehrt an den Extremitäten aus, auch enthält der Schweiß weniger Elektrolyte, die der Körper benötigt. Ihre Reduktion bewirkt zusätzlich, dass der Schweiß schneller verdunstet, was die Kühlung verbessert. Das Blutplasma nimmt im Volumen zu, wodurch das Herz etwas weniger schlagen muss und somit entlastet wird.

Genetisch programmierte Anpassung des Körpers an Hitzestress

Die beschriebenen Anpassungen tragen wir schon in unseren Genen, weil sich der menschliche Organismus vor Millionen von Jahren in der Hitze Afrikas dementsprechend entwickelt hat. So ändert sich bei Hitze durch ein genetisches Programm die Enzymproduktion. Der Organismus generiert dann Enzyme, welche die Schweißzusammensetzung und die Volumenregulation von Schweiß und Blut steuern können. Der Übergang zur Produktion dieser Enzyme dauert mehrere Tage, was a) mit dem üblicherweise mehrtägigen Temperaturanstieg bis zu einer Hitzewelle zu tun hat und b) den Körper nicht überfordert.

Wann wird Hitzestress für gesunde Menschen kritisch?

Als kritisch gelten für gesunde Menschen dauerhaft heiße Temperaturen ab 35 °C, die im Mittelmeerraum schon immer erreicht werden. Daher gibt es dort die Siesta in den Mittagsstunden. Das erste Symptom dafür, dass der Körper dem Hitzestress nicht mehr gewachsen ist, wäre ein deutlicher und nicht zu kompensierender Leistungsabfall. Dieser beruht geistig auf der nachlassenden Leistungsfähigkeit des Gehirns, wenn die Körperkerntemperatur nicht mehr auf unter 37 °C gekühlt werden kann, sowie auf der vermehrten Durchblutung der Haut. Dieses Blut fehlt wiederum dem Gehirn und auch den Muskeln. Die Folge ist ein physischer Leistungsabfall. Hinzu kommen die prekären Folgen für die Verdauung. Wir können uns bei großer Hitze häufig nicht ausreichend ernähren. Fette, Eiweiße und Kohlenhydrate kann der schlecht durchblutete Darm kaum noch verdauen. Doch diese benötigen wir durchaus für eine angemessene körperliche Leistung.

Hitzestress vermeiden

In den kommenden Jahren und Jahrzehnten sind auch hierzulande längere und stärkere Hitzewellen zu erwarten. Wir müssen also lernen, den Hitzestress zu vermeiden.

Wofür / Wozu sind Hummeln gut? Erklärung, Nutzen


Hummeln gehören zu den Wildbienen, die zwar Pflanzen im Garten bestäuben, aber keinen Honig liefern. Im Gegensatz zu Bienen sind sie mit einem längeren Rüssel ausgestattet. Dadurch kommen sie leichter an die Pollen heran, die für Bienen unzugänglich sind.

Wofür / Wozu sind Hummeln gut? Erklärung, Nutzen

Es ist nur ein Mythos, dass Hummeln nicht stechen können. Sie haben einen Stachel, setzen ihn aber nur im äußersten Notfall ein. Etwas aggressiver sind die Baumhummeln. Sie verteidigen ihre Nistkästen gerne mit einem schmerzhaften Stich. Erdhummeln kommen in Deutschland wesentlich häufiger vor. Sie sind aber nicht so auffällig und lassen sich kaum aus der Ruhe bringen. Es kann im Sommer passieren, dass sich im Garten gleich mehrere Hummelnester gebildet haben, ohne dass es der Gartenbesitzer merkt. Das liegt unter anderem daran, dass aus einem Nest höchstens ein bis zwei Hummeln fliegen. Sollte man sich versehentlich neben einem Hummelnest stellen, kann es passieren, dass ein paar verwirrte Hummeln umherschwirren. Hummeln orientieren sich an markanten Dingen in ihrer Umgebung. Durch einen Menschen in der Nähe sind sie daher kurz verwirrt sind und sich neu orientieren müssen.

Hummeln: Was machen sie?

Wie Honigbienen bilden Hummeln einen Staat, der aus 50 bis 600 Hummeln besteht. Hummeln gehören zur Kategorie der Stechimmen. Ab Februar und März suchen die Jungköniginnen einen geeigneten Nistplatz. Anfangs ist die Hummelkönigin noch allein unterwegs. Während dieser Zeit muss sie den Nachwuchs selbst versorgen und ist Feinden schutzlos ausgeliefert. In dieser Zeit müssen Hummeln viele Pflanzen finden, die sie mit reichlich Pollen und Nektar versorgen. Das Hummelvolk wächst zwischen April bis Juni. Die Königin legt im Hochsommer Eier für die Jungköniginnen und Drohnen ab. Die Arbeiterinnen werden dann nicht mehr länger aufgezogen. Das Hummelvolk geht im Hochsommer langsam zu Grunde, bis es im September komplett ausgestorben ist. Lediglich die Jungköniginnen überleben und suchen sich zum Überwintern einen sicheren Platz, damit sie auch im nächsten Jahr ein neues Volk gründen können. Einen guten Schutz bietet den begatteten Jungköniginnen Orte wie Erdlöcher. Wiesenhummeln haben nur eine Lebensdauer von circa 28 Tage.

Welche Aufgabe haben Hummeln?

Hummeln werden im Garten vor allem als Bestäuber benötigt. Sie fliegen anders als klassische Honigbienen auch bei schlechtem Wetter oder niedrigen Temperaturen aus. Eine Hummel ist in der Lage, ihre eigene Körpertemperatur durch den speziellen Körperbau und Flügelschlag zu erhöhen. Sie sind aus diesem Grund während einer Schlechtwetterperiode die einzigen, die sich um die Bestäubung von Gemüse- und Obstpflanzen kümmern. Einige Gärtner setzen Hummeln gezielt ein, um Tomaten oder andere Pflanzen in einem Gewächshaus zu bestäuben. Das gelingt ihnen durch die Vibrationen besonders gut.

Wie und wo nützen Hummeln?

Hummeln bestäugen im Vergleich zu anderen Tieren wesentlich effizienter. Sie haben eine bestimmte Muskel- und Körpermasse, wodurch sie Obstblüten besonders leicht bestäuben können. Die Früchte wachsen nicht nur größer, sondern auch gleichmäßiger. Studien haben in der Vergangenheit haben bewiesen, dass die Früchte durch die Bestäubung der Hummeln auch mehr Vitamine aufweisen. In der Landwirtschaft gelten Hummeln als wichtige Bestäuber bei Hülsenfrüchten wie Erbsen, Ackerbohnen und Wicken. Sie leisten auch beim Rotklee eine wertvolle Bestäubungsarbeit. Der größte Vorteil der Hummeln ist bei ihren langen Rüsseln zu finden. Nur mit kommen sie bei vielen Blüten an den begehrten Nektar.

Was sind Synthetische Kraftstoffe? Bedeutung, Definition, Erklärung


Der Begriff „synthetischer Kraftstoff“ ist nicht einheitlich und abgegrenzt definiert, weshalb es mehrere Herangehensweisen für Definitionen gibt. Grundsätzlich wird der Begriff oftmals zur Abgrenzung gegenüber konventionellen Kraftstoffen, wie etwa Benzin, Diesel oder Kerosin verwendet, welche auf eine Verwendung von Erdöl als Rohstoffquelle basieren. Sogenannte E-Fuels sind eine Form von synthetischen Kraftstoffen und somit kein Synonym für den Begriff.

Wie wird synthetischer Kraftstoff definiert und wodurch unterscheidet er sich von konventionellem Kraftstoff?

Für die Definition gibt es einige Herangehensweisen, da das Wort „synthetisch“ mehrere Bedeutungen hat. Einerseits lässt sich damit beschreiben, dass der synthetische Kraftstoff künstlich hergestellt wird, während es bei der Herstellung von konventionellen Kraftstoffen (vereinfacht ausgedrückt) in der Regel lediglich zu einer Trennung der einzelnen Bestandteile des ursprünglichen Rohstoffes kommt, ohne diese chemisch zu verändern. Andererseits beschreibt das Wort „Synthese“ in seiner griechischen Wortherkunft aber auch die Zusammensetzung bzw. Zusammenfassung, womit das chemische Verfahren durch das Zusammenführen mehrerer Stoffe zu der Herstellung eines neuen Stoffes führt.

Die uneinheitliche Definition verstärkt sich dadurch, dass beispielsweise Biodiesel nicht zu den synthetischen Kraftstoffen gezählt wird, obwohl bei dessen Herstellung eine chemische Veränderung stattfindet. Auch bei der Herstellung konventioneller Kraftstoffe kann unter Umständen ein Verfahren angewendete werden, welche den Rohstoff in der Herstellung chemisch verändert. Beispielsweise werden beim sogenannten „cracken“ im Rahmen der Diesel- & Benzinproduktion langkettige Kohlenwasserstoffe in kurzkettige Kohlenwasserstoffe gespalten. Trotz der chemischen Veränderung spricht man im Endprodukt dennoch von einem konventionellem und nicht von einem synthetischen Kraftstoff.

Arten von synthetischen Kraftstoffen: GtL, BtL, CtL, PtL

Der Großteil der synthetischen Kraftstoffe lässt sich in deren Benennung dahingehend kategorisieren, dass der Name den Aggregatzustand des Ausgangsstoffes und Endstoffes beschreibt. Verallgemeinert wird daher beispielsweise von XtL-Kraftstoffen („X-to-liquid“) gesprochen, wobei das „X“ eine Variable über den Ausgangszustand darstellt. Durch ihren flüssigen Endzustand können sie relativ einfach über die bestehende Infrastruktur für konventionelle Kraftstoff transportiert und gelagert werden und eignen sich (sofern auch andere Gesichtspunkte erfüllt sind) aufgrund ihres Zustands für die Nutzung in Verbrennungsmotoren.

Was bedeutet GtL-Kraftstoff?

Bei GtL-Kraftstoffen („gas-to-liquid“) wird Erdgas dahingehend chemisch umgewandelt, dass es einen flüssigen Zielzustand erreicht. Anwendung findet diese Synthese vor allem bei jenen Erdgasvorkommen, welche als Nebenprodukt der Erdölförderung anfallen. Das dabei anfallende Erdgas ist häufig in der Weiterverwendung als solches aufgrund der Transportkosten nicht rentabel, weshalb es oftmals einfach verbrannt wird. Durch Verarbeitung in einen GtL-Kraftstoff rentiert sich potenziell jedoch der Transport und Verkauf durch die erhöhte Energiedichte.

Was bedeutet BtL-Kraftstoff?

Für BtL-Kraftstoffe („biomass-to-liquid“) wird Biomasse verflüssigt, sodass diese für den Betrieb in konventionellen Verbrennungsmotoren geeignet ist. Im ersten Schritt wird die verwendete Biomasse (z. B. Holz oder Pflanzen) in einen gasförmigen Zustand gebracht und anschließend durch Synthese verflüssigt. Da bei der anschließenden Verbrennung nur so viel CO2 freigesetzt wird, wie der verwendete Rohstoff ursprünglich gebunden hat, hat dieser Kraftstoff eine bessere Energiebilanz als andere. Jedoch wird für den Anbau der Rohstoffe eine sehr große Fläche benötigt.

Was bedeutet CtL-Kraftstoff?

Als CtL-Kraftstoffe („coal-to-liquid“) werden jene Kraftstoffe bezeichnet, welche aus Kohle hergestellt werden. CtL-Kraftstoffe sind dahingehend verbreitet, da die globalen Kohlevorkommen wesentlich größer sind als jene für Erdöl. Andererseits hat die Herstellung eine schlechtere Energiebilanz als andere synthetische bzw. auch konventionelle Kraftstoffe, da Kohle relativ wenig Wasserstoff für die benötigte Synthese enthält und dieser separat hergestellt werden muss. Abhilfe könnte jedoch ein Verfahren schaffen, welche bei PtL-Kraftstoffen („power-to-liquid“) Anwendung findet. Bei dieser Form des synthetischen Kraftstoffs wird dieser mithilfe der Verwendung von elektrischem Strom hergestellt. Ein Synonym dafür ist E-Fuel, womit ersichtlich wird, dass der Begriff E-Fuel eine Art bzw. Unterkategorie von synthetischen Kraftstoffen ist und kein Synonym dafür.

Was bedeutet PtL-Kraftstoff?

Bei den PtL-Kraftstoffen wird Wasser mithilfe von Strom durch die sogenannte Elektrolyse in Wasserstoff und Sauerstoff aufgespalten. Im nächsten Schritt wird das benötigte CO2, welches aus verschiedenen Quellen stammen kann, bereitgestellt und die benötigten Stoffe zu einem Synthesegas zusammengeführt, welches dann durch Synthese verflüssigt wird. Sofern der Strom für die Elektrolyse aus erneuerbaren Quellen stammt und das verwendete CO2 nicht separat extrahiert wird, sondern aus der Atmosphäre stammt, kann dieser Kraftstoff Verbrennungsmotoren klimaneutral betreiben.

Weitere synthetische Kraftstoffe stellen jene dar, welche einem Verbrennungsmotor zu dessen Betrieb beigemengt werden, jedoch den konventionellen Kraftstoff nicht ersetzen. Ein Beispiel hierfür ist etwa Aceton.

Welche Kritikpunkte gibt es bei synthetischen Kraftstoffen?

Durch die großteils aufwendige Herstellung der synthetischen Kraftstoffe sind diese teurer als etwa Diesel oder Benzin. Da GtL-Kraftstoffe das bei der Erdölförderung anfallende Erdgas nutzen, ist diese Herstellung nicht beliebig skalierbar, da der verwendete Rohstoff begrenzt und endlich ist.

BtL-Kraftstoffe benötigen für den Anbau der Biomasse sehr viel Fläche, welche auch begrenzt ist, bzw. mit anderen Industrien wie beispielsweise der Nahrungs- oder Futtermittelindustrie konkurriert. Bei der Herstellung von E-Fuels ist vor allem relevant, wie der für die Elektrolyse verwendete Strom erzeugt wird und woher das benötigte CO2 stammt. Auch die Effizienz bei der Herstellung ist nach wie vor relativ gering. Bei der Herstellung von E-Fuels fallen neben dem gewünschten Endprodukt (ähnlich wie bei der Herstellung von konventionellem Kraftstoff) auch weitere Nebenprodukte an, welche zur Verbesserung des Nutzungsgrads weiterverarbeitet werden sollten.

Welche Chancen und Vorteile schaffen synthetische Kraftstoffe?

Ein großer Vorteil von synthetischen Kraftstoffen ist, dass sie für den Betrieb von konventionellen Verbrennungsmotoren geeignet sind und somit keine Umrüstung dieser nötig ist. Auch die bestehende Infrastruktur an Tankstellen kann aufrechterhalten und weiterhin betrieben werden.
Chancen werden vor allem der Verwendung von PtL-Kraftstoffen bzw.

E-Fuels zugeschrieben. Wird bei der Herstellung von E-Fuels das CO2 aus der Atmosphäre gewonnen und der Strom aus regenerativen Quellen erzeugt, lässt sich somit ein klimaneutraler Kraftstoff herstellen, welcher somit wesentlich klimafreundlicher als konventioneller Kraftstoff ist.

E-Fuels lassen sich durch ihre flüssige Form und ihre Beschaffenheit wesentlich leichter transportieren und lagern als beispielsweise Wasserstoff. E-Fuels können oftmals auch dort eingesetzt werden, wo eine Elektrifizierung aufgrund der Gegebenheiten nicht möglich ist. Eine weitere Chance besteht darin, dass sich synthetische Kraftstoffe mit konventionellen Kraftstoffen mischen lassen und somit zu einer besseren Energiebilanz beitragen können als die alleinige Nutzung konventioneller Kraftstoffe. Vorausgesetzt natürlich, dass die synthetischen Kraftstoffe eine bessere Energiebilanz besitzen als ihr konventionelles Äquivalent.

Wofür / Wozu sind Zecken gut? Erklärung


Zecken sind nicht nur Überträger von Krankheiten, sie sind auch nützlich. Gerade durch die Weitergabe von Erregern sorgen sie dafür, dass Tierbestände sich nicht extrem vermehren. Indem Zecken diese Tiere als Wirt benutzen, übertragen sie Krankheitserreger, die den Tieren einen gesundheitlichen Schaden zufügen. Dies ist besonders wertvoll, wenn neue Tierarten aus dem Ausland sich in der heimischen Natur ausbreiten und den Lebensraum der hiesigen Arten streitig machen. Ihr Körper ist an die Krankheitserreger der Zecke nicht gewöhnt und fällt ihnen damit leicht zum Opfer.

Wofür / Wozu sind Zecken gut? Erklärung

Darüber hinaus beschleunigen Zecken die Evolution. Tiere, die gegenüber dem Parasiten widerstandsfähiger sind, können sich vermehren. Damit geben sie die positive Eigenschaft an ihre Nachkommen weiter. Die folgenden Generationen haben somit automatisch weniger gesundheitliche Störungen durch den Zeckenbefall. Von diesem positiven Effekt profitieren auch wir Menschen. Mit einem Zeckenbiss gelangen Viren und Bakterien in unseren Organismus, gegen die dieser ankämpfen muss. Damit wird unser Immunsystem in Alarm versetzt. Ohne eine regelmäßige Anregung des Immunsystems durch Gefahrenstoffe würde dieses in einen Ruhemodus verfallen. Ein aktives körpereigenes Abwehrsystem schützt uns somit vor anderen Krankheiten wie Allergien und Autoimmunkrankheiten wie Rheuma. Wird eine Zecke frühzeitig entdeckt und entsprechend entfernt, ist das Risiko eines schweren Krankheitsverlaufs gering, jedoch sollte der Zeckenbiss bei einem Menschen nicht vorsätzlich herbeigeführt werden. Daher sind nach einem Aufenthalt in der freien Natur Menschen und Haustiere von Zecken zu befreien. Zecken sind lediglich in der Natur nützlich. In der Natur schwächen die Zecken durch das Saugen von Blut ihren Wirt, dadurch kann seine Leistungsfähigkeit positiv beeinflusst werden, indem Antikörper gebildet werden und er bei einem erneuten Befall resistent ist.

Zecken: Teil der Nahrungskette

Zecken sind Bestandteil der Nahrungskette. Wie Spinnen oder Würmer werden sie beispielsweise von Vögeln gefressen. Zum anderen dienen Zecken als Wirt. Häufig werden sie als Wirt sogar am Ende getötet. Einige Pilzarten umspinnen und durchdringen den Körper von Zecken. Mit ihren giftigen Fäden töten sie die Zecke. Auch Fadenwürmer dringen in Zecken ein und töten sie von innen heraus. Des Weiteren dient die Zecke als Nahrung für einige Wespenarten. Diese legen ihre Eier in den Zeckenlarven ab. Die Wespen ernähren sich dann von den Zeckeninnereien, was zum Ableben der Zecke führt.

Zecken sind faszinierende Tiere. Sie können bis zu über einem Jahren ohne Nahrung auskommen. Dies ist damit begründet, dass Zecken sich nicht aktiv auf Nahrungssuche begeben, sondern darauf warten, dass sich ein Tier als Opfer zum Blutsaugen nähert. Auf ihren Speiseplan stehen sowohl Säugetiere als auch Reptilien und Amphibien. Diese spüren sie durch das Hallersche Organ auf, welches in den Vorderbeinen sitzt. Mit diesem Chemorezeptor nehmen Zecken Kohlendioxid, Schweiß sowie Wärme wahr. Ebenso können Zecken mit dem Hallerschen Organ feinste Vibrationen spüren, die ihre potentiellen Opfer verursachen. Ist das Opfer identifiziert, lassen sich die Zecken von Grashalmen oder Sträucher auf sie fallen. Am Körper suchen sich die Zecken feuchtwarme Hautstellen, an denen sie das Blut saugen.

Des Weiteren sind Zecken gegenüber Umgebungseinflüssen sehr resistent. Zecken können 24 Stunden bei einer Kälte von – 12 Grad Celsius überleben, sodass sie auch im Winter auftreten. Ebenso kann Wasser den Achtbeinern nichts anhaben. Zecken können bis zu drei Wochen unter Wasser überleben. Das bedeutet, dass den Blutsauger auch ein Waschgang in der Maschine bei 40 Grad Celsius nicht beeindruckt.

Wofür / Wozu sind Wespen gut? Nutzen, Erklärung


Wespen gehören zu den am meisten verachteten Fluginsekten. Diese Antipathie ist allerdings nicht gerechtfertigt, denn sie sind unersetzlicher Bestandteil der Natur. Als Fressfeind verschiedener Plagen balancieren Wespen das Ökosystem. Darüber hinaus leisten die Tiere einen Beitrag zur Bestäubung verschiedener Pflanzen. In Japan hingegen werden die Larven einer Wespenart als Delikatesse verspeist.

Wofür / Wozu sind Wespen gut = tierische Jäger

Wer durch den Wald wandert, der kommt zwangsläufig an Hochsitzen vorbei. Auf diesen lauern Jäger auf ihre Beute. Ziel der Jagd ist jedoch nicht, Wildfleisch verkaufen zu können. In erster Linie geht es darum zu verhindern, dass ein Ungleichgewicht im lokalen Ökosystem entsteht. Wenn manche Tierarten überhandnehmen, kann dies eine katastrophale Kettenreaktion anstoßen. Wird z.B dem Wolf erlaubt, sich unkontrolliert auszubreiten, kommt es zwangsläufig zum Konflikt mit dem Menschen. Weidetiere werden gerissen, was zu finanziellen Schäden führt.

Wespen sind von Natur aus Jäger. Statt Wölfen haben sie andere Insekten im Visier. Ob Spinne, Wanzen oder Fliegen: Die kampfeslustigen Tiere sorgen dafür, dass wir mit weniger Schädlingen zu tun haben. Die deutsche Wespe ist nicht sonderlich wählerisch und tötet, was ihr in die Flugbahn kommt. Nachdem die Leiche des Insekts zerlegt wurde, wird sie abtransportiert. Aufgrund der kurzen Lebensdauer benötigen erwachsene Wespen nämlich kein Protein! Das erbeutete Insektenfleisch dient einzig der Aufzucht des Nachwuchses.

Einer Studie zufolge wird der Wert der globalen Wespenpopulation auf 417 Milliarden US-Dollar geschätzt. Der Grund hierfür ist, dass die Insekten auch Ernte- und Nahrungsmittelschädlinge töten. Diese Erkenntnis hat dazu geführt, dass Wespen von ökologischen Schädlingsbekämpfern gezielt eingesetzt werden. Dazu zählen etwa Ampulex compressa, welche Schaben angreift. Aber auch in Brasilien werden Wespen immer öfter eingesetzt, um Maisbauern vor Ernteausfällen zu bewahren.

Wespen als Bestäuber

Rund 75 % aller Pflanzen, die der Mensch anbaut, müssen bestäubt werden. Dabei ist es allerdings nicht fair, sich nur bei Bienen und Hummeln zu bedanken. Auch Wespen leisten hierzu einen Beitrag. Erwachsene Exemplare ernähren sich nicht von den erlegten Insekten, sondern sind auf Zucker angewiesen. Dieser wird z.B aus Blüten bezogen. Ganze 164 Spezies sind auf Wespen zur Bestäubung angewiesen. Ein bekanntes Beispiel ist die Feige, die von Wespen als Energielieferant und Brutstätte genutzt wird. Dabei kann auch gleichzeitig eine Bestäubung erfolgen.

Wespen als Nahrungsmittel (Nutzen)

Etwa 2 Milliarden Menschen haben Insekten auf ihrem Speiseplan stehen. Was in Deutschland und Europa verwundert, ist vielerorts Lebensrealität. Auch Wespen werden dabei gegessen – sie machen etwa 4,8 % des Gesamtverzehrs aus. Bekannt sind etwa die Art „Vespula flaviceps“ , auf die in Zentraljapan Jagd gemacht wird. Zuerst werden die Tiere mit einem kleinen Stück Fisch angelockt, um sie dann bis zu Ihrem Nest zu verfolgen. Anschließend wird es vom Jäger ausgegraben und in eine Holzbox verfrachtet. Dort verbleibt es mehrere Monate, bis die Larven erntereif sind. Dabei ist „Hachinoko” weich im Biss und wird in einer Sojasoße gekocht und mit Reis verzehrt.

In Deutschland stehen Wespen allerdings unter Naturschutz und dürfen nicht getötet werden. Auch dann nicht, wenn man gern eine neue kulinarische Erfahrung machen möchte. Prinzipiell mag es aber eine gute Idee sein, Insekten zu essen. Schließlich sind sie proteinreich und ressourcenschonend in der Aufzucht.

Warum ist Wasser so wichtig für uns Menschen und unseren Körper? Erklärung


Wasser formt als wichtiger Bestandteil von Geweben und Zellen den menschlichen Körper. Zusätzlich ist es wichtig für den Flüssigkeitshalt. Die Flüssigkeit ist in der Lage, feste Bestandteile der Nahrung wie Salz, Zucker und einen Teil der Mineralstoffe und Vitamine zu lösen. Alle gelösten Nährstoffe werden zu den Zellen transportiert, wo sie dringend benötigt werden. Zu den wichtigsten Aufgaben des Wassers gehört auch die Kühlung des Körpers.

Wasser ist das menschliche Lebensexilier: Warum Wasser so wichtig für Menschen ist

Ist der Körper nicht ausreichend mit Flüssigkeit versorgt, macht sich das als Durst bemerkbar. Die Zunge klebt am Gaumen und der Mund wird sehr trocken. In diesem Zustand haben Menschen das Gefühl, dass sie eine ganze Wasserflasche leeren können. Das Verlangen nach Flüssigkeit sollte in diesem Zustand dringend gestillt werden. Am besten geeignet ist hierfür Wasser. Der menschliche Körper hat ein perfektes Alarmsystem, welches sofort anzeigt, wenn sich im Organismus zu wenig Flüssigkeit befindet. Menschen bekommen dann Durst. Dieses Gefühl wird durch das Durstzentrum im Gehirn ausgelöst. Aufgabe des Zentrums ist die Ermittlung von Flüssigkeitsmengen und Elektrolyten. Diese Funktion ist für Menschen essentiell. Neben Sauerstoff gehört Wasser für Menschen und viele Tiere zum wichtigsten Lebenselixier. Menschen ist es möglich, über mehrere Wochen ohne Nahrung zu überleben. Ohne Flüssigkeit ist das nur ein paar Tage möglich.

Warum benötigt der Mensch Wasser?

Seit vielen Jahren ist bewiesen, dass Menschen rund zwei Drittel aus Wasser bestehen. Das macht bei einem Erwachsenen circa 50 bis 60% aus. Der Wasseranteil nimmt im Laufe des Lebens ab. Säuglinge haben direkt nach der Geburt einen Wasseranteil von 75 bis 80%. Bei einem älteren Menschen beträgt der Anteil höchstens 50%. Es gibt neben dem Alter aber noch zusätzliche Faktoren, die den Wasseranteil im menschlichen Körper beeinflussen können. Das Geschlecht spielt hierbei keine Rolle. Grundsätzlich haben Männer einen bis zu 5% größeren Wasseranteil als Frauen. Auch der Trainingszustand muss erwähnt werden. Umso mehr Muskeln vorhanden sind, desto größer ist der Wasseranteil. Das liegt unter anderem daran, dass in Muskeln wesentlich mehr Wasser vorhanden ist als im Körperfett.

Aber wofür wird das Wasser vom Körper noch benötigt? Viele Funktionen des menschlichen Körpers sind vom Wasser abhängig. Eine wichtige Funktion ist der Transport von Nährstoffen und Sauerstoff, die zu den Zellen und Organen befördert werden müssen. Weiterhin leitet es alle Abfälle ab, die bei einem Körperstoffwechsel anfallen. Auch die Körpertemperatur wird reguliert. Für viele Zellen dient Wasser als Lösungsmittel. Bei einigen Körperteilen ist Wasser ein Hauptbestandteil. Hierbei handelt es sich beispielsweise um die Haut. Sie setzt sich circa aus 70% Wasser zusammen. Die Augen bestehen dagegen fast vollständig aus Wasser.

Wie verliert der Körper Flüssigkeiten?

Auch wenn der menschliche Körper zum größten Teil aus Wasser besteht, hat er nur wenige Wasserreserven. Daher muss er ständig mit Flüssigkeit versorgt werden, damit alle Funktionen richtig funktionieren. Auch ohne körperliche Anstrengung wird pro Tag über den Darm, die Lungen, Nieren und Haut rund zweieinhalb Liter Wasser verloren. In der Regel nimmt der Körper täglich einen Liter Flüssigkeit über die Nahrung auf. Die restlichen benötigten ein bis zwei Liter Flüssigkeit sollten dem Körper vorzugsweise über alkohol- und zuckerfreie Getränke wie Wasser oder Tee zugeführt werden. Dadurch kann der Wasserbedarf eines Erwachsenen gedeckt werden. Der Wert kann bei Sportlern, schwangeren oder schwer arbeitenden Menschen etwas abweichen.

Wenn ein Mensch am Tag zu wenig trinkt, kann der Körper bis zu einem Prozent seines Körpergewichts durch den Flüssigkeitsmangel verlieren. In diesem Fall macht sich nicht nur ein starker Durst bemerkbar, sondern der Mangel hat auch negative Auswirkungen auf die Leistung und Konzentration. Häufig treten Symptome wie Kopfschmerzen, Erschöpfung, Mundtrockenheit, Appetitlosigkeit und Übelkeit bemerkbar. Wer immer nur etwas trinkt, wenn ein starkes Durstgefühl zu spüren ist, tut seinem Körper nichts Gutes. Es ist wesentlich gesünder, wenn der Körper regelmäßig mit frischem Wasser versorgt wird, ohne dass ein Durstgefühl zu spüren ist. Der menschliche Körper ist somit wesentlich leistungsstärker und konzentrierter.

Was passiert bei einem Flüssigkeitsmangel?

Der menschliche Körper kann einen Flüssigkeitsmangel bis zu einem gewissen Grad ausgleichen. Darüber hinaus wird im Organismus aber ein großer Schaden angerichtet. Das Blut beginnt deutlich langsamer zu fließen, da es bis zu drei Viertel aus Wasser besteht. Das hat zur Folge, dass der Körper mit weniger Sauerstoff versorgt wird. Dadurch nehmen die Konzentration und Hirnleistung ab. Wenn dem Organismus über einen längeren Zeitraum kein Wasser zugeführt wird, kann es zu Dehydrationserscheinungen kommen. In diesem Fall kommt es zu Symptomen wie Schwindelgefühle, erhöhte Atemfrequenz und beschleunigter Herzschlag. Gleichzeitig kommen die Harnproduktion und der Schweißfluss zum Erliegen. Anfangs ist der Betroffene etwas verwirrt und fällt anschließend ins Koma. Ist der Flüssigkeitsverlust zu hoch, hilft nur eine intravenöse Versorgung. Bereits ein Wasserverlust von bis zu 20% kann tödlich enden.

Regelmäßig Wasser trinken

Wer dauerhaft zu wenig trinkt, schadet ebenfalls seinem Organismus, auch wenn es nicht unbedingt tödlich ist. Dafür steigt die Gefahr einer Verstopfung, Kreislaufstörung, Nierensteine und Harnwegsinfektion. Da durch den Flüssigkeitsverlust die Konzentration an Histamin ansteigt, kommt es vermehrt zu Allergien. Als negative Folgen ist sogar ein Bandscheibenvorfall möglich. Durch den Flüssigkeitsmangel könnten die Bandscheiben austrocknen oder schrumpfen. Somit sind sie in ihrer Funktion eingeschränkt. Durch jede weitere Bewegung wird das gespeicherte Wasser aus dem Kern der Bandscheibe gepresst. Wird regelmäßig nicht genügend getrunken, kann das Wasser nicht mehr ausreichend ersetzt werden. Ein Wassermangel wirkt sich auch auf das Äußere aus. Ohne eine regelmäßige Wasserversorgung verliert die Haut ihre Elastizität und zeigt schneller Falten.

Warum ist der Regenwald so wichtig für das Klima und für uns? Erklärung


Der menschengemachte Klimawandel ist bereits seit vielen Jahrzehnten ein großes Problem für unseren Planeten. Je mehr die Menschen CO₂ in die Luft ausstoßen, desto stärker steigt die globale Durchschnittstemperatur an. Die Folgen dieser Klimaveränderungen kriegen wir unter anderem durch extreme Wetterereignisse wie Hochwasser oder Tornados sehr deutlich zu spüren. Selbst in Ländern wie Deutschland, in denen solche “natürlichen” Unglücke in der Regel nicht wirklich vorkommen, gehören sie für viele inzwischen schon regelmäßig zur Realität. Und solange die Menschen (unter anderem) durch die Verbrennung von Kohle, Erdöl, Benzin, etc. diese Veränderung des Weltklimas weiterhin vorantreiben, desto häufiger und stärker werden derartige Naturphänomene auftreten.

Glücklicherweise verfügt unsere Erde jedoch über einige Orte, die den menschengemachten Klimawandel noch deutlich abbremsen. Die Rede ist dabei von einem ganz bestimmten Ökosystem – nämlich dem Regenwald. Ohne unsere Regenwälder würde sich das weltweite Klima noch um einiges schneller und drastischer ändern, als wir es heute schon erleben. Doch warum genau ist das so? Die Antwort auf diese Frage, so wie weitere wissenswerte Informationen über unsere Regenwälder können in zusammengefasster Ausführung aus diesem Artikel entnommen werden.

Wie Regenwälder funktionieren

Obwohl die Böden in diesen Wäldern relativ arm an Nährstoffen sind, zählen Regenwälder zweifellos zu den vielseitigsten Ökosystemen auf der ganzen Welt – welches im Prinzip nur aufgrund eines sehr effizienten und kreativen Recyclingsystems funktioniert. Dieses Recyclingsystem ist das Resultat eines fast geschlossenen Nährstoffsystems, in dem praktisch ständig Nährstoffe zirkulieren. Diese Nährstoffe sind in Farnen, Ästen, Blättern und Stämmen gespeichert. Sobald diese Speicher auf den Waldboden fallen und absterben, werden sie sehr schnell zersetzt, sodass die Nährstoffe in den Speichern freigesetzt werden können. Die Nährstoffe, welche sich in Bäumen und Blättern befinden (wie beispielsweise Kalzium und Phosphor), werden bei Regen durch die sogenannte “Osmose” aus diesen Blättern und Bäumen herausgelöst.

Allerdings werden diese gelösten Nährstoffe zum Teil schon von Baumkronen wieder aufgenommen. Und zwar mithilfe der sogenannten “Epiphyten”. Dabei handelt es sich um Pflanzen, welche sowohl auf Baumkronen, als auch auf den Spitzen anderer Pflanzen wachsen. Durch diese Epiphyten werden die Nährstoffe, welche sich durch den Regen gelöst haben, direkt wieder absorbiert. Der restliche Teil des Regens, welcher nicht in Berührung mit den Epiphyten kommt, fällt auf den Boden – und damit auf eine dicke Schicht aus Wurzeln, Laub und Pilzen. In Regenwäldern wachsen Pilze in Gemeinschaften, welche auch als “Mykorrhiza” bezeichnet werden. Und diese Pilzgemeinschaften nehmen einen großen Teil des Regenwassers auf, sodass die Nährstoffe aus dem Regen von den Pflanzen aufgenommen werden, und nicht einfach sofort im Boden versickern.

Warum ist der Regenwald so wichtig für das Klima und für uns? Erklärung

Die Regenwälder haben in vielerlei Hinsicht einen sehr großen Mehrwert für unseren Planeten. Sie bieten nämlich nicht nur für zahlreiche Pflanzenarten ein Zuhause, sondern auch für eine Menge unterschiedlicher Tiere. Laut “Greenpeace” beherbergen unsere Regenwälder etwa 90 % aller Primaten, 80 % aller Insekten, und 40 % aller Vogelarten. Was die Pflanzen angeht, so wachsen in unseren Regenwäldern fast zwei Drittel aller Pflanzenarten, die es auf der Welt zu finden gibt.

Doch einen besonders großen Nutzen hat das Ökosystem Regenwald gerade für den menschengemachten Klimawandel. Tatsächlich werden die Regenwälder auch oft als “grüne Lunge der Erde” bezeichnet. Der Klimawandel wird ja zu einem großen Teil durch den Ausstoß von CO₂ vorangetrieben. Nun sind die Bäume und Pflanzen der Regenwälder dazu in der Lage, dieses CO₂ in großen Mengen aus der Atmosphäre aufzunehmen, um es dann wiederum in Sauerstoff umzuwandeln. Zwar wird dabei auch Kohlenstoff erzeugt, allerdings wird dieser direkt vom Boden und den Pflanzen dieser tropischen Wälder gespeichert. Darüber hinaus bieten unsere Regenwälder noch für etwa 180 indigene Gemeinschaften ein Zuhause. Doch dieses Zuhause wird immer mehr bedroht – vor allem durch Brandrodungen, welche auch nicht immer legal stattfinden.

Mit sechs Millionen Quadratkilometern ist der Amazonas-Regenwald der größte seiner Art. Laut Greenpeace wird von dieser wichtigen Fläche jedoch immer mehr zerstört. Offiziellen Angaben zufolge wurden in Brasilien im Jahr 2019 insgesamt 10.129 Quadratmeter Regenwald abgeholzt. Dies entspricht in etwa einer Fläche, die so groß ist, wie das gesamte Land Kosovo. Sollten auf der Welt noch mehr Regenwald-Flächen zerstört werden, würde dies den Klimawandel noch weiter beschleunigen, wodurch zum Beispiel die Polkappen schmelzen. Dadurch gelangt sehr viel Süßwasser in die Weltmeere, was wiederum einen direkten Einfluss auf wichtige Meeresströme wie den Golfstrom hat. Durch das neue Süßwasser werden derartige Meeresströme nämlich deutlich kühler und langsamer. Theoretisch könnten sie irgendwann sogar komplett verschwinden. Und sollte so etwas tatsächlich passieren, hätte dies für Nordeuropa ein wesentlich kühleres Gesamtklima zur Folge.

Regenwald: Was können wir tun?

Zahlreiche Menschen sind heute der Ansicht, dass es mittlerweile zu spät ist, um noch wirklich etwas Effektives gegen den Klimawandel zu unternehmen. Unabhängig davon, ob das stimmt oder nicht, würde das Schützen unserer Regenwälder definitiv einen sehr deutlichen positiven Einfluss haben – sowohl auf uns, als auch auf unseren Planeten allgemein. Doch wie können wir die Regenwälder schützen?

Eine der Methoden dafür ist die “Aufforstung”. Im Prinzip spricht man dabei einfach nur von dem Anpflanzen neuer Bäume. Denn über je mehr Bäume unsere Regenwälder verfügen, desto mehr CO₂ können sie absorbieren, und in Sauerstoff umwandeln. Des Weiteren kann der Regenwald auch von jedem von uns im normalen Alltag geschützt werden. Wer zum Beispiel auf Möbel aus Tropenholz verzichtet, oder als Recyclingpapier nur das Papier mit dem “Blauen Engel” darauf verwendet, kann in seinem Alltag zumindest einen kleinen Beitrag zum Schutz der tropischen Wälder leisten. Der Verzicht auf Palmöl ist ebenfalls ein solcher Schutzbeitrag, da die Herstellung dieses Öls äußerst stark zur Zerstörung des Regenwaldes beiträgt. Der Grund dafür ist, dass Palmöl aus Ölpalmen hergestellt wird, welche wiederum auf Regenwald-Flächen angebaut werden. Diese Flächen wurden im Vorfeld gerodet, damit die Ölpalmen darauf angebaut werden können. Je mehr also die Nachfrage nach Palmöl steigt, desto mehr Ölpalmen werden angebaut. Und je mehr Ölpalmen angebaut werden, desto mehr Regenwald-Flächen werden gerodet.

Auch eine Verringerung des Fleischkonsums kann zum Schutz des Regenwaldes beitragen. Denn um das Futter für derartige Nutztiere herzustellen, wird in den Regenwäldern Soja produziert. Und für diese Sojaproduktion werden oft sehr große Regenwald-Flächen abgeholzt. Die grüne Lunge der Erde kann also nicht nur durch großen Aufwand an bestimmten Tagen an bestimmten Orten geschützt werden, sondern tagtäglich durch simpelste Veränderungen im eigenen Lebensstil.

Wodurch der Klimawandel noch gebremst werden kann

Es gibt noch eine große Anzahl von weiteren Möglichkeiten und Tipps, auf welche Art und Weise der Klimawandel zumindest verlangsamt werden kann. Zu diesen Möglichkeiten zählen unter anderem die folgenden Dinge:

  • Weniger Lebensmittel verschwenden
  • Produkte gemeinsam oder mehrfach nutzen
  • Möglichst häufig Bio-Produkte verwenden
  • Weniger Strom verschwenden & mehr Strom sparen
  • Regional & saisonal einkaufen
  • Mehr öffentliche Verkehrsmittel fördern & nutzen
  • Weniger Auto & mehr Fahrrad fahren
  • Auf Ökostrom setzen
  • Nach Möglichkeit LED-Lampen nutzen
  • Auf nachhaltige Unternehmen achten
Warum ist der Mars rot? Bedeutung, Definition, Erklärung


Der Mars verdankt seine rote Farbe einem Eisenoxid, dem sogenannten Hämatit (Fe2O3). Durch Oxidation des Eisens, welches im kosmischen Staub und im Marsgestein enthalten ist, entsteht diese chemische Verbindung. Auf der Erde ist dieser Prozess als „Verrosten“ bekannt. Das “Verrosten” bzw. oxidieren des Eisens wird auf der Erde durch Feuchtigkeit, das heißt durch Wasser ausgelöst.

Der Mars verdankt seiner farbig auffälligen Erscheinung am Nachthimmel die Bezeichnung „roter Planet“. Tatsächlich ist seine Oberfläche aber nicht intensiv Rot, sondern rötlich mit Schattierungen in Braun und Orange. Die Akzentuierungen sind auf Sandstürme auf der Marsoberfläche zurückzuführen. Diese führen je nach Wetterbedingungen zu unterschiedlich großen Wolken aus rötlichem Sand, welche die Farbakzente setzen. Mit Teleskopen kann dies beobachtet werden.

Was verursachte die Entstehung des roten Eisenoxids auf dem Mars?

Das Rostrot des Mars wurde aufgrund der Annahme, dass Feuchtigkeit eine Voraussetzung für die Oxidierung von Eisen ist, lange Zeit als Beweis für einstig große Wasservorkommen auf dem Planeten angesehen. Eine Theorie besagt, dass früher vorhandenes Wasser das Eisen aus dem Marsgestein herauslöste und verrosten ließ. Diese Ansicht wurde durch Experimente von Geochemikern der Universität im dänischen Aarhus 2009 in Frage gestellt. Sie zeigten, dass der Prozess der Oxidierung auf dem Mars auch ohne große Wasservorkommen stattgefunden haben könnte. Die Oberfläche des Mars besteht zum Großteil aus Basalt, einem vulkanischen Gestein, welches Magnetit enthält. Magnetit ist ein schwarzes Eisenoxid. Würde das Basalt unverändert vorliegen, würde der Mars nicht rötlich sondern überwiegend dunkel erscheinen.

Die Forscher in Aarhus simulierten einen Erosionsprozess, der sich durch Sandstürme auf dem Mars zugetragen haben könnte. Dazu ließen sie Magnetit zusammen mit Quarzsand monatelang in einem abgeschlossenen Gasbehälter mechanisch schüttelten. Das Gasgemisch entsprach der Atmosphäre des Mars, welche 100-mal dünner ist als auf der Erde und zum größten Teil aus Kohlenstoffdioxid besteht. Bereits nach kurzer Zeit bildeten sich rote Ablagerungen. Dies bewies, dass Magnetit auch ohne den Einfluss von Wasser zu rötlichem Hämatit oxidieren kann. Der Leiter des Experiments, Jonathan Merrison, und seine Kollegen vermuteten, dass durch die Zusammenstöße der Sandteilchen genug mechanische Energie entsteht, um das chemisch stabilere Magnetit in Hämatit umzuwandeln. Über Jahrtausende könnte auf diesem Weg genügend Eisen oxidiert worden und infolgedessen rötlicher Sand entstanden sein, um die Färbung des Planeten zu erklären.

Woher kommt das Eisen und somit der Ursprung der Marsfarbe?

Der Mars war in seiner Entwicklung stark geprägt von Vulkanismus. Durch Identifizierung verschiedener Minerale auf der Marsoberfläche gehen Forscher davon aus, dass es sich um basaltischen Vulkanismus handelte. Das ist die auf erdähnlichen Körpern unseres Sonnensystems häufigste Form des Vulkanismus. Auf der Erde selbst bestehen u.a. die Ozeanböden aus Basalten. Basalte entstehen, wenn Teile des Planetenmantels zu Magma aufgeschmolzen werden, welches zur Oberfläche aufsteigt und als Lava austritt. Dieses vulkanische Gestein ist eisen- und magnesiumreich. Nach aktuellem Forschungsstand ist es der Hauptbestandteil der Marskruste. Die bekannten Vulkane des Mars sind alle erloschen und nur noch an einigen Stellen gehäuft zu finden.

Seine eisenhaltige Oberfläche verdankt der Mars aber nicht nur einer vulkanisch aktiven Vergangenheit. Forscher der NASA gehen zudem von einem kosmischen Ursprung des Eisens aus. Damit ist der Einschlag von Eisenmeteoriten gemeint. Diese Theorie wird gestützt durch die Funde mehrerer Eisenmeteoriten zum Beispiel im Zuge der NASA Mars-Mission mit dem US-amerikanischen Erkundungsroboter Opportunity. Dieser diente von 2004 bis 2018 der geologischen Untersuchung des Mars.

Was ist der Overview-Effekt? Bedeutung, Definition, Erklärung


Den Overview-Effekt erleben nur Raumfahrer: Sie haben aus dem Weltall plötzlich einen Überblick über den Heimatplaneten Erde, der einen unglaublichen emotionalen Effekt auslöst. Beim ersten Mal ist der Overview-Effekt am stärksten, doch die meisten Astronauten und Kosmonauten bestätigen, dass er sich wiederholt, wenn sie beispielsweise in der ISS nach vollbrachtem Tagewerk die Panoramakapsel aufsuchen, die ihnen den uneingeschränkten Blick auf die Erde ermöglicht.

Was ist der Overview-Effekt? Bedeutung, Definition, Erklärung

Verwendet hat ihn erstmals 1987 der Autor Frank White als Titel für ein dokumentarisches Buch („Der Overview-Effekt“), in welchem Besatzungsmitglieder etlicher Raumfahrtmissionen ihre Ehrfurcht beim Anblick des Heimatplaneten aus dem Kosmos beschrieben. Dieses Buch wurde 2012 durch einen Dokumentarfilm ergänzt. In diesem äußerten sich auch Raumfahrer, die ihre Missionen nach 1987 angetreten hatten. Die Liste der zitierten Kosmonauten und Astronauten ist lang und beginnt von vorn:

  • Juri Alexejewitsch Gagarin (mit dem sowjetischen Raumschiff Wostok 1 im April 1961 erster Mensch im Weltall, umrundete die Erde)
  • Alan Shepard (mit dem US-Raumschiff Mercury-Redstone 3 im Mai 1961 zweiter Mensch im Weltall, 1969 der fünfte Mensch auf dem Mond)
  • John Glenn (1962 erste vollständige Erdumkreisung mit einem US-Raumschiff)
  • Malcolm Scott Carpenter (1962 zweiter Astronaut im Orbit)
  • Michael Collins (Pilot von Apollo 11 während der ersten Mondlandung 1969, blieb im Raumschiff, während Armstrong und Aldrin auf ihm landeten)
  • Russell Louis Schweickart (1969 Pilot der Mondlandefähre von Apollo 9)
  • Edgar Mitchell (1971 Pilot der Mondlandefähre von Apollo 14)
  • Eugene Cernan (mit Apolle 17 im Jahr 1972 der 11. Astronaut auf dem Mond, zusätzlich weitere Weltraumflüge)
  • Anatoli Nikolajewitsch Beresowoi (1982 Kommandant von Sojus T-5 mit Außeneinsatz im All)
  • Marc Garneau (1984 erster Kanadier im All, danach noch zwei weitere Missionen)
  • Sultan bin Salman bin Abdulaziz Al Saud (1985 mit der US-Raumfähre Discovery erster Araber im All)
  • Loren Wilber Acton (1985 als Nutzlastspezialist mit einem Spacelab-Mission im All)
  • Bonnie Jeanne Dunbar (US-Astronautin, sechs Weltraummissionen von 1985 bis 1998)
  • Jeff Hoffman (fünf Flüge als Missionsspezialist von 1985 bis 1996)
  • Tamara Elizabeth Jernigan (US-Astronautin, fünf Weltraummissionen von 1991 bis 1999)
  • Prof. Dr. Albert Sacco (1995 Nutzlastspezialist auf einer Columbia-Mission)
  • Ron Garan (2008 Missionsspezialist auf der ISS)
  • Shane Kimbrough (drei Flüge als Missionsspezialist zwischen 2008 und 2021)
  • Nicole Stott (2009 und 2011 Missionsspezialistin auf der ISS)

Übereinstimmend beschreiben alle Raumfahrer*innen eine umfassende und sehr tiefgreifende Wirkung des Anblick der Erde aus dem Weltall.

Psychologische Wirkung des Overview-Effekts

Die Erfahrung, die Erde ganz real von außen zu sehen, ändert die eigene Perspektive grundlegend. Die Betrachtung der Natur und der Menschheit verändert sich. Als grundlegendes psychologisches Merkmal des Overview-Effekts nennen die befragten Raumfahrer*innen übereinstimmend ein Gefühl von Ehrfurcht und tiefem Verstehen der Verbundenheit sämtlichen Lebens auf dem Planeten Erde. Auch empfinden die Kosmonauten, Astronauten (und selbstverständlich auch Taikonauten) seit ihrem Overview höchste Verantwortung für die Ökosphäre der Erde. Ihre Zitate dazu lauten unter anderem, dass die Erde aus dem Weltraum betrachtet „erstaunlich und unbeschreibbar schön … wie ein lebender und atmender Organismus … aber gleichzeitig sehr verletzlich aussieht …“, dass die Erde „… lediglich von einer papierdünnen Hülle der Atmosphäre umgeben ist, die alles Leben vor dem unwirtlichen Weltall und damit vor dem Tod bewahrt …“, dass der Blick aus dem All „… nur natürliche, aber keine von Menschen geschaffene Grenzen zeigt …“ und dass „… der Overview die tiefste und emotionalste Erfahrung des eigenen Lebens …“ sei.

Welche Bedeutung hat der Overview-Effekt für den Rest der Menschheit?

Es gilt als unbestritten, dass Fotos und Filme den echten Overview von Raumfahrer*innen nicht ersetzen können. Da nicht jeder Mensch ins Weltall reisen kann, um zur tiefen Einsicht von Raumfahrern zu gelangen, fragt es sich, wie deren Erkenntnisse uns einfachen Sterblichen helfen können. Spätestens seit Erscheinen des Films 2012 haben sich nun auch Psychologen und Sozialforscher verstärkt mit dem Overview-Effekt befasst. Sie vertreten inzwischen die Auffassung, dass es möglich ist, generell von den Erfahrungen eines Overviews zu profitieren, indem wir alle unseren häufig auf Fragmente eingegrenzten Blick wieder auf das große Ganze richten. Dies betrifft unser physisches Umfeld ebenso wie die sozialen Organisationen, in denen wir kooperieren. Der Overview wirkt als Sinngarant, meint etwa der Netzwerkwissenschaftler Harald Katzmayer. Er glaubt, dass ein Überblick ähnlich dem von Raumfahrern Ruhe und Sicherheit erzeugt. Gleichzeitig lehrt er Ehrfurcht und weckt den Wunsch, unsere Umwelt zu schützen. In der Tat ist das Umweltbewusstsein mit dem Beginn der bemannten Raumfahrt gestiegen. Folglich sollten wir verstärkt unseren Fokus vom alltäglichen Klein-Klein abwenden und uns den größeren Sinnzusammenhängen widmen.

Was ist das China-Restaurant-Syndrom? Bedeutung, Definition, Erklärung


China-Restaurant-Syndrom ist ein umgangssprachlicher Ausdruck, der eine angenommene Glutamat-Unverträglichkeit bezeichnet.

Was ist das China-Restaurant-Syndrom? Bedeutung, Definition, Erklärung

Die Symptome ähneln denen einer Allergie, auch wenn es sich streng genommen beim China-Restaurant-Syndrom nicht um eine allergische Reaktion handelt. Ob Glutamat wirklich der Auslöser für das China-Restaurant-Syndrom ist, ist wissenschaftlich bislang nicht zweifelsfrei erwiesen. Ärzte und Wissenschaftler halten diese Erklärung aber für die wahrscheinlichste, wenn es um gesundheitliche Probleme nach dem Verzehr chinesisch zubereiteter Speisen kommt. Sie sind der Meinung, dass eine Überempfindlichkeit gegen Glutamat besteht. Glutamat ist ein Geschmacksverstärker, der in der asiatischen Küche häufig zur Anwendung kommt. Besonders oft ist Glutamat in Soja- und in Fischsoßen enthalten, mit denen in China-Restaurants eine Vielzahl von Gerichten gewürzt werden. Auch in chinesischen Suppen ist Glutamat vielfach zu finden, zum Beispiel in der Wantan-Suppe. Außerdem ist Glutamat oft in Fertigprodukten enthalten. Diese können Tütensuppen, Pulver zum Anrichten von Fertigsoßen oder Gewürzmischungen sein. Auch in Konserven kann Glutamat enthalten sein.

China-Restaurant-Syndrom: Symptome

Personen, die am China-Restaurant-Syndrom leiden wird häufig noch im Restaurant schlecht. Denn bei einer Unverträglichkeit gegenüber Glutamat zeigen sich innerhalb von zehn bis 30 Minuten nach dem Verzehr von mit Glutamat zubereiteten Speisen die ersten Symptome. Anhalten können diese im Anschluss über mehrere Stunden hinweg. Neben Übelkeit zählen Kopfschmerzen und ein unangenehmer Schläfendruck zu den häufigsten Symptomen. Betroffene leiden zudem oft unter Mundtrockenheit, einem Engegefühl in der Brust und vermehrtem Herzklopfen. Auch ein Taubheitsgefühl im Mund, oder starkes Kribbeln in der Mundhöhle, können vom China-Restaurant-Syndrom ausgelöst werden. In der Folge dieser ersten Symptome zeigen sich außerdem bei vielen Menschen Gliederschmerzen und eine vorübergehende Erstarrung der Gesichtsmuskeln. Auch Zittern ist möglich. Außerdem kann ein Juckreiz im Hals entstehen. Bei einigen Personen können auch gerötete Hautpartien und Schwellungen im Gesicht erkannt werden.

Sind Kinder vom China-Restaurant-Syndrom betroffen, können die Symptome verstärkt auftreten. Im Gegensatz zu Erwachsenen leiden Kinder zusätzlich oftmals unter Fieber und schwitzen sehr stark. Gegebenenfalls steigt ihre Reizbarkeit stark an und sie beginnen zu schreien. Werden Kinder mit China-Restaurant-Syndrom zu ihrem Befinden befragt, beschreiben sie ihren Zustand meist wie den im Rahmen einer starken Erkältung.

Mögliche Ursachen für das China-Restaurant-Syndrom

Damit das China-Restaurant-Syndrom tatsächlich auftritt müssen Menschen, die auf Glutamat mit einer Unverträglichkeit reagieren, eine gewisse Menge an Glutamat zu sich genommen haben. In der Regel sind dies drei bis fünf Gramm Mononatriumglutamat. Auch der Zeitraum, in dem diese Menge an Glutamat aufgenommen wird, spielt eine erhebliche Rolle. Er muss innerhalb einer sehr kurzen Zeitspanne von nur einigen Minuten liegen. Demnach ist es ungefährlich die gleiche Menge an Glutamat zum Beispiel auf zwei Mahlzeiten verteilt, etwa zum Mittag- und zum Abendessen, zu sich zu nehmen. Dann müssen, trotz einer Glutamat-Unverträglichkeit keine Symptome auftreten, die dem China-Restaurant-Syndrom zugeschrieben werden können. Da in der heimischen Küche üblicherweise nicht mit derart hohen Mengen an Glutamat gekocht wird, und dies eher für die chinesische Zubereitungsart typisch ist, tritt das China-Restaurant-Syndrom auch hauptsächlich nach dem Essen in China-Restaurants auf. Jedoch sind die beschriebenen Beschwerden nicht immer auf ein China-Restaurant-Syndrom zurückzuführen. Oft lösen auch eine zu hohe Konzentration an Histaminen, Fett oder Natrium im Essen ähnliche Beschwerden aus, wie das China-Restaurant-Syndrom.

Ist das China-Restaurant-Syndrom gefährlich?

Von Ärzten und Wissenschaftlern wird das China-Restaurant-Syndrom als gesundheitlich unbedenklich ausgewiesen. Der Grund dafür liegt darin, dass die durch die im Zusammenhang mit dem China-Restaurant-Syndrom stehenden Symptome rasch wieder abklingen und keine Folgeschäden hinterlassen. In erster Linie ist das China-Restaurant-Syndrom also lästig für die Betroffenen. Es ist nicht im Sinne einer tatsächlichen Krankheit, oder auch einer Allergie, zu verstehen. Es ist außerdem keine Gabe von Medikamenten nötig, um das China-Restaurant-Syndrom zu behandeln. Die Symptome verschwinden nach kurzer Zeit jeweils von alleine wieder.

Was man zum China-Restaurant-Syndrom noch wissen sollte

Da hinter den Symptomen, die dem China-Restaurant-Syndrom zugeschrieben werden, auch wirkliche Krankheiten und Allergien stecken können, ist es dennoch ratsam einen Arzt aufzusuchen, wenn die Symptome häufiger auftreten. Es kann sich etwa auch um eine Nussallergie oder eine Allergie auf Meeresfrüchte, statt um das China-Restaurant-Syndrom handeln – je nachdem, welche Gerichte im China Restaurant verzehrt wurden. Ein Arzt kann über einen Allergietest Allergien feststellen und natürlich auch ausschließen. Zeichnet sich ab, dass es sich nicht um eine Allergie, sondern um das China-Restaurant-Syndrom handelt, dann hilft die Vermeidungsstrategie. Dabei muss nicht zwingend auf den Besuch von China Restaurants verzichtet werden. In jedem Fall sollte man eingangs jedoch nachfragen, ob in der Küche Glutamat zur Herstellung der Speisen verwendet wird. Es gibt auch eine Reihe an China Restaurants, die speziell damit werben ohne Glutamat zu kochen.

Was ist Bonding? Bedeutung, Definition, Erklärung


Bei Bindungen aller Art zwischen Menschen sind immer tiefe Emotionen im Spiel. In diesem Beitrag wird ausführlich erklärt, was “Bonding” ist.

Was ist Bonding? Bedeutung, Definition, Erklärung

Der englische Ausdruck Bonding bezeichnet generell Bindungen aller Art. In der Regel bezieht sich Bonding dabei jedoch auf eher enge, emotionale und zwischenmenschliche Bindungen zwischen zwei oder auch mehreren Individuen und deren Entstehung sowie Entwicklung. Zumeist findet Bonding in Familien, Freundes- und Bekanntenkreisen sowie in Gruppen wie Sport- und anderen Vereinen statt. Bonding beschreibt im weiteren Sinne auch den Prozess, wenn gleichgesinnte Menschen Zeit miteinander verbringen. Bonding bzw. Bindung ist stets eine gegen- bzw. wechselseitige und interaktive Handlung, die sich von einfacher Sympathie unterscheidet und die Pflege sozialer Bindungen beinhaltet. Mit Bonding/Bindung werden vor allem auch romantische oder platonische Beziehungen unter dem Vorzeichen von Liebe, Vertrauen und Zuneigung beschrieben. Hierbei kann es sich sowohl um Sexualpartner als auch Eltern und Kinder sowie andere Verwandte handeln. In der Soziologie steht männliche Bindung für den Aufbau von Beziehungen unter Männern durch gemeinsame Aktivitäten, wobei weibliche Bindung sich eher auf die Bildung enger persönlicher Beziehungen zwischen Frauen bezieht.

Bonding: Berühmte Philosophen und Dichter beschäftigten sich intensiv mit Bindungen

Der griechische Philosoph Platon vertrat im 4. Jahrhundert vor Christus die Ansicht, dass grundsätzlich Liebe die Basis jeglicher Bindungen in menschlichen Gesellschaften sei. Im Dialog „Symposion“ erklärt der Erzähler Eryximachus, dass Liebe einfache Anziehung zur menschlichen Schönheit übersteige und diese bei Tieren und Pflanzen sowie im gesamten Universum vorkomme. Die Liebe lenke alles, was im Götterreich als auch demjenigen der Menschen geschähe. Eryximachus begründet diese Sicht damit, dass gegensätzliche Elemente wie Nässe und Trockenheit durch richtige Liebe harmonisch miteinander verbunden sind, während jedoch grobe, impulsive und vulgäre Liebe Tod und Zerstörung verursache. Höhere Liebe steuere demzufolge Beziehungen zwischen Gegensätzen im Laufe des Daseins und erzeuge Harmonie, impulsive und niedere Liebe hingegen schaffe Disharmonie. Platon schlussfolgert daraus, dass auf das Gute und die Gerechtigkeit gerichtete Liebe für Glückseligkeit, enge Bande innerhalb der menschlichen Gesellschaft und Eintracht der Menschen mit Göttern sorge. Mitte des 17. Jahrhunderts verurteilte der niederländische Philosoph Spinoza Impulsivität in Bindungen und pries Mäßigung sowie Kontrolle von Gefühlen als beste Basis für gute menschliche Bindungen. Johann Wolfgang von Goethe wiederum verglich 1809 in seiner berühmten Novelle „Wahlverwandtschaften“ gute und starke Eheverbindungen mit reaktiven chemischen Prozessen.

Im Tierreich gelten hinsichtlich von Bindungen andere Regeln als beim Menschen

Bindung wird in der Literatur vor allem unter dem thematischen Schwerpunkt Paarbindung behandelt. Der Begriff Paarbindung wurde 1940 erstmals in Bezug auf monogam oder relativ monogam lebende Vogelpaare erwähnt. Monogamie als langfristige Bindung oder Paarung über den kurzen Akt der Kopulation hinaus ist mit etwa 90 Prozent bei Vogelarten recht häufig anzutreffen, bei Säugetieren jedoch mit lediglich drei Prozent relativ selten. Monogamie als Paarbindung ist im Vergleich zur deutlich häufigeren Polygynie bei den meisten Primatenarten ähnlich gering, wobei Primaten jedoch oftmals lang anhaltende und stabile soziale Beziehungen in deren jeweiligen Gruppen und damit auch enge Bindung pflegen. Inwiefern Monogamie beim Menschen natürlich sei, bleibt in der Forschung umstritten, kontinuierliche monogame oder polygame Beziehungen werden aber so gut wie immer von affektiven bzw. emotionalen Bindungen begleitet. Paarbindung kann einer 1979 von der US-amerikanischen Psychologin Dorothy Tennov (1928-2007) aufgestellten Theorie zufolge auch stark von sog. „Liminalität“ (Schwellenzustand) geprägt sein, welche sich am besten mit dynamischen, veränderlichen und „gemischten Gefühlen“ beschreiben lässt. Demzufolge sind Bindungen und Beziehungen gleich welcher Art und Intensität stets permanentem Wandel unterworfen, was der Realität ziemlich nahekommen dürfte.

Bonding: Die tiefe Bindung der Mutter zum Kind gilt als das stärkste Band unter Menschen

Besondere Aufmerksamkeit widmet die Wissenschaft darüber hinaus der Untersuchung von elterlicher Bindung. 1958 publizierte der britische Entwicklungspsychologe, Kinderarzt sowie Psychoanalytiker John Bowlby (1907-1990) einen in der damaligen Fachwelt viel beachteten, aber auch kontrovers diskutierten Aufsatz zur Natur der kindlichen Bindung an die Mutter. Diesem ersten Vorläufer der „Bindungstheorie“ zufolge beruht affektive oder emotionale Bindung auf dem universellen Bedürfnis des Menschen, sich zu binden, die Nähe anderer Personen zu suchen und durch deren Anwesenheit Sicherheit zu fühlen. Die Bindungstheorie wurde größtenteils durch Experimente mit Tieren sowie Beobachtungen von Kindern ohne Betreuungserfahrung durch Erwachsene entwickelt. Bowlby konstatierte seinerzeit, dass Babys von Geburt an das Bedürfnis nach engen emotionalen Bindungen haben, da die damit verbundene Fürsorge ihre Überlebenschancen deutlich erhöht. Von allen menschlichen Bindungen gilt die Mutter-Kind-Beziehung bzw. mütterliche Bindung als eine der stärksten. Diese entwickelt sich bereits während der Schwangerschaft, nach der Geburt sorgt die Produktion von Oxytocin („Kuschelhormon“) für parasympathische Aktivität, Reduzierung von Angst, Bindungsförderung und Fürsorgeverhalten.

Erwachsene und Kinder müssen nicht verwandt sein, um sich sehr eng zu binden

In den 1930er-Jahren wurde das Stillen des Säuglings an der Brust der Mutter noch als unabdingbar für eine frühe mütterliche Bindung erachtet. Seither haben jedoch zahlreiche seriöse Studien gezeigt, dass sich auch Mütter, die „nur“ mit der Flasche stillen, ebenso angemessen um ihre Säuglinge kümmern (können). Verschiedene Fütterungsmethoden scheinen somit nicht allzu viel Einfluss auf die Güte der Mutter-Baby-Beziehung zu haben. Erfolgreiche gegenseitige Mutter-Baby-Bindungen sind also auch ohne frühes Stillen an der Brust möglich. Auch die zu dieser Zeit noch weitverbreiteten Annahme, dass Kinder, die erst spät in die Obhut von Adoptiveltern kommen, Schaden nehmen könnten, weil die Phase der gegenseitigen Bindungsentwicklung im Säuglingsalter abgelaufen ist, gilt heute als wissenschaftlich widerlegt. Vielmehr muss das sog. Eltern-Säugling-System neuesten Erkenntnissen zufolge nicht zwangsläufig auf biologischer Verwandtschaft beruhen. Es scheint sich eher um angeborene Verhaltensmuster sämtlicher menschlicher Säuglinge und den hierzu adäquaten und gewachsenen Reaktionen aller menschlicher Erwachsenen auf diese zu handeln, die Bindungen dieser Art fördern. Somit können auch Erwachsene die Elternrolle für Kinder übernehmen, ohne deren tatsächlichen Eltern zu sein.

Väter haben zu ihren Kindern häufig andere, aber nicht wenige intensive Bindungen

Von der mütterlichen Bindung an das Kind, die sich auch über längere Zeiträume meist durch Stabilität auszeichnet, wird hingegen die diesbezüglich vergleichsweise fragile und stärker schwankende väterliche Bindung unterschieden. In der Tat wachsen heutzutage zahlreiche Kinder ohne Väter auf und kennen keinerlei väterliche Bindung. Im Allgemeinen erlangt väterliche Bindung auch erst später im Leben von Kindern Bedeutung, vor allem nachdem sich die Sprache des Kindes bereits entwickelt hat. Väter haben vermutlich mehr Einfluss auf Spiel- als auf Fürsorgeinteraktionen. Bindungen zwischen Vätern und Kindern entwickeln sich auch später eher um finanzielle sowie politische Themen, während sich Bindungen zwischen Müttern und Kindern rund um ethische und/oder religiöse Themen drehen. Interessanterweise scheint der Anteil des Hormons Progesteron als wichtigster Vertreter aus der Gruppe der Sexualhormone im Blut der Mutter nicht nur die Intensität der mütterlichen Bindung während der Schwangerschaft, sondern auch das Verhalten von Vätern gegenüber Kindern maßgeblich zu beeinflussen.

Bindungen zwischen Menschen und Tieren existieren, werden aber oft sehr verklärt

Gänzlich anderer Natur als die vielfältigen Bindungen zwischen Menschen sind diejenigen zwischen Mensch und Tier, deren Erforschung im Rahmen der zu dieser Zeit einsetzenden „Aufklärung“ bereits im späten 18. Jahrhundert begann. Hierbei wird im Allgemeinen eine Unterscheidung zwischen Haus- oder Nutz- und Wildtieren unternommen. Schon in den 1870er-Jahren gab es etwa in Paris die ersten therapeutischen Ansätze zur Behandlung psychisch Kranker, bei denen regelmäßiges Reiten auf Pferden die motorische Kontrolle verbesserte sowie neurologische Störungen und schwere Depressionen anhaltend und effektiv minderte. Ungefähr zur selben Zeit wurden in den Vereinigten Staaten viele Kinder und speziell Jungen aus der Mittelschicht mit Begleittieren sozialisiert. Absicht und Ziel war hierbei, die angeblich angeborene Neigung zur Gewalttätigkeit bei Jungen durch positive Effekte der Tierhaltung zu mildern, zu dämpfen oder gar ganz auszuschalten. Noch bis in die 1990er-Jahre galt die Fürsorge und Verantwortung von Jungen für Haustiere als eine der wenigen erfolgreichen pädagogischen Methoden, Aggression bei männlichen Kindern dauerhaft vorzubeugen. Ein bekanntes historisches Beispiel für eine enge „Mensch-Tier-Bindung“, die als Begriff aber erst in den 1980er-Jahren in der Terminologie der Forschung auftauchte, sind diesbezügliche Berichte vieler Veteranen aus dem Ersten Weltkrieg, die ihre große Zuneigung zu den an der Front eingesetzten Pferden betonten.

Bonding: Viele Mechanismen von Bindungen lassen sich biologisch und chemisch erklären

Trotz der zahlreichen Unterschiede zwischen menschlichen und tierischen Bindungen bzw. dem Unvermögen von Menschen, tierisches Bindungsverhalten vollständig zu verstehen, gibt es doch auch einige Gemeinsamkeiten hormoneller Natur. Bei Menschen wie vielen Tierarten scheinen die beiden Hormone Oxytocin und Vasopressin den Bindungsprozess sowie soziales und reproduktives Verhalten günstig zu beeinflussen. Auch Paarbindung, positive soziale Interaktion sowie mütterliches Verhalten und Vertrauen werden durch höhere Konzentrationen dieser Hormone gestärkt, soziale Isolation führt dahingegen zu Stress und Freisetzung von Cortisol. In den „Belohnungszentren“ des limbischen Systems kann der Neurotransmitter Dopamin auch mit Oxytocin interagieren und auf diese Weise die Wahrscheinlichkeit einer Bindung weiter erhöhen. Einige Bedeutung bei der Bildung und Entwicklung von Bindungen wird auch dem Peptidhormon Prolaktin beigemessen, welches vorrangig im Hypophysenvorderlappen produziert wird und positiv auf Bindungen zwischen Müttern und Säuglingen sowie romantische Bindungen wirkt. Prolaktin steigert Wohlbefinden und verändert das neuroendokrine System, um somit enge Beziehungen zu ermöglichen und individuelle Gesundheit zu erhalten. Der Anstieg des Prolaktinspiegels in sozialen Stresssituationen soll Menschen auch vor potenziell gefährlichen und riskanten Überreaktionen bewahren.

Was ist die Wolken-Impfung? Wie werden Wolken geimpft? Bedeutung, Definition, Erklärung


Unter eine Wolkenimpfung versteht man eine Art der Wetterbeeinflussung durch das Versprühen eines chemischen Gemisches mit einem entsprechenden Flugzeug in den Wolken oder einem Beschuss dieser mittels einer Rakete. Damit wird versucht, den Hagel im Rahmen eines Gewitters zu minimieren oder bestenfalls gänzlich zu unterbinden. Nutznießer einer erfolgreichen Wolkenimpfung sind beispielsweise Landwirte, aber auch die Industrie.

Wie entsteht Hagel und wie kann man ihn mit einer Wolkenimpfung verhindern bzw. minimieren?

Hagelkörner beginnen zu entstehen, wenn Wassertröpfchen innerhalb einer Gewitterzelle durch Aufwinde in höhere Luftschichten transportiert werden. In diesen höheren Schichten herrscht eine niedrigere Temperatur, wodurch die ursprünglichen Wassertröpfchen zu gefrieren beginnen und somit zu kleinen Hagelkörnern werden. Durch starke Auf- und Abwinde innerhalb des Gewitters können Hagelkörner diesen Zyklus mehrmals durchlaufen und werden dadurch immer größer und schwerer, indem sich bei jedem Durchlauf eine weitere Schicht um das Hagelkorn bildet. Neben dem Bestehen von Auf- und Abwinden sowie der niedrigen Temperatur ist auch noch Folgendes für die Entstehung und Vergrößerung eines Hagelkorns notwendig: ein sogenannter Kondensationskern. Der Kondensationskern bzw. Kristallisationskeim ist jener Teil des Hagelkorns, an dem die Wassertropfen haften bleiben und in weiterer Folge gefrieren. Besonders gut eignen sich Eispartikel für die Bildung eines Kondensationskerns, aber auch Pollen, Staub oder Rußpartikel.
Und genau diesen Fakt versucht man sich mit der Wolkenimpfung zunutze zu machen. Mittels Flugzeuge mit speziell ausgerüsteten Fackeln bzw.

Generatoren wird ein Silberiodid-Aceton-Gemisch in die Wolken transportiert und dort freigesetzt. Sozusagen wird die Wolke mit dem Silberiodid-Aceton-Gemisch geimpft. Eine Alternative stellen Hagelraketen dar, welche vom Boden aus abgefeuert werden und die Wolken entsprechend von unten impfen. Das Prinzip ist dennoch dasselbe.
Die Verwendung des „Impfstoffs“ fällt auf chemische Verbindung Silberiodid, da dieses eine sehr ähnliche Gitterstruktur wie Eispartikel haben und sich somit sehr gut als Kondensationskern eignet. Durch die Einbringung dieser zusätzlichen Kondensationskerne können sich die Wassertröpfchen innerhalb der Gewitterzelle auf mehrere Kondensationskerne verteilen, wodurch weniger große und gefährliche Hagelkörner entstehen, sondern viele kleinere. Gleichzeitig soll das Versprühen auch zu einer Bildung von größeren Regentropfen führen, welche als Folge ihres höheren Gewichts früher abregnen und somit eine Hagelbildung durch den fehlenden Transport der Regentropfen in die höheren und kälteren Luftschichten gänzlich verhindert wird.

Alternative Methoden zur Wolkenimpfung

Neben den beschriebenen Methoden der Wolkenimpfung mittels Flugzeug sowie Beschuss mittels Hagelkanone gibt und gab es auch noch einige weitere Methoden zur Wettersteuerung. Im Altertum warnten offizielle Hagelwächter vor aufziehenden Gewittern und versuchten durch verschiedenste Opfergaben die Götter zu besänftigen. Im Christentum versuchte man sich durch Gebete oder der Abhaltung von Heiligen Messen von Hagel und Unwettern zu schützen, da man davon ausging, dass Dämonen für die Entstehung von Hagel verantwortlich sind. Auch das Opfern von Tieren an Klöster sowie das Errichten von Hagelkreuzen war verbreitet.

Später versuchte man Wolken mittels Schallwellen zu impfen, um sich so vor Hagel zu schützen. Mit dem sogenannten „Wetterläuten“ sollte durch das Läuten der Kirchenglocken das Gewitter durch die erzeugten Schallwellen vertrieben werden. Gleichzeitig warnte man damit die Bevölkerung vor der anbahnenden Gefahr. In weiteren Teilen Europas ging man auch mittels Raketen und Kanonen gegen Hagel und Gewitter vor. Zuerst nur in Form von Lärm, später wurden jedoch damit auch Rußpartikel verschossen, womit sich diese Methode, der heute üblichen sehr ähnelt und die Rußpartikel als Kondensationskeime dienten.

Wem nutzt die Wolkenimpfung?

Großen Nutzen aus der Wolkenimpfung erhofft sich vor allem die Landwirtschaft. Neben der Verhinderung von Hagelschäden durch große Hagelkörner soll mit der Wolkenimpfung auch das gezielte Abregnen in niederschlagsarmen Regionen gesteuert werden.

Die Industrie, allen voran die Automobilindustrie, versucht mit der Wolkenimpfung Neufahrzeuge vor Hagelschäden zu schützen, aber auch Flughäfen möchten damit das Wetter im Umfeld gewissermaßen stabilisieren.

Ein weiterer Anwendungsfall von Wolkenimpfungen bzw. Wetterbeeinflussung stellen Großereignisse dar. Somit hat beispielsweise China die Wolken zur Eröffnungsfeier der Olympischen Spiele 2008 im Umkreis geimpft, damit diese vor Regen verschont blieb.

Wie effektiv ist die Wolkenimpfung?

Über den Wirkungsgrad von Wolkenimpfungen gibt es keine eindeutige wissenschaftliche Datenlage bzw. konnte dieser bis dato nicht eindeutig nachgewiesen werden. Erschwerend für die Beweislage ist, dass sich Gewitterzellen sehr dynamisch und unvorhersehbar verhalten und sich somit die Zielerreichung nur sehr schwer messen lässt. Des Weiteren sind Gewitterzellen oftmals sehr groß, wofür für eine effektive Wolkenimpfung zur Verhinderung von Unwetterschäden eine Vielzahl von Flugzeugen bzw. Kanonen sowie eine große Menge an Silberiodid-Aceton-Gemisch benötigt werden würde. Der Betrieb der Flugzeuge sowie das Durchführen der Wolkenimpfung ist sehr kostenintensiv, wodurch der Einsatz auch mangels der wissenschaftlich nachgewiesenen Wirkung nur beschränkt erfolgt.

Ist die Wolkenimpfung gefährlich?

Über die Folgen der Wolkenimpfung gibt es bis dato keine eindeutigen wissenschaftlichen Beweise. Silberiodid wird zwar als Umweltgift geführt, man vermutet jedoch, dass die ausgebrachte Menge aufgrund des starken Verdünnungseffekts unbedenklich sei. Belege für die Auswirkungen auf Mensch, Tier und Umwelt, vor allem für den Boden und das Wasser, über welche das Silberiodid in den Nahrungskreislauf gelangen kann, sind noch nicht vorhanden.

Seit 1978 ist jedenfalls der Einsatz von Wettermanipulation in jeglicher Form für militärische Zwecke oder zur Kriegsführung durch die UN-Konvention untersagt, welche 77 Staaten unterzeichnet haben.
Auch im zivilen Bereich können Interessenskonflikte über den Einsatz der Wolkenimpfung entstehen, etwa wenn die Automobilindustrie die Impfung zur Regenverhinderung einsetzt, gleichzeitig Landwirte in der betroffenen Region den Regen zur Bewässerung benötigt.

Warum ist Photosynthese wichtig? Bedeutung, Definition, Erklärung


Das Wort Photosynthese stammt aus der altgriechischen Begriffen φῶς (phōs), was “Licht”, und σύνθεσις (sýnthesis), was “Zusammensetzung” bedeutet.

Es ist ein Prozess, der (über-)lebenswichtig ist für sämtliche Organismen und Lebewesen auf der Welt, die nicht selbst in der Lage sind, Sauerstoff herzustellen, aber welchen zum Leben benötigen.

Bei der Photosynthese wird Lichtenergie mithilfe von beispielsweise Chlorophyll zu chemischer Energie umgewandelt. Dies wird von Pflanzen, Algen und auch von manchen Bakterien gemacht. Menschen und alle anderen Lebewesen sind dazu nicht in der Lage, benötigen jedoch Sauerstoff zum Atmen.

Wo findet Photosynthese statt und wie funktioniert sie?

In Kurzform beschrieben geschieht die Photosynthese in pflanzlichen Zellen. Wasser, welches beispielsweise über die Wurzeln aufgenommen wird, und Kohlenstoffdioxid aus der Luft, den die Pflanze über die Blätter aufnimmt, werden mithilfe des Chlorophylls, des grünen Farbstoffs, und unter Einwirkung von Lichtenergie bzw. Sonnenenergie in Glucose und Sauerstoff umgewandelt. Die Glucose bzw. die Kohlenhydrate verbleiben in der Pflanze, während der Sauerstoff wieder über die Blätter der Pflanze in die Umgebung abgegeben werden.

Glucose ist der Ausgangsstoff für viele weitere organische Bestandteile in den Pflanzen, wie zum Beispiel Cellulose, Fette, Eiweiße etc.

Die Energie, welche die Pflanze zur Photosynthese braucht, ist meist Sonnenenergie. Es ist bei vielen Zimmerpflanzen ein gut zu beobachtendes Phänomen, dass in den Wintermonaten, in denen die Tage kürzer sind und es somit weniger Sonnenstunden gibt, der Wachstum stagniert. Inzwischen gibt es auch Leuchtstofflampen, mithilfe derer das fehlende Sonnenlicht ergänzt werden kann.

Warum ist die Photosynthese so wichtig für das Leben auf Erde und Pflanzen? Erklärung

Wenn gesagt wird, dass ohne die Photosynthese keine anderen Lebewesen überleben könnten, klingt das dramatisch. Wenn jedoch bedacht wird, dass im Grunde der gesamte Sauerstoff auf der Erde nur durch Pflanzen hergestellt wird, ist die Aussage gar nicht mehr so abwegig.

Im Grunde ist es ein perfekter Kreislauf: die Pflanze, egal ob Baum, Strauch oder Blume, stellt durch Einwirkung von Sonnenlicht und unter der Voraussetzung, dass sie genug Wasser und ausreichend CO2 zur Verfügung hat, Sauerstoff her. Dieser wird von der Pflanze über die Blätter ausgeatmet, also abgegeben. Andere Lebewesen atmen wiederum diesen ein und nutzen ihn zur Aufrechterhaltung des Kreislaufes bzw. des Lebens, geben beim Ausatmen dann wieder den Ausgangsstoff für die Photosynthese, das CO2, ab.

Warum ist Photosynthese so wichtig für uns Menschen und Tiere?

Sauerstoff anders als durch Photosynthese herzustellen ist in den Mengen, die zur Erhaltung des Lebens auf unserem Planeten benötigt werden, nicht möglich. Es können vergleichsweise kleine Mengen Sauerstoff auf experimentelle Art und Weise im Labor hergestellt werden. Beispielsweise fällt eine geringe Menge Sauerstoff bei der Zersetzung von Wasserstoffperoxid (H2O2) an. Auch kann Sauerstoff aus anderen Gasen adsorbiert werden. Dafür sind jedoch aufwändige Verfahren nötig und es werden nur kleine Mengen Sauerstoff gewonnen.

Weitere Gründe, warum die Photosynthese so wichtig ist

Da bei der Photosynthese, also bei der Umwandlung von Wasser und CO2, nicht nur Sauerstoff anfällt, sondern auch Glucose, wird auch dies betrachtet.

Glucose ist ein äußerst energiereicher Stoff und Grundlage für eine Vielzahl weiterer Stoffe, die in der Pflanze gebildet werden. Durch biochemische Reaktionen in den Zellen der Pflanzen entstehen somit neben den bereits genannten auch Geschmacks- und Duftstoffe, Nektar, Vitamine, Harz, Farbstoffe, Lignin und Alkaloide.

Letztere sind in Form von Koffein aus den Bohnen des Kaffeestrauchs für manche Menschen ebenso lebensnotwendig wie der Sauerstoff zum Atmen.

Diese ganzen Stoffe, die auf der Umwandlung von Glucose basieren, werden nun in und von der Pflanze für verschiedene Dinge gebraucht. Wachstum, d. h. Bildung neuer Zellen und anderer Pflanzenbestandteile, die Bildung von Früchten und Samen (Vitamine, Fette), die Ausbildung von Wurzeln bzw. Wurzelknollen (Kohlenhydrate, Fette) und die Fortpflanzung (Duftstoffe, Nektar) sind nur einige davon.

Somit sorgt die Photosynthese nicht nur für Sauerstoff in der Luft, sondern in der Folge auch für alles, was der Mensch (und Tier) aus den Pflanzen herstellen und wozu er sie verwenden kann. Sämtliche Nahrungsmittel für Mensch und Tier sind also durch die Photosynthese direkt oder indirekt entstanden. Kartoffeln, Holz und Kleidung (aus Baumwolle) gäbe es nicht ohne die Photosynthese.

Äußere Einflüsse auf die Photosynthese

Erwähnenswert ist, dass die Photosynthese auf gewisse Weise beeinflussbar ist. Dies machen sich vor allem Gärtnereien oder andere bei der Pflanzenzucht zugute. Durch bewusste Erhöhung des CO2-Gehalts in der Luft, beispielsweise in Gewächshäusern, wird der Prozess der Photosynthese “angefeuert”. Auch wird mit intensiver, spezieller Beleuchtung eine Intensivierung der Photosynthese erzielt. Sind die Pflanzen kurz vor dem Austrocknen, hilft jedoch auch Beleuchten und CO2-Bedampfung nichts. Die Pflanze muss ausreichend Wasser zur Verfügung haben, damit die Öffnungen in den Blättern der Pflanze weit genug aufgehen, um CO2 aufnehmen zu können.

CO2, Licht und Wasser sind also Faktoren, die in bestimmten Maßen zur Förderung dieses äußerst wichtigen Prozesses eingesetzt werden können.

Global gesehen ist die Abholzung und Zerstörung großer Waldflächen für den Großanbau von Nutz- und Futterpflanzen im Hinblick auf die Photosynthese zum Nachteil der Sauerstoffproduktion zu betrachten. Ein etwa 100 Jahre alter Baum gibt nämlich pro Stunde etwa 12.000 Liter Sauerstoff an die Atmosphäre ab, andere, kleinere Grünpflanzen sehr viel weniger.

Was ist “Black Crush”? Bedeutung, Definition, Erklärung


Black Crush bezeichnet den Verlust an Detailtreue in einem dunklen Bildbereichen, wenn diese auf dem Display dargestellt werden. Der Begriff kann sowohl für die Darstellung von Fotos, als auch für Videos verwendet werden, wird aber meist zur Beschreibung des Verlusts von dunkleren Details in Filmen und Spielen verwendet.

Was ist “Black Crush”? Bedeutung, Definition, Erklärung

Möglicherweise fällt der Black Crush erst dann auf, wenn man das „richtige“ Bild daneben sieht (z. B. auf anderen Bildschirmen, die korrekt kalibriert wurden). Normalerweise führt das Problem nicht dazu, dass Inhalte überhaupt nicht mehr angesehen werden können, es verschlechtert jedoch die Qualität der Gesamtdarstellung. Bei Filmen kann es passieren, dass feine Details am Bildrand übersehen werden, bei Spielen (vor allem in hell erleuchteten Räumen) ist es oft schwierig, das Geschehen zu erkennen.

Es gibt verschiedene Gründe, warum es zu einem Black Crush kommen kann, und nicht immer liegt es am Display. Es kann auch vorkommen, dass die Schattendetails gar nicht erst richtig eingefangen wurden, weil die Kameraeinstellung nicht optimal waren. Auch dann erscheinen die Schwarztöne gedämpft. Manche Fotografen verwenden diese Technik auch absichtlich, um eine bestimmte Atmosphäre zu schaffen.

Hinweis: Mit “Crush” ist im Text nicht der Schwarm gemeint, sondern eine technische Eigenschaft.

Die Rolle des Displays für den Black-Crush-Effekt

Häufig ist das Display die Problemquelle. Es gibt viele Spiele, bei denen der Spieler beim ersten Start zunächst Gamma und Weißpunkt kalibrieren muss. Eine falsche Einstellung (oder ein Fehler im System) kann zu einem Verlust von Bilddetails führen. Manchmal setzen Spiele HDR schlecht um, was ebenfalls zu Black Crush führen kann.

Die meisten Smartphone-Displays werden bei Auslieferung nicht kalibriert. Ohne eine ordnungsgemäße Kalibrierung werden sie immer ein Bild erzeugen, das leicht vom Original abweicht. Deshalb wird Autoren und Fotografen dringend empfohlen, einen kalibrierten Bildschirm zu verwenden, wenn sie ihre Arbeit editieren.

Wie man das eigene Display auf Black Crush testet

Eine einfache Möglichkeit, ein Display auf Black Crush zu testen, ist ein Sternfeldtest. Auf einem Display, das Black Crush aufweist, sind viele Sterne nicht richtig sichtbar. Auf einem OLED-Display sollten die meisten Sterne zu sehen sein, da ein helles weißes Pixel neben einem rein schwarzen sitzen kann, ohne dass ein Abblendalgorithmus das Bild beeinträchtigt.

Black Crush auf dem Samsung Galaxy S9

In verschiedenen Online-Foren finden sich Berichte von Galaxy S9-Besitzern über Farbprobleme auf ihren neuen Smartphones bei dar Darstellung dunkler bzw. schwarzer Bilder. Dunkle Farbtöne können nicht korrekt dargestellt werden, was zu einem körnigen oder pixeligen Bild mit schwarzen Blöcken führt. Der Black-Crush-Effekt sollte beim Betrachten von dunklen Bildern oder Videos sichtbar sein, da Details verloren gehen, ähnlich wie bei einer stark komprimierten Datei.

Dieses Problem ist nicht wirklich neu, da sich viele Nutzer auch bei den Geräten der vorherigen Generation darüber beschwert haben. Entweder ist es also ein schwer zu lösendes Problem für Samsung oder das Problem ist auf einen kleinen Teil fehlerhafter Geräte beschränkt. Derzeit ist nicht klar, wie weit verbreitet dieses Problem ist. Samsung hat sich bisher noch nicht zu dem Problem geäußert.

Black Crush auf dem Gaming Phone ROG Phone 3 von Asus

Das ROG Phone 3 konzentriert sich, wie der Name schon sagt, in erster Linie auf Spiele. Aber es ist das Recht eines jeden Nutzers, auch außerhalb der Spiele-Apps eine anständige Leistung zu erwarten. Zum Beispiel hat Asus das ROG Phone 3 von einer Dual-Kamera auf eine Triple-Kamera aufgerüstet, da man weiß, dass neben dem Gaming auch die Fotografie ein großes Anliegen der Nutzer ist.

Auch beim Anschauen von Videos, beim Telefonieren usw. können die Nutzer ein großartiges Erlebnis erwarten, denn das ROG Phone 3 ist nicht nur ein Gaming-Gerät, sondern ein Premium-Smartphone, das ein Komplettpaket sein soll.

Auch die Nutzer des ROG Phone 3 haben jedoch mit dem Problem des Black Crush zu kämpfen. Sie sehen pixelige, körnige Bilder beim Betrachten von Videos oder anderen Streaming-Inhalten, vor allem wenn ein dunkler bzw. schwarzer Rahmen im Video erscheint. Im Falle des ROG Phone 3 haben Nutzer im offiziellen Forum berichtet, dass sie schon seit längerer Zeit Probleme mit Black Crush beim Streaming von Inhalten haben. Leider hat das letzte Update dieses Problem bislang nicht behoben.

Black Crush auf dem OnePlus 8 Pro

Das OnePlus 8 Pro hat das beste Display, das je in einem OnePlus-Telefon verbaut wurde. Das 6,78-Zoll-QHD+-Fluid-AMOLED-Display ist nicht nur eines der schärfsten Displays auf einem Android-Smartphone, sondern auch eines der farbtreuesten. OnePlus schöpft die Eigenschaften des Displays voll aus, damit es sich so hochwertig wie möglich anfühlt – man hat sogar einen speziellen Pixelworks Iris-Chip in das Telefon eingebaut, um die Leistung des Displays zu verbessern, und das Gesamtpaket bringt dem Telefon die höchste DisplayMate-Bewertung aller Zeiten ein.

In der Realität ist das Display des OnePlus 8 Pro jedoch Berichten zufolge mit Problemen konfrontiert. In den XDA-Foren, in der OnePlus-Community und auf Reddit häufen sich Berichte über die uneinheitliche Farbausgabe des OnePlus 8 Pro-Displays. Die Nutzer beschweren sich vor allem über zwei Probleme: Black Crush und Grünstich. Das Unternehmen will dies mit einem kommenden Update beheben.

Was ist Low Code? Bedeutung, Definition, Erklärung


Low Code ist die Softwareentwicklung mit visuellen Appdesign-Tools und weiteren grafischen Modellierungsverfahren. Es wird ein „niedriger Code“ verwendet, weil die Programmierer auf klassische textbasierte Programmiersprachen verzichten. Das verringert sehr deutlich die Entwicklungszeit für eine Software.

Vorteile von Low Code

Es ergibt sich durch den Zeitvorteil ein hoher Kostenvorteil. Die Softwarefirma spart Zeit bei der Projektplanung, beim Mitarbeitertraining und bei der eigentlichen Entwicklung. Das Programmieren wird durch Low Code einfacher, wenn der Entwickler die Tools kennt. Diese Entwicklung kam generisch, aber zwangsläufig. So schreibt heute (2021) schon längst kein Programmierer mehr HTML-Codes, hierfür genügt ein Klick auf ein kleines Icon im Editor. Solche Editoren beispielsweise für die Textverarbeitung (Schriftgrößen und -arten, Fettungen, Unterstreichungen, kursives Setzen oder Farben) gibt es in jedem Content-Management-System, wie wir alle wissen. Low Code erweitert nun diesen Komfort beträchtlich.

Wie ist Low Code entstanden?

Low Code wird über Plattformen angeboten. Es gilt als Nachfolger der 4th-Generation-Languages (4GL) und ebenso als Nachfolger der Rapid-Application-Development-Tools.

  • 4GL: Diese Programmiersprachen waren bzw. sind schon darauf ausgerichtet, mit wenigsten Codezeilen komplette Anwendungen oder Teilfunktionen schreiben zu können.
  • Rapid-Application-Development (RAD): Die sogenannte schnelle Anwendungsentwicklung entstand nach Vorarbeiten von Barry Boehm schon in den 1980er-Jahren. Boehm entwarf ein Entwicklungskonzept für Software, das auf ein prototypisches Vorgehensmodell setzte. Klassische Vorgehensmodelle funktionierten damals ausschließlich und funktionieren auch heute teilweise noch kaskadierend (sogenanntes „Wasserfallmodell“), was bedeutet, dass die Programmierer verschiedene Schritte ausprobieren, um wie ein Wasserfall der Ebene ihrer Plattform immer näher zu kommen. Das ist zwar sehr genau, aber auch sehr aufwendig. Vor allem ist es nicht sehr flexibel. Sowohl RAD als auch 4GL ermöglichen die schnellere Anpassung an sich verändernde Bedingungen. Low Code ist noch schneller und flexibler.

Plattformen für Low Code

  • APEX (Oracle Application Express)
  • OutSystems
  • Anakeen
  • Mendix
  • Intrexx
  • Simplifier
  • Scopeland
  • devolute.cloud
  • Open-Source-Plattform der Eclipse Foundation

Programmieren mit Low Code

Die Entwicklung mit Low Code erfolgt wie die klassische Programmierung manuell in der betreffenden integrierten Entwicklungsumgebung. Der Programmierer schreibt nur keine individuellen Codes, sondern nutzt vorgefertigte Standardsoftwaremodule. Diese verknüpft die Low-Code-Plattform über intelligente Metadaten so miteinander, dass ein gewünschtes Programmverhalten entsteht. Eine Low-Code-Programmierumgebung besteht aus verschiedenen Modulen. So speichert eine relationale Datenbank die Anwendungsdaten, externe Daten von Drittanbietern lassen sich unter anderem über REST-APIs importieren. Die Realisierung der Arbeitsabläufe übernimmt eine Anwendungslogik in der Applikation. Der Endnutzer verfügt über eine GUI (Benutzerschnittstelle) im Front End. Solche Oberflächen lassen sich plattformübergreifend und auch als Webanwendungen (iOS, Android, Windows) erstellen. Die Programmierung mit Low Code zeichnet sich durch vier entscheidende Merkmale aus:

  • #1 Modelle für die Entwicklung: Um intuitivere Möglichkeiten zu schaffen, kommen visuelle Modelle zum Einsatz. Sie definieren die Geschäftslogik, das Datenbankmodell, die Benutzeroberfläche und weitere Merkmale. Anwendungsentwickler und Power-User können damit komplexe Mobi- und Full-Stack-Web-Anwendungen visuell modellieren. Gegenüber der klassischen Programmierung kann die Produktivität um den Faktor 10 steigen.
  • #2 Wiederverwendbarkeit: Die Vorlagen für Low Codes (Komponenten, Widgets, Plug-ins) sind nicht nur sofort einsatzbereit, sondern auch wiederverwendbar. Das ermöglicht es unter anderem Unternehmen, einen eigenen App Store in die eigene Low-Code-Plattform zu integrieren. Damit können sie unternehmensspezifische Intellectual Property (eigene geistige Ressourcen)an ihre Entwicklungsteams verteilen.
  • #3 Support nach der reinen Entwicklungsphase: Die per Low Code programmierte Anwendung ist darauf ausgerichtet, den gesamten Lebenszyklus ihrer Anwendung zu unterstützen können. Daher erhält sie in aller Regel von ihren Entwicklern sogar einen Lifetime-Support. Sie wird so lange gewartet und unterstützt, bis sie sich überlebt hat.
  • #4 Bereitstellung über die Cloud: Moderne Plattformen für Low Code funktionieren grundsätzlich cloudbasiert.

Verschiedene Varianten der Programmierung mit Low Code

Low Code setzt sich zunehmend durch und begünstigt die Entwicklung neuer Software sowie die Anpassung vorhandener Software in KMU und Großunternehmen. Es gibt mehrere Varianten der Anwendung:

  • Automation mit Low Code
  • App-Programmierung mit Low Code
  • Prototyping mit Low Code
  • Web-Development mit Low Code

Bei der Automation wird bestehende SaaS mit APIs angebunden. Damit können die Nutzer auf vorhandene Systeme aufsetzen: Sie verbinden relativ einfach die App-Frontend-Anwendungen miteinander. Die Entwicklung hin zur Programmierung mit Low Code verläuft rasant. Experten schätzen, dass etwa ab 2025 frühere Programmiermodelle als obsolet gelten könnten. Dies ist aber eine optimistische Einschätzung, weil auch vorherige Vorgehensweisen wie das kaskadierende Modell, 4GL und RAD nach wie vor existieren. Dennoch zeichnet sich Low Code deutlich mehr als frühere Modelle durch die einfache Anwendung bei hoher Flexibilität aus. Vor allem richtet die Vorgehensweise den Fokus auf zweckmäßige Anwendungen, denen sich bei Bedarf ein benutzerdefinierter Code hinzufügen lässt. Auch die mobile und cloudbasierte Verfügbarkeit der existierenden Low-Code-Plattformen schätzen die Entwickler sehr. Hinzu kommt der Featurestandard von Low Codes, der es überflüssig macht, Software für verschiedene Geräte zu entwickeln. Nicht zuletzt werden die Programmierer davon entlastet, diverse Programmiersprachen beherrschen zu müssen, wie es bislang der Standard war. Daher dürfte Low Code eine Schlüsselrolle für die weitere Digitalisierung der meisten Geschäftsprozesse spielen.

Was ist eine Asimov Kaskade? Bedeutung, Definition, Erklärung


Die US-amerikanische Fernsehserie Rick and Morty verwendet in der Episode Es kann nur viele geben (im Original: Mortyplicity) den Begriff der Asimov Kaskade. Damit nimmt die populäre Animationsserie Bezug auf den Sci-Fi-Autoren Isaac Asimov der unter anderem mit seinen drei Gesetzen der Robotik auf sich aufmerksam machte. Doch was genau ist eine Asimov Kaskade?

Zusammenfassende Erklärung: Was ist eine Asimov Kaskade?

Die Asimov Kaskade wird in Rick and Morty Mortyplicity (Staffel 5, Episode 2) etabliert. Sie spielt mit den Regeln von Isaac Asimovs Robotik. Dabei beleuchtet die Episode auf humoristische Art und Weise die komplexen Fragestellungen, die mit Asimovs Theorie zusammenhängen. Darunter die Frage: Was, wenn Roboter gegen Roboter kämpfen, die sich je für echte Menschen halten – welche Gesetze gelten dann? Und wie kann ein solche entstandener Loop durchbrochen werden?

Rick and Morty – Ein Einblick in die Episode Mortyplicity

Seit 2013 läuft die US-amerikanische Zeichentrickserie Rick and Morty im internationalen TV. So sind zwischen 2013 und 2021 fünf Staffeln mit je etwa 10 Episoden à 22 Minuten erschienen. Die Schöpfung von Autor Dan Harmon (Community) sowie Synchronsprecher und Autor Justin Roiland parodierte ursprünglich den Kultfilm Zurück in die Zukunft. Aus dem so konzipierten Kurzfilm entstand schließlich eine eigene Serie – und ein ganzes Franchise mit Comics, Videospielen und facettenreichem Merchandise. Die Serie Rick and Morty ist für teils absurde Sci-Fi-Plots und abgedrehte komödiantische Elemente bekannt. Dabei scheut die Sendung allerdings auch nicht vor nachdenklichen oder gar philosophischen Fragen zurück, wie die Episode 2 der Staffel 5 beweist.

In Mortyplicity, der zweiten Episode der fünften Staffel, erschafft der verrückte Wissenschaftler Rick eine Familie von Robotern, die als Köder fungieren und so von der eigentlichen Familie ablenken sollen. Die auf diese Weise künstlich erstellte Köderfamilie erstellt selbst wieder robotische Köder ihrer selbst, was in Konsequenz zu einer Kaskade – einer komplexen Verkettung von Ereignissen – führt. Denn die so künstlich erstellten Familien halten sich selbst je für die echte Familie und gehen aus einem Selbsterhaltungstrieb aufeinander los. Die ausgelösten tödlichen Konfrontationen werden in der Episode Asimov Kaskade genannt.

Mortiplicity ist ein Beispiel für Rick and Mortys komplexen Humor, der zugleich anspruchsvolle Themen und Fragen zu reflektieren weiß. Das Talent für diese Art von Meta-Humor bewies Schöpfer Dan Harmon bereits in seiner Serie Community (2009-2015). Dabei vermengt er gerne teils provokativen Fäkalhumor sowie Popkultur mit ernsten und relevanten Thematiken, welche das Publikum zum nachdenken bringen. Mit Mortiplicity nimmt die Sendung explizit Bezug auf Isaac Asimovs Gesetze der Robotik, und benennt das zentrale Phänomen der Episode als Asimov Kaskade.

Isaac Asimov und seine drei Gesetze der Robotik

Die Welt der Science-Fiction wird traditionell in Hard Science-Fiction und Soft Science-Fiction aufgeteilt. Isaac Asimov gilt als einer der zentralen Vertreter der Hard-SF, einer Form der fiktiven Erzählung, die jedoch naturwissenschaftliche Fragen und Phänomene in ihren Plot mit hineinwebt. Und so baute Isaac Asimov in seine populären Erzählungen komplexe Betrachtungen der Roboterlogik ein. Asimovs so präsentiertes naturwissenschaftliches Interesse basierte auf seiner Tätigkeit als Biochemiker.

Zu seinen Lebzeiten (1920-1992) konnte der russisch-amerikanische Schriftsteller Asimov einige elementare Werke der Science-Fiction zur Weltliteratur beisteuern. Berühmt ist beispielsweise sein Foundation-Zyklus, in dessen Zentrum die Foundation-Trilogie steht: Foundation (1951), Foundation and Empire (1952) sowie Second Foundation (1953). In der deutschen Version erschienen die Romane unter den Titeln Terminus, der letzte Planet, Der Mutant sowie Alle Wege führen nach Trantor. Zeitlebens konnte Asimov sein Standing als Sci-Fi-Autor so ausbauen, dass er mit Arthur C. Clarke und Robert A. Heinlein als Big Three der englischsprachigen Science-Fiction galt.

Die Fragen der Robotik zogen sich durch sein Werk, auch durch seinen Foundation-Zyklus. Als Frühwerk mit Bezug zur Robotik gilt seine Kurzgeschichte Robbie (1940). Darin emanzipierte er sich von den klassischen Frankenstein-Erzählungen, die von Schöpfungen erzählten, die sich gegen ihre Erschaffer wendeten. Vielmehr definierte er in seiner Erzählung Runaround (1942) Grundlagen einer gänzlich anderen Robotik, die sich gegen dieses Konzept der Zerstörung wendet. Die drei Gesetze der Robotik lassen sich grob zusammenfassen:

1. Ein Roboter darf sich nicht gegen Menschen wenden
2. Er soll den Menschen gehorchen, solange diese das erste Gesetz achten
3 Er soll seine eigene Existenz schützen, sofern dies nicht mit Gesetz 1 oder 2 in Konflikt gerät

Die Asimov Kaskade angewandt: Erklärung

Die absurde Situation in der Rick and Morty-Episode Mortyplicity knüpft auf abgedrehte Weise an Asimovs Gesetze der Robotik an. Asimov etablierte diese Gesetze, um den Schutz des Schöpfers vor seiner robotischen Kreation und den Schutz der robotischen Kreation selbst zu gewährleisten. Doch in Fall von Rick and Mortys extremer “Asimov Cascade Failure” geraten diese Gesetze in einen scheinbaren Konflikt.

Die durch Rick erschaffenen künstlichen Familien halten sich selbst je für die echte menschliche Familie. Und aus ihrer Logik ergibt sich, dass die anderen Familien nicht echt sein können. Und so greift im Kontext des sich ausbreitenden Konfliktes das dritte Gesetz: das Schützen der eigenen Existenz. Also: Das Gegenüber muss vernichtet werden. Die Ironie der ganzen Geschichte? Während die fiktiven Rick und Mortys selbst nicht die echte Familie darstellen, könnte es ihr Gegenüber sehr wohl sein, weshalb eigentlich Gesetz 1 und Gesetz 2 greifen müssten – der Schutz der Menschen und der Gehorsam gegenüber dem eventuell menschlichen Gegenüber. Eine paradoxe Situation. So entsteht in der Episode ein absurder Loop, der zugleich Asimovs Gesetze der Robotik auf humoristische und hintersinnige Weise beleuchtet.

Was ist “Slowed + reverb”? Bedeutung, Definition, Erklärung


Die Bezeichnung „slowed and reverb“ kommt ursprünglich aus der Soundtechnik. Wir alle kennen die Sounds und Lieder bekannter Interpreten, die in ihrer Geschwindigkeit reduziert werden, um letztere mit einer besonderen Deutungen zu versehen und für die eigenen Zwecke zu nutzen. Besonders auf den Streaming- und Audioplattformen versuchen sich die Künstler an immer neuen Variationen bekannter Songs.

Die Reduzierung der Geschwindigkeit geht in den meisten Varianten mit einer technisch induzierten verringerten Frequenz einher, sodass die verlangsamten Songs oder Sounds in ihrer Akustik in der Regel einen – salopp gesprochen – tieferen Eindruck machen.

Unterschiedliche technische Möglichkeiten offerieren allerdings individuelle Lösungen. So kann beispielsweise die Tonspur von der Gesangsspur getrennt werden, um beide Tonspuren separat zu bearbeiten und zu einem neuen Werk zu komponieren. Viele Werke und Titel werden auf diese Weise neu interpretiert oder sogar als Remake oder Cover veröffentlicht.

Was ist “Slowed + reverb”? Bedeutung, Definition, Erklärung

Songs und Sounds, die in ihrer Geschwindigkeit herunterreguliert werden, erlauben dem Interpreten und Soundtechniker eine völlig neue Interpretation des originalen Soundtracks. Besonders schnellere Songs lassen sich durch eine Reduzierung der BTM-Rate (Beats per Minute-Rate) völlig neuen Stimmungsfeldern zuordnen. Stimmungsgeladene Melodien werden zu sanften Kadenzen, Songs mit einer bereits geringen BTM-Rate werden durch ein erneutes Slowing-Down zu hintergrundfüllenden harmonischen Background-Sounds.

Gesangsspur wird beim „Slowed and reverb“ oft neu hinterlegt oder aufgenommen

Ist der eigentliche Song durch ein „Slowing-Down“ verändert worden, bietet es sich oft an, die Gesangsspuren der Songs separat zu bearbeiten. Dabei steht bei vielen Interpreten und Soundtechnikern eine möglichst originalgetreue Implementation der Stimmen im Vordergrund der Intention.

Andere Ansätze hingegen verbinden das Reverbing mit der Integration einer Fremdstimme. Dabei muss die Stimme künstlich neu frequentiert oder gänzlich neu aufgenommen werden, damit sie der neu bearbeiteten Tonspur angepasst werden kann.

Warum ist das Slowed and Reverb Konzept so beliebt?

Cover bekannter Songs gehören heute zum Alltag. Oft sollen die entsprechenden Soundtracks und Titel aber nicht von Grund auf verändert, sondern lediglich erkennbar weiterentwickelt, verändert oder für einen bestimmten Zweck neu interpretiert werden. Das Slowing-Down ermöglicht eine neue Interpretation, ohne dass dabei die Gefahr besteht, dass eine bekannte Tonabfolge, die den Originalsound auszeichnet und einzigartig macht, nicht wiedererkannt werden könnte.

Das Slowed und Reverb ist auch für das Tanzen eine gern genutzte Methode, da derartig veränderte oder weiterentwickelte Songs beispielweise viel einfacher zum Einüben bestimmter tänzerischer Bewegungsabfolgen genutzt werden können, wenn die BPM zuvor erkennbar reduziert werden.

Vergleichbar sind die herunterregulierten Songs – visualisiert gesprochen – mit einer Art akustischen Zeitlupe, die eine genaue Auseinandersetzung mit individuellen Sequenzen der Musik oder des Sounds ermöglicht.

Slowed and Reverb in der Musiktheorie

Musiktheoretisch betrachtet ist Slowed and Reverb ein einfaches Verfahren der akustischen Veränderung einer bestimmten Tonabfolge oder eines gesamten Songs. Dabei ist das Verfahren dadurch gekennzeichnet, dass die Intervalle in den Tonabfolgen nicht verändert werden.

Melodie und die Abstände der Töne innerhalb der Melodieabfolgen werden nicht verändert, was dazu führt, dass selbst ein losgelöster “Songschnipsel” zweifelsfrei seinen Wiedererkennungswert behält. Die wahrgenommene Stimmung und Atmosphäre der Töne kann allerdings beeinflusst und auf den individuellen Verwendungszweck angepasst werden.

Copyright bleibt zunächst unberührt

Die urheberrechtliche, gesetzliche Lage beim Slowed and Reverb ist bisweilen klar und eindeutig: Auch wenn Songs durch eine Änderung der Frequenz oder durch die Änderung anderer Parameter individualisiert werden, unterliegen sie im Regelfall noch immer den urheberrechtlichen Bestimmungen und Rechten gegenüber dem Interpreten, der eine Veränderung des eigenen Materials zumeist nicht gestattet bzw. ausschließt.

Was ist Oobleck? Bedeutung, Definition, Erklärung


Oobleck ist eine ungiftige nicht-newtonsche Flüssigkeit aus Stärke und Wasser, die eine veränderbare Viskosität aufweist.

Was ist Oobleck? Bedeutung, Definition, Erklärung

Die Viskosität beschreibt, wie zäh eine Flüssigkeit ist, und fällt in den Bereich der Rheologie, die sich mit dem Form- und Fließverhalten von Materie befasst. Seit Sir Isaac Newton (1642 – 1727) das Gesetz der Viskosität erstmals mathematisch beschrieben hat, werden Flüssigkeiten nach ihrem Viskositätsverhalten in newtonsche und nicht-newtonsche Flüssigkeiten unterteilt.

Bei newtonschen Flüssigkeiten ist die Viskosität unabhängig vom ausgeübten Druck und verhält sich linear. Typische Beispiele sind Wasser, verschiedene Öle und Luft. Im Gegensatz dazu weisen nicht-newtonsche Flüssigkeiten ein nicht-lineares Viskositätsverhalten auf. Beispiele für nicht-newtonsche Flüssigkeiten sind Blut, Ketchup und Oobleck.

Woher stammt die Bezeichnung Oobleck? Ursprung, Herkunft

Die Bezeichnung Oobleck stammt aus dem 1949 erschienenen Kinderbuch „Bartholomew and the Oobleck“ des Autors Dr. Seuss (Theodor Geisel). Die Geschichte handelt von dem Jungen Bartholomew, der das Königreich von einer grünen, klebrigen Substanz namens Oobleck befreit.

Wie verhält sich Oobleck?

Oobleck zeigt ein interessantes Verhalten für eine Flüssigkeit, wenn Druck auf die Oberfläche ausgeübt wird. Lässt man zum Beispiel einen Finger langsam in die Flüssigkeit gleiten, taucht er erwartungsgemäß ein. Übt man jedoch einen ausreichenden und lokalen Druck auf Oobleck aus, indem man zum Beispiel auf die Oberfläche schlägt, verhält sich die Flüssigkeit wie ein Festkörper. Das Verhalten von Oobleck ist also nicht ideal-viskos.

Vereinfacht ausgedrückt liegt der Grund für dieses Phänomen darin, dass das Wasser durch den Druck zwischen den Stärketeilchen verdrängt wird und sich diese ineinander verhaken. Infolgedessen ist es sogar möglich, auf dieser Flüssigkeit zu laufen. Bleibt man hingegen stehen, wirkt das Wasser wie ein Schmiermittel und man versinkt im Oobleck. Darüber hinaus werden nicht-newtonsche Flüssigkeiten genauer kategorisiert, je nachdem, ob die Viskosität durch die Schergeschwindigkeit oder die zeitliche Beanspruchung beeinflusst wird. Grundsätzlich unterscheidet man zwischen strukturell viskosen, dilatanten, thixotropen und rheotropen Fluiden.

Zu welcher Kategorie nicht-newtonscher Flüssigkeiten gehört Oobleck?

Je nach dem Verhalten der Viskosität unter dem Einfluss von Scherkräften auf ein Fluid unterscheidet man zwischen strukturviskosen und dilatanten Fluiden. Ein Fluid wird als strukturviskos oder scherverdünnend bezeichnet, wenn seine Viskosität mit zunehmender Schereinwirkung abnimmt. Je größer die Scherkraft auf die Flüssigkeit ist, desto weniger viskos ist sie und die Viskosität nimmt ab. Blut zum Beispiel gehört zu dieser Kategorie; es ist bei geringen Scherkräften zähflüssiger und wird mit zunehmender Scherkraft dünnflüssiger. Hohe Scherkräfte bewirken, dass die roten Blutkörperchen eine leicht längliche Form annehmen, wodurch das Blut leichter durch kleine Venen, die Kapillaren, fließen kann. Andererseits werden Flüssigkeiten als dilatant oder scherverdickend bezeichnet, wenn die Viskosität bei einer hohen Schereinwirkung steigt.

Oobleck gehört zu dieser Kategorie nicht-newtonscher Flüssigkeiten. Hängt die Viskosität von der zeitlichen Belastung ab, spricht man entweder von Thixotropie oder Rheopexie. Bei der Thixotropie nimmt die Viskosität bei konstanter Scherbeanspruchung im Laufe der Zeit ab, während bei der Rheopexie das Gegenteil der Fall ist. Ketchup zum Beispiel verhält sich thixotrop und muss normalerweise geschüttelt werden, bevor er aus der Flasche läuft. Nach kurzer Zeit verfestigt sich der Zustand wieder. Rheopex hingegen verhält sich eine Gips-Wasser-Suspension mit einem Gipsgehalt von 40 Prozent. Thixotropie und Rheopexie sind nicht zu verwechseln mit strukturviskosen und dilatanten Flüssigkeiten; der Unterschied liegt in der Konstanz der Scherwirkung. Würde eine konstante Scherkraft über einen längeren Zeitraum auf Oobleck einwirken, würde sich das Viskositätsverhalten nicht ändern. Oobleck ist also eine dilatante, aber keine thixotrope Flüssigkeit.

Wie kann man Oobleck selber herstellen? Rezept, Anleitung

Oobleck kann man ganz einfach selbst herstellen, man braucht nur Wasser, eine Schüssel, einen Becher oder Messbecher, ein Rührgerät (z. B. einen Löffel) und Speisestärke (z. B. Maisstärke oder Kartoffelstärke). Die Stärke wird mit Wasser im Verhältnis 2:1 gemischt, es werden also zwei Teile Stärke in einen Teil Wasser eingerührt. Schon beim verrühren merkt man, wie sich Oobleck dem Druck wiedersetzt. Wenn das Oobleck hergestellt ist, kann man davon etwas in die Hand nehmen und es fest zusammendrücken, was passiert wohl? Öffnet man die Hand wieder, wie verhält sich Oobleck dann? Man kann ebenfalls versuchen auf Oobleck zu laufen, dazu benötigt man nur eine größere Schüssel, in die man einige Zentimeter hoch das Stärke-Wasser-Gemisch gibt. Anschließend kann man in der Schüssel auf der Stelle treten und sehen was passiert. Auch durch Vibration hat man die Möglichkeit, interessante Beobachtungen mit Oobleck zu machen. Optional kann Oobleck mit Lebensmittelfarbe eingefärbt werden. Es ist jedoch zu bedenken, dass Lebensmittelfarben auch auf Hände und andere Materialien abfärben können.

Fazit: Oobleck

Oobleck ist eine ungiftige nicht-newtonsche Flüssigkeit aus Stärke und Wasser und gehört zu den dilatanten Fluiden. Wenn eine hohe Scherwirkung auf die Oberfläche ausgeübt wird, verhält sich die Flüssigkeit wie ein Feststoff. Daher ist es möglich, über die Flüssigkeit zu laufen.

Was bedeutet Metaversum? Was ist das? Bedeutung, Definition, Erklärung


Das Metaversum ist das Universum unserer virtuellen Welten, die zusätzlich mit der realen Welt verknüpft sind. Zwar wird der Begriff noch nicht lange verwendet, doch in Online-Games gibt es das Metaversum schon länger: Dort treffen sich Spieler in einem virtuellen Raum und interagieren miteinander. Dabei erweitern sie ihre reale physische Welt: Sie können beispielsweise durch Gesten und auch stärkere Körperbewegungen ihre Figuren steuern, also physisch in die virtuelle Welt eintauchen.

Was bedeutet Metaversum? Was ist das? Bedeutung, Definition, Erklärung

Die Idee des Metaversums in Kürze: Das Internet ist in Services geteilt. Wer bei Google Mail ist, kann nicht Twitter aus Google heraus benutzen. Wer bei Facebook ist, kann nicht seine Spiele auf Steam öffnen. Wer auf TikTok ist, kann nicht bei Rewe einkaufen. Ein Metaversum versucht diese getrennten Services miteinander zu verbinden in dem es eine übergeordnete Welt schafft, in der alles miteinander verknüft wird. Dazu soll die reale Welt miteingebunden werden.

Das Metaversum ist eine digitale 3D-Welt in der man sich per Avatar bewegt. In dieser Welt sollen oder können alle Services stattfinden, die man gewöhnt ist und nutzt. Hier können Filme geschaut und Spiele gespielt werden. Hier können Freunde getroffen und es kann gearbeitet werden. Man kann sich hier weiterbilden, soziale Verantwortung übernehmen oder ein Geschäft eröffnen.

Beispiele: Im Metaverse kann man seinen Freunden sein neues Steam-Achievement zeigen. Im Metaverse kann man den einen Netflix-Film besprechen und Notizen per Google Docs teilen. Wer kein Google Docs hat, greift per Microsoft Word zu.

Meta: Facebook

Am 28. Oktober 2021 gab Mark Zuckerberg bekannt, dass seine Firma an einem “Metaverse” arbeitet.

Kommentar der Redaktion: Die Vorstellung des Mark Zuckerberg erinnert doch stark an “Second Life”. Per Avatar bewegt man sich in einer digitalen 3D-Welt. Hier kann man Freunde treffen, einkaufen, zur Bank gehen, Medien konsumieren und viele andere Dinge.

Entwicklung des Metaverse

Das Metaversum ist seit Jahren, wenn nicht seit Jahrzehnten (seit den 1980er-Jahren) im Entstehen begriffen. Der Vorreiter ist die Spieleindustrie: In Online-Games werden kollektive virtuelle Räume geschaffen, die dauerhaft bestehen bleiben, womit der Spieler immer wieder in sie eintauchen kann. Wenn er das macht, kann er beispielsweise mit einer speziellen AR-Brille (Augmented Reality, erweiterte Realität) seine Körperbewegungen in den virtuellen Raum übertragen. Dreht er den Kopf nach rechts, um sich umzuschauen, passiert genau das mit der Figur, die er gerade in der virtuellen Realität verkörpert. Er schaut sich also im Online-Game um. Damit entsteht eine Konvergenz zwischen physischer und virtueller Realität: Die beiden Welten nähern sich aneinander an. Das genügt aber noch nicht, um das Metaversum zu schaffen. Dieses entsteht dadurch, dass alle virtuellen Welten inklusive mehrerer Online-Games, die erweiterte Realität und das Internet miteinander verschmelzen.

Die Akteure können zwischen ihrer realen und mehreren virtuellen Welten hin- und herwandern. Das Internet ist ein selbstverständlicher Bestandteil des Metaversums, das darauf aufsetzt. Weitere, aber nicht unbedingt zwingende Bestandteile sind VR und AR, also Virtual Reality und Augmented Reality. Das Metaversum funktioniert auch ohne sie, doch mit ihnen macht es deutlich mehr Spaß. Die VR lässt uns vollkommen in virtuelle Welten eintauchen, die AR erweitert wie beschrieben unsere physische Welt um virtuelle Elemente bzw. stellt eine Verknüpfung zwischen beiden Welten dar. Die hierfür erforderlichen Technologien gibt es seit Jahrzehnten, sie entwickeln sich ständig. Daher ist auch das Metaversum im Werden: Es ist kein fertiger Zustand, sondern es entwickelt sich ständig weiter und dürfte dabei auch gelegentliche Disruptionen erzeugen, also echte Brüche mit allem, was wir bisher kannten.

Denkbar wäre beispielsweise, dass sich ein schwer gehandicapter Mensch, der sich in der physischen Welt aufgrund stärkster körperlicher Einschränkungen kaum noch bewegen kann, überwiegend im Metaversum aufhält und seine dortigen flinken Bewegungen körperlich deutlich spürt. Hierfür müsste die Augmented Reality den umgekehrten Weg gehen: Sie müsste virtuelle Einflüsse auf die physische Welt übertragen. So könnte die Person in der virtuellen Welt mit Hitze, Kälte, einem Luftzug, dem Handschlag eines Mitspielers und weiteren Einflüssen konfrontiert werden, die sie dann ganz real physisch spürt. Sie spürt auch die Bewegungen ihrer Arme und Beine (obgleich vielleicht real gelähmt) und hat nach einem anstrengenden Tag in der virtuellen Welt Muskelkater.

Woher kommt der Begriff „Metaversum“?

Er ist ein Kofferwort, das sich aus meta‑ („jenseits“) + Universum zusammensetzt. Auch dieser Begriff verweist auf das Werden des Metaversums, weil er speziell verwendet wird, um die Iteration des Internets zu gemeinsam genutzten 3D-Räumen zu beschreiben. Iteration bedeutet, dass es immer wieder neue, ähnliche oder leicht verschiedene Versuche gibt, die vielen Welten des Internets miteinander zu verbinden.

Dabei handelt es sich nicht nur um Spielewelten, sondern beispielsweise auch aus der Ferne durchgeführte medizinische Operationen oder die Arbeit von Mechanikern in technischen Anlagen mit AR-Brille (die ihnen exakt die Entfernung zum nächsten Bauteil anzeigt und den passenden Schraubenschlüssel vorschlägt).

Diese vielen Welten entwickeln sich ständig und nähern sich aneinander an. Denkbar ist beispielsweise, dass ein Chirurg, der mit einer AR-Brille operiert und plötzlich auf ein unbekanntes Problem stößt, mal eben fix virtuell in den OP eines Kollegen wandert, der vor einiger Zeit bei einer vergleichbaren OP dieses Problem gelöst hat. Die Daten liegen vor und werden nun eingespielt, der Chirurg kann für einen Moment seinem Kollegen über die Schulter schauen. Der Mechaniker in der Anlage könnte dasselbe tun. Das ist die eigentliche Idee des Metaversums: Die virtuellen Welten und die reale Welt verschmelzen miteinander.

Wir schaffen uns ein virtuelles Universum. Das ist schon ein Unterschied zum Bewegen in einer einzigen virtuellen oder per AR erweiterten Welt. Auch beim Gaming zeigt sich das: In den gängigen MMOGs (Massively Multiplayer Online Games) kann sich der Spieler nur in einer einzigen Welt bewegen. Doch wie erwähnt gibt es schon länger Online-Games, die sich miteinander verknüpfen und damit ein Metaversum entstehen lassen. Die User können diese Welten gestalten und regelrecht in ihnen leben. Begrifflich verwendet wurde Metaversum übrigens erstmals 1992 durch den Science-Fiction-Autor Neal Stephenson.

Wann könnte das Metaversum gestartet sein?

Nachdem sich der Begriff in den letzten 20 Jahren allmählich etabliert hatte und man begann, zu diesem Phänomen zu forschen, identifizierten Experten als erstes Metaversum das 1985 aufgelegte Spiel Habitat. Den Begriff gab es damals noch nicht, jedoch hatte Habitat schon viele Elemente eines Metaversums, obgleich es noch online nur schwach vernetzt war. Im Jahr 2003 folgte Second Life, ab 2004 gab es ein Open Source Metaverse Project.

Fiktiv thematisierte das Buch Ready Player One (2011) das Metaversum, es wurde 2018 von Stephen Spielberg verfilmt. Auch die Matrix-Filme spielen im Grunde in einem Metaversum, auch wenn es nicht so genannt wird. Ein regelrechter Hype um das Metaversum, das zuvor in der Öffentlichkeit als Begriff nur wenig beachtet worden war, entstand ab den 2020er-Jahren, nachdem sich Spieler in Online-Games virtuelles Land kauften und damit den Grundbesitz auf die virtuelle Welt übertrugen. Grundbesitz ist etwas sehr Nachhaltiges, man möchte ihn dauerhaft behalten oder auch damit spekulieren. Es bestehen daran sehr reale Eigentumsrechte. Dies macht die virtuelle Welt der physischen nahezu ebenbürtig.

In Projekten wie Dual Universe oder NEOS VR lassen sich inzwischen riesige Welten erschaffen, die zu einem sehr realen Metaversum heranwachsen werden. Wiederum ist die Spieleindustrie der Vorreiter. Epic-Games-Gründer Tim Sweeny „Fortnite“ hat inzwischen mehrfach erklärt, dass er an einem Metaversum arbeitet. Diese Pläne wurden zuletzt im April 2021 offiziell bestätigt. Im Juli 2021 folgte Facebook: Mark Zuckerberg kündigte an, dass aus Facebook ein Metaversum werden solle. Er verordnete seinen Mitarbeitern als Pflichtlektüre das Essay „The Metaverse“ von Matthew Ball, welches das Phänomen sehr umfassend beschreibt.

Wie versteht die Tech-Industrie heute das Metaversum?

Im Jahr 2021 fasst die Tech-Industrie das Metaversum als Nachfolger der jüngsten Innovation namens mobiles Internet auf. Das widerspricht ein wenig der vorherigen These, dass es das Metaversum im Grunde seit den 1980er-Jahren gibt, doch die Tech-Industrie tickt anders: Ihr geht es darum, wann bestimmte Entwicklungen zu Anwendungen für den Massenmarkt führen.

Die Online-Games spielen zwar mehrere Hundert Millionen Menschen auf der Welt, doch das ist immer noch kein Markt, der mit dem für Smartphones, PCs, Laptops oder internetfähigen Fernsehern zu vergleichen ist: Diese Geräte nutzen wir alle. Online-Gamer sind eine Minderheit im einstelligen Prozentbereich der Bevölkerung. Inzwischen gehen aber Tech-Experten davon aus, dass aus dem Metaversum Anwendungen für uns alle kommen werden. Dazu trägt seine Philosophie bei, die virtuellen Welten miteinander zu verknüpfen. Das dürfte dazu führen, so die Experten, dass die bisher voneinander abgeschotteten Technologie-Silos und Dienste miteinander verknüpft werden bzw. neue Dienste alles und jeden miteinander verbinden und uns gleichzeitig in VR- und AR-Welten hineinführen.

Die heutigen Dienste wie WhatsApp, Signal, iMessage, Telegram, Twitter, Facebook oder Instagram sind fast oder komplett voneinander getrennt. Diese Trennung soll das Metaversum überwinden. Wenn das geschieht, wäre dies in der Tat eine Disruption, denn in Wahrheit ist es mühselig, in verschiedenen Messengern zu hantieren und auf verschiedenen Social Networks unterwegs zu sein.

Das Metaversum soll hingegen zur Interoperabilität führen, uns das stetige Einloggen in verschiedene Accounts ersparen, eine globale Wirtschaftszone werden und sogar eine eigene Währung erhalten (vermutlich eine Kryptowährung). Ob sich das mit dem Datenschutz und der von Staaten und Zentralbanken gesteuerten Finanzpolitik vereinbaren lässt, bleibt dahingestellt, doch das Internet ist ja schließlich auch einheitlich zugänglich.

Wenn sich das Metaversum auf die beschriebene Weise entwickeln sollte, würden die Online- und Offline-Welt nochmals näher zusammenrücken. Für diesen Prozess veranschlagen die Tech-Konzerne allerdings einige Jahrzehnte. Vorläufer sind inzwischen nicht nur die beschriebenen technischen und medizinischen Anwendungen und die Online-Games, sondern auch die Kryptowährungen. Dass die Entwicklung wirklich hin zu einer virtuellen Parallelwelt mit eigener Wirtschaft verläuft, lässt sich an den schieren Umsätzen im virtuellen Raum ablesen: Im Jahr 2015 gaben die Menschen weltweit für virtuelle Güter nur knapp fünf Milliarden Dollar aus. Im Jahr 2020 waren es schon 55 Milliarden Dollar.

Die Gaming-Branche jubelt, denn inzwischen sind täglich über 350 Millionen Gamer in Spielen wie Fortnite unterwegs. Die Coronapandemie hat den Schritt in die virtuelle Welt nochmals befördert, in der inzwischen sogar Konzerte stattfinden. Auf der Onlinespieleplattform Roblox für Kinder und Teenager spielen täglich 40 Millionen Nutzer. Sie haben dort auf allen Ebenen eine einzige Identität und ein stabiles Netzwerk an Freunden, eine gemeinsame Währung und den immer gleichen Zugang. So soll das Metaversum aussehen.

Die jüngsten User lernen es auf diese Weise schon kennen. Vielleicht dauert es auch keine Jahrzehnte mehr, bis wir unsere Welten verknüpft und vereinheitlicht haben. Der CEO von Microsoft Satya Nadella machte im Sommer 2021 bereits metaverse Geschäftsmodelle aus. Für uns alle könnte das virtuelle Leben um einiges einfacher werden: Ein in sich stimmiges Metaversum wäre ein revolutionärer Schritt wie der hin zum Internet für alle.

Was bedeutet Impfdurchbruch? Was ist ein Impfdurchbruch? Bedeutung, Definition, Erklärung


Ein Impfdurchbruch (andere Begriffe: Impfversagen oder Durchbruchsinfektion) ist a) die Ansteckung mit demjenigen Erreger, gegen den geimpft wurde, und b) die symptomatische Infektion darauf. Die Ansteckung lässt sich durch die Erregerisolierung oder einen RT-PCR-Test diagnostizieren.

Warum kommt es zu Impfdurchbrüchen? Bedeutung, Definition, Erklärung

Es gibt hierfür zwei Hauptursachen:

  • #1 Das Immunsystem der geimpften Person hat wegen eigener Schwächung nicht die passende bzw. ausreichende Immunantwort gegen den Erreger entwickelt.
  • #2 Der Erreger ist mutiert. Das Immunsystem erkennt ihn nicht mehr.

Beispiele für #2 sind Mutationen des Hepatitis-B-Virus im HBsAg, die Impfdurchbrüche verursachen, die häufigen Mutationen des HIV-Virus und die im Jahrestakt (oder häufiger) zu beobachtenden Mutationen des Influenzavirus A. Hiergegen werden jährlich neue Impfstoffe entwickelt. Die neutralisierenden Antikörper einer Impfung wirken fast immer nur gegen den aktuellen Virenstamm der Saison. Auch nach Covid-19-Impfungen gibt es Impfdurchbrüche. Bis Ende April 2021 zählte man in den USA rund 6.000 Impfdurchbrüche bei 84 Millionen Personen nach vollständiger Impfung (0,00714 %). Impfdurchbrüche nach einer Influenza-Impfung sind deutlich häufiger, sie liegen im niedrigen zweistelligen Prozentbereich. Trotz der ermutigenden Zahlen aus den USA bewertet das deutsche RKI die Effizienz der bisher durchgeführten Corona-Impfungen vorsichtiger mit ~88 %.

Wie ist der Impfdurchbruch nach der Covid-19-Impfung definiert?

Das RKI bezeichnet erst eine Covid-19-Erkrankung mit klinischer Symptomatik als Impfdurchbruch. Daher ist dieser strikt von der Möglichkeit abzugrenzen, dass sich geimpfte Personen infizieren und dann das Virus weitergeben, von dem sie ohne Test nichts oder fast nichts bemerken. Als zweites Kriterium nennt das RKI ein positives Testergebnis bzw. die Erregerisolierung. Es gibt im Fall von Covid-19 (und natürlich auch bei anderen Impfstoffen) noch ein drittes Kriterium: Nach der Impfung muss zunächst genügend Zeit für den möglichen Schutz durch das Immunsystem vergangen sein. Bei Impfungen gegen Covid-19 wird hierfür eine Zeitspanne von 14 Tagen nach der abgeschlossenen Impfserie mit diesen Vakzinen angenommen:

  • Moderna (zwei Impfstoffdosen)
  • BioNTech (zwei Impfstoffdosen)
  • AstraZeneca (zwei Impfstoffdosen)
  • Johnson & Johnsen (eine Impfstoffdosis)

Sollte sich also eine Person vor Ablauf dieser 14 Tage infizieren und erkranken, gilt dies nicht als Impfdurchbruch.

Vorläufige Erkenntnisse zum Impfdurchbruch bei Covid-19

Die Erkenntnisse zum Impfdurchbruch nach der Covid-19-Impfung sind vorläufig (Stand: September 2021). Es ist davon auszugehen, dass nach einiger Zeit die Impfwirkung nachlässt. Wie lange das dauert, ist nicht seriös einzuschätzen, weil es sich um ein neues Virus handelt. Die nachlassende Impfwirkung bei Influenza-Impfungen kann damit nicht verglichen werden: Diese basiert auf den inzwischen bekannten Mutationen des Virus. Ähnliches nimmt man auch bei Covid-19 an, jedoch ist nicht bekannt, welche Mutationen wie stark die Impfwirkung reduzieren. Welche Mutationen künftig noch auftauchen könnten, kann ohnehin nur Gegenstand von Spekulationen sein. Mit Stand September 2021 werden dritte sogenannten Booster-Impfungen für Auffrischungen nach rund einem halben Jahr zumindest Risikopersonen (ältere Menschen, Personen mit Vorerkrankungen) empfohlen. Möglicherweise werden aber Folgeimpfungen gegen Corona der Standard der kommenden Jahrzehnte, um Impfdurchbrüche zu unterbinden. Aus Israel, das relativ zeitig mit dem Impfen begann, lagen im Juli 2021 Daten vor, die eine nachlassende Impfwirkung von BionTech etwa ab dem sechsten Monat nach vollständiger Impfung vermuten lassen.

Was ist der Male Gaze? Was ist der Female Gaze? Bedeutung, Definition, Erklärung


Male Gaze ist ein Begriff aus dem Englischen, der übersetzt „männlicher Blick“ bedeutet. Es bedeutet aus feministischer Perspektive, dass die Welt und auch die Frauen selbst, meist aus dem Blick eines weißen, hetero Mannes (Cis-Mann) gezeigt werden.

Was ist der Male Gaze? Bedeutung, Definition, Erklärung

Der Male Gaze ist besonders in Kunst und Literatur sichtbar, wo die Frau das Objekt der Begierde sein soll, das dem männlichen Pendant gefallen soll. Auf der Leinwand findet man drei Perspektiven des Male Gaze: die des Mannes hinter der Kamera, die der männlichen Darsteller im Film und die des männlichen Zuschauers im Publikum. Der Male Gaze zieht sich also durch die gesamte Erzählung und stellt die Frau als dem Mann nicht ebenbürtig dar. Sie wird als unterstützendes oder erotisches Objekt gezeigt, deren Wert vom männlichen Betrachter festgelegt wird.

Hintergrund und Geschichte des Male Gaze

Das Konzept des Blickes (engl. the gaze) geht auf Jean-Paul Sartre zurück, der 1943 in „Das Sein und das Nichts“ beschreibt, dass wir Menschen als Objekte betrachten können und uns selbst als das Objekt wahrnehmen können, das betrachtet wird.

Kunstkritiker John Berger zeigt in seinem dokumentarischen Werk „Ways of seeing“ von 1972 die Darstellungsweise von Frauen in der Werbung. Er offenbart dabei den Blick (franz. le regard) auf eine Frau als passives Objekt.
Filmmacherin und Theoretikerin Laura Mulvey zeigt in ihrem Essay „Visuelle Lust und narratives Kino“ von 1975, dass uns im Kino die dominante, männliche Perspektive bzw. der männliche Blick aufgedrängt werden. Die Frauen werden in einer Version gezeigt, die ideal für eine patriarchale Gesellschaft ist – der Fokus liegt oft auf ihrer Körperlichkeit.

Oft finden wir in Filmen zwei Arten von Frauen: diejenige, die das Objekt der Begierde des Hauptdarstellers darstellt und diejenige, die attraktiv für den männlichen Zuschauer ist. Meist sind Frauen auch eher Zuhörer und Bewunderer des Mannes. Diese Darstellung der Frau als passiv und des Mannes als dominant und aktiv stammt aus patriarchalen Strukturen und stärkt diese.

Der Ursprung einer patriarchalen Gesellschaft liegt darin, dass die wichtigsten Institutionen (z.B. Film, Mode, Politik, Werbung) von Männern und für Männer geschaffen wurden. Der männlichen Sichtweise wird also gleich doppelt so viel Wichtigkeit zugeschrieben; mit der Zeit werden diese von Männern kreierten Normen als allgemeine Norm angesehen (Frau = unterlegen, Mann = überlegen).

Den Male Gaze erkennen

Typische Frauencharaktere im Male Gaze sind jene, deren Hauptaufgabe es ist attraktiv zu sein. So werden auch wichtige Rollen wie Agentinnen oder Polizistinnen oft in Stöckelschuhen und engem Kleid dargestellt, meist spielen sie aber die Rolle der Helferin, des Objekts der Begierde oder die der Freundin. In Aktion sieht man sie meist nur, wenn es darum geht dem Mann einen Gefallen zu tun oder wenn es darum geht, eine Rivalin auszuschalten. Durch ihr attraktives Erscheinungsbild sollen sie eben den männlichen, hetero Zuschauer zufrieden stellen.

Ein weiblicher Charakter muss nicht unbedingt objektifziert werden, um unter der Male Gaze zu leiden. Es genügt, dass sie in ihrem passiven Dasein, den männlichen Protagonisten dazu animiert zu handeln und seine typische aktive Form einzunehmen. Zusätzlich kümmert sie sich darum seine Wunden zu pflegen, wenn der Mann aus seinem Kampf zurückkehrt und unterstützt ihn weiterhin bei all seinen Zielen. Ein weiteres Beispiel ist die Kameraführung. Wo die Kamera platziert ist und auf was sie sich richtet, sagt genauso viel über eine weibliche Darstellerin aus, wie die Beschreibung ihrer Charakterzüge im Drehbuch. So wird oft auf Slow Motion gesetzt, um alle Details des weiblichen Körpers für das männliche Publikum in Szene zu setzen. Auch die typische Rolle der Frau als Dummchen, dem es an Intelligenz fehlt, das mit ihren körperlichen Reizen aber alles wieder gut macht, ist ein klassisches Beispiel für den Male Gaze. Diese Rolle hat gar keinen Zweck im Film, außer das Lustobjekt des männlichen Hauptdarstellers und ein Blickfang für den Zuschauer zu Hause zu sein.

Male Gaze und die Konsequenzen

Wenn alle – sowohl Männer als auch Frauen – ständig ein Bild der Frau zu sehen bekommen, die objektifiziert wird, beeinflusst dies natürlich die eigene Person und die Erwartungen an sich selbst und an andere. Der Wert der Frau, ihr Körper und ihre Perzeption werden in einem komplett falschen Licht ausgestrahlt, die Frau wird auf erniedrigende und schädliche Art porträtiert.

Im Gesamtbild sorgt der Male Gaze für das Beibehalten von patriarchalen Strukturen, in denen weiße Männer den Frauen, Persons of Color und anderen Minderheiten übergeordnet werden.

Was ist der Female Gaze? Beeutung, Definition, Erklärung

Der Female Gaze ist das Gegenstück zum Male Gaze und zeigt eine weibliche Sichtweise auf Kunst und Literatur. Außerdem beschreibt er, wie Frauen im Patriarchat sich selbst und andere Frauen sehen. Eine Frau, die kein Problem damit hat als Objekt gesehen zu werden, würde also der sozialen Norm des Patriarchats entsprechen. Gleichzeitig würde ihr vorgeworfen werden, die von Männern erschaffenen Normen, zu begrüßen und sogar zu verstärken, oder sich davon einen sozialen Vorteil zu erhoffen.

Der Female Gaze bezieht sich also auf den Blick, den eine weibliche Filmmacherin einem Film gibt. Im Fokus stehen also weibliche Führungskräfte als Erzählerinnen, statt als Zuseherinnen. Dieser Blick lässt zu, dass Frauen so gesehen werden, wie sie sind, anstatt dass sie durch den Male Gaze voyeuristisch angeglotzt werden. Im Mittelpunkt steht im Female Gaze das emotionale Level, sich in Gefühle hineinversetzen können. Da die Industrie aber weitgehend vom Male Gaze geformt wurde, ist der erste Schritt des Female Gaze die Rolle der Frau vom Objekt zum Subjekt zu verschieben. Die Aufgabe der Female Gaze ist es also nicht, eine ausschließlich von Frauen und für Frauen geschaffene Welt zu kreieren, sondern Barrieren und Stereotypen zu brechen, die den Frauen von der männerdominierten Kultur auferlegt wurden und die Art, wie Minderheiten gesehen werden, zu verändern.

Zusammenfassend beschreibt der Female Gaze, wie die Welt und die Frauen in einer Welt dargestellt werden, die nicht aus männlicher Perspektive geschildert wird. Der Fokus richtet sich vom körperlichen Erscheinungsbild weg, zeigt viel mehr die Diversität der Gesellschaft und macht es sich zur Aufgabe Genres, die traditionell von Männern dominiert und definiert werden, zu verändern. Die Idee der Feministinnen ist, dass die Objektifizierung von Frauen erst nachlassen wird, sobald Frauen mehr Kontrolle bei der Produktion visueller Medien haben werden.

Was ist Lizenzmanagement? Bedeutung, Erklärung, Definition


Lizenzmanagement gewinnt für Unternehmen derzeit enorm an Bedeutung. Der Begriff beschreibt die Erfassung und Inventarisierung der erworbenen Software-Lizenzen. Je nachdem, ob diese Funktion durch einen Angestellten oder eine Software vorangetrieben wird, kann das Lizenzmanagement aber ganz unterschiedliche Ausprägungen annehmen. Besonders bedeutsam sind hierbei die folgenden Punkte.

Was ist Lizenzmanagement? Aufgaben, Inhalte

Der Aufgabenbereich eines Lizenzmanagers ist nicht leicht zu fassen. Die dafür nötigen Kenntnisse sind vielfältig. Ein Lizenzmanager verwaltet die Lizenzen der im Unternehmen eingesetzten Software. Dabei ist er für das Management zahlreicher Daten verantwortlich, die zum Softwareeinkauf, zur Software-Konsolidierung und Lizensierung herangezogen werden. Besonders bedeutend ist in diesem Kontext ein gutes Software- und IT-Verständnis. Nur wer in diesem Bereich die erforderliche Erfahrung mitbringt, ist letztlich dazu in der Lage, den Einsatz und die Nutzungsmöglichkeiten optimal zu bestimmen und gegebenenfalls bessere Alternativen zu erkennen.

Je größer ein Unternehmen ist, und je vielfältiger dessen Aufgabenbereiche sind, desto schwieriger ist es, über die vorhandenen Lizenzierungen den Überblick zu behalten. Besonders wichtig für die Position sind genaue Kenntnisse über den unternehmensweiten Betrieb, und wirtschaftliche bzw. Vertrags-Kenntnisse. Wer die Kontrolle über alle Softwareangebote, den Markt und die individuelle Nutzung behalten möchte, ist in entscheidendem Maße darauf angewiesen. Um in einem zweiten Schritt konkrete Entscheidungen treffen zu können, spielt außerdem das strategische Denken eine wichtige Rolle. Welche Software benötigt mein Unternehmen wirklich? Und welche Funktionen könnte auch eine andere Software übernehmen, um die Kosten und die Komplexität zu reduzieren?

Unterstützung durch Software

Moderne Software ist dazu in der Lage, einen ganz entscheidenden Beitrag zum erfolgreichen Lizenzmanagement zu leisten. Entsprechende Programme sind zum Beispiel für den Bereich der SAP Lizenzoptimierung zu finden. Da es sich hierbei um ein besonders kostenintensives Programm aus dem Bereich der EDV handelt, ist eine möglichst effiziente Nutzung in dem Fall besonders wichtig.

Zunächst mag es nicht der Intuition entsprechen, für das Management der Lizenzen eine weitere Software in Anspruch zu nehmen. Doch die Kosten in der Anschaffung sind leicht durch den Mehrwert des Programms zu rechtfertigen. Letztlich steckt darin die Möglichkeit, die laufenden Software-Kosten aktiv zu reduzieren und dadurch für eine finanzielle Entlastung des Unternehmens zu sorgen. Diese Form der Amortisierung ist von entsprechend großem Wert und wird aus diesem Grund von einer wachsenden Zahl von Firmen in Anspruch genommen.

Das Konzept selbst ist derweil nicht neu. Schon seit Anfang der 2000er-Jahre entwickelte sich die Branche in England und Deutschland. Die stark erhöhte Nachfrage seitens der Unternehmen, die mit dem finanziellen Druck der Finanzkrise des Jahres 2009 in Verbindung stand, beschleunigte den Aufstieg weiter. Derzeit sorgt das Cloud-Zeitalter dafür, dass es sich weiterhin um ein lohnendes Vorhaben handelt.

Der Soll-Ist-Abgleich

Anhand der vorherigen Ausführungen lässt sich sogleich festmachen, an welcher Stelle der Mehrwert der Software erkennbar ist. Firmen, welche auf diese Dienste setzen, möchten ihre individuellen Kosten maximal reduzieren. Je mehr Software im Einsatz ist, und je höher deren Stückelung ausfällt, desto größer ist auch das Sparpotenzial.

Der entscheidende Arbeitsschritt ist in der Folge der sogenannte Soll-Ist-Abgleich. Hierbei überprüft die Software einerseits, was die günstigste Möglichkeit der Lizenzierung wäre, um die gleichen Leistungen in Anspruch nehmen zu können. In einem zweiten Schritt analysiert das System den aktuellen Zustand. Aus der Differenz ergibt sich dann gegebenenfalls ein Handlungspotenzial. Je größer die Überlizenzierung im jeweiligen Fall ist, desto eher lohnt sich für ein Unternehmen die Neuordnung der Lizenzen. Da es sich hierbei meist um eine Form der laufenden Kosten handelt, kann die betreffende Ersparnis in der Folge sogar regelmäßig eingefahren werden. Dies erhöht das wirtschaftliche Potenzial des Lizenzmanagements noch weiter.

 

Was ist akademische Bewährung? Bedeutung, Definition, Erklärung


Akademische Bewährung ist ein Begriff, den zuerst US-Colleges und -Universitäten verwendeten. Er zeigt an, dass einem Studenten der nötige akademische Fortschritt für den Abschluss fehlt. Inzwischen ist die akademische Bewährung auch in Europa als sogenannte akademische Probezeit eine gängige Beurteilungsmethode.

Was ist akademische Bewährung? Bedeutung, Definition, Erklärung

Sie bemisst sich in der Regel am Notendurchschnitt, der in den USA als GPA (Grade Point Average) bezeichnet wird. Jedoch gibt es auch andere Gründe für die akademische Bewährung, so etwa nichtakademische Straftaten oder die Nichteinhaltung von Standards der finanziellen Studienunterstützung (wegfallendes Stipendium, abgelehnter BAföG-Antrag). Die Regeln für eine akademische Bewährung legt jede Hochschule selbst fest. Sie dienen dazu, den akademischen Status der Einrichtung aufrechtzuerhalten. Der häufigste Grund ist allerdings ein zu schwacher kumulativer GPA (über alle Fächer) oder ein schwacher GPA in den Hauptfächern. Auch ein einziges schwaches Semester kann die akademische Bewährung auslösen. Da es jedoch auch die genannten anderen Gründe geben kann, sollten sich Student*innen mit den GPA-Standards ihrer Einrichtung vertraut machen, damit sie auf den Fall einer akademischen Bewährung vorbereitet sind. Die akademische Bewährung bedeutet nicht den Verweis von der Hochschule, ist aber ein ernstes Zeichen dafür, dass dieser folgen könnte. Studierende erhalten damit eine Probezeit, die meistens über ein Semester reicht, um nachzuweisen, dass sie die akademischen Standards einhalten können.

Akademische Bewährung klären

Wer die Mitteilung über eine akademische Bewährung erhält, sollte mit der Einrichtung die genauen Rahmenbedingungen dafür klären. Wenn es um den Notendurchschnitt geht, sind exakte Zahlen erforderlich: Um wie viele Punkte muss der GPA in welcher Zeit (meistens: im kommenden Semester) steigen, damit die Bewährung aufgehoben wird? In der Regel beschreibt die Hochschule oder Universität die spezifischen Schritte, welche der/die Studierende in der akademischen Bewährungszeit unternehmen muss. Auch die Dauer der Bewährungszeit sollte in der Benachrichtigung zur akademischen Bewährung angegeben sein. Bei Unklarheiten ist eine Nachfrage dringend erforderlich.

Bestehen der akademischen Bewährung

Nach Klärung der Forderungen liegt es an der betroffenen Person, für sich einen Plan zum Bestehen der akademischen Bewährung zu entwickeln. Dieser wird meistens diese Punkte beinhalten:

  • Erhöhung des Lernpensums
  • Schließen von Kooperationen mit anderen Studierenden, um Hilfestellungen zu erhalten
  • Neuorganisation der Tagesabläufe
  • möglicherweise Neuorganisation der Finanzen
  • eventuell Reduzierung oder Eliminierung von weiteren Aktivitäten außerhalb des Studiums, so Freizeitbeschäftigungen, Sport, Nebenjobs (wenn das finanziell möglich ist) oder sozialen Verpflichtungen
  • Kontaktaufnahme mit einem vertrauenswürdigen Mentor der Hochschule und Bitte um Ressourcenempfehlungen (Studiengruppe oder einzelner Tutor)

In den überwiegenden Fällen gelingt es damit, die akademische Bewährung zu bestehen. Wenn dies nicht der Fall ist, sollten Betroffene entweder die Studienrichtung oder die Studieneinrichtung, möglicherweise aber auch das Studium als solches überdenken.

Was ist der ct-Wert? Erklärung, Bedeutung, Definition


Der Ct-Wert (Crossing threshold) steht in Korrelation zur Viruskonzentration im Untersuchungsmaterial von PCR-Tests. Er ist für Coronatests bedeutsam.

Über den PCR-Test: Erklärung, Bedeutung, Definition

PCR-Tests dienen dem Virusnachweis durch die Untersuchung von genetischem Material in den Proben. Er funktioniert durch das Sichtbarmachen von spezifischen Abschnitten des Genoms. Diese werden amplifiziert, also millionenfach vermehrt, um sie mithilfe von Primern erkennen zu können. Es wird, ohne auf nähere Details einzugehen, das genetische Material der Probe vervielfältigt und dann zu einer neuen DNA geformt, dem sogenannten Amplifikat. Diese Formung nehmen während mehrerer Erhitzungen (Temperaturzyklen) Sonden vor, die als Marker eine fluoreszierende Substanz tragen. Mit der Vermehrung der DNA fluoresziert das Material messbar stärker. Die Fluoreszenz nimmt linear zu und bezieht sich auf die gesuchte DNA des Virus. Wenn diese in einer genügend hohen Konzentration vorliegt, ist das an der linearen Zunahme der Fluoreszenz zu erkennen. Der Anfangspunkt des linearen Fluoreszierens ist der Ct-Wert. Crossing threshold heißt „Übertreten der Schwelle“, auch der Begriff Crossing point (Cp-Wert) ist üblich. Labortechnisch kennzeichnet der Ct-Wert die Zahl der Temperaturzyklen, die für eine Fluoreszenz nötig sind. Er korreliert daher mit der Viruskonzentration. Allerdings gibt es noch weitere Kennzeichen für die Viruslast. Der Ct-Wert ist einer von mehreren Markern, wenngleich ein wichtiger.

Einflüsse auf den Ct-Wert

Der Ct-Wert kann während der Analytik Einflüssen durch die RNA-Extraktion unterliegen. Die virale RNA in der Probe wird extrahiert, gleichzeitig sind mögliche Hemmstoffe für die PCR zu eliminieren. Dies gelingt methodenabhängig unterschiedlich gut. Die PCR amplifiziert ausschließlich DNA. Daher muss extrahierte RNA mittel Enzym Reverse Transkriptase in doppelsträngige DNA kopiert werden. Es entsteht eine cDNA („copy DNA“). Das gelingt mehr oder weniger effizient. Nachfolgend hängt der gemessene Ct-Wert von der Konzentration dieser cDNA ab. Auch die Art der Analytik – manuell oder automatisch – führt zu unterschiedlichen Ct-Werten. Vollständig automatisierte PCR-Systeme bestimmen mit einem hinterlegten Algorithmus den Ct-Wert, bei manuellen Untersuchungen müssen Labormitarbeiter die Schwelle für die Hintergrundfluoreszenz vor jeder Probe festlegen. Sie können daher zu unterschiedlichen Ct-Werten kommen. Das muss nicht schlechter als die automatisierte Analyse sein, weil Menschen im Labor beispielsweise mögliche Viruslasten in der Probe aufgrund ihrer Herkunft (Art der Probanden, Durchführungsbedingungen) einschätzen können. Doch es sind verschiedene Ct-Werte einzuplanen. Hierbei spielt die Präanalytik eine Rolle, die vor der eigentlichen PCR-Analyse beginnt. Die Labormitarbeiter müssen einschätzen:

  • Wurden die Abstriche korrekt durchgeführt, wurde also ausreichend viel (möglicherweise) virenbelastetes Sekret gewonnen?
  • Könnte es zur einer Verunreinigung der Probe durch PCR-Hemmstoffe in festen Transportmedien gekommen sein? Solche Hemmstoffe können die Amplifikation erschweren und schlimmstenfalls komplett verhindern. Auf jeden Fall reduzieren sie das Untersuchungsmaterial.
  • War der Abstrich des Rachenraums generell für eine Probennahme geeignet? Wenn die getestete Person bereits unter einer Pneumonie leidet, vermehren sich bei ihr die Viren eher in ihren unteren Atemwegen. Der Abstrich von der Rachenhinterwand würde dann keine virale RNA erfassen. Die Tester sind zwar geschult, aber nur selten Ärzte oder Sanitäter. Sie können also die Pneumonie nicht unbedingt erkennen. Labormitarbeiter müssen bei berechtigten Zweifeln unter Umständen solche Fragen klären bzw. einen zweiten Test der betreffenden Person anfordern.

Qualitative Aussage durch den Ct-Wert

Der Ct-Wert liefert keine quantitative, sondern eine qualitative Aussage: Er zeigt an, dass Viruslast vorhanden ist oder nicht. Die tatsächliche Konzentration der Viren muss mit anderen Methoden ermittelt werden. Dennoch unterteilen die Labore prinzipiell positive Proben anhand des Ct-Wertes in

  • nachgewiesen und
  • schwach nachgewiesen.

Es hat sich bei Coronaerkrankungen gezeigt, dass die Viruslast einige Stunden vor den ersten Symptomen am höchsten ist, um dann wieder abzufallen. Das lässt sich an den Ct-Werten ablesen. Es gibt Werte, die auf eine äußerst geringe Virus-RNA schließen lassen, wobei die Labore anfangs unsicher waren, was das bedeutet. Inzwischen (Juni 2021) weiß man, dass dies in der Regel auf ein deutliches Abklingen der Infektion hinweist, in seltenen Fällen auch auf kontaminiertes Untersuchungsmaterial. Eindeutig sind diese Aussagen aber nicht. Daher schätzen die Labore die Ergebnisse aufgrund des Ct-Wertes als nachgewiesen oder schwach nachgewiesen ein.

YouTube Shorts: deaktiveren oder ausblenden – Geht das? Wie? Anleitung + Erklärung


Die kurze Antwort: YouTube Shorts kann derzeit nicht (offiziell) deaktiviert oder ausgeblendet werrden. Das ist in der App unter Android oder iOS nicht möglich.

Es gibt derzeit einen Umweg und eine Alternative.

YouTube Shorts: deaktiveren oder ausblenden – Anleitung + Erklärung

Der Umweg ist: Das YouTube-Update, dass YouTube Shorts eingefügt hat, müsste rückgängig gemacht werden. Hier muss eine ältere Version der YouTube App installiert werden. (Dies wird für die meisten Smartphone-Nutzer jedoch praktisch unmöglich sein.)

Die Alternative ist: Der YouTube-Drittanbieter Vanced muss installiert werden. (Leider nur für Android) Hier gibt es die Möglichkeit “YouTube Shorts” zu deaktivieren. Die Einstellung dafür findet sich hier: In der Vanced-YouTube-App das YouTube-Konto öffnen. (Auf den Buchstaben oder das Profil klicken) –> runter wischen und auf Einstellungen klicken –> runter wischen und auf “Vanced Einstellungen” klicken –> auf “Werbeeinstellungen” drücken –> zu “Anzeige von Kurzvideos” scrollen und deaktivieren = Damit sind die Kurzvideos nun ausgeblendet.

YouTube Vanced: Vorteile

Übrigens: Wer YouTube Vanced nutzt, kann sich über zwei weitere (sehr gute und gewichtige) Features freuen. 1. YouTube Vanced hat einen integrierten AdBlocker. Das bedeutet, dass alle Werbung in der YouTube Vanced App ausgeblendet wird. 2. YouTube Vanced erlaubt, dass Videos im Hintergrund abgespielt werden können. Das bedeutet, man kann nun zwei Dinge gleichzeitig machen: ein Video laufen lassen und z.B. etwas in den Suchmaschinen suchen oder lesen.

Siehe auch: So kannst du das automatische Übersetzen von Video-Titeln abstellen.

Über YouTube Shorts

YouTube Shorts sind Kurzvideos, die stark an Instagram (Instagram Reels) und TikTok erinnern. Diese Videos sind bis zu 60 Sekunden lang.

Für YouTube Shorts können Content Creator kurze Videos erstellen. Sie können Musik, Songs und verschiedene Töne für das Video verwenden. Nachträglich können die Videos bearbeitet werden. Hier kann dann z.B. Text hinzugefügt werden und die Abspielgeschwindigkeit kann verändert werden.

Für Content Creator ist der Timer besonders praktisch. Dieser hilft die Aufnahme zu verbessern.

Wer diese Kurzvideos sieht, kann sie nur liken, disliken, kommentieren oder teilen. Andere Möglichkeiten gibt es nicht.

Kommentar der Redaktion: “YouTube Shorts” ist der Versuch es mit TikTok und Instagram aufzunehmen. Ob dies gelingt, wird die Zukunft zeigen. Jedoch jetzt zeigt sich schon auf YouTube, dass viele Content Creator ihre Kurzvideos doppelt bis dreifach verwenden. Was bei TikTok hochgeladen wird, kann auch bei YouTube Shorts landen.

Warum sollte man “YouTube Shorts” ausblenden? Nun, dieses neue Feature lenkt ab und macht süchtig. Wer in der YouTube-App eigentlich etwas gucken wollte, kann durch YouTube Shorts schnell davon abgebracht werden. Denn bei YouTube Shorts wird das nächste Video fast automatisch abgespielt. Dafür reicht nur ein Wisch. Wenn man nun ein paar mal wischt, hat man nicht nur viele kleine Videos gesehene, sondern auch viel Zeit verschwenden.

Bitcoin Energieverbrauch: Ursachen, Gründe, Vergleiche


Der Bitcoin, mit dem seit 2009 weltweit gehandelt wird, hat sich schnell einen Spitzenplatz im Bereich der Kryptowährungen erobert. Die große Nachfrage nach dem Bitcoin steht in einem Zusammenhang mit dem Energieverbrauch.

Die digitalen Bitcoin-Transaktionen werden über Großrechner, die auf der ganzen Welt verteilt sind, abgewickelt. Im Jahr 2019 standen rund 9.350 Großcomputer für die Bitcoin-Abarbeitungen zur Verfügung. Genauso standortunabhängig werden sämtliche Überweisungen digital unterzeichnet und von allen Teilnehmenden auf einer gemeinsamen Datenbank, der Blockchain, verwaltet. Die Blockchain, auf Deutsch Blockkette, lässt sich stets erweitern, und sie ist ein Beleg für die in Arbeitsleistung umgewandelte Energie im Bitcoin-Netzwerk.
Voraussetzung für den nicht analogen Handel mit den Bitcoins ist die Anschaffung von einer digitalen Geldbörse, die in der Fachsprache Wallet genannt wird.

Der Bitcoin-Energieverbrauch lässt sich nicht genau bestimmen

Viele Analysten versuchen den globalen Energiebedarf zu ermitteln, jedoch herrscht eine große Ungewissheit im Hinblick auf den wirklichen Bitcoin-Energiebedarf. Die Einschätzungen schwanken zwischen 40 bis höchstens 265 Terawattstunden pro Jahr, wobei die vielschichtigen Berechnungen der Universität Cambridge als sehr realistisch eingestuft werden. Zudem datieren die englischen Wissenschaftler den jährlich vermuteten Bitcoin-Stromverbrauch täglich auf.

Im deutschen Online-Portal für Statistik, der Statista, veröffentlichten die Cambridge-Analysten am 17. Februar 2021 einen jährlichen Bitcoin-Energieverbrauch von rund 119 Terawattstunden.

Im Vergleich liegt der globale Stromverbrauch derzeit bei rund 20.863 Terawattstunden. Von dieser Menge verbraucht Deutschland, aktuell die weltweit viertgrößte Volkswirtschaft, etwa 537 Terawattstunden.

Die Terawattstunde (TWh) ist eine abgeleitete Maßeinheit für Energie, die 1 Billion Wattstunden entspricht; 1 Gigawatt ist genauso viel wie 1 Milliarde Wattstunden, 1 Megawatt wie 1 Million Wattstunden und 1 Kilowatt lässt sich in 1000 Wattstunden umrechnen.

6 Millionen Wattstunden entsprechen derzeit dem jährlichen Strombedarf von ungefähr 3.500 westlichen Haushalten.

Der Energieverbrauch erklärt sich auch mit der Absicherung des Bitcoin-Geldvermögens

Anfang 2021 waren laut Statista ungefähr 18,62 Millionen Bitcoins im Umlauf, und am 17. Mai 2021 entsprach 1 Bitcoin etwa 36.000 Euro. Der Bitcoin ist starken Kursschwankungen unterworfen, dennoch wird er als ein sicheres Zahlungsmittel angesehen, das unabhängig von finanzpolitischen Entscheidungen ist.

Angenommen die Bitcoins, in der Summe mindestens 1 Billion US-Dollar oder 823.323.100 Euro wert, wären physisch und in einem Stahlschrank aufbewahrt, dann hätte die Dicke (Stärke) der Wände maßgeblichen Einfluss auf die Absicherung des Geldvermögens. Tatsächlich ist der Bitcoin virtuell, wird aber als monetärer Wertspeicher immer interessanter. Deshalb dient der hohe Energieverbrauch auch als Diebstahlschutz, statt den dicken Stahlwänden beim Fiatgeld.

Je mehr Teilnehmende ihre Rechenleistung bereithalten und die Durchführungen überprüfen, desto besser kann die dezentrale Datenbank unerwünschte äußere Einflüsse, wie einen 51 %-Hackerangriff auf die Bitcoin-Blockchain, abwehren, solange es nicht zu einem weltweiten Stromausfall kommt.

Das Bitcoin-Mining benötigt enorm viel Energie

Um neue Einheiten der digitalen Bitcoin-Währung zu erhalten, wird nach Bitcoins gemined, auf Deutsch geschöpft oder geschürft. Beim Schürfen dreht es sich um das Ausrechnen neuer Zahlencodes für das Kryptogeld. Dafür müssen Großrechner komplexe Berechnungen durchführen. Weil die anspruchsvollen Berechnungen von den privaten Personal Computern kaum noch bewältigbar sind, werden für das Minen entweder spezielle ASIC-Miner als Hardware benötigt oder mehrere Nutzer geben ihre Rechenleistung in Mining-Pools frei. Sobald ein neuer Bitcoin-Block errechnet wurde, erhält jeder Teilnehmende einen fairen Anteil.
Je mehr Bitcoin-Schürfende sich beim Schöpfen beteiligen, desto anspruchsvoller und energieintensiver werden die zu lösenden Rechenaufgaben sein. Währenddessen müssen die Großrechner gekühlt werden.

Bevor ein neuer Block zur Bitcoin-Datenbank hinzugefügt wird und erstmals Transaktionen erfolgen können, wird dessen Gültigkeit durch Node, einem JavaScript-Code außerhalb des Webbrowsers, von den Teilnehmenden gemeinsam festgelegt. Jeder neue Block enthält verschlüsselte Informationen über den vorhergehenden Block. Deshalb bedeutet das Herstellen von neuen Bitcoin-Blöcken einen viel höheren Energieaufwand als die Ausgabe von frisch gedrucktem Fiatgeld durch die Zentralbank.

Überall auf der Welt wurden/werden moderne Mining-Farmen errichtet, die aufgrund ihrer technischen Ausrüstungen (Supercomputer) in der Lage sind, Bitcoins und andere Kryptogelder sowohl zu erzeugen als auch abzubauen.

Der Bitcoin Stromverbrauch hängt ebenfalls von Erneuerungen ab

Je moderner die Hardware, desto wirkungsvoller und energiesparender wird ihre Arbeitsweise sein, wenngleich sich nur die vom ganzen System erbrachte Leistung messen lässt. Die Effizienz von der Blockchain-Datenbank wird auch durch die Anzahl der Prüfsummen, welche die angeschlossenen Rechner in einer Sekunde verarbeiten können, bestimmt.
Ursprünglich verbrauchte eine Bitcoin-Transaktion rund 819 kWh, das waren 100.000 Mal mehr Strom als eine Kreditkarten-Überweisung im traditionellen Zahlungssystem benötigt.

Heutzutage lässt sich der Energieverbrauch durch innovative Techniken wie das Bitcoin-Lightning deutlich senken. Das geschieht durch ein Protokoll zur Skalierung, bei dem die Blockchain-Datenbank an veränderte Maßstäbe angepasst wird. Im Bitcoin-Lightning-Netzwerk lassen sich zigtausend Überweisungen bündeln, ohne dass diese jedes Mal einzeln und energieintensiv auf der Blockchain gespeichert werden müssen.

Woher der Bitcoin seine Energie bezieht

Nach aktuellen Berechnungen würde der vermutete Stromverbrauch etwa 0,5 % vom globalen Energiebedarf ausmachen.

Ideale Voraussetzungen für das Bitcoin-Schürfen sind niedrige Energiekosten, wenn der Strom günstig erzeugt werden kann oder Energie im Überfluss zur Verfügung steht beziehungsweise als Nebenprodukt (bei der Ölförderung) anfällt.

Die meisten Hochleistungsrechner stehen aktuell in China und arbeiten mit dem dort preisgünstig erzeugten Kohle- oder Wasserstrom. Einige energieintensive Mining-Farmen haben sich beispielsweise in Island angesiedelt, weil sich dort durch die Nutzung der regenerativen Erdwärme kostengünstige thermische Energie bereitstellen lässt. Nebenbei kühlt das kalte isländische Klima die Großrechenanlagen. In den heißeren Regionen, wie in Kalifornien, wird zunehmend auf Solarstrom gesetzt.

Heutzutage achten die meisten Bitcoin-Miner bei ihrer Stromversorgung auch auf die Nutzung von umweltverträglichen Energieträgern.

Was sind parasoziale Interaktionen / parasoziale Beziehungen? Bedeutung, Definition, Erklärung


Die parasoziale Interaktion oder die parasoziale Beziehung ist ein Phänomen sozialen Verhaltens, in dem eine Person mit anderen Individuen oder Gruppen interagiert, deren Hör- und Antwortfähigkeit jedoch nur fingiert werden kann. Das Phänomen kann derart ausgeprägt sein, dass auch die Existenz der anderen Individuen oder Gruppen dahinstehen kann.

Das Phänomen der parasozialen Beziehungen / parasozialen Interaktion

Das Phänomen der parasozialen Interaktion ist sehr alt und kann bis hin zu Gesprächen mit Verstorbenen in der Ur- und Frühgeschichte sowie Gebeten zurückgeführt werden. Forschungen fanden erstmals im Jahr 1956 statt, als die US-amerikanischen Psychologen Horton und Wohl das Konzept der sozialen Interaktion auf die Mediensituation übertrugen. Beobachtet wurde zu dem Zeitpunkt bereits, dass sich sowohl Rezipient als auch Medienakteur (ähnlich) wie in einer persönlichen Konversation verhalten. Der Medienakteur sorgt durch Mittel wie eine direkte Ansprache und Blickkontakt mit der Kamera für Nähe zum Rezipienten. Dieser reagiert darauf, indem er sich auf das vermeintliche Kommunikationsangebot einlässt und ähnlich wie in einer realen Unterhaltung verhält. Der Medienakteur wiederum hat diese Reaktion erwartet und sein weiteres Verhalten entsprechend angepasst, sodass bei dem Rezipienten der Eindruck eines persönlichen Kontaktes geweckt werden kann. Horton und Wohl nannten dieses Phänomen parasoziale Interaktion. Sie stellten fest, dass sich darauf längerfristige emotionale Bindungen auf Seiten de Rezipienten aufbauen konnten. Dieses Phänomen wurde parasoziale Beziehung genannt.

Im modernen Zeitalter wird das Phänomen vorwiegend im Bereich der Medienpsychologie beobachtet. Dort konzentriert sich die Forschung auch heute noch auf den Beziehungsaufbau der Akteure zu Menschen oder Personengruppen, die in den Massenmedien verfolgt werden (etwa Influencer und Prominente) sowie den Beziehungsaufbau zu virtuellen, nicht real existenten Charakteren (etwa Avatare). Insbesondere Influencer und deren Community bzw. die Nutzung von Social Media sind für die moderne Forschung interessant.

Parasoziale Interaktion: Influencer und die Beziehungen zu ihren Followern

Influencer auf Social Media Kanälen zeichnen sich durch ein hohes Aktions- und Kommunikationspotenzial aus. Dadurch und durch den Aufbau oft genrespezifischer Communities verschwimmen die Grenzen zwischen Massenmedien und Individualkommunikation. Die Follower eines Influencers haben deshalb schnell das Gefühl, den Influencer persönlich zu kennen bzw. mit ihm befreundet zu sein. Umgekehrt hat der Influencer eine Vielzahl von Followern, die er als Individuen gar nicht wahrnimmt. Er kann nicht auf alle Nachrichten reagieren, in vielen Fälle nicht mal alle Reaktionen auf seiner Social Media Seite beobachten, sodass ein Ungleichverhältnis entsteht.

Trotz des Ungleichgewichts der Beziehung zwischen Influencer und Follower ist eine derartige parasoziale Beziehung für einige Menschen sehr bequem. Sie geschieht ohne Verpflichtung, weshalb gerade Menschen, die lieber stille Beobachter sind, solche Beziehungen bevorzugen können. Das vermeintliche soziale Verhältnis kann jederzeit abgebrochen und wieder aufgenommen werden, ohne dass Konsequenzen zu befürchten sind. Da sich die Medienakteure in der Regel in ihrem Verhalten sehr konstant zeigen, dürfen die Rezipienten anders als bei realen Kontaktpersonen außerdem selten unangenehme Überraschungen erwarten. Parasoziale Beziehungen haben auch für Influencer Vorteile. Zum einen können sie mit diesen Beziehungen Geld verdienen, zum anderen erhalten sie in vielen Fällen umfangreiches positives Feedback, das teilweise mit sehr freundschaftlichen und persönlichen Nachrichten einhergeht. Die vermeintliche soziale Bindung wird von vielen Firmen als Werbekanal genutzt. Durch die nähere Bindung, die viele Follower zu „ihren“ Influencern aufbauen, entsteht bei Werbung das Gefühl der „Freunde-empfehlen-Freunden“-Taktik. Gerade in Zeiten der Massenwerbung kann diese Art Werbung den entsprechenden Firmen einen Vorteil bringen. Das die Follower den jeweiligen Influencern bewusst folgen, gehen sie davon aus, dass deren vorgestellte Produkte für sie interessant sind. Sie hegen ein gewisses Maß an Vertrauen, auch wenn sie wissen, dass die Influencer für ihre Werbung bezahlt werden. Indem Influencer in ihren Stories und Posts persönliche Erfahrungen und Tipps teilen, gestalten sie ihre Seiten so persönlich, dass Gefühl einer realen Freundschaft auch bei Werbemaßnahmen erhalten bleiben kann. In vielen Fällen wird daher die Werbung der Influencer unterschwellig nicht als klassische Werbung wahrgenommen.

Nachteilig ist diese Art der parasozialen Beziehung für den Influencer vor allem, dass er keine Kontrolle darüber hat, wer ihm folgt und welche Einblicke in sein Leben erhält. Auch Gerüchte und Missbrauch der herausgefundenen Daten können Folgen einer solchen Beziehung sein, insbesondere da ein Follower durch die Vielzahl an Social Media Plattformen auf der einen ein stiller Beobachter sein und gleichzeitig auf einer anderen Plattform heimlich Hassbotschaften verbreiten kann. Beim Follower bzw. Rezipient kann die parasoziale Beziehung so weit gehen, dass es nicht mehr dazu in der Lage ist, die fiktive von der realen Welt zu unterscheiden. Es hält dann die virtuelle Kommunikation für real und persönlich.

Was ist Software as a service (SaaS)? Begriffserklärung und Verdeutlichung anhand eines Beispiels


Inmitten des digitalen Zeitalters werden wir immer häufiger mit Begriffen konfrontiert, die den meisten von uns nichts sagen dürften und einer davon ist unumstritten Software as a service (SaaS). Im Grunde handelt es sich hierbei um nichts anderes als ein Lizenz- und Vertriebsmodell, bei dem Softwares über das Internet in Form eines Service angeboten werden. SaaS-Lösungen spielen insbesondere in Unternehmen eine zunehmende Rolle, da es Optionen für praktisch alle Branchen gibt und diese beispielsweise dabei helfen, innerbetriebliche Prozesse zu optimieren. Was das für Prozesse sind, hängt von der jeweiligen Software sowie den Ansprüchen des Unternehmens ab. Entsprechende Softwares kommen unter anderem in der Planung, dem Personalmanagement und der Produktion zum Einsatz.

SaaS in der Landwirtschaft

Wie zuvor erwähnt, gibt es eigentlich keine Branche, die nicht von SaaS-Lösungen Gebrauch macht und selbst die Landwirtschaft ist hiervon nicht ausgenommen. Ein gutes Beispiel dafür ist die Software von 365FarmNet . Wie der Name es erahnen lässt, handelt es sich um einen Service für landwirtschaftliche Betriebe. Die SaaS-Lösung fokussiert sich auf die Dokumentation landwirtschaftlicher Arbeitsvorgänge in den Bereichen Betriebsführung, Pflanzenbau und Herdenmanagement und bietet einen optimalen Einstieg in die digitale Landwirtschaft. In den Grundfunktionen, wie der Ackerschlagkartei ist die Agrarsoftware kostenfrei. Darüber hinaus kann eine Professionalisierung mit bezahlpflichtigen Bausteinen vorgenommen werden. Mit der Agrarsoftware können Arbeitsabläufe präziser kalkuliert, durchgeführt und dokumentiert werden. Auf diese Weise können Betriebsmittel und Ressourcen effizienter eingesetzt werden.

Mit Software as a service verwandte Arten des Cloud Computing

Bei Software as a service (SaaS) handelt es sich unumstritten um einen der aktuell bedeutendsten Begriffe der Wissenschaft und Technik. Höchstwahrscheinlich wird sich das in den kommenden Jahren nicht ändern, aber Saas-Lösungen sind nur ein Teil des Cloud Computing. Weitere Arten wären Desktop as a Service (DaaS), Everything as a Service (XaaS), Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Security as a Service (SECaaS). Bei DaaS liegt eine virtuelle Desktop-Infrastruktur vor, bei IaaS werden Hardware, Software, Speicherplatz und andere Infrastruktur-Komponenten gehostet, bei SECaaS wird das Nutzen Sicherheitsservices ermöglicht, bei PaaS können Kunden eigenständig Anwendungen entwickeln und XaaS ist eine Art Paket, das alle Formen des Cloud Computing umfasst.

SaaS und andere Cloud-Computing-Lösungen sind entscheidend für den digitalen Wandel

Unternehmen müssen Maßnahmen treffen, um in unserer heutigen Zeit konkurrenzfähig bleiben zu können und Cloud-Computing-Lösungen spielen eine entscheidende Rolle bei der Gestaltung des digitalen Wandels. Durch das Nutzen entsprechender Lösungen können Unternehmen zahlreiche Prozesse automatisieren und infolgedessen optimieren, was die Effizienz des Betriebs fördert. Zwar sind Saas und andere Formen des Cloud Computing mit gewissen Kosten verbunden, aber langfristig können sich die Investitionen lohnen.

Was ist Reichweitenangst? Maßnahmen, Bedeutung, Definition, Erklärung


Als “Reichweitenangst” wird die Angst von E-Autofahrern bezeichnet, dass sie nicht genug Akkuleistung haben, um an ihrem Ziel oder an einer Ladestation anzukommen. Ferner ist die Reichweitenangst die Angst, dass dem Auto der Strom ausgeht und man liegen bleibt.

Was ist Reichweitenangst? E-Autos, Maßnahmen, Bedeutung, Definition, Erklärung

Eine weite verbreitete im Alltag der E-Autofahrer ist es, wegen zu wenig Akkuleistung das geplante Ziel nicht erreichen zu können. Es kommt generell eher selten vor, dass ein Fahrer eines Diesel- oder Benzinfahrzeugs aufgrund eines leeren Tanks auf der Straße stehenbleibt. Ebenso selten passiert das wegen leerer Akkus dasselbe bei E-Autos passieren kann. Aber die Angst vor einer solchen Situation ist dennoch stark verbreitet.

Die sogenannte Reichweitenangst schreckt schon seit einiger Zeit viele Autofahrer vor dem Kauf von E-Autos zurück. Bei verschiedenen technischen Befragungen aus dem Jahre 2016 wurde ermittelt, dass mehr als 85 Prozent aller Autofahrer Angst haben, dass die E-Autos eine zu geringe Reichweite aufweisen. Diese war somit neben dem Preis und die größere Entfernung zu den einzelnen Ladestationen buchstäblich das bedeutungsvollste K.o.-Kriterium für die E-Autos. Diese Sorge ist jedoch nach Angaben der Hersteller völlig unberechtigt.

Fuhren die E-Autos noch vor einigen Jahren im Schnitt nur knapp 150 Kilometer, so hat sich der Umkreis in der Zwischenzeit vervielfacht. Nun erreichen die elektrisch betriebenen Autos im Durchschnitt eine Reichweite im Bereichen von 250 bis 300 Kilometer. Dies soll in Zukunft ausgeweitet werden. Somit ist die Tendenz hier stak steigend. So verfügt zum Beispiel das Solarauto One, das das Start-Up Lightyear aus den Niederlanden im nächsten Jahr auf den Markt bringen möchte, über eine Reichweite von mehr als 700 Kilometern. Mittelklasse-Fahrzeuge, wie der neu auf den Markt gekommene Hyundai Kona oder der Kia e-Soul überzeugen durch die hohe Reichweite mit etwa 450 Kilometer, wobei hier die Autos aus Südkorea ganz im neuen Trend liegen. Zugleich gehen Experten davon aus, dass die E-Autos in Zukunft generell eine Reichweite von wenigstens 450 Kilometer zurücklegen können.

Derzeit wird viel Geld und Zeit in die Weiterentwicklung der elektrischen Autos und vor allem in die Fahrleistung investiert. Ein entscheidender Ansatz ist dabei zum Beispiel das neu erschaffene Getriebe der Marke ZF. Dieses Zweiganggetriebe kann nach den Entwicklungsingenieuren bei sehr hohen Geschwindigkeiten die Effektivität der Elektroautos erheblich optimieren. Nur durch ein solches Getriebe soll die Reichweite der Autos schon um mehr als fünf Prozent gesteigert werden.

Die Vorbeugung der Reichweitenangst: Maßnahmen dagegen

Wenn der Fahrer sichergehen möchte, dass die Reichweite seines E-Autos für die gesamte Fahrt an einem Tag ausreicht, dann kann er den Akku über Nacht gänzlich aufladen. Dies ist vor allem dann von Vorteil, wenn eine bekannte Ladesäule einmal defekt oder von anderen Besitzern besetzt ist. Inzwischen gibt es in Deutschland ein großes Netzwerk an verschiedenen Ladesäulen.

Heute hat der Fahrer die Möglichkeit das E-Auto immer dort aufzuladen, wo er sich ohnehin aufhält. Dies ist zum Beispiel auf dem Parkplatz des Supermarkts oder am Arbeitsplatz möglich. Auf diese Weise holt er sich die Energie, die das E-Auto während der Fahrt benötigt wieder.

Sollte es während der Fahrt doch einmal knapp mit der Energie werden, kann die verbleibende Ladung geschont werden, zum Beispiel, indem die Geschwindigkeit reduziert wird. Manche E-Autos besitzen spezielle Stromsparmodi, durch welche diese starken Stromverbraucher wie die Klimaanlage ausgeschaltet und Energie gespart werden. Dies kann auch per Hand erfolgen, wenn das E-Auto nicht über einen separaten Stromsparmodus verfügt. Auf diese Weise kann der Fahrer während einer Fahrt die Reichweite seines E-Autos erhöhen.

Warum die Reichweitenangst nach Ansicht der Hersteller unbegründet ist

Heutzutage kommt kein Autohersteller an der Entwicklung der neuen E-Autos vorbei. Der wichtigste Grund dabei ist die steigende Furcht vor dem bestehenden Klimawandel. So wurden in Brüssel deshalb vor einiger Zeit neue strebsame Abgaswerte definiert, welche es Herstellern ab dem Jahre 2030 unmöglich gestalten, vorwiegend mit normalen Motoren ohne Strafen durchzukommen. Zudem hat der Hersteller Tesla aus Kalifornien bewiesen, dass Elektroautos wenigstens so schnell wie normale Fahrzeuge unterwegs sein können. Daher hat dieser technische Fortschritt die meisten Sorgen der Kunden weitestgehend zerstreut. Auf diese Weise hilft er die Erscheinung der Reichweitenangst zu lindern, wenn die Autos in Zukunft auch mit Akku etwa 500 Kilometer weit fahren und im Zeitraum von einer halben Stunde für 400 Kilometer laden können. Zugleich sinken die Preise mit der hohen Produktion und sollen am Schluss nur wenig höher sein als die heute bekannten Neuwagen. Gleichzeitig sind die Reparatur- und Wartungskosten weitaus geringer als bei normalen Autos. Hier gibt es keine abgenutzten Ölfilter, kein Wechsel des alten Öls und keine defekten Dichtungen der Zylinder.

Die größte Befangenheit gegenüber der E-Autos sind also die Bedenken, ob die Reichweite der Fahrzeuge ausreicht, um das persönliche Fahrverhalten angemessen abzudecken.

Die Elektroautos könnten in Anbetracht der vergleichsweise niedrigen Stückzahlen nur unbeträchtlich zu einer erfolgreichen Energiewende beitragen. Wenn aber nun die erneuerbaren Energien die bedeutendsten Energiequellen sind, dann wären die E-Autos die optimale Ergänzung, da diese als Speicher fungieren können.

Bei den Plug-In-Hybriden ist schon seit einiger Zeit die Reichweite ebenfalls gestiegen, allerdings deutlich langsamer. Trotzdem ist hier ebenfalls die Auswahl an nutzbaren PHEVs sehr stark gestiegen. Dies geschah vor allem in den vergangenen zwei Jahren. Modelle wie der Mercedes GLE 350de oder der BMW X5 oder kommen im elektrischen Fahrbetrieb etwa 80 Kilometer weit. Ab dem Jahre 2022 müssen jedoch die Plug-In-Hybriden in der EU mehr als 60 Kilometer mit elektrischer Energie erreichen, da diese ansonsten nicht als förderbare Autos anerkannt werden. Zurzeit reichen hierfür mehr als insgesamt 40 Kilometer. Das stets entgegengebrachte Argument gegen einen Kauf des E-Autos, dass der Fahrer damit keine großen Distanzen schafft, kann jedoch in absehbarer Zeit immer weiter an Befugnis verlieren. Nicht nur die Reichweiten, sondern auch das Angebot an E-Autos in sämtlichen Preisklassen wird mit der Zeit immer größer. Außerdem sorgt die steigende Zahl der öffentlichen Ladesäulen dafür, dass die Furch davor, ohne Auflademöglichkeit mit dem Auto stehenzubleiben, erheblich kleiner wird.

Warum schmilzt Halloumi / Grillkäse nicht? Erklärung


Halloumi ist eine spezielle Käsezubereitung. Im deutschen Sprachraum ist der halbfeste Käse auch unter der Bezeichnung Grillkäse bekannt. Weitere Schreibweisen sind Halumi und Challúmi. Während der Kolonialzeit wurde das Rezept für den Grillkäse von den Briten nach Europa gebracht. Die in Deutschland und der EU verbreitete Schreibweise Halloumi stammt aus Großbritannien. Beim Erhitzen behält der Halloumi seine Form. In dieser Hinsicht verhält es sich anders als die meisten anderen Käsearten, denn es schmilzt nicht. Der als Synonym zu Halloumi verwendete Begriff Grillkäse weist auf diese hitzebeständige Eigenschaft hin.

Warum schmilzt Halloumi / Grillkäse nicht? Erklärung

O ein Käse schmilzt, bedingt die chemische Molekularstruktur. Denn zum Schmelzen bedarf es ein lockeres Proteinnetz. Dieses molekulare Netz wird durch das Lab erzeugt, das während der Käseherstellung zugeführt wird. Calciumphosphat hält das Proteingebilde lose zusammen. Beim Erhitzen wird Energie an die Moleküle weitergegeben, sodass die flexible Zusammensetzung der Proteine in Bewegung kommt: Die Proteinstruktur lockert sich weiter auf. Eine gelockerte Beschaffenheit hat den Effekt, dass der Käse anfängt sich zu dehnen. Wird weiterhin genügend Wärme zugeführt, schmilzt der Käse schließlich.

Halloumi oder Grillkäse, der bei Erwärmung nicht schmilzt, hat eine starre Proteinstruktur. Die Proteinmoleküle haben somit selbst bei Wärmezufuhr keine Chance sich zu bewegen.

Bei der Herstellung von Halloumi wird das Lab für kurze Zeit gepresst. Dies hat zur Folge, dass sein pH-Wert bei etwa 5,8 liegt. Damit übersteigt Halloumi den üblichen Wert anderer Käsearten, was ihn weniger sauer macht. Um jede weitere Säureentwicklung zu stoppen, wird der Halloumi für kurze Zeit in heiße Molke gelegt: Calciumphosphat weicht aus dem Käse. Ohne das Calciumphosphat, das eine lose Beschaffenheit gewährleistet, hat der Halloumi eine feste Proteinstruktur.

Weitere Käsearten, die nicht schmelzen, sind beispielsweise Brotkäse ( Juustoleiä), indischer Paneer und litauischer Weißkäse.

Herkunft und Verwendung: Halloumi / Grillkäse

Als Spezialität gilt der Grillkäse vor allem in den südlichen Ländern und in der Küche rund um das Mittelmeer, darunter Libanon, Griechenland, Libyen, Israel und die Türkei. Die Urform des Halloumi stammt aus Ägypten. Es wird vermutet, dass der Käse in den nordafrikanischen Gebieten erstmals schon vor mehr als 2000 Jahren hergestellt wurde. Früheste schriftliche Aufzeichnungen fanden Forscher in osmanischen Quellen aus dem 16. Jahrhundert.

Mittlerweile ist der Begriff Halloumi rechtlich geschützt. Konkret bedeutet dies, dass seit April 2021 in der Europäischen Union nur noch Grillkäse mit einer ausgewiesenen Herkunft aus Zypern als Halloumi gekennzeichnet werden darf. In der Tat ist der Halloumi eine traditionelle Beilage des zypriotischen Frühstücks. Zum Mittagessen wird der Käse in den Restaurants und Haushalten Zyperns gebraten oder gegrillt mit Bratkartoffeln oder Pommes serviert. Weitere verbreitete Gerichte sind mit Halloumi gefühlte Teigtaschen und herzhafte Omeletts mit Halloumi. An heißen Tagen wird der Grillkäse mit Datteln oder Wassermelone gereicht. Ebenfalls findet Halloumi als Reibkäse Verwendung in unterschiedlichen Speisen.

Anfänglich bestand der Halloumi aus der Milch von Wildschafen (Mufflons). In modernen Varianten wird zusätzlich die Milch von Kühen oder Ziegen verwendet. Die häufigste Zutat bleibt dennoch die Schafsmilch.
In seinem Geschmack ähnelt der Halloumi Mozzarella. Im Vergleich mit der Filata-Käseart aus Italien weist der Grillkäse jedoch sowohl eine festere Konsistenz als auch eine würzigere Note auf.

Wie wird Halloumi hergestellt?

Für die Halloumi-Herstellung wird zunächst die Sahne mit frischer Milch erwärmt. Daraufhin erfolgt die Zugabe von Salz sowie mit Wasser verdünntes Lab. Nach rund einer Stunde wird die herangereifte Käseschicht zerteilt und die entstandene Menge nochmals erwärmt. Anschließend wird die Molke abgegossen, sodass ein fester Käsegrundstock zurückbleibt. Dieser wird noch einmal fest ausgedrückt und dann in die für den Halloumi typischen fingerdicken Rechtecke geformt. Nun ruht der Käse, um schließlich zehn Minuten in der Molke zu kochen. Frisch herausgenommen wird er in der Regel von einer Seite mit Minze und Salz belegt.

Was ist ein Hotspot und funktioniert die Verbindung mit jedem Handy? Erklärung


Hotspot – damit assoziieren wir junge, angesagte Treffpunkte, die beliebtesten sozialen Begegnungsstätten. Ein Hotspot ist das brandneue Lokal an der Ecke, die Studentenkneipe, manchmal auch ein Live-Event. Oder ist ein Hotspot vielmehr ein Ort, an dem sich Viren verbreiten? Karneval ist ein Hotspot für Corona, das Wartezimmer beim Allgemeinarzt der Ort, an dem sich Magen-Darm-Infektionen verbreiten? Tatsächlich wird der Begriff »Hotspot« für ein Zusammentreffen vieler Menschen verwendet, immer mit Bezug auf ein weiteres Attribut. Viele Menschen haben Spaß, mehrere Personen treffen an einem bestimmten Ort aufeinander und tauschen sich aus. Doch die elementare Bedeutung ist eine andere. Hotspot heißt wörtlich übersetzt “heißer Punkt”. In der Kommunikationsbranche verbirgt sich dahinter ein Portal zum Internet – gewissermaßen eine Weiterleitung oder auch Abkürzung, um auch ohne direkten Zugang in die große weite Welt der Informationen zu gelangen – oder auch einfach Netflix zu streamen, online Musik zu hören oder zu chatten. Für all das müssen wir im WLAN sein; doch nicht jeder Laptop, nicht jedes iPad oder Tablet ist dafür eingerichtet. Die Lösung: Wir machen das Handy zum Hotspot. Wie das geht? Ganz einfach!

Wann immer wir uns nicht im WLAN befinden, z. B. unterwegs sind, in einem Café ohne freien Internetzugang sitzen oder am Strand picknicken, haben wir über unser Smartphone die Möglichkeit, via Handy-Hotspot auch mit anderen Geräten online zu gehen. Dafür wird ganz einfach das Datenvolumen unseres Handyvertrages genutzt und schon können wir ganz komfortabel über den größeren Monitor des Laptops oder Tablets im Web surfen. Dazu schalten wir in den Einstelllungen unseres Smartphones die Option frei und loggen uns mit einem Passwort ein. Ein Hotspot ist auch eine gute Alternative, wenn das verfügbare WLAN-Signal deutlich schwächer ist als die Bandbreite des Handytarifs. Viele Tarife von Vodafone bieten einen schnellen Zugang mit umfangreichem Datenvolumen. Wer viel unterwegs ist und auch in Bus oder Bahn arbeiten oder streamen möchte, sollte aus der Vielzahl an möglichen Verträgen den individuell besten auswählen. Ein Vergleich auf starmobile.de lohnt sich nicht nur für Viel-Surfer; jeder Vodafone Vertrag beinhaltet spezifische Vorteile, die dem eigenen User-Verhalten entgegenkommen. Damit lässt es sich selbst in einsamen Gegenden mobil arbeiten, ohne auf den Komfort eines größeren Screens verzichten zu müssen.

Was ist ein Hotspot und funktioniert die Verbindung mit jedem Handy? Erklärung

Einen Hotspot können wir sowohl unter Android als auch unter iOS einrichten. Bei beiden Smartphones ist die Option in den Einstellungen zu finden. Android User gehen den Weg über »Drahtlos & Netzwerke« bzw. »Netzwerke & Internet« oder »Verbindungen« und finden dann die Option »Tethering & mobiler Hotspot«. Dort kann »mobiler WLAN-Hotspot« und »Mobiler Hotspot konfigurieren« ausgewählt werden. Wer möchte, vergibt beim ersten Einrichten einen eigenen Namen für den Hotspot, die Vergabe eines Passwortes dagegen ist ein Muss. Anschließend wird der Hotspot nur noch aktiviert – und nach Verwendung wieder deaktiviert. Auf einem iPhone funktioniert die Einrichtung ähnlich: Direkt in den Einstellungen findet sich der Punkt »Persönlicher Hotspot«. Sobald der aktiviert wird, erscheint die Aufforderung, ein eigenes Passwort zu vergeben und schon kann es losgehen. Die mobilen Daten des eigenen Handyvertrages werden nun auf anderen Geräten als verfügbares WLAN angezeigt, das mit dem soeben vergebenen Passwort genutzt werden kann.

Was ist 8D-Musik / 8D-Audio? Bedeutung, Definition, Erklärung


Seit 2018 erfreuen sich 8D Musikdateien auf gängigen Streamingportalen immer größerer Beliebtheit, es gibt mittlerweile eine ganze Fülle an Songs im 8D Stil. Beim Hören von 8D Songs bekommt der Hörer das Gefühl eines „360-Grad Sounds“, die Töne wandern um den Kopf herum und kommen aus verschiedenen Richtungen. Die Wahrnehmung des Zuhörers wird, wie bei binauralen Beats, beeinflusst, dadurch entsteht ein viel tieferer Klang und dem Hörer wird ein räumliches Gefühl vermittelt. So wird das Hörerlebnis intensiver und der Raumeindruck verstärkt.

Was ist 8D-Musik / 8D-Audio? Bedeutung, Definition, Erklärung

8D steht nicht für 8 Dimensionen (wie bei 3D), sondern für 8 Directions, also 8 Richtungen. Der Hörer hat also das Gefühl, als komme die Musik aus verschiedenen Richtungen. Durch eine Manipulation der Audiosignale, die auch für Stereo Effekte verwendet werden, entsteht diese Illusion.
Für 8D Musik wird ein Stereo Effekt genutzt, der dem Gehirn vortäuscht, dass der Klang aus verschiedenen Richtungen kommt. Das Musikstück an sich ist eine ganz normale MP3-Datei, die mit einer speziellen Audio Software bearbeitet wird. Das führt am Ende dazu, dass der Hörer das Gefühl hat, die Musik wandere durch seinen Kopf oder umkreist ihn.
Um zu verstehen, wie 8D- Musik funktioniert, muss man zuerst wissen, wie das menschliche Gehör funktioniert.

Dadurch, dass der Mensch 2 Ohren hat, kann er erkennen, ob ein Geräusch von links oder rechts kommt. Wenn jemand von hinten links spricht, kommt das zuerst beim linken und dann beim rechten Ohr an. Mithilfe der Ohrmuschel kann er dann orten, ob das Geräusch von vorne oder von hinten kommt. Der Fachbegriff für diese Gesetzmäßigkeit lautet binaurale Lokalisation.

Durch minimale zeitliche Verzögerungen der Töne, erzeugt in einer speziellen Audio-Software, entsteht die sehr realistische Illusion einer räumlichen Tonbewegung. Wird ein 8D Song über Lautsprecher wiedergegeben, stimmen die fein abgestimmten Audioeinstellungen nicht mehr mit der Entfernung des Wiedergabemediums überein (Kopfhörer sitzen direkt am oder im Ohr) und es entsteht eine verzerrte Wiedergabe und Tonqualität, ähnlich wie bei einem 3D-Film, den man ohne die spezielle Brille ansieht. Ein Heimkinosystem mit 5.1 oder 7.1 Kanälen verteilt den Klang so, dass die gewünschte Bewegungstiefe erreicht wird, bei 8D wird dieser Effekt mit Audioverarbeitung imitiert. Sobald ein 8D Song aber über Lautsprecher wiedergegeben wird, stimmen die fein eingestellten Audioeinstellungen nicht mehr zueinander, daher funktioniert die Illusion von räumlicher Musik ausschließlich mit Kopfhörern.

8D-Musik / 8D-Audio: Wirkung

8D Audio steckt noch in den Kinderschuhen und wird mit Sicherheit in Zukunft auch in den Bereichen Gaming, Musik und Virtual Reality eine immer größere Rolle spielen. Das Potential von 8D Musik ist also lange noch nicht ausgeschöpft. Derzeit werden bereits bestehende Musikstücke nachträglich bearbeitet um 8D zu erzeugen, wenn aber die Musikindustrie bereits beim Produzieren der Songs die Stimme von den Instrumenten trennt, entstehen unzählige weiter Möglichkeiten räumliche Musik entstehen zu lassen.

Es gibt bislang noch keine Erfahrungswerte dazu, ob 8D Musik schädlich ist oder nicht, jedoch wird empfohlen mit moderater Laufstärke zu hören. Kinder und ältere Menschen können sehr empfindlich auf 8D Songs reagieren und können die andauernde Bewegung der Schallwellen als sehr unangenehm empfinden. Einige Musikliebhaber empfinden aber den verspielten Sound als unnatürlich und negativ.

Was ist Veränderungsblindheit? Bedeutung, Definition, Erklärung


Veränderungsblindheit (englisch chance blindness) ist ein Phänomen der visuellen Wahrnehmung. Vereinfacht ausgedrückt bedeutet es, dass wir selbst deutliche Veränderungen, die in einer bestimmten Szene, einem bestimmten Bild vor unseren Augen auftreten, häufig nicht erkennen. Das geschieht fast immer dann, wenn wir, oft nur für kurze Zeit, abgelenkt wurden oder wenn das was sich verändert, nicht im Zentrum unseres Interesses liegt. Im letzteren Fall sprechen die Psychologen auch von der Unaufmerksamkeitsblindheit( inattentional blindness)

Was ist Veränderungsblindheit? Bedeutung, Definition, Erklärung

Hier ein paar Beispiele, die von Psychologen immer wieder genannt werden, wenn von der Veränderungsblindheit die Rede ist:

In einer Filmszene tritt ein Mann im blauen T-Shirt auf. In der unmittelbar darauffolgenden Szene, in der der Mann nur ein paar Meter weit weg ging, ist das T-Shirt plötzlich grau. Eindeutig ein Regiefehler, den aber die meisten Menschen überhaupt nicht bemerken.

In einem Experiment lässt sich jemand an einem Info-Schalter den Weg erklären. Er wird kurz abgelenkt und als er sich dem Info-Mitarbeiter erneut zuwendet, sitzt dort inzwischen ein ganz andere Person. Kaum eine Versuchsperson registriert diese Veränderung.

In einem anderen, sehr bekannten Experiment wird der Film eines Ballspieles gezeigt, in dem Spieler in weißen und schwarzen Trikot durcheinander spielen. Die Zuschauer bekommen die Aufgabe, zu zählen, wie viele Spieler im weißen Trikot mitspielen. Während der Szene läuft ein Mensch im Affenkostüm mitten durch die Spieler und verschwindet. Obwohl er ganz deutlich zu sehen ist, sehen nur die wenigsten Testpersonen den Affen.

Oder das altbekannte Phänomen, dass Männer die plötzlich veränderte Haarfarbe ihrer Frau nach einem Friseurbesuch manchmal erst nach Stunden oder Tagen bemerken.

Solche und ähnliche Experimente gibt in großer Zahl. Alle zeigen das Phänomen der Veränderungsblindheit und sind auch Grundlage vieler toller Zauberkunststücke.

Siehe auch: Was ist Wahlblindheit?

Wie kommt es zur Veränderungsblindheit? Erklärung

Dazu gibt es unter Wissenschaftlern unterschiedliche Erklärungen, die teilweise kontrovers diskutiert werden:

Fest steht, dass das menschliche Gehirn erwiesenermaßen nur über eine begrenzte Speicherkapazität verfügt. Es muss deshalb ständig auswählen, was wichtig und was nebensächlich ist, was gespeichert werden muss und was in das Unterbewusstsein geschoben oder völlig vergessen werden kann. Die selektive Auswahl die permanent abläuft, trifft das Gehirn automatisch.

Eine zweite Theorie ist das sogenannte Überschreiben des Gesehenen. Es ist auch wahrscheinlich, dass im Gehirn neue visuelle Informationen die alten Informationen einfach ersetzen und deshalb nur ein sehr abstraktes Bild übrigbleibt. Dadurch ist es nicht möglich, dass das Gehirn das alte und das neue Bild in allen Einzelheiten miteinander abgleichen kann.

Eine andere Theorie geht einfach davon aus, dass der erste Eindruck einfach immer das ist, was wir behalten und das man bei einem veränderten Bild erstmal automatisch annimmt, dass sich nichts geändert hat.

Es ist aber auch annehmbar, dass keines der Bilder gespeichert wird und wir uns nur die erkannten Informationen merken, wenn das Bild verschwunden ist. Auch beim neuen Bild merken wir uns nur die nun erkannten Informationen. Deshalb vergleichen wir auch nicht das, was gesehen wurde, sondern nur das, was wir erkannt haben.

Eine weitere Theorie geht davon aus, dass das Gehirn alles Visuelle speichert, aber nichts vergleicht und erst wenn der Mensch auf Unterschiede aufmerksam gemacht wird, ihm Änderungen zwischen ähnlichen Objekten bewusst werden.

Vielleicht sind Menschen aber auch einfach nicht in der Lage, zwei Informationen auseinander zu halten und so entsteht eine Kombination der markantesten Merkmale aus beiden Bildern.

Auf jeden Fall ist die Veränderungsblindheit weder eine Krankheit noch auch nur eine Schwäche und schadet eigentlich auch niemanden.

Warum wachsen Pflanzen besser, wenn man mit ihnen spricht / redet? Erklärung


Pflanzen sind Lebewesen. Sie interagieren mit ihrer Umwelt. Sie kommunizieren und sie verarbeiten Sinneseindrücke. Pflanzen reagieren auf Menschen und auf die Signale, die sie aussenden. Je nachdem ob es sich dabei um für die Pflanzen positive oder negative Signale handelt, wachsen sie entweder besser oder schlechter.

Von Menschen ausgehende und auf Pflanzen wirkende Signale sind unterschiedlicher Art:

  • optische, wie Licht und Schatten, die bei einer Bewegung entstehen
  • akustische, wie die Schallwellen, die beim Sprechen, Singen oder Musizieren entstehen
  • chemische, wie das Kohlendioxid, das beim Ausatmen entsteht
  • mechanische, die durch Berührung ausgelöst werden

Bei den Pflanzen kommen alle Signale mehr oder weniger intensiv an und werden entsprechend verarbeitet. Pflanzen haben zwar keine Nervenzellen wie Tiere oder Menschen. Aber sie haben Rezeptoren und eine spezielle Art von Hirn. Es ist eine sensorische Domäne, „Zellhaufen“, die sich in den Wurzelspitzen befinden. Hier werden alle Eindrücke gespeichert und zu Lösungswegen verarbeitet. Hier und anhand der Signale entscheidet die Pflanze, ob sie schneller oder zurückhaltender und wohin sie wachsen wird.

Pflanzen reagieren auf den Schall des gesprochenen Wortes

Pflanzen reagieren auf Schallwellen. Die entstehen beim Sprechen oder Singen, aber auch beim Abspielen von Musik. Die Schallwellen treffen auf die Pflanzen und stimulieren die Zellen, genauer die Zellmembranen. Es ist ähnlich einem mechanischen Reiz, der auf die Zellwand ausgeübt wird, die die Zelle umgibt. Direkt unterhalb der Zellwand befindet sich die Zellmembran, die das Zellplasma umschließt. Die stabile Pflanzenzellwand ist ein mechanische Hindernis. Die Zellmembran hingegen ist eine Stoffbarriere. Sie reguliert auf biochemische Weise, welche Stoffe in die Zelle eindringen und welche heraus dürfen. Diese Regulierung wird von außen stimuliert, beispielsweise durch Schallwellen, die auf die Zellwand drücken.

Von welcher Art von Musik die Schallwellen ausgesendet werden, ist unerheblich. Es ist die Lautstärke, die den Unterschied macht. Schallwellen reizen die Zellen und stressen die Pflanze. Ein leichter Reiz ist positiver Stress. Wenn der Reiz aber zu stark ist, werden die Zellmembranen geschädigt. Am 21. November 2005 berichtete „Der Spiegel“ über Giancarlo Cignozzi, einen toskanischen Winzer, der seine Weinstöcke schon jahrelang erfolgreich mit klassischer Musik beschallte. Seinem Empfinden nach reagierten die Pflanzen besonders auf niedrige Frequenzen im Bereich 50 bis 1000 Hertz. Ideal seien ruhige Mozart-Stücke

Wenn Zellen mechanisch stimuliert werden, zeigen sie biochemische Reaktionen. Vermittelt durch Rezeptoren lösen etwa Schallwellen deutliche Reaktionen in der Zelle aus. Wie genau dies vonstatten geht, ist noch unklar. Aber dass es geschieht, ist nachgewiesen. Das Sprechen hat eine nachweislich positive Stimulation der Pflanzen zur Folge, die sie zum Wachstum anregt.

Pflanzen profitieren vom CO2-Ausstoß beim Sprechen

Beim Ausatmen stoßen Menschen CO2 aus. Sie atmen, ebenso wie Tiere, Sauerstoff ein und Kohlendioxid aus. Pflanzen funktionieren umgekehrt. Sie nehmen Kohlendioxid auf und geben Sauerstoff ab. Diese Umwandlung erfolgt durch die Photosynthese. Neben Kohlendioxid braucht es natürlich auch Licht und Wasser zum Wachsen.

Wer mit seinen Pflanzen spricht, macht das in einer relativ großen Nähe zu ihr. Das beim Sprechen erzeugte Kohlendioxid kommt der angesprochenen Pflanze direkt zugute. Eine Zimmerpflanze hat also mehr Nutzen vom Angesprochenwerden als eine Balkonpflanze. Im Freien verflüchtigt sich das Kohlendioxid sofort. In einem Raum ist das aber anders. Es bleibt vorhanden und kann photosynthetisch zu Sauerstoff umgewandelt werden. Der Pflanze tut es gut und dem Menschen geht es besser. Denn wer mit seinen Pflanzen spricht, kann sich auch seine Probleme von der Seele reden. Pflanzen sind „dankbare Zuhörer“. Es sind Lebewesen, die jeden Atemzug genießen, den wir in ihre Richtung tun – solange er freundlich und wohlwollend ist.

Schwingt Aggression beim Reden mit, wird die Pflanze das CO2 verschmähen. Denn aggressives Reden ist automatisch laut. Lautstärke bedeutet mehr Stress für die Pflanzen. Ihre Membranen „machen dicht“, weil sie dem auf sie einstürmenden Schallwellendruck entgegenwirken müssen. Im schlimmsten Falle werden sie nachhaltig geschädigt. Dann stirbt die Pflanze.

Pflanzen reagieren auf unseren Schatten

Licht ist für Pflanzen überlebensnotwendig. Ohne Lichtenergie kommt die Photosynthese zum Stillstand. Die Pflanze wird sterben. Licht ist ein wirkungsvoller optischer Reiz, der bei einer Pflanze sofort biochemische Reaktionen hervorruft.

Wer mit seiner Pflanze spricht und dabei in ihrer Nähe ist, wirft vermutlich auch seinen Schatten auf sie. Die Pflanze bemerkt den Unterschied zwischen Licht und Schatten. Es gibt Hinweise darauf, dass Pflanzen nicht nur auf den Klang der Stimme einer bestimmten Person reagieren, sondern auch auf deren Schattenmuster.

Das Sprechen mit Pflanzen ist also auch wirkungsvoll hinsichtlich optischer Reize. Die Pflanzen werten auch diese aus und verarbeiten sie biochemisch. Werden optische mit positiven akustischen Reizen kombiniert, führt dies zu einem besseren Wachstum. Denn die Zellen werden dann in einem für sie sicheren und optimalen Umfeld zur Photosynthese angeregt.

Pflanzen reagieren auf liebevolle Berührung

Pflanzen nehmen sehr viel wahr und reagieren darauf. Sie lernen aus dem, was sie wahrnehmen. Aus diesem Grund wird ihnen in heutiger Zeit auch ein gewisser Grad von Intelligenz zugeschrieben. Professor Frantisek Baluska von der Universität Bonn ist beispielsweise davon überzeugt, dass sich Menschen, Tiere und Pflanzen sehr viel ähnlicher sind, als wir zu wissen meinen. Für ihn ist es denkbar, dass auch Pflanzen Gefühle haben, denn sie erzeugen unter Stress, etwa bei einer Verwundung, Stoffe, die bei Tieren und Menschen schmerzlindernd sind. Weshalb, so fragt Baluska, sollten sie das tun, wenn sie nicht auch Schmerzen hätten?

Wer seine Pflanzen liebevoll berührt, ist ihnen nahe. Wer ihnen nahe ist, spricht vermutlich auch mit ihnen. Beim Sprechen wird Kohlendioxid ausgestoßen, das von den Pflanzen aufgenommen und photosynthetisch umgewandelt wird. Schallwellen bewegen sich in Richtung Pflanzen und treffen auf die Zellwände, die wiederum die Zellmembranen stimulieren. Schattenmuster in Form fehlender bzw. vorhandener Lichtenergie werden biochemisch wahrgenommen und verarbeitet. All das geschieht in den Wurzelspitzen der Pflanzen. Wer eine Pflanze verletzt, hinterlässt negative Schmerzerinnerungen. Pflanzen nehmen mindestens 20 Parameter aus ihrer Umgebung auf, speichern sie in ihren Wurzelspitzen und verarbeiten sie zu Informationen, anhand derer sie immer wieder neue, vorausschauende Entscheidungen in Bezug auf ihr weiters Wachstum treffen.

Fazit: Darum wachsen Pflanzen besser, wenn man mit ihnen spricht / redet

Wohlwollendes Sprechen mit Pflanzen hat automatisch positive optische, akustische, chemische und mechanische Reize zur Folge. Die Pflanzen nehmen diese wahr und reagieren entsprechend. Nicht ohne Grund ist von „dankbaren“ Pflanzen die Rede, die schon mit wenig wohlwollender Zuwendung zufrieden sind.

Was ist die Peak-End-Rule? Bedeutung, Definition, Erklärung


Der englische Begriff Peak-End-Rule steht für Spitze-Ende-Regel, oder noch besser ausgedrückt für Höchstpunkt-Ende-Regel. #

Was ist die Peak-End-Rule? Bedeutung, Definition, Erklärung

Der psychologische Begriff “Peak-End-Rule” steht dafür, dass der Mensch im Rückblick Erfahrungen weitgehend danach beurteilt, wie sie sich auf dem Höhepunkt und am Ende angefühlt haben und nicht während der gesamten Dauer eines Ereignisses. Es hängt also gar nicht in erster Linie davon ab, wie gut oder wie schlecht wir ein Ereignis empfinden, in dem Moment, in dem wir es tatsächlich erleben. Prägend für die nachträgliche Bewertung ist vielmehr die Erinnerung an einzelne Höhepunkte oder Spitzen und an den letzten Eindruck.

Peak-End-Rule: Beispiele

Wir machen Urlaub, empfinden den auch im Großen und Ganzen als durchaus angenehm. Nur ein einziges Mal ärgern wir uns so richtig über eine unfreundliche Servicekraft. Und außerdem haben wir uns am Schluss mit dem Portier über einen bestimmter Posten auf der Hotelrechnung gestritten. Fazit: Wir werden uns an diese beiden Ereignisse später stärker erinnern, als an die angenehmen Stunden und den Urlaub in schlechterer Erinnerung behalten, als er es eigentlich verdient hätte. Hätte uns der Portier ganz besonders nett verabschiedet, uns vielleicht ein kleines Präsent vom Hotel überreicht, dann würde uns der Urlaub höchstwahrscheinlich in angenehmerer Erinnerung bleiben.

Wir sind beim Zahnarzt in Behandlung. Er muss mehrere Löcher bohren, Füllungen machen usw. Die Behandlung ist natürlich nicht besonders angenehm, aber durchaus erträglich und dauert ca. 30 Minuten. Nur einmal tut es furchtbar weh, als die Bohrerspitze auf einen Nerv trifft. Dieser Moment wird im Nachhinein unsere Erinnerung an den Zahnarztbesuch prägen. Wir werden die ganzen 30 Minuten als schmerzhaft und schlimm empfinden. Es sei denn, wir würden uns nach Behandlungsende noch 5 Minuten mit dem netten Zahnarzt über unseren letzten Urlaub, unsere Kinder oder unsere Hunde unterhalten. Dann sähe unsere Erinnerung an den Zahnarztbesuch deutlich positiver aus.

Wir lassen uns nach 15-jähriger und in der Summe durchaus guten Ehe scheiden, weil wir uns am Ende auseinander gelebt haben. Wenn die Scheidung unangenehm und mit gegenseitigen Vorwürfen endet, dann wird es eher so sein, dass wir die gesamte Ehe als schlecht empfinden. Gelingt es uns aber, uns in Freundschaft zu trennen, dann werden wir viel eher an die gemeinsamen Zeiten zurück denken.

Oder denken wir an unsere letzte längere Flugreise. Woran erinnern wir uns: An den schönen Ausblick, den wir beim Start genießen konnten,, an den ruhigen störungsfreien angenehmen Flug, das ausnahmsweise sehr leckere Essen oder an das ewige Warten auf das Gepäck am Schluss? Im Rückblick verliert der störungsfreie Flug in unserer Erinnerung an Bedeutung, an den phänomenalen Ausblick, an das Essen und das Warten am Gepäckband, werden wir uns positiv bzw. negativ erinnern, weil sie für uns die prägenden Schnappschüsse sind.

Welche Schlüsse können wir aus der Peak-Ende-Rule-Regel ziehen?

Der Höhepunkt-Ende-Effekt ist auch für ganz alltägliche Situationen von Bedeutung. Ärzte sollten zum Beispiel versuchen, das Ende einer Behandlung möglichst schmerzfrei und angenehm zu gestalten. Restaurant-und Hotelbesitzer sollten bedenken, dass eine freundliche Verabschiedung des Gastes ihnen mit Sicherheit Pluspunkte für einen nächsten Besuch bringt. Wer Gäste zum Essen einlädt, sollte für eine hammermäßige Nachspeise sorgen, um als super Gastgeber zu gelten. Aber auch bei Kundengesprächen ist es möglich, die Peak-Ende-Rule gezielt zu nutzen, um gute Geschäftsverbindungen aufzubauen.

Wer hat die Peak-End-Rule Regel aufgestellt? Erklärung, Geschichte

Ihr Erfinder war der in Tel Aviv/Israel geborene US-Psychologe und Nobelpreisträger Professor Daniel Kahneman, der nach vielen verschiedenen psychologischen Tests zu dem Schluss kam, dass wir keinen Mittelwert aus unseren Erinnerungen bilden, sondern dass wir uns weitgehend an das beste und schlechteste Ereignis und an den Schluss erinnern.

Was ist Trypophobie? Bedeutung, Definition, Erklärung


Trypophobie ist die Angst vor Löchern (griechisch τρῦπα und φόβος = Loch und Angst), und zwar nicht vor tiefen und großen Löchern, in die wir hineinfallen könnten, sondern vor kleinen Löchern, die als Muster zum Beispiel auf einer erkrankten Haut vorkommen. Daher scheint diese Phobie auch zu stammen: Sie ist als Gefühl möglicherweise evolutionär begründet, weil ein Lochmuster auf der Haut auf eine Krankheit verweist.

Was ist Trypophobie? Bedeutung, Definition, Erklärung

Im medizinischen Sinne gilt die Trypophobie bislang überwiegend als Aversion. Als echte und eigene Angststörung wurde sie mit Stand März 2021 noch nicht anerkannt. Man kennt sie auch erst seit 2005, damals wurde sie in einem Online-Forum erstmals erwähnt. Inzwischen ist bekannt, dass Trypophobie in Einzelfällen tatsächlich eine spezifische Phobie sein kann, über die immer mehr Berichte in sozialen Medien auftauchen und mit der sich auch schon die medizinische Fachliteratur in den letzten Jahren beschäftigt hat. Für die spezifische medizinische Diagnose einer Trypophobie fehlt aber bislang die ICD-Klassifikation. Wenn jemand so stark trypophobisch reagiert, dass der Arzt dies als Angststörung klassifiziert, verwendet er die ICD-10 F40.2 („spezifische Phobie“). Zu unterscheiden ist zwischen Angst, Aversion und Ekel. Für eine Phobie muss in der Tat Angst diagnostiziert werden.

Was löst eine Trypophobie aus?

Die auslösenden Objekte können alltägliche Dinge wie ein Schwamm, Schaum, eine technische Struktur oder bestimmte Früchte sein. Relativ starke trypophobe Wirkungen entstehen durch Bilder von löchrigen Wunden und Insektenfraß. Die Fliegenmadenkrankheit erzeugt bei Hunden solche Hautmuster, die beim betrachtenden Menschen eine Trypophobie auslösen können. Forscher, die sich in den 2000er-Jahren für das Phänomen der Trypophobie interessierten, erzeugten digital Bilder von Lochmustern auf menschlicher Haut, die praktisch so kaum oder nie vorkommen. Diese erzeugten die stärkten trypophobischen Wirkungen. Daraus leitete man ab, dass diese Angst oder Aversion damit zusammenhängt, dass wir uns vor einem solchen Lochfraß auf unserer eigenen Haut, der nur krankhafter Natur sein kann, intuitiv sehr fürchten. Vor allem ein Cluster solcher Muster, also etwa viele Löcher bzw. Blasen gehäuft an einer Stelle, lösen einen starken Reiz aus.

Wie reagieren trypophobische Menschen auf den Reiz?

Zur Symptomatik gehören vegetative Nervenreaktionen, darunter

  • Erschaudern und Gänsehaut,
  • Schwitzen,
  • Herzklopfen,
  • Übelkeit,
  • Zittern,
  • Juckreiz,
  • Unwohlsein sowie
  • visuelle Wahrnehmungsstörungen bis hin zu Augenschmerzen.

Eine Trypophobie kann sich manifestieren. Sie erzeugt dann bei entsprechenden Reizen immer wieder Angst und/oder Ekel, wobei der Ekel wohl deutlich überwiegt. Allerdings ist die Trypophobie wohl nicht mit anderen (generalisierten) Angststörungen assoziiert, was konkret bedeutet, dass solche Störungen nicht zwangsläufig eine Trypophobie mit sich bringen. Jedoch konnte man in Untersuchungen belegen, dass sie gemeinsam mit anderen Ängsten oder einer Depression auftreten kann. Auch leiden einige Personen gleichzeitig unter Trypophobie und einer anderen Zwangsstörung.

Wie lässt sich eine Trypophobie therapieren?

Das einzige derzeit bekannte Behandlungsverfahren (Stand März 2021) bietet die kognitiven Verhaltenstherapie: Betroffenen werden die entsprechenden Bilder immer wieder gezeigt, bis sich die Angst davor legt (sogenannte Konfrontationstherapie).

Wie oft kommt die Trypophobie vor?

Es gibt zur Häufigkeit bislang nur spärliche Studien. Eine davon wurde im Jahr 2013 mit relativ wenigen Probanden (nur 286 Teilnehmer) durchgeführt. Trypophobisch reagierten:

  • 11 % der teilnehmenden Männer
  • 18 % der Frauen
  • 16 % aller Probanden

Von den übrigen TeilnehmerInnen empfanden viele die betreffenden Bilder zumindest als unangenehm. Auf jeden Fall scheinen Frauen häufiger von Trypophobie betroffen zu sein.

Trypophobie: Ursachen, Erklärung

Es gibt zwei gegensätzlich Theorien zu den Ursachen. Eine Gruppe von Forschern geht davon aus, dass die Trypophobie als unbewusster Reflex dazu dient, uns vor gefährlichen Mustern zu warnen. Diese These leiteten die Wissenschaftler aus der Ähnlichkeit der Reaktionen mit denjenigen bei Spinnen-, Insekten- und Schlangenphobien ab. Daraus ließe sich dann schließen, so die Vermutung, dass der Ekel oder die Angst vor solchen Mustern und Tieren evolutionsbiologisch angelegt ist. Eine andere Forschergruppe vertritt die entgegengesetzte Meinung, dass die Angst- und Ekelreaktion erst im Verlaufe des Lebens erworben wird. Als Begründung führen diese Wissenschaftler an, dass man Trypophobie bei Kindern kaum kennt. Erwachsene hingegen hätten schon häufiger Bilder von Hautkrankheiten gesehen, was die Angst davor schüren kann.

Funktioniert Vorschlafen? Funktioniert Nachschlafen? Ist das sinnvoll? Erklärung


„Nachschlafen“ soll nach einer schwedischen Studie ganz gut funktionieren, „vorschlafen“ eher nicht oder nur wenig. Das Stockholmer Karolinska-Institut hat hierzu eine Langzeitstudie unter 44.000 Schweden durchgeführt.

Die wichtigsten Ergebnisse zum Vorschlafen und Nachschlafen

Laut der schwedischen Studie ist es möglich, am Wochenende Schlafdefizite nachzuholen, ohne dass dabei gesundheitliche Schäden infolge von Schlafmangel auftreten. Ausreichendes Vorschlafen verneinen die schwedischen Wissenschaftler praktisch grundsätzlich. Es gibt aber auch andere Studienergebnisse zu diesem Thema (siehe weiter unten).

Schlafmangel und Nachschlafen

Dauerhafter Schlafmangel macht krank und verkürzt sogar signifikant die Lebenszeit. Doch es gibt viele Szenarien, in denen es uns an Schlaf mangelt – sei es wegen Überlastung, sei es wegen einer Fernreise mit dem Flugzeug. Wenn jemand im Alltag einfach nicht zum Schlafen kommt, kann er das laut der schwedischen Studie durchaus am Wochenende nachholen. Das Forscherteam unter der Leitung von Torbjörn Åkerstedt hatte die Studie im Jahr 1997 begonnen und die Lebenserwartung der Probanden ermittelt. Die Forschungsreihe lief bis zum Jahr 2010, ab 2011 wurden die Ergebnisse publiziert. Mit dieser umfangreichen Datensammlung ließ sich evaluieren, wie sich die Schlafgewohnheiten auf die Gesundheit und die Lebenszeit auswirken. Die Referenzzeit für eine normale Schlafdauer beträgt beim Erwachsenen sieben Stunden. Das gilt etwa bis zum 65. Lebensjahr, danach schlafen wir weniger. Die jüngeren Studienteilnehmer, die angegeben hatten, permanent kaum über fünf Stunden Schlaf hinauszukommen, verstarben im Durchschnitt etwas früher. Das betraf aber nicht die TeilnehmerInnen, die den fehlenden Schlaf am Wochenende nachgeholt hatten: Ihre Lebenserwartung verkürzte sich im statistischen Mittel nicht. Übrigens ist auch zu viel Schlaf (über neun Stunden täglich) offenbar ungesund. Dr. Ingo Fietze von der Berliner Charité, der das dortige Schlafzentrum leitet, vermutet die Untergrenze bei sechs, die Obergrenze bei neun Stunden. Alles darunter und darüber steigert die Risiken für Krebs und Diabetes. Außerdem leide sehr die Psyche, so der deutsche Wissenschaftler.

Weitere Studien zum Vorschlafen und Nachschlafen

Nachschlafen wird allgemein als funktionierend bezeichnet. Das bestätigt unter anderen der Chef der Münsteraner Uniklinik Peter Young, ein Experte für Schlafmedizin. Jedoch gebe es dabei Grenzen: Niemand könne wochentags extrem wenig und dann am Wochenende extrem viel schlafen. Beim Vorschlafen ergibt sich durch weitere Studien ein differenzierteres Bild. Diese führt zum Beispiel fortwährend die Deutsche Gesellschaft für Schlafforschung und -medizin durch. So ist sich der DGSM-Vorsitzende Alfred Wiater sicher, dass sehr gut ausgeschlafene Menschen durchaus ein nachfolgendes Schlafdefizit (über sehr wenige Tage) recht gut kompensieren können. Das klappe nur nicht über längere Zeiträume. Jedoch sei grundsätzlich ein wenig Vorschlaf schon hilfreich, so Wiater.

Warum ist das Vorschlafen so schwierig?

Dr. Ingo Fietze von der Charité und der Münsteraner Experte Dr. Young merken hierzu einheitlich an, dass sich der Körper weigert, vorsätzlich zu viel zu schlafen. Wir liegen dann bestenfalls nur noch im Bett. Gesunde Menschen wachen automatisch nach ausreichendem Schlaf auf. Wann dieser stattfindet, ist übrigens egal, wenn nur die Schlafumgebung ruhig und dunkel genug ist. Dass wir uns vor Mitternacht den besten Schlaf holen, ist nach Erkenntnissen der deutschen Wissenschaftler ein Mythos. Wichtig sei allerdings, dass wir bis zur vierten Stunde am besten schlafen. In dieser Zeit sollten wir also nicht gestört werden.

Schlaf: Erkenntnisse aus dem Jetlag

Der Jetlag entsteht, wenn wir mit dem Flieger von Ost nach West oder umgekehrt unterwegs sind und dabei stark die Zeitzonen wechseln. Das bringt unsere innere Uhr durcheinander. Abgesehen davon, dass Jetlag als sehr unangenehm empfunden wird, bringt er uns auch einige wesentliche Erkenntnisse zum Vor- und Nachschlafen: Der Langstreckenflug nach Osten verursacht nämlich einen stärkeren Jetlag als die entgegensetzte Richtung. Wenn wir der Sonne entgegenfliegen, bedeutet das: Unser Körper wird auf einen früheren Tagesanfang verschoben. Das mögen wir gar nicht. Beim Flug nach Westen hingegen dehnt sich der Tag immer mehr in die Länge. Doch länger aufbleiben stört uns nicht so sehr. Wir holen das dann später mit etwas mehr Schlaf nach. Gegen den Flug nach Osten hätten wir vorschlafen müssen, doch das gelingt einfach nicht. Wir können aber im Flieger beim Ostflug ruhig schlafen. Beim Westflug hingegen sollten wir das unterlassen und lieber später nachschlafen. Damit kommen wir dem Jetlag am besten bei.

Was ist ein Zuckerflash? Bedeutung, Definition, Erklärung


Der Begriff „Zuckerflash“ ist eine deutsch-englische Wortkombination aus „Zucker“ und „flash“. Letzteres lässt sich in seiner verbalen Verwendung als „aufblitzen/aufleuchten“ übersetzen. Substantivisch gebraucht bedeutet es „Blitz“ oder „Lichtblitz“.

Im übertragenen Sinn steht Zuckerflash meist für ein jähes – blitzartiges – Verlangen nach Zucker oder zuckerhaltigen Speisen. Der Ausdruck kann jedoch auch generell für einen stark durch Zucker geprägten Lebensmittelkonsum stehen. Als “Zuckerflash” wird aber auch jenes Empfinden bezeichnet, dass man bekommt, wenn man viel zuckerhaltiges gegessen oder getrunken hat.

Was ist ein Zuckerflash? Bedeutung, Definition, Erklärung

Die verschiedenen Zuckerarten werden zur Gruppe der Kohlenhydrate gerechnet, wobei sich ihr molekularer Aufbau jeweils unterscheidet. Gängige Vertreter sind Fructose (Fruchtzucker), Glucose (Traubenzucker), Lactose (Milchzucker) oder Saccharose, auch bekannt als Haushaltszucker.

Die sogenannten Monosaccharide (Einfachzucker) und Disaccharide (Zweifachzucker) schmecken typischerweise süß. Längere Zuckermolekül-Ketten werden als Polysaccharide oder Vielfachzucker bezeichnet. Sie finden sich in stärkehaltigen Stoffen und schmecken im Gegensatz zum Einfach- oder Zweifachzucker nicht süß.

Ein Zuckerflash lässt sich vor allem durch süß schmeckende Kost befriedigen. Dabei kann es sich um reine Naturprodukte als auch verarbeitete Lebensmittel handeln. Natürliche Zuckerquellen sind Zuckerrohr und Zuckerrüben, ebenso viele Gemüse- und Obstsorten. Ein weiteres Naturprodukt ist der von Bienen aus Blütennektar gewonnene Honig.

Getreide, Kartoffeln oder Brot enthalten zwar auch Zucker (Vielfachzucker), doch nimmt das Geschmacksempfinden sie nicht als süß wahr. Sie spielen daher im Zusammenhang mit einem Zuckerflash nur eine untergeordnete Rolle.

Zuckerflash und körperliche Folgen

Nimmt der Körper Zucker auf, so gelangt dieser nach kurzer Zeit in den Blutkreislauf. Um diesen Zucker aus dem Blut heraus an die Zellen weiterzuleiten, die daraus Energie gewinnen, bedarf es des Bauchspeicheldrüsen-Hormons Insulin.

Eine besonders zuckerhaltige Ernährung zieht dementsprechend eine große Insulinproduktion nach sich. Infolgedessen kann es zu einem chronisch erhöhten Insulinspiegel kommen, der letztendlich in eine Insulinresistenz mündet. Diese stellt einen Risikofaktor für verschiedene Krankheiten dar, etwas Herz-Kreislauf-Erkrankungen oder Diabetes mellitus Typ 2.

Ständiger erhöhter Verzehr von Zucker – wie er typisch für den Zuckerflash ist – kann zu einer körperlichen Sucht ausarten. Das Gehirn entwickelt dann gegenüber Zucker eine hohe Toleranzgrenze, die Folge: ein gesteigertes Verlangen; vergleichbar mit der Abhängigkeit von Nikotin, Alkohol oder anderen Drogen. Umgangssprachlich wird Zucker auch als „das Heroin des kleinen Mannes“ bezeichnet.

Die unmittelbaren Auswirkungen eines Zuckerflashs kann jeder an sich selbst beobachten. Einem raschen Energieschub folgt ein ebenso rasches Absinken des Blutzuckerspiegels. Vereinfacht gesagt, zieht ein kurzes Hochgefühl Erscheinungen wie Müdigkeit und Ermattung nach sich. Ebenso wirkt sich ein Zuckerflash auf den Darm aus. In zu großen Mengen genossen, kann Zucker zu Blähungen und Verstopfungen führen.

Siehe auch: Was ist ein Candy-Hangover?

Zuckerflash vermeiden

Für die moderne Industriegesellschaft birgt Zucker hohe gesundheitliche Risiken. Ohne es in jedem Fall zu wissen oder zu wollen, konsumiert der Mensch größere Zuckermengen. Das liegt vor allem daran, dass sich der Stoff in der Lebensmittelbranche großer Beliebtheit erfreut.

Auch im Prinzip nicht süße Speisen werden damit angereichert und entsprechend verarbeitet. Erhebliche Zuckeranteile finden sich zum Beispiel in industriell gefertigten Produkten wie Ketchup, Baked Beans oder Weißkrautsalat.

Auf der Grundlage einer ohnehin schon recht zuckerhaltigen Ernährung wirkt ein Zuckerflash zusätzlich bedenklich. Denn das permanente Verlangen nach Zucker kann nur durch immer größere Anteile davon befriedigt werden. Insofern besteht ein enger Zusammenhang zwischen Zuckersucht und Süßigkeiten. Lebensmittel wie Schokoriegel, Gummibärchen oder Bonbons sind ernährungsphysiologisch gesehen wertlos. Bei reinen Süßwaren dreht sich alles um den neuro-chemischen Prozess, den ihr Verzehr im Gehirn auslöst – nämlich süchtiges Verhalten.

Um aus der Spirale des sich ständig wiederholenden Zuckerflashs heraus zu kommen, sollte Zucker nur maßvoll Bestandteil der Ernährung sein. Dabei ist es hilfreich, mit Zucker angereicherte Fertigprodukte zu meiden und sich für den eigenen Zuckerkonsum eine tägliche Höchstdosis zu setzen. In der Regel wird hierbei ein Wert von 25 bis 50 Gramm angesetzt. Hat sich der Körper einmal an eine zuckerarme oder gar zuckerfreie Lebensweise gewöhnt, gerät er kaum mehr in die Versuchung eines Zuckerflashs.

Warum lecken Hunde Ohren ab? Erklärung, Gründe


Bei dem Lecken handelt es sich um eine soziale Interaktion. Diese wird von jedem Hundebaby als erstes gelernt. Nachdem der Welpe geboren ist, schleckt die Hündin das Kleine ausgiebig ab. Sie macht dies, um den Welpen sauber zu halten, seinen Bauch nach den Mahlzeiten zu massieren und um sich mit ihm zu verbinden. Binnen kürzester Zeit nehmen die Welpen dieses Verhalten an und schlecken sich gegenseitig ab. Das ist der Zeitpunkt, ab dem das Lecken zum Verhalten eines jeden Hundes gehört. Es gibt einige Hunde, die es im fortgeschrittenen Alter immer noch gerne machen. Andere Hunde greifen nur sehr selten auf die eigene Zunge zurück. Grundsätzlich hängt es vom Typ des Hundes ab, ob die Zuneigung mit dem Ablecken zum Ausdruck gebracht wird oder nicht.

Warum lecken Hunde Ohren ab? Erklärung, Gründe dafür

Es gibt unterschiedliche Gründe, wieso ein Hund einen Menschen ableckt. Es sollte immer auf die komplette Körpersprache geachtet werden, so kann der Hund am besten verstanden werden. Eine Möglichkeit ist die Zuneigung. Der Hund zeigt seine Zuneigung sehr häufig über das Lecken. Es kann bei Hunderudeln beobachtet werden, dass sich die Hunde in Ruhephasen gegenseitig abschlecken.

Der Hund macht keinen Unterschied, ob es ein Mensch oder ein Artgenosse ist, er setzt das Lecken als freundliche Begrüßung, spontane Freundschaftsbekundung oder Zeichen der Freude ein. Eine andere Möglichkeit ist das Beschwichtigungslecken. Es gibt Hunde, die die Schnauze von einem Rudelmitglied mit einem höheren Rang lecken, um es zu beschwichtigen. Gleichzeitig ist dies auch gegenüber dem Menschen möglich. Meistens ist dies so, wenn der Mensch angespannt ist oder laut mit dem Hund schimpft.

Es ist nicht notwendig, dass das Verhalten des Menschen auf den Hund bezogen ist. Wenn der Mensch schief und laut singt oder mit jemand anderem streitet, wird der Hund ihn ebenso ablecken, da er den Menschen beruhigen möchte. Es kann vorkommen, dass der Hund sich mit dem Lecken selbst beruhigen möchte. Dies ist häufig in stressigen Situationen der Fall. Eine dritte Möglichkeit ist die Aufforderung zu Streicheln, Spaß und Spiel. Die Hunde möchten über das Lecken immer etwas bewirken.

Wenn der Hund gelernt hat, dass sich der Mensch ihm zuwendet, wenn er ihm die Hand abschleckt, wird der Hund das wieder tun, wenn er eine Streicheleinheit erlangen möchte. Es kann auch vorkommen, dass es aus Langeweile geschieht. Die Reaktion des Menschen auf das Lecken wird bei den folgenden Malen entscheiden, welche Aufforderung der Hund damit verbindet. Der letzte Grund ist das Geschmackserlebnis. Durch das Lecken nehmen Hunde Geschmacks- und Geruchsmoleküle auf. Es gibt zahlreiche interessante Gerüche. Durch gründliches Abschlecken können die Hunde es genauer erkunden. Sie können andere Hunde oder verspeistes Essen riechen. Körpergerüche wie menschlicher Schweiß ziehen viele Hunde an.

Hunde und Lecken – Ist eine Übertragung von Krankheiten möglich?

Es gibt Menschen, die es befürworten, wenn ihr Hund sie ableckt. Gleichzeitig gibt es Menschen, die es eher eklig finden. Die menschliche Schleimhaut sollte nicht mit der tierischen Schleimhaut in Kontakt kommen. Der Hund kann krankmachende Keime übertragen. Die Darmparasiten werden hauptsächlich über den Kot übertragen. Sie können aber auch übertragen werden, wenn der Hund sich vorab am After geleckt hat und anschließend den Menschen ableckt. Der Hund kann sehr viele unterschiedliche Bakterien übertragen. Ein Beispiel ist Pasteurella multocida. Die Krankheit bewirkt keine Symptome beim Hund. Der Mensch kann trotzdem infiziert werden. Beim Menschen wirkt sich die Krankheit im schlimmsten Fall mit einer Hirnhautentzündung oder einer Blutvergiftung aus. Es ist eher unwahrscheinlich, dass eine Infektion eintritt. Zur Sicherheit sollten die Hände gewaschen werden, nachdem ein Hund die Hände abgeschleckt hat. Dies ist vor allem wichtig, bevor sich der Mensch in die Augen greift oder Essen zubereitet. Kinder und immunschwache Personen sollten das unbedingt beachten.

Lecken – Welche Reaktion ist am besten?

Der Hund kann sehr leicht erzogen werden. Das unerwünschte Verhalten muss ignoriert werden und das erwünschte Verhalten bestärkt werden. Der Welpe sollte bereits lernen, ob er seinen Menschen ablecken soll oder nicht. Wenn der Hund das Gesicht abschleckt und das nicht erwünscht wird, ist es am besten, sich wegzudrehen und ihn 30 Sekunden zu ignorieren. Der Hund kann somit lernen, dass mit dem Lecken das Gegenteil bewirkt wird und die soziale Interaktion unterbrochen wird. Außerdem sollte das Lecken zur Aufforderung nicht unterstützt werden. Auf die Zuneigung des Hundes sollte ansonsten mit einer ausgiebigen Streicheleinheit reagiert werden.

Fazit: Warum Hunde Ohren ablecken

Der Welpe sollte bereits lernen, was er darf und was er nicht darf. Ein ausgewachsener Hund wird sich nicht mehr umgewöhnen. Aufgrund dessen ist es wichtig, bereits im frühen Alter daran zu denken, ob der Hund das auch im ausgewachsenen Alter noch machen sollte.

Warum klebt Zucker, Honig, Karamell? Erklärung, Wissenschaft, Gründe


Die Klebrigkeit ist eine sehr nützliche Eigenschaft. Es ist zwischen natürlichen Klebemitteln und Klebemitteln, die im Labor hergestellt werden, zu unterscheiden. Natürliche Kleber werden auch von Pflanzen, Tieren und Menschen produziert. Wenn dies nicht geschieht, können Wunden nicht geschlossen werden.

Die Kohäsion und die Adhäsion: Darum klebt Zucker

Diese Begriffe werden in allen Naturwissenschaften benutzt. Die Adhäsion bezeichnet im Bezug auf einen Kleber die Klebkraft von dem Klebstoff. Dies bedeutet, er verbindet die klebenden Teile. Bei der Reparatur kann Kleber benutzt werden. Die Kraft, mit der das Geklebte zusammenhält, wird als Adhäsionskraft betitelt. Unter Adhäsion kann Zusammenfügen verstanden werden. Es handelt sich somit um einen Vorgang, bei dem zwei verschiedenartige Stoffe zusammengehalten werden. Die Kohäsion hingegen umfasst die Zusammensetzung von dem Klebstoff. Es ist eine eigene Festigkeit oder Bindung vorhanden. Diese muss bei den bestimmten Klebevorgängen stärker oder schwächer gemacht werden. Es ist nicht möglich, mit jeder klebrigen Substanz etwas zu kleben. Der Kleber muss auch eine einfache innere Festigkeit aufweisen. Dies bedeutet, er verfügt über Kohäsionskräfte. Unter der Kohäsion versteht man die Kraft im Inneren von einer chemischen Verbindung. Zwischen den Molekülen herrscht Anziehungskraft. Dies führt in weiterer Folge dazu, dass ein Stoff klebrig gemacht wird. Neben den beiden Eigenschaften von Industrieklebern ist noch eine Dritte erwähnenswert. Es handelt sich um Tack. Darunter kann die Geschwindigkeit verstanden werden, mit der der Kleber klebt. Bei einem hohen Tack muss weniger Druck eingesetzt werden.

Siehe auch: Warum klebt Kleber?

Das Phänomen des Zuckers

Zucker schimmert und glitzert auf eine besondere Art. Diese Eigenschaft entsteht durch die Kristalle, die aus den unterschiedlichen Inhaltsstoffen gebildet werden. Sollte Feuchtigkeit oder Wasser in flüssiger Form zum Zucker gelangen, wird die kristalline Struktur in Einzelteile zerlegt. Der Wasserstoff im Zucker wehrt sich gegen diese Zerlegung. Er versucht eine chemische Verbindung einzugehen. Die Klebrigkeit des feuchten Zuckers entsteht durch die Bemühungen von dem Wasserstoff. Genauso ist es bei Süßigkeiten. Wenn diese keinen Anteil an Feuchtigkeit aufweisen, kleben sie nicht, sondern sind hart. Je nachdem wie die Kristalle aufgebaut sind, gibt es unterschiedliche Arten von Zuckern. Es gibt Einfachzucker, sogenannte Monosaccharide und Mehrfachzucker, sogenannte Polysaccharide.

Das Phänomen des Honigs

Die unterschiedlichen Arten von Honig enthalten unterschiedliche Arten von Zuckern. Die Zucker des Honigs werden als Saccharide betitelt. Der Körper kann den Zucker aus dem Honig sofort verwerten, da es sich um Einfachzucker handelt. Bei Glukose handelt es sich um Traubenzucker, einen Einfachzucker. Glucose ist auch im Honig enthalten. Da der Körper den Traubenzucker schnell verwerten kann, essen ihn viele Sportler und Sportlerinnen während eines Wettkampfes. Dies bringt ihnen schnelle Energie. Müde Menschen können in der früh ein Honigbrot essen und sie werden bald fit sein. Allgemein gilt, was für den Zucker gilt, gilt für den Honig auch. Der Klebeeffekt des Honigs beruht auf den Sauerstoff-gebundenen Wasserstoffatomen des Zuckers. Diese sind in jedem Zuckermolekül sehr stark vertreten und üben nur geringe Anziehungskräfte aus. Es handelt sich um Wasserstoffbrückenbindungen. Der Zucker wird dadurch fest zusammengehalten. Dies ist allerdings nur der Fall, bis der Zucker mit Substanzen in Berührung kommt, die selbst Wasser enthalten. Allgemein gilt, dass der Honig aufgrund der Anziehungskräfte der Moleküle untereinander klebt.

Die fehlende Kohäsion beim Honig

Der Honig enthält viele verschiedene Zuckerarten. Obwohl der Honig klebt, kann er nicht als Kleber bei Alltagsprodukten benutzt werden. Dies ist darauf zurückzuführen, da es an inneren Bindemitteln mangelt. Es ist keine Kohäsion vorhanden. Aufgrund dessen können keine zerbrochenen Gegenstände geklebt werden. Trotzdem kann Honig als Klebemittel eingesetzt werden. Dies ist dann der Fall, wenn kein starkes Klebemittel benötigt wird und der Kleber essbar sein sollte. Aufgrund dessen wird Honig sehr oft beim Verzieren oder Backen von Kuchen eingesetzt. Für einen Kuchen reicht die Klebkraft von Honig aus.

Fazit: Warum klebt Zucker, Honig, Karamell? Erklärung, Wissenschaft, Gründe

Die Klebrigkeit von Zucker, Honig und Karamell kann im Endeffekt auf den Wasserstoff zurückgeführt werden. Der Wasserstoff befindet sich im Wasser und auch im Zucker. Sollten Wassermoleküle mit dem Zucker in Verbindung kommen, wird dieser klebrig. Die Atome streben grundsätzlich danach, dass der Kristall im Zucker zusammengehalten werden kann. Wenn der Zucker mit Wasser in Verbindung kommt, müssen neue Verbindungen angestrebt werden und der Zucker, der Honig oder das Karamell beginnen zu kleben.

Woher kommt das Wort “Vakzin”? Bedeutung, Definition, Erklärung


Vakzin ist der Begriff, der heute verwendet wird, wenn von Impfstoffen die Rede ist. Unter ihnen versteht man Substanzen, die das Erbgut eines Krankheitserregers enthalten, Dazu wurde der Erreger vorher biologisch oder gentechnisch in Laboren aufbereitet. Wird der Impfstoff, das Vakzin, dann einem gesunden Lebewesen injiziert, baut dessen Immunsystem einen Schutz gegen den jeweiligen Erreger auf, ohne bei dem Geimpften die Erkrankung auszulösen.

Seit wann gibt es Impfstoffe und woher stammt der Begriff Vakzin? Bedeutung, Erklärung, Definition

Eine der weltweit besonders gefürchteten Infektionskrankheiten waren früher die Pocken. Sie forderten immer wieder viele Menschenleben. Wissenschaftler gehen davon aus, das schon vor 3000 Jahren in Indien und China Ärzte auf die Idee kamen, bei Pockenausbrüchen das Immunsystem noch nicht Infizierter anzukurbeln, indem sie ihnen ein Pulver aus zermahlenen Grind bzw. Krusten der Pockennarben eingaben. Neben den für die Menschen sehr gefährlichen Pocken gibt es auch noch die sogenannten Kuhpocken, ausgelöst durch das Vaccine-Virus. Der Begriff Vaccine stammt vom lateinischen Wort vaccinius (von Kühen stammend). Auch die Kuhpocken können auf den Menschen übergehen und das Vaccine Virus ähnelt dem Pockenvirus(Orthopoxvirus variolae). Es ist aber für Menschen vergleichsweise harmlos. Ende des 18.Jahrhunderts wurde in England entdeckt, dass Menschen, die einmal an den Kuhpocken erkrankt waren, später bei Ausbrüchen der Menschen-Pocken nicht infiziert wurden. Das brachte den englischen Landarzt Edward Jenner auf die Idee, Menschen gezielt mit den Kuhpocken zu infizieren, um ihr Immunsystem an die Vaccine-Viren zu gewöhnen und so Pockenausbrüche zu verhindern. Die Schutzimpfung, auch als Vakzinierung bezeichnet, war erfunden und schaffte es 200 Jahre später, die Pocken praktisch auszurotten.

Mittlerweile gibt es Impfstoffe gegen viele durch Viren oder durch Bakterien ausgelösten Erkrankungen, zum Beispiel gegen Influenza, Masern, Windpocken, Mumps, Diphterie, Wundstarrkrampf, Cholera, Gelbfieber und Typhus. Sie werden alle als Vakzine bezeichnet, obwohl sie gar nichts mit Kühen und den Kuhpocken zu tun haben.

Siehe auch: Heißt es der oder das Virus?

Die verschiedenen Arten der Vakzine:

Unterschieden wird zwischen den sogenannten Lebendimpfstoffen, den Totimpfstoffen und den Gen-basierten Impfstoffen. Bei den Lebendimpfstoffen werden, wie der Name schon sagt, noch vermehrungsfähige (lebende) aber abgeschwächte (attenuierte) Krankheitserreger verwendet. Sie können nicht mehr krankmachen, aber trotzdem das Immunsystem zur Bildung von speziellen Antikörpern anregen. Lebendimpfstoffe gibt es zum Beispiel gegen Masern, Mumps, Windpocken und Röteln.

Totimpfstoffe verwenden entweder nicht mehr vermehrungsfähige (abgetötete) Erreger oder auch nur Bestandteile dieser Erreger. Dabei kann es sich um Erreger-Fragmente, um aus dem Erreger herausgelöste spezielle Komponenten, oder um inaktive Gifte (Toxine) des Erregers handeln. Außerdem gibt es noch den Konjugat-Impfstoff , bei dem das Antigen des Erregers an einen Proteinträger (Eiweiß) gebunden sein muss, um Wirkung zu erzielen. Totimpfstoffe werden zum Beispiel gegen Tetanus, Hepatitis, Diphterie und Kinderlähmung eingesetzt.,

Die neueste Generation von Impfstoffen stellen die die viralen Vektoren- oder mRNA- Impfstoffe dar. Bei ihnen wird, laienhaft ausgedrückt, keine Substanz des Krankheitserregers, sondern nur der genetische Bauplan des Antigens in den Körper des Geimpften geschleust und dessen eigene Körperzellen produzieren dann die entsprechenden Antikörper. Beim viralen Vektoren-Impfstoff wird dieser Bauplan (das Genmaterial) vorher in harmlose Trägerviren eingebaut. Beim mRNA Impfstoff wird auch kein Trägervirus mehr benötigt, sondern das Erreger-Gen in Form der sogenannten Messenger-RNA oder Boten-RNA synthetisch hergestellt und verimpft

Was ist Zeitinkonsistenz? Bedeutung, Definition, Erklärung


Als Zeitkonsistenz wird das Problem von gebrochenen Vorsätzen bezeichnet. Für die ökonomische Theorie sind gebrochene Vorsätze eine Niederlage.

Was ist Zeitinkonsistenz? Bedeutung, Definition, Erklärung

Heute wird beispielsweise entschieden, dass eine Diät persönlich den größten Nutzen bringt. Soll der Umschluss allerdings später in die Tat umgesetzt werden, so wird er verändert. So wichtig ist eine Diät dann plötzlich nicht mehr, obwohl es vorher als die richtige Entscheidung galt.
Neben der gescheiterten Diät gibt es noch viele weitere Beispiele: etwa das Rauchen aufzuhören, mit Sport anzufangen oder für das Alter vorsorgen. Am einen Tag ein fest gefasster Entschluss, am nächsten Tag schon wieder vergessen.

Die ökonomische Theorie arbeitet mit sogenannten “discounted-utility” Modellen. Die Grundidee dahinter ist, dass Menschen den gesamten Nutzen in ihrem Leben maximieren. Sie sind also bestrebt, aus ihrem Leben das Beste herauszuholen und setzen dies auch entsprechend mit ihren Vorsätzen um. Der Bruch der Vorsätze spricht auch gegen die ökonomische Theorie, da Menschen dann eben doch nicht bereit sind, den größtmöglichen Nutzen aus ihrem Leben zu ziehen, indem sie etwa abnehmen und dadurch gesünder leben können.
Menschen ziehen den Konsum in der Gegenwart dem Konsum in der Zukunft vor. Somit diskontieren sie den späteren Konsum und zinsen ihn ab auf die Gegenwart. Er wird gewichtet mit einem Faktor, der kleiner als eins ist.

Zeitinkonsistenz: Langzeitziel Diät vs. aktuelle Entbehrungen

Die Zeitkonsistenz besagt, dass sich die Entscheidung zwischen zwei unterschiedlichen Optionen, die zeitlich variieren, nicht verändert, wenn beide Optionen um einen Zeitraum verschoben werden.
Nehmen wir an, es gibt eine Wahl zwischen den folgenden Szenarien:

  • 13 Monate auf 110,00 € warten
  • 12 Monate auf 100,00 € warten

In diesem Fall ist es natürlich besser, 13 Monate zu warten und dann 110,00 € zu erhalten. Gemeinhin wissen die Menschen dies auch, trotzdem hätten sie lieber schneller die 100,00 € als länger auf die 110,00 € zu warten. Dieses Verhalten ist Zeitinkonsistent. Denn wenn noch einen Monat länger gewartet werden würde, würde es mehr Geld geben. Dafür muss einfach nur abgewartet werden, mehr müsste nicht getan werden. Das fehlt den Menschen allerdings sehr schwer. Oft nehmen sie lieber direkt, was sie bekommen können und wollen nicht länger warten.

Auch bei einer nicht eingehaltenen Diät wird zeitinkonsistent gehandelt. Zuerst wird entschieden, dass der Nutzen der Diät größer ist als aktuelle Nachteile (die 110,00 € in den drei Monaten werden also bevorzugt). Wenn die Diät wirklich begonnen werden soll, so erscheinen die aktuellen Entbehrungen (das Verzichten auf Kalorien, Sport zu treiben) allerdings größer als der Nutzen in der Zukunft (es wird also zu den 100,00 € gegriffen).

Das Nichtumsetzen von guten Vorsätzen wird also aus traditioneller ökonomischer Perspektive als inkonsistent bezeichnet.

Zeitinkonsistenz: Das neue Modell der hyperbolischen Diskontierung

Die eben beschriebene Vorgehensweise wird von der neueren Forschung der Ökonomie mit dem Modell hyperbolischen Diskontierung zu erklären versucht.

Demnach sind Menschen sehr ungeduldig, wenn es um eine kurze Frist geht. Auf eine lange Frist hingegen sind sie geduldiger und auch bereit, einen Aufschub hinzunehmen. Bei einem langen Aufschub wird nur eine geringere Kompensation verlangt, bei einer kurzen Frist hingegen eine umso größere.

So lässt sich erklären, warum gute Vorsätze nicht eingehalten werden können. Eine Diät bedeutet einen Nutzen, der weit in der Zukunft liegt. Bis die Diät anschlägt und die Ziele erreicht sind, können Monate vergehen.
Steht man nun allerdings heute vor der Wahl, entweder eine Pizza zu essen oder darauf zu verzichten, so wirkt der zukünftige Nutzer, den die Diät einbringen soll, nicht mehr. Er entschädigt nicht auf den kurzfristigen Verzicht vom Konsum. Der Diätvorsatz wird so schnell vergessen.

Inzwischen gibt es auch noch andere alternative Theorien zu dem Thema, da nicht alle mit dem eben vorgestellten Modell einverstanden sind.
Eine Idee befasst sich mit dem Zerlegen von Entscheidung in mehrere Intervalle. Die Zeitkomponente wird in diesen Intervallen unterschiedlich stark berücksichtigt.

Der Ansatz wird als subadditive Diskontierens bezeichnet. Für einzelne Teile von einem größeren Angebot sind Menschen oftmals bereit, mehr zu zahlen, als für die Summe aller Einzelteile.

Auch für den Umgang mit dem Faktor Zeit kann diese Theorie angewandt werden. Zur Schätzung, welchen Wert eine Zahlung in einem Jahr hat. Entweder wird der Zeitraum als Jahr gesehen oder als zwölfmal ein Monat. Die Zahlung ist zwar immer die gleiche, allerdings kann die Wahrnehmung anders sein.

Beim subadditiven Diskontieren wird nämlich die Abzinsung größer, wenn das abzulaufende Jahr in zwölf Monate zerlegt wird.

Auswirkungen auf die Wirtschaftspolitik

Diese Ideen haben große Auswirkungen auf die Wirtschaftspolitik. Menschen verhalten sich oft zeitinkonsistent. Muss der Staat hier eingreifen, um ein zeitkonsistentes Verhalten zu erzwingen?
Dabei geht es vor allem um die Förderung einer privaten Altersvorsorge oder der Bekämpfung von nicht gesunden Lebensweisen.

Im Bereich der Altersvorsorge bevorzugen viele Menschen den heutigen Konsum gegenüber einer späteren, eventuellen Altersvorsorge. Sie verhalten sind zeitinkonsistent und werden dies im Alter bereuen.
Es sollte daher eine obligatorische Mindestvorsorge geschaffen werden. Dabei sollte dies mindestens existenzsichernd sein, aber auch nicht höher, um Missbrauch zu verhindern.

Eine Absicherung schafft der Staat über die Rentenversicherung, die für alle nicht selbstständig tätigen Arbeitnehmer verpflichtend ist.

Auch im staatlichen Eingriff beim Konsum gesundheitsschädlicher Substanzen, wie etwa Alkohol oder Zigaretten, wird die Zeitinkonsistenz als Argument für die Richtigkeit des staatlichen Handels angeführt.
Auch “Sündensteuern” werden hier diskutiert. Diese sollen Menschen dazu bringen, mit ihrem zeitinkonsistenten Verhalten aufzuhören. Denn mit Rauchen, Alkohol oder Drogen zerstören wir unsere zukünftige Gesundheit für ein gutes Gefühl in der Gegenwart.
So könnten vielleicht Menschen dazu gebracht werden, mit dem Rauchen aufzuhören.

Die Zeitkonsistenz – ein kompliziertes Phänomen

Grundsätzlich ist die Zeitkonsistenz ein kompliziertes Phänomen. Es ist aber durchaus zutreffend und beschreibt viele menschliche Verhaltensweisen, die eigentlich inkonsequent und falsch sind. Oftmals wird ein Genuss in der Gegenwart dem vernünftigen Handeln für die Zukunft vorgezogen.

Trotz aller Theorie leben wir allerdings nur einmal und immer in der Gegenwart – nicht in einer fernen Zukunft. Viele Menschen leben nach dieser Devise und vergessen ihre Zukunft. Wenn sie diese dann erreicht habe, ist auch sie Gegenwart und die Fehler aus der Vergangenheit werden dann vielleicht bereut.

Wie der Mensch letztendlich handelt, ob zeitkonsistent oder zeitinkonsistent, liebt in seiner persönlichen Entscheidung. Er muss dann allerdings auch in der Zukunft mit seinen Entscheidungen in der Gegenwart leben.