Was bedeutet „Deep Dive“? Bedeutung, Definition, Erklärung


Einen „Deep Dive“ vorzunehmen bedeutet, dass man eine umfangreiche Untersuchung oder Analyse eines bestimmen Themas oder eines Sachverhalts durchführt.

Was bedeutet „Deep Dive“? Bedeutung, Definition, Erklärung

Der Begriff „deep dive“ bezog sich früher auf eine Art des Brainstormings, aber in den letzten Jahrzehnten wurde er auf eine aussagekräftige Untersuchung oder Analyse einer Sache ausgeweitet.

Dieser Begriff muss sich auch nicht unbedingt auf die Geschäftswelt beziehen – man kann in so ziemlich alles (tief) eintauchen, was eine Entscheidung erfordert.

„Deep dive“ bedeutet auf deutsch „tiefer Tauchgang“. Der Ausdruck ist ein Gleichnis für das Vorgehen bei einer Analyse. Um im Gleichnis zu bleiben: Man bearbeitet bei einem „Deep Dive“ ein Thema nicht oberflächlich, also nicht so als ob man Brust schwimmen oder schnorcheln würde. Bei einem „Deep Dive“ geht man in die Tiefe, man erforscht Details und will richtig tief in die Materie eintauchen. (Hier hilft z.B. die „5 Why Methode„.)

Eine wichtige Anmerkung

Mann sollte darauf achten, dass man sich auf das Wesentliche konzentriert. Was würde der eigenen Meinung nach den Prozess wirklich verbessern und hat einen Geldwert?

Man muss sicherstellen, dass die eigenen Deep Dives Signale und kein Rauschen erzeugen.

Deep Dive: Signale versus Rauschen

  • Deep-Dives können leicht zu einem Daten-Overload werden. Unabhängig davon, ob man Deep-Dives für den eigenen Chef, die Teamkollegen oder den Untergebenen durchführt, müssen man sich an einige Regeln halten.
  • Man sollte die Deep Dives nicht zu einer Ablenkung werden lassen.
  • Man sollte dem Vorgesetzten keine Deep-Dive-Daten mitteilen, die weniger als 1 % des Jahresumsatzes ausmachen.
  • Man sollte den eigenen Kollegen keine Deep-Dive-Daten mitteilen, die weniger als 0,5 % Ihres Jahresumsatzes wert sind.
  • Man sollte den Untergebenen keine Deep-Dive-Daten mitteilen, die weniger als 0,25 % Ihres Jahresumsatzes wert sind.

„Deep Dive“: Beispiel

Man kann sich vorstellen, dass man jedes Jahr in die Türkei fliegt, um Urlaub zu machen und weil man das Speerfischen lieben. Auch wenn man ein miserabler Schwimmer ist, versucht man es jedes Jahr aufs neue. Das „Deep Diving“ ist eine perfekte Analogie zum Geschäftsleben, denn:

  • Genau wie die eigene Luft beim Speerfischen, ist auch die eigene Zeit begrenzt. Das ist die ultimative, endliche Ressource.
  • Man sollte eine grundlegende Vorstellung davon haben, wonach man sucht: einen Fisch!
  • Man muss irgendwann wieder auf das hohe Niveau zurückkehren; die Lunge reicht einer durchschnittlichen Person nur für etwa 3 Minuten
  • Der Wasserdruck macht das Leben schwerer, je tiefer man kommt, und die
  • Datenkomplexität wirkt sich auf dieselbe Weise aus. Die Lösung? Bessere Normalisierung, Formatierung, Gruppierung und Visualisierung von Daten.

Beispiel 1 – Heatmaps und bessere Nutzung des Splash-Screens für Webseiten

1-Satz-Lernen: Nachdem die Verhaltensdaten für einer kritischen Webseite gesammelt worden sind, konnte festgestellt werden, dass die Seitenhöhe auf der Grundlage von Page-Scroll-Daten auf Hotjar nicht effektiv genutzt wird.

Maßnahme: Die Inhalte werden vom Verantwortlichen der Website neu priorisiert und die geschäftskritischen Inhalte in den oberen Teil der Seiten verschoben. Außerdem wurden zwei A/B-Experimente mit den Landing Pages durchgeführt; es wird gleichzeitig eine inhaltslastige und eine übermäßig vereinfachte Version der Website getestet.

Beispiel 2 – Testimonials & Konversion

1-Satz-Lernen: Es wurden Testimonial-Inhalte auf der Grundlage von Hypothesen erstellt und durch die Nutzung von Analytics-Daten konnten die Verhaltensunterschiede der potenziellen Kunden vor und nach der Beschäftigung mit den Testimonial-Inhalten verstanden werden.

Maßnahme: Es wird ein automatisiertes Dashboard erstellt, um Verhaltensunterschiede und die Leistung der Testimonial-Inhalte zu verfolgen.

Beispiel 3 – Vergleich der Kanäle

2-Satz-Lernen: Ein Unternehmen erhält beispielsweise mehr als 20.000 Bewerbungen pro Woche, weshalb es notwendig ist, einen Deep Dive durchzuführen, um die Leistung von bezahlten und organischen Kanälen mit einer funktionalen Aufschlüsselung der Bereiche zu vergleichen. Dieser Deep-Dive ergab, dass die organischen Kanäle genauso gut abschneiden, wie die bezahlten Kanäle.

Aktion: Durchführung eines Deep-Dives in organische Kanäle, um den durch Marketinginhalte, soziale Medien und organischen Suchverkehr erzielten Dollarwert zu ermitteln.

Beispiel 4 – Der Mehrwert eines zufälligen Unternehmens in den Schwellenländern

3-Satz-Lernen: Als großer Verfechter von Remote-Software-Talenten bietet das Beispielunternehmen Fachkräften aus Schwellenländern einen enormen Mehrwert. Das Unternehmen möchte genau wissen, wie viel. Hierzu wurde mit vier verschiedenen Modellen gearbeitet, um den Mehrwert des Unternehmens in jedem Markt zu verstehen.

Handeln: Jetzt, da das Unternehmen die Arbitragemöglichkeiten der eigenen Investitionen kennt und daher diese Daten nutzen kann, um die Märkte und Marketinginvestitionen zu priorisieren.

Beispiel 5 – Testen der Erfolgsquote von Inhalten

3-Satz-Lernen: Das Beispielunternehmen evaluiert wöchentlich über 20.000 Kandidaten, und das dazugehörige Testverfahren besteht aus vier Hauptteilen: Grundlegende Eignungsfragen, kognitiver Eignungstest, fachliche Fragen und freie Fragen. Nach einer eingehenden Untersuchung der Bewerberdaten konnte festgestellt werden, dass einige der Pipelines gute Kandidaten ausschließen und andere schlechte Kandidaten durchlassen. In Anbetracht der enormen Summen, die das Unternehmen jedes Jahr in die Lead-Generierung investiert, haben diese Fehler Auswirkungen auf den Geldwert.

Maßnahme: Erstellung eines anpassbaren Berichts für die internen Teams, der Zugriff auf alle Bewerberdaten bietet und alarmierende Erfolgsquoten für jeden Testschritt anzeigt, mit der Möglichkeit, bei Bedarf pipeline-spezifische Deep Dives durchzuführen. Das Ergebnis war, dass die fehlerhaften Pipelines repariert werden konnten.

Man sollte immer daran denken, dass Deep Dives eine der wirkungsvollsten Aktivitäten sind, die man für das eigene Unternehmen durchführen kann:

  • Nur wenn man Deep-Dives durchführt, kann man andere dazu inspirieren, Deep-Dives mit den Daten durchzuführen, die sie haben
  • Verbesserungen auf der Grundlage der gewonnenen Erkenntnisse umsetzen, was zu Prozessverbesserungen über Tage, Wochen, Monate und in manchen Fällen sogar Jahre führt.
  • Ein besseres Verständnis über die eigenen Daten erlangen, was dazu führt, dass man bessere Fragen stellen kann.
Warum wird ein kalter Entzug auch „Cold Turkey“ genannt? Erklärung, Bedeutung, Definition


Der Begriff Cold Turkey ist gleichzusetzen mit einem kalten Drogenentzug. Wortwörtlich bedeutet Cold Turkey so viel wie kalter Truthahn. Der Ursprung dieser Redewendung liegt darin begründet, dass die entsprechende Person massive Entzugserscheinungen aufweist. Diese beginnen in einer ersten Phase mit einer auffallend kalten Hautoberfläche und Gänsehaut, welche an die eines kalten Truthahns erinnern.

Welche Arten von Entzügen gibt es?

Bei der Abhängigkeit von einer oder mehreren Substanzen existieren verschiedene Möglichkeiten des Drogenentzugs:

  • die langsame Verringerung der Dosis bis zur Abstinenz (Aversionstherapie)
  • das sofortige und vollkommene Absetzen der Droge
  • das Absetzen unter vorübergehender Anwendung von Ersatzdrogen
  • der Turbo-Entzug unter Narkose in besonders schweren Fällen und sekundären Erkrankungen

Welche Drogen verursachen einen Cold Turkey?

Der Cold Turkey tritt beim plötzlichen Absetzen einer Substanz auf, von der eine körperliche Abhängigkeit besteht. Oftmals sind – gerade nach lange andauerndem Konsum – körperliche sowie psychosomatische Symptome nicht klar voneinander abgrenzbar und beeinflussen sich wechselseitig.

Klassischerweise assoziiert man Alkohol, Opiate und Barbiturate mit schweren körperlichen Entzugserscheinungen. Das ist jedoch nur teilweise richtig. Auch als softe Drogen bekannte Stoffe wie Cannabis können nach jahrelangem und täglichem Gebrauch zu einem Cold Turkey führen. Ausschlaggebend sind die Dauer, Intensität und Regelmäßigkeit des vorigen Konsums.

Warum entstehen Entzugserscheinungen?

Entzugserscheinungen entstehen bei manchen Drogen bereits nach einmaligem oder seltener Gebrauch; beispielsweise bei Heroin oder Crack. Bei anderen substanzgebundenen Abhängigkeiten ist die Entwicklung von Entzugserscheinungen bei Abstinenz ein mittel- bis langfristiger Prozess.

Entzugserscheinungen treten auf, wenn dem Körper sich an die Zufuhr der Droge gewöhnt hat. Das erkennt man unter anderem daran, dass immer höhere Dosen in zunehmender Häufigkeit konsumiert werden müssen. Zunächst, um überhaupt noch das Gefühl des Highseins zu erreichen. In einem späteren Stadium lässt die Wirkung jedoch erheblich nach und reicht nur noch, um das Aufkommen eines Cold Turkeys zu verhindern. Der Teufelskreis der Sucht ist entstanden.

Was sind die Symptome eines kalten Entzugs?

Je mehr der Körper die Reste der Substanz abbaut, desto mehr Symptome treten auf. Zu Beginn bemerkt man Unwohlsein, Appetitlosigkeit, ein flaues Gefühl, Angespanntheit und Nervosität, eventuell Kopfschmerzen und Mundtrockenheit.

Die zu Anfang eher diffusen Anzeichen steigern sich im Verlauf. Hinzu kommen dann vegetative Symptome wie Zittern, Schweißausbrüche, Kreislaufprobleme sowie krampfartiges und nicht enden wollendes Erbrechen. Der Körper hat Schwierigkeiten, Blutdruck und Körpertemperatur zu regulieren. Extremes Frieren und Hitzewallungen wechseln sich ab, weil das Nervensystem außer Kontrolle gerät. Auf psychischer Ebene kann es zu einer Einengung des Bewusstseins bis hin zum Delirium kommen.

Was hilft bei einem kalten Entzug?

Einige Medikamente können die Symptome des kalten Entzugs deutlich reduzieren. Dazu werden – meist im stationären Setting – Clomethiazol und Benzodiazepine verwendet. Sie wirken angstlösend, beruhigend und verhindern Krampfanfälle. Alternative Heilmethoden wie Shiatsu und Akupressur zeigen im Rahmen ganzheitlicher Therapien vor allem auf psychischer Ebene gute Effekte, indem sie die Selbstregulation des Körpers unterstützen.

Die Entgiftung sollte man zudem mit ausreichend Bewegung an der frischen Luft fördern. Sie bringt Kreislauf und Stoffwechsel in Schwung. Über die Atmung und Transpiration werden Schadstoffe ausgeschieden. Tee aus Mariendistel, Löwenzahn und Artischocke sowie Cranberry-Saft unterstützen die Ausscheidung von Stoffwechselprodukten.

Wie gefährlich ist ein Cold Turkey bei schwerer Abhängigkeit?

Gerade bei schwerer körperlicher Abhängigkeit können außer Kontrolle geratene Entzugssymptomatiken in ein Delirium tremens münden, welches tödlich enden kann. Man unterscheidet unterschiedliche Schweregrade dieses Deliriums: die Vorphase, das voll ausgeprägte Delirium und den intensivmedizinischen Notfall.

Neben Halluzinationen, starkem Zittern, Schweißausbrüchen und Angstzuständen ist die Störung des Bewusstseins ein zentrales Kriterium des organischen Psychosyndroms. Kennzeichnend sind Störungen von Aufmerksamkeit, Denken, Gedächtnis, Psychomotorik, Wahrnehmung und Schlaf-Wach-Rhythmus. Je nach Schweregrad des Deliriums, Alter und Gesamtkonstitution der Person sowie Komorbiditäten kann das Delirium leicht bis tödlich verlaufen. Insbesondere bei schweren, seit Jahren bestehenden Suchterkrankungen sollte deshalb genau abgewägt werden, ob der kalte Entzug stationär erfolgen sollte, da die Sterblichkeitsrate unbehandelt bei etwa 25 % liegt.

Wo finde ich Unterstützung für einen kalten Entzug?

Ein kalter Entzug ist eine Mammutaufgabe. Zwar erfolgt die Entgiftung zunächst nur auf körperlicher Ebene, jedoch ist die Psyche untrennbar in den Prozess involviert. Zum Einen, weil körperliche und psychische Symptome sich gegenseitig beeinflussen, zum Anderen, weil psychische Vorgänge ursächlich an der Entstehung der Sucht beteiligt waren. Daher sollte man Körper und Psyche gleichermaßen in den kalten Entzug involvieren.

Der erste Schritt zu medizinischer Hilfe kann über den Hausarzt erfolgen. Er kann die Überweisung und ambulante oder stationäre Weiterbehandlung durch einen Facharzt veranlassen. Die Drogenberatung sozialer Träger wie der Caritas vermittelt sozialtherapeutische Angebote, welche den Entzug psychologisch und sozial begleiten. Zudem hilft der Austausch mit anderen Betroffenen, Scham, Schuld und soziale Phobien zu überwinden.

Warum sollte man einen kalten Entzug machen?

Wer über einen kalten Entzug nachdenkt, hat den ersten Schritt bereits unternommen. Betroffenen sind die mit ihrer Sucht eingehenden Nachteile bewusst; sie wünschen sich ein Leben, welches frei von Abhängigkeiten und selbst auferlegten Einschränkungen ist.

Meist sind es Ängste, unverarbeitete Konflikte und Traumata, welche den eigenen Bewegungsradius Stück für Stück eingeschränkt haben. Mit dem richtigen Werkzeug an der Hand ist es ein wunderbares Gefühl, sich den persönlichen Lebensraum wieder langsam und durch eigene Kraft zurückzuerobern sowie Perspektiven und Handlungsalternativen zu entwickeln, die einem die Freiheit verschaffen, nach der man durch den Konsum ursprünglich auf der Suche war.

Warum altern wir? Was passiert beim altern? Erklärung, Wissenschaft


Das Altern beim Menschen und bei den Tieren ist ein natürlicher Ablauf, der zum Leben dazu gehört. Doch viele stellen sich die bestimmt Frage, was während des Alterns eigentlich geschieht oder mit welchen Erscheinungen man rechnen muss. Im folgenden Ratgeber erfahren Sie alles rund um das Thema Veränderungen beim Altern.

Warum altert der Körper?

Diese Frage konnte bis heute nicht genau geklärt werden. Fakt jedoch ist, dass das Altern mit dem Verschleiß des Körpersystems zusammenhängt. Der Organismus eines Menschen ist zwar in der Lage, gewisse Beschädigungen wieder zu richten (Immunsystem, Zellerneuerung). Doch je älter man wird, desto weniger schafft der Körper die Bewältigung von Störungen.

Wie machen sich Alterserscheinungen bemerkbar?

Einige Merkmale des Alterns lassen sich sehr leicht erkennen. Die Haut wird faltig, die Haare werden grau und es sind Altersflecken zu sehen. Der Körper kann im Alter nicht mehr so viel Wasser speichern, was beispielsweise das Schrumpfen der Bandscheiben zur Folge hat und sie dadurch an Flexibilität verlieren. Deshalb wird man im Alter auch kleiner.

Wenn man älter wird, fallen verschiedene Dinge immer schwerer. Die Reaktionstüchtigkeit lässt nach, ebenso das Denkvermögen. Das hat den Grund, dass Impulse nur noch langsam an das Gehirn weitergeleitet werden und deshalb Informationen nicht mehr so einwandfrei verarbeitet werden können. Nach und nach lassen außerdem die Sinnesorgane nach. Mit dem Alter sieht man schlechter und hört schwerer. Auch besteht die Möglichkeit, dass das Empfinden für den Geschmack und den Geruch schwächer wird.

Wie kann man dem Altern entgegenwirken?

Außer das Beste aus dem Altern zu machen, kann man gegen das älter werden selbst nichts tun. Alt zu werden bedeutet gleichzeitig aber auch, ein langes und glückliches Leben führen zu können. In einer langen Lebenszeit ist es außerdem möglich, wertvolle Erfahrungen zu sammeln und weiterzugeben. Dafür ist allerdings wichtig, die Gesundheit bestmöglich zu erhalten, sodass man auch lange körperlich aktiv sein kann.

Zum Teil hängt das Altern sicherlich auch mit der Genetik zusammen, trotzdem kann man einiges dafür tun, die Gesundheit so lange wie möglich zu erhalten. Dabei spielt genügend Bewegung sowie eine ausgewogene Ernährung eine maßgebliche Rolle. Betreibt man regelmäßig angemessenen Sport, verhilft dies dazu, Stress abzubauen und Übergewicht entgegenzuwirken. Das Immunsystem wird aktiviert und der Alterungsprozess erfolgreich verlangsamt. Zudem wird das Risiko für Bluthochdruck, Krebs und Schlaganfall gesenkt.

Durch sportliche Aktivitäten wird die Muskulatur gestärkt, außerdem erhält die Haut bedeutende Nährstoffe. Sowohl geistige als auch körperliche Alterserscheinungen können durch regelmäßigen Sport im Alter hinausgezögert werden.

Was genau passiert, wenn man älter wird?

Es kommen verschiedene Arten von Gewebe im Körper vor. Einige davon wie beispielsweise die Haut, müssen fortwährend erneuert werden. Da mit der Zeit immer weniger Zellen der Haut die Möglichkeit haben, sich zu teilen, tritt die Erneuerung der Haut stetig langsamer auf. Anders sieht es beim Gehirn aus. Hier können sich die Nervenzellen generell nicht teilen. Sie haben zwar eine lange Überlebenszeit, wenn sie aber einmal abgestorben sind, sind sie nicht ersetzbar.

Dies hat zur Folge, dass die Leistung der Organe langsam abnimmt. Beim Altern wird auch die Masse einiger Organe weniger. Organe verfügen jedoch über ausreichend Reserven, welche mit Belastungen umzugehen wissen. Im alltäglichen Leben bemerkt man lange nicht, wenn die Reserven nachlassen.

Erst wenn die Reserven deutlich weniger geworden sind, treten die klassischen Erscheinungen des Alterns auf. Da dies aber nicht mit Erkrankungen zusammenhängt, kann man diesem Prozess lange entgegenwirken. Werden beispielsweise Muskeln schwächer, können sie lebenslang durchtrainiert werden. Viel Bewegung ist generell sehr von Vorteil, denn so kann das Herz-Kreislauf-System fit gehalten werden. Zudem ist Sport auch ideal für die Gesundheit der Organe.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung


Der Trickle-down-Effekt („Durchsickereffekt)“ besagt, dass wohlhabende Bevölkerungsschichten durch ihren Konsum und ihre wirtschaftlichen Investitionen ihren Reichtum nach unten an die mittleren und ärmeren Schichten durchreichen.

Als Trickle-down-Effekt wird dieses Phänomen aufgrund einer Metapher bezeichnet: Der US-Komiker Will Rogers verglich den Effekt mit dem von Pferdeäpfeln, die den Boden düngen und in denen sogar die Spatzen Nahrung finden. Daher gibt es auch die deutsche Bezeichnung als Pferdeapfel-Spatz-Theorie. Dieser Effekt ist umstritten.

Empirische Befunde scheinen nahezulegen, dass eine Einkommenskonzentration in wenigen Händen eher das gesamtwirtschaftliche Wachstum beeinträchtigt, während eine Einkommenssteigerung der untersten Bevölkerungsschichten, wie sie von eher linken Parteien zum Beispiel über einen höheren Mindestlohn gefordert wird, das BIP der Nation eher steigert.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung

Erste Ansätze zu dieser Theorie finden sich schon in Werken des Ökonomen Adam Smith. Dieser postulierte im letzten Drittel des 18. Jahrhunderts, dass in gut geführten Staaten mit diverser Produktion ein universeller Reichtum entsteht, von dem letzten Endes auch niedrigste Bevölkerungsstände profitieren („Wohlstand der Nationen“).

Smith plädierte für eher freie Märkte mit der Möglichkeit, durch Unternehmertum sehr reich zu werden, und gleichzeitig für eine reduzierte staatliche Lenkung, weil dies den gesamtgesellschaftlichen Wohlstand erhöhe. Diese Grundannahme vertreten heute hauptsächlich liberale Parteien. Die Vorstellung hielt sich und führte immer wieder zu Wirtschaftsreformen, die den Märkten ein deutlich freieres Spiel einräumten.

In den USA war in den 1920er-Jahren der Autounternehmer Henry Ford ein Vertreter dieser Theorie, der seinerseits in der Tat viele gut bezahlte Arbeitsplätze schuf. Allerdings setzte 1929 eine Weltwirtschaftskrise ein, für die Wirtschaftshistoriker gerade diesen sehr wirtschaftsliberalen Ansatz verantwortlich machen. Dennoch hielt er sich und fand in den USA zu neuer Blüte ab den 1980er-Jahren unter Ronald Reagan (sogenannte Reaganomics).

In Großbritannien regierte Margret Thatcher zur selben Zeit unter dieser Prämisse. Diese hat ein breites theoretisches Fundament. Neben Adam Smith vertraten unter anderem auch die Ökonomen J. A. Hobson ab 1889, Waddill Catchings und William Trufant Foster ab 1928 sowie John Maynard Keynes ab 1936 die These, dass Wirtschaftskrisen vorrangig durch einen Mangel an Nachfrage ausgelöst werden und dass Reichtum an der Spitze immer auch zu Wohlstand in der Gesamtgesellschaft führt, der wiederum die Binnennachfrage ankurbelt.

Es gab aber auch intellektuelle Gegenbewegungen spätestens ab den 1950er-Jahren, die genau das Gegenteil behaupten und ihren Ansatz dementsprechend als Trickle-up-Theorie bezeichnen. Sie plädieren zwar ebenso für einen freien Markt und eine dezentralisierte Wirtschaft, fordern aber eine Wohlstandsverteilung in die Hände breiter Bevölkerungsschichten, weil gerade dies die Nachfrage ankurbeln könne. Barack Obama griff dieses Konzept in seiner Regierungszeit von 2009 bis 2017 auf, Donald Trump wandte sich dagegen, Joe Biden versucht es wieder umzusetzen.

Anwendung der Trickle-down-Theorie in der Regierungszeit von Ronald Reagan

Die Reaganomics ab 1981 waren ein tiefster Ausdruck des Umsetzungsversuchs von Trickle-down-Effekten. Allerdings war der Begriff damals schon negativ besetzt, weshalb die Reagan-Regierung lieber von angebotsorientierter Wirtschaftspolitik sprach. Umgesetzt wird eine Trickle-down-Politik immer über Steuern. Sie sieht Steuersenkungen für hohe Einkommen vor, wie sie beispielsweise im Bundestagswahlkampf 2021 die deutsche CDU gefordert hat.

Während der Reagan-Regierung war der Ansatz ein Kern der gesamten Wirtschaftspolitik, der weltweit diskutiert wurde. Reagan konnte während seiner zwei Amtszeiten ein Gesamtwachstum des US-BIP um 31 % erreichen, mithin 3,875 % pro Jahr, was beachtlich ist. Flankiert wurde sein Steuersenkungsprogramm von staatlicher Deregulierung. Allerdings verweisen Experten darauf, dass es für einen Wirtschaftsaufschwung immer auch andere Gründe gibt, so etwa die Weltkonjunktur oder die Entwicklung von Rohstoffpreisen. Dennoch ist zu konstatieren, dass die US-Wirtschaft sehr stark von der Binnennachfrage lebt und daher Trickle-down in gewissem Umfang funktioniert haben könnte.

Trickle-down-Ansatz in Deutschland

Die Steuerreform des Jahres 2000 führte in Deutschland zur Entlastung sehr hoher Einkommen und Vermögen. Das DIW analysierte, dass der abgesenkte Spitzeneinkommensteuersatz und die geringere Unternehmensbesteuerung 10 % der reichsten Haushalte um 2,3 % sowie 1 % der reichsten Haushalte um 4,8 % entlasteten. Da gleichzeitig indirekte Steuern leicht erhöht wurden, stieg die Steuerbelastung für alle Einkommensgruppen um 0,1 %.

Das BIP reagierte offenkundig nicht auf den Trickle-down-Ansatz, es schwankte in den Folgejahren heftig. Dazu trug allerdings auch die Finanzkrise 2008/2009 bei. Die genauen Zahlen zeigt statista.de/deutsches BIP 1992 bis 2020. In Deutschland vertreten unter anderem Friedrich Merz und weitere CDU-Politiker offensiv einen Trickle-down-Ansatz, während die FDP ihre Ambitionen in dieser Hinsicht nur latent andeutet. In den laufenden Koalitionsverhandlungen mit den Grünen und der SPD konnte sie sich bislang mit Steuersenkungen für obere Einkommen nicht durchsetzen (Stand: Ende Oktober 2021).

Kritik an der Trickle-down-Theorie

Wirtschaftswissenschaftler wie Paul Krugman, Joseph Stiglitz, Achim Truger und Marcel Fratzscher bezweifeln den Trickle-down-Effekt und sehen hierfür keine Belege. Marcel Fratzscher positionierte sich zuletzt 2021 dagegen. Er versuchte zu belegen, dass Trickle-down höhere Staatsschulden bei weniger gesamtgesellschaftlichem Wohlstand verursache. Sein Kollege Achim Truger differenzierte stärker: Nach seiner Auffassung funktioniert Trickle-down in Deutschland nicht, jedenfalls nicht mit der seit 2000 praktizierten Steuerpolitik. In den USA führte der Congressional Research Service bis 2012 eine Untersuchung zur Thematik durch und stellte fest, dass ein signifikanter Zusammenhang zwischen einem geringeren Spitzensteuersatz und Wirtschaftswachstum inklusive Arbeitsplatzschaffung nicht nachweisbar sei. Dieser Bericht wurde nach einer Meldung der New York Times von November 2012 auf Druck von Abgeordneten der Republikaner nicht veröffentlicht.

Die Senatoren hatten Bedenken zur Methodik und den daraus abgeleiteten Erkenntnissen angemeldet. Dies stieß auf demokratischer Seite auf starke Kritik unter anderem vom Senator Charles Schumer, der das Vorgehen der Republikaner als „Methoden einer Bananenrepublik“ kritisierte. Unabhängige Ökonomen und Berater des Kongresses merkten an, dass das Vorgehen der Republikaner gegen einen Bericht des wissenschaftlichen Kongressdienstes einmalig sei.

Papst Franziskus positionierte sich 2013 in einem apostolischen Brief gegen die Trickle-down-Theorie. Nach seinen Worten basiere diese auf einem undifferenzierten, naiven Vertrauen in die Güte der Reichen und wirtschaftlich Mächtigen. Der Wirtschaftsjournalist Mark Schieritz kritisiert die Vorstellung, dass Reiche durch Konsumption oder Investition ihr Geld in die Gesellschaft transferieren würden. Vielmehr würden sie es sparen oder an der Börse anlegen, so der Fachmann. Auch den verklärenden Ansatz der Trickle-down-Theorie greift er an. Das Anhäufen von Reichtümern sei beleibe keine gute Tat, welche der Gesellschaft etwa nütze. Vielmehr diene die Trickle-down-Theorie lediglich der moralischen Absicherung für bloße Gier nach Reichtum.

Ähnlich positioniert sich das Center for American Progress. Nach der Auffassung der dort tätigen Wissenschaftler haben Trickle-down-Maßnahmen eher kontraproduktive Effekte, weil die Reichen die durch Steuersenkungen erhaltenen Geldgeschenke seltener verkonsumieren oder in die Produktion investieren und häufiger an der Börse anlegen oder sparen. Auch würden sie ihre Mittel gern in Steuerparadiese transferieren. Insgesamt mache Trickle-down die Gesellschaft ungleicher und führe zu geringeren finanziellen Mitteln in der Mittel- und Unterschicht. Die Nachfrage sinke dadurch, was das BIP mittelfristig schwäche.

Fazit: Was ist der Trickle Down Effekt? 

Die Trickle-down-Theorie wird in der Öffentlichkeit regelmäßig zu plakativ dargestellt. In dieser Darstellung sind Belege für ihre Wirksamkeit oder das Gegenteil davon nicht plausibel zu kommunizieren. Zweifellos konsumieren Reiche mehr, wenn sie mehr Geld zur Verfügung haben. Dieser Konsum kann punktuell Arbeitsplätze schaffen und das Wirtschaftswachstum insgesamt fördern, doch der Effekt dürfte bei Weitem nicht so hoch ausfallen wie eine stärkere Nachfrage durch die breite Bevölkerung, wenn diese etwa durch höhere Mindestlöhne mehr Geld in der Tasche hat.

Wenn sich Reiche Luxusgüter kaufen, hat das auf die Beschäftigungsquote nur einen sehr kleinen Effekt, denn in der Luxusgüterindustrie sind nicht sehr viele Arbeitnehmer*innen beschäftigt. Deutlich höher dürfte der Effekt ausfallen, wenn Unternehmenssteuern gesenkt werden und Mittelständler dadurch ihre Betriebe ausbauen, weil sie über mehr Liquidität verfügen. Diese Effekte müssten aber genauer untersucht werden.

Wer hat Mathe erfunden? Geschichte der Mathematik


Die Mathematik beginnt mit dem Zählen, das der Homo sapiens wahrscheinlich schon sehr lange beherrscht – nachweislich seit rund 50.000 Jahren, aber vermutlich auch noch länger. Für die Zahlen bis 10 oder 20 nutzten die frühen Menschen ihre Finger und Zehen als Vergleichsmaßstäbe.

Wer hat Mathe erfunden? Geschichte der Mathematik

In den modernen Sprachen ist feststellbar, ob sie eine Reihe bis 10 nur mit den Fingern oder eine Reihe bis 20 mit Fingern und Zehen bildeten: Im Deutschen, Englischen und vielen weiteren Sprachen setzen die Zahlwörter ab 11 auf denen ab 1 auf, im Französischen hingegen nicht. Dort gibt es bis 20 völlig eigene Zahlwörter. Die frühen Franzosen vor 50.000 Jahren zählten also Finger und Zehen ab, um eine Reihe bis 20 zu bilden.

Das Zählen entwickelte sich wie die Sprache beim Übergang vom Tierreich zum Menschen. Auch Tiere können zählen. Die Bienen etwa zählen für ihre Orientierung Wegmarken ab, Pferde erkennen die ihnen angebotene Futtermenge, Schimpansen zählen an Geräuschen die Zahl ihrer Artgenossen in der Nähe ab. Einige Tiere scheinen sogar rechnen zu können, wie aufwendige Experimente offenkundig nachweisen konnten.

Als schließlich die alten Ägypter vor rund 4.500 Jahren ihre ersten Pyramiden bauten, war die Mathematik schon relativ weit entwickelt: Ohne sie wären diese Bauwerke nicht möglich gewesen.

Was weiß man über die Mathematik vor rund 5.000 Jahren?

Die Ägypter berechneten die Formen ihrer Pyramiden und deren Tunnelgänge und Kammern sehr exakt. Allerdings hielten sie ihre Aufzeichnungen auf Papyros fest, der die Zeiten kaum überdauert, weshalb von ihrer Mathematik nur spärliche Fragmente überliefert sind. Die zeitgleich zur kulturellen Blüte aufsteigenden Babylonier hingegen ritzten ihre Mathematik in Tontafeln, von denen viele erhalten blieben. Die babylonische und ägyptische Mathematik unterschieden sich zwar, jedoch kannten beide Kulturen die vier Grundrechenarten und auch schon Annäherungen an die Kreiszahl π (Pi). Die Belege für die chinesische, indische und islamische Mathematik sind jünger, was wiederum daran liegt, dass Aufzeichnungen leider nicht erhalten blieben. Wichtig zu wissen: Die frühe Mathematik nutzte in verschiedenen Kulturen unterschiedliche Zahlsysteme, die auf 6, 10, 12 oder 60 basieren konnten.

Die Entwicklung einzelner mathematischer Teilgebiete

Die alten Ägypter, die Babylonier und nach ihnen die Griechen und Römer widmeten sich sehr intensiv der Geometrie, weil sie diese für ihre Bauwerke benötigten. Sie konnten aber auch gut Löhne oder Getreidemengen berechnen. Die persischen und arabischen Mathematiker ab der Zeitenwende begründeten die Algebra, die sich nach ihren europäischen Eroberungsfeldzügen in den ersten christlichen Jahrhunderten über Spanien nach Europa verbreitete. Dort wurde sie an Universitäten und Klosterschulen gelehrt. Die höhere Algebra, die analytische Geometrie, die Wahrscheinlichkeitstheorie und die Analysis entwickelten europäische Mathematiker ab der Renaissance. Bis zum 19. Jahrhundert blieb fortan Europa das Zentrum der mathematischen Forschung, bis im 20. Jahrhundert US-Mathematiker die führende Rolle übernahmen.

Erste Blüte der griechischen Mathematik

Den Griechen verdanken wir viele mathematische Erkenntnisse. Ihre wissenschaftlichen Entdeckungen fanden in vier Hauptperioden statt:

  • Ionische Periode (600 – 400 v. Chr.)
  • Athenische Periode (400 – 300 v. Chr.)
  • Alexandrinische Periode (300 – 200 v. Chr.)
  • Spätzeit (200 v. Chr. – 300 n. Chr.)

Pythagoras, von dem wir alle den berühmten Flächenberechnungssatz a² = b² + c² kennen, wird der Ionischen Periode zugerechnet und soll quasi der Stammvater der antiken griechischen Mathematik sein. Er erhob sie zur Wissenschaft und Philosophie, während die Babylonier und Ägypter 2.000 Jahre zuvor eher aus rein praktischen Gründen gerechnet hatten.

Die nach Pythagoras benannte mathematische Schule der Pythagoreer entdeckte unter anderem irrationale Zahlen anhand geometrischer Streckenverhältnisse. Diese Forschungen setzten später Platon, Aristoteles und Archimedes fort. Letzterer konnte die Kreiszahl π schon wesentlich genauer als vor ihm die Ägypter und Babylonier berechnen. Eine Zusammenfassung der griechischen Mathematik stammt schließlich von Euklid, der unter anderem die unendliche Reihe der Primzahlen darstellte und dies mit einer strengen, bis dahin beispiellosen Beweisführung belegte.

Die zeitgleich wirkenden römischen Mathematiker wiederum wandten sich wie vor ihnen die Ägypter und Babylonier sehr praktischen Anwendungen zu. Von ihnen stammen Methoden für die Vermessung und das Ingenieurswesen. Ein Zentrum der antiken Mathematik blieb auch nach der Alexandrinischen Periode Alexandria. Dort wirkte die Mathematikerin Hypatia, die im Jahr 415 ein christlicher Mob tötete.

Mathematik in Asien

In anderen Weltgegenden entwickelte sich die Mathematik in etwa zeitgleich zu den Forschungen in Nordafrika und Südeuropa. Die chinesische Mathematik lässt sich bis ins 18. Jahrhundert v. Chr. belegen. Erhalten ist das Lehrbuch Zhoubi suanjing, das vermutlich im vierten bis dritten vorchristlichen Jahrhundert entstand und während der Han-Dynastie (206 v. Chr. – 220 n. Chr.) ergänzt wurde. Auch chinesische Mathematiker kannten schon einen Näherungswert für π.

Im 13. Jahrhundert n. Chr. erreichte ihre Mathematik eine hohe Blüte mit algebraischen Gleichungssystemen. Danach stockte die Forschung. Nach 1600 griffen die Japaner die chinesischen Kenntnisse auf und führten sie fort. In Indien gab es offenkundig schon in vorchristlicher Zeit eine gut entwickelte Geometrie, nur fehlen hierfür fast sämtliche Belege.

Aus dem 6. nachchristlichen Jahrhundert sind astronomische Berechnungen überliefert. In Asien rechnete man übrigens mit einem Dezimalsystem. Unsere Zahlzeichen (1, 2, 3 usw.) leiten sich eigentlich von indischen Symbolen ab, jedoch wurden sie uneinheitlich benannt: Die Araber nannten sie „indische Zahlen“, während sie die Europäer dann von den Arabern als „arabische Zahlen“ übernahmen. Die Japaner wiederum übernahmen sie als „römische Zahlen“, unter denen die Europäer aber die Darstellung von Zahlen mit Buchstaben verstehen (XX = 20, MMXXI = 2021 usw.).

Mathematik in Persien

In Persien und der gesamten islamischen Welt war Bagdad ein wissenschaftliches Zentrum. Die muslimischen Mathematiker hatten Kontakt zur indischen Kultur und übernahmen von ihr die Positionsarithmetik und Sinusberechnungen. Die indische und griechische Trigonometrie sowie die griechische, ägyptische und römische Geometrie entwickelten sie weiter. Die Algebra entwickelten sie selbstständig, die Europäer profitierten davon (siehe oben). Frühe islamische Schriften zur Mathematik sind ab dem 9. Jahrhundert überliefert. Um das Jahr 1000 erreichte die persische Mathematik ihre Hochblüte.

Mathematik der Maya

Die Maya, deren Hochkultur etwa 400 – 900 n. Chr. existierte, wandten sich in ihren mathematischen Forschungen sehr stark der Astronomie zu, konnten sehr gut Kalender berechnen und nutzten als Zahlenbasis wie die frühen Franzosen die 20, weil sie ebenso Finger und Zehen abzählten. Ihre Mathematik soll höher als die im Orient entwickelt gewesen sein. Ihr Kalender war in dieser Epoche der weltweit genaueste.

Europäische Mathematik ab dem Mittelalter

Die Europäer konnten auf dem Import der arabischen Mathematik aufsetzen, auch griechische und römische Schriften studierten sie intensiv. Der Mittelmeerraum wurde zu einem wichtigen Zentrum der mittelalterlichen europäischen Mathematik, ein wichtiger Vertreter war Leonardo da Pisa (1170 – 1240), von dem die Fibonacci-Zahlenreihe stammt. Mathematik wurde in den Klosterschulen und an den damals gegründeten Universitäten gelehrt.

Die mathematischen Teilgebiete waren die Arithmetik, die euklidische Geometrie, die Astronomie und die musikalische Harmonielehre, welche die Gelehrten unter mathematischen Gesichtspunkten betrachteten, was grundsätzlich nicht falsch ist. Mit Kalenderberechnungen mussten sich mittelalterlichen europäischen Mathematiker noch intensiv beschäftigen. Unter anderem ging es darum, das Datum für das Osterfest exakt zu berechnen.

An den mittelalterlichen Universitäten und Klosterschulen wurden Werke der antiken griechischen Mathematik abgeschrieben und ins Lateinische übersetzt. Ab dem 13. Jahrhundert führten die Europäer neue Methoden ein, entwickelten Experimente und die sichere Beweisführung, stießen in unendliche Zahlenreihen vor und befassten sich im Zuge der großen Kirchenbauten auch intensiv mit praktischer Mathematik.

Auch die sich rasant entwickelnde Geldwirtschaft erforderte neue mathematische Methoden. Der Deutsche Adam Ries(e) übertrug das Rechnen ins Deutsche, auch wurden im 15. bis 16. Jahrhundert die vorher geltenden römischen durch arabische (eigentlich: indische, siehe oben) Ziffern ersetzt. Es folgten die Wahrscheinlichkeitsrechnung, die Kombinatorik nach Blaise Pascal, die Variationsrechnung nach Pierre de Fermat, dessen Annahmen erst 1995 mathematisch bewiesen werden konnten, die Differential- und Integralrechnung ab dem 17. Jahrhundert sowie die Infinitesimalrechnung nach Newton und Leibniz.

Ab dem 18. und 19. Jahrhundert stieß die Mathematik in höhere Sphären vor, auf denen später komplexe technische Leistungen wie die Raumfahrt aufsetzten. Die mathematische Forschung ist keinesfalls an ihrem Ende: Mathematiker entdecken immer wieder neue spannende Probleme und suchen nach Lösungen dafür.

Was ist ein Exploit? Bedeutung, Definition, Erklärung


Ein Exploit nutzt Schwachstellen bei der Softwareprogrammierung für Hackerangriffe oder auch für die Überprüfung des Programms aus. Das Wort kommt vom Englischen to exploit = ausnutzen. Ein Zero-Day-Exploit nutzt solche Sicherheitslücken gleich nach dem Start des Programms aus, wenn es für dieses noch keinen Patch des Herstellers gibt.

Wie kann ein Exploit funktionieren?

Es gibt in Programmen a) Schwachstellen bei der Neuprogrammierung und b) systemische Schwachstellen. Letztere existieren beispielsweise bei den gängigen Home- und Officerechnern, deren sogenannte Von-Neumann-Architektur nicht zwischen den Nutzdaten und dem Programmcode unterscheidet. Diese Architektur schreibt unter anderem bei einem Pufferüberlauf den Angreifercode in dafür nicht gedachte Speicherbereiche. Das erleichtert den Manipulationsversuch. Es gibt noch weitere Möglichkeiten wie Formatstringangriffe. In so einem Fall übergibt das Programm Benutzereingaben ungefiltert an Formatierungsfunktionen. Auch können Hacker oft eigenes Codes ausführen lassen, die ihm Privilegien des angegriffenen Programms via Shell liefern. Exploits lassen sich wie folgt klassifizieren:

  • Remote-Exploits
  • lokale Exploits
  • DoS-Exploits
  • SQL-Injection-Exploits
  • Command-Execution-Exploits
  • Zero-Day-Exploits

Lokale Exploits werden beim Öffnen von scheinbar völlig harmlosen Dateien wie etwa Officedokumenten aktiviert, wenn die Anwendung für diesen Dateityp durch eine unsaubere Verarbeitung eine Sicherheitslücke aufweist. Der Exploit kann sich in einer Excel- oder Worddatei und auch in einem PDF-Dokument verbergen. Er nutzt die Sicherheitslücken im betreffenden Programm aus und erhält damit eine höhere Privilegienstufe. Mit dieser kann er schädlichen Code ins Betriebssystem laden. Die gesamte Aktion heißt Payload (Nutzlast).

Es gibt etliche Exploit-Frameworks wie Metasploit, die ein separates Konfigurieren der Payload ermöglichen, doch sie kann auch im Exploit fest verankert sein. Remote-Exploits werden aus dem Netz mit manipulierten Datenpaketen eingespielt. Sie zielen auf Schwachstellen der Netzwerksoftware. DoS-Exploits lösen einen Denial-of-Service-Angriff aus, überlasten also das System, führen aber keinen fremden Programmcode aus und beinhalten auch keine Privilegieneskalation. Command-Execution-Exploits erlauben dem Angreifer, die Ausführung des Programmcodes auf dem angegriffenen Rechner zu steuern. Diese Exploits gelten als sehr gefährlich, weil sich damit das angegriffene System komplett übernehmen lässt. SQL-Injection-Exploits zielen speziell auf SQL-Datenbanken.

Beispiele für Hackerangriffe mit Exploits

2012 schaltete ein Exploit den Securitymanager von Java ab und konnte danach auf den betroffenen Rechnern beliebige Programme starten. 2014 trat eine Zero-Day-Lücke in MS-Office-Dokumenten nahezu aller Windowsversionen auf. Ebenfalls im Jahr 2014 griffen Hacker mit einem SQL-Injection-Exploit Kundendaten aus dem Playstationnetzwerk von Sony ab. Ebenfalls mit einem SQL-Injection-Exploit wurde das beliebte CMS WordPress im Jahr 2015 angegriffen. Die Sicherheitslücke befand sich im Analytics-Plug-in Slimstat. Rund eine Million Websites weltweit hätten damit von Hackern übernommen werden können. Der tatsächliche Schaden war weitaus geringer. Hacker testen vielfach nur Exploits, um sie gegebenenfalls zu einem späteren Zeitpunkt zu verwenden.

Gefahren durch Zero-Day-Exploits

Zero-Day-Exploits geben den Entwicklern null Tage (zero days) Zeit für einen Sicherheitspatch. Hacker wissen, dass neue Programme anfällig für Schwachstellen sind, weshalb sie gezielt auf Zero-Day-Exploits setzen. Die Gefahr besteht darin, dass die Schwachstelle manchmal erst lange nach diesem ersten Angriff aufgedeckt wird. Die Hacker selbst halten die Zero-Day-Exploits geheim, damit sie lange mit ihnen operieren können. Sie handeln auch untereinander damit oder bieten sie den Softwareentwicklern für hohe Summen an, was praktisch eine Erpressung darstellt.

Mit der zunehmenden Digitalisierung und damit der steigenden Programmvielfalt werden auch Zero-Day-Exploits immer interessanter: Die Preise hierfür haben sich im letzten Jahrzehnt in etwa verzehnfacht. Allerdings nutzt der Staat der Exploits ebenfalls. Der BND kauft offenbar Zero-Day-Exploits an und hört damit SSL-Verschlüsselungen ab. Solche Exploits kosten teilweise 100.000 Dollar. Die Bundesregierung soll dem BND für eine entsprechende Aktion (Codename „Swop“) allein 2015 rund 4,5 Millionen Euro zur Verfügung gestellt haben.

Gegenreaktion der Softwareentwickler

Private Entwicklerfirmen und staatliche Organe suchen seit etwa 2015 sehr gezielt und intensiv selbst nach möglichen Exploits, um die Sicherheitslücken schneller schließen zu können. Sobald sie diese erkannt haben, veröffentlichen die Hersteller Patches, mit denen die eigenen Systeme abgesichert, aber auch die Hackersysteme angegriffen werden. Das ist schon praktischer Cyberwar. Dieser dürfte sich künftig verschärften, weil heute alle modernen Systeme digitalisiert sind und durch Exploits große Gefahren für die Infrastruktur bestehen. Schon 2014 wurde nachgewiesen, dass sich sogar die digitale Steuerung moderner Autos per Exploit übernehmen und sich die Fahrzeuge damit fernsteuern lassen. Schwachstellen für Hackerangriffe fanden sich unter anderem in Infotainmentsystemen.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung


Soft Robotics, also „weiche Roboter“, imitieren Bewegungsabläufe aus der Natur. Statt starrer Materialien werden weiche, organische Strukturen in der Robotik eingesetzt.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung

Roboter, die sich unmenschlich und abgehakt bewegen, gehören der Vergangenheit an. Soft Robotics imitieren Bewegungen aus der belebten Natur. Das ermöglicht neue Einsätze in der Industrie, denn die Technologie lässt sich von der Biologie inspirieren.

Roboter sollen auf diese Weise intuitiv und einfühlsam agieren können. Neben weichen Strukturen erreichen das Sensoren oder Algorithmen. Forschende arbeiten an der Weiterentwicklung, darunter Material- und Biomechanikforscher. Softwareentwickler machen das Team komplett.

Hauptanwendungsfelder finden sich in der Industrie. Aktuell werden immer noch sehr viele Roboter eingesetzt, die zwar smart agieren können, dafür aber nicht nachgiebig sind. Roboter sollen Menschen unterstützen und Hand in Hand mit ihnen arbeiten. Das ist auch das Ziel von Soft Robotics. Sie können vor allem im Bereich der Pflege, zum Beispiel als Serviceroboter, eingesetzt werden. Auch als Assistenzroboter in der Medizintechnik sind sie denkbar.

Warum sind harte Roboter ein Nachteil?

Industrieroboter sind aus der Produktion nicht mehr wegzudenken. Sei es bei der Produktion von Autos oder dem Zusammensetzen von Smartphones: Robotics ist Teil unseres Lebens. Doch sie haben einen entscheidenden Nachteil: Bei dem direkten Austausch mit Menschen sind sie zu hart und können sogar Verletzungen hervorrufen. Softe Roboter sind so weich, dass in der Pflege oder als Servierer in einem Restaurant keine unangenehmen Aufeinandertreffen geschehen können. Die neuartige Struktur macht es möglich.

Wie weit ist der Forschungsstand von Soft Robotics?

Soft Robots befinden sich in stetiger Entwicklung, werden heute aber schon eingesetzt. Das Fraunhofer-Institut und Vertreter aus der Industrie forschen beispielsweise an der Entwicklung. Zu Demonstrationsobjekte zählen unter anderem X‑förmige Kriechroboter und fisch- sowie rochenartige Roboter. Der Bau ist angelehnt an die Natur.

Außerdem gibt es Soft Roboter, die Händen ähneln und greifen können. Das Potenzial für Wissenschaft und Industrie ist groß.

Wie werden Soft Robots hergestellt?

Ein Soft Roboter benötigt neben dem Material eine intelligente Software. Algorithmen paaren sich mit naturnahen Formen. Funktion und Design sollen möglichst naturtreu sein oder gar an ein Tier erinnern. Komplexere Roboter werden aus CAD-Dateien in generativen Fertigungsverfahren erstellt.

Die verwendeten Materialien bestehen in der Regel aus:

  • natürlichem Gewebe wie Muskeln, Haut, Knorpel
  • Elastischen Materialien
  • Hydrogele

Damit sich der weiche Roboter auch geschmeidig bewegen kann, wird eine Aktorik benötigt. Diese lässt die einzelnen Komponenten bewegen. Hier kommen entweder Spanndrähte, elektroaktive Polymere oder Formgedächtnismaterialien zum Einsatz. Das können Silicone sein. Über Reize wie Licht, Temperatur oder Strom werden Kräfte gezielt in die Struktur des Roboters geleitet. Dieser Prozess kann auch mechanisch verlaufen.

Auf jeden Fall bedarf es ausreichender elektronischer Komponenten, um den Roboter zu steuern.

Welche Herausforderungen bestehen?

Beim Betrieb von Soft Robotics gibt es eine zentrale Herausforderung: die Energieversorgung. Im besten Fall gibt es tragbare Energiequellen, die ebenfalls klein und weich sind. Das können zum Beispiel Miniatur-Kompressoren sein. Aktuell wird an Batterie-Systemen gearbeitet.

Die Sensoren von weichen Robotern

Ohne Sensoren kommen softe Roboter nicht aus. Da an den speziellen Robotern alles weich ist, sind es die Sensoren im besten Fall auch. Sie messen Verformungen und können unter anderem Rückschlüsse auf die Steifigkeit des Roboters ziehen.

Softsensoren sind:

  • Softe Dehnungssensoren
  • Weiche Biegesensoren
  • Drucksensoren
  • Kraftsensoren

Softe Roboter als Exoanzüge

Exoanzüge kommen bei der Rehabilitation von Patienten zum Einsatz. Sie helfen Senioren und kräftigen den Körperaufbau. Soft Robotics kann auch hier genutzt werden. Forschende aus Harvard haben aus den Materialien einen Exoanzug entwickelt, der nicht mehr steif sich an den Bewegungsapparat des Menschen anpasst. Dabei handelt es sich um Metallgerüste, die mit motorisierten Muskeln ausgestattet sind. Die weicheren Roboteranzüge spiegeln die innere Skelettstruktur des Trägers wider. Angehobene Gegenstände fühlen sich in einem Exoanzug viel leichter – fast schwerelos – an. Verletzungen auf der Arbeit werden verhindert.

Was bedeutet „false balance“? Bedeutung, Definition, Erklärung


Die „false balance“ ist eine falsche Ausgewogenheit oder Gleichgewichtung von Argumenten zu einem Thema. Sie spielt vornehmlich im Wissenschaftsjournalismus eine Rolle, der auch politisch stark beachtet wird und daher auf eine ausgewogene Berichterstattung achten sollte.

Ein Beispiel wäre die unangemessen starke Darstellung von Argumenten der Leugner eines menschengemachten Klimawandels. Es gibt solche Argumente, doch sie werden von einer absoluten Minderheit (weniger als ein Prozent aller Wissenschaftler) vertreten. Ihnen also in der medialen Berichterstattung einen Raum von deutlich mehr als einem Prozent einzuräumen wäre eine „false balance“.

Effekte der „false balance“

Der wichtigste Effekt der unausgewogenen, nämlich nahezu gleichwertigen Darstellung von Minderheiten- und Konsensmeinung ist der öffentliche Eindruck, die Argumente beider Lager seien gleichwertig. Das sind sie nicht, wenn eine teilweise überwältigende Mehrheit aller Forscher zu einem einheitlichen Ergebnis kommt, das der Minderheitenmeinung widerspricht. Allerdings müssen Minderheitenmeinungen zugelassen und auch publiziert werden. Das gibt es nicht nur in der Wissenschaft, sondern beispielsweise auch vor Gericht: Hier würdigt der Richter vom Grundsatz her zunächst vier Meinungen: die beiden Meinungen der Kontrahenten, eine Mehrheitsmeinung unter den Juristen und eine Minderheitenposition.

Manchmal setzt sich auch Letztere durch, wenn sie deckungsgleich mit der Meinung eines der Kontrahenten ist, der sie sehr gut mit Argumenten unterfüttert. Das bedeutet: Minderheitenmeinungen können manchmal richtig sein, auch wenn daran momentan nur sehr wenige Menschen glauben. In der Wissenschaft verhält es sich genauso. Das von Nikolaus Kopernikus (1473 – 1543) vertretene heliozentrische Weltbild, an das übrigens vor ihm schon andere Astronomen geglaubt hatten, war damals eine Minderheitenmeinung, denn nach christlicher Auffassung stand die Erde im Mittelpunkt der Welt. Dieser Meinung schlossen sich diverse Astronomen und die breite Mehrheit der Bevölkerung an, weil ja auch der Augenschein zu belegen scheint, dass sich die Sonne und andere Himmelskörper um die Erde drehen.

Die Minderheitenmeinung wurde dementsprechend unterdrückt, Giordano Bruno (1548 – 1600) landete für diese Position auf dem Scheiterhaufen (und wurde übrigens erst im Jahr 2000 durch Papst Johannes Paul II. rehabilitiert). Daraus schließen wir, dass Minderheitenmeinungen durchaus gehört werden sollen und es sträflich wäre, ihre Anhänger zu diskriminieren oder gar auf den Scheiterhaufen zu schicken – selbst wenn sie den menschengemachten Klimawandel leugnen. Nur muss die Berichterstattung zu ihren Argumenten ausgewogen ausfallen, damit keine false balance entsteht. Diese kann durchaus gefährlich sein. Menschen schätzen dann aufgrund einer verzerrten Wahrnehmung Risiken falsch ein. Dies war zum Beispiel zu Beginn der Coronapandemie der Fall. Es wurde im ersten Halbjahr 2020 noch übermäßig stark darüber diskutiert und publiziert, welchen Sinn eine Maskenpflicht hat. Die Mehrheit der Wissenschaftler war sich zwar längst darüber einig, dass besonders FFP2-Masken sehr effektiv schützen können, doch die false balance in der Berichterstattung führte bei vielen Menschen zur Maskenverweigerung wegen vermeintlicher Risiken des Maskentragens bei vermeintlicher Nutzlosigkeit der Masken.

Wie kann der Wissenschaftsjournalismus eine false balance unterbinden?

Wissenschaftsjournalisten sollten die Belege für eine Theorie genau überprüfen. Wenn diese fehlen oder sehr schwach sind, könnte die Theorie schwach sein. Des Weiteren können sie evaluieren, wer unter den anerkannten Wissenschaftlern sich welcher Meinung anschließt. Auch sind Argumentationsketten von Vertretern einer Meinung interessant.

Wer eine Position als „wissenschaftlich“ darstellt, aber wenig bis keine wissenschaftlichen Nachweise vorweisen kann und sogar Informationen unberücksichtigt lässt, die seine Meinung widerlegen, ist offenkundig auf dem Holzweg. Diese Evaluation von Wissenschaftsjournalisten ist vor allem dann wichtig, wenn eine Meinung neu auftaucht und sich die Wissenschaftswelt bislang wenig dazu positioniert hat. Es ist dann noch nicht feststellbar, dass es sich um eine Minderheitenmeinung handelt. Da bislang wenig dazu publiziert wurde, ist auch noch keine false balance festzustellen.

Die Journalist*innen können sich also noch nicht an mehrheitlichen Meinungen orientieren. Beim Klimawandel ist das mit Stand 2021 sehr viel einfacher: Nach einschlägigen Untersuchungen (Sichtung von Publikationen zum Thema) glauben ~99 % aller Wissenschaftler, dass die Industrialisierung seit dem 19. Jahrhundert unseren gegenwärtigen Klimawandel verursacht hat und noch verursacht. Wer also eine haltlose Gegenthese als plausibel präsentiert, muss mit viel Gegenwind rechnen. Sollte aber dieser These zu viel Raum in der öffentlichen Berichterstattung gegeben werden, wäre dies eine false balance. Es genügt für die ausgewogene Darstellung, die These als „Gut-zu-wissen-Information“ am Rande zu erwähnen. Dass es zu einer false balance im Wissenschaftsjournalismus kommt, hat zwei Gründe:

  • #1 Die Journalisten kennen natürlich das oben zitierte Beispiel von Kopernikus und Giordano Bruno. Es gibt diverse weitere solcher Geschichten aus der Wissenschaftsgeschichte. Sie möchten daher nicht als Unterdrücker einer Minderheitenposition dastehen, die sich möglicherweise irgendwann einmal als richtig erweist.
  • #2 Manche Minderheitenpositionen sind auf den ersten Blick so spannend, dass sie auch von seriösen Journalisten gern zitiert werden – vor allem dann, wenn diese Berichterstattung eigentlich keinen Schaden anrichtet, sondern eher dem Infotainment dient. Berichte über UFO-Sichtungen fallen möglicherweise in diese Kategorie. Die Allgemeinheit findet es sehr interessant, dass vielleicht Aliens unter uns wandeln oder uns von einem benachbarten Sonnensystem aus beobachten. Die seriöse Wissenschaft hält das für extrem unwahrscheinlich, doch was macht es schon, darüber zu berichten?

Gibt es eine false balance auch bei anderen Themen?

Der Begriff wird nur für Fachthemen und speziell für den Wissenschaftsjournalismus verwendet. Bei der politischen Berichtserstattung ist es hingegen sinnvoll, gegensätzliche Meinungen durchaus gleichwertig darzustellen. Das wird auch so praktiziert, wie wir aus diversen Talkshows wissen. Dort wird sogar penibel darauf geachtet, den Kontrahenten die annähernd gleiche Redezeit einzuräumen, selbst wenn einer von ihnen eine (absolute) Minderheitenposition vertritt. Die Öffentlichkeit muss das aushalten, auch wenn dadurch Vertreter extremer Positionen zu Wort kommen. Solange diese Vertreter legal handeln und sogar in den Bundestag gewählt wurden, haben sie ein Anrecht darauf, gehört zu werden. In der Wissenschaftswelt hingegen, die mit Studien und handfesten Nachweisen operiert, ist es legitim, der Mehrheitsposition auch mehr Platz für die Darstellung zu geben, damit keine false balance entsteht.

Beispiele für false balance und ihre Folgen

Die Tabakindustrie leugnete bis ins letzte Drittel des 20. Jahrhunderts die gesundheitlichen Gefahren des Rauchens. Es gab zwar schon vor mindestens 100 Jahren Studien, die solche Gefahren aufzeigten, doch es gab auch immer Gegenstudien. Die Lobbyisten der Tabakindustrie schafften es, Gegenargumente („Rauchen ist nicht oder nur sehr wenig schädlich“) so aufzubauschen, dass in der Öffentlichkeit ein verzerrtes Bild von den Gesundheitsgefahren entstand und bis heute Tabakrauchen erlaubt ist.

Eigentlich müsste es wie viele andere Drogen verboten werden. Die Tabaklobbyisten nutzten den Wunsch der Wissenschaftsjournalisten nach einer ausgewogenen Berichterstattung aus und ließen dadurch eine gefährliche false balance entstehen. Auch dass Journalisten gern Kontroversen aufgreifen, spielte dieser false balance in die Hände. Im Jahr 2021 gibt es im Grunde keine Kontroverse mehr dazu: Tabakrauchen ist schädlich und Punkt, niemand widerspricht mehr. Bis zu dieser Einsicht vergingen viele Jahrhunderte mit vielen Millionen Tabaktoten.

Ein jüngeres Beispiel für false balance liefern die Kontroversen um den menschengemachten Klimawandel. Diese false balance ist gut untersucht. So berichteten zwischen den 1980er-bis frühen 2000er-Jahren zumindest US-Medien so „ausgewogen“ zum Thema, dass die Öffentlichkeit zweifeln musste, ob nun der Mensch oder andere Einflüsse den Klimawandel auslösen. Rund 53 % aller Zeitungsartikel jener Zeit gaben beiden Meinungen in etwa gleich viel Raum: Menschen verursachen den Klimawandel, oder sie tun es nicht. Das wirkte bis zur Präsidentschaft von Donald Trump ab 2016 nach, der sich immer noch auf Argumente der Leugner eines menschengemachten Klimawandels stützte, um die einheimische Kohleindustrie nicht zu gefährden.

Bis in die frühen 2000er-Jahre betonten 35 % aller Artikel in US-Medien, dass die Erderwärmung eindeutig vom Menschen kommt, ließen aber die Gegenthese von den natürlichen Ursachen ebenso gelten, wenn auch mit weniger Raum. Lediglich 6 % der Artikel publizierten den schon damals vorherrschenden wissenschaftlichen Konsens, dass wir Menschen unser Klima beschädigen. Die false balance zu diesem Thema nahm übrigens zwischen den frühen 1980er- und den späten 1990er-Jahren nicht ab, sondern zu: Es setzten gezielte Desinformationskampagnen einer organisierten Klimaleugnerszene ein, die vermutlich durch die Kohle- und Autolobby gesponsort wurde. Also stellten die Wissenschaftsjournalisten vermehrt die Argumente beider Seiten dar, was zu jener Zeit schon eine extreme false balance bedeutete.

Was sind Trap Streets und Paper Towns? Bedeutung, Definition, Erklärung


Immer dann, wenn von sogenannten Trap Streets und Paper Towns die Rede ist, handelt es sich um Fälschungen. Eine Vielzahl dieser Fälschungen beziehen sich auf Karten, die bei Google Maps veröffentlicht worden sind.

Kuriose Straßennamen und Ortsbezeichnungen

Der Bonner Galgenpfad oder Vordery in Hamburg sind nur einige von vielen dieser Beispiele. Im Falle dieser beiden Straßenbezeichnungen wird dem Nutzer einer Karte unter Umständen nicht im ersten Momenten ersichtlich werden, dass es sich hierbei um Fake-Bezeichnungen handelt, denn Straßen dieser Art gab es nie und wird es unter Umständen auch nie geben.

Doch was ist der Sinn einer solchen irreführenden Bezeichnung? Warum werden diese falschen Straßennamen oder in einigen Fällen sogar ganze Landschaftszüge, die so nicht existieren, hier vermerkt? Im Prinzip ist es ganz einfach. Jeder Kartenhersteller, der diese Bezeichnungen in einer neu veröffentlichten Karte einsehen kann, hat nun die Möglichkeit ein Plagiat aufzudecken. Der Diebstahl geistigen Eigentums und auch die Kopie von Karten sind keine Bagatellen. In nicht wenigen Fällen landen Vorgänge dieser Art vor dem Gericht und werden hart bestraft.

Was sind Trap Streets? Bedeutung, Definition, Erklärung

Bei den sogenannten Trap Streets handelt es sich, wie bereits angedeutet, um falsche Straßen, die in der Realität nicht existent sind. Die Kopie des jeweiligen Kartenwerks soll somit um ein Vielfaches erschwert werden. Man könnte hier auch sagen, dass eine Trap Street eine gute Alternative zu einem klassischen Wasserzeichen darstellen kann.

Besonders oberflächliche und wenig gewissenhafte Kartendiebe und Fälscher werden die fehlerhaften Einträge nicht bemerken und somit auch in die Raubkopie übernehmen. Mitunter werden Trap Streets allerdings auch verwendet, um andere Nutzer ganz bewusst in die Falle zu locken oder zumindest zu täuschen. Dies war bereits im Zweiten Weltkrieg üblich. Hier hatte die Sowjetunion den gegnerischen Truppen ganz bewusst falsche Karten zukommen lassen, damit diese in Schwierigkeiten gerieten.

Was konkret sind Paper Towns? Bedeutung, Definition, Erklärung

Bei den sogenannten Paper Towns handelt es sich schlichtweg um frei erfundene Städte. Auch hier wurde in der Vergangenheit versucht andere Nutzer zu täuschen. Im Falle eines Plagiats wird der Fälscher wohl auch in diesem Fall die falschen Städte übernehmen.

Vielen Menschen ist der Begriff Paper Towns allerdings auch noch in einem komplett anderem Zusammenhang geläufig. Hierbei handelt es sich um einen Film aus dem Jahre 2015, der eine Romanverfilmung von John Green ist und insbesondere bei allen Liebhabern romantischer Mysterien-Verfilmungen sehr beliebt sein dürfte.

Die Liste von Fake-Orten ist unendlich lang

Eine ganz besonders berühmte Paper Town ist Argleton. Diese Stadt wurde im Nordosten von England verortet. Es handelte sich um eine lebhafte Stadt mit bedeutenden Hotels und Geschäften, zumindest in der Fantasie des Verfassers, denn Argleton ist ein mehr oder minder unbedeutendes Feld. Vom bunten Treiben einer nordenglischen Stadt kann hier also tatsächlich keineswegs die Rede sein.

Die benannten Häuser, Geschäfte und Hotels gab es allerdings in der Realität tatsächlich. Jedoch befanden sich diese einige Kilometer weit entfernt. Als es zu diesem Eintrag kam, hatte Google Maps noch nicht alle Straße und Orte selbst abgefahren. Als der Schwindel im Jahre 2009 aufflog, wurde dieser Eintrag dann jedoch ordnungsgemäß entfernt.

Eine überaus berühmte Trap Street ist die Moat Lane im Norden von London. Sie gilt bzw. galt bis zu ihrer Löschung seitens Google Maps als überaus reich an Kurven. Sie befand sich über mehrere Jahre vollkommen zu Unrecht als Eintrag auf Google Maps.

Kartenfälschungen sind ein lukratives Geschäft

Wer hochwertige Karten (heute vor allem digitale Karten) in den Umlauf bringt, kann damit durchaus sehr viel Geld verdienen. Diese selbst zu erstellen und ausreichend Recherche zu betreiben ist jedoch sehr aufwendig. Um die Arbeit entsprechend zu erleichtern versuchen Betrüger durch Fälschungen schneller ans Ziel zu kommen. Wer dabei erwischt wird, muss allerdings mit empfindlichen Geldstrafen rechnen. Trap Streets und Paper Towns sind in diesem Zusammenhang eine wirklich sehr gute Möglichkeit eine solche Fälschung zielgerichtet aufzudecken und nachzuweisen.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung


Immer dann, wenn von einem sogenannten Reply Deboosting die Rede ist, geht es um den bekannten und weltweit genutzten Nachrichtendienst Twitter. Konkret geht es hier um Antworten bei Twitter, die auf einen bestimmten Kommentar oder Beitrag erfolgen. Die jeweiligen Antworten sollen dann durch eine spezielle interne Funktion ausgeblendet werden.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung

Sieht man sich mit einem unbekannten aus der englischen Sprache stammenden Begriff konfrontiert, wird es zunächst sinnvoll sein, eine wörtliche Übersetzung herauszufinden. In diesem Fall ist dies jedoch leider wirklich alles andere als sinnvoll, denn der Begriff Reply Deboosting kann praktisch nicht einfach wörtlich übersetzt werden. Wer wirklich wissen möchte, was sich hinter dieser Begrifflichkeit verbirgt, sollte sich vorzugsweise mit den Funktionen des Nachrichtendienstes Twitters befassen.

Wie bereits angedeutet werden beim sogenannten Reply Deboosting Antworten auf einen Beitrag oder Kommentar per Standard ausgeblendet. Wer dennoch mehr erfahren möchte, muss nun einen zusätzlichen Klick vornehmen. Hierfür gibt es die Funktion „Weitere Antworten anzeigen“. Ist dieser Vorgang ausgeführt erscheinen nun alle verdeckten Antworten.

Unterschiede zwischen Followern und weiteren Mitgliedern auf Twitter

Datenschutz und Anonymität sind wichtige Werte in den sozialen Netzwerken und bei sämtlichen Nachrichtendiensten. Dies hat sich auch bei Twitter verstetigt. Die sogenannte Funktion „Weitere Antworten anzeigen“ ist aus diesem Grund nicht unabhängig vom Status nutzbar. Ist man kein Follower des betreffenden Accounts, erhält man keinen Zugriff auf die zusätzlichen Antworten.

Ausblenden negativer Inhalte

Das sogenannte Reply Deboosting ist jedoch nicht nur unbedingt im Sinne des Datenschutzes und der Privatsphäre erfunden worden. Man kann sich als User regelrecht für ein Reply Deboosting qualifizieren.

Es liegt hier vollkommen in der Macht des Nachrichtendienstes Twitters einzelne Nutzer mit dem Reply Deboosting zu belegen. Hier können dann standardmäßig die Antworten einer bestimmten Person ausgeblendet werden. Dies ist natürlich insbesondere immer dann der Fall, wenn sich ein ganz bestimmter User durch beleidigende oder herabwürdigende Bemerkungen im großen Umfang hervorgetan hat.

Wurde man von Twitter mit einer solchen Funktion belegt, gibt es praktisch keinen realistischen Ausweg mehr. Man kann hier auch nicht zurückrudern, Kommentare richtig stellen oder gar ständig liebevolle Tweets veröffentlichen. Zwar sind diese Dinge aus technischer Sicht durchaus umsetzbar, allerdings erlangt man den alten Standard nicht wieder zurück. Es bleibt auf Dauer bei dieser durchaus sehr unbeliebten Funktion.

Reply Deboosting: Eine neue Form der Sicherheit

Das Internet ist kein rechtsfreier Raum und somit gelten auch auf Twitter überaus strenge Regeln der Kommunikation. In der digitalen Welt ist es besonders leicht bestimmte Leute zu beleidigen oder in die Ecke zu drängen, weil man diesen nicht direkt in die Augen schauen muss. Genau dies weiß auch Twitter und hat mittels Reply Deboosting eine einfache und vor allem auch sehr effektive Funktion geschaffen, die vorbeugt und zudem auch jeder Person einleuchtet.

Ist man mit dieser Funktion belegt, hat man natürlich erhebliche Nachteile und kann Twitter nur noch recht eingeschränkt nutzen. Wer sich jedoch auf Dauer an alle geltenden Regeln hält, wird in diesem Bereich überhaupt keine Probleme bekommen.

Durch die Funktion Reply Deboosting werden Nutzer nicht einseitig eingeschränkt, sondern bestimmte Nutzer vor Beleidigungen und Nachteilen beschützt. Dieses Vorgehen durch den Nachrichtendienst Twitter ist im besonderen Maße vorbildlich und kann außerdem in jedem Fall als sehr fortschrittlich erachtet werden.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung


Das sogenannte Subtweeting wird insbesondere auf dem berühmten und sehr erfolgreichen Nachrichtendienst Twitter zum Einsatz gebracht. Die sogenannten Subtweets nehmen dabei Stellung zu bereits gemachten Kommentaren. Allerdings haben diese immer auch einen ganz bestimmten Bezug zu den Äußerungen einer Person. Subtweets sind dabei nicht selten herablassend, hinterhältig oder zumindest sehr stark kritisierender Natur.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung

Jeder kennt es, wenn man hinter dem Rücken einer anderen Person redet. Unter Umständen ist man selbst auch schon Opfer einer solchen Diffamierung geworden und hat es dann später durch Zufall erfahren müssen.

Beim Subtweeting handelt es sich demnach um das Äquivalent zur realen Welt. Doch warum spricht man hier nun davon, dass etwas hinter dem Rücken einer Person geschieht? Dies ist deswegen der Fall, weil die genannte Person nicht direkt angesprochen wird. Darüber hinaus erfolgt auch innerhalb des Subtweets keine direkte Nennung der Person. Hierbei ist für andere jedoch oft ersichtlich, dass es sich um eine ganz bestimmte Person handelt und dieser kritisiert oder gar herabgelassen werden soll.

Verdeckte und offene Subtweets

Wie das jeweilige Subtweeting genau ausgestaltet wird, hängt immer auch vom jeweiligen Autor des Subtweets und den damit verbundenen technischen Möglichkeiten zusammen. So kann es durchaus sein, dass ein Kommentar für die jeweils angesprochene Person nicht sichtbar ist. Andere Personen können jedoch dieses Subtweet sehen und sich darüber auslassen.

In anderen Fällen kann das Subtweeting jedoch auch vollkommen offen erfolgen. Die gemeinte Person nimmt dann auch alle weiteren Einträge wahr und hat zudem selbst die Möglichkeit darauf zu reagieren.

Eine Kette, die endlos sein kann

Ein Subtweet muss nicht unkommentiert bleiben. Aus einem einzigen Subtweet kann eine durchaus sehr aufgeheizte digitale Unterhaltung entstehen. Dabei muss es außerdem nicht immer sachlich bleiben. Letzteres hängt vor allem auch von der Brisanz des jeweiligen Themas ab. Je brisanter das Thema, desto heftiger ist am Ende oft auch die Konversation. Diese Unterhaltung kann lange und zähe Ausmaße annehmen und somit unendlich wirken.

Mitunter am Rande der Legalität

Im Netz kann man, wie im öffentlichen Leben auch, seine Meinung frei äußern und zur Geltung bringen. Dies sollte jedoch dort enden, wo andere User offen beleidigt, in die Ecke gedrängt oder Umständen sogar bedroht werden. Die Meinungsfreiheit darf nun einmal nicht dazu genutzt werden, um Straftaten zu begehen.

Wird man im Netz offen angegriffen, kann man sich im schlimmsten Fall auch juristisch dagegen wehren. Zudem drohen den Verfassern eventueller Hasskommentare auch Nachteile und Sanktionen seitens der Plattform. So könnte ein Nachrichtendienst, wie zum Beispiel Twitter Subtweets entsprechend löschen. Darüber hinaus können Nutzer, die mehrfach gegen die Richtlinien verstoßen, von der Plattform entfernt und somit gelöscht werden.

Subtweeting ist nicht immer unbedingt nur negativ

Subtweets haben tendenziell einen eher schlechten Ruf. Doch genau dies ist mehr oder weniger unnötig, denn Subtweeting pauschal zu verurteilen ist im Prinzip vollkommen falsch.

Im Netz gibt es immer wieder User, die besonders gern auf einen Kommentar antworten und aus diesem Grund sich voll und ganz dem Subtweeting hingeben. Dies muss absolut nicht verwerflich sein und entspricht in vielen Fällen den geltenden Normen und Regeln.

Besonders ist beim Subtweeting jedoch nur, dass bestimmte Personen nicht direkt genannt oder offen angesprochen werden. Man agiert sozusagen gegenüber einer anderen Person anonym. Dies kann durchaus eine Reihe von Ursachen haben. Mitunter möchten, die Leute, die einen Subtweet verfassen, andere Menschen nicht in Verlegenheit bringen. In einem anderen Fall möchte man sich vielleicht auch selbst einfach nicht in Verlegenheit bringen und handelt daher verdeckt.

Was ist „Petrichor“? Bedeutung, Definition, Erklärung


Unter „Petrichor“ wird der typische und unverwechselbare Geruch verstanden, der bei Regen aufkommt. Genauer gesagt: wenn der Regen zu Beginn eines Schauers auf die zunächst noch trockene Erde fällt.

Was ist „Petrichor“? Bedeutung, Definition, Erklärung

Bei dem Begriff handelt es sich um eine Zusammensetzung zweier Wörter aus dem Altgrichischen, nämlich einerseits „Petros“ für Stein und andererseits „Ichor“, das die Flüssigkeit bezeichnet, das anstelle von Blut in den Adern der klassischen griechischen Götter geflossen sein soll.

Und obwohl es sich bei Petrichor um ein natürliches Phänomen handelt, das den Menschen folglich seit tausenden von Jahren bekannt ist, wurde der Begriff erst 1964 erstmals verwendet, und zwar von den australischen Chemikern Isabel J. Bear und Richard G. Thomas in einem Artikel für das britische Fachmagazin „Nature“. In ihrem Beitrag lieferten die Forscher erstmals eine wissenschaftliche Erklärung für das Zustandekommen des typischen Geruchs.

Die Wissenschaft hinter dem Petrichor

Bear und Thomas beschreiben in ihrem Artikel, dass bestimmte Pflanzen während trockener Perioden ein gelbliches, ätherisches Öl mit komplexer Zusammensetzung – mehr als 50 Stoffe sind beteiligt – freisetzen, das anschließend von Gesteinen und tonhaltigen Böden aufgenommen und gespeichert wird. Beginnt es nun zu regnen, dann gelangt dieses Öl in die Luft, und zwar gemeinsam mit einer anderen Substanz, dem Geosmin. Dies ist ein von im Boden lebenden Mikroorganismen produzierter Alkohol, der einen stark muffigen Geruch besitzt und generell für den typischen Geruch von Erde – und auch von Schimmelpilzen – verantwortlich ist. Die menschliche Nase ist aus bislang nicht geklärten Gründen äußerst empfindlich für Geosmin, sie kann es schon bei einer geringen Konzentration von nur 0,1 Teilen pro Milliarde wahrnehmen.

Wenn nun das Öl und das Geosmin bei einsetzendem Regen gemeinsam an die Luft gelangen, dann vermischen sie sich dort und erzeugen zusammen den unverkennbaren „Regengeruch“, den Petrichor.

Etwas später konnten Bear und Thomas auch erklären, was die eigentliche Funktion des von den Pflanzen abgesonderten Öls ist. Im Jahr 1965 veröffentlichten sie, wiederum in der „Nature“, einen weiteren Artikel, in dem sie darlegten, dass das Öl dazu dient, die Keimung von Pflanzensamen und das frühe Pflanzenwachstum in der Trockenzeit zu verzögern.

Im Jahr 2015 schließlich konnten Wissenschaftler des Massachusetts Institute Of Technology mithilfe von Hochgeschwindigkeitskameras auch den genauen physikalischen Prozess der Freisetzung von Petrichor beobachten und entschlüsseln. Hierzu führten sie insgesamt etwa 600 Experimente mit 28 Bodenoberflächen und verschiedenen Arten von Regen durch. So stellten die MIT-Forscher fest, dass ein Regentropfen, der auf eine poröse Oberfläche fällt, dazu führt, dass die Luft in der Pore winzige Bläschen bildet. Diese steigen an die Oberfläche des Tropfens, wo sie platzen und dabei Aerosole freisetzen. Diese Aerosole tragen die Duftstoffe, aber auch Bakterien und Viren in die Luft. Tendenziell scheinen langsam fallende Regentropfen eine größere Menge an Aerosolen freizusetzen. Es wird angenommen, dass dies der Grund dafür ist, dass Petrichor besonders bei leichtem Regen auftritt. Wenn es zu lang oder zu stark regnet, bildet das Wasser gar eine undurchlässige Schicht auf dem Erdboden. Aerosole können dann nicht mehr freigesetzt werden, und der Petrichor verschwindet.

Die Aerosole, die sich beim Regen bilden, sind so klein, dass sie schon vom leisesten Lufthauch weggeweht werden. Deshalb ist es möglich, Regen schon zu riechen, wenn er noch kilometerweit entfernt ist.

Petrichor in der weiteren Forschung

Da Petrichor zuerst in Australien wissenschaftlich untersucht wurde, verwundert es nicht, dass besonders dort auch weiter an dem Thema geforscht wurde. So geht der Biologe Hugh Tyndale-Biscoe in seinem Buch über das Leben der Beuteltiere davon aus, dass der markante Geruch bei weiblichen Kängurus die Paarungsbereitschaft auslöst. Und wenn der Duftstoff ins Wasser gelangt, dann signalisiert er offenbar den dort lebenden Fischen und Wirbellosen, dass das Wetter nun feucht genug ist, um mit der Paarung zu beginnen. Diese vermuteten Zusammenhänge müssen allerdings noch eingehender erforscht werden, bevor sie als gesichert gelten können.

Kurioses zu / über Petrichor

Da Petrichor von den meisten Menschen als angenehm empfunden wird, auch wenn einige ihn nicht ausstehen können, gibt es das Aroma längst auch künstlich zu kaufen. So werden etwa Duftkerzen oder Räucherstäbchen mit Petrichor-Geruch angeboten, und als Zusatz in Raumluft-Befeuchtern soll er für eine gute Atmosphäre daheim sorgen.

Was ist Threat Intelligence? Bedeutung, Definition, Erklärung


Threat Intelligence oder auch der Threat Intelligence Service ist für die Lieferung von aktuellen Informationen in Bezug auf die Bedrohungslage in Form von Cyberangriffen oder andere Gefahren auf die IT bzw. Netzwerke. Um die Bedrohungslage zu analysieren werden die Informationen durch den Service aufbereitet, aus unterschiedlichen Quellen zusammengestellt und dem Unternehmen bzw. dem Auftraggeber zur Verfügung gestellt.

Welche Arten von Threat Intelligence sind existent?

Threat Intelligence kann von allgemeinen, nicht-technischen Informationen bis hin zu technischen Details über bestimmte Angriffe reichen. Folgend werden die möglichen Arten von Threat Intelligence:

Die strategische Threat Intelligence: Strategische Threat Intelligence sind allgemeine Informationen, welche die etwaigen Bedrohungen in einen Kontext stellen. Die Informationen, welche den jeweiligen Unternehmen nachgewiesen werden können, sind nicht technisch. Ein mögliches Beispiel diese Art von Threat Intelligence ist bspw. eine Risiko-Analyse, welche die Entscheidung für ein Business hinsichtlich der Gefahr für Cyberangriffe untersucht und detailliert wiedergibt.

Die taktische Threat Intelligence: Bei der taktischen Threat Intelligence sind Details in Bezug auf die Ausführung und Abwehr von potenziellen Bedrohungen enthalten. Darin integriert sind unter anderem Angriffsvektoren, Infrastrukturen oder Tools, welche durch die Angreifer genutzt werden. Ergänzend dazu werden die Unternehmensarten und Technologien berücksichtigt, auf die Angriff gerichtet sine könnten sowie die dahingehend möglichen Strategien zur Vermeidung dieser Gefahren. Mit den vielfältigen Informationen können potenzielle Gefahren für Unternehmen in Bezug auf die Angriffswahrscheinlichkeit verschiedener Bedrohungen abgeleitet werden. Bei der taktischen Threat Intelligence können Expertinnen und Experten der Cyber-Sicherheit auf Basis taktischer Informationen fundierte Entscheidungen treffen können, um eine bestmögliche Sicherheitskontrolle und Verteidigungsstrategie implementieren zu können.

Die operative Threat Intelligence: Bei dieser Form werden Informationen in Verbindung mit einem aktiven Bedrohungsmanagement durch die eigenen IT-Abteilungen genutzt, damit Maßnahmen gegen einen bestimmten Angriff genutzt werden können. Dabei geht es um konkrete Informationen, welche für das Angriffsszenario genutzt werden konnten, um die Angriffsabsicht, die Angriffsart sowie den Zeitpunkt zu fixieren. Bestenfalls können diese Informationen umgehend von den Angreifern erfasst werden, um die Beschaffung zu erschweren.

Die technische Threat Intelligence: Bei dieser Art geht es um die Lieferung von konkreten Beweisen, dass derzeit ein Angriff stattfindet bzw. Indicators of Compromise (IoCs) vorliegen. Dabei handelt es sich bspw. um außergewöhnliche Netzaktivitäten, besondere Dateien, Eintragungen in Logfiles oder ungewohnte gestartete Prozesse, welche auf eine Kompromittierung eines Computersystems oder Netzwerks hindeuten.
Es gibt Tools für Threat Intelligence, welche mit Unterstützung von künstlicher Intelligenz diese Indikatoren untersucht. Dabei können bspw. Inhalte aus Phishing-Kampagnen, IP-Adressen von C2-Infrastrukturen bzw. Artefakte mit bekannten Mustern von Malware in den Mailadresse analysiert werden.

Die Umsetzungsmöglichkeiten von Threat Intelligence:

Realisierungsmöglichkeiten eines Threat Intelligence Service

Die Realisierung von Threat Intelligence Service kann sich stark unterscheiden und variieren. Bei einfachen Systemen werden aus verschiedenen Quellen Data-Feeds gesammelt. Diese Informationen wurden mit Hilfe von Positiv- oder Negativ-Listen bereinigt und individuell auf das Unternehmen bezogen. Alternative Systeme können ergänzend dazu über aktive und konkret laufende Bedrohungslagen zu informieren. In dieser Konstellation können die akuten Bedrohungen bspw. durch individuelle Meldungen in Form von Warnungen oder als proaktiver Alarm angezeigt werden.

Je nach der Leistungsfähigkeit der Threat Intelligence Services können die Informationen so aggregiert und korreliert werden, dass die gesammelten Informationen direkt an die entsprechenden Firewalls weitergegeben werden können und somit die Gefahr potenzieller Angriffe deutlich reduziert werden können. Mit Hilfe dieser Informationen kann die Firewall aus den gelieferten Informationen automatische Filter automatisch setzen und vorher fixierten Traffic eigenständig blockieren. Der Service von Threat Intelligence kann auf Basis eines Cloud-Dienstes bzw. in Form einer On-Premise-Lösung realisiert werden. Die meisten Anbieter bieten die Dienstleistungen als Abonnement mit zeitlichen Befristungen und fixierten Funktionsumfängen an.

Was sind die Vorteile von Threat Intelligence?

Durch die Nutzung von Tools für Threat Intelligence können Bedrohungen durch Cyberangriffe frühzeitig erkannt und präventiv abgesichert werden. Damit sind Unternehmen in der Lage, die stetig wachsenden Bedrohungen und Angriffsrisiken besser verstanden und frühzeitig erkannt werden. Durch die Nutzung von Threat Intelligence können Angriffe abgemildert werden, welche gegenwärtig stattfinden. Dabei gibt es verschiedene Optionen. Eine Möglichkeit ist die eigenständige Erfassung der Daten durch die firmeneigene IT-Abteilung innerhalb des jeweiligen Unternehmens. Alternativ kann ein Threat Intelligence-Service in Anspruch genommen werden. In dieser Konstellation werden Informationen gesammelt. Dabei können verschiedene Sicherheitspraktiken empfohlen werden und je nach Bedarf und Expertise angeboten werden. Dabei können bspw. Software-Defined Networking (SDN) eingesetzt werden, sodass mit Hilfe moderner Threat Intelligence Optionen die Netzwerke neu konfiguriert werden, um sich gegen diverse Optionen von Cyberangriffen zu verteidigen.

Welche konkreten Threat Intelligence-Tools sind am Markt existent?

Parallel zu kostenpflichtigen Tools im Bereich der Threat Intelligence gibt es auch kostenfreie Optionen im Bereich von Open Source-Tools angeboten. Bei der Erfassung von Informationen in Bezug auf Threat Intelligence gibt es verschiedene mögliche Herangehensweisen:

Der Malware-Disassembler: Mit diesen Tools wird durch Reverse-Engineering versucht, weitere Informationen über die Funktionalitäten von Malware in Erfahrung zu bringen. Dabei werden Sicherheitsingenieure bei relevanten Entscheidungen in Bezug auf die Abwehr von ähnlichen Angriffen in der Zukunft unterstützt.

Die Sicherheitsinformations- sowie Ereignismanagement(SIEM)-Tools: Mit den sogenannten SIEM-Tools erfolgt die Überwachung des Netzwerkes durch Teams mit dem Fokus auf die Sicherheit in Realzeit. Dabei erfolgt die Erfassung der relevanten Informationen über ungewöhnliche Verhaltensmuster sowie verdächtigen Datenverkehr.

Die weiteren Analysetools für den Verkehr im Netzwerk: Die analytischen Tools für den Traffic im Netzwerk sorgen für die Erfassung von Informationen im Bereich der Netzwerke. Ergänzend dazu werden die Aktivitäten des Netzwerkes aufgezeichnet. Mit diesen Informationen konnten Versuche von nicht gerechtfertigten Angriffen erleichtert werden.

Threat Intelligence-Communitys und Sammlungen von Ressourcen: Als wertvolle Informationsquelle in Bezug auf Bedrohungen liefern frei zugängliche Internetseiten, auf welche Indicators of Compromise bzw. generierte Daten über Bedrohungen gesammelt werden, vielfältige wichtige und relevante Informationen. Diese Communitys sind für die Unterstützung von kollaborativen Forschungen bekannt und bieten ergänzend dazu Hinweise für umsetzbare Verhinderungsmethoden oder Bekämpfungsmöglichkeiten von Bedrohungen.

Was ist Smishing? Wie verhindert man es? Bedeutung, Definition, Erklärung


Beim Smishing handelt es sich um eine Betrugsmethode. Mithilfe von falschen SMS-Nachrichten durch gefälschte Internetseiten sollen die Opfer dazu gebracht werden, ihre persönlichen Daten an die Urheber der Fälschung zu senden.

Was ist Smishing? Eigenschaften, Bedeutung

Die Bezeichnung Smishing ist ein Kunstwort. Es setzt sich aus den Begriffen SMS und Phishing zusammen. So ergibt SMS + Phishing Smishing. Gemeint ist damit ein betrügerischer Versuch, gezielt SMS zu versenden, die irreführende Informationen enthalten, damit der Empfänger seine persönlichen Daten an Betrüger herausgibt.

Eine solche schädliche Textnachricht kann scheinbar von einer Bank kommen. Dabei sollen dem Opfer wichtige finanzielle oder persönliche Infos entlockt werden, wie zum Beispiel die PIN-Nummer oder die Kontonummer. Beim Phishing wollen Cyberkriminelle auf diese Weise quasi einen Schlüssel zum Bankkonto erlangen. Der Empfänger muss zu diesem Zweck einen beigefügten Anhang oder einen schädlichen Link öffnen, der durch eine E-Mail zugesendet wird. Beim Smishing werden anstelle von E-Mails Textnachrichten verwendet.

Ablauf des Smishing

Im Rahmen des Smishing werden von den Cyberkriminellen SMS mit gefälschten Absendern verschickt, die als vertrauenswürdig gelten. Diese können von einer Bank oder einem Telekommunikationsunternehmen stammen. Dabei wird ein spezielles Problem vorgegeben, das jedoch in Wirklichkeit fingiert ist. Zu den Möglichkeiten der Fälscher gehören:

  • Telefonanbieter, die höhere Gebühren für spezielle Leistungen verlangen
  • eine Bank, die sonderbare Aktivitäten auf dem Konto des Empfängers bemerkt haben will
  • Rückzahlungen aus einem Bonusprogramm
  • Dating-Services, von denen das Eröffnen eines Kontos bestätigt wird, dessen Einrichtung aber nie erfolgte
  • der Vorwurf, dass bestimmte Zahlungen nicht ausgeführt wurden
  • Rückzahlungen, die aus einem Bonusprogramm stammen

Für diese erfundenen Probleme liefern die Cyberkriminellen die Lösungen gleich mit.

Klicken auf einen mitgelieferten Link

Für diese Betrugsmasche bestehen zwei Optionen. In Variante 1 soll der Empfänger einen Download vornehmen. Dieser enthält jedoch eine Schadsoftware. Um an die sensiblen Daten zu gelangen, spioniert sie das Handy aus. Bei Variante 2 leitet der Link das Betrugsopfer auf eine Webseite weiter, in der es aufgefordert wird, die Daten selbst in eine Eingabemaske einzutragen.

Smishing: Anrufen einer bestimmten Telefonnummer

Eine weitere Möglichkeit ist, dass der Täter selbst oder eine Bandansage sich als Mitarbeiter eines Unternehmens ausgeben. Dabei fordern sie den Empfänger auf, spezielle Daten zu übermitteln, um sich zu verifizieren, damit sich das vermeintliche Problem lösen lässt.

Wie kann Smishing verhindert werden und wie ist es zu erkennen?

Als bester Schutz gegen Smishing gilt ein ausgeprägtes Misstrauen. Dazu ist es wichtig zu wissen, dass es im Internet nichts umsonst gibt. So wird mitunter mit den Kontaktdaten bezahlt oder damit, seine Zustimmung zu einer Werbung zu erteilen. In anderen Fällen wird der User zum Kauf von Produkten aufgefordert. Werden zum Beispiel angebliche Gewinngutscheine von Unternehmen angeboten, ist es ratsam, dies auf der offiziellen Internetseite des jeweiligen Anbieters nachzuprüfen.

Vorsicht ist zudem bei Sprachnachrichten oder Voice-Mails geboten. Als gute Gründe für Misstrauen gelten:

  • Sprachnachrichten lassen sich nicht auf Webseiten abhören. Der einzige Link darf die Telefonnummer der Mailbox sein.
  • die Nummer der Nachricht stammt zumeist von einem unbekannten Handy und stellt nicht die Nummer der Mailbox dar. Oft kommt sie nicht einmal vom gleichen Netz.
  • die Links führen zu Seiten im Internet, die gar nichts mit dem eigenen Mobilfunkprovider zu tun haben.
  • beim Deaktivieren der Mailbox ist es gar nicht möglich, Sprachnachrichten aufzuzeichnen, mit denen Benachrichtigungen erteilt werden.

Ein Problem ist, dass Textnachrichten einen besseren Ruf als sogenannte Spam-Mails haben, bei denen bereits ein hoher Gewöhnungsgrad vorherrscht. Außerdem findet das Handy mittlerweile im Alltag so häufig Verwendung, dass in bestimmten Situationen gar nicht mehr daran gedacht wird, auf schädliche Links zu achten. Zum Schutz vor Smishing ist auf der Infografik von Europol eine informative Übersicht zu finden. Diese entstand durch die Zusammenarbeit mit dem deutschen Bundeskriminalamt (BKA).

Smishing: Zusätzliche Schutzmaßnahmen

Außerdem ist es sinnvoll, zu bedenken, dass von seriösen Firmen niemals nach PINs, Passwörtern oder anderen wichtigen Daten gefragt wird. Selbst wenn es so aussieht, als würde es sich um eine legitime Nachricht handeln, sollte für einen Kontakt stets nur die offizielle Telefonnummer oder Internetseite verwendet werden. Niemals darf dagegen auf Links solcher Nachrichten geklickt werden. Auch eine angegebene Telefonnummer für einen Rückruf ist nicht zu verwenden.

Coupons, die sofort eingelöst werden sollen oder dringende Sicherheitswarnungen gelten als Alarmzeichen für einen möglichen Angriff. Grundsätzlich sollten keine Informationen über Bank und Kreditkarten auf dem Handy gespeichert werden. Ohne diese Informationen sind die Cyberkriminellen gar nicht in der Lage, die sensiblen Daten aufzuspüren. Dies gilt selbst dann, wenn schädliche Malware auf dem Handy installiert wird.

Fazit: Smishing ist eine Betrugsmethode, vor der Vorsicht geboten ist.

Am besten ist es, gar nicht erst auf das Smishing einzugehen, nichts zu unternehmen und auch nicht darauf zu antworten. Wird der Angriffsversuch ignoriert, entsteht durch die gefälschte SMS auch kein Schaden. Kommt es dennoch einmal zu einer Attacke, empfiehlt es sich, dies der Verbraucherzentrale mitzuteilen. Auf diese Weise können andere Nutzer vor der Betrugsmethode geschützt werden.

Was ist Exnotation / Exnovation? Bedeutung, Definition, Erklärung


Der Begriff Exnovation bzw. Exnotation beschreibt das Gegenteil von Innovation. Bei einer gegenteiligen Wortbedeutung spricht man von einem sogenannten Antonym. Während Innovation vom lateinischen Begriff innovare abgeleitet ist und mit Erneuerung umschrieben werden kann, gestaltet sich die Definition vom Gegenteil etwas schwieriger. Die oftmalige Definition von Exnovation in Form von „Abschaffung von Altem“ ist jedoch nicht ganz korrekt.

Was ist Exnotation / Exnovation? Bedeutung, Definition, Erklärung

Bei der Exnovation bzw. Exnotation geht es nicht primär um die Abschaffung von Altem, indem man bisher bestehende Technologien, Stoffe, Prozesse oder Praktiken einfach abschafft oder verbietet. Vielmehr geht es darum, dass man diese nicht mehr weiterverfolgt und so Platz für Alternativen bzw. Innovation schafft. Exnovation bzw. Exnotation kann in sehr vielen Bereichen stattfinden. Neben den Bereichen der Wirtschaft kann Exnovation auch im persönlichen bzw. privaten Bereich stattfinden. In der Geschäftswelt wird der Begriff aktuell vor allem in Verbindung im Rahmen der Nachhaltigkeitsforschung angewandt, aber auch im allgemeinen geschäftlichen Umfeld für die Abschaffung von bewährten, aber nicht mehr erwünschten Handlungsweisen, Produkten oder Verhalten.

Im persönlichen Bereich kann Exnovation bzw. Exnotation beispielsweise durch die Trennung einer bestehenden Partnerschaft oder durch Beendigung eines Arbeitsverhältnisses erfolgen. Hierbei geht es darum, dass der aktuelle Zustand keine Weiterentwicklung mehr zulässt (d. h. im übertragenen Sinne keine Innovation mehr möglich ist). Als Beispiel kann hierfür die Tatsache genannt werden, dass sich Personen in einer Partnerschaft unterschiedlich entwickeln und andere zukünftige Ziele verfolgen.

Der Begriff Innovation ist im Alltag wesentlich positiver behaftet als Exnovation bzw. Exnotation, da Innovation immer mit einer vorwärts gerichteten Denkweise assoziiert ist und es wesentlich attraktiver ist, Neues zu schaffen, als Altes zu verlernen bzw. loszulassen.

Wo hat eine Exnovation bzw. Exnotation bereits stattgefunden und wo wird sie geplant?

Als Beispiele für eine der Wortbedeutung nicht ganz korrekte Form der Exnovation bzw. Exnotation können z. B. das Verschwinden des Webstuhls oder der Video- und Kassettenrekordern genannt werden. Hierbei fand jedoch keine aktive Exnovation bzw. Exnotation statt, vielmehr wurden diese Technologien durch den Fortschritt durch neuere ersetzt, wodurch ihre Nachfrage sank und sie schließlich vom Markt verschwanden. Auch Wikipedia verdrängte bzw. verkleinerte gewissermaßen den Markt von gedruckten Enzyklopädien, welche ohne gewollte Exnovation bzw. Exnotation erfolgte.

Im Gegensatz dazu fand die Exnovation zum Ausstieg aus den sogenannten Fluorchlorkohlenwasserstoffen (FCKW) bzw. die Abschaffung der klassischen und ineffizienten Glühlampen in der EU zielgerichtet und bewusst in Form eines politischen Instruments statt.
Zukünftig anberaumte Exnovationen bzw. Exnotationen stellen beispielsweise der Kohleausstieg oder auch das Verbot des konventionellen Verbrennungsmotors dar. Auch der Fleischkonsum sowie der Flächenverbrauch durch Verbauung könnte in Form von Exnovation gesteuert werden.

Alternativen zur Exnovation bzw. Exnotation

Neben der klassischen und beschriebenen Innovation sowie der Exnovation, welche gewissermaßen eine Form der Substitution darstellt, gibt es noch weitere Formen und Alternativen von Innovationstypen. Die genannte Substitution ersetzt dabei der Wortherkunft nach eine Technologie, einen Stoff, Prozess oder Praktik durch eine andere. Als weitere Alternative kann die Renovation genannt werden. Hierbei geht es darum, das Bestehende zu erhalten und den Handlungsraum zu erweitern, ohne die Innovationsmenge zu erhöhen. Ein Beispiel hierfür ist das Remanufacturing, bei welchem es darum geht, gebrauchte Geräte derart aufzubereiten, dass sie einem neuwertigen Gerät entsprechen. Eine weitere Alternative stellt die Imitation in Form von Reaktivierung dar. Damit ist gemeint, dass ehemals Bestehendes bzw. Inaktives wieder reaktiviert wird und dadurch wieder Anwendung findet.

Chancen der Exnovation

Eine Chance der Exnovation bzw. Exnotation stellt die Tatsache dar, dass durch gezielte Exnovation gewissermaßen Druck zur Innovation ausgelöst werden kann. Diese Form wird durch die Politik beispielsweise im Rahmen des Kohleausstiegs bzw. dem zukünftigen Verbot des Verbrennungsmotors angewandt. Durch die Einstellung des Kohleabbaus bzw. des Verbots des Verbrennungsmotors ist die Wirtschaft gefordert, Alternativen zu den bisherigen bewährten Technologien, Stoffen, Prozessen und Praktiken zu finden, womit Druck zur Innovationstätigkeit aufgebaut wird.

Ein weiteres mögliches Potenzial der Exnovation ist, dass damit Pfadabhängigkeiten aufgebrochen werden sollen. Pfadabhängigkeiten beschreiben dabei den Umstand, dass vergangene bzw. frühere Entscheidungen zukünftige Entscheidungen beeinflussen und man dadurch einen vordefinierten Entscheidungspfad verfolgt, welcher eventuell nicht die beste Lösung darstellt, jedoch aufgrund der Historie vorbestimmt ist. Durch die Exnovation bzw. Exnotation möchte man diese Pfadabhängigkeit ausschließen, indem man durch die Abschaffung von Altem zur Innovation getrieben wird.

Trotz der beschriebenen Chancen darf nicht außer Acht gelassen werden, dass Exnovation auch Unsicherheit, Skepsis und Widerstand schüren kann, da man sich dadurch von Bewährtem und Gewohnten verabschieden muss.

Was ist Solution Engineering? Bedeutung, Definition, Erklärung


Solution Engineering ist mit der Entwicklung lösungsorientierter Spezifikationen von technischen Systemen befasst. Es folgt auf das Requirement Engineering, das nach den gestellten Anforderungen ein System entwickelt und hierfür bestimmte Spezifikationen erstellt. Es entsteht eine grundsätzliche technische Basis, die das Solution Engineering nun in ein handhabbares System überführen muss. Dabei orientiert es sich an spezifischen Kundenanforderungen, weshalb das Customizing (Anpassung an Kundenwünsche) eine große Rolle spielt. Die beiden Tätigkeitsfelder sind grundsätzlich in allen Bereichen des Engineerings gefragt, allerdings werden die Begriffe vorrangig in der Softwarebranche verwendet.

Praktische Veranschaulichung von Solution Engineering

Es mag sein, dass ein Kunde die Anforderung stellt, einen Dateninput in seine betriebsspezifische, möglicherweise proprietäre IT zu überführen und dort tabellarisch und als Grafik darzustellen. Das Requirement Engineering setzt diese Anforderung zunächst so um, dass alle eingehenden Daten in tabellarisch darstellbare Zahlen und in Grafiken übersetzt werden. Das Solution Engineering schafft hierfür ein Programm, das der Anwender nur noch aufrufen muss, um sich wahlweise Tabellen oder Grafiken anzusehen, wobei ihm der Solution Engineer eine komfortable Oberfläche schafft. Die Aufgabe des Solution Engineerings ist es auch, diese Lösung dem Kunden zu präsentieren und somit zu verkaufen.

Solution Engineering im Vertriebsprozess

Im Vertriebsprozess spielt Solution Engineering auch die Rolle, für den Kunden eine von mehreren möglichen (schon vorhandenen) Lösungen auszusuchen und sie ihm zu verkaufen. Dafür muss der ganz spezifische Bedarf des Kunden ermittelt werden. Es gibt in vielen Bereichen zahllose Lösungen, wenn wir etwa an CRM- oder ERP-Systeme denken, die wiederum zu ganz bestimmten Kundenanforderungen passen. Ein Solution Engineer muss diese Lösungen kennen und dem Kunden wenige gut passende Varianten präsentieren (oft nicht mehr als zwei bis vier). In der Regel gehört zum Solution Engineering in solchen Fällen, Produktdemonstrationen vorzubereiten sie gemeinsam mit einem Vertriebsingenieur dem Kunden zu präsentieren. Dieser wird verschiedene Fragen dazu haben, die häufig die Wirtschaftlichkeit betreffen. Diese kann der Solution Engineer berechnen. In diesem Moment fällt ihm die Rolle eines Pre-Sales- bzw. Sales-Mitarbeiters zu. In dieser Funktion kann er die Vertriebsabteilung bei der Kundengewinnung unterstützen, wobei sich das Solution Engineering hauptsächlich bis ausschließlich auf technische Aspekte konzentriert.

Gewünschte Fähigkeiten im Solution Engineering

Solution Engineers müssen auf jeden Fall die Anwendung der präsentierten Lösung beherrschen und bei Neuentwicklungen im Vorfeld in der Lage sein, eine handhabbare Lösung zu entwickeln. Dazu gehört vertieftes technisches Wissen zur Entwicklung, das wiederum im Rahmen der Kundenberatung in die Sprache des Anwenders übersetzt werden muss. Des Weiteren muss ein Solution Engineer für die Entwicklung die technische Umsetzbarkeit bestimmter Anforderungen einschätzen können, während er für die Anwendung Best Practices kennen sollte. Gegenüber dem Kunden sind technische Unklarheiten auszuräumen. Wenn sich dieser für das Produkt entscheidet, übergibt der Solution Engineer dem nachfolgenden Implementierungsteam die nötigen technischen Informationen, die er im Vertriebsprozess evaluiert hat. Dazu gehören Anforderungen, bereits entwickelte Lösungen und eventuelle Besonderheiten. Mit diesen Informationen lässt sich die Lösung leichter implementieren, weil sie schon durch den technisch orientierten Solution Engineer auf ihre Machbarkeit hin überprüft wurde. Solution Engineers haben häufig Wirtschaftsinformatik oder Wirtschaftsingenieurwesen studiert. Ihre wichtigsten Skills sind:

  • Verständnis von IT-Architektur und Programmierung
  • betriebswirtschaftliche Kenntnisse zum Marketing und Vertrieb
  • strukturiertes, lösungsorientiertes und konzeptionelles Arbeiten
  • hohe Kundenorientierung
  • Verständnis für Investitionsentscheidungen, Kosten- und Leistungsrechnung sowie Finanzierung

Wichtig ist zudem die Einschätzung der aktuellen Kundenanforderungen. Einige Kunden wissen schon sehr genau, was sie benötigen, andere haben praktisch noch gar keine Vorstellung und dementsprechend einen viel höheren Beratungsbedarf.

Berufsalltag und Verdienst im Solution Engineering

Die Vertreter dieses Berufes reisen viel zu Kunden, arbeiten aber auch in der Entwicklungsabteilung ihres Unternehmens. Es ist möglich, dass sich diese beiden Tätigkeitsschwerpunkte permanent abwechseln. Das ist anstrengend, wird aber vergleichsweise gut bezahlt. Einstiegsgehälter liegen in diesem Beruf zwischen 45.000 und 50.000 Euro, nach einigen Berufsjahren verdienen Solution Engineers um 55.000 bis 83.000 Euro, in großen Unternehmen und wirtschaftlich starken Regionen auch mehr.

Was bedeuten die Zahlen des Thermostats der Heizung? Erklärung


Die meisten der manuell per Drehung einstellbaren Heizthermostate sind mit einer Skala versehen, die in der Regel mit einer Zahlenreihe von 1 bis 5 unterteilt ist. Der Thermostat hat die Aufgabe, für eine stabile Raumtemperatur zu sorgen. Dabei steht die Ziffer 1 für eine Raumtemperatur von 12 Grad. Mit jeder weiteren Zahl erhöht sich die Temperatur um weitere 4 Grad – entsprechend folgendem Muster:

  • 1 = 12 Grad
  • 2 = 16 Grad
  • 3 = 20 Grad
  • 4 = 24 Grad
  • 5 = 28 Grad

Was bedeuten die Zahlen des Thermostats der Heizung? Erklärung

Viele Thermostaten weisen zwischen den einzelnen Ziffern noch vier weitere Teilstriche auf. Hier steht jeder Strich für jeweils einem Grad Celsius. Darüber hinaus gibt es noch weitere Symbole, die eine bestimmte Bedeutung haben. So steht ein Sonnensymbol über der 3 für die Grundeinstellung von 20 Grad, die tagsüber für Ess- und Wohnbereiche sinnvoll ist. Sollte ein Mondsymbol vorhanden sein, ist dies eine geeignete Nachteinstellung für eine Raumtemperatur von 14 Grad – auch als sogenannte Nachtabsenkung bekannt.

Ist darüber hinaus auch noch eine Schneeflocke nahe der linken „Heizung-aus-Einstellung“ zu sehen, so schaltet der Thermostat an dieser Markierung die Heizung nicht komplett aus, sondern das Zeichen symbolisiert den Frostschutz und stellt die Heizung so ein, dass die Raumtemperatur nicht unter sechs Grad abfällt. Dies soll verhindern, dass bei längerer Abwesenheit im Winter die Heizung einfriert.

Thermostat voll aufdrehen – wird das Zimmer schneller warm?

Wenn man den Thermostaten einer kalten Heizung auf 3 einstellt, so sorgt er dafür, dass so lange heißes Wasser in die Heizung fließt, bis die Raumtemperatur 20 Grad erreicht und danach nur noch so viel Heißwasser nachfließt, um diese Temperatur zu halten. Wenn man den Regler dagegen im Kaltzustand der Heizung auf 5 aufdreht, dauert es genauso lange, bis 20 Grad Raumtemperatur erreicht ist und setzt den Heizvorgang lediglich so lange fort, bis das Zimmer 28 Grad warm ist.

Man kann also den Aufwärmvorgang des Raumes auf keinen Fall beschleunigen, indem man den Thermostaten bis zum rechten Anschlag aufdreht.

Funktionsweise eines Heizthermostaten

Die Zifferndarstellung anstatt von Temperaturangaben auf einem Heizregler liegt darin begründet, dass die Technik der Temperaturmessung nicht sehr genau ist. Das Innere eines Thermostatkopfes ist mit einem flüssigen Stoff gefüllt, der sich bei zunehmender Wärme ausdehnt. Sobald die eingestellte Temperatur (1 bis 5) erreicht ist, drückt die Flüssigkeit auf einen Ventilstift, sodass das Ventil schließt und dadurch weiterer Zufluss des heißen Wassers gestoppt wird. Auf diese Weise wird kontinuierlich nachjustiert, um die eingestellte Wunschtemperatur zu halten. Dennoch stimmen Wunsch- und Raumtemperatur nicht immer exakt überein. So braucht ein größerer Wohnraum natürlich länger als ein kleinerer, um warm zu werden. Auch innerhalb eines Raumes gibt es unterschiedliche Temperaturzonen, z. B. in der Nähe von Fenstern und Türen sowie mit zunehmendem Abstand zum Heizkörper.

Darüber hinaus können auch Möbel, Wohn­ac­ces­soires oder schwere Vorhänge vor der Heizung die Heizleistung beeinflussen. Befindet sich beispielsweise ein Sofa vor dem Heizkörper, hat die Luft um den Thermostaten schnell die eingestellte Temperatur erreicht – die Warmwasserzufuhr in die Heizung wird gestoppt, obwohl der umgebende Raum noch kühl ist.

Durch nur einem Grad Raumtemperatur weniger sind Heizkostenersparnisse bis zu sechs Prozent möglich. Aus diesem Grund bieten eine Reihe von Herstellern nicht nur die Ziffern und Symbole auf dem Thermostaten an, sondern ergänzend dazu auch sogenannte Sparclips. Mit diesen lassen sich untere und obere Temperaturlimits festlegen oder sogar zu hohe Temperaturen (z. B. höher als 4) blockieren.

Was ist Hangul? Bedeutung, Definition, Erklärung


Der Begriff Hangul steht für das koreanische Alphabet, dessen Buchstaben für die schriftliche Umsetzung der Sprache gedacht sind. Anders als beispielsweise das japanische Kanji oder das chinesische Hànzì funktioniert das koreanische Hangul nicht auf logographischer Ebene. Das heißt, das koreanische Alphabet baut nicht auf einer komplexen Anzahl von morphologischen Silben in Schriftform auf, sondern basiert ähnlich wie das westlich gebräuchliche lateinische Alphabet auf Buchstaben in Form von Konsonanten und Vokalen. Damit ist das koreanische Alphabet wesentlich einfacher zu erlernen als die komplexen japanischen oder chinesischen Schriftvarianten. Die Wurzeln des modernen Hangul lassen sich bis in das 15. Jahrhundert zurückverfolgen.

Geschichte und Ursprung des Hangul

Tatsächlich griff man im heutigen Korea lange auf die chinesischen Schriftzeichen zurück. In Konkurrenz zu den chinesischen Schriftzeichen entwickelten sich Jahrhunderte vor der Etablierung des Hangul phonetische Schriftsysteme wie das Hyanchal oder das Gugyeol. Bereits das Gugyeol aus dem 13. Jahrhundert sollte die komplexen chinesischen Schriftformen vereinfachen und die Kompatibilität mit der koreanischen Sprache erhöhen.

Die Wurzeln des modernen Hangul liegen im 15. Jahrhundert: So strebte König Sejong eine Vereinfachung des Alphabets an, um den literarischen und sprachlichen Zugang für die Allgemeinheit zu erleichtern. Tatsächlich entstand das Hangul zwischen 1443 und 1446 und wurde zum ersten Mal im Dokument Hunminjeongeum (1446) festgehalten. Das Hangul emanzipierte sich so von dem teils komplexen chinesischen Alphabet und vereinfachte die Schriftsprache auf die Darstellung von 17 Konsonanten und 11 Vokalen. Das heutige Hangul besteht aus 24 grundlegenden Buchstaben: 14 Konsonanten und 10 Vokalen. Dabei gibt es auch einige ergänzende komplexere Zeichen. Doch das Grundprinzip ist klar: Das Hangul ist eine vergleichsweise zugängliche Schriftform. Die koreanische Schrift sollte, so der Plan von Sejong, innerhalb eines Tages erlernt werden können.

Zur Zeit der japanischen Herrschaft und Besetzung wurde Japanisch zur offiziellen Sprache erklärt – und damit auch versucht, das japanische Alphabet zu etablieren. Zu jener Zeit wurde auch die koreanische Sprache wie das Hangul aus der Öffentlichkeit verbannt. Mit der Unabhängigkeit von Korea wurde 1946 die moderne koreanische Schrift aus Basis des Hangul wieder eingeführt. Von dem Ursprung der Sprache im 15. Jahrhundert bis heute befand sich das Hangul, wie viele andere Schriftsprachen, im stetigen Wandel.

Siehe: K-Pop / koreanisch Wörterbuch

Besondere Eigenheiten des Hangul

Das Hangul wird heute offiziell nicht nur in Südkorea, sondern auch in Nordkorea und China verwendet. Dabei gibt es abweichende Varianten zwischen den nord- und südkoreanischen Schreibweisen der Buchstaben. Grundsätzlich orientierte sich die Schrift wie das chinesische Alphabet in der Schreibausrichtung von oben nach unten sowie in Spalten, die von rechts nach links führen. Nach europäischer Wahrnehmung las man das Hangul also „umgekehrt“. Allerdings orientiert sich die moderne Umsetzung des Hangul an der europäischen Schreibrichtung von links nach rechts.

Das moderne Hangul funktioniert jedoch nicht komplett losgelöst von der chinesischen Schrift. So werden vereinzelte Schriftzeichen mit chinesischem Ursprung auch im Hangul verwendet. Diese Zeichen sind auch unter dem Namen Hanja bekannt. Diese sollen die vergleichbar wenigen Schriftzeichen des Alphabets ergänzen. Auch in der Schule werden typischerweise noch die chinesischen Hanja-Schriftzeichen gelehrt. Doch die Grundlage der modernen koreanischen Sprache bleibt das Hangul.

Historisch hat das Hangul eine weitere Eigenheit. Denn während bei nahezu allen Alphabeten der Welt die genaue Entstehungszeit nicht überliefert ist, weiß man beim Hangul bis heute, wann und von wem es erschaffen wurde. Doch so sehr es geplant wurde: Das Hangul entstand nicht im luftleeren Raum, sondern nahm sich bewusst Vorbild an asiatischen und der chinesischen Phonologien. Denn König Sejong war ein gebildeter Linguist, der mit seinem Vorhaben ein klares Ziel verfolgte: Die koreanische Sprache zugänglicher zu machen.

Zusammenfassende Erkenntnisse zum koreanischen Hangul

Seit dem 15. Jahrhundert ist das koreanische Alphabet Hangul etabliert. Es war ein bewusster Versuch des Herrschers Sejong, die koreanische Schriftsprache zu vereinfachen und der Allgemeinheit zugänglich zu machen. Obwohl zwischenzeitlich verboten, konnte sich das Hangul bis heute in einer modernen Variante durchsetzen. Noch immer finden sich in dem Alphabet chinesische Schriftzeichen, die Hanja. Doch anders als das Japanische oder Chinesische ist das koreanische Hangul mit seinen 14 Konsonanten und 10 Vokalen innerhalb weniger Stunden erlernbar.

Was bedeutet die Regenwahrscheinlichkeit? Bedeutung, Definition, Erklärung


Die Regenwahrscheinlichkeit wird bei jedem Wetterbericht mit angegeben. Häufig wird sie fälschlicherweise als Regenrisiko bezeichnet. Das ist nicht ganz richtig, da der Wert der Niederschlagswahrscheinlichkeit lediglich aussagt, wie hoch die Wahrscheinlichkeit für einen bestimmten Ort ist, dass es mindestens zu einem Niederschlagsergebnis kommt.

Was ist die Regenwahrscheinlichkeit? Bedeutung, Definition, Erklärung

Wird in einem Wetterbericht die Regenwahrscheinlichkeit bekannt gegeben, wird häufig zusätzlich eine Angabe über die mögliche Literzahl an Regen pro Quadratmeter angegeben, die in einer Stunde fallen können. Wenn eine Regenmenge von 25 bis Liter in einer Stunde pro Quadratmeter fällt, ist mit Starkregen zu rechnen. Ähnlich wie bei einer Angabe von 35 bis 60 Litern in sechs Stunden pro Quadratmeter handelt es sich um ein Unwetter. Ist eine Regenwahrscheinlichkeit von 80% angegeben, kann man davon ausgehen, dass es für einen bestimmten Vorhersagezeitraum für einen bestimmten Ort in 8 bis 10 Fällen regnet.

Wie wird die Niederschlagswahrscheinlichkeit definiert?

Die Regenwahrscheinlichkeit wird vom nationalen Wetterdienst in den USA ermittelt. Übersetzt bedeutet es probability of precipitation. Sie wird durch die Multiplikation der Wahrscheinlichkeit berechnet. Hierbei wird ermittelt, in welchem Gebiet es regnet sowie der Anteil der Gesamtfläche, in dem es regnen soll, wenn es überhaupt regnet. Liegt die Regenwahrscheinlichkeit bei 50% bedeutet sie, dass es mindestens einmal am Tag zu 50% schneien oder regnen könnte. Umso höher dieser Wert liegt, desto mehr muss von einem Niederschlag am Tag gerechnet werden. Er bedeutet nicht, dass nur zur Hälfte in einem Gebiet mit einem Niederschlag zu rechnen ist oder dass nur an einer Hälfte des Tages regnet. Der Wert der Regenwahrscheinlichkeit wird immer in Prozent veröffentlich. Das sorgt bei einigen Menschen für Verwirrung, da nicht weiß, was die Prozentangaben aussagen.

Die Angabe der Niederschlagswahrscheinlichkeit liefern wichtige zusätzliche Informationen darüber, ob mit Regen gerechnet werden muss oder nicht. Noch zuverlässiger ist die Aussage darüber, mit welcher Sicherheit ein bestimmter Ort vom Vorhersagezeitrum des Regens fällt. Man kann sich bei einer Regenwahrscheinlichkeit von 10% sicher sein, dass es trocken bleibt. Ab 30% kann man dagegen damit rechnen, dass es irgendwo in der Stadt regnet. Einen zusätzlichen wichtigen Hinweis kann ein Wetterradar liefern. Hier sieht man auf einem Blick, wohin die Regenwolken ziehen.

Was bedeutet eine Regenwahrscheinlichkeit von 50%?

Das bedeutet tatsächlich eine 50:50 Chance, dass man trocken zur Arbeit kommt oder nass. Beide Varianten sind gleichermäßen möglich. Da die Lage bei einer derart niedrigen Wahrscheinlichkeit so unsicher ist, sollte man sich besser mit einem Schirm schützen und die Aktivitäten des Tages nicht unbedingt im Freien planen.

Bei einer Regenwahrscheinlichkeit von 90% kann man auf jeden Fall davon ausgehen, dass man im Laufe des Tages nass wird. Bisher kann noch nicht vorausgesagt werden, wie kräftig und lange es regnet. Dementsprechend kann es auch bei einer hohen Regenwahrscheinlichkeit um einen kleinen Niederschlag handeln. An anderen Tagen bedeuten die gleichen Werte, dass ein langanhaltender Regenschauer erwartet wird. Häufig wird von Wetterdiensten die Bezeichnung Niederschlagswahrscheinlichkeiten verwendet. Das liegt unter anderem daran, dass es sich bei den Niederschlägen nicht unbedingt um Regen handeln muss. Es kann auch zu einem starken Hagel- oder Schneeschauer kommen. Die Regenwahrscheinlichkeit kann täglich auf den unterschiedlichsten Wettervorhersagen entnommen werden. Die Daten stehen bis zu einem Zeitraum von 16 Tagen zur Verfügung.

Wofür / Wozu sind Hornissen gut? Erklärung, Nutzen


Hornissen sind wesentlich ungefährlicher, als die meisten Menschen glauben. Im Ökosystem erfüllen sie eine wichtige Aufgabe: Sie vertilgen viele Lästlinge und Schädlinge, womit ihre Aufgabe in etwa der von Spinnen gleicht.

Hornissen als Naturpolizei im Ökosystem

Nun zur Hauptfrage, wozu die Hornissen gut sind. Sie erfüllen die Aufgabe einer Naturpolizei in unserem einheimischen Ökosystem. Pro Tag verfüttert ein stärkeres Hornissenvolk rund 500 g Fliegen, Mücken, Nachtfalter, Wespen, Forstschädlinge und weitere Insekten (selten auch Bienen) an seine Brut. Dieselbe Menge schaffen etwa fünf Meisenfamilien. Im Gegensatz zu Bienen und Wespen sind Hornissen eher selten auf Süßes aus, weshalb sie unser Eis, die Limonade und den Kuchen auf dem Kaffeetisch links liegen lassen.

Vorurteile gegen Hornissen

Hornissen leiden noch mehr als Wespen (die ebenfalls unter Natur- und Artenschutz stehen) und Mücken unter Vorurteilen. Diese basieren größtenteils auf Unkenntnis. So sind Hornissen entgegen der landläufigen Meinung nicht aggressiv. Sie schädigen auch weder Obstbauern noch Imker, jedenfalls nicht unsere einheimischen Arten. Anders sieht es bei der asiatischen Riesenhornisse aus (siehe oben). Weitere Mythen lauten: Zwei Hornissenstiche töten ein Kind, drei einen Erwachsenen, sieben sogar ein Pferd. Das ist Unfug. Hornissenstiche sind nicht gefährlicher als Bienen- oder Wespenstiche, allerdings oft schmerzhafter. Auch mehrere Stiche überleben Menschen und Pferde, allerdings ist bei einer Wespenstichallergie der Arztbesuch ratsam.

Wie sind Hornissen einzuordnen?

Sie gehören zu den sogenannten sozialen Faltenwespen (Vespa crabro), unter denen ihre Exemplare die größten der Gattung sind. Die Körperlänge einheimischer Hornissen erreicht bis zu 4 cm, womit sie die größten staatenbildenden Insekten unserer heimischen Tierwelt sind. Es gibt in Mitteleuropa 16 Arten der sozialen Faltenwespen. Zwei von ihnen können sehr lästig werden: die Deutsche Wespe und die Gewöhnliche Wespe. Die Hornisse hingegen ist eigentlich ein umgänglicher Geselle. Nur am Rande sei vermerkt, dass es auch deutlich größere Hornissen gibt, so die asiatische Riesenhornisse mit einer Körperlänge von bis zu 5,6 cm und einer Flügelspannweite von bis zu 9,1 cm. Diese gelten als Schädlinge, weil sie bevorzugt Bienen fressen. Unsere einheimischen Hornissen fallen hingegen nur gelegentlich über Bienen her.

Steckbrief zur Hornisse

  • lateinischer Name: Vespa crabro
  • Lebenserwartung: Königin 1 Jahr, Arbeiterin 3 – 4 Wochen, Nestdauer eine Saison
  • Körpergröße: Königin bis 35 mm, Arbeiterin 18 – 25 mm, Drohne 21 – 28mm
  • Ernährung: Insekten, Baumsäfte, Fallobst, Nektar, Honigtau
  • Nistplatz: in Vogelnistkästen, Baumhöhlen und manchmal auch Rollladenkästen
  • Nestgründung: ab Ende April allein durch die begattete Jungkönigin
  • Nestgröße: durchschnittlich 60 x 30 cm, bei mehr Platz auch etwas größer
  • Filialgründung: bei kleiner Nisthöhle in der Nachbarschaft möglich
  • Volksstärke: bis zu 700 Individuen
  • Paarung: Anfang Oktober
  • Überwinterung: nur durch eine begattete Jungkönigin
  • Verhalten: friedfertig, Stich ausschließlich zur Verteidigung
  • Gefahr durch Stich: vergleichbar mit der Gefahr durch Bienen- oder Wespenstich, jedoch schmerzhafter
  • Allergiegefahr: bei 2 – 3 % der Mitteleuropäer
  • Bestandsgefährdung: regional stark
  • Schutzstatus: geschützt nach NatSchG und BArtSchV

Hornissen und ihre Lebensräume

Die natürlichen Lebensräume von Hornissen sind lichte und artenreiche Laubmischwälder sowie Streuobstwiesen. Der Nestbau erfolgt bevorzugt dort in Höhlen, doch mangels solcher Lebensräume siedeln sich Hornissenvölker immer häufiger im Vogelhaus unseres Gartens oder auch im Schuppen, auf dem Dachboden oder im Rolladenkasten an. Es kommt nun darauf an, wie tolerant wir damit umgehen können. Eine Vernichtung der Nester ohne ausdrückliche Gefahr für den Menschen ist verboten. Ein Umsiedeln ist erlaubt, dieses muss eine Fachfirma vornehmen. Sie holt dafür eine amtliche Ausnahmegenehmigung ein. Es gibt auch ehrenamtliche Hornissen- und Wespenfachberater, welche die untere Naturschutzbehörde vermittelt. Sie hat ihren Sitz bei der Gemeindeverwaltung oder beim Landratsamt.

Umgang mit Hornissen

Außerhalb ihres Nestbereichs fliehen Hornissen vor einem Störenfried. Der Nestbereich hat in ihren Augen ein Umfeld von 5,0 m, das Menschen respektieren sollten. Wer in diesen Bereich eindringt, muss zwingend mit einem Angriff des Volkes rechnen, der gezielt und koordiniert erfolgt. Der Hornissenschwarm verfolgt den Eindringling unter Umständen auch auf eine größere Entfernung und greift ihn mit Stichen an. Dies dient der Verteidigung des Nistplatzes mit all seinen Insassen. Störung im Nestbereich sind für die Hornissen:

  • Eindringen in die Sicherheitszone innerhalb des 5-m-Radius
  • heftige Bewegungen auch leicht außerhalb dieses Radius
  • starke Erschütterungen des Nistplatzes
  • Anpusten einer Hornisse oder des Einflugloches
  • längeres Versperren der Flugbahn
  • Lärm in der Nähe des Nestes (zum Beispiel durch den Rasenmäher)
  • Manipulationen am Nest

Wer nachts eine Hornisse im Zimmer vorfindet – sie jagt auch nachts –, sollte wie bei jedem Insekt das Fenster öffnen und das Licht ausschalten. Wenn sich draußen eine Lichtquelle befindet (Straßenlaterne etc.), fliegt die Hornisse sie an. Ansonsten kann es hilfreich sein, draußen kurz das Außenlicht anzuschalten. Die Insekten können auch vorsichtig mit Glas und Pappdeckel gefangen und dann draußen freigelassen werden.

Das Leben von Hornissen

Die begatteten Jungköniginnen überwintern als einzige Individuen ihres Volkes und erwachen ab Anfang Mai. Den Winterschlaf verbringen sie in der Erde oder in einer Baumhöhle. Nach dem Erwachen erkundet die Königin ihre Umgebung, bis sie einen geeigneten Nistplatz gefunden hat. Dort beginnt sie, erste Brutzellen zu bauen, die wie bei Bienennestern wabenförmig aufgebaut sind. Jede Zelle belegt sie mit einem Ei. Nach rund einer Woche sind aus den Eiern kleine Larven geworden, die ein klebriges Sekret in ihrer Zelle festhält. In den nächsten zwei Wochen durchläuft die Larve fünf Stadien. Zum Schluss spinnt sie einen Seidendeckel. Wenn sie ausgewachsen ist, kratzt sie an den Wänden der Larvenwiege, was ein rhyhtmisches, kratzendes Geräusch erzeugt (sogenanntes Hungerkratzen).

Die Larve ist jetzt rund und tonnenförmig, sie wird in nochmals zwei Wochen zur Hornisse. Diese durchbeißt den Zelldeckel und schlüpft aus. Arbeiterinnen leben rund vier Wochen, die Königin legt noch weitere Eier, aus denen Jungköniginnen und Männchen schlüpfen. Diese paaren sich, die Jungköniginnen überleben teilweise, die Altkönigin und das übrige Volk sterben zum Ende des Sommers. Das Nest wird dann aufgegeben. Hornissen nisten an einem Platz grundsätzlich nur ein einziges Mal.

Wofür / Wozu sind Ohrwürmer gut? Erklärung, Nutzen


Frei nach dem Motto gemeinsam sind wir stark, helfen die Ohrwürmer, der lateinische Name lautet auricula, beim Pflanzenschutz. Die als Nützlinge im Garten bezeichneten kleinen Insekten sind natürliche Feinde von bestimmten Schädlingen.

Charakteristische Merkmale der Ohrwürmer

Ohrwürmer, Dermaptera, sind weltweit verbreitet. In der Insektenordnung sind sie den Geradflüglern nahestehend. Der Ohrwurm ist lang, schlank und hat kurze, lederartige Vorderflügel sowie fächer- oder ohrenähnliche Hinterflügel. Einige Arten sind flügellos. Charakteristisch für den Ohrwurm sind die Facettenaugen, die kauenden Mundwerkzeuge mit den fadenförmigen Antennen sowie die großen Hinterleibszangen, die bei den männlichen und den weiblichen Ohrwürmern unterschiedlich ausgeprägt sind. Die Weibchen haben gerade, die Männchen hingegen auffallend gebogene Zangen.

Ohrwürmer sind harmlos

Der einheimische Gemeine Ohrwurm, Forficula auricularia, ist harmlos. Das Weibchen betreibt Brutpflege. Die Larven werden in selbst errichteten Höhlen oder unter der Baumrinde bewacht, gepflegt und mit Nahrung versorgt. Ohrwürmer haben meist nur einmal im Jahr Nachwuchs.

Die Lebensweise des Ohrwurms

Der dämmerungs- und nachtaktive Ohrwurm bevorzugt Wärme. Tagsüber befinden sie sich in ihren Verstecken und sind nur selten zu sehen. Als Versteck dienen hauptsächlich Steine, Mauerritzen oder Baumrinden.

Ohrwürmer sind Nützlinge. Obwohl sie an verschiedenen Blütenknospen, weil sie sich nicht nur von abgestorbenen Pflanzenteilen ernähren, durchaus leichte Schäden anrichten, ist ihr Nutzen im Garten ungleich größer. Der Grund dafür ist, dass sie sich auch von Blattläusen, Blutläusen und anderen, für Pflanzen schädliche, Insekten ernähren.

Biologischer Schädlingsbekämpfer

Vor allem im naturnahen Garten spielt der Ohrwurm als biologischer Schädlingsbekämpfer eine wichtige Rolle. Statt Pflanzenschutzmitteln, die im Selbstversorgergarten tabu sind, übernimmt der Ohrwurm als Allesfresser die Aufgabe, Schädlinge unter Kontrolle zu halten.

Die Nützlinge fördern

Ein mit Holzwolle oder Stroh gefüllter Tonblumentopf lockt die Ohrwürmer in den Garten. Um den Nützlingen einen Unterschlupf zu bieten, wird der Blumentopf mit der Öffnung nach unten an eine Astgabel gehängt. Gerne werden vom Ohrwurm auch Rosenkugeln als Nisthilfe angenommen.

Winterhilfe für den Ohrwurm

Abgeblühte Blütenstände werden nicht im Herbst, sondern erst im Frühling geschnitten. In den Stängeln können die kleinen Ohrwürmer überwintern.

Kleine Stein- und Laubhaufen an einem warmen, auch im Winter sonnigen Platz, bieten den Ohrwürmern einen idealen Unterschlupf in der kalten Jahreszeit.

Um Ohrwürmer dauerhaft im Garten anzusiedeln ist es sinnvoll, ein Insektenhotel aufzustellen. Es ist ein ideales Quartier, um dem Ohrwurm Schutz vor der Kälte zu bieten.

Ohrwürmer und Obst

Den Beinamen Schädling haben die Insekten deshalb bekommen, weil sie nicht nur Blattläuse und andere Pflanzenschädlinge fressen, sondern auch gerne Obst anknabbern. Vor allem weiche Früchte, wie Trauben oder Pflaumen. Die Bezeichnung Schädling ist aber dennoch ungerecht, ganz besonders im privaten Garten. Die Ohrwürmer fressen nämlich nur jenes Obst, das schon geschädigt oder faul ist.

Ohrwürmer und kommerzieller Obstbau

Im Weingarten und in den Obstplantagen ist der Ohrwurm nicht gerne gesehen und im Vergleich zum privaten Garten kein Nützling, sondern ein Schädling. Besonders in heißen Monaten ohne ausreichenden Niederschlägen vermehrt sich der Ohrwurm stärker und frisst Blätter und Früchte, um seinen Wasserbedarf zu decken. Aufgrund der starken Vermehrung und dem Fressen der Früchte entstehen größere Schäden.

Wofür / Wozu sind Tauben gut? Erklärung, Nutzen


Schon seit Jahrtausenden werden Tauben als schnelle Helfer eingesetzt. Sie zeichnen sich durch ihre hervorragenden Flugeigenschaften aus. Diese sind mit ihren besonderen Fähigkeiten verbunden. Sie bestehen beispielsweise in ihrem Orientierungssinn, der sich am Magnetfeld der Erde orientiert. So finden sie auch den Weg zu ihrem Heimathorsten.

Die Taube in der Antike

In der Antike suchten die Verantwortlichen nach einem Vogel, der vor allem die weiblichen Eigenschaften verkörpern konnte. Hierzu konzentrierte man sich auf die weißé Taube, die mit der römischen Göttin der Liebe, Venus gleichgesetzt werden konnte. Gleichzeitig wurde diese weiße Taube zum Sinnbild des Friedens.

Leider wurde die Taube im Altertum als Fleischlieferant genutzt. Außerdem setzte man schon sie schon damals ein, um die begehrten Greifvögel wie Falken und Habichte zu fangen. Auch während der Abrichtung der Raubvögel sowie zum Training wurden Tauben verwendet, die bei diesem Verfahren gleichzeitig als Beute und Nahrung dienten.

Tauben: Einsatz im Ersten Weltkrieg

Während des Ersten Weltkrieges zwischen 1914 und 1918 gab es zwar schon verschiedene Funksysteme. Diese waren jedoch sehr anfällig und wurden oft bei Kämpfen beschädigt. Aus diesem Grund entschied man sich für den Einsatz von Brieftauben. Die heimatlichen Nistplätze befanden sich hinter den eigenen Frontlinien. Die Taube selbst wurde mit nach vorne genommen. Sollte eine Nachricht hinter die Front geschickt werden, band der Betreffende der Taube eine kleine Nachricht ans Bein. Innerhalb kurzer Zeit landete sie danach an ihrem Heimatort und leistete so einen Beitrag für das Land, zu dem sie gehörte.

Gibt es unterschiedliche Tauben und wie leben sie?

Insgesamt gibt es mehr als dreihundert verschiedene Arten von Tauben. Diese unterscheiden sich im Aussehen, im Verhalten und in der Größe. Während kleine Exemplare in ihrer Gestalt einer Lerche ähneln, können andere mit einem Huhn verwechselt werden.

Ihre Haltung ist sowohl auf dem Land als auch in der Stadt möglich. Dazu werden spezielle Käfiganlagen mit Volieren gebaut. In ihnen können sich die Tauben bis zu einem gewissen Grad frei bewegen.

Tauben als Symbole

In vielen Religionen steht die weiße Taube für ein gutes Omen. So soll Noah – laut der Bibel – ein Exemplar ausgeschickt haben, damit dieses – von der Arche kommend – nach einer neuen Heimat suchen sollte. Zu seinem Glück soll die Taube mit einem Ölzweig zurückgekehrt sein, der für eine neue Zukunft und das verheißende Land stand. Sie verkörpert seitdem außerdem den Wunsch nach Zuversicht, Frieden und Harmonie.

Tauben als Vorbild für die Paarbindung

Viele Paare trennen sich, auch wenn sie bereits Kinder haben. Dieses Verhalten ist den Tauben fremd. Sie bleiben ein Leben lang zusammen und ziehen ihren Nachwuchs gemeinsam groß. Schon nach sechs Monaten kann der weibliche Vogel Eier legen. Die Aufzucht der Jungen beträgt nach einer Brutzeit von achtzehn noch weitere 30- bis 40 Tage, bis der Jungvogel das Nest verlassen kann. Aufgrund der biologischen Besonderheiten kann die Taube auch während des gesamten Jahres brüten.

Welche Fähigkeiten besitzen Tauben?

Zum Einen können sie sich am Magnetfeld der Erde orientieren. Während des Fluges folgen sie dem kürzesten Weg, um zu ihrem Heimatplatz zurückzugelangen. Hier pflegen sie ein soziales Verhältnis mit ihren Genossen.

Durch verschiedene Tests wurde mittlerweile der Beweis erbracht, dass viele Tauben Menschen an ihren Gesichtszügen erkennen.

Tauben dienen dem natürlichen Ökosystem

Tauben benötigen im Laufe der Brutpflege auch tierisches Eiweiß. Es wird eingesetzt, um das Wachstum der Jungen zu beschleunigen und die Kraft der Eltern zu erhalten. Dieses tierische Eiweiß stammt beispielsweise von Insekten und kleinen Tieren, die sich sonst als Schädlinge negativ auf den natürlichen Lebensraum auswirken.

Gleichzeitig nehmen sie die Samen von Pflanzen mit ihrer vegetarischen Nahrung auf. Nach dem Verdauungsprozess verteilen sie die Basen für neue Blumen und Sträucher in ihrer Umwelt. Deshalb sollte man die Tauben nicht mit menschlicher Nahrung füttern. Diese reduziert nicht nur die Möglichkeiten der Tauben, sich spezielle biologisch sinnvolle Pflanzen zu suchen. Gleichzeitig werden die Vögel fett und verlieren ihre ihnen eigene Beweglichkeit. Außerdem wird das Lebensalter der betreffenden Taube signifikant gesenkt.

Leider stellen die Tauben, die zum größten Teil eine beachtliche Größe erreichen können, eine gute Nahrungsquelle für tierische Jäger wie Habichte, Eulen oder Katzen dar.

Wofür / Wozu sind Mücken gut? Erklärung, Nutzen


Mücken sind als Larven und im Erwachsenalter eine wichtige Nahrungsgrundlage für eine Vielzahl an anderen Tieren. Dementsprechend sind die kleinen Insekten wichtig für Spinnen, Amphibien, Vögel, Libellen und Fische. Wenn sie aus dem Ökosystem verschwinden, hätte das für viele andere Tiere eine gravierende Folge. Viele Menschen sehen Stechmücken nur als lästige Plagemeister. Das liegt vor allem daran, dass ein Stich ein heftiges Jucken verursachen kann und man sich an feuchtwarmen Sommertagen kaum vor Mücken retten kann.

Was machen Mücken?

Im Sommer bei heißen Temperaturen liegen die Eier der Mücken über einen längeren Zeitraum auf dem Boden. Wenn es anfängt zu regnet, werden Wiesen und Senken mit Wasser überschwemmt. Das sorgt für eine Art Massenschlupf. Wenn sich die geschlüpften Mücken in Schwärmen auf die Suche nach Opfern machen, sind sie eine gute Nahrungsquelle für Vögel oder Fledermäuse. Viele Mücken ernähren sich von Nektar. Dadurch bestäuben sie die Pflanzen.

Lediglich die weibliche Mücke benötigt für ihre Eierproduktion eine Blutmahlzeit. Sie benötigt für ihre Eier viel Protein. Viele Studien haben bewiesen, dass Menschen mit der Blutgruppe 0 wesentlich häufiger gestochen werden als Menschen mit der Blutgruppe B. Die Stechrate ist bei der Blutgruppe 0 sogar doppelt so hoch. Menschen mit der Blutgruppe A werden von Mücken nur sehr selten attackiert. Sie scheinen für die Mücken unsichtbar zu sein. Neben Stechmücken findet man in Deutschland vor allem auch Bartmücken, Schmetterlingsmücken und Kriebelmücken. Insgesamt gibt es 50 Arten an Kriebelmücken, die sehr rundlich, klein und schwarz aussehen. Man kann sie leicht an den kurzen Flügeln erkennen. Sandmücken sind dagegen klein und beige.

Welche Aufgabe haben Mücken? Erklärung

An feuchten Tagen treten Mücken vermehrt auf, sodass die unterschiedlichsten Tierarten ausreichend zu fressen haben. Es gibt aber kein Tier, dass sich speziell auf Mücken als Nahrungsquelle spezialisiert hat. Somit verhungert auch kein Tier, wenn es einen trockenen Sommer und somit kaum Mücken gibt. Treten Mücken dagegen in Schwärmen auf, sind besonders Vögel gut versorgt. Experten haben festgestellt, dass sie während einer starken Mückenpopulation sogar eine dritte Brut gut durchbringen können.

In Deutschland gibt es über 28 Mückenarten. Stechmücken sind somit nur ein Teil dieser Familie. Biologen haben herausgefunden, dass die verschiedenen Mückenarten alle ökologischen Nischen füllen. Nicht nur Vögel und Fledermäuse, sondern auch viele räuberische Insekten ernähren sich von den fliegenden und ausgewachsenen Mücken. Wassertiere fressen dagegen gerne Mückenlarven. Vor allem Amphibien und Fische fressen die Mückenart, die für Menschen am gefährlichsten angesehen werden, die Kriebelmücke. Bei einigen Fischarten können die Larven der Kriebelmücken bis zu 80% der Fischnahrung dar.

Wie und wo nützen Mücken? Nutzen

Nicht nur Bienen, sondern auch Mücken und Fliegen sorgen dafür, dass Pflanzen im Garten bestäubt werden. Diese Tatsache wird von vielen Menschen vergessen, da Mücken aufgrund ihres lästigen Stechverhaltens als sehr negativ angesehen werden. Ohne bestimmte Mückenarten würde es in Zukunft keine Schokolade mehr geben. Nur der Rüssel von Mücken ist lang und fein genug, um an die kleinen Blüten des Kakaos zu kommen. Sie übertragen die Pollen von einem Kakaobaum zu anderen. Dadurch kann es zu einer Kreuzbefruchtung kommen und neue Kakaofrüchte können sich bilden. Auch in Deutschland gibt es viele Mückenarten, die sich auf bestimmte Bäume oder Doldenblütler spezialisiert haben. Auf Pflanzen, die de doldenartige Blüten- oder Fruchtstände haben, können Stechmücken sehr häufig beobachtet werden.

Was ist ein Jump-Scare? Bedeutung, Definition, Erklärung


Das Wort Jump-Scare setzt sich aus jump (springen) und scare (ängstigen) zusammen und beschreibt damit eine plötzlich auftretende Situation, durch die sich eine Person erschrickt. In Filmen sind damit Szenen gemeint, die einen überraschenden Moment haben, wodurch sich der Protagonist und im besten Fall auch die Zuschauer erschrecken. Verstärkt wird dieser kurze Moment oft von dramatisch anschwellender Musik, diffuser Beleuchtung und dem erschreckten Aufschrei der überraschten Person.

Was ist der Zweck eines Jump-Scares?

Sinn ist es, den Zuschauer zu erschrecken und für einen Gänsehautmoment zu sorgen. Geht der Protagonist beispielsweise einen langen, dunklen Flur entlang, an dessen Ende ein geöffnetes Fenster mit wehendem Vorhang zu sehen ist, erwartet der Zuschauer ein Ereignis am Fenster. Springt aber schon viel früher jemand plötzlich und völlig unerwartet aus einer seitlichen Tür, hat keiner damit gerechnet und erschrickt sich. Ein eigentlich sehr einfaches Stilmittel, mit dem aber ein großer Effekt erzielt wird. Dieses Prinzip wird übrigens auch in den klassischen Geisterbahnen angewendet. Auch wenn man den Schrecken erwartet, ist man im Moment des Erschreckens doch überrascht.

Somit werden Jump-Scares in Horrorfilmen und Thrillern ganz bewusst eingesetzt, um Spannung zu erzeugen. Daher können Jump-Scare Filme auch ganz ohne Blut oder Gewalt auskommen und trotzdem eine dunkle Stimmung erzeugen.

Welche Vorteile hat ein Jump-Scare Film?

Für den Produzenten des Filmes ist dieses Stilmittel einfach und effektiv einzusetzen und damit auch recht kostengünstig. Die aufwendige Arbeit der Make-up-Artisten, Kunstblut oder künstliche Körperteile werden hier nicht benötigt, was Zeit und Geld spart. Schauspielerische Leistung sowie zeitliche Abstimmung von Erscheinen des Ereignisses und Reaktion des Opfers muss stimmen. Die erschreckten Schauspieler sollten Angst und Entsetzen glaubhaft darstellen.

Vorteile gibt es für die Zuschauer, die sich gruseln oder erschrecken möchten, aber keine Blutbäder oder abgetrennte Körperteile sehen möchten. Für die ist ein reiner Jump-Scare Movie die bessere Wahl.

Variationen und Kombinationen mit anderen Stilmitteln

Nicht alle Horrorfilme bestehen ausschließlich aus Jump-Scares, oft werden diese zusätzlich zu Gewalt, Blut und Action eingesetzt, um die Spannung im Film zu erhöhen. So eine Kombination gibt es zum Beispiel in den Saw-Filmen.

Aktuell sind auch Filme beliebt, in denen der Zuschauer das Ereignis vorhersieht. So sieht er von außen auf die Szene und bemerkt, wie sich der Mörder von hinten an das ahnungslose Opfer anschleicht. Damit gibt es eine emotionale Verbindung zum Opfer und den Wunsch, dieses zu warnen. Natürlich ohne Aussicht auf Erfolg.

Beispiele für bekannte Jump-Scare Filme

Bereits der erste Draculafilm, der 1932 in die Kinos kam, bediente sich dieses Stilmittels. Und auch in Alfred Hitchcocks Thrillern in den 60er-Jahren wurden diese Schreckensmomente gerne angewandt.

Ihre Blütezeit erlebten Jump-Scares aber in den 80er und 90er-Jahren. Zum Beispiel im ersten Teil des „Halloween“ Filmes mit Jamie Lee Curties und „Freddy Kruger – Nigthmare on Elm Street“.

Um das Jahr 2000 herum wurden Jump-Scare Filme mit einer mystischen Atomsphäre und kleinem Budget gedreht.

1999 Mit „The Blair Witch Project“ kam ein Film in die Kinos, der komplett auf Blut verzichtet und ausschließlich mit Jump-Scares eine Spannung aufbaut. Und auch die 2007 gestartete Fimlreihe „Paranormal Activity“ lebt hauptsächlich von Jump-Scares.

Weitere Beispiele sind „The Conjuring“, „Sinister“ oder „Es“ von Stephen Spielberg.

Fazit: Was ist ein Jump-Scare? Bedeutung, Definition, Erklärung

Ein Jump-Scare ist ein einfach umzusetzendes und beliebtes Mittel, um in Filmen Angst und Schrecken zu erzeugen. Sie können mit anderen Stilmittel (Gewalt) oder auch alleine in Filmen verwendet werden. Durch die Anwendung in fast 100 Jahren Filmgeschichte sind sie offensichtlich beliebt und noch immer aktuell.

Was bedeutet „Punch Hole“? Bedeutung, Definition, Erklärung


Wörtlich übersetzt bedeutet der Begriff Punch Hole so viel wie Lochung oder auch Lochstelle. Er wird in der Hauptsache in Zusammenhang mit Smartphones oder Tablet PCs verwendet.

Was hat das mit Smartphones zu tun?

Neben einer oder mehreren Hauptkameras auf der Rückseite besitzen Smartphones und Tablets in der Regel auch eine zweite Kamera auf der Vorderseite. Sie ist für Selfies und Videochats gedacht. Die Hersteller benutzen verschiedene Methoden, um die Frontkamera in das Display zu integrieren. Neben der Notch (Aussparung, Kerbe) und dem Raindrop setzt sich das Punch Hole bei immer mehr Geräten durch. Damit ist nichts weiter als ein kleines Loch im Display gemeint, hinter dem sich die Kamera verbirgt.

Welche Vorteile hat ein Punch Hole?

Seine Popularität bei den Handyherstellern hat einen guten Grund. Es ist die platzsparendste Methode, um die Frontkamera unterzubringen. Der Trend bei Smartphones geht zu Modellen mit immer größeren Displays. Das liegt daran, dass die Geräte mehr und mehr für multimediale Anwendungen genutzt werden. Verbraucher wollen damit Filme anschauen oder mit ihren Freunden Videochats machen. Dafür benötigen sie ein möglichst großes Display. Die Frontkamera, die wegen der Videofunktion unverzichtbar ist, hinter einem Punch Hole zu verbergen, ist die optimalste Lösung, weil sie am wenigsten Platz beansprucht. Der Displayrand kann durch das Punch Hole deutlich schmaler gefertigt werden. Deshalb findet man diese Art der Unterbringung der Frontkamera besonders häufig bei rahmenlosen Displays. Diese Art von Display ist aktuell bei fast allen Top-Marken Standard.

Dazu kommt noch ein weiterer Vorteil. Weil die Frontkamera hinter einem Punch Hole sitzt, bildet das Display eine glatte Oberfläche. Es lässt sich dadurch leichter reinigen. Sitzt die Kamera in einer Notch oder einem Raindrop setzt sich dort an den Ecken und Kanten Schmutz fest. Er ist nur schwer zu entfernen und kann die Bildqualität negativ beeinflussen. Zudem ist die Kamera hinter dem Punch Hole besser geschützt.

Hat ein Punch Hole Display auch Nachteile?

Beim normalen Betrieb gibt es keine Nachteile. Die eingesetzte Technik der Frontkamera ist dieselbe, unabhängig von der Art des Displays. Wird das Smartphone im Vollbildmodus verwendet, kann das Punch Hole mitunter etwas störend wirken. Das ist aber kein großes Problem. Mehr oder weniger handelt es sich um eine Gewohnheitssache. Einige Verbraucher kritisieren jedoch, dass ein Punch Hole bei der Gesichtserkennung nicht so gut funktioniert wie eine Frontkamera in einem Notch oder Raindrop Display.

Seit wann gibt es Smartphones mit Punch Hole?

Der südkoreanische Elektronikkonzern Samsung war der Vorreiter dieser Entwicklung. Sein Smartphone Samsung Galaxy S10 war das erste Modell, dessen Frontkamera hinter einem Punch Hole Display versteckt wurde. Das Handy kam in Deutschland im März 2019 auf den Markt. Es erwies sich als Verkaufshit und gehörte schnell zu den beliebtesten Smartphones seiner Klasse. Seinen Erfolg hatte es unter vielen anderen Dingen auch der eleganten Lösung des Punch Holes zu verdanken. Andere Hersteller wurden auf den Erfolg aufmerksam und übernahmen die Lösung. Im Gegensatz verbirgt aber Apple die Frontkamera seiner iPhones weiterhin in einer Notch.

Was tun, wen das Punch Hole stört?

User, die das Punch Hole stört, können sich im Google Play Store Hintergrundbilder auf ihr Smartphone laden, die das Punch Hole je nach Design entweder verbergen oder betonen. Beliebt sind zum Beispiel die Minions oder auch Kunstwerke wie Banksys „Mädchen mit Luftballon“ oder andere Motive, bei denen sich ein Detail des Bildes genau an der Stelle des Punch Holes befindet.

Kann man das Punch Hole verstecken?

Das ist zumindest teilweise möglich. Dazu muss man das Menü „Systemeinstellungen“ öffnen. Im nächsten Schritt wählt man den Menüpunkt „Anzeige“. Dort geht man zum Punkt Apps in Vollbildmodus. Zum Schluss klickt man auf den Button „Frontkamera ausblenden“. Jetzt verschwindet die Frontkamera zumindest optisch, verkleinert aber gleichzeitig das nutzbare Display. Wenn man die Aktion rückgängig machen möchte, genügt es, die Option „Frontkamera ausblenden“ zu deaktivieren, um den ursprünglichen Zustand wieder herzustellen.

Wofür / Wozu sind Schmetterlinge gut? Erklärung, Nutzen


Schmetterlinge sind nicht nur schön, einige Exemplare von ihnen nehmen in der Natur durchaus wichtige Funktionen wahr wie das Bestäuben der Blüten.

Welchen Nutzen haben Schmetterlinge?

Mit ihrer Schönheit erfreuen die Schmetterlinge viele Menschen. Sie erfüllen aber auch wichtige Aufgaben in der Natur oder im Garten. So fliegen sie von Blume zu Blume und saugen mithilfe ihres Rüssels den Nektar. Dabei erfolgt ihre Bedeckung mit Pollen. Wenn die Schmetterlinge anschließend zur nächsten Blüte fliegen, geben sie die Pollen an sie weiter. Dadurch sind die schönen Insekten für die Bestäubung von großer Wichtigkeit.

Einige Falter sind aufgrund ihrer Rüssellänge speziell an bestimmte Pflanzen angepasst. Daher steuern sie immer die gleiche Pflanzengattung an, wodurch diese sich vermehren kann. Es gibt sogar Pflanzen, die ausschließlich von Schmetterlingen bestäubt werden können, wie zum Beispiel die Kuckucks-Lichtnelke.

Als Lieblingspflanze der Schmetterlinge gilt der Schmetterlingsbaum. Weitere Pflanzen, die von den Schmetterlingen profitieren sind:

  • Lavendel
  • Sommerflieder
  • Blaukissen
  • Gold-Akelei
  • Eisenkraut
  • Majoran
  • Fette Henne
  • Verbene
  • Herbstaster
  • Zwergflieder
  • Schmetterlingsflieder
  • Phlox
  • Bartnelken

Für die Schmetterlinge ist die Vielfalt an Arten wichtig zum Überleben.

Schmetterlinge im Garten

Von großer Bedeutung sind die Schmetterlinge auch für den Garten. Sie bilden dort wichtige Nützlinge und haben Anteil an einem ausgewogenen Kleinökosystem. So bleiben auch hier die Pollen beim Nektarnaschen der Insekten an ihrem Körper haften. Beim Anflug auf die nächste Pflanze bleiben die Pollen an ihr hängen, was wiederum zur natürlichen Bestäubung beiträgt.

Schon im Frühjahr zeigen sich die ersten Schmetterlinge wie der Zitronenfalter oder der Kleine Fuchs im Garten. Die Schmetterlinge lassen sich zudem als Zeiger für spezielle Pflanzen nutzen, denn viele Arten beschränken sich auf einen begrenzten Lebensraum. Dabei legen sie ihre Eier immer nur an bestimmten Pflanzen ab. Das Anlegen eines Schmetterlingsgartens gilt daher als sinnvoll.

Nutzen der Schmetterlinge für Tiere

Sehr nützlich sind Schmetterlinge auch für verschiedene Tierarten. So dienen Schmetterlings-Raupen vor allem Vögeln als wichtige Nahrungsquelle. Einige Singvögel benötigen sie sogar, um überleben zu können. Als Nahrung sind die Schmetterlinge für manche Vögel also von großer Bedeutung.

Die Schmetterlinge

Die Schmetterlinge (Lepidoptera) bilden eine Insekten-Ordnung. Sie umfassen ca. 160.000 bekannte Arten, rund 130 Familien sowie 46 Überfamilien. Damit stellen die nach den Käfern die artenreichste Ordnung der Insekten dar. Pro Jahr kommen etwa 700 neuentdeckte Arten hinzu. Allein in Deutschland leben ungefähr 3700 Arten.

Merkmale der Schmetterlinge

Schmetterlinge kommen in den verschiedensten Farben und Formen vor. Einige Schmetterlingsfamilien sind sowohl bei Tage als auch in der Nacht aktiv. Während die Tagfalter zumeist durch ihre bunten Färbungen auffallen, zeigen sich die Nachtfalter eher unscheinbar.

Das wohl wichtigste Merkmal des Schmetterlings sind seine Flügel. Aber auch die Färbung spielt eine Rolle. Sie bildet sich durch Pigmente, die verschiedene Färbungen aufweisen. Mitunter entsteht die Färbung aber auch durch spezielle Oberflächenstrukturen auf den Flügeln. Weil das Licht auf den Flügeln in unterschiedlicher Weise gebrochen wird, nimmt der Mensch sie als schillernde Farben wahr.

Als größter Schmetterling der Welt gilt der südostasiatische Atlasspinner. Seine Flügel bringen es auf eine Spannweite von 25 bis 30 Zentimeter. Zu den kleinsten Schmetterlingen zählen die Schopstirnmotten. Diese erreichen lediglich eine Flügelspannweite von 1,5 bis 2 Millimetern. Die meisten Schmetterlinge, die in Deutschland vorkommen, bringen es auf eine Flügelspannweite von rund 10 Zentimetern.

So unterschiedlich die Schmetterlinge sind, umso verschiedener fällt auch der Aufbau ihrer Fühler aus. So sind sie entweder gekeult, fadenförmig oder gekämmt. Durch die Fühler sind die Insekten imstande, Temperaturen zu spüren, zu riechen oder zu schmecken.

Die Lebensweise der Schmetterlinge

Bevor die Insekten zu bewundernswerten Schmetterlingen werden, durchlaufen sie ein Entwicklungsstadium, das vom Ei über die Raupe bis hin zur Puppe reicht. Dabei kommt es zur Metamorphose der Raupe zum schönen Falter. Die Lebenszeit der meisten Schmetterlinge ist nur auf einige Wochen beschränkt. Im Frühling, wenn die Pflanzen erblühen, beginnen die Schmetterlinge zu fliegen. Im Herbst, wenn die Temperaturen absinken, neigt sich ihr Leben wieder dem Ende zu.

Manche Arten können aber auch als Falter den Winter überstehen, wie der Zitronenfalter, das Tagpfauenauge oder der Kleine Fuchs. Sie verkriechen sind dann in die Ecken von Schuppen oder in hohle Bäume. Dort bleiben sie vollkommen bewegungslos während des Winters.

Fazit: Wofür / Wozu sind Schmetterlinge gut? Erklärung, Nutzen

Schmetterlinge sind für das Bestäuben von Blüten von Wichtigkeit. So entstehen durch ihre Einwirkung neue Samen. Aus diesen Samen gehen wiederum Pflanzen hervor. Infolgedessen gedeihen durch die Schmetterlinge frische Pflanzen und Blumen. Manche Menschen erfreuen sich auch nur an ihrer Schönheit.

Was ist konvergentes Denken? Was ist divergentes Denken? Bedeutung, Definition, Erklärung


Ist von konvergentem Denken die Rede, handelt es sich um ein problemorientiertes Lösungsdenken, bei dem die bestmögliche Lösung für eine vorliegende Problemstellung gefunden wird bzw. werden soll. Die individuellen Fähigkeiten im Rahmen des konvergenten Denkens werden zudem als Kernkompetenzen im Rahmen von zahlreichen standardisierten Tests in Schulen und im Rahmen von Einstellungsprüfungen oder Intelligenztests abgefragt. Auch Multiple-Choice- und Rechtsschreib-Tests erfassen in zahlreichen Fällen wesentliche Fähigkeiten im Rahmen der konvergenten Denkprozesse.

Das divergente Denken beschreibt im Gegensatz zum konvergenten Denken einen kreativen, oft mehrstufigen Denkprozess, der im Rahmen von kreativen und offenen Aufgabenstellungen gefordert ist.

Woher stammt der Begriff des konvergenten Denkens?

Der Begriff „konvergent“ kommt von dem lateinischen Verb „convergere“, das zu Deutsch mit „sich annähern“ oder „übereinstimmen“ übersetzt werden kann. Dieser etymologische Exkurs ins Lateinische hilft schnell weiter, wenn man der Frage nachgeht, welche Form des Denkens das konvergente Denken impliziert:

Beim konvergenten Denken geht es primär um einen Denkvorgang, bei dem man sich der Lösung durch systematisches, logisches Denken annähert. Die Lösung bzw. der Lösungsentwurf wird dabei oft in mehreren Teilschritten hinsichtlich ihrer bzw. seines logischen Aufbaus bzw. der hinsichtlich der Passung und Übereinstimmung der einzelnen Denkschritte kritisch überprüft und mit der Aufgabenstellung abgeglichen.

Konvergentes Denken und divergentes Denken: Bedeutung, Definition, Erklärung

Das konvergente Denken ist das Gegenteil zum divergenten Denken, das oft situativ und kreativer Natur ist. Während beim konvergenten Denken die stets bestmögliche Lösung im Fokus der Problemlösungsstrategien steht und beispielsweise zwischen vorgegebenen Lösungen oder Lösungswegen gewählt werden kann, bezeichnet das divergente Denken den frei fließenden Denkprozess, der per se kreativ ausgerichtet ist und Lösungs-Optionen auch neu erdenkt, ohne dabei dogmatisch das bestmögliche Optimum als Qualitätskriterium der Lösung anzusehen.

Der entscheidende Unterschied zwischen dem konvergenten und divergenten Denken ist also im Fall des konvergenten Denkens das Primat der Logik während das divergente Denken ein kreatives Arbeiten und Denken voraussetzt, das sehr häufig beispielsweise in Form von offenen Aufgabenstellungen gefordert ist.

So liegt es auf der Hand, dass das konvergente Denken am besten in solchen Situationen funktioniert, in denen nur eine einzige, bestmögliche Antwort bzw. Lösung existiert. Die Lösung im Rahmen von Aufgaben, die logisches, konvergentes Denken erfordern, lässt sich finden, indem die in der Aufgabenstellung verfügbaren Informationen gebündelt und in einem oder mehreren Teilschritten systematisch analysiert und evaluiert werden.

Beispiele für das klassisches konvergentes Denken

Konvergentes Denken begegnet uns nicht nur im Rahmen wissenschaftlicher Studien und komplexer Problemstellungen, sondern auch immer wieder im Alltag. Eine wohl einfache und sofort verständliche Aufgabe, die ausschließlich konvergentes Denken erfordert, ist die mathematische Aufgabe 5+5.

Werden die beiden Summanden in der Aufgabe als gespeicherte Information analysiert, kommt man schnell zu der einzig richtigen und wahren Lösung, nämlich der Summe 10, zu der es keine anderen kreativen oder alternativ korrekten Lösungen gibt.

Divergentes Denken hingegen ist für die Bearbeitung der Aufgabenstellung „Finde jeweils 2 mögliche Summanden, die die Summe 10 ergeben“ nötig. Bei dieser so formulierten Aufgabenstellung gibt es keine antizipierte als bestmögliche und einzig korrekt geltende Lösung. Das kreative bzw. divergente Denken ist gefordert: Sowohl die Lösung 4+6 als auch die Lösungen 1+9 oder 2,7+7,3 gelten als mögliche, akzeptierte Lösungen für die Aufgabenstellung.

Konvergentes und divergentes Denken sind aber nicht nur in der Mathematik gefordert Auch eine offene bzw. geschlossene Aufgabe aus dem Sport mag den Unterschied zwischen dem konvergenten und divergenten Denken exemplarisch zu veranschaulichen:

Lautet die Aufgabe „Überspringe die Hochsprunglatte mit Hilfe der Technik des Fosbury Flops“, gibt es nur eine aus biomechanischer Sicht optimale Lösung, bei der der Athlet seinen Körperschwerpunkt durch eine leicht überstreckte Position während der Überquerung des Hindernisses absenkt und somit energieeffizient an Höhe gewinnt. Lautet die offene Bewegungsaufgabe jedoch: „Finde Lösungen, das Hindernis elegant zu überqueren“, sind unendlich viele Lösungen denkbar, die der Athlet beim Springen selbst erproben, reflektieren und evaluieren muss. Hier lässt sich also keine bestmögliche Lösung aus der Aufgabe ableiten.

Fazit: Konvergentes und divergentes Denken

Konvergentes Denken ist ein auf Logik basierter Denkansatz mit dem Ziel, die bestmögliche und oft einzig richtige Lösung für ein Problem oder eine Aufgabe zu finden. Im Gegensatz zum konvergenten Denken existieren beim Ansatz des divergenten Denkens zumeist keine einzig besten Lösungen und auch die Auswahl zwischen mehreren Alternativen zur Lösungsfindung ist nicht möglich. Stattdessen bedarf es eines Ausprobierens und kreativer Ansätze, um eine akzeptierte und gute Lösung für die Aufgabenstellung zu finden.

Was ist der Albedo Effekt? Bedeutung, Definition, Erklärung


Die Albedo ist ein Maß für das Rückstrahlungsvermögen bzw. die Reflexionsstrahlung von diffus reflektierenden, d. h. nicht selbst leuchtenden Oberflächen. Physikalisch kann die Albedo auch als Reflexionsgrad bezeichnet werden.

Was ist der Albedo Effekt? Bedeutung, Definition, Erklärung

Die Albedo wird als dimensionslose Zahl angegeben und entspricht dem Verhältnis von Rückstrahlung zu einfallendem Licht, d. h. sie lässt sich aus dem Quotienten aus reflektierter Lichtmenge zu einfallender Lichtmenge bestimmten.

Der Wert, den die Albedo dabei annehmen kann, wird auch Albedo-Wert genannt. Er reicht von 0, (= keine Reflektion von Licht) bis 1 (= vollständige Reflektion des vorhandenen Lichts) und kann auch in Prozent angegeben werden (0 – 100%). Beispielsweise entspricht eine Albedo von 0,9 eine Rückstrahlung von 90%).

Umso heller die Oberfläche ist, desto größer ist der Anteil der von ihr reflektierten Strahlung. d. h. je höher das Rückstrahlungsvermögen, desto höher die Albedo.

Die Albedo ist insbesondere in der Meteorologie von Bedeutung. Durch sie ist es möglich, Aussagen darüber zu treffen, wie stark sich eine Oberfläche erwärmt – und somit auch die Luft, die in Kontakt mit der Oberfläche steht.
Wird bei geringer Albedo das Sonnenlicht nicht reflektiert sondern absorbiert, erwärmt sich die Oberfläche und die sie umgebende Luftschicht (vgl. Abschnitt ‚Verschiedene Oberflächen und ihre Albedo‘).
In diesem Zusammenhang ist in der Klimatologie die sog. Eis-Albedo-Rückkopplung wesentlicher Faktor.

Die Eis-Albedo-Rückkopplung beeinflusst den Strahlungsantrieb und damit die Strahlungsbilanz der Erde – womit dieser Faktor auch relevant für das Weltklima ist (vgl. Abschnitt ‚Klimaänderungen und die Albedo‘).

Arten der Albedo

Es gibt zwei verschiedene Arten der Albedo, die zu unterscheiden sind:

Die sphärische Albedo (Bondsche Albedo) und die geometrische Albedo.

Unter Ersterer versteht man das Verhältnis des von der Oberfläche einer Kugel in alle Richtungen reflektierten Lichts zu der Strahlung, welche auf den Kugelquerschnitt einfällt.

Unter Zweiterer versteht man das Verhältnis des Strahlungsstrom, welcher von einer voll bestrahlten Fläche zum Betrachter gelangt zu dem Strahlungsstrom, der von einem sog. Lambertscher Strahler, d. h. einer diffus reflektierenden, vollkommenen weißen Scheibe von gleicher Größe bei einem senkrechtem Lichteinfall zum Betrachter gelangen würde.

Verschiedene Oberflächen und ihre Albedo

Die Albedo eines Körpers wird durch seine Oberflächenbeschaffenheit bestimmt, d. h. die verschiedenen Oberflächen haben eine unterschiedliche Rückstrahlung und demzufolge unterschiedliche Albedo-Werte, beispielsweise:

  • Schnee 40–90%
  • Wüste 20–45%
  • Wald 5–20%

Glatte Oberflächen, wie z. B. Wasser, Sand oder Schnee, besitzen einen verhältnismäßig recht großen Anteil an spiegelnder Reflexion. Ihre Albedo ist daher im Wesentlichen vom Einfallswinkel der Sonnenstrahlung abhängig.

Außerdem ist die Albedo abhängig von der Wellenlänge des Lichts, das untersucht wird. Daher sollte bei der Angabe der Albedo-Werte immer der entsprechende Wellenlängenbereich (z. B. Sonnenspektrum oder sichtbares Licht) mit angegeben werden.

Wolken und ihre Albedo

Die Albedo eines bewölkten Planeten unterscheidet sich stark zu der von unbewölkten Planeten. Der Unterschied kommt daher zustande, dass durch die Wolken mehr Licht in das Weltall zurück reflektiert wird, als bei einem blauen, wolkenloser Himmel.

Die Albedo der Wolken ist von verschiedenen Faktoren abhängig:

  • die Höhe der Wolke
  • die Größe der Wolke
  • die Anzahl sowie Größe der Tropfen, die die Wolke enthält.

Für gewöhnlich hat eine Wolke im Vergleich zum Erdboden neben ihr eine höhere Albedo. Daher reflektiert eine bewölkte Oberfläche mehr Strahlung ins Weltall zurück, als es ein Oberfläche bei klarem, unbewölkten Himmel tun würde. Wolken verhindern somit das Eindringen von Sonnenlicht, welches die Atmosphäre erwärmt – sie funkgieren für den Planeten somit ähnlich wie eine Markise im Wintergarten.

Klimaänderungen und die Albedo

Die Albedo bzw. das Rückstrahlungsvermögen des Planeten ist für dessen Erwärmung und das Weltklima von großer Bedeutung. Veränderungen von Landschaft sowie Klima können dazu führen, dass sich die Albedo verändert. Veränderungen in der Albedo können wiederum Auswirkungen auf den Strahlungshaushalt der Erde haben – und damit eine Erwärmung oder Abkühlung des Planeten bewirken.

In folgenden Fällen ist eine Änderung der Albedo besonders wirk- und bedeutsam:

  • Schwund von Schnee- und Eisflächen (Eis-Albedo-Rückkopplung)

Einer der bedeutsamsten regionalen Effekte des Klimawandels ist der Schwund von Meereis im nördlichen Polarmeer.
Dort wird mit dem Abschmelzen der polaren Eiskappe eine Oberfläche (Eis), welche eine hohe Rückstrahlung besitz, durch eine Oberfläche (Meerwasser) mit einer deutlich geringeren Rückstrahlung ersetzt. Die Eisfläche nimmt ab, die Albedo wird geringer.
Die Folge ist, dass die Aufnahme von Energie erheblich erhöht ist, die wiederum regional eine wesentlich stärkere Erwärmung verursacht, als für die restliche Welt zu erwarten ist. Je weniger Eis, desto stärker die Erwärmung. Dieser Effekt wird auch als Eis-Albedo-Rückkopplung bezeichnet, und Ursache dafür, dass der Klimawandel im Nordpolarmeer schneller abläuft und sichtbarer ist.

  • Änderung der Vegetation (Landnutzungswandel)

Der sog. Landnutzungswandel, der mit einem Verlust von Wäldern bei einer gleichzeitigen Ausdehnung landwirtschaftlich genutzter Flächen einhergeht, bedingt eine Erhöhung der Albedo. Bedingt durch die Art des Pflanzenaufwuchses ist Ackerland heller als bewaldete Fläche, daher besitzt es ein höheres Rückstrahlungsvermögen als Wald. Hieraus resultiert eine kühlende Wirkung. Diese kann jedoch andere nachteilige Faktoren (CO2-Zunahme und Biodiversitätsverlust), die mit dem Verschwinden von Regenwald einhergehen nicht ausgleichen.

Wofür / Wozu sind Quallen gut? Erklärung, Nutzen


Quallen fressen Kleinstlebewesen und Plankton. Dadurch tragen sie dazu bei, dass sich die kleinen Lebewesen nicht zu stark vermehren und es zu einer Plage kommt. Quallen leisten daher einen großen Beitrag für das Ökosystem. In den Meeren sind sie immer häufiger zu entdecken. Das liegt unter anderem daran, dass sich durch Dünger, der in die Meere gelangt, das Leben der Quallen begünstigt werden. Der Dünger sorgt dafür, dass die Algenfauna wächst, wodurch auch die Population an Plankton, kleinen Fischen und Ringelwürmer an Popularität zunehmen. Somit kommt es zu einer Invasion der Nesseltiere.

Was machen Quallen? Erklärung, Nutzen

Quallen bestehen zu 98% aus Wasser. Sie gehören zu den ältesten Lebewesen der Erdgeschichte und sind in allen Meeren zu finden. Die Nesseltiere gelten als wahren Überlebenskünstler. Ihrer besonderen Anpassungsfähigkeit ist es zu verdanken, dass sie bereits seit 670 Millionen die Erde besiedeln. Zu den Nesseltieren gehören auch Blumentiere und Seeanemonen. Quallen verfügen über Nesselkapseln an den Tentakeln. Bei einer Berührung schießt aus diesen Kapseln ein Gift heraus. Menschen, die mit dem Gift in Berührung kommen, haben ähnliche Symptome wie bei einer Brennnessel.

Quallen werden in zwei Kategorien unterteilt. Hierbei handelt es sich um die harmlosen Schirm- und Scheibenquallen und die giftigen, gefährlichen und vierkantigen Würfelquallen. Zusätzlich sind mehr Meer Rippenquallen, die nicht zu den echten Quallen gehören. Sie besitzen keine Nesselkapseln, was für Quallen sehr untypisch ist. Aufgrund ihres leichten Gewichts und ihrer speziellen Form werden Quallen von der Strömung getrieben. Je nach Art bevölkern sie würfelförmig, kugelig, schirmartig in vielen Farben die Meere.

Welche Aufgabe haben Quallen?

Quallen sorgen allgemein dafür, dass es keine Plagen von kleinen Fischen und Ringelwürmern gibt. Ein Quallenkörper besteht aus einem Gebilde, welches sich aus zwei sehr dünnen Zellschichten zusammensetzt. Zwischen der inneren und äußeren Zellschicht befindet sich eine Gallertmasse, die als Stützschicht dient. Diese Schicht gilt als Sauerstofflager. Die Qualle versorgt hierüber den Körper mit Sauerstoff.

An der inneren Zellschicht befindet sich ein Hohlraum. Hierbei handelt es sich um den Magen. Wenn die Quallen einen Fisch oder Plankton mit ihren Tentakeln erbeutet hat, übernehmen die Zellen der Schicht den eigentlichen Verdauungsprozess. Die Qualle hält während des Verdauungsprozesses zu ihrem Opfer immer einen besonders engen Körperkontakt.

Ansonsten könnte es passieren, dass der Verdauungssaft vom Meerwasser weggespült wird. Zu diesem Zweck liegt bei einer Qualle der Mageninhalt immer eng an den Verdauungszellen an. Somit werden Ringelwürmer oder Plankton von der Zellwand verdaut. Alles Unverdauliche wird über ein Kanalsystem entsorgt, welches sich ebenfalls in der Zellschicht befindet. Zusätzlich werden Quallen darüber mit allen benötigten Nährstoffen versorgt.

Wie und wo nützen Quallen?

Quallen leben ausschließlich im Meer. Wenn sie an den Strand gespült werden, haben sie sich innerhalb weniger Tage aufgelöst. Das liegt daran, dass sie fast nur aus Wasser bestehen. Einige Arten sind mit einem dichten Kranz an kurzen Fangarmen ausgestattet. Andere Quallenarten sind zum Jagen mit bis zu 20 Meter langen Tentakeln ausgestattet. Aus diesen Fangarmen können sich schnelle Opfer zwar noch befreien, aber Quallen sind zusätzlich in der Lage, Plankton, Würmer oder kleine Fische kampfunfähig zu machen. Zu diesem Zweck sind die Tentakeln mit giftigen Nesselkapseln ausgestattet.

Auf einer zehn Meter langen Tentakel befinden sich bis zu 700.000 Kapseln. Diese werden beim Fangen eingesetzt wie Harpunen und können blitzschnell reagieren. Berührt ein Fisch die giftige Harpune, schießt eine feine Injektionsnadel in die Haut und es dringt über einen Nesselschlauch ausreichend Gift in die Wunde. Der Angriff einer Qualle dauert eine hunderttausendstel Sekunde. Das Opfer wird sofort getötet oder gelähmt. In der Regel ernähren sich Schirmquallen, die beispielsweise in der Ostsee vermehrt auftreten von Plankton. Auf dem Speiseplan von Würfelquallen gehören dagegen kleine Fische. Zu den giftigsten Quallenarten gehört die australische Seewespe. Sie kann auch für Menschen tödlich sein.

Was ist der Chantalismus / Kevinismus? Bedeutung, Definition, Erklärung


Mit dem Begriff des Kevinismus, der synonym mit dem Begriff des Chantalismus verwendet wird, handelt es sich um ein psychologisches Phänomen, dessen Auftreten besonders in bestimmten Gesellschaftsschichten beschrieben wird. Das Phänomen ist keinesfalls neu, sondern bereits seit der spätmittelalterlichen Phase belegt.

Was ist der Chantalismus / Kevinismus? Bedeutung, Definition, Erklärung

Ist von Kevinismus die Rede, wird das konkrete psychologische Phänomen beschrieben, dass speziell Eltern aus gesellschaftlich bildungsfernen Schichten ihren Kindern Vornamen aus der anglo-amerikanischen Kultur geben. In der Vergangenheit ist umfänglich nach den Gründen geforscht worden, weshalb der sogenannte Kevinismus gerade in gesellschaftlich bildungsfernen Schichten zu finden ist. In psychologischen und soziologischen Studien konnte schließlich nachgewiesen werden, dass sich das beschriebene Phänomen aufgrund mehrerer Faktoren besonders in der bildungsfernen Gesellschaft finden lässt:

Kevinismus – welche Gründe gibt es für das Phänomen?

Versucht man den Kevinismus zu erklären, sind zwei Faktoren von besonderer Bedeutung: Zum einen sind der Faktor Wohlstand und zum anderen die kulturelle Nähe von Bedeutung für die Entstehung des beschriebenen gesellschaftlichen Phänomens.

Die Vergebung von Namen hat bei den Eltern etwas mit Wertschätzung und Anerkennung zu tun. Eltern in bildungsfernen Milieus gefallen besonders diejenigen Namen, die aus einem kulturell und historisch bekannten Segment stammen und die ihnen zudem aus den unterhaltenden, oft populärkulturellen Medien bekannt sind.

Dabei konnte nachgewiesen werden, dass Eltern aus bildungsfernen Schichten ihren Kindern insbesondere Namen von denjenigen Personen geben, die in den Medien als erfolgreich und in Wohlstand lebend präsentiert werden. Bei den Eltern spielt der Wunsch nach einem sozialen Aufstieg ihrer Kinder in erfolgreiche, wohlständige Gesellschaftsschichten bei der Namensgebung eine wesentliche Rolle.

Das heute als Kevinismus beschriebene Phänomen, ist in ähnlicher Form bereits aus der spätmittelalterlichen Kultur bekannt. Bildungsferne Schichten griffen bei der Namensgebung für ihre Kinder beispielsweise auf die Vornamen von erfolgreichen Protagonisten aus populärkulturellen Balladen, Gedichten oder Liedern zurück.

Abgrenzungsbedürfnis in der Oberschicht

Der Kevinismus wird indirekt durch das Bedürfnis nach Abgrenzung in der Oberschicht verstärkt. So wählen Eltern aus den elitären Gesellschaftsbereichen insbesondere lokale, zum Teil als klassisch geltende Namen für ihre Kinder, die häufig auf eine familiäre Tradition zurückgehen.

Auch der zweite Vorname wird insbesondere in den elitären Milieus wieder beliebter und ist ebenfalls dem Bedürfnis nach Abgrenzung elitärer Gesellschaftsschichten zuzuschreiben.

Der Kevinismus ist heute im Kontext der Bildungsforschung und weiterer fachübergreifender soziologischer und psychologischer Studien von großem Interesse. Unbestritten ist nämlich bisweilen, dass die Wahl des Vornamens für das Kind richtungsweisend für das spätere Leben sein kann.

Diesbezüglich wurde in voneinander unabhängigen Studien dargelegt, dass der Kevinismus einer von mehreren Faktoren für die Entstehung von ungleichen Bildungschancen sein kann.

Mit anderen Worten: Bereits die Wahl des Namens kann den nachhaltigen Bildungserfolg eines jungen Menschen beeinflussen, den gesellschaftlichen Alltag prägen bzw. im späteren Verlauf des Lebens die Wahl des sozial prägenden Umfelds beeinflussen und nicht zuletzt auch die Wahrscheinlichkeit eines sozialen Aufstiegs beeinflussen.

Bestimmte Vornamen rufen Vorurteile hervor

Im Rahmen eines Forschungsanliegens im Zusammenhang mit dem Kevinismus sind Lehrkräfte im Rahmen einer qualitativen Analyse nach ihren Attributionen zu bestimmten Vornamen befragt worden.

Die Befragung ergab, dass ausgewählte Vornamen tatsächlich das Potential haben, negativ konnotierte Vorurteile hervorzurufen. Konkret hat sich gezeigt, dass einige Vornamen der Lernenden von den Lehrkräften positiv wahrgenommen werden, während anderen Vornamen durch die Lehrkräfte überwiegend negative Charakteristiken zugeschrieben werden. Auffallend ist, dass nur eine Minderheit der befragten Lehrerinnen und Lehrer den teils unbewusst vorgenommenen Attributionen kritisch gegenüber eingestellt sind.

Namen wie Kevin, Justin oder Chantal werden mit Verhaltensauffälligkeiten in Verbindung gebracht

Dass das psychologische Phänomen des Kevinismus bzw. des Chantalismus auf den männlichen Vornamen Kevin bzw. auf den weiblichen Vornamen Chantal zurückgeht, kommt nicht von ungefähr:

In bildungsfernen Schichten galten lange Zeit die Namen Justin, Kevin, Chantal, Mandy und Maurice als präferierte Vornamen. Dass sich in Erhebungen bestätigte, dass Lehrkräfte gerade mit den soeben genannten Vornamen Verhaltensauffälligkeiten assoziieren, liegt dabei natürlich nicht an den Vornamen per se als vielmehr daran, dass in den bildungsfernen Milieus zum Teil andere Erziehungsstile vorherrschen, die von der elitären Gesellschaft kritisch hinterfragt werden und zu einem Verhalten der Heranwachsenden führen, das als sozial auffällig klassifiziert wird.

These um typische Unterschichtsnamen bleibt umstritten

Die These um die Existenz von besonderen Vornamen in der gesellschaftlichen Unterschicht bleibt dennoch umstritten. In der Psychologie weist man darauf hin, dass das Greifen nach besonderen, exotisch klingenden Namen den Wunsch nach einem besseren Leben spiegelt. Belegt und allgemein akzeptiert ist diese Auffassung bisweilen allerdings nicht.

Was bedeutet „zu x Prozent wirksam“? Bedeutung, Definition, Erklärung


Die Wirksamkeit eines Impfstoffes im gängigen Sinne gibt Auskunft darüber, wie viel Prozent niedriger das Risiko einer geimpften Person im Vergleich zu einer nicht-geimpften Person ist, Symptome der betreffenden Krankheit zu entwickeln. Wirksamkeiten von Impfstoffen spielten in der Vergangenheit selten eine Rolle, oft, weil für eine Krankheit nur ein Impfstoff zugelassen war, seit dem Ausbruch der Corona-Pandemie und der Entwicklung verschiedener Impfstoffe gegen das Corona-Virus spielen die verschiedenen Wirksamkeiten der Impfstoffe in der medialen Aufmerksamkeit eine größere Rolle und haben einen nicht unerheblichen Einfluss auf die persönlichen Impfentscheidungen vieler Menschen.

Wie wird die „Wirksamkeit“ eines Impfstoffes bestimmt? Was bedeutet „zu x Prozent wirksam“?

Um die Wirksamkeit eines Impfstoffes zu bestimmen, werden vor der Zulassung des Impfstoffes große Studien durchgeführt. Dabei erhält eine Gruppe von Testpersonen den Impfstoff, eine andere Gruppe (Kontrollgruppe) ein Placebo, also zum Beispiel eine Kochsalzlösung. Wer zu welcher Gruppe gehört, ist zunächst weder für die Testpersonen, noch für die behandelnden Ärzte erkenntlich. Dieses Studienprinzip bezeichnet man als sogenannte Doppelblindstudie. In einem vorher festgelegten Zeitintervall oder anderweitigen Rahmen wird nun beobachtet, wie viele Menschen sich mit dem Virus, gegen das der Impfstoff wirken soll, infizieren.

Was bedeutet „zu 95 Prozent wirksam“?

Ist eine vorher festgelegte Menge an Infektionen erreicht, wird die Verblindung aufgehoben und die Studie ausgewertet. Dazu wird zunächst überprüft, wie viele Menschen aus der Kontrollgruppe und aus der geimpften Gruppe infiziert wurden. Daraus errechnet sich dann die Wirksamkeit des Impfstoffes. Erkrankten von den Testpersonen aus der Kontrollgruppe beispielsweise 95 und in der geimpften Gruppe nur 5, so liegt die Wirksamkeit des Impfstoffes bei 95 Prozent. Das bedeutet allerdings nicht, dass fünf Prozent der geimpften Personen erkranken. Es bezeichnet lediglich, dass das Risiko, zu erkranken von geimpften im Vergleich zu ungeimpften 95 Prozent niedriger ist. Die Wahrscheinlichkeit, als ungeimpfter Mensch zu erkranken, hängt wiederum von verschiedenen Parametern wie der Verbreitung des Virus oder den Schutzmaßnahmen ab. Diese eben erklärte Methode bestimmt also die Wirksamkeit eines Impfstoffs, eine symptomatische Erkrankung zu verhindern.

Impfstoff-Wirksamkeit gegen Ansteckung

Eine andere Wirksamkeit, die sich nicht so leicht bestimmen lässt, ist die Wirksamkeit eines Impfstoffes gegen eine Ansteckung, also gegen die Ansiedlung des betroffenen Virus im Körper. Auch wenn eine Impfung vor Symptomen einer Krankheit schützt, können sich die Viren dennoch begrenzt im Körper vermehren, nur eben nicht so stark, dass es zu einer Erkrankung er Person kommt. Beim Corona-Virus siedeln sich vereinzelt beispielsweise Viren im Hals und Rachenbereich an, die Person kann also so gesehen infiziert sein, ohne jedoch Symptome der Krankheit zu haben.

Da solche symptomlosen Ansteckungen oft unbemerkt bleiben, ist es schwer, die Wirksamkeit einer Impfung gegen diese zu bestimmen, da man eine solche Ansteckung nur über Test (bei Corona zum Beispiel durch PCR-Tests) nachweisen kann. Generell lässt sich sagen, dass die Wirksamkeit gegen Ansteckungen meist niedriger liegt die Wirksamkeit gegen einen symptomatischen Ausbruch der Krankheit. Liegt die Wirksamkeit eines Impfstoffes gegen die Ansteckung bei 100 Prozent, so genießen geimpfte Personen die sogenannte „sterile Immunität“.

Impfstoff-Wirksamkeit gegen schwere Verläufe und Tod

Des Weiteren lässt sich noch eine andere Wirksamkeit definieren, nämlich die Wahrscheinlichkeit, mit der ein Impfstoff vor schweren Symptomen der Krankheit oder dem Tod an dieser schützt. Gerade in der Corona-Pandemie hat diese Wirksamkeit an Bedeutung gewonnen, weil auch Impfstoffe, die nur 60- bis 70-prozentigen Schutz vor einer Ansteckung boten, einen fast 100-prozentigen Schutz vor schweren Verläufen boten. Dies lässt sich dadurch erklären, dass es wie vorher beschrieben auch bei geimpften Personen selten zu einer Infektion mit dem Virus kommen kann. Da das Immunsystem durch die Impfung aber bereits auf den Krankheiterreger eingestellt ist, wird dieser besser bekämpft als bei einer ungeimpften Person und kann sich daher nur begrenzt ausbreiten und nur mildere Symptome auslösen. Schwere Krankheitsverläufe, beim Coronavirus zum Beispiel Lungenentzündungen werden so meist verhindert.

Um zu untersuchen, wie wirksam ein Impfstoff vor schweren Verläufen schützt, wird wie vorhin beschrieben die Anzahl an schweren Verläufen in der Kontrollgruppe und in der geimpften Gruppe verglichen. Auch hier gilt dann wieder: Wirksamkeit vor schweren Verläufen bedeutet, wie viel niedriger das Risiko eines schweren Verlaufs gegenüber einer ungeimpften Person ist. Moderne Impfstoffe zum Beispiel gegen das Coronavirus erreichen hier häufig Werte von 95 bis 100 Prozent. Dennoch kann es gerade bei älteren oder immungeschwächten Personen trotz Impfung sehr selten zu solch schweren Verläufen kommen.

Wirksamkeit gegen mutierte Viren

Ebenfalls von Bedeutung, gerade in der Corona-Pandemie, ist die Wirkung eines Impfstoffes gegenüber Mutationen des ursprünglichen Virus, gegen den der Impfstoff entwickelt wurde. Je nach Virus kann es mit der zunehmenden Vermehrung dazu kommen, dass bei sich Mutationen bilden, bei denen die Virus-DNA verändert ist. Es kann vorkommen, dass so entstehende Varianten sich in ihren Eigenschaften so unterscheiden, dass das menschliche Immunsystem sie nicht mehr oder schlechter als das ursprüngliche Virus erkennt. So leidet dann auch die Wirksamkeit eines Impfstoffes. Dieses Phänomen nennt man „Immune Escape“. In der Corona-Pandemie aufgetretene Mutationen wie beispielsweise die Delta-Variante sorgten dafür, dass sich die Wirksamkeit einiger Impfstoffe vor einer Erkrankung verschlechterte, weil die neuen Virusmutationen vom Immunsystem nicht mehr ganz so gut erkannt werden konnten. Dennoch schützen die zugelassenen Impfstoffe gegen das Corona-Virus auch bei den Mutationen sehr effektiv gegen schwere Verläufe und den Tod.

Wofür / Wozu sind Bürsten an der Rolltreppe? Erklärung


Haben Sie sich jemals gefragt, warum es auf der Rolltreppe Bürsten gibt? Sie scheinen nichts weiter zu tun, als Platz zu beanspruchen. Und wer soll diese Dinger überhaupt reinigen? Die Bürsten sind eigentlich dazu da, die Unterseite Ihrer Schuhe zu reinigen, bevor Sie eine Rolltreppe betreten. Die meisten Menschen laufen nämlich mit Schmutz und Dreck an den Füßen herum, der auf die Stufen einer Rolltreppe gelangen kann. Dies stellt ein Sicherheitsrisiko dar, da jemandem der Schuh abrutschen und er hinunterfallen könnte. Indem wir unsere öffentlichen Räume sauber halten, tragen wir auch zu deren Sicherheit bei!

Wofür / Wozu sind Bürsten an der Rolltreppe? Erklärung

Rolltreppenbürsten gehören zu den am meisten vernachlässigten Ausrüstungsgegenständen im öffentlichen Raum. Sie tun jedoch viel mehr, als nur Schmutz und Ablagerungen von den Rolltreppen zu entfernen. Rolltreppenbürsten haben drei Hauptaufgaben, die sie auf einer Rolltreppe erfüllen.

1. Sie kehren Schmutz und andere Materialien von den Stufen, um sie für die Fußgänger sauber zu halten.

2. Sie entfernen kleine Partikel von den Schuhen, damit die Menschen die Rolltreppe leichter betreten können.

3. Sie schrubben Schmutz und Ablagerungen an den Seiten und an der Unterkante jeder Stufe weg.

4. Die Bürsten der Rolltreppen werden mit Strom betrieben.

Welche Aufgaben haben die Bürsten an der Rolltreppe?

Eine Rolltreppe ist eine Treppe, die Menschen zwischen den Stockwerken eines Gebäudes befördert. Sie ist oft Teil eines Aufzugssystems und kann eine große Anzahl von Personen schnell und effizient befördern. Rolltreppen werden mit Strom betrieben, müssen aber gewartet werden, um einen reibungslosen Betrieb zu gewährleisten. Das Wort „Rolltreppe“ setzt sich aus den Wörtern „ease“ (Leichtigkeit) und „camel“ (Kamel) zusammen, was Ihnen eine Vorstellung davon vermittelt, wie sie funktionieren. Sie fahren auf der einen Seite nach oben und auf der anderen Seite nach unten, um Ihnen den Weg zu erleichtern!

Haben Sie sich schon einmal gefragt, welche Aufgaben die Rolltreppenbürsten haben? Wir haben sie alle schon auf den Rolltreppen in Aktion gesehen, aber wissen wir wirklich, was sie dort tun? Die Hauptaufgabe dieser Bürsten besteht darin, Schmutz und Ablagerungen zu entfernen, die sich auf den Stufen ansammeln. Dies dient der Sicherheit und sorgt für eine reibungslose Fahrt.

Wie und wo nützen die Bürsten an der Rolltreppe?

Rolltreppen sind an den meisten öffentlichen Plätzen zu finden. Auch in Flughäfen, Einkaufszentren, bei unterirdischen Bahnhöfen, einem Kaufhaus und anderen Bereichen mit hohem Verkehrsaufkommen sind sie immer häufiger zu finden. Sie sind die goldene Treppe zum Himmel für alle, deren Knie keine Stufen mehr aushalten! Rolltreppen sind eine großartige Erfindung, die das Leben für alle viel einfacher gemacht hat. Allerdings können sie auch sehr schmutzig sein. Hier kommen die Rolltreppenbürsten ins Spiel! Rolltreppenbürsten sind so konzipiert, dass sie die Oberfläche einer Rolltreppe reinigen, während die Menschen auf ihr gehen oder stehen und auf ihren Zug oder Bus warten. Sie haben Borsten, die Schmutz und Ablagerungen von den Seitenwänden einer Rolltreppe fegen, so dass Sie sich keine Sorgen machen müssen, mit Schmutz bedeckt zu sein, wenn Sie die nächste Etage betreten! Fahrtreppen und Fahrsteige sind eine tragende Säule des modernen Verkehrs.

Was ist Vakzinologie? Bedeutung, Definition, Erklärung


Die Vakzinologie ist die Wissenschaft von und der Impfstoffe. Ziel der Vakzinologie ist es Impfstoffe gegen Krankheiten zu entwickeln.

Was ist Vakzinologie? Bedeutung, Definition, Erklärung

Das Wort „Vakzinologie“ setzt sich aus dem Wort „Vakzin“ und dem Wortteil „-logie“ zusammen. Ein „Vakzin“ ist ein Impfstoff. Der Wortteil „-logie“ ist griechisch und bedeutet auf deutsch „Wissenschaft“. Also ist die „Vakzinologie“ die Wissenschaft der Impfstoffe.

Geschichte der Vakzinologie

Die ersten Versuche der Vakzinologie sind fast so alt wie die Versuche, Krankheiten den Gar auszumachen. Es gibt Hinweise darauf, dass die Chinesen bereits im 6. Jahrhundert die Pocken durch Impfung behandelt haben, obwohl die frühesten schriftlichen Aufzeichnungen aus der Zeit um das Jahr 1000 stammen.

Der erste ernst zu nehmende Versuch, eine Infektionskrankheit durch eine systematische Impfung zu bekämpfen, war Jenners Arbeit mit dem Pockenimpfstoff. Der nächste Durchbruch im Bereich der Impfung gelang Pasteur mit seinen Studien zur Impfung mit dem Geflügelcholeravirus. Er legte damit wichtige Meilensteine wie die Abschwächung, die Veränderung durch wiederholte Verabreichung und die Notwendigkeit, die Immunmachung von Mensch zu Mensch durch etwas Sichereres, Beständigeres und weniger Gefährliches zu ersetzen.

In den letzten 200 Jahren ist es gelungen, durch Impfungen mehrere schwere Krankheiten zu bekämpfen: Pocken, Diphtherie, Tetanus, Polio und Masern sind in vielen Teilen der Welt ausgerottet. Im Falle der Pocken hat sich der Traum von Jenner erfüllt, denn die Krankheit ist vollständig verschwunden. Auch durch die Entwicklung einer Impfung gegen Influenza, Hepatitis B, Pneumokokken und Haemophilus influenzae Typ B wurden große Fortschritte bei der Bekämpfung dieser Infektionen erzielt, aber es bleibt noch viel zu tun, selbst in den Industrieländern, da das Phänomen der neu auftretenden und wieder auftauchenden Infektionskrankheiten eine der aktuellen Herausforderungen in diesem Bereich darstellt.

Die Auswirkungen von Impfungen und die Forschungsergebnisse der Vakzinologie auf die Gesundheit können gar nicht hoch genug eingeschätzt werden, denn mit Ausnahme der Wasseraufbereitung hat keine andere Maßnahme, nicht einmal der Einsatz von Antibiotika, eine so große Wirkung auf die Verringerung der Sterblichkeit und das Bevölkerungswachstum gehabt. Die Vakzinologie ist aus Sicht der öffentlichen Gesundheit die wirksamste Maßnahme, wird aber derzeit vor allem in den Entwicklungsländern zu wenig genutzt. Tragischerweise sterben weltweit immer noch jedes Jahr etwa zwei Millionen Kinder an vermeidbaren Krankheiten. Die Gründe dafür sind vielfältig, aber Tatsache ist, dass in der Dritten Welt der skalierbare Einsatz von bereits vermarkteten Impfstoffen lange auf sich warten lässt.

Der erste Versuch, eine vermeidbare Krankheit auszurotten, geht auf das Jahr 1956 zurück, als die Weltgesundheitsorganisation (WHO) erfolgreich versuchte, die Pocken weltweit auszurotten, was 1980 durch den massenhaften Einsatz des Pockenimpfstoffs gelang. Es folgten Polio (seit 2003 sind Nord- und Südamerika, der Westpazifik und die Europäische Region poliofrei), Masern (Ende 2004 lag die weltweite Durchimpfungsrate bei 76 % und viele Länder hatten das Ziel erreicht, Polio bis Ende 2004 auszurotten) und Masern (Ende 2004 lag die weltweite Durchimpfungsrate bei 76 % und viele Länder hatten das Ziel erreicht, Polio bis Ende 2004 auszurotten).

Seitdem wurden viele Anstrengungen unternommen und viel erreicht bei der Entwicklung neuer Impfstoffe, wobei die Fortschritte in Bereichen wie Molekularbiologie, rekombinante DNA-Technologie, Proteinbiochemie, Polysaccharidchemie, Bakteriologie, Virologie und Immunologie genutzt wurden. Einige der Bereiche, in denen diese neuen Technologien angewandt wurden, umfassen die Verbesserung bestehender Impfstoffe mit dem Ziel, ihr Angebot oder ihre Sicherheit zu erhöhen. Die meisten Versuche zielten jedoch auf die Entwicklung neuer Impfstoffe ab.

Aktive Immunisierung

Um zu entscheiden, welche Strategie bei der Entwicklung eines Lebendimpfstoffs (bei dem der Mikroorganismus als Immunogen fungiert, das in der Lage ist, Zellen zu infizieren und sich im Wirt zu vermehren, ohne eine natürliche Krankheit auszulösen) oder eines Nicht-Lebendimpfstoffs (ein Immunogen, das daher keine Zellen infizieren kann) verfolgt werden soll, müssen die Epidemiologie und Immunbiologie der natürlichen Infektion oder die Physiologie des betreffenden Erregers sowie die technische Durchführbarkeit der Herstellung von Impfstoffen des einen oder anderen Typs berücksichtigt werden.

Die Zielpopulation für eine Impfung hängt von der Epidemiologie der Krankheit und der Fähigkeit ab, die gefährdete Bevölkerung zu erfassen. Das Alter und der Gesundheitszustand der gefährdeten Bevölkerung können über die geeignetsten Impfstrategien zum Erreichen einer schützenden Immunität entscheiden.

Attenuierte Lebendimpfstoffe: klassische virale und bakterielle Technologien

Die meisten bestehenden Lebendimpfstoffe erfüllen die Kriterien für einen idealen Impfstoff, und wenn dies der Fall ist, wird in einigen Fällen die durch den Wildtyp-Mikroorganismus verursachte natürliche Infektion eliminiert und das Immunsystem gegen den Mikroorganismus alarmiert, wodurch ein lang anhaltender Schutz erreicht wird. Solche Impfstoffe enthalten lebende Mikroorganismen, die den Wirt in einer Weise infizieren, die der natürlichen Infektion ähnelt, aber nicht die Virulenz der natürlichen Infektion aufweist, so dass eine Immunantwort ausgelöst wird, die derjenigen ähnelt, die durch den Wildtyp-Mikroorganismus während der natürlichen Infektion ausgelöst wird.

Obwohl es aufgrund dieser Eigenschaften an sich wünschenswert wäre, dass alle aktiven Impfstoffe Lebendimpfstoffe sind, ist dies technisch nicht für alle pathogenen Mikroorganismen möglich. Ein Lebendimpfstoff kann unvollständig abgeschwächt sein und daher bei einem Teil der Geimpften seine natürliche Krankheit auslösen. Da er sich vermehren kann, besteht außerdem die Möglichkeit, dass der Mikroorganismus in seine pathogene (natürlichere) Form zurückkehrt oder reaktogen wird. Es ist auch möglich, dass einige Mikroorganismen in Lebendimpfstoffen vom Geimpften übertragen werden können, was eine gewisse Gefahr darstellt, wenn der Empfänger eine Immunschwäche hat oder eine Immunsuppressionstherapie erhält.

Die klassischen Technologien erfordern die Fähigkeit, das Virus effizient zu züchten, vorzugsweise im Lebendzustand. Der erste klassische Ansatz besteht darin, ein Tiervirus zu isolieren und zu kultivieren, das eine Tierkrankheit auslöst, die der menschlichen Krankheit ähnlich ist. Die zweite klassische Strategie, die Abschwächung in Zellkulturen, wurde in den 1940er Jahren mit der Entwicklung von Zellkulturtechniken und der Fähigkeit, das Virus in Zellkulturen zu vermehren, möglich. Ältere Ansätze für abgetötete Impfstoffe, die den oben beschriebenen klassischen Strategien für Lebendimpfstoffe ähneln, beruhen auf der Inaktivierung ganzer Bakterien oder Viren, um die Synthese von Antikörpern gegen ihre zahlreichen Immunogene auszulösen. Zugelassene inaktivierte bakterielle Impfstoffe wurden vor mehreren Jahrzehnten entwickelt, als bakterielle Antigene und ihre spezifische Rolle bei der Immunität noch nicht bekannt waren.

Passive Immunisierung

In manchen Situationen ist ein sofortiger immunologischer Schutz erforderlich, um eine Infektionskrankheit zu behandeln. Da es 1 bis 2 Wochen dauert, bis eine aktive Impfstoffinjektion eine Reaktion hervorruft, kann ein Antikörperpräparat mit Schutzwirkung gegen einen Krankheitserreger wirksam sein, wenn es zu dem Zeitpunkt oder sehr bald nach einer vermuteten oder bekannten Exposition gegenüber einem Krankheitserreger verabreicht wird. Beispiele hierfür sind die Prophylaxe nach einer Exposition gegenüber dem Hepatitis-B-Virus oder dem Varizellazoster-Virus sowie die Verabreichung an schwangere Mütter, die mit dem Zytomegalievirus infiziert sind, um perinatale Infektionen zu verhindern. Die Schutzwirkung der meisten dieser Antikörperpräparate besteht darin, den Erreger zu neutralisieren oder an die betroffene Zelle zu binden, die dann zerstört wird.

Die ersten Antikörper- oder Immunglobulinpräparate, die für die akute antimikrobielle Therapie wirksam waren, wurden von Tierarten wie Pferden gewonnen, denen inaktivierte Bakterientoxine injiziert wurden. Obwohl diese Antiseren wirksam waren, verursachten die fremden Antikörper bei den Empfängern schwerwiegende unerwünschte Wirkungen, wie z. B. die Serumkrankheit. Aus diesem Grund werden sie in der Regel nicht verabreicht, es sei denn, es handelt sich um einen Notfall, für den es keine alternative Therapie gibt.

Wofür / Wozu sind Fliegen gut? Erklärung, Nutzen


Fliegen sind ein wichtiger Bestandteil der Natur und spielen in vielen Ökosystemen eine Rolle. Fliegen sind unter anderem deshalb so wichtig, weil sie dazu beitragen, Gegenstände auf dem Boden zu zersetzen und sie wieder in die Umwelt zurückzuführen. Sie dienen auch als Nahrung für andere Tiere und Insekten, wie Spinnen und Eulen. Fliegen bestäuben auch Blumen, indem sie mit ihren Mundwerkzeugen oder Füßen Pollen von einer Blume auf eine andere übertragen!

Welche Aufgaben haben Fliegen?

Es gibt über 150.000 Fliegenarten auf der Welt und jede hat ihre eigne Aufgabe oder ihren eigenen Zweck! Die folgende Liste enthält nur einige Beispiel:

1) Bestäubung – Einige Arten von Fliegen helfenblüten zu bestäuben, indem sie Pollen von einer Pflanze zur anderen tragen.

2) Prädation – Viele Fliegenarten fressen andere Insekten und Schädlinge! Dies trägt zum Schutz unserer Kulturpflanzen und Bäume bei, was bedeutet, dass wir weniger Lebensmittel im Laden kaufen oder im Garten anbauen müssen.

3) Einige Fliegenarten sind Parasiten, die ihre Eier auf kleineren Tieren ablegen, wie z. Bnagetiere. Die Larven der Fliege schlüpfen und fressen das lebende Gewebe ihres Wirts!

4) Fliegenarten sind auch für Wissenschaftler sehr nützlich, denn sie können in der Genforschung oder sogar zur Überwachung eingesetzt werden.

5) Einige Fliegen werden sogar von Menschen als Nahrungsmittel verwendet! So können die Larven einiger Fliegenarten in Mexiko als frittierter Snack namens „Chapulines“ gegessen werden.

Was machen Fliegen?

Was machen Fliegen? Das ist eine Frage, über die Wissenschaftler seit Jahren diskutieren. Die einen sagen, sie seien schmutzige Schädlinge, die anderen halten sie für fliegende Kreaturen mit großer Geschwindigkeit und Schönheit. Es ist unbestritten, dass sie eine wichtige Rolle in unserem Ökosystem spielen. Einige Arten fressen zum Beispiel tote Tiere oder verrottende Pflanzen, um die Erde sauber zu halten. Außerdem bestäuben sie Blumen und tragen so zum Gedeihen der Pflanzen bei!

Wie und wo nützen Fliegen?

Stubenfliegen sind ein alltäglicher Anblick in vielen Haushalten. Man sieht sie oft um den Mülleimer herumschwirren, auf dem Küchentisch hocken oder sich an einem schmutzigen Futternapf festhalten. Wir denken oft an Fliegen als Schädlinge und reden darüber, dass sie ständig versuchen, in unsere Speisen und Getränke zu gelangen. Aber es gibt auch eine andere Seite dieser Geschichte!

Wenn Sie auf der Suche nach einem Insekt sind, das leicht zu züchten und relativ produktiv ist und dabei viele Vorteile bietet, dann sind Stubenfliegen die beste Wahl. Die Larven können Geflügel oder Schweine ernähren, wenn sie zu Fliegenmehl verarbeitet werden. Dadurch wird eine Menge Fischmehl eingespart, was den Fischereidruck auf unsere Meere verringert – ein indirekter ökologischer Vorteil. Stubenfliegenlarven liefern außerdem hochwertiges Eiweiß mit geringem Fett- und Cholesteringehalt im Vergleich zu anderen häufig verwendeten Futtermitteln für Nutztiere.

Die Fliegen sind in vielen Bereichen ein nützliches Forschungsinstrument. Sie liefern der Forschung regelmäßig wertvolle Erkenntnisse, zum Beispiel in der Genetik, bei der Entwicklung innovativer (sanfter) Methoden zur Insektenbekämpfung, in der Resistenzforschung oder bei der Erforschung der Krankheitsübertragung. Die Nützlichkeit dieser Fliege findet sich nicht nur an Universitäten und in Labors, sondern beispielsweise auch auf Mülldeponien, wo sie zur Untersuchung der Zersetzung von organischem Material eingesetzt wird.

Wofür / Wozu sind Läuse gut? Erklärung, Nutzen


Läuse sind winzige, flügellose Insekten, die auf der Kopfhaut leben. Sie ernähren sich, indem sie zubeißen und Blut vom Kopf ihres Wirtes saugen. Läuse können sich durch direkten Kontakt mit anderen Menschen oder Gegenständen wie Mützen, Kämmen, Bettwäsche, Kissen und Kleidung verbreiten. Selbst eine kurze Begegnung mit einer Person, die Läuse hat, kann einen Befall bei einer anderen Person auslösen!

Welche Aufgaben haben Läuse?

Was sind die Funktionen von Läusen? Läuse scheinen nur ein Ärgernis zu sein, aber sie erfüllen tatsächlich einige sehr wichtige Funktionen. Diese winzigen Lebewesen können Kindern helfen, in Zukunft resistenter gegen Kopfläuse und andere Parasiten zu werden! Sie können Kindern auch die Bedeutung von Hygiene und Sauberkeit vermitteln.

Wofür sind Läuse gut?

Sie haben vielleicht schon einmal gehört, dass Läuse ein Schädling sind, aber sie erfüllen tatsächlich eine wichtige Funktion im Ökosystem. Ohne sie wären die Vögel überbevölkert und viele andere Tierarten würden ebenfalls leiden. Läuse tragen dazu bei, die Populationen im Gleichgewicht zu halten, indem sie das Blut des Wirtstieres aufnehmen, um ihre Jungen zu ernähren. Sollten Sie jedoch befallene Haustiere oder Kinder haben, ist es wichtig, sie loszuwerden, um jedes Infektionsrisiko zu vermeiden!

Ebenso können sie verwendet werden, um das Alter einer Leiche zu bestimmen oder Tiere zu identifizieren, die mit Menschen in Kontakt gekommen sind. Wenn man zum Beispiel Läuseeier auf einem Tier findet, kann man feststellen, ob es mit jemandem in Kontakt gekommen ist, der Kopfläuse hatte und sich die Kopfhaut gekratzt hat. Das liegt daran, dass menschliche Kopfläuse ohne Blutmahlzeit nicht länger als 24 Stunden außerhalb des menschlichen Körpers überleben können.

Wie und wo nutzen Läuse?

Es ist ein weit verbreiteter Irrtum, dass sich Läuse von Blut ernähren. Das ist aber nicht wahr! Läuse ernähren sich in erster Linie von menschlichem Haar, aber sie bevorzugen auch die Nissen (Eier), in denen sie leben. Der Speichel der Läuse enthält ein Enzym, das ihnen hilft, die Proteine im menschlichen Haar aufzuspalten, damit sie es verdauen können. Sie brauchen weder Blut noch irgendetwas anderes, um sich zu ernähren. Man kann also mit Sicherheit sagen, dass sie keine Vampire sind – nur winzige Käfer mit großem Appetit!

Fakten über Läuse

  • Läuse können weder springen noch fliegen.
  • Ein Läusebefall kann sich leicht von Mensch zu Mensch durch engen Kontakt, z. B. durch das gemeinsame Benutzen von Kämmen, Hüten und Bürsten, ausbreiten.
  • Die meisten Läuse treten bei Kindern zwischen drei und zehn Jahren auf, weil sie häufiger Kopf-zu-Kopf-Kontakt haben.
  • Läuse übertragen keine Krankheiten, aber ihre Bisse können die Kopfhaut jucken lassen oder sogar eine allergische Reaktion hervorrufen.
  • Es ist nicht notwendig, alles zu waschen, was man besitzt, nachdem man einen Läusebefall hatte.
  • Läuse können auch Nahrung für Parasiten sein – eine Lausart ist sogar selbst ein Parasit!
  • Die weibliche Milbe lebt auf dem Körper des Wirts, während sie in dessen Haarfollikeln Eier ablegt, bis sie etwa zwei Wochen später stirbt.
  • Läuse werden von Fischen, Vögeln und anderen Tieren wie Schildkröten gefressen.
Was ist Trockenstress? Bedeutung, Definition, Erklärung


Der Begriff Trockenstress, in der Biologie auch unter dem Synonym Wasserstress bekannt, bezeichnet eine Form von Stress in der Pflanzenwelt, die durch den Mangel von Wasser in lebenden Organismen und Pflanzen hervorgerufen wird. Trockenstress bedeutet nicht zwangsläufig, dass der Wasserhaushalt der Pflanze / dem Organismus durch zu geringe Wasserzufuhr eine negative Wasserbilanz entstanden ist. Diese kann ebenfalls durch erhöhte Transpiration und zu geringe Wasserverfügbarkeit im Boden entstehen.

Wodurch kann Trockenstress entstehen und was passiert beim Trockenstress?

Durch ungewöhnliche Klimaverhältnisse kann es in der Pflanzenwelt leicht zu einer erhöhten Transpiration und damit zu Trockenstress kommen (oder bei nicht ordnungsgemäßer Auswahl des Standort beim Anbau bestimmter Pflanzenarten in nicht dafür vorgesehenen Böden). Insbesondere niedrige Niederschlagsmengen in Kombination mit hohen Temperaturen, geringe Luftfeuchtigkeit oder ungünstige Bodeneigenschaften können Trockenstress bedingen. Durch die defizitäre Versorgung mit Wasser werden Wachstums- und Lebensprozesse beeinträchtigt. Die kann die Erträge landwirtschaftlicher Produktionen limitieren.

In welchen Regionen tritt Trockenstress besonders häufig auf?

Trockenstress tritt häufig in besonders warmen und trockenen (ariden) Klimagebieten (Wüstengürtel oder Subtropen) oder in extrem kalten Gebieten (Tundra, alpine Regionen) auf. Diese klimatischen Verhältnisse führen in ariden Regionen bei der Pflanze dazu, dass die Transpiration höher ist als die Wasserzufuhr. In kalten Gebieten hingegen besteht die Gefahr, dass durch Bodenfrost die Wassernachlieferung nicht ausreichend gesichert ist.

Welche Schäden kann Trockenstress im Pflanzenreich auslösen?

Langfristiger Trockenstress kann zu verschiedenen Störungen des Pflanzenwachstums führen. Häufig treten durch mangelnde Nährstoffnachlieferung aus dem Boden Welkeschäden auf. Die Pflanze minimiert in dieser Zeit die Wasserzufuhr in die einzelnen Areale auf ein Minimum. Hält die Trockenheit darüber hinaus an, überhitzen die Blattflächen (durch erhöhte Transpiration und verringerte Wasserzufuhr) und die Blätter trocknen ein und sterben ab. Als eindeutige Anzeichen von Trockenstress an Pflanzen gelten daher: Gelbe Blätter, Blätterverlust, gelb Färbung der Fruchtknollen, eingetrocknete Triebe, eingerollte Blätter sowie kleinere Blüten.

Können sich Pflanzen an Trockenstress anpassen? Wie schaffen es Pflanzen trockene Phasen unbeschadet zu überstehen?

Im Bereich der Pflanzenwelt unterscheidet man mit Blick auf das Phänomen des Trockenstress zwischen zwei unterschiedlichen Formen von Pflanzen: Hydrostabile und Hydrolabile Pflanzenarten. Hydrostabile Pflanzen unterscheiden sich von hydrolabilen Pflanzen darin, dass sie sich im Laufe der Entwicklung so an den Wassermangel ihres Umfeld angepasst haben (Anatomie und Stoffwechsel), dass sie in der Lage sind auf Trockenheiten zu reagieren und diese für einen gewissen Zeitraum zu überstehen. Dies tun sie insbesondere dadurch, dass sie bestimmte Areale durch die Reduktion der Wasserzufuhr in diese Gewebe minimieren. So kann der Wassergehalt für einen bestimmten Zeitraum im Gewebe aufrechterhalten werden.
Hydrolabile Pflanzen hingegen werden nochmals in wasserverbrauchende und wassersparende Pflanzengruppen unterschieden. Wassersparende Pflanzen entziehen dem Boden das Wasser nicht sofort, sondern teilen es ein, um bei einem Wassermangel darauf zurückgreifen und es länger nutzen zu können.

Wasserverbrauchende Pflanzen verfolgen die entgegengesetzte Strategie bei der Vorsorgung ihrer Bestandteile mit Wasser: Sobald eine Trockenheit auftritt entziehen sie dem Boden sein gesamtes Wasser und speichern es in ihrem Gewebe ein. In Trockenphasen verfügen sie dann über genügend Reserven um sämtliche Areale ihrer Gewebe mit ausreichend Wasser zu versorgen. Die Wurzeln dieses Pflanzentyps reichen oftmals sehr tief in den Boden (hier gibt es die meisten Wasserreserven).

Was ist Hitzestress? Bedeutung, Definition, Erklärung


Hitzestress bedeutet, dass Organismen unter Hitze leiden. Ihre Funktionen laufen nicht mehr wie gewohnt ab. Das betrifft Menschen, Tiere und Pflanzen gleichermaßen.

Was passiert physiologisch bei Hitzestress? Bedeutung, Definition, Erklärung

Organismen regulieren ihren Wärmehaushalt. Der menschliche Körper verfügt hierfür über ein fein austariertes System. Er ist gezwungen, seine Körperkerntemperatur (die von inneren Organen und Gehirn) konstant auf knapp unter 37 °C zu halten. Schon bei 38 °C fällt das Leistungsvermögen des Gehirns ab. Die Stoffwechselvorgänge beschleunigen sich bei Hitze, was noch mehr Wärme im Körper produziert. Bei weiter ansteigender Temperatur können die Eiweiße ihre Aufgaben erst nur noch unzureichend und schließlich gar nicht mehr erfüllen.

Die Regularien des Organismus sorgen daher dafür, Hitzestress konsequent zu bekämpfen – zum Beispiel durch Durst, dem Wasserzufuhr und nachfolgendes Schwitzen folgen, um den Körper zu kühlen. Dieser Mechanismus ist uralt: Der Körper des Frühmenschen hat in der afrikanischen Savanne gelernt, mit Hitze umzugehen. Wir empfinden daher auch nur einen sehr kleinen Temperaturbereich von rund einem Kelvin (Temperaturunterschied in °C) unserer Umgebung als behaglich. Dieser ist die sogenannte „Indifferenztemperatur“. Sie liegt unbekleidet zwischen 27 und 28 °C, bekleidet zwischen 21 und 22 °C, bei manchen Menschen auch etwas höher. Bei der Indifferenztemperatur investiert der Körper kaum Energie zur Regulierung des Wärmehaushalts.

Bei Abweichungen reagiert er schnell über ein komplexes sensorisches System. Die Temperaturfühler der Haut und des Körperinneren melden dann dem Hypothalamus, dass die Temperatur auszugleichen ist – bei Kälte durch Bekleidung und Heizen bzw. das Aufsuchen warmer Räume, bei Hitze durch Kühlung, Trinken und Schwitzen. Um zu viel Hitze abzustrahlen, steigt die Durchblutung der oberen Hautschichten (die bei Kälte sinkt), weil geweitete Blutgefäße warmes Blut aus dem Inneren des Organismus nach außen leiten und damit Wärme abführen können.

Die Durchblutung der Haut kann bei diesem Prozess von 10 auf 80 % steigen, was allerdings die inneren Organe belastet. Der Magen-Darm-Trakt hat kaum noch Blut für die Verdauung, weshalb bei Hitze unbedingt leichte Speisen zu bevorzugen sind. Dennoch kann es zu Durchfall kommen, weil fehlendes Blut im Darm das Immunsystem schwächt. Das Herz arbeitet bei Hitze auf Hochtouren, es kann seine Leistung verdreifachen. Damit pumpt es für die Kühlung mehr warmes Blut in die peripheren Gefäße, was wiederum den Organismus belastet. Wenn die Temperatur über mehrere Tage auch nachts nicht unter 21 °C abfällt, kann das für Personen mit kardiovaskulären Problemen tödlich enden.

Gesundheitliche Folgen von Hitzestress beim Menschen

Hitzestress löst beim Menschen zusammen mit hohen bodennahen Ozonkonzentrationen unter Umständen schwerwiegende gesundheitliche Folgen aus. Betroffen sind insbesondere Kinder, ältere und im Freien arbeitende Personen sowie Menschen mit Herz-Kreislauf- und Atemwegserkrankungen. Bei diesen Risikogruppen steigt das Risiko für Krankenhauseinweisungen und unter Umständen den vorzeitigen Tod. Der Lancet Countdown von 2018 befürchtet bis zum Jahr 2030 eine Zunahme hitzebedingter Todesfälle in der EU um 30.000 Personen jährlich. Die meisten Todesfälle seien dabei in den urbanen Wärmeinseln zu befürchten, so die Autoren. Der Beton der Städte mitsamt ihren versiegelten Flächen nimmt die Hitze gut auf und strahlt sie nachts ab, sodass gerade in den Städten die nächtlichen Temperaturen viel zu wenig sinken.

Hitzestress bekämpfen

Kühlung, schwitzen und trinken sind die drei Maßnahmen gegen Hitzestress. Wer zu wenig trinkt, hat zu wenig Schweiß für die Temperaturabführung. Das Wasser im Körper lässt sich durch Wiegen ermitteln.

Wenn eine Person, die normalerweise 75 kg wiegt, während einer Hitzewelle plötzlich nur noch 73 bis 74 kg auf die Waage bringt, sich aber keiner strengen Diät unterzogen hat, beruht die Gewichtsdifferenz auf einem Wasserverlust, der unbedingt auszugleichen ist. Das geschieht am besten abends.

Es ist so viel Wasser zu trinken, wie der Gewichtsverlust beträgt: 1,0 l Wasser wiegt 1,0 kg. Bei 2,0 kg Gewichtsverlust müssen es 2,0 l sein. Der Körper eines erwachsenen Menschen kann ~2,0 l/h ausschwitzen. Trainierte und hitzeadaptierte Körper von jüngeren Sportlern schaffen sogar bis zu 4,0 l/h. Diese Zahlen kennen die meisten Menschen nicht. Sie bedeuten, dass bei großer Hitze und keiner Möglichkeit, einen kühlen Raum aufzusuchen, durchaus 2,0 l/h getrunken werden sollten.

Es folgt dann großes, unangenehmes Schwitzen und auch häufigeres Wasserlassen, doch das ist unumgänglich, um den Hitzestress gesundheitlich unbeschadet zu überstehen. Der Körper passt sich in rund zwei Wochen an die Hitze an, er schwitzt beispielsweise mehr und schneller. Das Schweißprofil ändert sich: Der Schweiß tritt weniger am Rumpf, dafür vermehrt an den Extremitäten aus, auch enthält der Schweiß weniger Elektrolyte, die der Körper benötigt. Ihre Reduktion bewirkt zusätzlich, dass der Schweiß schneller verdunstet, was die Kühlung verbessert. Das Blutplasma nimmt im Volumen zu, wodurch das Herz etwas weniger schlagen muss und somit entlastet wird.

Genetisch programmierte Anpassung des Körpers an Hitzestress

Die beschriebenen Anpassungen tragen wir schon in unseren Genen, weil sich der menschliche Organismus vor Millionen von Jahren in der Hitze Afrikas dementsprechend entwickelt hat. So ändert sich bei Hitze durch ein genetisches Programm die Enzymproduktion. Der Organismus generiert dann Enzyme, welche die Schweißzusammensetzung und die Volumenregulation von Schweiß und Blut steuern können. Der Übergang zur Produktion dieser Enzyme dauert mehrere Tage, was a) mit dem üblicherweise mehrtägigen Temperaturanstieg bis zu einer Hitzewelle zu tun hat und b) den Körper nicht überfordert.

Wann wird Hitzestress für gesunde Menschen kritisch?

Als kritisch gelten für gesunde Menschen dauerhaft heiße Temperaturen ab 35 °C, die im Mittelmeerraum schon immer erreicht werden. Daher gibt es dort die Siesta in den Mittagsstunden. Das erste Symptom dafür, dass der Körper dem Hitzestress nicht mehr gewachsen ist, wäre ein deutlicher und nicht zu kompensierender Leistungsabfall. Dieser beruht geistig auf der nachlassenden Leistungsfähigkeit des Gehirns, wenn die Körperkerntemperatur nicht mehr auf unter 37 °C gekühlt werden kann, sowie auf der vermehrten Durchblutung der Haut. Dieses Blut fehlt wiederum dem Gehirn und auch den Muskeln. Die Folge ist ein physischer Leistungsabfall. Hinzu kommen die prekären Folgen für die Verdauung. Wir können uns bei großer Hitze häufig nicht ausreichend ernähren. Fette, Eiweiße und Kohlenhydrate kann der schlecht durchblutete Darm kaum noch verdauen. Doch diese benötigen wir durchaus für eine angemessene körperliche Leistung.

Hitzestress vermeiden

In den kommenden Jahren und Jahrzehnten sind auch hierzulande längere und stärkere Hitzewellen zu erwarten. Wir müssen also lernen, den Hitzestress zu vermeiden.

Wofür / Wozu sind Hummeln gut? Erklärung, Nutzen


Hummeln gehören zu den Wildbienen, die zwar Pflanzen im Garten bestäuben, aber keinen Honig liefern. Im Gegensatz zu Bienen sind sie mit einem längeren Rüssel ausgestattet. Dadurch kommen sie leichter an die Pollen heran, die für Bienen unzugänglich sind.

Wofür / Wozu sind Hummeln gut? Erklärung, Nutzen

Es ist nur ein Mythos, dass Hummeln nicht stechen können. Sie haben einen Stachel, setzen ihn aber nur im äußersten Notfall ein. Etwas aggressiver sind die Baumhummeln. Sie verteidigen ihre Nistkästen gerne mit einem schmerzhaften Stich. Erdhummeln kommen in Deutschland wesentlich häufiger vor. Sie sind aber nicht so auffällig und lassen sich kaum aus der Ruhe bringen. Es kann im Sommer passieren, dass sich im Garten gleich mehrere Hummelnester gebildet haben, ohne dass es der Gartenbesitzer merkt. Das liegt unter anderem daran, dass aus einem Nest höchstens ein bis zwei Hummeln fliegen. Sollte man sich versehentlich neben einem Hummelnest stellen, kann es passieren, dass ein paar verwirrte Hummeln umherschwirren. Hummeln orientieren sich an markanten Dingen in ihrer Umgebung. Durch einen Menschen in der Nähe sind sie daher kurz verwirrt sind und sich neu orientieren müssen.

Hummeln: Was machen sie?

Wie Honigbienen bilden Hummeln einen Staat, der aus 50 bis 600 Hummeln besteht. Hummeln gehören zur Kategorie der Stechimmen. Ab Februar und März suchen die Jungköniginnen einen geeigneten Nistplatz. Anfangs ist die Hummelkönigin noch allein unterwegs. Während dieser Zeit muss sie den Nachwuchs selbst versorgen und ist Feinden schutzlos ausgeliefert. In dieser Zeit müssen Hummeln viele Pflanzen finden, die sie mit reichlich Pollen und Nektar versorgen. Das Hummelvolk wächst zwischen April bis Juni. Die Königin legt im Hochsommer Eier für die Jungköniginnen und Drohnen ab. Die Arbeiterinnen werden dann nicht mehr länger aufgezogen. Das Hummelvolk geht im Hochsommer langsam zu Grunde, bis es im September komplett ausgestorben ist. Lediglich die Jungköniginnen überleben und suchen sich zum Überwintern einen sicheren Platz, damit sie auch im nächsten Jahr ein neues Volk gründen können. Einen guten Schutz bietet den begatteten Jungköniginnen Orte wie Erdlöcher. Wiesenhummeln haben nur eine Lebensdauer von circa 28 Tage.

Welche Aufgabe haben Hummeln?

Hummeln werden im Garten vor allem als Bestäuber benötigt. Sie fliegen anders als klassische Honigbienen auch bei schlechtem Wetter oder niedrigen Temperaturen aus. Eine Hummel ist in der Lage, ihre eigene Körpertemperatur durch den speziellen Körperbau und Flügelschlag zu erhöhen. Sie sind aus diesem Grund während einer Schlechtwetterperiode die einzigen, die sich um die Bestäubung von Gemüse- und Obstpflanzen kümmern. Einige Gärtner setzen Hummeln gezielt ein, um Tomaten oder andere Pflanzen in einem Gewächshaus zu bestäuben. Das gelingt ihnen durch die Vibrationen besonders gut.

Wie und wo nützen Hummeln?

Hummeln bestäugen im Vergleich zu anderen Tieren wesentlich effizienter. Sie haben eine bestimmte Muskel- und Körpermasse, wodurch sie Obstblüten besonders leicht bestäuben können. Die Früchte wachsen nicht nur größer, sondern auch gleichmäßiger. Studien haben in der Vergangenheit haben bewiesen, dass die Früchte durch die Bestäubung der Hummeln auch mehr Vitamine aufweisen. In der Landwirtschaft gelten Hummeln als wichtige Bestäuber bei Hülsenfrüchten wie Erbsen, Ackerbohnen und Wicken. Sie leisten auch beim Rotklee eine wertvolle Bestäubungsarbeit. Der größte Vorteil der Hummeln ist bei ihren langen Rüsseln zu finden. Nur mit kommen sie bei vielen Blüten an den begehrten Nektar.

Was sind Synthetische Kraftstoffe? Bedeutung, Definition, Erklärung


Der Begriff „synthetischer Kraftstoff“ ist nicht einheitlich und abgegrenzt definiert, weshalb es mehrere Herangehensweisen für Definitionen gibt. Grundsätzlich wird der Begriff oftmals zur Abgrenzung gegenüber konventionellen Kraftstoffen, wie etwa Benzin, Diesel oder Kerosin verwendet, welche auf eine Verwendung von Erdöl als Rohstoffquelle basieren. Sogenannte E-Fuels sind eine Form von synthetischen Kraftstoffen und somit kein Synonym für den Begriff.

Wie wird synthetischer Kraftstoff definiert und wodurch unterscheidet er sich von konventionellem Kraftstoff?

Für die Definition gibt es einige Herangehensweisen, da das Wort „synthetisch“ mehrere Bedeutungen hat. Einerseits lässt sich damit beschreiben, dass der synthetische Kraftstoff künstlich hergestellt wird, während es bei der Herstellung von konventionellen Kraftstoffen (vereinfacht ausgedrückt) in der Regel lediglich zu einer Trennung der einzelnen Bestandteile des ursprünglichen Rohstoffes kommt, ohne diese chemisch zu verändern. Andererseits beschreibt das Wort „Synthese“ in seiner griechischen Wortherkunft aber auch die Zusammensetzung bzw. Zusammenfassung, womit das chemische Verfahren durch das Zusammenführen mehrerer Stoffe zu der Herstellung eines neuen Stoffes führt.

Die uneinheitliche Definition verstärkt sich dadurch, dass beispielsweise Biodiesel nicht zu den synthetischen Kraftstoffen gezählt wird, obwohl bei dessen Herstellung eine chemische Veränderung stattfindet. Auch bei der Herstellung konventioneller Kraftstoffe kann unter Umständen ein Verfahren angewendete werden, welche den Rohstoff in der Herstellung chemisch verändert. Beispielsweise werden beim sogenannten „cracken“ im Rahmen der Diesel- & Benzinproduktion langkettige Kohlenwasserstoffe in kurzkettige Kohlenwasserstoffe gespalten. Trotz der chemischen Veränderung spricht man im Endprodukt dennoch von einem konventionellem und nicht von einem synthetischen Kraftstoff.

Arten von synthetischen Kraftstoffen: GtL, BtL, CtL, PtL

Der Großteil der synthetischen Kraftstoffe lässt sich in deren Benennung dahingehend kategorisieren, dass der Name den Aggregatzustand des Ausgangsstoffes und Endstoffes beschreibt. Verallgemeinert wird daher beispielsweise von XtL-Kraftstoffen („X-to-liquid“) gesprochen, wobei das „X“ eine Variable über den Ausgangszustand darstellt. Durch ihren flüssigen Endzustand können sie relativ einfach über die bestehende Infrastruktur für konventionelle Kraftstoff transportiert und gelagert werden und eignen sich (sofern auch andere Gesichtspunkte erfüllt sind) aufgrund ihres Zustands für die Nutzung in Verbrennungsmotoren.

Was bedeutet GtL-Kraftstoff?

Bei GtL-Kraftstoffen („gas-to-liquid“) wird Erdgas dahingehend chemisch umgewandelt, dass es einen flüssigen Zielzustand erreicht. Anwendung findet diese Synthese vor allem bei jenen Erdgasvorkommen, welche als Nebenprodukt der Erdölförderung anfallen. Das dabei anfallende Erdgas ist häufig in der Weiterverwendung als solches aufgrund der Transportkosten nicht rentabel, weshalb es oftmals einfach verbrannt wird. Durch Verarbeitung in einen GtL-Kraftstoff rentiert sich potenziell jedoch der Transport und Verkauf durch die erhöhte Energiedichte.

Was bedeutet BtL-Kraftstoff?

Für BtL-Kraftstoffe („biomass-to-liquid“) wird Biomasse verflüssigt, sodass diese für den Betrieb in konventionellen Verbrennungsmotoren geeignet ist. Im ersten Schritt wird die verwendete Biomasse (z. B. Holz oder Pflanzen) in einen gasförmigen Zustand gebracht und anschließend durch Synthese verflüssigt. Da bei der anschließenden Verbrennung nur so viel CO2 freigesetzt wird, wie der verwendete Rohstoff ursprünglich gebunden hat, hat dieser Kraftstoff eine bessere Energiebilanz als andere. Jedoch wird für den Anbau der Rohstoffe eine sehr große Fläche benötigt.

Was bedeutet CtL-Kraftstoff?

Als CtL-Kraftstoffe („coal-to-liquid“) werden jene Kraftstoffe bezeichnet, welche aus Kohle hergestellt werden. CtL-Kraftstoffe sind dahingehend verbreitet, da die globalen Kohlevorkommen wesentlich größer sind als jene für Erdöl. Andererseits hat die Herstellung eine schlechtere Energiebilanz als andere synthetische bzw. auch konventionelle Kraftstoffe, da Kohle relativ wenig Wasserstoff für die benötigte Synthese enthält und dieser separat hergestellt werden muss. Abhilfe könnte jedoch ein Verfahren schaffen, welche bei PtL-Kraftstoffen („power-to-liquid“) Anwendung findet. Bei dieser Form des synthetischen Kraftstoffs wird dieser mithilfe der Verwendung von elektrischem Strom hergestellt. Ein Synonym dafür ist E-Fuel, womit ersichtlich wird, dass der Begriff E-Fuel eine Art bzw. Unterkategorie von synthetischen Kraftstoffen ist und kein Synonym dafür.

Was bedeutet PtL-Kraftstoff?

Bei den PtL-Kraftstoffen wird Wasser mithilfe von Strom durch die sogenannte Elektrolyse in Wasserstoff und Sauerstoff aufgespalten. Im nächsten Schritt wird das benötigte CO2, welches aus verschiedenen Quellen stammen kann, bereitgestellt und die benötigten Stoffe zu einem Synthesegas zusammengeführt, welches dann durch Synthese verflüssigt wird. Sofern der Strom für die Elektrolyse aus erneuerbaren Quellen stammt und das verwendete CO2 nicht separat extrahiert wird, sondern aus der Atmosphäre stammt, kann dieser Kraftstoff Verbrennungsmotoren klimaneutral betreiben.

Weitere synthetische Kraftstoffe stellen jene dar, welche einem Verbrennungsmotor zu dessen Betrieb beigemengt werden, jedoch den konventionellen Kraftstoff nicht ersetzen. Ein Beispiel hierfür ist etwa Aceton.

Welche Kritikpunkte gibt es bei synthetischen Kraftstoffen?

Durch die großteils aufwendige Herstellung der synthetischen Kraftstoffe sind diese teurer als etwa Diesel oder Benzin. Da GtL-Kraftstoffe das bei der Erdölförderung anfallende Erdgas nutzen, ist diese Herstellung nicht beliebig skalierbar, da der verwendete Rohstoff begrenzt und endlich ist.

BtL-Kraftstoffe benötigen für den Anbau der Biomasse sehr viel Fläche, welche auch begrenzt ist, bzw. mit anderen Industrien wie beispielsweise der Nahrungs- oder Futtermittelindustrie konkurriert. Bei der Herstellung von E-Fuels ist vor allem relevant, wie der für die Elektrolyse verwendete Strom erzeugt wird und woher das benötigte CO2 stammt. Auch die Effizienz bei der Herstellung ist nach wie vor relativ gering. Bei der Herstellung von E-Fuels fallen neben dem gewünschten Endprodukt (ähnlich wie bei der Herstellung von konventionellem Kraftstoff) auch weitere Nebenprodukte an, welche zur Verbesserung des Nutzungsgrads weiterverarbeitet werden sollten.

Welche Chancen und Vorteile schaffen synthetische Kraftstoffe?

Ein großer Vorteil von synthetischen Kraftstoffen ist, dass sie für den Betrieb von konventionellen Verbrennungsmotoren geeignet sind und somit keine Umrüstung dieser nötig ist. Auch die bestehende Infrastruktur an Tankstellen kann aufrechterhalten und weiterhin betrieben werden.
Chancen werden vor allem der Verwendung von PtL-Kraftstoffen bzw.

E-Fuels zugeschrieben. Wird bei der Herstellung von E-Fuels das CO2 aus der Atmosphäre gewonnen und der Strom aus regenerativen Quellen erzeugt, lässt sich somit ein klimaneutraler Kraftstoff herstellen, welcher somit wesentlich klimafreundlicher als konventioneller Kraftstoff ist.

E-Fuels lassen sich durch ihre flüssige Form und ihre Beschaffenheit wesentlich leichter transportieren und lagern als beispielsweise Wasserstoff. E-Fuels können oftmals auch dort eingesetzt werden, wo eine Elektrifizierung aufgrund der Gegebenheiten nicht möglich ist. Eine weitere Chance besteht darin, dass sich synthetische Kraftstoffe mit konventionellen Kraftstoffen mischen lassen und somit zu einer besseren Energiebilanz beitragen können als die alleinige Nutzung konventioneller Kraftstoffe. Vorausgesetzt natürlich, dass die synthetischen Kraftstoffe eine bessere Energiebilanz besitzen als ihr konventionelles Äquivalent.

Wofür / Wozu sind Zecken gut? Erklärung


Zecken sind nicht nur Überträger von Krankheiten, sie sind auch nützlich. Gerade durch die Weitergabe von Erregern sorgen sie dafür, dass Tierbestände sich nicht extrem vermehren. Indem Zecken diese Tiere als Wirt benutzen, übertragen sie Krankheitserreger, die den Tieren einen gesundheitlichen Schaden zufügen. Dies ist besonders wertvoll, wenn neue Tierarten aus dem Ausland sich in der heimischen Natur ausbreiten und den Lebensraum der hiesigen Arten streitig machen. Ihr Körper ist an die Krankheitserreger der Zecke nicht gewöhnt und fällt ihnen damit leicht zum Opfer.

Wofür / Wozu sind Zecken gut? Erklärung

Darüber hinaus beschleunigen Zecken die Evolution. Tiere, die gegenüber dem Parasiten widerstandsfähiger sind, können sich vermehren. Damit geben sie die positive Eigenschaft an ihre Nachkommen weiter. Die folgenden Generationen haben somit automatisch weniger gesundheitliche Störungen durch den Zeckenbefall. Von diesem positiven Effekt profitieren auch wir Menschen. Mit einem Zeckenbiss gelangen Viren und Bakterien in unseren Organismus, gegen die dieser ankämpfen muss. Damit wird unser Immunsystem in Alarm versetzt. Ohne eine regelmäßige Anregung des Immunsystems durch Gefahrenstoffe würde dieses in einen Ruhemodus verfallen. Ein aktives körpereigenes Abwehrsystem schützt uns somit vor anderen Krankheiten wie Allergien und Autoimmunkrankheiten wie Rheuma. Wird eine Zecke frühzeitig entdeckt und entsprechend entfernt, ist das Risiko eines schweren Krankheitsverlaufs gering, jedoch sollte der Zeckenbiss bei einem Menschen nicht vorsätzlich herbeigeführt werden. Daher sind nach einem Aufenthalt in der freien Natur Menschen und Haustiere von Zecken zu befreien. Zecken sind lediglich in der Natur nützlich. In der Natur schwächen die Zecken durch das Saugen von Blut ihren Wirt, dadurch kann seine Leistungsfähigkeit positiv beeinflusst werden, indem Antikörper gebildet werden und er bei einem erneuten Befall resistent ist.

Zecken: Teil der Nahrungskette

Zecken sind Bestandteil der Nahrungskette. Wie Spinnen oder Würmer werden sie beispielsweise von Vögeln gefressen. Zum anderen dienen Zecken als Wirt. Häufig werden sie als Wirt sogar am Ende getötet. Einige Pilzarten umspinnen und durchdringen den Körper von Zecken. Mit ihren giftigen Fäden töten sie die Zecke. Auch Fadenwürmer dringen in Zecken ein und töten sie von innen heraus. Des Weiteren dient die Zecke als Nahrung für einige Wespenarten. Diese legen ihre Eier in den Zeckenlarven ab. Die Wespen ernähren sich dann von den Zeckeninnereien, was zum Ableben der Zecke führt.

Zecken sind faszinierende Tiere. Sie können bis zu über einem Jahren ohne Nahrung auskommen. Dies ist damit begründet, dass Zecken sich nicht aktiv auf Nahrungssuche begeben, sondern darauf warten, dass sich ein Tier als Opfer zum Blutsaugen nähert. Auf ihren Speiseplan stehen sowohl Säugetiere als auch Reptilien und Amphibien. Diese spüren sie durch das Hallersche Organ auf, welches in den Vorderbeinen sitzt. Mit diesem Chemorezeptor nehmen Zecken Kohlendioxid, Schweiß sowie Wärme wahr. Ebenso können Zecken mit dem Hallerschen Organ feinste Vibrationen spüren, die ihre potentiellen Opfer verursachen. Ist das Opfer identifiziert, lassen sich die Zecken von Grashalmen oder Sträucher auf sie fallen. Am Körper suchen sich die Zecken feuchtwarme Hautstellen, an denen sie das Blut saugen.

Des Weiteren sind Zecken gegenüber Umgebungseinflüssen sehr resistent. Zecken können 24 Stunden bei einer Kälte von – 12 Grad Celsius überleben, sodass sie auch im Winter auftreten. Ebenso kann Wasser den Achtbeinern nichts anhaben. Zecken können bis zu drei Wochen unter Wasser überleben. Das bedeutet, dass den Blutsauger auch ein Waschgang in der Maschine bei 40 Grad Celsius nicht beeindruckt.

Wofür / Wozu sind Wespen gut? Nutzen, Erklärung


Wespen gehören zu den am meisten verachteten Fluginsekten. Diese Antipathie ist allerdings nicht gerechtfertigt, denn sie sind unersetzlicher Bestandteil der Natur. Als Fressfeind verschiedener Plagen balancieren Wespen das Ökosystem. Darüber hinaus leisten die Tiere einen Beitrag zur Bestäubung verschiedener Pflanzen. In Japan hingegen werden die Larven einer Wespenart als Delikatesse verspeist.

Wofür / Wozu sind Wespen gut = tierische Jäger

Wer durch den Wald wandert, der kommt zwangsläufig an Hochsitzen vorbei. Auf diesen lauern Jäger auf ihre Beute. Ziel der Jagd ist jedoch nicht, Wildfleisch verkaufen zu können. In erster Linie geht es darum zu verhindern, dass ein Ungleichgewicht im lokalen Ökosystem entsteht. Wenn manche Tierarten überhandnehmen, kann dies eine katastrophale Kettenreaktion anstoßen. Wird z.B dem Wolf erlaubt, sich unkontrolliert auszubreiten, kommt es zwangsläufig zum Konflikt mit dem Menschen. Weidetiere werden gerissen, was zu finanziellen Schäden führt.

Wespen sind von Natur aus Jäger. Statt Wölfen haben sie andere Insekten im Visier. Ob Spinne, Wanzen oder Fliegen: Die kampfeslustigen Tiere sorgen dafür, dass wir mit weniger Schädlingen zu tun haben. Die deutsche Wespe ist nicht sonderlich wählerisch und tötet, was ihr in die Flugbahn kommt. Nachdem die Leiche des Insekts zerlegt wurde, wird sie abtransportiert. Aufgrund der kurzen Lebensdauer benötigen erwachsene Wespen nämlich kein Protein! Das erbeutete Insektenfleisch dient einzig der Aufzucht des Nachwuchses.

Einer Studie zufolge wird der Wert der globalen Wespenpopulation auf 417 Milliarden US-Dollar geschätzt. Der Grund hierfür ist, dass die Insekten auch Ernte- und Nahrungsmittelschädlinge töten. Diese Erkenntnis hat dazu geführt, dass Wespen von ökologischen Schädlingsbekämpfern gezielt eingesetzt werden. Dazu zählen etwa Ampulex compressa, welche Schaben angreift. Aber auch in Brasilien werden Wespen immer öfter eingesetzt, um Maisbauern vor Ernteausfällen zu bewahren.

Wespen als Bestäuber

Rund 75 % aller Pflanzen, die der Mensch anbaut, müssen bestäubt werden. Dabei ist es allerdings nicht fair, sich nur bei Bienen und Hummeln zu bedanken. Auch Wespen leisten hierzu einen Beitrag. Erwachsene Exemplare ernähren sich nicht von den erlegten Insekten, sondern sind auf Zucker angewiesen. Dieser wird z.B aus Blüten bezogen. Ganze 164 Spezies sind auf Wespen zur Bestäubung angewiesen. Ein bekanntes Beispiel ist die Feige, die von Wespen als Energielieferant und Brutstätte genutzt wird. Dabei kann auch gleichzeitig eine Bestäubung erfolgen.

Wespen als Nahrungsmittel (Nutzen)

Etwa 2 Milliarden Menschen haben Insekten auf ihrem Speiseplan stehen. Was in Deutschland und Europa verwundert, ist vielerorts Lebensrealität. Auch Wespen werden dabei gegessen – sie machen etwa 4,8 % des Gesamtverzehrs aus. Bekannt sind etwa die Art „Vespula flaviceps“ , auf die in Zentraljapan Jagd gemacht wird. Zuerst werden die Tiere mit einem kleinen Stück Fisch angelockt, um sie dann bis zu Ihrem Nest zu verfolgen. Anschließend wird es vom Jäger ausgegraben und in eine Holzbox verfrachtet. Dort verbleibt es mehrere Monate, bis die Larven erntereif sind. Dabei ist „Hachinoko“ weich im Biss und wird in einer Sojasoße gekocht und mit Reis verzehrt.

In Deutschland stehen Wespen allerdings unter Naturschutz und dürfen nicht getötet werden. Auch dann nicht, wenn man gern eine neue kulinarische Erfahrung machen möchte. Prinzipiell mag es aber eine gute Idee sein, Insekten zu essen. Schließlich sind sie proteinreich und ressourcenschonend in der Aufzucht.

Warum ist Wasser so wichtig für uns Menschen und unseren Körper? Erklärung


Wasser formt als wichtiger Bestandteil von Geweben und Zellen den menschlichen Körper. Zusätzlich ist es wichtig für den Flüssigkeitshalt. Die Flüssigkeit ist in der Lage, feste Bestandteile der Nahrung wie Salz, Zucker und einen Teil der Mineralstoffe und Vitamine zu lösen. Alle gelösten Nährstoffe werden zu den Zellen transportiert, wo sie dringend benötigt werden. Zu den wichtigsten Aufgaben des Wassers gehört auch die Kühlung des Körpers.

Wasser ist das menschliche Lebensexilier: Warum Wasser so wichtig für Menschen ist

Ist der Körper nicht ausreichend mit Flüssigkeit versorgt, macht sich das als Durst bemerkbar. Die Zunge klebt am Gaumen und der Mund wird sehr trocken. In diesem Zustand haben Menschen das Gefühl, dass sie eine ganze Wasserflasche leeren können. Das Verlangen nach Flüssigkeit sollte in diesem Zustand dringend gestillt werden. Am besten geeignet ist hierfür Wasser. Der menschliche Körper hat ein perfektes Alarmsystem, welches sofort anzeigt, wenn sich im Organismus zu wenig Flüssigkeit befindet. Menschen bekommen dann Durst. Dieses Gefühl wird durch das Durstzentrum im Gehirn ausgelöst. Aufgabe des Zentrums ist die Ermittlung von Flüssigkeitsmengen und Elektrolyten. Diese Funktion ist für Menschen essentiell. Neben Sauerstoff gehört Wasser für Menschen und viele Tiere zum wichtigsten Lebenselixier. Menschen ist es möglich, über mehrere Wochen ohne Nahrung zu überleben. Ohne Flüssigkeit ist das nur ein paar Tage möglich.

Warum benötigt der Mensch Wasser?

Seit vielen Jahren ist bewiesen, dass Menschen rund zwei Drittel aus Wasser bestehen. Das macht bei einem Erwachsenen circa 50 bis 60% aus. Der Wasseranteil nimmt im Laufe des Lebens ab. Säuglinge haben direkt nach der Geburt einen Wasseranteil von 75 bis 80%. Bei einem älteren Menschen beträgt der Anteil höchstens 50%. Es gibt neben dem Alter aber noch zusätzliche Faktoren, die den Wasseranteil im menschlichen Körper beeinflussen können. Das Geschlecht spielt hierbei keine Rolle. Grundsätzlich haben Männer einen bis zu 5% größeren Wasseranteil als Frauen. Auch der Trainingszustand muss erwähnt werden. Umso mehr Muskeln vorhanden sind, desto größer ist der Wasseranteil. Das liegt unter anderem daran, dass in Muskeln wesentlich mehr Wasser vorhanden ist als im Körperfett.

Aber wofür wird das Wasser vom Körper noch benötigt? Viele Funktionen des menschlichen Körpers sind vom Wasser abhängig. Eine wichtige Funktion ist der Transport von Nährstoffen und Sauerstoff, die zu den Zellen und Organen befördert werden müssen. Weiterhin leitet es alle Abfälle ab, die bei einem Körperstoffwechsel anfallen. Auch die Körpertemperatur wird reguliert. Für viele Zellen dient Wasser als Lösungsmittel. Bei einigen Körperteilen ist Wasser ein Hauptbestandteil. Hierbei handelt es sich beispielsweise um die Haut. Sie setzt sich circa aus 70% Wasser zusammen. Die Augen bestehen dagegen fast vollständig aus Wasser.

Wie verliert der Körper Flüssigkeiten?

Auch wenn der menschliche Körper zum größten Teil aus Wasser besteht, hat er nur wenige Wasserreserven. Daher muss er ständig mit Flüssigkeit versorgt werden, damit alle Funktionen richtig funktionieren. Auch ohne körperliche Anstrengung wird pro Tag über den Darm, die Lungen, Nieren und Haut rund zweieinhalb Liter Wasser verloren. In der Regel nimmt der Körper täglich einen Liter Flüssigkeit über die Nahrung auf. Die restlichen benötigten ein bis zwei Liter Flüssigkeit sollten dem Körper vorzugsweise über alkohol- und zuckerfreie Getränke wie Wasser oder Tee zugeführt werden. Dadurch kann der Wasserbedarf eines Erwachsenen gedeckt werden. Der Wert kann bei Sportlern, schwangeren oder schwer arbeitenden Menschen etwas abweichen.

Wenn ein Mensch am Tag zu wenig trinkt, kann der Körper bis zu einem Prozent seines Körpergewichts durch den Flüssigkeitsmangel verlieren. In diesem Fall macht sich nicht nur ein starker Durst bemerkbar, sondern der Mangel hat auch negative Auswirkungen auf die Leistung und Konzentration. Häufig treten Symptome wie Kopfschmerzen, Erschöpfung, Mundtrockenheit, Appetitlosigkeit und Übelkeit bemerkbar. Wer immer nur etwas trinkt, wenn ein starkes Durstgefühl zu spüren ist, tut seinem Körper nichts Gutes. Es ist wesentlich gesünder, wenn der Körper regelmäßig mit frischem Wasser versorgt wird, ohne dass ein Durstgefühl zu spüren ist. Der menschliche Körper ist somit wesentlich leistungsstärker und konzentrierter.

Was passiert bei einem Flüssigkeitsmangel?

Der menschliche Körper kann einen Flüssigkeitsmangel bis zu einem gewissen Grad ausgleichen. Darüber hinaus wird im Organismus aber ein großer Schaden angerichtet. Das Blut beginnt deutlich langsamer zu fließen, da es bis zu drei Viertel aus Wasser besteht. Das hat zur Folge, dass der Körper mit weniger Sauerstoff versorgt wird. Dadurch nehmen die Konzentration und Hirnleistung ab. Wenn dem Organismus über einen längeren Zeitraum kein Wasser zugeführt wird, kann es zu Dehydrationserscheinungen kommen. In diesem Fall kommt es zu Symptomen wie Schwindelgefühle, erhöhte Atemfrequenz und beschleunigter Herzschlag. Gleichzeitig kommen die Harnproduktion und der Schweißfluss zum Erliegen. Anfangs ist der Betroffene etwas verwirrt und fällt anschließend ins Koma. Ist der Flüssigkeitsverlust zu hoch, hilft nur eine intravenöse Versorgung. Bereits ein Wasserverlust von bis zu 20% kann tödlich enden.

Regelmäßig Wasser trinken

Wer dauerhaft zu wenig trinkt, schadet ebenfalls seinem Organismus, auch wenn es nicht unbedingt tödlich ist. Dafür steigt die Gefahr einer Verstopfung, Kreislaufstörung, Nierensteine und Harnwegsinfektion. Da durch den Flüssigkeitsverlust die Konzentration an Histamin ansteigt, kommt es vermehrt zu Allergien. Als negative Folgen ist sogar ein Bandscheibenvorfall möglich. Durch den Flüssigkeitsmangel könnten die Bandscheiben austrocknen oder schrumpfen. Somit sind sie in ihrer Funktion eingeschränkt. Durch jede weitere Bewegung wird das gespeicherte Wasser aus dem Kern der Bandscheibe gepresst. Wird regelmäßig nicht genügend getrunken, kann das Wasser nicht mehr ausreichend ersetzt werden. Ein Wassermangel wirkt sich auch auf das Äußere aus. Ohne eine regelmäßige Wasserversorgung verliert die Haut ihre Elastizität und zeigt schneller Falten.

Warum ist der Regenwald so wichtig für das Klima und für uns? Erklärung


Der menschengemachte Klimawandel ist bereits seit vielen Jahrzehnten ein großes Problem für unseren Planeten. Je mehr die Menschen CO₂ in die Luft ausstoßen, desto stärker steigt die globale Durchschnittstemperatur an. Die Folgen dieser Klimaveränderungen kriegen wir unter anderem durch extreme Wetterereignisse wie Hochwasser oder Tornados sehr deutlich zu spüren. Selbst in Ländern wie Deutschland, in denen solche „natürlichen“ Unglücke in der Regel nicht wirklich vorkommen, gehören sie für viele inzwischen schon regelmäßig zur Realität. Und solange die Menschen (unter anderem) durch die Verbrennung von Kohle, Erdöl, Benzin, etc. diese Veränderung des Weltklimas weiterhin vorantreiben, desto häufiger und stärker werden derartige Naturphänomene auftreten.

Glücklicherweise verfügt unsere Erde jedoch über einige Orte, die den menschengemachten Klimawandel noch deutlich abbremsen. Die Rede ist dabei von einem ganz bestimmten Ökosystem – nämlich dem Regenwald. Ohne unsere Regenwälder würde sich das weltweite Klima noch um einiges schneller und drastischer ändern, als wir es heute schon erleben. Doch warum genau ist das so? Die Antwort auf diese Frage, so wie weitere wissenswerte Informationen über unsere Regenwälder können in zusammengefasster Ausführung aus diesem Artikel entnommen werden.

Wie Regenwälder funktionieren

Obwohl die Böden in diesen Wäldern relativ arm an Nährstoffen sind, zählen Regenwälder zweifellos zu den vielseitigsten Ökosystemen auf der ganzen Welt – welches im Prinzip nur aufgrund eines sehr effizienten und kreativen Recyclingsystems funktioniert. Dieses Recyclingsystem ist das Resultat eines fast geschlossenen Nährstoffsystems, in dem praktisch ständig Nährstoffe zirkulieren. Diese Nährstoffe sind in Farnen, Ästen, Blättern und Stämmen gespeichert. Sobald diese Speicher auf den Waldboden fallen und absterben, werden sie sehr schnell zersetzt, sodass die Nährstoffe in den Speichern freigesetzt werden können. Die Nährstoffe, welche sich in Bäumen und Blättern befinden (wie beispielsweise Kalzium und Phosphor), werden bei Regen durch die sogenannte „Osmose“ aus diesen Blättern und Bäumen herausgelöst.

Allerdings werden diese gelösten Nährstoffe zum Teil schon von Baumkronen wieder aufgenommen. Und zwar mithilfe der sogenannten „Epiphyten“. Dabei handelt es sich um Pflanzen, welche sowohl auf Baumkronen, als auch auf den Spitzen anderer Pflanzen wachsen. Durch diese Epiphyten werden die Nährstoffe, welche sich durch den Regen gelöst haben, direkt wieder absorbiert. Der restliche Teil des Regens, welcher nicht in Berührung mit den Epiphyten kommt, fällt auf den Boden – und damit auf eine dicke Schicht aus Wurzeln, Laub und Pilzen. In Regenwäldern wachsen Pilze in Gemeinschaften, welche auch als „Mykorrhiza“ bezeichnet werden. Und diese Pilzgemeinschaften nehmen einen großen Teil des Regenwassers auf, sodass die Nährstoffe aus dem Regen von den Pflanzen aufgenommen werden, und nicht einfach sofort im Boden versickern.

Warum ist der Regenwald so wichtig für das Klima und für uns? Erklärung

Die Regenwälder haben in vielerlei Hinsicht einen sehr großen Mehrwert für unseren Planeten. Sie bieten nämlich nicht nur für zahlreiche Pflanzenarten ein Zuhause, sondern auch für eine Menge unterschiedlicher Tiere. Laut „Greenpeace“ beherbergen unsere Regenwälder etwa 90 % aller Primaten, 80 % aller Insekten, und 40 % aller Vogelarten. Was die Pflanzen angeht, so wachsen in unseren Regenwäldern fast zwei Drittel aller Pflanzenarten, die es auf der Welt zu finden gibt.

Doch einen besonders großen Nutzen hat das Ökosystem Regenwald gerade für den menschengemachten Klimawandel. Tatsächlich werden die Regenwälder auch oft als „grüne Lunge der Erde“ bezeichnet. Der Klimawandel wird ja zu einem großen Teil durch den Ausstoß von CO₂ vorangetrieben. Nun sind die Bäume und Pflanzen der Regenwälder dazu in der Lage, dieses CO₂ in großen Mengen aus der Atmosphäre aufzunehmen, um es dann wiederum in Sauerstoff umzuwandeln. Zwar wird dabei auch Kohlenstoff erzeugt, allerdings wird dieser direkt vom Boden und den Pflanzen dieser tropischen Wälder gespeichert. Darüber hinaus bieten unsere Regenwälder noch für etwa 180 indigene Gemeinschaften ein Zuhause. Doch dieses Zuhause wird immer mehr bedroht – vor allem durch Brandrodungen, welche auch nicht immer legal stattfinden.

Mit sechs Millionen Quadratkilometern ist der Amazonas-Regenwald der größte seiner Art. Laut Greenpeace wird von dieser wichtigen Fläche jedoch immer mehr zerstört. Offiziellen Angaben zufolge wurden in Brasilien im Jahr 2019 insgesamt 10.129 Quadratmeter Regenwald abgeholzt. Dies entspricht in etwa einer Fläche, die so groß ist, wie das gesamte Land Kosovo. Sollten auf der Welt noch mehr Regenwald-Flächen zerstört werden, würde dies den Klimawandel noch weiter beschleunigen, wodurch zum Beispiel die Polkappen schmelzen. Dadurch gelangt sehr viel Süßwasser in die Weltmeere, was wiederum einen direkten Einfluss auf wichtige Meeresströme wie den Golfstrom hat. Durch das neue Süßwasser werden derartige Meeresströme nämlich deutlich kühler und langsamer. Theoretisch könnten sie irgendwann sogar komplett verschwinden. Und sollte so etwas tatsächlich passieren, hätte dies für Nordeuropa ein wesentlich kühleres Gesamtklima zur Folge.

Regenwald: Was können wir tun?

Zahlreiche Menschen sind heute der Ansicht, dass es mittlerweile zu spät ist, um noch wirklich etwas Effektives gegen den Klimawandel zu unternehmen. Unabhängig davon, ob das stimmt oder nicht, würde das Schützen unserer Regenwälder definitiv einen sehr deutlichen positiven Einfluss haben – sowohl auf uns, als auch auf unseren Planeten allgemein. Doch wie können wir die Regenwälder schützen?

Eine der Methoden dafür ist die „Aufforstung“. Im Prinzip spricht man dabei einfach nur von dem Anpflanzen neuer Bäume. Denn über je mehr Bäume unsere Regenwälder verfügen, desto mehr CO₂ können sie absorbieren, und in Sauerstoff umwandeln. Des Weiteren kann der Regenwald auch von jedem von uns im normalen Alltag geschützt werden. Wer zum Beispiel auf Möbel aus Tropenholz verzichtet, oder als Recyclingpapier nur das Papier mit dem „Blauen Engel“ darauf verwendet, kann in seinem Alltag zumindest einen kleinen Beitrag zum Schutz der tropischen Wälder leisten. Der Verzicht auf Palmöl ist ebenfalls ein solcher Schutzbeitrag, da die Herstellung dieses Öls äußerst stark zur Zerstörung des Regenwaldes beiträgt. Der Grund dafür ist, dass Palmöl aus Ölpalmen hergestellt wird, welche wiederum auf Regenwald-Flächen angebaut werden. Diese Flächen wurden im Vorfeld gerodet, damit die Ölpalmen darauf angebaut werden können. Je mehr also die Nachfrage nach Palmöl steigt, desto mehr Ölpalmen werden angebaut. Und je mehr Ölpalmen angebaut werden, desto mehr Regenwald-Flächen werden gerodet.

Auch eine Verringerung des Fleischkonsums kann zum Schutz des Regenwaldes beitragen. Denn um das Futter für derartige Nutztiere herzustellen, wird in den Regenwäldern Soja produziert. Und für diese Sojaproduktion werden oft sehr große Regenwald-Flächen abgeholzt. Die grüne Lunge der Erde kann also nicht nur durch großen Aufwand an bestimmten Tagen an bestimmten Orten geschützt werden, sondern tagtäglich durch simpelste Veränderungen im eigenen Lebensstil.

Wodurch der Klimawandel noch gebremst werden kann

Es gibt noch eine große Anzahl von weiteren Möglichkeiten und Tipps, auf welche Art und Weise der Klimawandel zumindest verlangsamt werden kann. Zu diesen Möglichkeiten zählen unter anderem die folgenden Dinge:

  • Weniger Lebensmittel verschwenden
  • Produkte gemeinsam oder mehrfach nutzen
  • Möglichst häufig Bio-Produkte verwenden
  • Weniger Strom verschwenden & mehr Strom sparen
  • Regional & saisonal einkaufen
  • Mehr öffentliche Verkehrsmittel fördern & nutzen
  • Weniger Auto & mehr Fahrrad fahren
  • Auf Ökostrom setzen
  • Nach Möglichkeit LED-Lampen nutzen
  • Auf nachhaltige Unternehmen achten
Warum ist der Mars rot? Bedeutung, Definition, Erklärung


Der Mars verdankt seine rote Farbe einem Eisenoxid, dem sogenannten Hämatit (Fe2O3). Durch Oxidation des Eisens, welches im kosmischen Staub und im Marsgestein enthalten ist, entsteht diese chemische Verbindung. Auf der Erde ist dieser Prozess als „Verrosten“ bekannt. Das „Verrosten“ bzw. oxidieren des Eisens wird auf der Erde durch Feuchtigkeit, das heißt durch Wasser ausgelöst.

Der Mars verdankt seiner farbig auffälligen Erscheinung am Nachthimmel die Bezeichnung „roter Planet“. Tatsächlich ist seine Oberfläche aber nicht intensiv Rot, sondern rötlich mit Schattierungen in Braun und Orange. Die Akzentuierungen sind auf Sandstürme auf der Marsoberfläche zurückzuführen. Diese führen je nach Wetterbedingungen zu unterschiedlich großen Wolken aus rötlichem Sand, welche die Farbakzente setzen. Mit Teleskopen kann dies beobachtet werden.

Was verursachte die Entstehung des roten Eisenoxids auf dem Mars?

Das Rostrot des Mars wurde aufgrund der Annahme, dass Feuchtigkeit eine Voraussetzung für die Oxidierung von Eisen ist, lange Zeit als Beweis für einstig große Wasservorkommen auf dem Planeten angesehen. Eine Theorie besagt, dass früher vorhandenes Wasser das Eisen aus dem Marsgestein herauslöste und verrosten ließ. Diese Ansicht wurde durch Experimente von Geochemikern der Universität im dänischen Aarhus 2009 in Frage gestellt. Sie zeigten, dass der Prozess der Oxidierung auf dem Mars auch ohne große Wasservorkommen stattgefunden haben könnte. Die Oberfläche des Mars besteht zum Großteil aus Basalt, einem vulkanischen Gestein, welches Magnetit enthält. Magnetit ist ein schwarzes Eisenoxid. Würde das Basalt unverändert vorliegen, würde der Mars nicht rötlich sondern überwiegend dunkel erscheinen.

Die Forscher in Aarhus simulierten einen Erosionsprozess, der sich durch Sandstürme auf dem Mars zugetragen haben könnte. Dazu ließen sie Magnetit zusammen mit Quarzsand monatelang in einem abgeschlossenen Gasbehälter mechanisch schüttelten. Das Gasgemisch entsprach der Atmosphäre des Mars, welche 100-mal dünner ist als auf der Erde und zum größten Teil aus Kohlenstoffdioxid besteht. Bereits nach kurzer Zeit bildeten sich rote Ablagerungen. Dies bewies, dass Magnetit auch ohne den Einfluss von Wasser zu rötlichem Hämatit oxidieren kann. Der Leiter des Experiments, Jonathan Merrison, und seine Kollegen vermuteten, dass durch die Zusammenstöße der Sandteilchen genug mechanische Energie entsteht, um das chemisch stabilere Magnetit in Hämatit umzuwandeln. Über Jahrtausende könnte auf diesem Weg genügend Eisen oxidiert worden und infolgedessen rötlicher Sand entstanden sein, um die Färbung des Planeten zu erklären.

Woher kommt das Eisen und somit der Ursprung der Marsfarbe?

Der Mars war in seiner Entwicklung stark geprägt von Vulkanismus. Durch Identifizierung verschiedener Minerale auf der Marsoberfläche gehen Forscher davon aus, dass es sich um basaltischen Vulkanismus handelte. Das ist die auf erdähnlichen Körpern unseres Sonnensystems häufigste Form des Vulkanismus. Auf der Erde selbst bestehen u.a. die Ozeanböden aus Basalten. Basalte entstehen, wenn Teile des Planetenmantels zu Magma aufgeschmolzen werden, welches zur Oberfläche aufsteigt und als Lava austritt. Dieses vulkanische Gestein ist eisen- und magnesiumreich. Nach aktuellem Forschungsstand ist es der Hauptbestandteil der Marskruste. Die bekannten Vulkane des Mars sind alle erloschen und nur noch an einigen Stellen gehäuft zu finden.

Seine eisenhaltige Oberfläche verdankt der Mars aber nicht nur einer vulkanisch aktiven Vergangenheit. Forscher der NASA gehen zudem von einem kosmischen Ursprung des Eisens aus. Damit ist der Einschlag von Eisenmeteoriten gemeint. Diese Theorie wird gestützt durch die Funde mehrerer Eisenmeteoriten zum Beispiel im Zuge der NASA Mars-Mission mit dem US-amerikanischen Erkundungsroboter Opportunity. Dieser diente von 2004 bis 2018 der geologischen Untersuchung des Mars.

Was ist der Overview-Effekt? Bedeutung, Definition, Erklärung


Den Overview-Effekt erleben nur Raumfahrer: Sie haben aus dem Weltall plötzlich einen Überblick über den Heimatplaneten Erde, der einen unglaublichen emotionalen Effekt auslöst. Beim ersten Mal ist der Overview-Effekt am stärksten, doch die meisten Astronauten und Kosmonauten bestätigen, dass er sich wiederholt, wenn sie beispielsweise in der ISS nach vollbrachtem Tagewerk die Panoramakapsel aufsuchen, die ihnen den uneingeschränkten Blick auf die Erde ermöglicht.

Was ist der Overview-Effekt? Bedeutung, Definition, Erklärung

Verwendet hat ihn erstmals 1987 der Autor Frank White als Titel für ein dokumentarisches Buch („Der Overview-Effekt“), in welchem Besatzungsmitglieder etlicher Raumfahrtmissionen ihre Ehrfurcht beim Anblick des Heimatplaneten aus dem Kosmos beschrieben. Dieses Buch wurde 2012 durch einen Dokumentarfilm ergänzt. In diesem äußerten sich auch Raumfahrer, die ihre Missionen nach 1987 angetreten hatten. Die Liste der zitierten Kosmonauten und Astronauten ist lang und beginnt von vorn:

  • Juri Alexejewitsch Gagarin (mit dem sowjetischen Raumschiff Wostok 1 im April 1961 erster Mensch im Weltall, umrundete die Erde)
  • Alan Shepard (mit dem US-Raumschiff Mercury-Redstone 3 im Mai 1961 zweiter Mensch im Weltall, 1969 der fünfte Mensch auf dem Mond)
  • John Glenn (1962 erste vollständige Erdumkreisung mit einem US-Raumschiff)
  • Malcolm Scott Carpenter (1962 zweiter Astronaut im Orbit)
  • Michael Collins (Pilot von Apollo 11 während der ersten Mondlandung 1969, blieb im Raumschiff, während Armstrong und Aldrin auf ihm landeten)
  • Russell Louis Schweickart (1969 Pilot der Mondlandefähre von Apollo 9)
  • Edgar Mitchell (1971 Pilot der Mondlandefähre von Apollo 14)
  • Eugene Cernan (mit Apolle 17 im Jahr 1972 der 11. Astronaut auf dem Mond, zusätzlich weitere Weltraumflüge)
  • Anatoli Nikolajewitsch Beresowoi (1982 Kommandant von Sojus T-5 mit Außeneinsatz im All)
  • Marc Garneau (1984 erster Kanadier im All, danach noch zwei weitere Missionen)
  • Sultan bin Salman bin Abdulaziz Al Saud (1985 mit der US-Raumfähre Discovery erster Araber im All)
  • Loren Wilber Acton (1985 als Nutzlastspezialist mit einem Spacelab-Mission im All)
  • Bonnie Jeanne Dunbar (US-Astronautin, sechs Weltraummissionen von 1985 bis 1998)
  • Jeff Hoffman (fünf Flüge als Missionsspezialist von 1985 bis 1996)
  • Tamara Elizabeth Jernigan (US-Astronautin, fünf Weltraummissionen von 1991 bis 1999)
  • Prof. Dr. Albert Sacco (1995 Nutzlastspezialist auf einer Columbia-Mission)
  • Ron Garan (2008 Missionsspezialist auf der ISS)
  • Shane Kimbrough (drei Flüge als Missionsspezialist zwischen 2008 und 2021)
  • Nicole Stott (2009 und 2011 Missionsspezialistin auf der ISS)

Übereinstimmend beschreiben alle Raumfahrer*innen eine umfassende und sehr tiefgreifende Wirkung des Anblick der Erde aus dem Weltall.

Psychologische Wirkung des Overview-Effekts

Die Erfahrung, die Erde ganz real von außen zu sehen, ändert die eigene Perspektive grundlegend. Die Betrachtung der Natur und der Menschheit verändert sich. Als grundlegendes psychologisches Merkmal des Overview-Effekts nennen die befragten Raumfahrer*innen übereinstimmend ein Gefühl von Ehrfurcht und tiefem Verstehen der Verbundenheit sämtlichen Lebens auf dem Planeten Erde. Auch empfinden die Kosmonauten, Astronauten (und selbstverständlich auch Taikonauten) seit ihrem Overview höchste Verantwortung für die Ökosphäre der Erde. Ihre Zitate dazu lauten unter anderem, dass die Erde aus dem Weltraum betrachtet „erstaunlich und unbeschreibbar schön … wie ein lebender und atmender Organismus … aber gleichzeitig sehr verletzlich aussieht …“, dass die Erde „… lediglich von einer papierdünnen Hülle der Atmosphäre umgeben ist, die alles Leben vor dem unwirtlichen Weltall und damit vor dem Tod bewahrt …“, dass der Blick aus dem All „… nur natürliche, aber keine von Menschen geschaffene Grenzen zeigt …“ und dass „… der Overview die tiefste und emotionalste Erfahrung des eigenen Lebens …“ sei.

Welche Bedeutung hat der Overview-Effekt für den Rest der Menschheit?

Es gilt als unbestritten, dass Fotos und Filme den echten Overview von Raumfahrer*innen nicht ersetzen können. Da nicht jeder Mensch ins Weltall reisen kann, um zur tiefen Einsicht von Raumfahrern zu gelangen, fragt es sich, wie deren Erkenntnisse uns einfachen Sterblichen helfen können. Spätestens seit Erscheinen des Films 2012 haben sich nun auch Psychologen und Sozialforscher verstärkt mit dem Overview-Effekt befasst. Sie vertreten inzwischen die Auffassung, dass es möglich ist, generell von den Erfahrungen eines Overviews zu profitieren, indem wir alle unseren häufig auf Fragmente eingegrenzten Blick wieder auf das große Ganze richten. Dies betrifft unser physisches Umfeld ebenso wie die sozialen Organisationen, in denen wir kooperieren. Der Overview wirkt als Sinngarant, meint etwa der Netzwerkwissenschaftler Harald Katzmayer. Er glaubt, dass ein Überblick ähnlich dem von Raumfahrern Ruhe und Sicherheit erzeugt. Gleichzeitig lehrt er Ehrfurcht und weckt den Wunsch, unsere Umwelt zu schützen. In der Tat ist das Umweltbewusstsein mit dem Beginn der bemannten Raumfahrt gestiegen. Folglich sollten wir verstärkt unseren Fokus vom alltäglichen Klein-Klein abwenden und uns den größeren Sinnzusammenhängen widmen.

Was ist das China-Restaurant-Syndrom? Bedeutung, Definition, Erklärung


China-Restaurant-Syndrom ist ein umgangssprachlicher Ausdruck, der eine angenommene Glutamat-Unverträglichkeit bezeichnet.

Was ist das China-Restaurant-Syndrom? Bedeutung, Definition, Erklärung

Die Symptome ähneln denen einer Allergie, auch wenn es sich streng genommen beim China-Restaurant-Syndrom nicht um eine allergische Reaktion handelt. Ob Glutamat wirklich der Auslöser für das China-Restaurant-Syndrom ist, ist wissenschaftlich bislang nicht zweifelsfrei erwiesen. Ärzte und Wissenschaftler halten diese Erklärung aber für die wahrscheinlichste, wenn es um gesundheitliche Probleme nach dem Verzehr chinesisch zubereiteter Speisen kommt. Sie sind der Meinung, dass eine Überempfindlichkeit gegen Glutamat besteht. Glutamat ist ein Geschmacksverstärker, der in der asiatischen Küche häufig zur Anwendung kommt. Besonders oft ist Glutamat in Soja- und in Fischsoßen enthalten, mit denen in China-Restaurants eine Vielzahl von Gerichten gewürzt werden. Auch in chinesischen Suppen ist Glutamat vielfach zu finden, zum Beispiel in der Wantan-Suppe. Außerdem ist Glutamat oft in Fertigprodukten enthalten. Diese können Tütensuppen, Pulver zum Anrichten von Fertigsoßen oder Gewürzmischungen sein. Auch in Konserven kann Glutamat enthalten sein.

China-Restaurant-Syndrom: Symptome

Personen, die am China-Restaurant-Syndrom leiden wird häufig noch im Restaurant schlecht. Denn bei einer Unverträglichkeit gegenüber Glutamat zeigen sich innerhalb von zehn bis 30 Minuten nach dem Verzehr von mit Glutamat zubereiteten Speisen die ersten Symptome. Anhalten können diese im Anschluss über mehrere Stunden hinweg. Neben Übelkeit zählen Kopfschmerzen und ein unangenehmer Schläfendruck zu den häufigsten Symptomen. Betroffene leiden zudem oft unter Mundtrockenheit, einem Engegefühl in der Brust und vermehrtem Herzklopfen. Auch ein Taubheitsgefühl im Mund, oder starkes Kribbeln in der Mundhöhle, können vom China-Restaurant-Syndrom ausgelöst werden. In der Folge dieser ersten Symptome zeigen sich außerdem bei vielen Menschen Gliederschmerzen und eine vorübergehende Erstarrung der Gesichtsmuskeln. Auch Zittern ist möglich. Außerdem kann ein Juckreiz im Hals entstehen. Bei einigen Personen können auch gerötete Hautpartien und Schwellungen im Gesicht erkannt werden.

Sind Kinder vom China-Restaurant-Syndrom betroffen, können die Symptome verstärkt auftreten. Im Gegensatz zu Erwachsenen leiden Kinder zusätzlich oftmals unter Fieber und schwitzen sehr stark. Gegebenenfalls steigt ihre Reizbarkeit stark an und sie beginnen zu schreien. Werden Kinder mit China-Restaurant-Syndrom zu ihrem Befinden befragt, beschreiben sie ihren Zustand meist wie den im Rahmen einer starken Erkältung.

Mögliche Ursachen für das China-Restaurant-Syndrom

Damit das China-Restaurant-Syndrom tatsächlich auftritt müssen Menschen, die auf Glutamat mit einer Unverträglichkeit reagieren, eine gewisse Menge an Glutamat zu sich genommen haben. In der Regel sind dies drei bis fünf Gramm Mononatriumglutamat. Auch der Zeitraum, in dem diese Menge an Glutamat aufgenommen wird, spielt eine erhebliche Rolle. Er muss innerhalb einer sehr kurzen Zeitspanne von nur einigen Minuten liegen. Demnach ist es ungefährlich die gleiche Menge an Glutamat zum Beispiel auf zwei Mahlzeiten verteilt, etwa zum Mittag- und zum Abendessen, zu sich zu nehmen. Dann müssen, trotz einer Glutamat-Unverträglichkeit keine Symptome auftreten, die dem China-Restaurant-Syndrom zugeschrieben werden können. Da in der heimischen Küche üblicherweise nicht mit derart hohen Mengen an Glutamat gekocht wird, und dies eher für die chinesische Zubereitungsart typisch ist, tritt das China-Restaurant-Syndrom auch hauptsächlich nach dem Essen in China-Restaurants auf. Jedoch sind die beschriebenen Beschwerden nicht immer auf ein China-Restaurant-Syndrom zurückzuführen. Oft lösen auch eine zu hohe Konzentration an Histaminen, Fett oder Natrium im Essen ähnliche Beschwerden aus, wie das China-Restaurant-Syndrom.

Ist das China-Restaurant-Syndrom gefährlich?

Von Ärzten und Wissenschaftlern wird das China-Restaurant-Syndrom als gesundheitlich unbedenklich ausgewiesen. Der Grund dafür liegt darin, dass die durch die im Zusammenhang mit dem China-Restaurant-Syndrom stehenden Symptome rasch wieder abklingen und keine Folgeschäden hinterlassen. In erster Linie ist das China-Restaurant-Syndrom also lästig für die Betroffenen. Es ist nicht im Sinne einer tatsächlichen Krankheit, oder auch einer Allergie, zu verstehen. Es ist außerdem keine Gabe von Medikamenten nötig, um das China-Restaurant-Syndrom zu behandeln. Die Symptome verschwinden nach kurzer Zeit jeweils von alleine wieder.

Was man zum China-Restaurant-Syndrom noch wissen sollte

Da hinter den Symptomen, die dem China-Restaurant-Syndrom zugeschrieben werden, auch wirkliche Krankheiten und Allergien stecken können, ist es dennoch ratsam einen Arzt aufzusuchen, wenn die Symptome häufiger auftreten. Es kann sich etwa auch um eine Nussallergie oder eine Allergie auf Meeresfrüchte, statt um das China-Restaurant-Syndrom handeln – je nachdem, welche Gerichte im China Restaurant verzehrt wurden. Ein Arzt kann über einen Allergietest Allergien feststellen und natürlich auch ausschließen. Zeichnet sich ab, dass es sich nicht um eine Allergie, sondern um das China-Restaurant-Syndrom handelt, dann hilft die Vermeidungsstrategie. Dabei muss nicht zwingend auf den Besuch von China Restaurants verzichtet werden. In jedem Fall sollte man eingangs jedoch nachfragen, ob in der Küche Glutamat zur Herstellung der Speisen verwendet wird. Es gibt auch eine Reihe an China Restaurants, die speziell damit werben ohne Glutamat zu kochen.

Was ist Bonding? Bedeutung, Definition, Erklärung


Bei Bindungen aller Art zwischen Menschen sind immer tiefe Emotionen im Spiel. In diesem Beitrag wird ausführlich erklärt, was „Bonding“ ist.

Was ist Bonding? Bedeutung, Definition, Erklärung

Der englische Ausdruck Bonding bezeichnet generell Bindungen aller Art. In der Regel bezieht sich Bonding dabei jedoch auf eher enge, emotionale und zwischenmenschliche Bindungen zwischen zwei oder auch mehreren Individuen und deren Entstehung sowie Entwicklung. Zumeist findet Bonding in Familien, Freundes- und Bekanntenkreisen sowie in Gruppen wie Sport- und anderen Vereinen statt. Bonding beschreibt im weiteren Sinne auch den Prozess, wenn gleichgesinnte Menschen Zeit miteinander verbringen. Bonding bzw. Bindung ist stets eine gegen- bzw. wechselseitige und interaktive Handlung, die sich von einfacher Sympathie unterscheidet und die Pflege sozialer Bindungen beinhaltet. Mit Bonding/Bindung werden vor allem auch romantische oder platonische Beziehungen unter dem Vorzeichen von Liebe, Vertrauen und Zuneigung beschrieben. Hierbei kann es sich sowohl um Sexualpartner als auch Eltern und Kinder sowie andere Verwandte handeln. In der Soziologie steht männliche Bindung für den Aufbau von Beziehungen unter Männern durch gemeinsame Aktivitäten, wobei weibliche Bindung sich eher auf die Bildung enger persönlicher Beziehungen zwischen Frauen bezieht.

Bonding: Berühmte Philosophen und Dichter beschäftigten sich intensiv mit Bindungen

Der griechische Philosoph Platon vertrat im 4. Jahrhundert vor Christus die Ansicht, dass grundsätzlich Liebe die Basis jeglicher Bindungen in menschlichen Gesellschaften sei. Im Dialog „Symposion“ erklärt der Erzähler Eryximachus, dass Liebe einfache Anziehung zur menschlichen Schönheit übersteige und diese bei Tieren und Pflanzen sowie im gesamten Universum vorkomme. Die Liebe lenke alles, was im Götterreich als auch demjenigen der Menschen geschähe. Eryximachus begründet diese Sicht damit, dass gegensätzliche Elemente wie Nässe und Trockenheit durch richtige Liebe harmonisch miteinander verbunden sind, während jedoch grobe, impulsive und vulgäre Liebe Tod und Zerstörung verursache. Höhere Liebe steuere demzufolge Beziehungen zwischen Gegensätzen im Laufe des Daseins und erzeuge Harmonie, impulsive und niedere Liebe hingegen schaffe Disharmonie. Platon schlussfolgert daraus, dass auf das Gute und die Gerechtigkeit gerichtete Liebe für Glückseligkeit, enge Bande innerhalb der menschlichen Gesellschaft und Eintracht der Menschen mit Göttern sorge. Mitte des 17. Jahrhunderts verurteilte der niederländische Philosoph Spinoza Impulsivität in Bindungen und pries Mäßigung sowie Kontrolle von Gefühlen als beste Basis für gute menschliche Bindungen. Johann Wolfgang von Goethe wiederum verglich 1809 in seiner berühmten Novelle „Wahlverwandtschaften“ gute und starke Eheverbindungen mit reaktiven chemischen Prozessen.

Im Tierreich gelten hinsichtlich von Bindungen andere Regeln als beim Menschen

Bindung wird in der Literatur vor allem unter dem thematischen Schwerpunkt Paarbindung behandelt. Der Begriff Paarbindung wurde 1940 erstmals in Bezug auf monogam oder relativ monogam lebende Vogelpaare erwähnt. Monogamie als langfristige Bindung oder Paarung über den kurzen Akt der Kopulation hinaus ist mit etwa 90 Prozent bei Vogelarten recht häufig anzutreffen, bei Säugetieren jedoch mit lediglich drei Prozent relativ selten. Monogamie als Paarbindung ist im Vergleich zur deutlich häufigeren Polygynie bei den meisten Primatenarten ähnlich gering, wobei Primaten jedoch oftmals lang anhaltende und stabile soziale Beziehungen in deren jeweiligen Gruppen und damit auch enge Bindung pflegen. Inwiefern Monogamie beim Menschen natürlich sei, bleibt in der Forschung umstritten, kontinuierliche monogame oder polygame Beziehungen werden aber so gut wie immer von affektiven bzw. emotionalen Bindungen begleitet. Paarbindung kann einer 1979 von der US-amerikanischen Psychologin Dorothy Tennov (1928-2007) aufgestellten Theorie zufolge auch stark von sog. „Liminalität“ (Schwellenzustand) geprägt sein, welche sich am besten mit dynamischen, veränderlichen und „gemischten Gefühlen“ beschreiben lässt. Demzufolge sind Bindungen und Beziehungen gleich welcher Art und Intensität stets permanentem Wandel unterworfen, was der Realität ziemlich nahekommen dürfte.

Bonding: Die tiefe Bindung der Mutter zum Kind gilt als das stärkste Band unter Menschen

Besondere Aufmerksamkeit widmet die Wissenschaft darüber hinaus der Untersuchung von elterlicher Bindung. 1958 publizierte der britische Entwicklungspsychologe, Kinderarzt sowie Psychoanalytiker John Bowlby (1907-1990) einen in der damaligen Fachwelt viel beachteten, aber auch kontrovers diskutierten Aufsatz zur Natur der kindlichen Bindung an die Mutter. Diesem ersten Vorläufer der „Bindungstheorie“ zufolge beruht affektive oder emotionale Bindung auf dem universellen Bedürfnis des Menschen, sich zu binden, die Nähe anderer Personen zu suchen und durch deren Anwesenheit Sicherheit zu fühlen. Die Bindungstheorie wurde größtenteils durch Experimente mit Tieren sowie Beobachtungen von Kindern ohne Betreuungserfahrung durch Erwachsene entwickelt. Bowlby konstatierte seinerzeit, dass Babys von Geburt an das Bedürfnis nach engen emotionalen Bindungen haben, da die damit verbundene Fürsorge ihre Überlebenschancen deutlich erhöht. Von allen menschlichen Bindungen gilt die Mutter-Kind-Beziehung bzw. mütterliche Bindung als eine der stärksten. Diese entwickelt sich bereits während der Schwangerschaft, nach der Geburt sorgt die Produktion von Oxytocin („Kuschelhormon“) für parasympathische Aktivität, Reduzierung von Angst, Bindungsförderung und Fürsorgeverhalten.

Erwachsene und Kinder müssen nicht verwandt sein, um sich sehr eng zu binden

In den 1930er-Jahren wurde das Stillen des Säuglings an der Brust der Mutter noch als unabdingbar für eine frühe mütterliche Bindung erachtet. Seither haben jedoch zahlreiche seriöse Studien gezeigt, dass sich auch Mütter, die „nur“ mit der Flasche stillen, ebenso angemessen um ihre Säuglinge kümmern (können). Verschiedene Fütterungsmethoden scheinen somit nicht allzu viel Einfluss auf die Güte der Mutter-Baby-Beziehung zu haben. Erfolgreiche gegenseitige Mutter-Baby-Bindungen sind also auch ohne frühes Stillen an der Brust möglich. Auch die zu dieser Zeit noch weitverbreiteten Annahme, dass Kinder, die erst spät in die Obhut von Adoptiveltern kommen, Schaden nehmen könnten, weil die Phase der gegenseitigen Bindungsentwicklung im Säuglingsalter abgelaufen ist, gilt heute als wissenschaftlich widerlegt. Vielmehr muss das sog. Eltern-Säugling-System neuesten Erkenntnissen zufolge nicht zwangsläufig auf biologischer Verwandtschaft beruhen. Es scheint sich eher um angeborene Verhaltensmuster sämtlicher menschlicher Säuglinge und den hierzu adäquaten und gewachsenen Reaktionen aller menschlicher Erwachsenen auf diese zu handeln, die Bindungen dieser Art fördern. Somit können auch Erwachsene die Elternrolle für Kinder übernehmen, ohne deren tatsächlichen Eltern zu sein.

Väter haben zu ihren Kindern häufig andere, aber nicht wenige intensive Bindungen

Von der mütterlichen Bindung an das Kind, die sich auch über längere Zeiträume meist durch Stabilität auszeichnet, wird hingegen die diesbezüglich vergleichsweise fragile und stärker schwankende väterliche Bindung unterschieden. In der Tat wachsen heutzutage zahlreiche Kinder ohne Väter auf und kennen keinerlei väterliche Bindung. Im Allgemeinen erlangt väterliche Bindung auch erst später im Leben von Kindern Bedeutung, vor allem nachdem sich die Sprache des Kindes bereits entwickelt hat. Väter haben vermutlich mehr Einfluss auf Spiel- als auf Fürsorgeinteraktionen. Bindungen zwischen Vätern und Kindern entwickeln sich auch später eher um finanzielle sowie politische Themen, während sich Bindungen zwischen Müttern und Kindern rund um ethische und/oder religiöse Themen drehen. Interessanterweise scheint der Anteil des Hormons Progesteron als wichtigster Vertreter aus der Gruppe der Sexualhormone im Blut der Mutter nicht nur die Intensität der mütterlichen Bindung während der Schwangerschaft, sondern auch das Verhalten von Vätern gegenüber Kindern maßgeblich zu beeinflussen.

Bindungen zwischen Menschen und Tieren existieren, werden aber oft sehr verklärt

Gänzlich anderer Natur als die vielfältigen Bindungen zwischen Menschen sind diejenigen zwischen Mensch und Tier, deren Erforschung im Rahmen der zu dieser Zeit einsetzenden „Aufklärung“ bereits im späten 18. Jahrhundert begann. Hierbei wird im Allgemeinen eine Unterscheidung zwischen Haus- oder Nutz- und Wildtieren unternommen. Schon in den 1870er-Jahren gab es etwa in Paris die ersten therapeutischen Ansätze zur Behandlung psychisch Kranker, bei denen regelmäßiges Reiten auf Pferden die motorische Kontrolle verbesserte sowie neurologische Störungen und schwere Depressionen anhaltend und effektiv minderte. Ungefähr zur selben Zeit wurden in den Vereinigten Staaten viele Kinder und speziell Jungen aus der Mittelschicht mit Begleittieren sozialisiert. Absicht und Ziel war hierbei, die angeblich angeborene Neigung zur Gewalttätigkeit bei Jungen durch positive Effekte der Tierhaltung zu mildern, zu dämpfen oder gar ganz auszuschalten. Noch bis in die 1990er-Jahre galt die Fürsorge und Verantwortung von Jungen für Haustiere als eine der wenigen erfolgreichen pädagogischen Methoden, Aggression bei männlichen Kindern dauerhaft vorzubeugen. Ein bekanntes historisches Beispiel für eine enge „Mensch-Tier-Bindung“, die als Begriff aber erst in den 1980er-Jahren in der Terminologie der Forschung auftauchte, sind diesbezügliche Berichte vieler Veteranen aus dem Ersten Weltkrieg, die ihre große Zuneigung zu den an der Front eingesetzten Pferden betonten.

Bonding: Viele Mechanismen von Bindungen lassen sich biologisch und chemisch erklären

Trotz der zahlreichen Unterschiede zwischen menschlichen und tierischen Bindungen bzw. dem Unvermögen von Menschen, tierisches Bindungsverhalten vollständig zu verstehen, gibt es doch auch einige Gemeinsamkeiten hormoneller Natur. Bei Menschen wie vielen Tierarten scheinen die beiden Hormone Oxytocin und Vasopressin den Bindungsprozess sowie soziales und reproduktives Verhalten günstig zu beeinflussen. Auch Paarbindung, positive soziale Interaktion sowie mütterliches Verhalten und Vertrauen werden durch höhere Konzentrationen dieser Hormone gestärkt, soziale Isolation führt dahingegen zu Stress und Freisetzung von Cortisol. In den „Belohnungszentren“ des limbischen Systems kann der Neurotransmitter Dopamin auch mit Oxytocin interagieren und auf diese Weise die Wahrscheinlichkeit einer Bindung weiter erhöhen. Einige Bedeutung bei der Bildung und Entwicklung von Bindungen wird auch dem Peptidhormon Prolaktin beigemessen, welches vorrangig im Hypophysenvorderlappen produziert wird und positiv auf Bindungen zwischen Müttern und Säuglingen sowie romantische Bindungen wirkt. Prolaktin steigert Wohlbefinden und verändert das neuroendokrine System, um somit enge Beziehungen zu ermöglichen und individuelle Gesundheit zu erhalten. Der Anstieg des Prolaktinspiegels in sozialen Stresssituationen soll Menschen auch vor potenziell gefährlichen und riskanten Überreaktionen bewahren.

Was ist die Wolken-Impfung? Wie werden Wolken geimpft? Bedeutung, Definition, Erklärung


Unter eine Wolkenimpfung versteht man eine Art der Wetterbeeinflussung durch das Versprühen eines chemischen Gemisches mit einem entsprechenden Flugzeug in den Wolken oder einem Beschuss dieser mittels einer Rakete. Damit wird versucht, den Hagel im Rahmen eines Gewitters zu minimieren oder bestenfalls gänzlich zu unterbinden. Nutznießer einer erfolgreichen Wolkenimpfung sind beispielsweise Landwirte, aber auch die Industrie.

Wie entsteht Hagel und wie kann man ihn mit einer Wolkenimpfung verhindern bzw. minimieren?

Hagelkörner beginnen zu entstehen, wenn Wassertröpfchen innerhalb einer Gewitterzelle durch Aufwinde in höhere Luftschichten transportiert werden. In diesen höheren Schichten herrscht eine niedrigere Temperatur, wodurch die ursprünglichen Wassertröpfchen zu gefrieren beginnen und somit zu kleinen Hagelkörnern werden. Durch starke Auf- und Abwinde innerhalb des Gewitters können Hagelkörner diesen Zyklus mehrmals durchlaufen und werden dadurch immer größer und schwerer, indem sich bei jedem Durchlauf eine weitere Schicht um das Hagelkorn bildet. Neben dem Bestehen von Auf- und Abwinden sowie der niedrigen Temperatur ist auch noch Folgendes für die Entstehung und Vergrößerung eines Hagelkorns notwendig: ein sogenannter Kondensationskern. Der Kondensationskern bzw. Kristallisationskeim ist jener Teil des Hagelkorns, an dem die Wassertropfen haften bleiben und in weiterer Folge gefrieren. Besonders gut eignen sich Eispartikel für die Bildung eines Kondensationskerns, aber auch Pollen, Staub oder Rußpartikel.
Und genau diesen Fakt versucht man sich mit der Wolkenimpfung zunutze zu machen. Mittels Flugzeuge mit speziell ausgerüsteten Fackeln bzw.

Generatoren wird ein Silberiodid-Aceton-Gemisch in die Wolken transportiert und dort freigesetzt. Sozusagen wird die Wolke mit dem Silberiodid-Aceton-Gemisch geimpft. Eine Alternative stellen Hagelraketen dar, welche vom Boden aus abgefeuert werden und die Wolken entsprechend von unten impfen. Das Prinzip ist dennoch dasselbe.
Die Verwendung des „Impfstoffs“ fällt auf chemische Verbindung Silberiodid, da dieses eine sehr ähnliche Gitterstruktur wie Eispartikel haben und sich somit sehr gut als Kondensationskern eignet. Durch die Einbringung dieser zusätzlichen Kondensationskerne können sich die Wassertröpfchen innerhalb der Gewitterzelle auf mehrere Kondensationskerne verteilen, wodurch weniger große und gefährliche Hagelkörner entstehen, sondern viele kleinere. Gleichzeitig soll das Versprühen auch zu einer Bildung von größeren Regentropfen führen, welche als Folge ihres höheren Gewichts früher abregnen und somit eine Hagelbildung durch den fehlenden Transport der Regentropfen in die höheren und kälteren Luftschichten gänzlich verhindert wird.

Alternative Methoden zur Wolkenimpfung

Neben den beschriebenen Methoden der Wolkenimpfung mittels Flugzeug sowie Beschuss mittels Hagelkanone gibt und gab es auch noch einige weitere Methoden zur Wettersteuerung. Im Altertum warnten offizielle Hagelwächter vor aufziehenden Gewittern und versuchten durch verschiedenste Opfergaben die Götter zu besänftigen. Im Christentum versuchte man sich durch Gebete oder der Abhaltung von Heiligen Messen von Hagel und Unwettern zu schützen, da man davon ausging, dass Dämonen für die Entstehung von Hagel verantwortlich sind. Auch das Opfern von Tieren an Klöster sowie das Errichten von Hagelkreuzen war verbreitet.

Später versuchte man Wolken mittels Schallwellen zu impfen, um sich so vor Hagel zu schützen. Mit dem sogenannten „Wetterläuten“ sollte durch das Läuten der Kirchenglocken das Gewitter durch die erzeugten Schallwellen vertrieben werden. Gleichzeitig warnte man damit die Bevölkerung vor der anbahnenden Gefahr. In weiteren Teilen Europas ging man auch mittels Raketen und Kanonen gegen Hagel und Gewitter vor. Zuerst nur in Form von Lärm, später wurden jedoch damit auch Rußpartikel verschossen, womit sich diese Methode, der heute üblichen sehr ähnelt und die Rußpartikel als Kondensationskeime dienten.

Wem nutzt die Wolkenimpfung?

Großen Nutzen aus der Wolkenimpfung erhofft sich vor allem die Landwirtschaft. Neben der Verhinderung von Hagelschäden durch große Hagelkörner soll mit der Wolkenimpfung auch das gezielte Abregnen in niederschlagsarmen Regionen gesteuert werden.

Die Industrie, allen voran die Automobilindustrie, versucht mit der Wolkenimpfung Neufahrzeuge vor Hagelschäden zu schützen, aber auch Flughäfen möchten damit das Wetter im Umfeld gewissermaßen stabilisieren.

Ein weiterer Anwendungsfall von Wolkenimpfungen bzw. Wetterbeeinflussung stellen Großereignisse dar. Somit hat beispielsweise China die Wolken zur Eröffnungsfeier der Olympischen Spiele 2008 im Umkreis geimpft, damit diese vor Regen verschont blieb.

Wie effektiv ist die Wolkenimpfung?

Über den Wirkungsgrad von Wolkenimpfungen gibt es keine eindeutige wissenschaftliche Datenlage bzw. konnte dieser bis dato nicht eindeutig nachgewiesen werden. Erschwerend für die Beweislage ist, dass sich Gewitterzellen sehr dynamisch und unvorhersehbar verhalten und sich somit die Zielerreichung nur sehr schwer messen lässt. Des Weiteren sind Gewitterzellen oftmals sehr groß, wofür für eine effektive Wolkenimpfung zur Verhinderung von Unwetterschäden eine Vielzahl von Flugzeugen bzw. Kanonen sowie eine große Menge an Silberiodid-Aceton-Gemisch benötigt werden würde. Der Betrieb der Flugzeuge sowie das Durchführen der Wolkenimpfung ist sehr kostenintensiv, wodurch der Einsatz auch mangels der wissenschaftlich nachgewiesenen Wirkung nur beschränkt erfolgt.

Ist die Wolkenimpfung gefährlich?

Über die Folgen der Wolkenimpfung gibt es bis dato keine eindeutigen wissenschaftlichen Beweise. Silberiodid wird zwar als Umweltgift geführt, man vermutet jedoch, dass die ausgebrachte Menge aufgrund des starken Verdünnungseffekts unbedenklich sei. Belege für die Auswirkungen auf Mensch, Tier und Umwelt, vor allem für den Boden und das Wasser, über welche das Silberiodid in den Nahrungskreislauf gelangen kann, sind noch nicht vorhanden.

Seit 1978 ist jedenfalls der Einsatz von Wettermanipulation in jeglicher Form für militärische Zwecke oder zur Kriegsführung durch die UN-Konvention untersagt, welche 77 Staaten unterzeichnet haben.
Auch im zivilen Bereich können Interessenskonflikte über den Einsatz der Wolkenimpfung entstehen, etwa wenn die Automobilindustrie die Impfung zur Regenverhinderung einsetzt, gleichzeitig Landwirte in der betroffenen Region den Regen zur Bewässerung benötigt.

Warum ist Photosynthese wichtig? Bedeutung, Definition, Erklärung


Das Wort Photosynthese stammt aus der altgriechischen Begriffen φῶς (phōs), was „Licht“, und σύνθεσις (sýnthesis), was „Zusammensetzung“ bedeutet.

Es ist ein Prozess, der (über-)lebenswichtig ist für sämtliche Organismen und Lebewesen auf der Welt, die nicht selbst in der Lage sind, Sauerstoff herzustellen, aber welchen zum Leben benötigen.

Bei der Photosynthese wird Lichtenergie mithilfe von beispielsweise Chlorophyll zu chemischer Energie umgewandelt. Dies wird von Pflanzen, Algen und auch von manchen Bakterien gemacht. Menschen und alle anderen Lebewesen sind dazu nicht in der Lage, benötigen jedoch Sauerstoff zum Atmen.

Wo findet Photosynthese statt und wie funktioniert sie?

In Kurzform beschrieben geschieht die Photosynthese in pflanzlichen Zellen. Wasser, welches beispielsweise über die Wurzeln aufgenommen wird, und Kohlenstoffdioxid aus der Luft, den die Pflanze über die Blätter aufnimmt, werden mithilfe des Chlorophylls, des grünen Farbstoffs, und unter Einwirkung von Lichtenergie bzw. Sonnenenergie in Glucose und Sauerstoff umgewandelt. Die Glucose bzw. die Kohlenhydrate verbleiben in der Pflanze, während der Sauerstoff wieder über die Blätter der Pflanze in die Umgebung abgegeben werden.

Glucose ist der Ausgangsstoff für viele weitere organische Bestandteile in den Pflanzen, wie zum Beispiel Cellulose, Fette, Eiweiße etc.

Die Energie, welche die Pflanze zur Photosynthese braucht, ist meist Sonnenenergie. Es ist bei vielen Zimmerpflanzen ein gut zu beobachtendes Phänomen, dass in den Wintermonaten, in denen die Tage kürzer sind und es somit weniger Sonnenstunden gibt, der Wachstum stagniert. Inzwischen gibt es auch Leuchtstofflampen, mithilfe derer das fehlende Sonnenlicht ergänzt werden kann.

Warum ist die Photosynthese so wichtig für das Leben auf Erde und Pflanzen? Erklärung

Wenn gesagt wird, dass ohne die Photosynthese keine anderen Lebewesen überleben könnten, klingt das dramatisch. Wenn jedoch bedacht wird, dass im Grunde der gesamte Sauerstoff auf der Erde nur durch Pflanzen hergestellt wird, ist die Aussage gar nicht mehr so abwegig.

Im Grunde ist es ein perfekter Kreislauf: die Pflanze, egal ob Baum, Strauch oder Blume, stellt durch Einwirkung von Sonnenlicht und unter der Voraussetzung, dass sie genug Wasser und ausreichend CO2 zur Verfügung hat, Sauerstoff her. Dieser wird von der Pflanze über die Blätter ausgeatmet, also abgegeben. Andere Lebewesen atmen wiederum diesen ein und nutzen ihn zur Aufrechterhaltung des Kreislaufes bzw. des Lebens, geben beim Ausatmen dann wieder den Ausgangsstoff für die Photosynthese, das CO2, ab.

Warum ist Photosynthese so wichtig für uns Menschen und Tiere?

Sauerstoff anders als durch Photosynthese herzustellen ist in den Mengen, die zur Erhaltung des Lebens auf unserem Planeten benötigt werden, nicht möglich. Es können vergleichsweise kleine Mengen Sauerstoff auf experimentelle Art und Weise im Labor hergestellt werden. Beispielsweise fällt eine geringe Menge Sauerstoff bei der Zersetzung von Wasserstoffperoxid (H2O2) an. Auch kann Sauerstoff aus anderen Gasen adsorbiert werden. Dafür sind jedoch aufwändige Verfahren nötig und es werden nur kleine Mengen Sauerstoff gewonnen.

Weitere Gründe, warum die Photosynthese so wichtig ist

Da bei der Photosynthese, also bei der Umwandlung von Wasser und CO2, nicht nur Sauerstoff anfällt, sondern auch Glucose, wird auch dies betrachtet.

Glucose ist ein äußerst energiereicher Stoff und Grundlage für eine Vielzahl weiterer Stoffe, die in der Pflanze gebildet werden. Durch biochemische Reaktionen in den Zellen der Pflanzen entstehen somit neben den bereits genannten auch Geschmacks- und Duftstoffe, Nektar, Vitamine, Harz, Farbstoffe, Lignin und Alkaloide.

Letztere sind in Form von Koffein aus den Bohnen des Kaffeestrauchs für manche Menschen ebenso lebensnotwendig wie der Sauerstoff zum Atmen.

Diese ganzen Stoffe, die auf der Umwandlung von Glucose basieren, werden nun in und von der Pflanze für verschiedene Dinge gebraucht. Wachstum, d. h. Bildung neuer Zellen und anderer Pflanzenbestandteile, die Bildung von Früchten und Samen (Vitamine, Fette), die Ausbildung von Wurzeln bzw. Wurzelknollen (Kohlenhydrate, Fette) und die Fortpflanzung (Duftstoffe, Nektar) sind nur einige davon.

Somit sorgt die Photosynthese nicht nur für Sauerstoff in der Luft, sondern in der Folge auch für alles, was der Mensch (und Tier) aus den Pflanzen herstellen und wozu er sie verwenden kann. Sämtliche Nahrungsmittel für Mensch und Tier sind also durch die Photosynthese direkt oder indirekt entstanden. Kartoffeln, Holz und Kleidung (aus Baumwolle) gäbe es nicht ohne die Photosynthese.

Äußere Einflüsse auf die Photosynthese

Erwähnenswert ist, dass die Photosynthese auf gewisse Weise beeinflussbar ist. Dies machen sich vor allem Gärtnereien oder andere bei der Pflanzenzucht zugute. Durch bewusste Erhöhung des CO2-Gehalts in der Luft, beispielsweise in Gewächshäusern, wird der Prozess der Photosynthese „angefeuert“. Auch wird mit intensiver, spezieller Beleuchtung eine Intensivierung der Photosynthese erzielt. Sind die Pflanzen kurz vor dem Austrocknen, hilft jedoch auch Beleuchten und CO2-Bedampfung nichts. Die Pflanze muss ausreichend Wasser zur Verfügung haben, damit die Öffnungen in den Blättern der Pflanze weit genug aufgehen, um CO2 aufnehmen zu können.

CO2, Licht und Wasser sind also Faktoren, die in bestimmten Maßen zur Förderung dieses äußerst wichtigen Prozesses eingesetzt werden können.

Global gesehen ist die Abholzung und Zerstörung großer Waldflächen für den Großanbau von Nutz- und Futterpflanzen im Hinblick auf die Photosynthese zum Nachteil der Sauerstoffproduktion zu betrachten. Ein etwa 100 Jahre alter Baum gibt nämlich pro Stunde etwa 12.000 Liter Sauerstoff an die Atmosphäre ab, andere, kleinere Grünpflanzen sehr viel weniger.

Was ist „Black Crush“? Bedeutung, Definition, Erklärung


Black Crush bezeichnet den Verlust an Detailtreue in einem dunklen Bildbereichen, wenn diese auf dem Display dargestellt werden. Der Begriff kann sowohl für die Darstellung von Fotos, als auch für Videos verwendet werden, wird aber meist zur Beschreibung des Verlusts von dunkleren Details in Filmen und Spielen verwendet.

Was ist „Black Crush“? Bedeutung, Definition, Erklärung

Möglicherweise fällt der Black Crush erst dann auf, wenn man das „richtige“ Bild daneben sieht (z. B. auf anderen Bildschirmen, die korrekt kalibriert wurden). Normalerweise führt das Problem nicht dazu, dass Inhalte überhaupt nicht mehr angesehen werden können, es verschlechtert jedoch die Qualität der Gesamtdarstellung. Bei Filmen kann es passieren, dass feine Details am Bildrand übersehen werden, bei Spielen (vor allem in hell erleuchteten Räumen) ist es oft schwierig, das Geschehen zu erkennen.

Es gibt verschiedene Gründe, warum es zu einem Black Crush kommen kann, und nicht immer liegt es am Display. Es kann auch vorkommen, dass die Schattendetails gar nicht erst richtig eingefangen wurden, weil die Kameraeinstellung nicht optimal waren. Auch dann erscheinen die Schwarztöne gedämpft. Manche Fotografen verwenden diese Technik auch absichtlich, um eine bestimmte Atmosphäre zu schaffen.

Hinweis: Mit „Crush“ ist im Text nicht der Schwarm gemeint, sondern eine technische Eigenschaft.

Die Rolle des Displays für den Black-Crush-Effekt

Häufig ist das Display die Problemquelle. Es gibt viele Spiele, bei denen der Spieler beim ersten Start zunächst Gamma und Weißpunkt kalibrieren muss. Eine falsche Einstellung (oder ein Fehler im System) kann zu einem Verlust von Bilddetails führen. Manchmal setzen Spiele HDR schlecht um, was ebenfalls zu Black Crush führen kann.

Die meisten Smartphone-Displays werden bei Auslieferung nicht kalibriert. Ohne eine ordnungsgemäße Kalibrierung werden sie immer ein Bild erzeugen, das leicht vom Original abweicht. Deshalb wird Autoren und Fotografen dringend empfohlen, einen kalibrierten Bildschirm zu verwenden, wenn sie ihre Arbeit editieren.

Wie man das eigene Display auf Black Crush testet

Eine einfache Möglichkeit, ein Display auf Black Crush zu testen, ist ein Sternfeldtest. Auf einem Display, das Black Crush aufweist, sind viele Sterne nicht richtig sichtbar. Auf einem OLED-Display sollten die meisten Sterne zu sehen sein, da ein helles weißes Pixel neben einem rein schwarzen sitzen kann, ohne dass ein Abblendalgorithmus das Bild beeinträchtigt.

Black Crush auf dem Samsung Galaxy S9

In verschiedenen Online-Foren finden sich Berichte von Galaxy S9-Besitzern über Farbprobleme auf ihren neuen Smartphones bei dar Darstellung dunkler bzw. schwarzer Bilder. Dunkle Farbtöne können nicht korrekt dargestellt werden, was zu einem körnigen oder pixeligen Bild mit schwarzen Blöcken führt. Der Black-Crush-Effekt sollte beim Betrachten von dunklen Bildern oder Videos sichtbar sein, da Details verloren gehen, ähnlich wie bei einer stark komprimierten Datei.

Dieses Problem ist nicht wirklich neu, da sich viele Nutzer auch bei den Geräten der vorherigen Generation darüber beschwert haben. Entweder ist es also ein schwer zu lösendes Problem für Samsung oder das Problem ist auf einen kleinen Teil fehlerhafter Geräte beschränkt. Derzeit ist nicht klar, wie weit verbreitet dieses Problem ist. Samsung hat sich bisher noch nicht zu dem Problem geäußert.

Black Crush auf dem Gaming Phone ROG Phone 3 von Asus

Das ROG Phone 3 konzentriert sich, wie der Name schon sagt, in erster Linie auf Spiele. Aber es ist das Recht eines jeden Nutzers, auch außerhalb der Spiele-Apps eine anständige Leistung zu erwarten. Zum Beispiel hat Asus das ROG Phone 3 von einer Dual-Kamera auf eine Triple-Kamera aufgerüstet, da man weiß, dass neben dem Gaming auch die Fotografie ein großes Anliegen der Nutzer ist.

Auch beim Anschauen von Videos, beim Telefonieren usw. können die Nutzer ein großartiges Erlebnis erwarten, denn das ROG Phone 3 ist nicht nur ein Gaming-Gerät, sondern ein Premium-Smartphone, das ein Komplettpaket sein soll.

Auch die Nutzer des ROG Phone 3 haben jedoch mit dem Problem des Black Crush zu kämpfen. Sie sehen pixelige, körnige Bilder beim Betrachten von Videos oder anderen Streaming-Inhalten, vor allem wenn ein dunkler bzw. schwarzer Rahmen im Video erscheint. Im Falle des ROG Phone 3 haben Nutzer im offiziellen Forum berichtet, dass sie schon seit längerer Zeit Probleme mit Black Crush beim Streaming von Inhalten haben. Leider hat das letzte Update dieses Problem bislang nicht behoben.

Black Crush auf dem OnePlus 8 Pro

Das OnePlus 8 Pro hat das beste Display, das je in einem OnePlus-Telefon verbaut wurde. Das 6,78-Zoll-QHD+-Fluid-AMOLED-Display ist nicht nur eines der schärfsten Displays auf einem Android-Smartphone, sondern auch eines der farbtreuesten. OnePlus schöpft die Eigenschaften des Displays voll aus, damit es sich so hochwertig wie möglich anfühlt – man hat sogar einen speziellen Pixelworks Iris-Chip in das Telefon eingebaut, um die Leistung des Displays zu verbessern, und das Gesamtpaket bringt dem Telefon die höchste DisplayMate-Bewertung aller Zeiten ein.

In der Realität ist das Display des OnePlus 8 Pro jedoch Berichten zufolge mit Problemen konfrontiert. In den XDA-Foren, in der OnePlus-Community und auf Reddit häufen sich Berichte über die uneinheitliche Farbausgabe des OnePlus 8 Pro-Displays. Die Nutzer beschweren sich vor allem über zwei Probleme: Black Crush und Grünstich. Das Unternehmen will dies mit einem kommenden Update beheben.

Was ist Low Code? Bedeutung, Definition, Erklärung


Low Code ist die Softwareentwicklung mit visuellen Appdesign-Tools und weiteren grafischen Modellierungsverfahren. Es wird ein „niedriger Code“ verwendet, weil die Programmierer auf klassische textbasierte Programmiersprachen verzichten. Das verringert sehr deutlich die Entwicklungszeit für eine Software.

Vorteile von Low Code

Es ergibt sich durch den Zeitvorteil ein hoher Kostenvorteil. Die Softwarefirma spart Zeit bei der Projektplanung, beim Mitarbeitertraining und bei der eigentlichen Entwicklung. Das Programmieren wird durch Low Code einfacher, wenn der Entwickler die Tools kennt. Diese Entwicklung kam generisch, aber zwangsläufig. So schreibt heute (2021) schon längst kein Programmierer mehr HTML-Codes, hierfür genügt ein Klick auf ein kleines Icon im Editor. Solche Editoren beispielsweise für die Textverarbeitung (Schriftgrößen und -arten, Fettungen, Unterstreichungen, kursives Setzen oder Farben) gibt es in jedem Content-Management-System, wie wir alle wissen. Low Code erweitert nun diesen Komfort beträchtlich.

Wie ist Low Code entstanden?

Low Code wird über Plattformen angeboten. Es gilt als Nachfolger der 4th-Generation-Languages (4GL) und ebenso als Nachfolger der Rapid-Application-Development-Tools.

  • 4GL: Diese Programmiersprachen waren bzw. sind schon darauf ausgerichtet, mit wenigsten Codezeilen komplette Anwendungen oder Teilfunktionen schreiben zu können.
  • Rapid-Application-Development (RAD): Die sogenannte schnelle Anwendungsentwicklung entstand nach Vorarbeiten von Barry Boehm schon in den 1980er-Jahren. Boehm entwarf ein Entwicklungskonzept für Software, das auf ein prototypisches Vorgehensmodell setzte. Klassische Vorgehensmodelle funktionierten damals ausschließlich und funktionieren auch heute teilweise noch kaskadierend (sogenanntes „Wasserfallmodell“), was bedeutet, dass die Programmierer verschiedene Schritte ausprobieren, um wie ein Wasserfall der Ebene ihrer Plattform immer näher zu kommen. Das ist zwar sehr genau, aber auch sehr aufwendig. Vor allem ist es nicht sehr flexibel. Sowohl RAD als auch 4GL ermöglichen die schnellere Anpassung an sich verändernde Bedingungen. Low Code ist noch schneller und flexibler.

Plattformen für Low Code

  • APEX (Oracle Application Express)
  • OutSystems
  • Anakeen
  • Mendix
  • Intrexx
  • Simplifier
  • Scopeland
  • devolute.cloud
  • Open-Source-Plattform der Eclipse Foundation

Programmieren mit Low Code

Die Entwicklung mit Low Code erfolgt wie die klassische Programmierung manuell in der betreffenden integrierten Entwicklungsumgebung. Der Programmierer schreibt nur keine individuellen Codes, sondern nutzt vorgefertigte Standardsoftwaremodule. Diese verknüpft die Low-Code-Plattform über intelligente Metadaten so miteinander, dass ein gewünschtes Programmverhalten entsteht. Eine Low-Code-Programmierumgebung besteht aus verschiedenen Modulen. So speichert eine relationale Datenbank die Anwendungsdaten, externe Daten von Drittanbietern lassen sich unter anderem über REST-APIs importieren. Die Realisierung der Arbeitsabläufe übernimmt eine Anwendungslogik in der Applikation. Der Endnutzer verfügt über eine GUI (Benutzerschnittstelle) im Front End. Solche Oberflächen lassen sich plattformübergreifend und auch als Webanwendungen (iOS, Android, Windows) erstellen. Die Programmierung mit Low Code zeichnet sich durch vier entscheidende Merkmale aus:

  • #1 Modelle für die Entwicklung: Um intuitivere Möglichkeiten zu schaffen, kommen visuelle Modelle zum Einsatz. Sie definieren die Geschäftslogik, das Datenbankmodell, die Benutzeroberfläche und weitere Merkmale. Anwendungsentwickler und Power-User können damit komplexe Mobi- und Full-Stack-Web-Anwendungen visuell modellieren. Gegenüber der klassischen Programmierung kann die Produktivität um den Faktor 10 steigen.
  • #2 Wiederverwendbarkeit: Die Vorlagen für Low Codes (Komponenten, Widgets, Plug-ins) sind nicht nur sofort einsatzbereit, sondern auch wiederverwendbar. Das ermöglicht es unter anderem Unternehmen, einen eigenen App Store in die eigene Low-Code-Plattform zu integrieren. Damit können sie unternehmensspezifische Intellectual Property (eigene geistige Ressourcen)an ihre Entwicklungsteams verteilen.
  • #3 Support nach der reinen Entwicklungsphase: Die per Low Code programmierte Anwendung ist darauf ausgerichtet, den gesamten Lebenszyklus ihrer Anwendung zu unterstützen können. Daher erhält sie in aller Regel von ihren Entwicklern sogar einen Lifetime-Support. Sie wird so lange gewartet und unterstützt, bis sie sich überlebt hat.
  • #4 Bereitstellung über die Cloud: Moderne Plattformen für Low Code funktionieren grundsätzlich cloudbasiert.

Verschiedene Varianten der Programmierung mit Low Code

Low Code setzt sich zunehmend durch und begünstigt die Entwicklung neuer Software sowie die Anpassung vorhandener Software in KMU und Großunternehmen. Es gibt mehrere Varianten der Anwendung:

  • Automation mit Low Code
  • App-Programmierung mit Low Code
  • Prototyping mit Low Code
  • Web-Development mit Low Code

Bei der Automation wird bestehende SaaS mit APIs angebunden. Damit können die Nutzer auf vorhandene Systeme aufsetzen: Sie verbinden relativ einfach die App-Frontend-Anwendungen miteinander. Die Entwicklung hin zur Programmierung mit Low Code verläuft rasant. Experten schätzen, dass etwa ab 2025 frühere Programmiermodelle als obsolet gelten könnten. Dies ist aber eine optimistische Einschätzung, weil auch vorherige Vorgehensweisen wie das kaskadierende Modell, 4GL und RAD nach wie vor existieren. Dennoch zeichnet sich Low Code deutlich mehr als frühere Modelle durch die einfache Anwendung bei hoher Flexibilität aus. Vor allem richtet die Vorgehensweise den Fokus auf zweckmäßige Anwendungen, denen sich bei Bedarf ein benutzerdefinierter Code hinzufügen lässt. Auch die mobile und cloudbasierte Verfügbarkeit der existierenden Low-Code-Plattformen schätzen die Entwickler sehr. Hinzu kommt der Featurestandard von Low Codes, der es überflüssig macht, Software für verschiedene Geräte zu entwickeln. Nicht zuletzt werden die Programmierer davon entlastet, diverse Programmiersprachen beherrschen zu müssen, wie es bislang der Standard war. Daher dürfte Low Code eine Schlüsselrolle für die weitere Digitalisierung der meisten Geschäftsprozesse spielen.

Was ist eine Asimov Kaskade? Bedeutung, Definition, Erklärung


Die US-amerikanische Fernsehserie Rick and Morty verwendet in der Episode Es kann nur viele geben (im Original: Mortyplicity) den Begriff der Asimov Kaskade. Damit nimmt die populäre Animationsserie Bezug auf den Sci-Fi-Autoren Isaac Asimov der unter anderem mit seinen drei Gesetzen der Robotik auf sich aufmerksam machte. Doch was genau ist eine Asimov Kaskade?

Zusammenfassende Erklärung: Was ist eine Asimov Kaskade?

Die Asimov Kaskade wird in Rick and Morty Mortyplicity (Staffel 5, Episode 2) etabliert. Sie spielt mit den Regeln von Isaac Asimovs Robotik. Dabei beleuchtet die Episode auf humoristische Art und Weise die komplexen Fragestellungen, die mit Asimovs Theorie zusammenhängen. Darunter die Frage: Was, wenn Roboter gegen Roboter kämpfen, die sich je für echte Menschen halten – welche Gesetze gelten dann? Und wie kann ein solche entstandener Loop durchbrochen werden?

Rick and Morty – Ein Einblick in die Episode Mortyplicity

Seit 2013 läuft die US-amerikanische Zeichentrickserie Rick and Morty im internationalen TV. So sind zwischen 2013 und 2021 fünf Staffeln mit je etwa 10 Episoden à 22 Minuten erschienen. Die Schöpfung von Autor Dan Harmon (Community) sowie Synchronsprecher und Autor Justin Roiland parodierte ursprünglich den Kultfilm Zurück in die Zukunft. Aus dem so konzipierten Kurzfilm entstand schließlich eine eigene Serie – und ein ganzes Franchise mit Comics, Videospielen und facettenreichem Merchandise. Die Serie Rick and Morty ist für teils absurde Sci-Fi-Plots und abgedrehte komödiantische Elemente bekannt. Dabei scheut die Sendung allerdings auch nicht vor nachdenklichen oder gar philosophischen Fragen zurück, wie die Episode 2 der Staffel 5 beweist.

In Mortyplicity, der zweiten Episode der fünften Staffel, erschafft der verrückte Wissenschaftler Rick eine Familie von Robotern, die als Köder fungieren und so von der eigentlichen Familie ablenken sollen. Die auf diese Weise künstlich erstellte Köderfamilie erstellt selbst wieder robotische Köder ihrer selbst, was in Konsequenz zu einer Kaskade – einer komplexen Verkettung von Ereignissen – führt. Denn die so künstlich erstellten Familien halten sich selbst je für die echte Familie und gehen aus einem Selbsterhaltungstrieb aufeinander los. Die ausgelösten tödlichen Konfrontationen werden in der Episode Asimov Kaskade genannt.

Mortiplicity ist ein Beispiel für Rick and Mortys komplexen Humor, der zugleich anspruchsvolle Themen und Fragen zu reflektieren weiß. Das Talent für diese Art von Meta-Humor bewies Schöpfer Dan Harmon bereits in seiner Serie Community (2009-2015). Dabei vermengt er gerne teils provokativen Fäkalhumor sowie Popkultur mit ernsten und relevanten Thematiken, welche das Publikum zum nachdenken bringen. Mit Mortiplicity nimmt die Sendung explizit Bezug auf Isaac Asimovs Gesetze der Robotik, und benennt das zentrale Phänomen der Episode als Asimov Kaskade.

Isaac Asimov und seine drei Gesetze der Robotik

Die Welt der Science-Fiction wird traditionell in Hard Science-Fiction und Soft Science-Fiction aufgeteilt. Isaac Asimov gilt als einer der zentralen Vertreter der Hard-SF, einer Form der fiktiven Erzählung, die jedoch naturwissenschaftliche Fragen und Phänomene in ihren Plot mit hineinwebt. Und so baute Isaac Asimov in seine populären Erzählungen komplexe Betrachtungen der Roboterlogik ein. Asimovs so präsentiertes naturwissenschaftliches Interesse basierte auf seiner Tätigkeit als Biochemiker.

Zu seinen Lebzeiten (1920-1992) konnte der russisch-amerikanische Schriftsteller Asimov einige elementare Werke der Science-Fiction zur Weltliteratur beisteuern. Berühmt ist beispielsweise sein Foundation-Zyklus, in dessen Zentrum die Foundation-Trilogie steht: Foundation (1951), Foundation and Empire (1952) sowie Second Foundation (1953). In der deutschen Version erschienen die Romane unter den Titeln Terminus, der letzte Planet, Der Mutant sowie Alle Wege führen nach Trantor. Zeitlebens konnte Asimov sein Standing als Sci-Fi-Autor so ausbauen, dass er mit Arthur C. Clarke und Robert A. Heinlein als Big Three der englischsprachigen Science-Fiction galt.

Die Fragen der Robotik zogen sich durch sein Werk, auch durch seinen Foundation-Zyklus. Als Frühwerk mit Bezug zur Robotik gilt seine Kurzgeschichte Robbie (1940). Darin emanzipierte er sich von den klassischen Frankenstein-Erzählungen, die von Schöpfungen erzählten, die sich gegen ihre Erschaffer wendeten. Vielmehr definierte er in seiner Erzählung Runaround (1942) Grundlagen einer gänzlich anderen Robotik, die sich gegen dieses Konzept der Zerstörung wendet. Die drei Gesetze der Robotik lassen sich grob zusammenfassen:

1. Ein Roboter darf sich nicht gegen Menschen wenden
2. Er soll den Menschen gehorchen, solange diese das erste Gesetz achten
3 Er soll seine eigene Existenz schützen, sofern dies nicht mit Gesetz 1 oder 2 in Konflikt gerät

Die Asimov Kaskade angewandt: Erklärung

Die absurde Situation in der Rick and Morty-Episode Mortyplicity knüpft auf abgedrehte Weise an Asimovs Gesetze der Robotik an. Asimov etablierte diese Gesetze, um den Schutz des Schöpfers vor seiner robotischen Kreation und den Schutz der robotischen Kreation selbst zu gewährleisten. Doch in Fall von Rick and Mortys extremer „Asimov Cascade Failure“ geraten diese Gesetze in einen scheinbaren Konflikt.

Die durch Rick erschaffenen künstlichen Familien halten sich selbst je für die echte menschliche Familie. Und aus ihrer Logik ergibt sich, dass die anderen Familien nicht echt sein können. Und so greift im Kontext des sich ausbreitenden Konfliktes das dritte Gesetz: das Schützen der eigenen Existenz. Also: Das Gegenüber muss vernichtet werden. Die Ironie der ganzen Geschichte? Während die fiktiven Rick und Mortys selbst nicht die echte Familie darstellen, könnte es ihr Gegenüber sehr wohl sein, weshalb eigentlich Gesetz 1 und Gesetz 2 greifen müssten – der Schutz der Menschen und der Gehorsam gegenüber dem eventuell menschlichen Gegenüber. Eine paradoxe Situation. So entsteht in der Episode ein absurder Loop, der zugleich Asimovs Gesetze der Robotik auf humoristische und hintersinnige Weise beleuchtet.

Was ist „Slowed + reverb“? Bedeutung, Definition, Erklärung


Die Bezeichnung „slowed and reverb“ kommt ursprünglich aus der Soundtechnik. Wir alle kennen die Sounds und Lieder bekannter Interpreten, die in ihrer Geschwindigkeit reduziert werden, um letztere mit einer besonderen Deutungen zu versehen und für die eigenen Zwecke zu nutzen. Besonders auf den Streaming- und Audioplattformen versuchen sich die Künstler an immer neuen Variationen bekannter Songs.

Die Reduzierung der Geschwindigkeit geht in den meisten Varianten mit einer technisch induzierten verringerten Frequenz einher, sodass die verlangsamten Songs oder Sounds in ihrer Akustik in der Regel einen – salopp gesprochen – tieferen Eindruck machen.

Unterschiedliche technische Möglichkeiten offerieren allerdings individuelle Lösungen. So kann beispielsweise die Tonspur von der Gesangsspur getrennt werden, um beide Tonspuren separat zu bearbeiten und zu einem neuen Werk zu komponieren. Viele Werke und Titel werden auf diese Weise neu interpretiert oder sogar als Remake oder Cover veröffentlicht.

Was ist „Slowed + reverb“? Bedeutung, Definition, Erklärung

Songs und Sounds, die in ihrer Geschwindigkeit herunterreguliert werden, erlauben dem Interpreten und Soundtechniker eine völlig neue Interpretation des originalen Soundtracks. Besonders schnellere Songs lassen sich durch eine Reduzierung der BTM-Rate (Beats per Minute-Rate) völlig neuen Stimmungsfeldern zuordnen. Stimmungsgeladene Melodien werden zu sanften Kadenzen, Songs mit einer bereits geringen BTM-Rate werden durch ein erneutes Slowing-Down zu hintergrundfüllenden harmonischen Background-Sounds.

Gesangsspur wird beim „Slowed and reverb“ oft neu hinterlegt oder aufgenommen

Ist der eigentliche Song durch ein „Slowing-Down“ verändert worden, bietet es sich oft an, die Gesangsspuren der Songs separat zu bearbeiten. Dabei steht bei vielen Interpreten und Soundtechnikern eine möglichst originalgetreue Implementation der Stimmen im Vordergrund der Intention.

Andere Ansätze hingegen verbinden das Reverbing mit der Integration einer Fremdstimme. Dabei muss die Stimme künstlich neu frequentiert oder gänzlich neu aufgenommen werden, damit sie der neu bearbeiteten Tonspur angepasst werden kann.

Warum ist das Slowed and Reverb Konzept so beliebt?

Cover bekannter Songs gehören heute zum Alltag. Oft sollen die entsprechenden Soundtracks und Titel aber nicht von Grund auf verändert, sondern lediglich erkennbar weiterentwickelt, verändert oder für einen bestimmten Zweck neu interpretiert werden. Das Slowing-Down ermöglicht eine neue Interpretation, ohne dass dabei die Gefahr besteht, dass eine bekannte Tonabfolge, die den Originalsound auszeichnet und einzigartig macht, nicht wiedererkannt werden könnte.

Das Slowed und Reverb ist auch für das Tanzen eine gern genutzte Methode, da derartig veränderte oder weiterentwickelte Songs beispielweise viel einfacher zum Einüben bestimmter tänzerischer Bewegungsabfolgen genutzt werden können, wenn die BPM zuvor erkennbar reduziert werden.

Vergleichbar sind die herunterregulierten Songs – visualisiert gesprochen – mit einer Art akustischen Zeitlupe, die eine genaue Auseinandersetzung mit individuellen Sequenzen der Musik oder des Sounds ermöglicht.

Slowed and Reverb in der Musiktheorie

Musiktheoretisch betrachtet ist Slowed and Reverb ein einfaches Verfahren der akustischen Veränderung einer bestimmten Tonabfolge oder eines gesamten Songs. Dabei ist das Verfahren dadurch gekennzeichnet, dass die Intervalle in den Tonabfolgen nicht verändert werden.

Melodie und die Abstände der Töne innerhalb der Melodieabfolgen werden nicht verändert, was dazu führt, dass selbst ein losgelöster „Songschnipsel“ zweifelsfrei seinen Wiedererkennungswert behält. Die wahrgenommene Stimmung und Atmosphäre der Töne kann allerdings beeinflusst und auf den individuellen Verwendungszweck angepasst werden.

Copyright bleibt zunächst unberührt

Die urheberrechtliche, gesetzliche Lage beim Slowed and Reverb ist bisweilen klar und eindeutig: Auch wenn Songs durch eine Änderung der Frequenz oder durch die Änderung anderer Parameter individualisiert werden, unterliegen sie im Regelfall noch immer den urheberrechtlichen Bestimmungen und Rechten gegenüber dem Interpreten, der eine Veränderung des eigenen Materials zumeist nicht gestattet bzw. ausschließt.

Was ist Oobleck? Bedeutung, Definition, Erklärung


Oobleck ist eine ungiftige nicht-newtonsche Flüssigkeit aus Stärke und Wasser, die eine veränderbare Viskosität aufweist.

Was ist Oobleck? Bedeutung, Definition, Erklärung

Die Viskosität beschreibt, wie zäh eine Flüssigkeit ist, und fällt in den Bereich der Rheologie, die sich mit dem Form- und Fließverhalten von Materie befasst. Seit Sir Isaac Newton (1642 – 1727) das Gesetz der Viskosität erstmals mathematisch beschrieben hat, werden Flüssigkeiten nach ihrem Viskositätsverhalten in newtonsche und nicht-newtonsche Flüssigkeiten unterteilt.

Bei newtonschen Flüssigkeiten ist die Viskosität unabhängig vom ausgeübten Druck und verhält sich linear. Typische Beispiele sind Wasser, verschiedene Öle und Luft. Im Gegensatz dazu weisen nicht-newtonsche Flüssigkeiten ein nicht-lineares Viskositätsverhalten auf. Beispiele für nicht-newtonsche Flüssigkeiten sind Blut, Ketchup und Oobleck.

Woher stammt die Bezeichnung Oobleck? Ursprung, Herkunft

Die Bezeichnung Oobleck stammt aus dem 1949 erschienenen Kinderbuch „Bartholomew and the Oobleck“ des Autors Dr. Seuss (Theodor Geisel). Die Geschichte handelt von dem Jungen Bartholomew, der das Königreich von einer grünen, klebrigen Substanz namens Oobleck befreit.

Wie verhält sich Oobleck?

Oobleck zeigt ein interessantes Verhalten für eine Flüssigkeit, wenn Druck auf die Oberfläche ausgeübt wird. Lässt man zum Beispiel einen Finger langsam in die Flüssigkeit gleiten, taucht er erwartungsgemäß ein. Übt man jedoch einen ausreichenden und lokalen Druck auf Oobleck aus, indem man zum Beispiel auf die Oberfläche schlägt, verhält sich die Flüssigkeit wie ein Festkörper. Das Verhalten von Oobleck ist also nicht ideal-viskos.

Vereinfacht ausgedrückt liegt der Grund für dieses Phänomen darin, dass das Wasser durch den Druck zwischen den Stärketeilchen verdrängt wird und sich diese ineinander verhaken. Infolgedessen ist es sogar möglich, auf dieser Flüssigkeit zu laufen. Bleibt man hingegen stehen, wirkt das Wasser wie ein Schmiermittel und man versinkt im Oobleck. Darüber hinaus werden nicht-newtonsche Flüssigkeiten genauer kategorisiert, je nachdem, ob die Viskosität durch die Schergeschwindigkeit oder die zeitliche Beanspruchung beeinflusst wird. Grundsätzlich unterscheidet man zwischen strukturell viskosen, dilatanten, thixotropen und rheotropen Fluiden.

Zu welcher Kategorie nicht-newtonscher Flüssigkeiten gehört Oobleck?

Je nach dem Verhalten der Viskosität unter dem Einfluss von Scherkräften auf ein Fluid unterscheidet man zwischen strukturviskosen und dilatanten Fluiden. Ein Fluid wird als strukturviskos oder scherverdünnend bezeichnet, wenn seine Viskosität mit zunehmender Schereinwirkung abnimmt. Je größer die Scherkraft auf die Flüssigkeit ist, desto weniger viskos ist sie und die Viskosität nimmt ab. Blut zum Beispiel gehört zu dieser Kategorie; es ist bei geringen Scherkräften zähflüssiger und wird mit zunehmender Scherkraft dünnflüssiger. Hohe Scherkräfte bewirken, dass die roten Blutkörperchen eine leicht längliche Form annehmen, wodurch das Blut leichter durch kleine Venen, die Kapillaren, fließen kann. Andererseits werden Flüssigkeiten als dilatant oder scherverdickend bezeichnet, wenn die Viskosität bei einer hohen Schereinwirkung steigt.

Oobleck gehört zu dieser Kategorie nicht-newtonscher Flüssigkeiten. Hängt die Viskosität von der zeitlichen Belastung ab, spricht man entweder von Thixotropie oder Rheopexie. Bei der Thixotropie nimmt die Viskosität bei konstanter Scherbeanspruchung im Laufe der Zeit ab, während bei der Rheopexie das Gegenteil der Fall ist. Ketchup zum Beispiel verhält sich thixotrop und muss normalerweise geschüttelt werden, bevor er aus der Flasche läuft. Nach kurzer Zeit verfestigt sich der Zustand wieder. Rheopex hingegen verhält sich eine Gips-Wasser-Suspension mit einem Gipsgehalt von 40 Prozent. Thixotropie und Rheopexie sind nicht zu verwechseln mit strukturviskosen und dilatanten Flüssigkeiten; der Unterschied liegt in der Konstanz der Scherwirkung. Würde eine konstante Scherkraft über einen längeren Zeitraum auf Oobleck einwirken, würde sich das Viskositätsverhalten nicht ändern. Oobleck ist also eine dilatante, aber keine thixotrope Flüssigkeit.

Wie kann man Oobleck selber herstellen? Rezept, Anleitung

Oobleck kann man ganz einfach selbst herstellen, man braucht nur Wasser, eine Schüssel, einen Becher oder Messbecher, ein Rührgerät (z. B. einen Löffel) und Speisestärke (z. B. Maisstärke oder Kartoffelstärke). Die Stärke wird mit Wasser im Verhältnis 2:1 gemischt, es werden also zwei Teile Stärke in einen Teil Wasser eingerührt. Schon beim verrühren merkt man, wie sich Oobleck dem Druck wiedersetzt. Wenn das Oobleck hergestellt ist, kann man davon etwas in die Hand nehmen und es fest zusammendrücken, was passiert wohl? Öffnet man die Hand wieder, wie verhält sich Oobleck dann? Man kann ebenfalls versuchen auf Oobleck zu laufen, dazu benötigt man nur eine größere Schüssel, in die man einige Zentimeter hoch das Stärke-Wasser-Gemisch gibt. Anschließend kann man in der Schüssel auf der Stelle treten und sehen was passiert. Auch durch Vibration hat man die Möglichkeit, interessante Beobachtungen mit Oobleck zu machen. Optional kann Oobleck mit Lebensmittelfarbe eingefärbt werden. Es ist jedoch zu bedenken, dass Lebensmittelfarben auch auf Hände und andere Materialien abfärben können.

Fazit: Oobleck

Oobleck ist eine ungiftige nicht-newtonsche Flüssigkeit aus Stärke und Wasser und gehört zu den dilatanten Fluiden. Wenn eine hohe Scherwirkung auf die Oberfläche ausgeübt wird, verhält sich die Flüssigkeit wie ein Feststoff. Daher ist es möglich, über die Flüssigkeit zu laufen.

Was bedeutet Metaversum? Was ist das? Bedeutung, Definition, Erklärung


Das Metaversum ist das Universum unserer virtuellen Welten, die zusätzlich mit der realen Welt verknüpft sind. Zwar wird der Begriff noch nicht lange verwendet, doch in Online-Games gibt es das Metaversum schon länger: Dort treffen sich Spieler in einem virtuellen Raum und interagieren miteinander. Dabei erweitern sie ihre reale physische Welt: Sie können beispielsweise durch Gesten und auch stärkere Körperbewegungen ihre Figuren steuern, also physisch in die virtuelle Welt eintauchen.

Was bedeutet Metaversum? Was ist das? Bedeutung, Definition, Erklärung

Die Idee des Metaversums in Kürze: Das Internet ist in Services geteilt. Wer bei Google Mail ist, kann nicht Twitter aus Google heraus benutzen. Wer bei Facebook ist, kann nicht seine Spiele auf Steam öffnen. Wer auf TikTok ist, kann nicht bei Rewe einkaufen. Ein Metaversum versucht diese getrennten Services miteinander zu verbinden in dem es eine übergeordnete Welt schafft, in der alles miteinander verknüft wird. Dazu soll die reale Welt miteingebunden werden.

Das Metaversum ist eine digitale 3D-Welt in der man sich per Avatar bewegt. In dieser Welt sollen oder können alle Services stattfinden, die man gewöhnt ist und nutzt. Hier können Filme geschaut und Spiele gespielt werden. Hier können Freunde getroffen und es kann gearbeitet werden. Man kann sich hier weiterbilden, soziale Verantwortung übernehmen oder ein Geschäft eröffnen.

Beispiele: Im Metaverse kann man seinen Freunden sein neues Steam-Achievement zeigen. Im Metaverse kann man den einen Netflix-Film besprechen und Notizen per Google Docs teilen. Wer kein Google Docs hat, greift per Microsoft Word zu.

Meta: Facebook

Am 28. Oktober 2021 gab Mark Zuckerberg bekannt, dass seine Firma an einem „Metaverse“ arbeitet.

Kommentar der Redaktion: Die Vorstellung des Mark Zuckerberg erinnert doch stark an „Second Life“. Per Avatar bewegt man sich in einer digitalen 3D-Welt. Hier kann man Freunde treffen, einkaufen, zur Bank gehen, Medien konsumieren und viele andere Dinge.

Entwicklung des Metaverse

Das Metaversum ist seit Jahren, wenn nicht seit Jahrzehnten (seit den 1980er-Jahren) im Entstehen begriffen. Der Vorreiter ist die Spieleindustrie: In Online-Games werden kollektive virtuelle Räume geschaffen, die dauerhaft bestehen bleiben, womit der Spieler immer wieder in sie eintauchen kann. Wenn er das macht, kann er beispielsweise mit einer speziellen AR-Brille (Augmented Reality, erweiterte Realität) seine Körperbewegungen in den virtuellen Raum übertragen. Dreht er den Kopf nach rechts, um sich umzuschauen, passiert genau das mit der Figur, die er gerade in der virtuellen Realität verkörpert. Er schaut sich also im Online-Game um. Damit entsteht eine Konvergenz zwischen physischer und virtueller Realität: Die beiden Welten nähern sich aneinander an. Das genügt aber noch nicht, um das Metaversum zu schaffen. Dieses entsteht dadurch, dass alle virtuellen Welten inklusive mehrerer Online-Games, die erweiterte Realität und das Internet miteinander verschmelzen.

Die Akteure können zwischen ihrer realen und mehreren virtuellen Welten hin- und herwandern. Das Internet ist ein selbstverständlicher Bestandteil des Metaversums, das darauf aufsetzt. Weitere, aber nicht unbedingt zwingende Bestandteile sind VR und AR, also Virtual Reality und Augmented Reality. Das Metaversum funktioniert auch ohne sie, doch mit ihnen macht es deutlich mehr Spaß. Die VR lässt uns vollkommen in virtuelle Welten eintauchen, die AR erweitert wie beschrieben unsere physische Welt um virtuelle Elemente bzw. stellt eine Verknüpfung zwischen beiden Welten dar. Die hierfür erforderlichen Technologien gibt es seit Jahrzehnten, sie entwickeln sich ständig. Daher ist auch das Metaversum im Werden: Es ist kein fertiger Zustand, sondern es entwickelt sich ständig weiter und dürfte dabei auch gelegentliche Disruptionen erzeugen, also echte Brüche mit allem, was wir bisher kannten.

Denkbar wäre beispielsweise, dass sich ein schwer gehandicapter Mensch, der sich in der physischen Welt aufgrund stärkster körperlicher Einschränkungen kaum noch bewegen kann, überwiegend im Metaversum aufhält und seine dortigen flinken Bewegungen körperlich deutlich spürt. Hierfür müsste die Augmented Reality den umgekehrten Weg gehen: Sie müsste virtuelle Einflüsse auf die physische Welt übertragen. So könnte die Person in der virtuellen Welt mit Hitze, Kälte, einem Luftzug, dem Handschlag eines Mitspielers und weiteren Einflüssen konfrontiert werden, die sie dann ganz real physisch spürt. Sie spürt auch die Bewegungen ihrer Arme und Beine (obgleich vielleicht real gelähmt) und hat nach einem anstrengenden Tag in der virtuellen Welt Muskelkater.

Woher kommt der Begriff „Metaversum“?

Er ist ein Kofferwort, das sich aus meta‑ („jenseits“) + Universum zusammensetzt. Auch dieser Begriff verweist auf das Werden des Metaversums, weil er speziell verwendet wird, um die Iteration des Internets zu gemeinsam genutzten 3D-Räumen zu beschreiben. Iteration bedeutet, dass es immer wieder neue, ähnliche oder leicht verschiedene Versuche gibt, die vielen Welten des Internets miteinander zu verbinden.

Dabei handelt es sich nicht nur um Spielewelten, sondern beispielsweise auch aus der Ferne durchgeführte medizinische Operationen oder die Arbeit von Mechanikern in technischen Anlagen mit AR-Brille (die ihnen exakt die Entfernung zum nächsten Bauteil anzeigt und den passenden Schraubenschlüssel vorschlägt).

Diese vielen Welten entwickeln sich ständig und nähern sich aneinander an. Denkbar ist beispielsweise, dass ein Chirurg, der mit einer AR-Brille operiert und plötzlich auf ein unbekanntes Problem stößt, mal eben fix virtuell in den OP eines Kollegen wandert, der vor einiger Zeit bei einer vergleichbaren OP dieses Problem gelöst hat. Die Daten liegen vor und werden nun eingespielt, der Chirurg kann für einen Moment seinem Kollegen über die Schulter schauen. Der Mechaniker in der Anlage könnte dasselbe tun. Das ist die eigentliche Idee des Metaversums: Die virtuellen Welten und die reale Welt verschmelzen miteinander.

Wir schaffen uns ein virtuelles Universum. Das ist schon ein Unterschied zum Bewegen in einer einzigen virtuellen oder per AR erweiterten Welt. Auch beim Gaming zeigt sich das: In den gängigen MMOGs (Massively Multiplayer Online Games) kann sich der Spieler nur in einer einzigen Welt bewegen. Doch wie erwähnt gibt es schon länger Online-Games, die sich miteinander verknüpfen und damit ein Metaversum entstehen lassen. Die User können diese Welten gestalten und regelrecht in ihnen leben. Begrifflich verwendet wurde Metaversum übrigens erstmals 1992 durch den Science-Fiction-Autor Neal Stephenson.

Wann könnte das Metaversum gestartet sein?

Nachdem sich der Begriff in den letzten 20 Jahren allmählich etabliert hatte und man begann, zu diesem Phänomen zu forschen, identifizierten Experten als erstes Metaversum das 1985 aufgelegte Spiel Habitat. Den Begriff gab es damals noch nicht, jedoch hatte Habitat schon viele Elemente eines Metaversums, obgleich es noch online nur schwach vernetzt war. Im Jahr 2003 folgte Second Life, ab 2004 gab es ein Open Source Metaverse Project.

Fiktiv thematisierte das Buch Ready Player One (2011) das Metaversum, es wurde 2018 von Stephen Spielberg verfilmt. Auch die Matrix-Filme spielen im Grunde in einem Metaversum, auch wenn es nicht so genannt wird. Ein regelrechter Hype um das Metaversum, das zuvor in der Öffentlichkeit als Begriff nur wenig beachtet worden war, entstand ab den 2020er-Jahren, nachdem sich Spieler in Online-Games virtuelles Land kauften und damit den Grundbesitz auf die virtuelle Welt übertrugen. Grundbesitz ist etwas sehr Nachhaltiges, man möchte ihn dauerhaft behalten oder auch damit spekulieren. Es bestehen daran sehr reale Eigentumsrechte. Dies macht die virtuelle Welt der physischen nahezu ebenbürtig.

In Projekten wie Dual Universe oder NEOS VR lassen sich inzwischen riesige Welten erschaffen, die zu einem sehr realen Metaversum heranwachsen werden. Wiederum ist die Spieleindustrie der Vorreiter. Epic-Games-Gründer Tim Sweeny „Fortnite“ hat inzwischen mehrfach erklärt, dass er an einem Metaversum arbeitet. Diese Pläne wurden zuletzt im April 2021 offiziell bestätigt. Im Juli 2021 folgte Facebook: Mark Zuckerberg kündigte an, dass aus Facebook ein Metaversum werden solle. Er verordnete seinen Mitarbeitern als Pflichtlektüre das Essay „The Metaverse“ von Matthew Ball, welches das Phänomen sehr umfassend beschreibt.

Wie versteht die Tech-Industrie heute das Metaversum?

Im Jahr 2021 fasst die Tech-Industrie das Metaversum als Nachfolger der jüngsten Innovation namens mobiles Internet auf. Das widerspricht ein wenig der vorherigen These, dass es das Metaversum im Grunde seit den 1980er-Jahren gibt, doch die Tech-Industrie tickt anders: Ihr geht es darum, wann bestimmte Entwicklungen zu Anwendungen für den Massenmarkt führen.

Die Online-Games spielen zwar mehrere Hundert Millionen Menschen auf der Welt, doch das ist immer noch kein Markt, der mit dem für Smartphones, PCs, Laptops oder internetfähigen Fernsehern zu vergleichen ist: Diese Geräte nutzen wir alle. Online-Gamer sind eine Minderheit im einstelligen Prozentbereich der Bevölkerung. Inzwischen gehen aber Tech-Experten davon aus, dass aus dem Metaversum Anwendungen für uns alle kommen werden. Dazu trägt seine Philosophie bei, die virtuellen Welten miteinander zu verknüpfen. Das dürfte dazu führen, so die Experten, dass die bisher voneinander abgeschotteten Technologie-Silos und Dienste miteinander verknüpft werden bzw. neue Dienste alles und jeden miteinander verbinden und uns gleichzeitig in VR- und AR-Welten hineinführen.

Die heutigen Dienste wie WhatsApp, Signal, iMessage, Telegram, Twitter, Facebook oder Instagram sind fast oder komplett voneinander getrennt. Diese Trennung soll das Metaversum überwinden. Wenn das geschieht, wäre dies in der Tat eine Disruption, denn in Wahrheit ist es mühselig, in verschiedenen Messengern zu hantieren und auf verschiedenen Social Networks unterwegs zu sein.

Das Metaversum soll hingegen zur Interoperabilität führen, uns das stetige Einloggen in verschiedene Accounts ersparen, eine globale Wirtschaftszone werden und sogar eine eigene Währung erhalten (vermutlich eine Kryptowährung). Ob sich das mit dem Datenschutz und der von Staaten und Zentralbanken gesteuerten Finanzpolitik vereinbaren lässt, bleibt dahingestellt, doch das Internet ist ja schließlich auch einheitlich zugänglich.

Wenn sich das Metaversum auf die beschriebene Weise entwickeln sollte, würden die Online- und Offline-Welt nochmals näher zusammenrücken. Für diesen Prozess veranschlagen die Tech-Konzerne allerdings einige Jahrzehnte. Vorläufer sind inzwischen nicht nur die beschriebenen technischen und medizinischen Anwendungen und die Online-Games, sondern auch die Kryptowährungen. Dass die Entwicklung wirklich hin zu einer virtuellen Parallelwelt mit eigener Wirtschaft verläuft, lässt sich an den schieren Umsätzen im virtuellen Raum ablesen: Im Jahr 2015 gaben die Menschen weltweit für virtuelle Güter nur knapp fünf Milliarden Dollar aus. Im Jahr 2020 waren es schon 55 Milliarden Dollar.

Die Gaming-Branche jubelt, denn inzwischen sind täglich über 350 Millionen Gamer in Spielen wie Fortnite unterwegs. Die Coronapandemie hat den Schritt in die virtuelle Welt nochmals befördert, in der inzwischen sogar Konzerte stattfinden. Auf der Onlinespieleplattform Roblox für Kinder und Teenager spielen täglich 40 Millionen Nutzer. Sie haben dort auf allen Ebenen eine einzige Identität und ein stabiles Netzwerk an Freunden, eine gemeinsame Währung und den immer gleichen Zugang. So soll das Metaversum aussehen.

Die jüngsten User lernen es auf diese Weise schon kennen. Vielleicht dauert es auch keine Jahrzehnte mehr, bis wir unsere Welten verknüpft und vereinheitlicht haben. Der CEO von Microsoft Satya Nadella machte im Sommer 2021 bereits metaverse Geschäftsmodelle aus. Für uns alle könnte das virtuelle Leben um einiges einfacher werden: Ein in sich stimmiges Metaversum wäre ein revolutionärer Schritt wie der hin zum Internet für alle.

Was bedeutet Impfdurchbruch? Was ist ein Impfdurchbruch? Bedeutung, Definition, Erklärung


Ein Impfdurchbruch (andere Begriffe: Impfversagen oder Durchbruchsinfektion) ist a) die Ansteckung mit demjenigen Erreger, gegen den geimpft wurde, und b) die symptomatische Infektion darauf. Die Ansteckung lässt sich durch die Erregerisolierung oder einen RT-PCR-Test diagnostizieren.

Warum kommt es zu Impfdurchbrüchen? Bedeutung, Definition, Erklärung

Es gibt hierfür zwei Hauptursachen:

  • #1 Das Immunsystem der geimpften Person hat wegen eigener Schwächung nicht die passende bzw. ausreichende Immunantwort gegen den Erreger entwickelt.
  • #2 Der Erreger ist mutiert. Das Immunsystem erkennt ihn nicht mehr.

Beispiele für #2 sind Mutationen des Hepatitis-B-Virus im HBsAg, die Impfdurchbrüche verursachen, die häufigen Mutationen des HIV-Virus und die im Jahrestakt (oder häufiger) zu beobachtenden Mutationen des Influenzavirus A. Hiergegen werden jährlich neue Impfstoffe entwickelt. Die neutralisierenden Antikörper einer Impfung wirken fast immer nur gegen den aktuellen Virenstamm der Saison. Auch nach Covid-19-Impfungen gibt es Impfdurchbrüche. Bis Ende April 2021 zählte man in den USA rund 6.000 Impfdurchbrüche bei 84 Millionen Personen nach vollständiger Impfung (0,00714 %). Impfdurchbrüche nach einer Influenza-Impfung sind deutlich häufiger, sie liegen im niedrigen zweistelligen Prozentbereich. Trotz der ermutigenden Zahlen aus den USA bewertet das deutsche RKI die Effizienz der bisher durchgeführten Corona-Impfungen vorsichtiger mit ~88 %.

Wie ist der Impfdurchbruch nach der Covid-19-Impfung definiert?

Das RKI bezeichnet erst eine Covid-19-Erkrankung mit klinischer Symptomatik als Impfdurchbruch. Daher ist dieser strikt von der Möglichkeit abzugrenzen, dass sich geimpfte Personen infizieren und dann das Virus weitergeben, von dem sie ohne Test nichts oder fast nichts bemerken. Als zweites Kriterium nennt das RKI ein positives Testergebnis bzw. die Erregerisolierung. Es gibt im Fall von Covid-19 (und natürlich auch bei anderen Impfstoffen) noch ein drittes Kriterium: Nach der Impfung muss zunächst genügend Zeit für den möglichen Schutz durch das Immunsystem vergangen sein. Bei Impfungen gegen Covid-19 wird hierfür eine Zeitspanne von 14 Tagen nach der abgeschlossenen Impfserie mit diesen Vakzinen angenommen:

  • Moderna (zwei Impfstoffdosen)
  • BioNTech (zwei Impfstoffdosen)
  • AstraZeneca (zwei Impfstoffdosen)
  • Johnson & Johnsen (eine Impfstoffdosis)

Sollte sich also eine Person vor Ablauf dieser 14 Tage infizieren und erkranken, gilt dies nicht als Impfdurchbruch.

Vorläufige Erkenntnisse zum Impfdurchbruch bei Covid-19

Die Erkenntnisse zum Impfdurchbruch nach der Covid-19-Impfung sind vorläufig (Stand: September 2021). Es ist davon auszugehen, dass nach einiger Zeit die Impfwirkung nachlässt. Wie lange das dauert, ist nicht seriös einzuschätzen, weil es sich um ein neues Virus handelt. Die nachlassende Impfwirkung bei Influenza-Impfungen kann damit nicht verglichen werden: Diese basiert auf den inzwischen bekannten Mutationen des Virus. Ähnliches nimmt man auch bei Covid-19 an, jedoch ist nicht bekannt, welche Mutationen wie stark die Impfwirkung reduzieren. Welche Mutationen künftig noch auftauchen könnten, kann ohnehin nur Gegenstand von Spekulationen sein. Mit Stand September 2021 werden dritte sogenannten Booster-Impfungen für Auffrischungen nach rund einem halben Jahr zumindest Risikopersonen (ältere Menschen, Personen mit Vorerkrankungen) empfohlen. Möglicherweise werden aber Folgeimpfungen gegen Corona der Standard der kommenden Jahrzehnte, um Impfdurchbrüche zu unterbinden. Aus Israel, das relativ zeitig mit dem Impfen begann, lagen im Juli 2021 Daten vor, die eine nachlassende Impfwirkung von BionTech etwa ab dem sechsten Monat nach vollständiger Impfung vermuten lassen.

Was ist der Male Gaze? Was ist der Female Gaze? Bedeutung, Definition, Erklärung


Male Gaze ist ein Begriff aus dem Englischen, der übersetzt „männlicher Blick“ bedeutet. Es bedeutet aus feministischer Perspektive, dass die Welt und auch die Frauen selbst, meist aus dem Blick eines weißen, hetero Mannes (Cis-Mann) gezeigt werden.

Was ist der Male Gaze? Bedeutung, Definition, Erklärung

Der Male Gaze ist besonders in Kunst und Literatur sichtbar, wo die Frau das Objekt der Begierde sein soll, das dem männlichen Pendant gefallen soll. Auf der Leinwand findet man drei Perspektiven des Male Gaze: die des Mannes hinter der Kamera, die der männlichen Darsteller im Film und die des männlichen Zuschauers im Publikum. Der Male Gaze zieht sich also durch die gesamte Erzählung und stellt die Frau als dem Mann nicht ebenbürtig dar. Sie wird als unterstützendes oder erotisches Objekt gezeigt, deren Wert vom männlichen Betrachter festgelegt wird.

Hintergrund und Geschichte des Male Gaze

Das Konzept des Blickes (engl. the gaze) geht auf Jean-Paul Sartre zurück, der 1943 in „Das Sein und das Nichts“ beschreibt, dass wir Menschen als Objekte betrachten können und uns selbst als das Objekt wahrnehmen können, das betrachtet wird.

Kunstkritiker John Berger zeigt in seinem dokumentarischen Werk „Ways of seeing“ von 1972 die Darstellungsweise von Frauen in der Werbung. Er offenbart dabei den Blick (franz. le regard) auf eine Frau als passives Objekt.
Filmmacherin und Theoretikerin Laura Mulvey zeigt in ihrem Essay „Visuelle Lust und narratives Kino“ von 1975, dass uns im Kino die dominante, männliche Perspektive bzw. der männliche Blick aufgedrängt werden. Die Frauen werden in einer Version gezeigt, die ideal für eine patriarchale Gesellschaft ist – der Fokus liegt oft auf ihrer Körperlichkeit.

Oft finden wir in Filmen zwei Arten von Frauen: diejenige, die das Objekt der Begierde des Hauptdarstellers darstellt und diejenige, die attraktiv für den männlichen Zuschauer ist. Meist sind Frauen auch eher Zuhörer und Bewunderer des Mannes. Diese Darstellung der Frau als passiv und des Mannes als dominant und aktiv stammt aus patriarchalen Strukturen und stärkt diese.

Der Ursprung einer patriarchalen Gesellschaft liegt darin, dass die wichtigsten Institutionen (z.B. Film, Mode, Politik, Werbung) von Männern und für Männer geschaffen wurden. Der männlichen Sichtweise wird also gleich doppelt so viel Wichtigkeit zugeschrieben; mit der Zeit werden diese von Männern kreierten Normen als allgemeine Norm angesehen (Frau = unterlegen, Mann = überlegen).

Den Male Gaze erkennen

Typische Frauencharaktere im Male Gaze sind jene, deren Hauptaufgabe es ist attraktiv zu sein. So werden auch wichtige Rollen wie Agentinnen oder Polizistinnen oft in Stöckelschuhen und engem Kleid dargestellt, meist spielen sie aber die Rolle der Helferin, des Objekts der Begierde oder die der Freundin. In Aktion sieht man sie meist nur, wenn es darum geht dem Mann einen Gefallen zu tun oder wenn es darum geht, eine Rivalin auszuschalten. Durch ihr attraktives Erscheinungsbild sollen sie eben den männlichen, hetero Zuschauer zufrieden stellen.

Ein weiblicher Charakter muss nicht unbedingt objektifziert werden, um unter der Male Gaze zu leiden. Es genügt, dass sie in ihrem passiven Dasein, den männlichen Protagonisten dazu animiert zu handeln und seine typische aktive Form einzunehmen. Zusätzlich kümmert sie sich darum seine Wunden zu pflegen, wenn der Mann aus seinem Kampf zurückkehrt und unterstützt ihn weiterhin bei all seinen Zielen. Ein weiteres Beispiel ist die Kameraführung. Wo die Kamera platziert ist und auf was sie sich richtet, sagt genauso viel über eine weibliche Darstellerin aus, wie die Beschreibung ihrer Charakterzüge im Drehbuch. So wird oft auf Slow Motion gesetzt, um alle Details des weiblichen Körpers für das männliche Publikum in Szene zu setzen. Auch die typische Rolle der Frau als Dummchen, dem es an Intelligenz fehlt, das mit ihren körperlichen Reizen aber alles wieder gut macht, ist ein klassisches Beispiel für den Male Gaze. Diese Rolle hat gar keinen Zweck im Film, außer das Lustobjekt des männlichen Hauptdarstellers und ein Blickfang für den Zuschauer zu Hause zu sein.

Male Gaze und die Konsequenzen

Wenn alle – sowohl Männer als auch Frauen – ständig ein Bild der Frau zu sehen bekommen, die objektifiziert wird, beeinflusst dies natürlich die eigene Person und die Erwartungen an sich selbst und an andere. Der Wert der Frau, ihr Körper und ihre Perzeption werden in einem komplett falschen Licht ausgestrahlt, die Frau wird auf erniedrigende und schädliche Art porträtiert.

Im Gesamtbild sorgt der Male Gaze für das Beibehalten von patriarchalen Strukturen, in denen weiße Männer den Frauen, Persons of Color und anderen Minderheiten übergeordnet werden.

Was ist der Female Gaze? Beeutung, Definition, Erklärung

Der Female Gaze ist das Gegenstück zum Male Gaze und zeigt eine weibliche Sichtweise auf Kunst und Literatur. Außerdem beschreibt er, wie Frauen im Patriarchat sich selbst und andere Frauen sehen. Eine Frau, die kein Problem damit hat als Objekt gesehen zu werden, würde also der sozialen Norm des Patriarchats entsprechen. Gleichzeitig würde ihr vorgeworfen werden, die von Männern erschaffenen Normen, zu begrüßen und sogar zu verstärken, oder sich davon einen sozialen Vorteil zu erhoffen.

Der Female Gaze bezieht sich also auf den Blick, den eine weibliche Filmmacherin einem Film gibt. Im Fokus stehen also weibliche Führungskräfte als Erzählerinnen, statt als Zuseherinnen. Dieser Blick lässt zu, dass Frauen so gesehen werden, wie sie sind, anstatt dass sie durch den Male Gaze voyeuristisch angeglotzt werden. Im Mittelpunkt steht im Female Gaze das emotionale Level, sich in Gefühle hineinversetzen können. Da die Industrie aber weitgehend vom Male Gaze geformt wurde, ist der erste Schritt des Female Gaze die Rolle der Frau vom Objekt zum Subjekt zu verschieben. Die Aufgabe der Female Gaze ist es also nicht, eine ausschließlich von Frauen und für Frauen geschaffene Welt zu kreieren, sondern Barrieren und Stereotypen zu brechen, die den Frauen von der männerdominierten Kultur auferlegt wurden und die Art, wie Minderheiten gesehen werden, zu verändern.

Zusammenfassend beschreibt der Female Gaze, wie die Welt und die Frauen in einer Welt dargestellt werden, die nicht aus männlicher Perspektive geschildert wird. Der Fokus richtet sich vom körperlichen Erscheinungsbild weg, zeigt viel mehr die Diversität der Gesellschaft und macht es sich zur Aufgabe Genres, die traditionell von Männern dominiert und definiert werden, zu verändern. Die Idee der Feministinnen ist, dass die Objektifizierung von Frauen erst nachlassen wird, sobald Frauen mehr Kontrolle bei der Produktion visueller Medien haben werden.

Was ist Lizenzmanagement? Bedeutung, Erklärung, Definition


Lizenzmanagement gewinnt für Unternehmen derzeit enorm an Bedeutung. Der Begriff beschreibt die Erfassung und Inventarisierung der erworbenen Software-Lizenzen. Je nachdem, ob diese Funktion durch einen Angestellten oder eine Software vorangetrieben wird, kann das Lizenzmanagement aber ganz unterschiedliche Ausprägungen annehmen. Besonders bedeutsam sind hierbei die folgenden Punkte.

Was ist Lizenzmanagement? Aufgaben, Inhalte

Der Aufgabenbereich eines Lizenzmanagers ist nicht leicht zu fassen. Die dafür nötigen Kenntnisse sind vielfältig. Ein Lizenzmanager verwaltet die Lizenzen der im Unternehmen eingesetzten Software. Dabei ist er für das Management zahlreicher Daten verantwortlich, die zum Softwareeinkauf, zur Software-Konsolidierung und Lizensierung herangezogen werden. Besonders bedeutend ist in diesem Kontext ein gutes Software- und IT-Verständnis. Nur wer in diesem Bereich die erforderliche Erfahrung mitbringt, ist letztlich dazu in der Lage, den Einsatz und die Nutzungsmöglichkeiten optimal zu bestimmen und gegebenenfalls bessere Alternativen zu erkennen.

Je größer ein Unternehmen ist, und je vielfältiger dessen Aufgabenbereiche sind, desto schwieriger ist es, über die vorhandenen Lizenzierungen den Überblick zu behalten. Besonders wichtig für die Position sind genaue Kenntnisse über den unternehmensweiten Betrieb, und wirtschaftliche bzw. Vertrags-Kenntnisse. Wer die Kontrolle über alle Softwareangebote, den Markt und die individuelle Nutzung behalten möchte, ist in entscheidendem Maße darauf angewiesen. Um in einem zweiten Schritt konkrete Entscheidungen treffen zu können, spielt außerdem das strategische Denken eine wichtige Rolle. Welche Software benötigt mein Unternehmen wirklich? Und welche Funktionen könnte auch eine andere Software übernehmen, um die Kosten und die Komplexität zu reduzieren?

Unterstützung durch Software

Moderne Software ist dazu in der Lage, einen ganz entscheidenden Beitrag zum erfolgreichen Lizenzmanagement zu leisten. Entsprechende Programme sind zum Beispiel für den Bereich der SAP Lizenzoptimierung zu finden. Da es sich hierbei um ein besonders kostenintensives Programm aus dem Bereich der EDV handelt, ist eine möglichst effiziente Nutzung in dem Fall besonders wichtig.

Zunächst mag es nicht der Intuition entsprechen, für das Management der Lizenzen eine weitere Software in Anspruch zu nehmen. Doch die Kosten in der Anschaffung sind leicht durch den Mehrwert des Programms zu rechtfertigen. Letztlich steckt darin die Möglichkeit, die laufenden Software-Kosten aktiv zu reduzieren und dadurch für eine finanzielle Entlastung des Unternehmens zu sorgen. Diese Form der Amortisierung ist von entsprechend großem Wert und wird aus diesem Grund von einer wachsenden Zahl von Firmen in Anspruch genommen.

Das Konzept selbst ist derweil nicht neu. Schon seit Anfang der 2000er-Jahre entwickelte sich die Branche in England und Deutschland. Die stark erhöhte Nachfrage seitens der Unternehmen, die mit dem finanziellen Druck der Finanzkrise des Jahres 2009 in Verbindung stand, beschleunigte den Aufstieg weiter. Derzeit sorgt das Cloud-Zeitalter dafür, dass es sich weiterhin um ein lohnendes Vorhaben handelt.

Der Soll-Ist-Abgleich

Anhand der vorherigen Ausführungen lässt sich sogleich festmachen, an welcher Stelle der Mehrwert der Software erkennbar ist. Firmen, welche auf diese Dienste setzen, möchten ihre individuellen Kosten maximal reduzieren. Je mehr Software im Einsatz ist, und je höher deren Stückelung ausfällt, desto größer ist auch das Sparpotenzial.

Der entscheidende Arbeitsschritt ist in der Folge der sogenannte Soll-Ist-Abgleich. Hierbei überprüft die Software einerseits, was die günstigste Möglichkeit der Lizenzierung wäre, um die gleichen Leistungen in Anspruch nehmen zu können. In einem zweiten Schritt analysiert das System den aktuellen Zustand. Aus der Differenz ergibt sich dann gegebenenfalls ein Handlungspotenzial. Je größer die Überlizenzierung im jeweiligen Fall ist, desto eher lohnt sich für ein Unternehmen die Neuordnung der Lizenzen. Da es sich hierbei meist um eine Form der laufenden Kosten handelt, kann die betreffende Ersparnis in der Folge sogar regelmäßig eingefahren werden. Dies erhöht das wirtschaftliche Potenzial des Lizenzmanagements noch weiter.

 

Was ist akademische Bewährung? Bedeutung, Definition, Erklärung


Akademische Bewährung ist ein Begriff, den zuerst US-Colleges und -Universitäten verwendeten. Er zeigt an, dass einem Studenten der nötige akademische Fortschritt für den Abschluss fehlt. Inzwischen ist die akademische Bewährung auch in Europa als sogenannte akademische Probezeit eine gängige Beurteilungsmethode.

Was ist akademische Bewährung? Bedeutung, Definition, Erklärung

Sie bemisst sich in der Regel am Notendurchschnitt, der in den USA als GPA (Grade Point Average) bezeichnet wird. Jedoch gibt es auch andere Gründe für die akademische Bewährung, so etwa nichtakademische Straftaten oder die Nichteinhaltung von Standards der finanziellen Studienunterstützung (wegfallendes Stipendium, abgelehnter BAföG-Antrag). Die Regeln für eine akademische Bewährung legt jede Hochschule selbst fest. Sie dienen dazu, den akademischen Status der Einrichtung aufrechtzuerhalten. Der häufigste Grund ist allerdings ein zu schwacher kumulativer GPA (über alle Fächer) oder ein schwacher GPA in den Hauptfächern. Auch ein einziges schwaches Semester kann die akademische Bewährung auslösen. Da es jedoch auch die genannten anderen Gründe geben kann, sollten sich Student*innen mit den GPA-Standards ihrer Einrichtung vertraut machen, damit sie auf den Fall einer akademischen Bewährung vorbereitet sind. Die akademische Bewährung bedeutet nicht den Verweis von der Hochschule, ist aber ein ernstes Zeichen dafür, dass dieser folgen könnte. Studierende erhalten damit eine Probezeit, die meistens über ein Semester reicht, um nachzuweisen, dass sie die akademischen Standards einhalten können.

Akademische Bewährung klären

Wer die Mitteilung über eine akademische Bewährung erhält, sollte mit der Einrichtung die genauen Rahmenbedingungen dafür klären. Wenn es um den Notendurchschnitt geht, sind exakte Zahlen erforderlich: Um wie viele Punkte muss der GPA in welcher Zeit (meistens: im kommenden Semester) steigen, damit die Bewährung aufgehoben wird? In der Regel beschreibt die Hochschule oder Universität die spezifischen Schritte, welche der/die Studierende in der akademischen Bewährungszeit unternehmen muss. Auch die Dauer der Bewährungszeit sollte in der Benachrichtigung zur akademischen Bewährung angegeben sein. Bei Unklarheiten ist eine Nachfrage dringend erforderlich.

Bestehen der akademischen Bewährung

Nach Klärung der Forderungen liegt es an der betroffenen Person, für sich einen Plan zum Bestehen der akademischen Bewährung zu entwickeln. Dieser wird meistens diese Punkte beinhalten:

  • Erhöhung des Lernpensums
  • Schließen von Kooperationen mit anderen Studierenden, um Hilfestellungen zu erhalten
  • Neuorganisation der Tagesabläufe
  • möglicherweise Neuorganisation der Finanzen
  • eventuell Reduzierung oder Eliminierung von weiteren Aktivitäten außerhalb des Studiums, so Freizeitbeschäftigungen, Sport, Nebenjobs (wenn das finanziell möglich ist) oder sozialen Verpflichtungen
  • Kontaktaufnahme mit einem vertrauenswürdigen Mentor der Hochschule und Bitte um Ressourcenempfehlungen (Studiengruppe oder einzelner Tutor)

In den überwiegenden Fällen gelingt es damit, die akademische Bewährung zu bestehen. Wenn dies nicht der Fall ist, sollten Betroffene entweder die Studienrichtung oder die Studieneinrichtung, möglicherweise aber auch das Studium als solches überdenken.

Was ist der ct-Wert? Erklärung, Bedeutung, Definition


Der Ct-Wert (Crossing threshold) steht in Korrelation zur Viruskonzentration im Untersuchungsmaterial von PCR-Tests. Er ist für Coronatests bedeutsam.

Über den PCR-Test: Erklärung, Bedeutung, Definition

PCR-Tests dienen dem Virusnachweis durch die Untersuchung von genetischem Material in den Proben. Er funktioniert durch das Sichtbarmachen von spezifischen Abschnitten des Genoms. Diese werden amplifiziert, also millionenfach vermehrt, um sie mithilfe von Primern erkennen zu können. Es wird, ohne auf nähere Details einzugehen, das genetische Material der Probe vervielfältigt und dann zu einer neuen DNA geformt, dem sogenannten Amplifikat. Diese Formung nehmen während mehrerer Erhitzungen (Temperaturzyklen) Sonden vor, die als Marker eine fluoreszierende Substanz tragen. Mit der Vermehrung der DNA fluoresziert das Material messbar stärker. Die Fluoreszenz nimmt linear zu und bezieht sich auf die gesuchte DNA des Virus. Wenn diese in einer genügend hohen Konzentration vorliegt, ist das an der linearen Zunahme der Fluoreszenz zu erkennen. Der Anfangspunkt des linearen Fluoreszierens ist der Ct-Wert. Crossing threshold heißt „Übertreten der Schwelle“, auch der Begriff Crossing point (Cp-Wert) ist üblich. Labortechnisch kennzeichnet der Ct-Wert die Zahl der Temperaturzyklen, die für eine Fluoreszenz nötig sind. Er korreliert daher mit der Viruskonzentration. Allerdings gibt es noch weitere Kennzeichen für die Viruslast. Der Ct-Wert ist einer von mehreren Markern, wenngleich ein wichtiger.

Einflüsse auf den Ct-Wert

Der Ct-Wert kann während der Analytik Einflüssen durch die RNA-Extraktion unterliegen. Die virale RNA in der Probe wird extrahiert, gleichzeitig sind mögliche Hemmstoffe für die PCR zu eliminieren. Dies gelingt methodenabhängig unterschiedlich gut. Die PCR amplifiziert ausschließlich DNA. Daher muss extrahierte RNA mittel Enzym Reverse Transkriptase in doppelsträngige DNA kopiert werden. Es entsteht eine cDNA („copy DNA“). Das gelingt mehr oder weniger effizient. Nachfolgend hängt der gemessene Ct-Wert von der Konzentration dieser cDNA ab. Auch die Art der Analytik – manuell oder automatisch – führt zu unterschiedlichen Ct-Werten. Vollständig automatisierte PCR-Systeme bestimmen mit einem hinterlegten Algorithmus den Ct-Wert, bei manuellen Untersuchungen müssen Labormitarbeiter die Schwelle für die Hintergrundfluoreszenz vor jeder Probe festlegen. Sie können daher zu unterschiedlichen Ct-Werten kommen. Das muss nicht schlechter als die automatisierte Analyse sein, weil Menschen im Labor beispielsweise mögliche Viruslasten in der Probe aufgrund ihrer Herkunft (Art der Probanden, Durchführungsbedingungen) einschätzen können. Doch es sind verschiedene Ct-Werte einzuplanen. Hierbei spielt die Präanalytik eine Rolle, die vor der eigentlichen PCR-Analyse beginnt. Die Labormitarbeiter müssen einschätzen:

  • Wurden die Abstriche korrekt durchgeführt, wurde also ausreichend viel (möglicherweise) virenbelastetes Sekret gewonnen?
  • Könnte es zur einer Verunreinigung der Probe durch PCR-Hemmstoffe in festen Transportmedien gekommen sein? Solche Hemmstoffe können die Amplifikation erschweren und schlimmstenfalls komplett verhindern. Auf jeden Fall reduzieren sie das Untersuchungsmaterial.
  • War der Abstrich des Rachenraums generell für eine Probennahme geeignet? Wenn die getestete Person bereits unter einer Pneumonie leidet, vermehren sich bei ihr die Viren eher in ihren unteren Atemwegen. Der Abstrich von der Rachenhinterwand würde dann keine virale RNA erfassen. Die Tester sind zwar geschult, aber nur selten Ärzte oder Sanitäter. Sie können also die Pneumonie nicht unbedingt erkennen. Labormitarbeiter müssen bei berechtigten Zweifeln unter Umständen solche Fragen klären bzw. einen zweiten Test der betreffenden Person anfordern.

Qualitative Aussage durch den Ct-Wert

Der Ct-Wert liefert keine quantitative, sondern eine qualitative Aussage: Er zeigt an, dass Viruslast vorhanden ist oder nicht. Die tatsächliche Konzentration der Viren muss mit anderen Methoden ermittelt werden. Dennoch unterteilen die Labore prinzipiell positive Proben anhand des Ct-Wertes in

  • nachgewiesen und
  • schwach nachgewiesen.

Es hat sich bei Coronaerkrankungen gezeigt, dass die Viruslast einige Stunden vor den ersten Symptomen am höchsten ist, um dann wieder abzufallen. Das lässt sich an den Ct-Werten ablesen. Es gibt Werte, die auf eine äußerst geringe Virus-RNA schließen lassen, wobei die Labore anfangs unsicher waren, was das bedeutet. Inzwischen (Juni 2021) weiß man, dass dies in der Regel auf ein deutliches Abklingen der Infektion hinweist, in seltenen Fällen auch auf kontaminiertes Untersuchungsmaterial. Eindeutig sind diese Aussagen aber nicht. Daher schätzen die Labore die Ergebnisse aufgrund des Ct-Wertes als nachgewiesen oder schwach nachgewiesen ein.

YouTube Shorts: deaktiveren oder ausblenden – Geht das? Wie? Anleitung + Erklärung


Die kurze Antwort: YouTube Shorts kann derzeit nicht (offiziell) deaktiviert oder ausgeblendet werrden. Das ist in der App unter Android oder iOS nicht möglich.

Es gibt derzeit einen Umweg und eine Alternative.

YouTube Shorts: deaktiveren oder ausblenden – Anleitung + Erklärung

Der Umweg ist: Das YouTube-Update, dass YouTube Shorts eingefügt hat, müsste rückgängig gemacht werden. Hier muss eine ältere Version der YouTube App installiert werden. (Dies wird für die meisten Smartphone-Nutzer jedoch praktisch unmöglich sein.)

Die Alternative ist: Der YouTube-Drittanbieter Vanced muss installiert werden. (Leider nur für Android) Hier gibt es die Möglichkeit „YouTube Shorts“ zu deaktivieren. Die Einstellung dafür findet sich hier: In der Vanced-YouTube-App das YouTube-Konto öffnen. (Auf den Buchstaben oder das Profil klicken) –> runter wischen und auf Einstellungen klicken –> runter wischen und auf „Vanced Einstellungen“ klicken –> auf „Werbeeinstellungen“ drücken –> zu „Anzeige von Kurzvideos“ scrollen und deaktivieren = Damit sind die Kurzvideos nun ausgeblendet.

YouTube Vanced: Vorteile

Übrigens: Wer YouTube Vanced nutzt, kann sich über zwei weitere (sehr gute und gewichtige) Features freuen. 1. YouTube Vanced hat einen integrierten AdBlocker. Das bedeutet, dass alle Werbung in der YouTube Vanced App ausgeblendet wird. 2. YouTube Vanced erlaubt, dass Videos im Hintergrund abgespielt werden können. Das bedeutet, man kann nun zwei Dinge gleichzeitig machen: ein Video laufen lassen und z.B. etwas in den Suchmaschinen suchen oder lesen.

Siehe auch: So kannst du das automatische Übersetzen von Video-Titeln abstellen.

Über YouTube Shorts

YouTube Shorts sind Kurzvideos, die stark an Instagram (Instagram Reels) und TikTok erinnern. Diese Videos sind bis zu 60 Sekunden lang.

Für YouTube Shorts können Content Creator kurze Videos erstellen. Sie können Musik, Songs und verschiedene Töne für das Video verwenden. Nachträglich können die Videos bearbeitet werden. Hier kann dann z.B. Text hinzugefügt werden und die Abspielgeschwindigkeit kann verändert werden.

Für Content Creator ist der Timer besonders praktisch. Dieser hilft die Aufnahme zu verbessern.

Wer diese Kurzvideos sieht, kann sie nur liken, disliken, kommentieren oder teilen. Andere Möglichkeiten gibt es nicht.

Kommentar der Redaktion: „YouTube Shorts“ ist der Versuch es mit TikTok und Instagram aufzunehmen. Ob dies gelingt, wird die Zukunft zeigen. Jedoch jetzt zeigt sich schon auf YouTube, dass viele Content Creator ihre Kurzvideos doppelt bis dreifach verwenden. Was bei TikTok hochgeladen wird, kann auch bei YouTube Shorts landen.

Warum sollte man „YouTube Shorts“ ausblenden? Nun, dieses neue Feature lenkt ab und macht süchtig. Wer in der YouTube-App eigentlich etwas gucken wollte, kann durch YouTube Shorts schnell davon abgebracht werden. Denn bei YouTube Shorts wird das nächste Video fast automatisch abgespielt. Dafür reicht nur ein Wisch. Wenn man nun ein paar mal wischt, hat man nicht nur viele kleine Videos gesehene, sondern auch viel Zeit verschwenden.

Bitcoin Energieverbrauch: Ursachen, Gründe, Vergleiche


Der Bitcoin, mit dem seit 2009 weltweit gehandelt wird, hat sich schnell einen Spitzenplatz im Bereich der Kryptowährungen erobert. Die große Nachfrage nach dem Bitcoin steht in einem Zusammenhang mit dem Energieverbrauch.

Die digitalen Bitcoin-Transaktionen werden über Großrechner, die auf der ganzen Welt verteilt sind, abgewickelt. Im Jahr 2019 standen rund 9.350 Großcomputer für die Bitcoin-Abarbeitungen zur Verfügung. Genauso standortunabhängig werden sämtliche Überweisungen digital unterzeichnet und von allen Teilnehmenden auf einer gemeinsamen Datenbank, der Blockchain, verwaltet. Die Blockchain, auf Deutsch Blockkette, lässt sich stets erweitern, und sie ist ein Beleg für die in Arbeitsleistung umgewandelte Energie im Bitcoin-Netzwerk.
Voraussetzung für den nicht analogen Handel mit den Bitcoins ist die Anschaffung von einer digitalen Geldbörse, die in der Fachsprache Wallet genannt wird.

Der Bitcoin-Energieverbrauch lässt sich nicht genau bestimmen

Viele Analysten versuchen den globalen Energiebedarf zu ermitteln, jedoch herrscht eine große Ungewissheit im Hinblick auf den wirklichen Bitcoin-Energiebedarf. Die Einschätzungen schwanken zwischen 40 bis höchstens 265 Terawattstunden pro Jahr, wobei die vielschichtigen Berechnungen der Universität Cambridge als sehr realistisch eingestuft werden. Zudem datieren die englischen Wissenschaftler den jährlich vermuteten Bitcoin-Stromverbrauch täglich auf.

Im deutschen Online-Portal für Statistik, der Statista, veröffentlichten die Cambridge-Analysten am 17. Februar 2021 einen jährlichen Bitcoin-Energieverbrauch von rund 119 Terawattstunden.

Im Vergleich liegt der globale Stromverbrauch derzeit bei rund 20.863 Terawattstunden. Von dieser Menge verbraucht Deutschland, aktuell die weltweit viertgrößte Volkswirtschaft, etwa 537 Terawattstunden.

Die Terawattstunde (TWh) ist eine abgeleitete Maßeinheit für Energie, die 1 Billion Wattstunden entspricht; 1 Gigawatt ist genauso viel wie 1 Milliarde Wattstunden, 1 Megawatt wie 1 Million Wattstunden und 1 Kilowatt lässt sich in 1000 Wattstunden umrechnen.

6 Millionen Wattstunden entsprechen derzeit dem jährlichen Strombedarf von ungefähr 3.500 westlichen Haushalten.

Der Energieverbrauch erklärt sich auch mit der Absicherung des Bitcoin-Geldvermögens

Anfang 2021 waren laut Statista ungefähr 18,62 Millionen Bitcoins im Umlauf, und am 17. Mai 2021 entsprach 1 Bitcoin etwa 36.000 Euro. Der Bitcoin ist starken Kursschwankungen unterworfen, dennoch wird er als ein sicheres Zahlungsmittel angesehen, das unabhängig von finanzpolitischen Entscheidungen ist.

Angenommen die Bitcoins, in der Summe mindestens 1 Billion US-Dollar oder 823.323.100 Euro wert, wären physisch und in einem Stahlschrank aufbewahrt, dann hätte die Dicke (Stärke) der Wände maßgeblichen Einfluss auf die Absicherung des Geldvermögens. Tatsächlich ist der Bitcoin virtuell, wird aber als monetärer Wertspeicher immer interessanter. Deshalb dient der hohe Energieverbrauch auch als Diebstahlschutz, statt den dicken Stahlwänden beim Fiatgeld.

Je mehr Teilnehmende ihre Rechenleistung bereithalten und die Durchführungen überprüfen, desto besser kann die dezentrale Datenbank unerwünschte äußere Einflüsse, wie einen 51 %-Hackerangriff auf die Bitcoin-Blockchain, abwehren, solange es nicht zu einem weltweiten Stromausfall kommt.

Das Bitcoin-Mining benötigt enorm viel Energie

Um neue Einheiten der digitalen Bitcoin-Währung zu erhalten, wird nach Bitcoins gemined, auf Deutsch geschöpft oder geschürft. Beim Schürfen dreht es sich um das Ausrechnen neuer Zahlencodes für das Kryptogeld. Dafür müssen Großrechner komplexe Berechnungen durchführen. Weil die anspruchsvollen Berechnungen von den privaten Personal Computern kaum noch bewältigbar sind, werden für das Minen entweder spezielle ASIC-Miner als Hardware benötigt oder mehrere Nutzer geben ihre Rechenleistung in Mining-Pools frei. Sobald ein neuer Bitcoin-Block errechnet wurde, erhält jeder Teilnehmende einen fairen Anteil.
Je mehr Bitcoin-Schürfende sich beim Schöpfen beteiligen, desto anspruchsvoller und energieintensiver werden die zu lösenden Rechenaufgaben sein. Währenddessen müssen die Großrechner gekühlt werden.

Bevor ein neuer Block zur Bitcoin-Datenbank hinzugefügt wird und erstmals Transaktionen erfolgen können, wird dessen Gültigkeit durch Node, einem JavaScript-Code außerhalb des Webbrowsers, von den Teilnehmenden gemeinsam festgelegt. Jeder neue Block enthält verschlüsselte Informationen über den vorhergehenden Block. Deshalb bedeutet das Herstellen von neuen Bitcoin-Blöcken einen viel höheren Energieaufwand als die Ausgabe von frisch gedrucktem Fiatgeld durch die Zentralbank.

Überall auf der Welt wurden/werden moderne Mining-Farmen errichtet, die aufgrund ihrer technischen Ausrüstungen (Supercomputer) in der Lage sind, Bitcoins und andere Kryptogelder sowohl zu erzeugen als auch abzubauen.

Der Bitcoin Stromverbrauch hängt ebenfalls von Erneuerungen ab

Je moderner die Hardware, desto wirkungsvoller und energiesparender wird ihre Arbeitsweise sein, wenngleich sich nur die vom ganzen System erbrachte Leistung messen lässt. Die Effizienz von der Blockchain-Datenbank wird auch durch die Anzahl der Prüfsummen, welche die angeschlossenen Rechner in einer Sekunde verarbeiten können, bestimmt.
Ursprünglich verbrauchte eine Bitcoin-Transaktion rund 819 kWh, das waren 100.000 Mal mehr Strom als eine Kreditkarten-Überweisung im traditionellen Zahlungssystem benötigt.

Heutzutage lässt sich der Energieverbrauch durch innovative Techniken wie das Bitcoin-Lightning deutlich senken. Das geschieht durch ein Protokoll zur Skalierung, bei dem die Blockchain-Datenbank an veränderte Maßstäbe angepasst wird. Im Bitcoin-Lightning-Netzwerk lassen sich zigtausend Überweisungen bündeln, ohne dass diese jedes Mal einzeln und energieintensiv auf der Blockchain gespeichert werden müssen.

Woher der Bitcoin seine Energie bezieht

Nach aktuellen Berechnungen würde der vermutete Stromverbrauch etwa 0,5 % vom globalen Energiebedarf ausmachen.

Ideale Voraussetzungen für das Bitcoin-Schürfen sind niedrige Energiekosten, wenn der Strom günstig erzeugt werden kann oder Energie im Überfluss zur Verfügung steht beziehungsweise als Nebenprodukt (bei der Ölförderung) anfällt.

Die meisten Hochleistungsrechner stehen aktuell in China und arbeiten mit dem dort preisgünstig erzeugten Kohle- oder Wasserstrom. Einige energieintensive Mining-Farmen haben sich beispielsweise in Island angesiedelt, weil sich dort durch die Nutzung der regenerativen Erdwärme kostengünstige thermische Energie bereitstellen lässt. Nebenbei kühlt das kalte isländische Klima die Großrechenanlagen. In den heißeren Regionen, wie in Kalifornien, wird zunehmend auf Solarstrom gesetzt.

Heutzutage achten die meisten Bitcoin-Miner bei ihrer Stromversorgung auch auf die Nutzung von umweltverträglichen Energieträgern.

Was sind parasoziale Interaktionen / parasoziale Beziehungen?


Die parasoziale Interaktion oder die parasoziale Beziehung ist ein Phänomen sozialen Verhaltens, in dem eine Person mit anderen Individuen oder Gruppen interagiert, deren Hör- und Antwortfähigkeit jedoch nur fingiert werden kann. Das Phänomen kann derart ausgeprägt sein, dass auch die Existenz der anderen Individuen oder Gruppen dahinstehen kann.

Das Phänomen der parasozialen Beziehungen / parasozialen Interaktion

Das Phänomen der parasozialen Interaktion ist sehr alt und kann bis hin zu Gesprächen mit Verstorbenen in der Ur- und Frühgeschichte sowie Gebeten zurückgeführt werden. Forschungen fanden erstmals im Jahr 1956 statt, als die US-amerikanischen Psychologen Horton und Wohl das Konzept der sozialen Interaktion auf die Mediensituation übertrugen. Beobachtet wurde zu dem Zeitpunkt bereits, dass sich sowohl Rezipient als auch Medienakteur (ähnlich) wie in einer persönlichen Konversation verhalten. Der Medienakteur sorgt durch Mittel wie eine direkte Ansprache und Blickkontakt mit der Kamera für Nähe zum Rezipienten. Dieser reagiert darauf, indem er sich auf das vermeintliche Kommunikationsangebot einlässt und ähnlich wie in einer realen Unterhaltung verhält. Der Medienakteur wiederum hat diese Reaktion erwartet und sein weiteres Verhalten entsprechend angepasst, sodass bei dem Rezipienten der Eindruck eines persönlichen Kontaktes geweckt werden kann. Horton und Wohl nannten dieses Phänomen parasoziale Interaktion. Sie stellten fest, dass sich darauf längerfristige emotionale Bindungen auf Seiten de Rezipienten aufbauen konnten. Dieses Phänomen wurde parasoziale Beziehung genannt.

Im modernen Zeitalter wird das Phänomen vorwiegend im Bereich der Medienpsychologie beobachtet. Dort konzentriert sich die Forschung auch heute noch auf den Beziehungsaufbau der Akteure zu Menschen oder Personengruppen, die in den Massenmedien verfolgt werden (etwa Influencer und Prominente) sowie den Beziehungsaufbau zu virtuellen, nicht real existenten Charakteren (etwa Avatare). Insbesondere Influencer und deren Community bzw. die Nutzung von Social Media sind für die moderne Forschung interessant.

Parasoziale Interaktion: Influencer und die Beziehungen zu ihren Followern

Influencer auf Social Media Kanälen zeichnen sich durch ein hohes Aktions- und Kommunikationspotenzial aus. Dadurch und durch den Aufbau oft genrespezifischer Communities verschwimmen die Grenzen zwischen Massenmedien und Individualkommunikation. Die Follower eines Influencers haben deshalb schnell das Gefühl, den Influencer persönlich zu kennen bzw. mit ihm befreundet zu sein. Umgekehrt hat der Influencer eine Vielzahl von Followern, die er als Individuen gar nicht wahrnimmt. Er kann nicht auf alle Nachrichten reagieren, in vielen Fälle nicht mal alle Reaktionen auf seiner Social Media Seite beobachten, sodass ein Ungleichverhältnis entsteht.

Trotz des Ungleichgewichts der Beziehung zwischen Influencer und Follower ist eine derartige parasoziale Beziehung für einige Menschen sehr bequem. Sie geschieht ohne Verpflichtung, weshalb gerade Menschen, die lieber stille Beobachter sind, solche Beziehungen bevorzugen können. Das vermeintliche soziale Verhältnis kann jederzeit abgebrochen und wieder aufgenommen werden, ohne dass Konsequenzen zu befürchten sind. Da sich die Medienakteure in der Regel in ihrem Verhalten sehr konstant zeigen, dürfen die Rezipienten anders als bei realen Kontaktpersonen außerdem selten unangenehme Überraschungen erwarten. Parasoziale Beziehungen haben auch für Influencer Vorteile. Zum einen können sie mit diesen Beziehungen Geld verdienen, zum anderen erhalten sie in vielen Fällen umfangreiches positives Feedback, das teilweise mit sehr freundschaftlichen und persönlichen Nachrichten einhergeht. Die vermeintliche soziale Bindung wird von vielen Firmen als Werbekanal genutzt. Durch die nähere Bindung, die viele Follower zu „ihren“ Influencern aufbauen, entsteht bei Werbung das Gefühl der „Freunde-empfehlen-Freunden“-Taktik. Gerade in Zeiten der Massenwerbung kann diese Art Werbung den entsprechenden Firmen einen Vorteil bringen. Das die Follower den jeweiligen Influencern bewusst folgen, gehen sie davon aus, dass deren vorgestellte Produkte für sie interessant sind. Sie hegen ein gewisses Maß an Vertrauen, auch wenn sie wissen, dass die Influencer für ihre Werbung bezahlt werden. Indem Influencer in ihren Stories und Posts persönliche Erfahrungen und Tipps teilen, gestalten sie ihre Seiten so persönlich, dass Gefühl einer realen Freundschaft auch bei Werbemaßnahmen erhalten bleiben kann. In vielen Fällen wird daher die Werbung der Influencer unterschwellig nicht als klassische Werbung wahrgenommen.

Nachteilig ist diese Art der parasozialen Beziehung für den Influencer vor allem, dass er keine Kontrolle darüber hat, wer ihm folgt und welche Einblicke in sein Leben erhält. Auch Gerüchte und Missbrauch der herausgefundenen Daten können Folgen einer solchen Beziehung sein, insbesondere da ein Follower durch die Vielzahl an Social Media Plattformen auf der einen ein stiller Beobachter sein und gleichzeitig auf einer anderen Plattform heimlich Hassbotschaften verbreiten kann. Beim Follower bzw. Rezipient kann die parasoziale Beziehung so weit gehen, dass es nicht mehr dazu in der Lage ist, die fiktive von der realen Welt zu unterscheiden. Es hält dann die virtuelle Kommunikation für real und persönlich.

Was ist Software as a service (SaaS)? Begriffserklärung und Verdeutlichung anhand eines Beispiels


Inmitten des digitalen Zeitalters werden wir immer häufiger mit Begriffen konfrontiert, die den meisten von uns nichts sagen dürften und einer davon ist unumstritten Software as a service (SaaS). Im Grunde handelt es sich hierbei um nichts anderes als ein Lizenz- und Vertriebsmodell, bei dem Softwares über das Internet in Form eines Service angeboten werden. SaaS-Lösungen spielen insbesondere in Unternehmen eine zunehmende Rolle, da es Optionen für praktisch alle Branchen gibt und diese beispielsweise dabei helfen, innerbetriebliche Prozesse zu optimieren. Was das für Prozesse sind, hängt von der jeweiligen Software sowie den Ansprüchen des Unternehmens ab. Entsprechende Softwares kommen unter anderem in der Planung, dem Personalmanagement und der Produktion zum Einsatz.

SaaS in der Landwirtschaft

Wie zuvor erwähnt, gibt es eigentlich keine Branche, die nicht von SaaS-Lösungen Gebrauch macht und selbst die Landwirtschaft ist hiervon nicht ausgenommen. Ein gutes Beispiel dafür ist die Software von 365FarmNet . Wie der Name es erahnen lässt, handelt es sich um einen Service für landwirtschaftliche Betriebe. Die SaaS-Lösung fokussiert sich auf die Dokumentation landwirtschaftlicher Arbeitsvorgänge in den Bereichen Betriebsführung, Pflanzenbau und Herdenmanagement und bietet einen optimalen Einstieg in die digitale Landwirtschaft. In den Grundfunktionen, wie der Ackerschlagkartei ist die Agrarsoftware kostenfrei. Darüber hinaus kann eine Professionalisierung mit bezahlpflichtigen Bausteinen vorgenommen werden. Mit der Agrarsoftware können Arbeitsabläufe präziser kalkuliert, durchgeführt und dokumentiert werden. Auf diese Weise können Betriebsmittel und Ressourcen effizienter eingesetzt werden.

Mit Software as a service verwandte Arten des Cloud Computing

Bei Software as a service (SaaS) handelt es sich unumstritten um einen der aktuell bedeutendsten Begriffe der Wissenschaft und Technik. Höchstwahrscheinlich wird sich das in den kommenden Jahren nicht ändern, aber Saas-Lösungen sind nur ein Teil des Cloud Computing. Weitere Arten wären Desktop as a Service (DaaS), Everything as a Service (XaaS), Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Security as a Service (SECaaS). Bei DaaS liegt eine virtuelle Desktop-Infrastruktur vor, bei IaaS werden Hardware, Software, Speicherplatz und andere Infrastruktur-Komponenten gehostet, bei SECaaS wird das Nutzen Sicherheitsservices ermöglicht, bei PaaS können Kunden eigenständig Anwendungen entwickeln und XaaS ist eine Art Paket, das alle Formen des Cloud Computing umfasst.

SaaS und andere Cloud-Computing-Lösungen sind entscheidend für den digitalen Wandel

Unternehmen müssen Maßnahmen treffen, um in unserer heutigen Zeit konkurrenzfähig bleiben zu können und Cloud-Computing-Lösungen spielen eine entscheidende Rolle bei der Gestaltung des digitalen Wandels. Durch das Nutzen entsprechender Lösungen können Unternehmen zahlreiche Prozesse automatisieren und infolgedessen optimieren, was die Effizienz des Betriebs fördert. Zwar sind Saas und andere Formen des Cloud Computing mit gewissen Kosten verbunden, aber langfristig können sich die Investitionen lohnen.

Was ist Reichweitenangst? Maßnahmen, Bedeutung, Definition, Erklärung


Als „Reichweitenangst“ wird die Angst von E-Autofahrern bezeichnet, dass sie nicht genug Akkuleistung haben, um an ihrem Ziel oder an einer Ladestation anzukommen. Ferner ist die Reichweitenangst die Angst, dass dem Auto der Strom ausgeht und man liegen bleibt.

Was ist Reichweitenangst? E-Autos, Maßnahmen, Bedeutung, Definition, Erklärung

Eine weite verbreitete im Alltag der E-Autofahrer ist es, wegen zu wenig Akkuleistung das geplante Ziel nicht erreichen zu können. Es kommt generell eher selten vor, dass ein Fahrer eines Diesel- oder Benzinfahrzeugs aufgrund eines leeren Tanks auf der Straße stehenbleibt. Ebenso selten passiert das wegen leerer Akkus dasselbe bei E-Autos passieren kann. Aber die Angst vor einer solchen Situation ist dennoch stark verbreitet.

Die sogenannte Reichweitenangst schreckt schon seit einiger Zeit viele Autofahrer vor dem Kauf von E-Autos zurück. Bei verschiedenen technischen Befragungen aus dem Jahre 2016 wurde ermittelt, dass mehr als 85 Prozent aller Autofahrer Angst haben, dass die E-Autos eine zu geringe Reichweite aufweisen. Diese war somit neben dem Preis und die größere Entfernung zu den einzelnen Ladestationen buchstäblich das bedeutungsvollste K.o.-Kriterium für die E-Autos. Diese Sorge ist jedoch nach Angaben der Hersteller völlig unberechtigt.

Fuhren die E-Autos noch vor einigen Jahren im Schnitt nur knapp 150 Kilometer, so hat sich der Umkreis in der Zwischenzeit vervielfacht. Nun erreichen die elektrisch betriebenen Autos im Durchschnitt eine Reichweite im Bereichen von 250 bis 300 Kilometer. Dies soll in Zukunft ausgeweitet werden. Somit ist die Tendenz hier stak steigend. So verfügt zum Beispiel das Solarauto One, das das Start-Up Lightyear aus den Niederlanden im nächsten Jahr auf den Markt bringen möchte, über eine Reichweite von mehr als 700 Kilometern. Mittelklasse-Fahrzeuge, wie der neu auf den Markt gekommene Hyundai Kona oder der Kia e-Soul überzeugen durch die hohe Reichweite mit etwa 450 Kilometer, wobei hier die Autos aus Südkorea ganz im neuen Trend liegen. Zugleich gehen Experten davon aus, dass die E-Autos in Zukunft generell eine Reichweite von wenigstens 450 Kilometer zurücklegen können.

Derzeit wird viel Geld und Zeit in die Weiterentwicklung der elektrischen Autos und vor allem in die Fahrleistung investiert. Ein entscheidender Ansatz ist dabei zum Beispiel das neu erschaffene Getriebe der Marke ZF. Dieses Zweiganggetriebe kann nach den Entwicklungsingenieuren bei sehr hohen Geschwindigkeiten die Effektivität der Elektroautos erheblich optimieren. Nur durch ein solches Getriebe soll die Reichweite der Autos schon um mehr als fünf Prozent gesteigert werden.

Die Vorbeugung der Reichweitenangst: Maßnahmen dagegen

Wenn der Fahrer sichergehen möchte, dass die Reichweite seines E-Autos für die gesamte Fahrt an einem Tag ausreicht, dann kann er den Akku über Nacht gänzlich aufladen. Dies ist vor allem dann von Vorteil, wenn eine bekannte Ladesäule einmal defekt oder von anderen Besitzern besetzt ist. Inzwischen gibt es in Deutschland ein großes Netzwerk an verschiedenen Ladesäulen.

Heute hat der Fahrer die Möglichkeit das E-Auto immer dort aufzuladen, wo er sich ohnehin aufhält. Dies ist zum Beispiel auf dem Parkplatz des Supermarkts oder am Arbeitsplatz möglich. Auf diese Weise holt er sich die Energie, die das E-Auto während der Fahrt benötigt wieder.

Sollte es während der Fahrt doch einmal knapp mit der Energie werden, kann die verbleibende Ladung geschont werden, zum Beispiel, indem die Geschwindigkeit reduziert wird. Manche E-Autos besitzen spezielle Stromsparmodi, durch welche diese starken Stromverbraucher wie die Klimaanlage ausgeschaltet und Energie gespart werden. Dies kann auch per Hand erfolgen, wenn das E-Auto nicht über einen separaten Stromsparmodus verfügt. Auf diese Weise kann der Fahrer während einer Fahrt die Reichweite seines E-Autos erhöhen.

Warum die Reichweitenangst nach Ansicht der Hersteller unbegründet ist

Heutzutage kommt kein Autohersteller an der Entwicklung der neuen E-Autos vorbei. Der wichtigste Grund dabei ist die steigende Furcht vor dem bestehenden Klimawandel. So wurden in Brüssel deshalb vor einiger Zeit neue strebsame Abgaswerte definiert, welche es Herstellern ab dem Jahre 2030 unmöglich gestalten, vorwiegend mit normalen Motoren ohne Strafen durchzukommen. Zudem hat der Hersteller Tesla aus Kalifornien bewiesen, dass Elektroautos wenigstens so schnell wie normale Fahrzeuge unterwegs sein können. Daher hat dieser technische Fortschritt die meisten Sorgen der Kunden weitestgehend zerstreut. Auf diese Weise hilft er die Erscheinung der Reichweitenangst zu lindern, wenn die Autos in Zukunft auch mit Akku etwa 500 Kilometer weit fahren und im Zeitraum von einer halben Stunde für 400 Kilometer laden können. Zugleich sinken die Preise mit der hohen Produktion und sollen am Schluss nur wenig höher sein als die heute bekannten Neuwagen. Gleichzeitig sind die Reparatur- und Wartungskosten weitaus geringer als bei normalen Autos. Hier gibt es keine abgenutzten Ölfilter, kein Wechsel des alten Öls und keine defekten Dichtungen der Zylinder.

Die größte Befangenheit gegenüber der E-Autos sind also die Bedenken, ob die Reichweite der Fahrzeuge ausreicht, um das persönliche Fahrverhalten angemessen abzudecken.

Die Elektroautos könnten in Anbetracht der vergleichsweise niedrigen Stückzahlen nur unbeträchtlich zu einer erfolgreichen Energiewende beitragen. Wenn aber nun die erneuerbaren Energien die bedeutendsten Energiequellen sind, dann wären die E-Autos die optimale Ergänzung, da diese als Speicher fungieren können.

Bei den Plug-In-Hybriden ist schon seit einiger Zeit die Reichweite ebenfalls gestiegen, allerdings deutlich langsamer. Trotzdem ist hier ebenfalls die Auswahl an nutzbaren PHEVs sehr stark gestiegen. Dies geschah vor allem in den vergangenen zwei Jahren. Modelle wie der Mercedes GLE 350de oder der BMW X5 oder kommen im elektrischen Fahrbetrieb etwa 80 Kilometer weit. Ab dem Jahre 2022 müssen jedoch die Plug-In-Hybriden in der EU mehr als 60 Kilometer mit elektrischer Energie erreichen, da diese ansonsten nicht als förderbare Autos anerkannt werden. Zurzeit reichen hierfür mehr als insgesamt 40 Kilometer. Das stets entgegengebrachte Argument gegen einen Kauf des E-Autos, dass der Fahrer damit keine großen Distanzen schafft, kann jedoch in absehbarer Zeit immer weiter an Befugnis verlieren. Nicht nur die Reichweiten, sondern auch das Angebot an E-Autos in sämtlichen Preisklassen wird mit der Zeit immer größer. Außerdem sorgt die steigende Zahl der öffentlichen Ladesäulen dafür, dass die Furch davor, ohne Auflademöglichkeit mit dem Auto stehenzubleiben, erheblich kleiner wird.

Warum schmilzt Halloumi / Grillkäse nicht? Erklärung


Halloumi ist eine spezielle Käsezubereitung. Im deutschen Sprachraum ist der halbfeste Käse auch unter der Bezeichnung Grillkäse bekannt. Weitere Schreibweisen sind Halumi und Challúmi. Während der Kolonialzeit wurde das Rezept für den Grillkäse von den Briten nach Europa gebracht. Die in Deutschland und der EU verbreitete Schreibweise Halloumi stammt aus Großbritannien. Beim Erhitzen behält der Halloumi seine Form. In dieser Hinsicht verhält es sich anders als die meisten anderen Käsearten, denn es schmilzt nicht. Der als Synonym zu Halloumi verwendete Begriff Grillkäse weist auf diese hitzebeständige Eigenschaft hin.

Warum schmilzt Halloumi / Grillkäse nicht? Erklärung

O ein Käse schmilzt, bedingt die chemische Molekularstruktur. Denn zum Schmelzen bedarf es ein lockeres Proteinnetz. Dieses molekulare Netz wird durch das Lab erzeugt, das während der Käseherstellung zugeführt wird. Calciumphosphat hält das Proteingebilde lose zusammen. Beim Erhitzen wird Energie an die Moleküle weitergegeben, sodass die flexible Zusammensetzung der Proteine in Bewegung kommt: Die Proteinstruktur lockert sich weiter auf. Eine gelockerte Beschaffenheit hat den Effekt, dass der Käse anfängt sich zu dehnen. Wird weiterhin genügend Wärme zugeführt, schmilzt der Käse schließlich.

Halloumi oder Grillkäse, der bei Erwärmung nicht schmilzt, hat eine starre Proteinstruktur. Die Proteinmoleküle haben somit selbst bei Wärmezufuhr keine Chance sich zu bewegen.

Bei der Herstellung von Halloumi wird das Lab für kurze Zeit gepresst. Dies hat zur Folge, dass sein pH-Wert bei etwa 5,8 liegt. Damit übersteigt Halloumi den üblichen Wert anderer Käsearten, was ihn weniger sauer macht. Um jede weitere Säureentwicklung zu stoppen, wird der Halloumi für kurze Zeit in heiße Molke gelegt: Calciumphosphat weicht aus dem Käse. Ohne das Calciumphosphat, das eine lose Beschaffenheit gewährleistet, hat der Halloumi eine feste Proteinstruktur.

Weitere Käsearten, die nicht schmelzen, sind beispielsweise Brotkäse ( Juustoleiä), indischer Paneer und litauischer Weißkäse.

Herkunft und Verwendung: Halloumi / Grillkäse

Als Spezialität gilt der Grillkäse vor allem in den südlichen Ländern und in der Küche rund um das Mittelmeer, darunter Libanon, Griechenland, Libyen, Israel und die Türkei. Die Urform des Halloumi stammt aus Ägypten. Es wird vermutet, dass der Käse in den nordafrikanischen Gebieten erstmals schon vor mehr als 2000 Jahren hergestellt wurde. Früheste schriftliche Aufzeichnungen fanden Forscher in osmanischen Quellen aus dem 16. Jahrhundert.

Mittlerweile ist der Begriff Halloumi rechtlich geschützt. Konkret bedeutet dies, dass seit April 2021 in der Europäischen Union nur noch Grillkäse mit einer ausgewiesenen Herkunft aus Zypern als Halloumi gekennzeichnet werden darf. In der Tat ist der Halloumi eine traditionelle Beilage des zypriotischen Frühstücks. Zum Mittagessen wird der Käse in den Restaurants und Haushalten Zyperns gebraten oder gegrillt mit Bratkartoffeln oder Pommes serviert. Weitere verbreitete Gerichte sind mit Halloumi gefühlte Teigtaschen und herzhafte Omeletts mit Halloumi. An heißen Tagen wird der Grillkäse mit Datteln oder Wassermelone gereicht. Ebenfalls findet Halloumi als Reibkäse Verwendung in unterschiedlichen Speisen.

Anfänglich bestand der Halloumi aus der Milch von Wildschafen (Mufflons). In modernen Varianten wird zusätzlich die Milch von Kühen oder Ziegen verwendet. Die häufigste Zutat bleibt dennoch die Schafsmilch.
In seinem Geschmack ähnelt der Halloumi Mozzarella. Im Vergleich mit der Filata-Käseart aus Italien weist der Grillkäse jedoch sowohl eine festere Konsistenz als auch eine würzigere Note auf.

Wie wird Halloumi hergestellt?

Für die Halloumi-Herstellung wird zunächst die Sahne mit frischer Milch erwärmt. Daraufhin erfolgt die Zugabe von Salz sowie mit Wasser verdünntes Lab. Nach rund einer Stunde wird die herangereifte Käseschicht zerteilt und die entstandene Menge nochmals erwärmt. Anschließend wird die Molke abgegossen, sodass ein fester Käsegrundstock zurückbleibt. Dieser wird noch einmal fest ausgedrückt und dann in die für den Halloumi typischen fingerdicken Rechtecke geformt. Nun ruht der Käse, um schließlich zehn Minuten in der Molke zu kochen. Frisch herausgenommen wird er in der Regel von einer Seite mit Minze und Salz belegt.

Was ist ein Hotspot und funktioniert die Verbindung mit jedem Handy? Erklärung


Hotspot – damit assoziieren wir junge, angesagte Treffpunkte, die beliebtesten sozialen Begegnungsstätten. Ein Hotspot ist das brandneue Lokal an der Ecke, die Studentenkneipe, manchmal auch ein Live-Event. Oder ist ein Hotspot vielmehr ein Ort, an dem sich Viren verbreiten? Karneval ist ein Hotspot für Corona, das Wartezimmer beim Allgemeinarzt der Ort, an dem sich Magen-Darm-Infektionen verbreiten? Tatsächlich wird der Begriff »Hotspot« für ein Zusammentreffen vieler Menschen verwendet, immer mit Bezug auf ein weiteres Attribut. Viele Menschen haben Spaß, mehrere Personen treffen an einem bestimmten Ort aufeinander und tauschen sich aus. Doch die elementare Bedeutung ist eine andere. Hotspot heißt wörtlich übersetzt „heißer Punkt“. In der Kommunikationsbranche verbirgt sich dahinter ein Portal zum Internet – gewissermaßen eine Weiterleitung oder auch Abkürzung, um auch ohne direkten Zugang in die große weite Welt der Informationen zu gelangen – oder auch einfach Netflix zu streamen, online Musik zu hören oder zu chatten. Für all das müssen wir im WLAN sein; doch nicht jeder Laptop, nicht jedes iPad oder Tablet ist dafür eingerichtet. Die Lösung: Wir machen das Handy zum Hotspot. Wie das geht? Ganz einfach!

Wann immer wir uns nicht im WLAN befinden, z. B. unterwegs sind, in einem Café ohne freien Internetzugang sitzen oder am Strand picknicken, haben wir über unser Smartphone die Möglichkeit, via Handy-Hotspot auch mit anderen Geräten online zu gehen. Dafür wird ganz einfach das Datenvolumen unseres Handyvertrages genutzt und schon können wir ganz komfortabel über den größeren Monitor des Laptops oder Tablets im Web surfen. Dazu schalten wir in den Einstelllungen unseres Smartphones die Option frei und loggen uns mit einem Passwort ein. Ein Hotspot ist auch eine gute Alternative, wenn das verfügbare WLAN-Signal deutlich schwächer ist als die Bandbreite des Handytarifs. Viele Tarife von Vodafone bieten einen schnellen Zugang mit umfangreichem Datenvolumen. Wer viel unterwegs ist und auch in Bus oder Bahn arbeiten oder streamen möchte, sollte aus der Vielzahl an möglichen Verträgen den individuell besten auswählen. Ein Vergleich auf Preisbörse24 lohnt sich nicht nur für Viel-Surfer; jeder Vodafone Vertrag beinhaltet spezifische Vorteile, die dem eigenen User-Verhalten entgegenkommen. Damit lässt es sich selbst in einsamen Gegenden mobil arbeiten, ohne auf den Komfort eines größeren Screens verzichten zu müssen.

Was ist ein Hotspot und funktioniert die Verbindung mit jedem Handy? Erklärung

Einen Hotspot können wir sowohl unter Android als auch unter iOS einrichten. Bei beiden Smartphones ist die Option in den Einstellungen zu finden. Android User gehen den Weg über »Drahtlos & Netzwerke« bzw. »Netzwerke & Internet« oder »Verbindungen« und finden dann die Option »Tethering & mobiler Hotspot«. Dort kann »mobiler WLAN-Hotspot« und »Mobiler Hotspot konfigurieren« ausgewählt werden. Wer möchte, vergibt beim ersten Einrichten einen eigenen Namen für den Hotspot, die Vergabe eines Passwortes dagegen ist ein Muss. Anschließend wird der Hotspot nur noch aktiviert – und nach Verwendung wieder deaktiviert. Auf einem iPhone funktioniert die Einrichtung ähnlich: Direkt in den Einstellungen findet sich der Punkt »Persönlicher Hotspot«. Sobald der aktiviert wird, erscheint die Aufforderung, ein eigenes Passwort zu vergeben und schon kann es losgehen. Die mobilen Daten des eigenen Handyvertrages werden nun auf anderen Geräten als verfügbares WLAN angezeigt, das mit dem soeben vergebenen Passwort genutzt werden kann.

Was ist 8D-Musik / 8D-Audio? Bedeutung, Definition, Erklärung


Seit 2018 erfreuen sich 8D Musikdateien auf gängigen Streamingportalen immer größerer Beliebtheit, es gibt mittlerweile eine ganze Fülle an Songs im 8D Stil. Beim Hören von 8D Songs bekommt der Hörer das Gefühl eines „360-Grad Sounds“, die Töne wandern um den Kopf herum und kommen aus verschiedenen Richtungen. Die Wahrnehmung des Zuhörers wird, wie bei binauralen Beats, beeinflusst, dadurch entsteht ein viel tieferer Klang und dem Hörer wird ein räumliches Gefühl vermittelt. So wird das Hörerlebnis intensiver und der Raumeindruck verstärkt.

Was ist 8D-Musik / 8D-Audio? Bedeutung, Definition, Erklärung

8D steht nicht für 8 Dimensionen (wie bei 3D), sondern für 8 Directions, also 8 Richtungen. Der Hörer hat also das Gefühl, als komme die Musik aus verschiedenen Richtungen. Durch eine Manipulation der Audiosignale, die auch für Stereo Effekte verwendet werden, entsteht diese Illusion.
Für 8D Musik wird ein Stereo Effekt genutzt, der dem Gehirn vortäuscht, dass der Klang aus verschiedenen Richtungen kommt. Das Musikstück an sich ist eine ganz normale MP3-Datei, die mit einer speziellen Audio Software bearbeitet wird. Das führt am Ende dazu, dass der Hörer das Gefühl hat, die Musik wandere durch seinen Kopf oder umkreist ihn.
Um zu verstehen, wie 8D- Musik funktioniert, muss man zuerst wissen, wie das menschliche Gehör funktioniert.

Dadurch, dass der Mensch 2 Ohren hat, kann er erkennen, ob ein Geräusch von links oder rechts kommt. Wenn jemand von hinten links spricht, kommt das zuerst beim linken und dann beim rechten Ohr an. Mithilfe der Ohrmuschel kann er dann orten, ob das Geräusch von vorne oder von hinten kommt. Der Fachbegriff für diese Gesetzmäßigkeit lautet binaurale Lokalisation.

Durch minimale zeitliche Verzögerungen der Töne, erzeugt in einer speziellen Audio-Software, entsteht die sehr realistische Illusion einer räumlichen Tonbewegung. Wird ein 8D Song über Lautsprecher wiedergegeben, stimmen die fein abgestimmten Audioeinstellungen nicht mehr mit der Entfernung des Wiedergabemediums überein (Kopfhörer sitzen direkt am oder im Ohr) und es entsteht eine verzerrte Wiedergabe und Tonqualität, ähnlich wie bei einem 3D-Film, den man ohne die spezielle Brille ansieht. Ein Heimkinosystem mit 5.1 oder 7.1 Kanälen verteilt den Klang so, dass die gewünschte Bewegungstiefe erreicht wird, bei 8D wird dieser Effekt mit Audioverarbeitung imitiert. Sobald ein 8D Song aber über Lautsprecher wiedergegeben wird, stimmen die fein eingestellten Audioeinstellungen nicht mehr zueinander, daher funktioniert die Illusion von räumlicher Musik ausschließlich mit Kopfhörern.

8D-Musik / 8D-Audio: Wirkung

8D Audio steckt noch in den Kinderschuhen und wird mit Sicherheit in Zukunft auch in den Bereichen Gaming, Musik und Virtual Reality eine immer größere Rolle spielen. Das Potential von 8D Musik ist also lange noch nicht ausgeschöpft. Derzeit werden bereits bestehende Musikstücke nachträglich bearbeitet um 8D zu erzeugen, wenn aber die Musikindustrie bereits beim Produzieren der Songs die Stimme von den Instrumenten trennt, entstehen unzählige weiter Möglichkeiten räumliche Musik entstehen zu lassen.

Es gibt bislang noch keine Erfahrungswerte dazu, ob 8D Musik schädlich ist oder nicht, jedoch wird empfohlen mit moderater Laufstärke zu hören. Kinder und ältere Menschen können sehr empfindlich auf 8D Songs reagieren und können die andauernde Bewegung der Schallwellen als sehr unangenehm empfinden. Einige Musikliebhaber empfinden aber den verspielten Sound als unnatürlich und negativ.

Was ist Veränderungsblindheit? Bedeutung, Definition, Erklärung


Veränderungsblindheit (englisch chance blindness) ist ein Phänomen der visuellen Wahrnehmung. Vereinfacht ausgedrückt bedeutet es, dass wir selbst deutliche Veränderungen, die in einer bestimmten Szene, einem bestimmten Bild vor unseren Augen auftreten, häufig nicht erkennen. Das geschieht fast immer dann, wenn wir, oft nur für kurze Zeit, abgelenkt wurden oder wenn das was sich verändert, nicht im Zentrum unseres Interesses liegt. Im letzteren Fall sprechen die Psychologen auch von der Unaufmerksamkeitsblindheit( inattentional blindness)

Was ist Veränderungsblindheit? Bedeutung, Definition, Erklärung

Hier ein paar Beispiele, die von Psychologen immer wieder genannt werden, wenn von der Veränderungsblindheit die Rede ist:

In einer Filmszene tritt ein Mann im blauen T-Shirt auf. In der unmittelbar darauffolgenden Szene, in der der Mann nur ein paar Meter weit weg ging, ist das T-Shirt plötzlich grau. Eindeutig ein Regiefehler, den aber die meisten Menschen überhaupt nicht bemerken.

In einem Experiment lässt sich jemand an einem Info-Schalter den Weg erklären. Er wird kurz abgelenkt und als er sich dem Info-Mitarbeiter erneut zuwendet, sitzt dort inzwischen ein ganz andere Person. Kaum eine Versuchsperson registriert diese Veränderung.

In einem anderen, sehr bekannten Experiment wird der Film eines Ballspieles gezeigt, in dem Spieler in weißen und schwarzen Trikot durcheinander spielen. Die Zuschauer bekommen die Aufgabe, zu zählen, wie viele Spieler im weißen Trikot mitspielen. Während der Szene läuft ein Mensch im Affenkostüm mitten durch die Spieler und verschwindet. Obwohl er ganz deutlich zu sehen ist, sehen nur die wenigsten Testpersonen den Affen.

Oder das altbekannte Phänomen, dass Männer die plötzlich veränderte Haarfarbe ihrer Frau nach einem Friseurbesuch manchmal erst nach Stunden oder Tagen bemerken.

Solche und ähnliche Experimente gibt in großer Zahl. Alle zeigen das Phänomen der Veränderungsblindheit und sind auch Grundlage vieler toller Zauberkunststücke.

Siehe auch: Was ist Wahlblindheit?

Wie kommt es zur Veränderungsblindheit? Erklärung

Dazu gibt es unter Wissenschaftlern unterschiedliche Erklärungen, die teilweise kontrovers diskutiert werden:

Fest steht, dass das menschliche Gehirn erwiesenermaßen nur über eine begrenzte Speicherkapazität verfügt. Es muss deshalb ständig auswählen, was wichtig und was nebensächlich ist, was gespeichert werden muss und was in das Unterbewusstsein geschoben oder völlig vergessen werden kann. Die selektive Auswahl die permanent abläuft, trifft das Gehirn automatisch.

Eine zweite Theorie ist das sogenannte Überschreiben des Gesehenen. Es ist auch wahrscheinlich, dass im Gehirn neue visuelle Informationen die alten Informationen einfach ersetzen und deshalb nur ein sehr abstraktes Bild übrigbleibt. Dadurch ist es nicht möglich, dass das Gehirn das alte und das neue Bild in allen Einzelheiten miteinander abgleichen kann.

Eine andere Theorie geht einfach davon aus, dass der erste Eindruck einfach immer das ist, was wir behalten und das man bei einem veränderten Bild erstmal automatisch annimmt, dass sich nichts geändert hat.

Es ist aber auch annehmbar, dass keines der Bilder gespeichert wird und wir uns nur die erkannten Informationen merken, wenn das Bild verschwunden ist. Auch beim neuen Bild merken wir uns nur die nun erkannten Informationen. Deshalb vergleichen wir auch nicht das, was gesehen wurde, sondern nur das, was wir erkannt haben.

Eine weitere Theorie geht davon aus, dass das Gehirn alles Visuelle speichert, aber nichts vergleicht und erst wenn der Mensch auf Unterschiede aufmerksam gemacht wird, ihm Änderungen zwischen ähnlichen Objekten bewusst werden.

Vielleicht sind Menschen aber auch einfach nicht in der Lage, zwei Informationen auseinander zu halten und so entsteht eine Kombination der markantesten Merkmale aus beiden Bildern.

Auf jeden Fall ist die Veränderungsblindheit weder eine Krankheit noch auch nur eine Schwäche und schadet eigentlich auch niemanden.

Warum wachsen Pflanzen besser, wenn man mit ihnen spricht / redet? Erklärung


Pflanzen sind Lebewesen. Sie interagieren mit ihrer Umwelt. Sie kommunizieren und sie verarbeiten Sinneseindrücke. Pflanzen reagieren auf Menschen und auf die Signale, die sie aussenden. Je nachdem ob es sich dabei um für die Pflanzen positive oder negative Signale handelt, wachsen sie entweder besser oder schlechter.

Von Menschen ausgehende und auf Pflanzen wirkende Signale sind unterschiedlicher Art:

  • optische, wie Licht und Schatten, die bei einer Bewegung entstehen
  • akustische, wie die Schallwellen, die beim Sprechen, Singen oder Musizieren entstehen
  • chemische, wie das Kohlendioxid, das beim Ausatmen entsteht
  • mechanische, die durch Berührung ausgelöst werden

Bei den Pflanzen kommen alle Signale mehr oder weniger intensiv an und werden entsprechend verarbeitet. Pflanzen haben zwar keine Nervenzellen wie Tiere oder Menschen. Aber sie haben Rezeptoren und eine spezielle Art von Hirn. Es ist eine sensorische Domäne, „Zellhaufen“, die sich in den Wurzelspitzen befinden. Hier werden alle Eindrücke gespeichert und zu Lösungswegen verarbeitet. Hier und anhand der Signale entscheidet die Pflanze, ob sie schneller oder zurückhaltender und wohin sie wachsen wird.

Pflanzen reagieren auf den Schall des gesprochenen Wortes

Pflanzen reagieren auf Schallwellen. Die entstehen beim Sprechen oder Singen, aber auch beim Abspielen von Musik. Die Schallwellen treffen auf die Pflanzen und stimulieren die Zellen, genauer die Zellmembranen. Es ist ähnlich einem mechanischen Reiz, der auf die Zellwand ausgeübt wird, die die Zelle umgibt. Direkt unterhalb der Zellwand befindet sich die Zellmembran, die das Zellplasma umschließt. Die stabile Pflanzenzellwand ist ein mechanische Hindernis. Die Zellmembran hingegen ist eine Stoffbarriere. Sie reguliert auf biochemische Weise, welche Stoffe in die Zelle eindringen und welche heraus dürfen. Diese Regulierung wird von außen stimuliert, beispielsweise durch Schallwellen, die auf die Zellwand drücken.

Von welcher Art von Musik die Schallwellen ausgesendet werden, ist unerheblich. Es ist die Lautstärke, die den Unterschied macht. Schallwellen reizen die Zellen und stressen die Pflanze. Ein leichter Reiz ist positiver Stress. Wenn der Reiz aber zu stark ist, werden die Zellmembranen geschädigt. Am 21. November 2005 berichtete „Der Spiegel“ über Giancarlo Cignozzi, einen toskanischen Winzer, der seine Weinstöcke schon jahrelang erfolgreich mit klassischer Musik beschallte. Seinem Empfinden nach reagierten die Pflanzen besonders auf niedrige Frequenzen im Bereich 50 bis 1000 Hertz. Ideal seien ruhige Mozart-Stücke

Wenn Zellen mechanisch stimuliert werden, zeigen sie biochemische Reaktionen. Vermittelt durch Rezeptoren lösen etwa Schallwellen deutliche Reaktionen in der Zelle aus. Wie genau dies vonstatten geht, ist noch unklar. Aber dass es geschieht, ist nachgewiesen. Das Sprechen hat eine nachweislich positive Stimulation der Pflanzen zur Folge, die sie zum Wachstum anregt.

Pflanzen profitieren vom CO2-Ausstoß beim Sprechen

Beim Ausatmen stoßen Menschen CO2 aus. Sie atmen, ebenso wie Tiere, Sauerstoff ein und Kohlendioxid aus. Pflanzen funktionieren umgekehrt. Sie nehmen Kohlendioxid auf und geben Sauerstoff ab. Diese Umwandlung erfolgt durch die Photosynthese. Neben Kohlendioxid braucht es natürlich auch Licht und Wasser zum Wachsen.

Wer mit seinen Pflanzen spricht, macht das in einer relativ großen Nähe zu ihr. Das beim Sprechen erzeugte Kohlendioxid kommt der angesprochenen Pflanze direkt zugute. Eine Zimmerpflanze hat also mehr Nutzen vom Angesprochenwerden als eine Balkonpflanze. Im Freien verflüchtigt sich das Kohlendioxid sofort. In einem Raum ist das aber anders. Es bleibt vorhanden und kann photosynthetisch zu Sauerstoff umgewandelt werden. Der Pflanze tut es gut und dem Menschen geht es besser. Denn wer mit seinen Pflanzen spricht, kann sich auch seine Probleme von der Seele reden. Pflanzen sind „dankbare Zuhörer“. Es sind Lebewesen, die jeden Atemzug genießen, den wir in ihre Richtung tun – solange er freundlich und wohlwollend ist.

Schwingt Aggression beim Reden mit, wird die Pflanze das CO2 verschmähen. Denn aggressives Reden ist automatisch laut. Lautstärke bedeutet mehr Stress für die Pflanzen. Ihre Membranen „machen dicht“, weil sie dem auf sie einstürmenden Schallwellendruck entgegenwirken müssen. Im schlimmsten Falle werden sie nachhaltig geschädigt. Dann stirbt die Pflanze.

Pflanzen reagieren auf unseren Schatten

Licht ist für Pflanzen überlebensnotwendig. Ohne Lichtenergie kommt die Photosynthese zum Stillstand. Die Pflanze wird sterben. Licht ist ein wirkungsvoller optischer Reiz, der bei einer Pflanze sofort biochemische Reaktionen hervorruft.

Wer mit seiner Pflanze spricht und dabei in ihrer Nähe ist, wirft vermutlich auch seinen Schatten auf sie. Die Pflanze bemerkt den Unterschied zwischen Licht und Schatten. Es gibt Hinweise darauf, dass Pflanzen nicht nur auf den Klang der Stimme einer bestimmten Person reagieren, sondern auch auf deren Schattenmuster.

Das Sprechen mit Pflanzen ist also auch wirkungsvoll hinsichtlich optischer Reize. Die Pflanzen werten auch diese aus und verarbeiten sie biochemisch. Werden optische mit positiven akustischen Reizen kombiniert, führt dies zu einem besseren Wachstum. Denn die Zellen werden dann in einem für sie sicheren und optimalen Umfeld zur Photosynthese angeregt.

Pflanzen reagieren auf liebevolle Berührung

Pflanzen nehmen sehr viel wahr und reagieren darauf. Sie lernen aus dem, was sie wahrnehmen. Aus diesem Grund wird ihnen in heutiger Zeit auch ein gewisser Grad von Intelligenz zugeschrieben. Professor Frantisek Baluska von der Universität Bonn ist beispielsweise davon überzeugt, dass sich Menschen, Tiere und Pflanzen sehr viel ähnlicher sind, als wir zu wissen meinen. Für ihn ist es denkbar, dass auch Pflanzen Gefühle haben, denn sie erzeugen unter Stress, etwa bei einer Verwundung, Stoffe, die bei Tieren und Menschen schmerzlindernd sind. Weshalb, so fragt Baluska, sollten sie das tun, wenn sie nicht auch Schmerzen hätten?

Wer seine Pflanzen liebevoll berührt, ist ihnen nahe. Wer ihnen nahe ist, spricht vermutlich auch mit ihnen. Beim Sprechen wird Kohlendioxid ausgestoßen, das von den Pflanzen aufgenommen und photosynthetisch umgewandelt wird. Schallwellen bewegen sich in Richtung Pflanzen und treffen auf die Zellwände, die wiederum die Zellmembranen stimulieren. Schattenmuster in Form fehlender bzw. vorhandener Lichtenergie werden biochemisch wahrgenommen und verarbeitet. All das geschieht in den Wurzelspitzen der Pflanzen. Wer eine Pflanze verletzt, hinterlässt negative Schmerzerinnerungen. Pflanzen nehmen mindestens 20 Parameter aus ihrer Umgebung auf, speichern sie in ihren Wurzelspitzen und verarbeiten sie zu Informationen, anhand derer sie immer wieder neue, vorausschauende Entscheidungen in Bezug auf ihr weiters Wachstum treffen.

Fazit: Darum wachsen Pflanzen besser, wenn man mit ihnen spricht / redet

Wohlwollendes Sprechen mit Pflanzen hat automatisch positive optische, akustische, chemische und mechanische Reize zur Folge. Die Pflanzen nehmen diese wahr und reagieren entsprechend. Nicht ohne Grund ist von „dankbaren“ Pflanzen die Rede, die schon mit wenig wohlwollender Zuwendung zufrieden sind.

Was ist die Peak-End-Rule? Bedeutung, Definition, Erklärung


Der englische Begriff Peak-End-Rule steht für Spitze-Ende-Regel, oder noch besser ausgedrückt für Höchstpunkt-Ende-Regel. #

Was ist die Peak-End-Rule? Bedeutung, Definition, Erklärung

Der psychologische Begriff „Peak-End-Rule“ steht dafür, dass der Mensch im Rückblick Erfahrungen weitgehend danach beurteilt, wie sie sich auf dem Höhepunkt und am Ende angefühlt haben und nicht während der gesamten Dauer eines Ereignisses. Es hängt also gar nicht in erster Linie davon ab, wie gut oder wie schlecht wir ein Ereignis empfinden, in dem Moment, in dem wir es tatsächlich erleben. Prägend für die nachträgliche Bewertung ist vielmehr die Erinnerung an einzelne Höhepunkte oder Spitzen und an den letzten Eindruck.

Peak-End-Rule: Beispiele

Wir machen Urlaub, empfinden den auch im Großen und Ganzen als durchaus angenehm. Nur ein einziges Mal ärgern wir uns so richtig über eine unfreundliche Servicekraft. Und außerdem haben wir uns am Schluss mit dem Portier über einen bestimmter Posten auf der Hotelrechnung gestritten. Fazit: Wir werden uns an diese beiden Ereignisse später stärker erinnern, als an die angenehmen Stunden und den Urlaub in schlechterer Erinnerung behalten, als er es eigentlich verdient hätte. Hätte uns der Portier ganz besonders nett verabschiedet, uns vielleicht ein kleines Präsent vom Hotel überreicht, dann würde uns der Urlaub höchstwahrscheinlich in angenehmerer Erinnerung bleiben.

Wir sind beim Zahnarzt in Behandlung. Er muss mehrere Löcher bohren, Füllungen machen usw. Die Behandlung ist natürlich nicht besonders angenehm, aber durchaus erträglich und dauert ca. 30 Minuten. Nur einmal tut es furchtbar weh, als die Bohrerspitze auf einen Nerv trifft. Dieser Moment wird im Nachhinein unsere Erinnerung an den Zahnarztbesuch prägen. Wir werden die ganzen 30 Minuten als schmerzhaft und schlimm empfinden. Es sei denn, wir würden uns nach Behandlungsende noch 5 Minuten mit dem netten Zahnarzt über unseren letzten Urlaub, unsere Kinder oder unsere Hunde unterhalten. Dann sähe unsere Erinnerung an den Zahnarztbesuch deutlich positiver aus.

Wir lassen uns nach 15-jähriger und in der Summe durchaus guten Ehe scheiden, weil wir uns am Ende auseinander gelebt haben. Wenn die Scheidung unangenehm und mit gegenseitigen Vorwürfen endet, dann wird es eher so sein, dass wir die gesamte Ehe als schlecht empfinden. Gelingt es uns aber, uns in Freundschaft zu trennen, dann werden wir viel eher an die gemeinsamen Zeiten zurück denken.

Oder denken wir an unsere letzte längere Flugreise. Woran erinnern wir uns: An den schönen Ausblick, den wir beim Start genießen konnten,, an den ruhigen störungsfreien angenehmen Flug, das ausnahmsweise sehr leckere Essen oder an das ewige Warten auf das Gepäck am Schluss? Im Rückblick verliert der störungsfreie Flug in unserer Erinnerung an Bedeutung, an den phänomenalen Ausblick, an das Essen und das Warten am Gepäckband, werden wir uns positiv bzw. negativ erinnern, weil sie für uns die prägenden Schnappschüsse sind.

Welche Schlüsse können wir aus der Peak-Ende-Rule-Regel ziehen?

Der Höhepunkt-Ende-Effekt ist auch für ganz alltägliche Situationen von Bedeutung. Ärzte sollten zum Beispiel versuchen, das Ende einer Behandlung möglichst schmerzfrei und angenehm zu gestalten. Restaurant-und Hotelbesitzer sollten bedenken, dass eine freundliche Verabschiedung des Gastes ihnen mit Sicherheit Pluspunkte für einen nächsten Besuch bringt. Wer Gäste zum Essen einlädt, sollte für eine hammermäßige Nachspeise sorgen, um als super Gastgeber zu gelten. Aber auch bei Kundengesprächen ist es möglich, die Peak-Ende-Rule gezielt zu nutzen, um gute Geschäftsverbindungen aufzubauen.

Wer hat die Peak-End-Rule Regel aufgestellt? Erklärung, Geschichte

Ihr Erfinder war der in Tel Aviv/Israel geborene US-Psychologe und Nobelpreisträger Professor Daniel Kahneman, der nach vielen verschiedenen psychologischen Tests zu dem Schluss kam, dass wir keinen Mittelwert aus unseren Erinnerungen bilden, sondern dass wir uns weitgehend an das beste und schlechteste Ereignis und an den Schluss erinnern.

Was ist Trypophobie? Bedeutung, Definition, Erklärung


Trypophobie ist die Angst vor Löchern (griechisch τρῦπα und φόβος = Loch und Angst), und zwar nicht vor tiefen und großen Löchern, in die wir hineinfallen könnten, sondern vor kleinen Löchern, die als Muster zum Beispiel auf einer erkrankten Haut vorkommen. Daher scheint diese Phobie auch zu stammen: Sie ist als Gefühl möglicherweise evolutionär begründet, weil ein Lochmuster auf der Haut auf eine Krankheit verweist.

Was ist Trypophobie? Bedeutung, Definition, Erklärung

Im medizinischen Sinne gilt die Trypophobie bislang überwiegend als Aversion. Als echte und eigene Angststörung wurde sie mit Stand März 2021 noch nicht anerkannt. Man kennt sie auch erst seit 2005, damals wurde sie in einem Online-Forum erstmals erwähnt. Inzwischen ist bekannt, dass Trypophobie in Einzelfällen tatsächlich eine spezifische Phobie sein kann, über die immer mehr Berichte in sozialen Medien auftauchen und mit der sich auch schon die medizinische Fachliteratur in den letzten Jahren beschäftigt hat. Für die spezifische medizinische Diagnose einer Trypophobie fehlt aber bislang die ICD-Klassifikation. Wenn jemand so stark trypophobisch reagiert, dass der Arzt dies als Angststörung klassifiziert, verwendet er die ICD-10 F40.2 („spezifische Phobie“). Zu unterscheiden ist zwischen Angst, Aversion und Ekel. Für eine Phobie muss in der Tat Angst diagnostiziert werden.

Was löst eine Trypophobie aus?

Die auslösenden Objekte können alltägliche Dinge wie ein Schwamm, Schaum, eine technische Struktur oder bestimmte Früchte sein. Relativ starke trypophobe Wirkungen entstehen durch Bilder von löchrigen Wunden und Insektenfraß. Die Fliegenmadenkrankheit erzeugt bei Hunden solche Hautmuster, die beim betrachtenden Menschen eine Trypophobie auslösen können. Forscher, die sich in den 2000er-Jahren für das Phänomen der Trypophobie interessierten, erzeugten digital Bilder von Lochmustern auf menschlicher Haut, die praktisch so kaum oder nie vorkommen. Diese erzeugten die stärkten trypophobischen Wirkungen. Daraus leitete man ab, dass diese Angst oder Aversion damit zusammenhängt, dass wir uns vor einem solchen Lochfraß auf unserer eigenen Haut, der nur krankhafter Natur sein kann, intuitiv sehr fürchten. Vor allem ein Cluster solcher Muster, also etwa viele Löcher bzw. Blasen gehäuft an einer Stelle, lösen einen starken Reiz aus.

Wie reagieren trypophobische Menschen auf den Reiz?

Zur Symptomatik gehören vegetative Nervenreaktionen, darunter

  • Erschaudern und Gänsehaut,
  • Schwitzen,
  • Herzklopfen,
  • Übelkeit,
  • Zittern,
  • Juckreiz,
  • Unwohlsein sowie
  • visuelle Wahrnehmungsstörungen bis hin zu Augenschmerzen.

Eine Trypophobie kann sich manifestieren. Sie erzeugt dann bei entsprechenden Reizen immer wieder Angst und/oder Ekel, wobei der Ekel wohl deutlich überwiegt. Allerdings ist die Trypophobie wohl nicht mit anderen (generalisierten) Angststörungen assoziiert, was konkret bedeutet, dass solche Störungen nicht zwangsläufig eine Trypophobie mit sich bringen. Jedoch konnte man in Untersuchungen belegen, dass sie gemeinsam mit anderen Ängsten oder einer Depression auftreten kann. Auch leiden einige Personen gleichzeitig unter Trypophobie und einer anderen Zwangsstörung.

Wie lässt sich eine Trypophobie therapieren?

Das einzige derzeit bekannte Behandlungsverfahren (Stand März 2021) bietet die kognitiven Verhaltenstherapie: Betroffenen werden die entsprechenden Bilder immer wieder gezeigt, bis sich die Angst davor legt (sogenannte Konfrontationstherapie).

Wie oft kommt die Trypophobie vor?

Es gibt zur Häufigkeit bislang nur spärliche Studien. Eine davon wurde im Jahr 2013 mit relativ wenigen Probanden (nur 286 Teilnehmer) durchgeführt. Trypophobisch reagierten:

  • 11 % der teilnehmenden Männer
  • 18 % der Frauen
  • 16 % aller Probanden

Von den übrigen TeilnehmerInnen empfanden viele die betreffenden Bilder zumindest als unangenehm. Auf jeden Fall scheinen Frauen häufiger von Trypophobie betroffen zu sein.

Trypophobie: Ursachen, Erklärung

Es gibt zwei gegensätzlich Theorien zu den Ursachen. Eine Gruppe von Forschern geht davon aus, dass die Trypophobie als unbewusster Reflex dazu dient, uns vor gefährlichen Mustern zu warnen. Diese These leiteten die Wissenschaftler aus der Ähnlichkeit der Reaktionen mit denjenigen bei Spinnen-, Insekten- und Schlangenphobien ab. Daraus ließe sich dann schließen, so die Vermutung, dass der Ekel oder die Angst vor solchen Mustern und Tieren evolutionsbiologisch angelegt ist. Eine andere Forschergruppe vertritt die entgegengesetzte Meinung, dass die Angst- und Ekelreaktion erst im Verlaufe des Lebens erworben wird. Als Begründung führen diese Wissenschaftler an, dass man Trypophobie bei Kindern kaum kennt. Erwachsene hingegen hätten schon häufiger Bilder von Hautkrankheiten gesehen, was die Angst davor schüren kann.

Funktioniert Vorschlafen? Funktioniert Nachschlafen? Ist das sinnvoll? Erklärung


„Nachschlafen“ soll nach einer schwedischen Studie ganz gut funktionieren, „vorschlafen“ eher nicht oder nur wenig. Das Stockholmer Karolinska-Institut hat hierzu eine Langzeitstudie unter 44.000 Schweden durchgeführt.

Die wichtigsten Ergebnisse zum Vorschlafen und Nachschlafen

Laut der schwedischen Studie ist es möglich, am Wochenende Schlafdefizite nachzuholen, ohne dass dabei gesundheitliche Schäden infolge von Schlafmangel auftreten. Ausreichendes Vorschlafen verneinen die schwedischen Wissenschaftler praktisch grundsätzlich. Es gibt aber auch andere Studienergebnisse zu diesem Thema (siehe weiter unten).

Schlafmangel und Nachschlafen

Dauerhafter Schlafmangel macht krank und verkürzt sogar signifikant die Lebenszeit. Doch es gibt viele Szenarien, in denen es uns an Schlaf mangelt – sei es wegen Überlastung, sei es wegen einer Fernreise mit dem Flugzeug. Wenn jemand im Alltag einfach nicht zum Schlafen kommt, kann er das laut der schwedischen Studie durchaus am Wochenende nachholen. Das Forscherteam unter der Leitung von Torbjörn Åkerstedt hatte die Studie im Jahr 1997 begonnen und die Lebenserwartung der Probanden ermittelt. Die Forschungsreihe lief bis zum Jahr 2010, ab 2011 wurden die Ergebnisse publiziert. Mit dieser umfangreichen Datensammlung ließ sich evaluieren, wie sich die Schlafgewohnheiten auf die Gesundheit und die Lebenszeit auswirken. Die Referenzzeit für eine normale Schlafdauer beträgt beim Erwachsenen sieben Stunden. Das gilt etwa bis zum 65. Lebensjahr, danach schlafen wir weniger. Die jüngeren Studienteilnehmer, die angegeben hatten, permanent kaum über fünf Stunden Schlaf hinauszukommen, verstarben im Durchschnitt etwas früher. Das betraf aber nicht die TeilnehmerInnen, die den fehlenden Schlaf am Wochenende nachgeholt hatten: Ihre Lebenserwartung verkürzte sich im statistischen Mittel nicht. Übrigens ist auch zu viel Schlaf (über neun Stunden täglich) offenbar ungesund. Dr. Ingo Fietze von der Berliner Charité, der das dortige Schlafzentrum leitet, vermutet die Untergrenze bei sechs, die Obergrenze bei neun Stunden. Alles darunter und darüber steigert die Risiken für Krebs und Diabetes. Außerdem leide sehr die Psyche, so der deutsche Wissenschaftler.

Weitere Studien zum Vorschlafen und Nachschlafen

Nachschlafen wird allgemein als funktionierend bezeichnet. Das bestätigt unter anderen der Chef der Münsteraner Uniklinik Peter Young, ein Experte für Schlafmedizin. Jedoch gebe es dabei Grenzen: Niemand könne wochentags extrem wenig und dann am Wochenende extrem viel schlafen. Beim Vorschlafen ergibt sich durch weitere Studien ein differenzierteres Bild. Diese führt zum Beispiel fortwährend die Deutsche Gesellschaft für Schlafforschung und -medizin durch. So ist sich der DGSM-Vorsitzende Alfred Wiater sicher, dass sehr gut ausgeschlafene Menschen durchaus ein nachfolgendes Schlafdefizit (über sehr wenige Tage) recht gut kompensieren können. Das klappe nur nicht über längere Zeiträume. Jedoch sei grundsätzlich ein wenig Vorschlaf schon hilfreich, so Wiater.

Warum ist das Vorschlafen so schwierig?

Dr. Ingo Fietze von der Charité und der Münsteraner Experte Dr. Young merken hierzu einheitlich an, dass sich der Körper weigert, vorsätzlich zu viel zu schlafen. Wir liegen dann bestenfalls nur noch im Bett. Gesunde Menschen wachen automatisch nach ausreichendem Schlaf auf. Wann dieser stattfindet, ist übrigens egal, wenn nur die Schlafumgebung ruhig und dunkel genug ist. Dass wir uns vor Mitternacht den besten Schlaf holen, ist nach Erkenntnissen der deutschen Wissenschaftler ein Mythos. Wichtig sei allerdings, dass wir bis zur vierten Stunde am besten schlafen. In dieser Zeit sollten wir also nicht gestört werden.

Schlaf: Erkenntnisse aus dem Jetlag

Der Jetlag entsteht, wenn wir mit dem Flieger von Ost nach West oder umgekehrt unterwegs sind und dabei stark die Zeitzonen wechseln. Das bringt unsere innere Uhr durcheinander. Abgesehen davon, dass Jetlag als sehr unangenehm empfunden wird, bringt er uns auch einige wesentliche Erkenntnisse zum Vor- und Nachschlafen: Der Langstreckenflug nach Osten verursacht nämlich einen stärkeren Jetlag als die entgegensetzte Richtung. Wenn wir der Sonne entgegenfliegen, bedeutet das: Unser Körper wird auf einen früheren Tagesanfang verschoben. Das mögen wir gar nicht. Beim Flug nach Westen hingegen dehnt sich der Tag immer mehr in die Länge. Doch länger aufbleiben stört uns nicht so sehr. Wir holen das dann später mit etwas mehr Schlaf nach. Gegen den Flug nach Osten hätten wir vorschlafen müssen, doch das gelingt einfach nicht. Wir können aber im Flieger beim Ostflug ruhig schlafen. Beim Westflug hingegen sollten wir das unterlassen und lieber später nachschlafen. Damit kommen wir dem Jetlag am besten bei.

Was ist ein Zuckerflash? Bedeutung, Definition, Erklärung


Der Begriff „Zuckerflash“ ist eine deutsch-englische Wortkombination aus „Zucker“ und „flash“. Letzteres lässt sich in seiner verbalen Verwendung als „aufblitzen/aufleuchten“ übersetzen. Substantivisch gebraucht bedeutet es „Blitz“ oder „Lichtblitz“.

Im übertragenen Sinn steht Zuckerflash meist für ein jähes – blitzartiges – Verlangen nach Zucker oder zuckerhaltigen Speisen. Der Ausdruck kann jedoch auch generell für einen stark durch Zucker geprägten Lebensmittelkonsum stehen. Als „Zuckerflash“ wird aber auch jenes Empfinden bezeichnet, dass man bekommt, wenn man viel zuckerhaltiges gegessen oder getrunken hat.

Was ist ein Zuckerflash? Bedeutung, Definition, Erklärung

Die verschiedenen Zuckerarten werden zur Gruppe der Kohlenhydrate gerechnet, wobei sich ihr molekularer Aufbau jeweils unterscheidet. Gängige Vertreter sind Fructose (Fruchtzucker), Glucose (Traubenzucker), Lactose (Milchzucker) oder Saccharose, auch bekannt als Haushaltszucker.

Die sogenannten Monosaccharide (Einfachzucker) und Disaccharide (Zweifachzucker) schmecken typischerweise süß. Längere Zuckermolekül-Ketten werden als Polysaccharide oder Vielfachzucker bezeichnet. Sie finden sich in stärkehaltigen Stoffen und schmecken im Gegensatz zum Einfach- oder Zweifachzucker nicht süß.

Ein Zuckerflash lässt sich vor allem durch süß schmeckende Kost befriedigen. Dabei kann es sich um reine Naturprodukte als auch verarbeitete Lebensmittel handeln. Natürliche Zuckerquellen sind Zuckerrohr und Zuckerrüben, ebenso viele Gemüse- und Obstsorten. Ein weiteres Naturprodukt ist der von Bienen aus Blütennektar gewonnene Honig.

Getreide, Kartoffeln oder Brot enthalten zwar auch Zucker (Vielfachzucker), doch nimmt das Geschmacksempfinden sie nicht als süß wahr. Sie spielen daher im Zusammenhang mit einem Zuckerflash nur eine untergeordnete Rolle.

Zuckerflash und körperliche Folgen

Nimmt der Körper Zucker auf, so gelangt dieser nach kurzer Zeit in den Blutkreislauf. Um diesen Zucker aus dem Blut heraus an die Zellen weiterzuleiten, die daraus Energie gewinnen, bedarf es des Bauchspeicheldrüsen-Hormons Insulin.

Eine besonders zuckerhaltige Ernährung zieht dementsprechend eine große Insulinproduktion nach sich. Infolgedessen kann es zu einem chronisch erhöhten Insulinspiegel kommen, der letztendlich in eine Insulinresistenz mündet. Diese stellt einen Risikofaktor für verschiedene Krankheiten dar, etwas Herz-Kreislauf-Erkrankungen oder Diabetes mellitus Typ 2.

Ständiger erhöhter Verzehr von Zucker – wie er typisch für den Zuckerflash ist – kann zu einer körperlichen Sucht ausarten. Das Gehirn entwickelt dann gegenüber Zucker eine hohe Toleranzgrenze, die Folge: ein gesteigertes Verlangen; vergleichbar mit der Abhängigkeit von Nikotin, Alkohol oder anderen Drogen. Umgangssprachlich wird Zucker auch als „das Heroin des kleinen Mannes“ bezeichnet.

Die unmittelbaren Auswirkungen eines Zuckerflashs kann jeder an sich selbst beobachten. Einem raschen Energieschub folgt ein ebenso rasches Absinken des Blutzuckerspiegels. Vereinfacht gesagt, zieht ein kurzes Hochgefühl Erscheinungen wie Müdigkeit und Ermattung nach sich. Ebenso wirkt sich ein Zuckerflash auf den Darm aus. In zu großen Mengen genossen, kann Zucker zu Blähungen und Verstopfungen führen.

Siehe auch: Was ist ein Candy-Hangover?

Zuckerflash vermeiden

Für die moderne Industriegesellschaft birgt Zucker hohe gesundheitliche Risiken. Ohne es in jedem Fall zu wissen oder zu wollen, konsumiert der Mensch größere Zuckermengen. Das liegt vor allem daran, dass sich der Stoff in der Lebensmittelbranche großer Beliebtheit erfreut.

Auch im Prinzip nicht süße Speisen werden damit angereichert und entsprechend verarbeitet. Erhebliche Zuckeranteile finden sich zum Beispiel in industriell gefertigten Produkten wie Ketchup, Baked Beans oder Weißkrautsalat.

Auf der Grundlage einer ohnehin schon recht zuckerhaltigen Ernährung wirkt ein Zuckerflash zusätzlich bedenklich. Denn das permanente Verlangen nach Zucker kann nur durch immer größere Anteile davon befriedigt werden. Insofern besteht ein enger Zusammenhang zwischen Zuckersucht und Süßigkeiten. Lebensmittel wie Schokoriegel, Gummibärchen oder Bonbons sind ernährungsphysiologisch gesehen wertlos. Bei reinen Süßwaren dreht sich alles um den neuro-chemischen Prozess, den ihr Verzehr im Gehirn auslöst – nämlich süchtiges Verhalten.

Um aus der Spirale des sich ständig wiederholenden Zuckerflashs heraus zu kommen, sollte Zucker nur maßvoll Bestandteil der Ernährung sein. Dabei ist es hilfreich, mit Zucker angereicherte Fertigprodukte zu meiden und sich für den eigenen Zuckerkonsum eine tägliche Höchstdosis zu setzen. In der Regel wird hierbei ein Wert von 25 bis 50 Gramm angesetzt. Hat sich der Körper einmal an eine zuckerarme oder gar zuckerfreie Lebensweise gewöhnt, gerät er kaum mehr in die Versuchung eines Zuckerflashs.

Warum lecken Hunde Ohren ab? Erklärung, Gründe


Bei dem Lecken handelt es sich um eine soziale Interaktion. Diese wird von jedem Hundebaby als erstes gelernt. Nachdem der Welpe geboren ist, schleckt die Hündin das Kleine ausgiebig ab. Sie macht dies, um den Welpen sauber zu halten, seinen Bauch nach den Mahlzeiten zu massieren und um sich mit ihm zu verbinden. Binnen kürzester Zeit nehmen die Welpen dieses Verhalten an und schlecken sich gegenseitig ab. Das ist der Zeitpunkt, ab dem das Lecken zum Verhalten eines jeden Hundes gehört. Es gibt einige Hunde, die es im fortgeschrittenen Alter immer noch gerne machen. Andere Hunde greifen nur sehr selten auf die eigene Zunge zurück. Grundsätzlich hängt es vom Typ des Hundes ab, ob die Zuneigung mit dem Ablecken zum Ausdruck gebracht wird oder nicht.

Warum lecken Hunde Ohren ab? Erklärung, Gründe dafür

Es gibt unterschiedliche Gründe, wieso ein Hund einen Menschen ableckt. Es sollte immer auf die komplette Körpersprache geachtet werden, so kann der Hund am besten verstanden werden. Eine Möglichkeit ist die Zuneigung. Der Hund zeigt seine Zuneigung sehr häufig über das Lecken. Es kann bei Hunderudeln beobachtet werden, dass sich die Hunde in Ruhephasen gegenseitig abschlecken.

Der Hund macht keinen Unterschied, ob es ein Mensch oder ein Artgenosse ist, er setzt das Lecken als freundliche Begrüßung, spontane Freundschaftsbekundung oder Zeichen der Freude ein. Eine andere Möglichkeit ist das Beschwichtigungslecken. Es gibt Hunde, die die Schnauze von einem Rudelmitglied mit einem höheren Rang lecken, um es zu beschwichtigen. Gleichzeitig ist dies auch gegenüber dem Menschen möglich. Meistens ist dies so, wenn der Mensch angespannt ist oder laut mit dem Hund schimpft.

Es ist nicht notwendig, dass das Verhalten des Menschen auf den Hund bezogen ist. Wenn der Mensch schief und laut singt oder mit jemand anderem streitet, wird der Hund ihn ebenso ablecken, da er den Menschen beruhigen möchte. Es kann vorkommen, dass der Hund sich mit dem Lecken selbst beruhigen möchte. Dies ist häufig in stressigen Situationen der Fall. Eine dritte Möglichkeit ist die Aufforderung zu Streicheln, Spaß und Spiel. Die Hunde möchten über das Lecken immer etwas bewirken.

Wenn der Hund gelernt hat, dass sich der Mensch ihm zuwendet, wenn er ihm die Hand abschleckt, wird der Hund das wieder tun, wenn er eine Streicheleinheit erlangen möchte. Es kann auch vorkommen, dass es aus Langeweile geschieht. Die Reaktion des Menschen auf das Lecken wird bei den folgenden Malen entscheiden, welche Aufforderung der Hund damit verbindet. Der letzte Grund ist das Geschmackserlebnis. Durch das Lecken nehmen Hunde Geschmacks- und Geruchsmoleküle auf. Es gibt zahlreiche interessante Gerüche. Durch gründliches Abschlecken können die Hunde es genauer erkunden. Sie können andere Hunde oder verspeistes Essen riechen. Körpergerüche wie menschlicher Schweiß ziehen viele Hunde an.

Hunde und Lecken – Ist eine Übertragung von Krankheiten möglich?

Es gibt Menschen, die es befürworten, wenn ihr Hund sie ableckt. Gleichzeitig gibt es Menschen, die es eher eklig finden. Die menschliche Schleimhaut sollte nicht mit der tierischen Schleimhaut in Kontakt kommen. Der Hund kann krankmachende Keime übertragen. Die Darmparasiten werden hauptsächlich über den Kot übertragen. Sie können aber auch übertragen werden, wenn der Hund sich vorab am After geleckt hat und anschließend den Menschen ableckt. Der Hund kann sehr viele unterschiedliche Bakterien übertragen. Ein Beispiel ist Pasteurella multocida. Die Krankheit bewirkt keine Symptome beim Hund. Der Mensch kann trotzdem infiziert werden. Beim Menschen wirkt sich die Krankheit im schlimmsten Fall mit einer Hirnhautentzündung oder einer Blutvergiftung aus. Es ist eher unwahrscheinlich, dass eine Infektion eintritt. Zur Sicherheit sollten die Hände gewaschen werden, nachdem ein Hund die Hände abgeschleckt hat. Dies ist vor allem wichtig, bevor sich der Mensch in die Augen greift oder Essen zubereitet. Kinder und immunschwache Personen sollten das unbedingt beachten.

Lecken – Welche Reaktion ist am besten?

Der Hund kann sehr leicht erzogen werden. Das unerwünschte Verhalten muss ignoriert werden und das erwünschte Verhalten bestärkt werden. Der Welpe sollte bereits lernen, ob er seinen Menschen ablecken soll oder nicht. Wenn der Hund das Gesicht abschleckt und das nicht erwünscht wird, ist es am besten, sich wegzudrehen und ihn 30 Sekunden zu ignorieren. Der Hund kann somit lernen, dass mit dem Lecken das Gegenteil bewirkt wird und die soziale Interaktion unterbrochen wird. Außerdem sollte das Lecken zur Aufforderung nicht unterstützt werden. Auf die Zuneigung des Hundes sollte ansonsten mit einer ausgiebigen Streicheleinheit reagiert werden.

Fazit: Warum Hunde Ohren ablecken

Der Welpe sollte bereits lernen, was er darf und was er nicht darf. Ein ausgewachsener Hund wird sich nicht mehr umgewöhnen. Aufgrund dessen ist es wichtig, bereits im frühen Alter daran zu denken, ob der Hund das auch im ausgewachsenen Alter noch machen sollte.

Warum klebt Zucker, Honig, Karamell? Erklärung, Wissenschaft, Gründe


Die Klebrigkeit ist eine sehr nützliche Eigenschaft. Es ist zwischen natürlichen Klebemitteln und Klebemitteln, die im Labor hergestellt werden, zu unterscheiden. Natürliche Kleber werden auch von Pflanzen, Tieren und Menschen produziert. Wenn dies nicht geschieht, können Wunden nicht geschlossen werden.

Die Kohäsion und die Adhäsion: Darum klebt Zucker

Diese Begriffe werden in allen Naturwissenschaften benutzt. Die Adhäsion bezeichnet im Bezug auf einen Kleber die Klebkraft von dem Klebstoff. Dies bedeutet, er verbindet die klebenden Teile. Bei der Reparatur kann Kleber benutzt werden. Die Kraft, mit der das Geklebte zusammenhält, wird als Adhäsionskraft betitelt. Unter Adhäsion kann Zusammenfügen verstanden werden. Es handelt sich somit um einen Vorgang, bei dem zwei verschiedenartige Stoffe zusammengehalten werden. Die Kohäsion hingegen umfasst die Zusammensetzung von dem Klebstoff. Es ist eine eigene Festigkeit oder Bindung vorhanden. Diese muss bei den bestimmten Klebevorgängen stärker oder schwächer gemacht werden. Es ist nicht möglich, mit jeder klebrigen Substanz etwas zu kleben. Der Kleber muss auch eine einfache innere Festigkeit aufweisen. Dies bedeutet, er verfügt über Kohäsionskräfte. Unter der Kohäsion versteht man die Kraft im Inneren von einer chemischen Verbindung. Zwischen den Molekülen herrscht Anziehungskraft. Dies führt in weiterer Folge dazu, dass ein Stoff klebrig gemacht wird. Neben den beiden Eigenschaften von Industrieklebern ist noch eine Dritte erwähnenswert. Es handelt sich um Tack. Darunter kann die Geschwindigkeit verstanden werden, mit der der Kleber klebt. Bei einem hohen Tack muss weniger Druck eingesetzt werden.

Siehe auch: Warum klebt Kleber?

Das Phänomen des Zuckers

Zucker schimmert und glitzert auf eine besondere Art. Diese Eigenschaft entsteht durch die Kristalle, die aus den unterschiedlichen Inhaltsstoffen gebildet werden. Sollte Feuchtigkeit oder Wasser in flüssiger Form zum Zucker gelangen, wird die kristalline Struktur in Einzelteile zerlegt. Der Wasserstoff im Zucker wehrt sich gegen diese Zerlegung. Er versucht eine chemische Verbindung einzugehen. Die Klebrigkeit des feuchten Zuckers entsteht durch die Bemühungen von dem Wasserstoff. Genauso ist es bei Süßigkeiten. Wenn diese keinen Anteil an Feuchtigkeit aufweisen, kleben sie nicht, sondern sind hart. Je nachdem wie die Kristalle aufgebaut sind, gibt es unterschiedliche Arten von Zuckern. Es gibt Einfachzucker, sogenannte Monosaccharide und Mehrfachzucker, sogenannte Polysaccharide.

Das Phänomen des Honigs

Die unterschiedlichen Arten von Honig enthalten unterschiedliche Arten von Zuckern. Die Zucker des Honigs werden als Saccharide betitelt. Der Körper kann den Zucker aus dem Honig sofort verwerten, da es sich um Einfachzucker handelt. Bei Glukose handelt es sich um Traubenzucker, einen Einfachzucker. Glucose ist auch im Honig enthalten. Da der Körper den Traubenzucker schnell verwerten kann, essen ihn viele Sportler und Sportlerinnen während eines Wettkampfes. Dies bringt ihnen schnelle Energie. Müde Menschen können in der früh ein Honigbrot essen und sie werden bald fit sein. Allgemein gilt, was für den Zucker gilt, gilt für den Honig auch. Der Klebeeffekt des Honigs beruht auf den Sauerstoff-gebundenen Wasserstoffatomen des Zuckers. Diese sind in jedem Zuckermolekül sehr stark vertreten und üben nur geringe Anziehungskräfte aus. Es handelt sich um Wasserstoffbrückenbindungen. Der Zucker wird dadurch fest zusammengehalten. Dies ist allerdings nur der Fall, bis der Zucker mit Substanzen in Berührung kommt, die selbst Wasser enthalten. Allgemein gilt, dass der Honig aufgrund der Anziehungskräfte der Moleküle untereinander klebt.

Die fehlende Kohäsion beim Honig

Der Honig enthält viele verschiedene Zuckerarten. Obwohl der Honig klebt, kann er nicht als Kleber bei Alltagsprodukten benutzt werden. Dies ist darauf zurückzuführen, da es an inneren Bindemitteln mangelt. Es ist keine Kohäsion vorhanden. Aufgrund dessen können keine zerbrochenen Gegenstände geklebt werden. Trotzdem kann Honig als Klebemittel eingesetzt werden. Dies ist dann der Fall, wenn kein starkes Klebemittel benötigt wird und der Kleber essbar sein sollte. Aufgrund dessen wird Honig sehr oft beim Verzieren oder Backen von Kuchen eingesetzt. Für einen Kuchen reicht die Klebkraft von Honig aus.

Fazit: Warum klebt Zucker, Honig, Karamell? Erklärung, Wissenschaft, Gründe

Die Klebrigkeit von Zucker, Honig und Karamell kann im Endeffekt auf den Wasserstoff zurückgeführt werden. Der Wasserstoff befindet sich im Wasser und auch im Zucker. Sollten Wassermoleküle mit dem Zucker in Verbindung kommen, wird dieser klebrig. Die Atome streben grundsätzlich danach, dass der Kristall im Zucker zusammengehalten werden kann. Wenn der Zucker mit Wasser in Verbindung kommt, müssen neue Verbindungen angestrebt werden und der Zucker, der Honig oder das Karamell beginnen zu kleben.

Woher kommt das Wort „Vakzin“? Bedeutung, Definition, Erklärung


Vakzin ist der Begriff, der heute verwendet wird, wenn von Impfstoffen die Rede ist. Unter ihnen versteht man Substanzen, die das Erbgut eines Krankheitserregers enthalten, Dazu wurde der Erreger vorher biologisch oder gentechnisch in Laboren aufbereitet. Wird der Impfstoff, das Vakzin, dann einem gesunden Lebewesen injiziert, baut dessen Immunsystem einen Schutz gegen den jeweiligen Erreger auf, ohne bei dem Geimpften die Erkrankung auszulösen.

Seit wann gibt es Impfstoffe und woher stammt der Begriff Vakzin? Bedeutung, Erklärung, Definition

Eine der weltweit besonders gefürchteten Infektionskrankheiten waren früher die Pocken. Sie forderten immer wieder viele Menschenleben. Wissenschaftler gehen davon aus, das schon vor 3000 Jahren in Indien und China Ärzte auf die Idee kamen, bei Pockenausbrüchen das Immunsystem noch nicht Infizierter anzukurbeln, indem sie ihnen ein Pulver aus zermahlenen Grind bzw. Krusten der Pockennarben eingaben. Neben den für die Menschen sehr gefährlichen Pocken gibt es auch noch die sogenannten Kuhpocken, ausgelöst durch das Vaccine-Virus. Der Begriff Vaccine stammt vom lateinischen Wort vaccinius (von Kühen stammend). Auch die Kuhpocken können auf den Menschen übergehen und das Vaccine Virus ähnelt dem Pockenvirus(Orthopoxvirus variolae). Es ist aber für Menschen vergleichsweise harmlos. Ende des 18.Jahrhunderts wurde in England entdeckt, dass Menschen, die einmal an den Kuhpocken erkrankt waren, später bei Ausbrüchen der Menschen-Pocken nicht infiziert wurden. Das brachte den englischen Landarzt Edward Jenner auf die Idee, Menschen gezielt mit den Kuhpocken zu infizieren, um ihr Immunsystem an die Vaccine-Viren zu gewöhnen und so Pockenausbrüche zu verhindern. Die Schutzimpfung, auch als Vakzinierung bezeichnet, war erfunden und schaffte es 200 Jahre später, die Pocken praktisch auszurotten.

Mittlerweile gibt es Impfstoffe gegen viele durch Viren oder durch Bakterien ausgelösten Erkrankungen, zum Beispiel gegen Influenza, Masern, Windpocken, Mumps, Diphterie, Wundstarrkrampf, Cholera, Gelbfieber und Typhus. Sie werden alle als Vakzine bezeichnet, obwohl sie gar nichts mit Kühen und den Kuhpocken zu tun haben.

Siehe auch: Heißt es der oder das Virus?

Die verschiedenen Arten der Vakzine:

Unterschieden wird zwischen den sogenannten Lebendimpfstoffen, den Totimpfstoffen und den Gen-basierten Impfstoffen. Bei den Lebendimpfstoffen werden, wie der Name schon sagt, noch vermehrungsfähige (lebende) aber abgeschwächte (attenuierte) Krankheitserreger verwendet. Sie können nicht mehr krankmachen, aber trotzdem das Immunsystem zur Bildung von speziellen Antikörpern anregen. Lebendimpfstoffe gibt es zum Beispiel gegen Masern, Mumps, Windpocken und Röteln.

Totimpfstoffe verwenden entweder nicht mehr vermehrungsfähige (abgetötete) Erreger oder auch nur Bestandteile dieser Erreger. Dabei kann es sich um Erreger-Fragmente, um aus dem Erreger herausgelöste spezielle Komponenten, oder um inaktive Gifte (Toxine) des Erregers handeln. Außerdem gibt es noch den Konjugat-Impfstoff , bei dem das Antigen des Erregers an einen Proteinträger (Eiweiß) gebunden sein muss, um Wirkung zu erzielen. Totimpfstoffe werden zum Beispiel gegen Tetanus, Hepatitis, Diphterie und Kinderlähmung eingesetzt.,

Die neueste Generation von Impfstoffen stellen die die viralen Vektoren- oder mRNA- Impfstoffe dar. Bei ihnen wird, laienhaft ausgedrückt, keine Substanz des Krankheitserregers, sondern nur der genetische Bauplan des Antigens in den Körper des Geimpften geschleust und dessen eigene Körperzellen produzieren dann die entsprechenden Antikörper. Beim viralen Vektoren-Impfstoff wird dieser Bauplan (das Genmaterial) vorher in harmlose Trägerviren eingebaut. Beim mRNA Impfstoff wird auch kein Trägervirus mehr benötigt, sondern das Erreger-Gen in Form der sogenannten Messenger-RNA oder Boten-RNA synthetisch hergestellt und verimpft

Was ist Zeitinkonsistenz? Bedeutung, Definition, Erklärung


Als Zeitkonsistenz wird das Problem von gebrochenen Vorsätzen bezeichnet. Für die ökonomische Theorie sind gebrochene Vorsätze eine Niederlage.

Was ist Zeitinkonsistenz? Bedeutung, Definition, Erklärung

Heute wird beispielsweise entschieden, dass eine Diät persönlich den größten Nutzen bringt. Soll der Umschluss allerdings später in die Tat umgesetzt werden, so wird er verändert. So wichtig ist eine Diät dann plötzlich nicht mehr, obwohl es vorher als die richtige Entscheidung galt.
Neben der gescheiterten Diät gibt es noch viele weitere Beispiele: etwa das Rauchen aufzuhören, mit Sport anzufangen oder für das Alter vorsorgen. Am einen Tag ein fest gefasster Entschluss, am nächsten Tag schon wieder vergessen.

Die ökonomische Theorie arbeitet mit sogenannten „discounted-utility“ Modellen. Die Grundidee dahinter ist, dass Menschen den gesamten Nutzen in ihrem Leben maximieren. Sie sind also bestrebt, aus ihrem Leben das Beste herauszuholen und setzen dies auch entsprechend mit ihren Vorsätzen um. Der Bruch der Vorsätze spricht auch gegen die ökonomische Theorie, da Menschen dann eben doch nicht bereit sind, den größtmöglichen Nutzen aus ihrem Leben zu ziehen, indem sie etwa abnehmen und dadurch gesünder leben können.
Menschen ziehen den Konsum in der Gegenwart dem Konsum in der Zukunft vor. Somit diskontieren sie den späteren Konsum und zinsen ihn ab auf die Gegenwart. Er wird gewichtet mit einem Faktor, der kleiner als eins ist.

Zeitinkonsistenz: Langzeitziel Diät vs. aktuelle Entbehrungen

Die Zeitkonsistenz besagt, dass sich die Entscheidung zwischen zwei unterschiedlichen Optionen, die zeitlich variieren, nicht verändert, wenn beide Optionen um einen Zeitraum verschoben werden.
Nehmen wir an, es gibt eine Wahl zwischen den folgenden Szenarien:

  • 13 Monate auf 110,00 € warten
  • 12 Monate auf 100,00 € warten

In diesem Fall ist es natürlich besser, 13 Monate zu warten und dann 110,00 € zu erhalten. Gemeinhin wissen die Menschen dies auch, trotzdem hätten sie lieber schneller die 100,00 € als länger auf die 110,00 € zu warten. Dieses Verhalten ist Zeitinkonsistent. Denn wenn noch einen Monat länger gewartet werden würde, würde es mehr Geld geben. Dafür muss einfach nur abgewartet werden, mehr müsste nicht getan werden. Das fehlt den Menschen allerdings sehr schwer. Oft nehmen sie lieber direkt, was sie bekommen können und wollen nicht länger warten.

Auch bei einer nicht eingehaltenen Diät wird zeitinkonsistent gehandelt. Zuerst wird entschieden, dass der Nutzen der Diät größer ist als aktuelle Nachteile (die 110,00 € in den drei Monaten werden also bevorzugt). Wenn die Diät wirklich begonnen werden soll, so erscheinen die aktuellen Entbehrungen (das Verzichten auf Kalorien, Sport zu treiben) allerdings größer als der Nutzen in der Zukunft (es wird also zu den 100,00 € gegriffen).

Das Nichtumsetzen von guten Vorsätzen wird also aus traditioneller ökonomischer Perspektive als inkonsistent bezeichnet.

Zeitinkonsistenz: Das neue Modell der hyperbolischen Diskontierung

Die eben beschriebene Vorgehensweise wird von der neueren Forschung der Ökonomie mit dem Modell hyperbolischen Diskontierung zu erklären versucht.

Demnach sind Menschen sehr ungeduldig, wenn es um eine kurze Frist geht. Auf eine lange Frist hingegen sind sie geduldiger und auch bereit, einen Aufschub hinzunehmen. Bei einem langen Aufschub wird nur eine geringere Kompensation verlangt, bei einer kurzen Frist hingegen eine umso größere.

So lässt sich erklären, warum gute Vorsätze nicht eingehalten werden können. Eine Diät bedeutet einen Nutzen, der weit in der Zukunft liegt. Bis die Diät anschlägt und die Ziele erreicht sind, können Monate vergehen.
Steht man nun allerdings heute vor der Wahl, entweder eine Pizza zu essen oder darauf zu verzichten, so wirkt der zukünftige Nutzer, den die Diät einbringen soll, nicht mehr. Er entschädigt nicht auf den kurzfristigen Verzicht vom Konsum. Der Diätvorsatz wird so schnell vergessen.

Inzwischen gibt es auch noch andere alternative Theorien zu dem Thema, da nicht alle mit dem eben vorgestellten Modell einverstanden sind.
Eine Idee befasst sich mit dem Zerlegen von Entscheidung in mehrere Intervalle. Die Zeitkomponente wird in diesen Intervallen unterschiedlich stark berücksichtigt.

Der Ansatz wird als subadditive Diskontierens bezeichnet. Für einzelne Teile von einem größeren Angebot sind Menschen oftmals bereit, mehr zu zahlen, als für die Summe aller Einzelteile.

Auch für den Umgang mit dem Faktor Zeit kann diese Theorie angewandt werden. Zur Schätzung, welchen Wert eine Zahlung in einem Jahr hat. Entweder wird der Zeitraum als Jahr gesehen oder als zwölfmal ein Monat. Die Zahlung ist zwar immer die gleiche, allerdings kann die Wahrnehmung anders sein.

Beim subadditiven Diskontieren wird nämlich die Abzinsung größer, wenn das abzulaufende Jahr in zwölf Monate zerlegt wird.

Auswirkungen auf die Wirtschaftspolitik

Diese Ideen haben große Auswirkungen auf die Wirtschaftspolitik. Menschen verhalten sich oft zeitinkonsistent. Muss der Staat hier eingreifen, um ein zeitkonsistentes Verhalten zu erzwingen?
Dabei geht es vor allem um die Förderung einer privaten Altersvorsorge oder der Bekämpfung von nicht gesunden Lebensweisen.

Im Bereich der Altersvorsorge bevorzugen viele Menschen den heutigen Konsum gegenüber einer späteren, eventuellen Altersvorsorge. Sie verhalten sind zeitinkonsistent und werden dies im Alter bereuen.
Es sollte daher eine obligatorische Mindestvorsorge geschaffen werden. Dabei sollte dies mindestens existenzsichernd sein, aber auch nicht höher, um Missbrauch zu verhindern.

Eine Absicherung schafft der Staat über die Rentenversicherung, die für alle nicht selbstständig tätigen Arbeitnehmer verpflichtend ist.

Auch im staatlichen Eingriff beim Konsum gesundheitsschädlicher Substanzen, wie etwa Alkohol oder Zigaretten, wird die Zeitinkonsistenz als Argument für die Richtigkeit des staatlichen Handels angeführt.
Auch „Sündensteuern“ werden hier diskutiert. Diese sollen Menschen dazu bringen, mit ihrem zeitinkonsistenten Verhalten aufzuhören. Denn mit Rauchen, Alkohol oder Drogen zerstören wir unsere zukünftige Gesundheit für ein gutes Gefühl in der Gegenwart.
So könnten vielleicht Menschen dazu gebracht werden, mit dem Rauchen aufzuhören.

Die Zeitkonsistenz – ein kompliziertes Phänomen

Grundsätzlich ist die Zeitkonsistenz ein kompliziertes Phänomen. Es ist aber durchaus zutreffend und beschreibt viele menschliche Verhaltensweisen, die eigentlich inkonsequent und falsch sind. Oftmals wird ein Genuss in der Gegenwart dem vernünftigen Handeln für die Zukunft vorgezogen.

Trotz aller Theorie leben wir allerdings nur einmal und immer in der Gegenwart – nicht in einer fernen Zukunft. Viele Menschen leben nach dieser Devise und vergessen ihre Zukunft. Wenn sie diese dann erreicht habe, ist auch sie Gegenwart und die Fehler aus der Vergangenheit werden dann vielleicht bereut.

Wie der Mensch letztendlich handelt, ob zeitkonsistent oder zeitinkonsistent, liebt in seiner persönlichen Entscheidung. Er muss dann allerdings auch in der Zukunft mit seinen Entscheidungen in der Gegenwart leben.

Was bedeutet „komedogen“? Bedeutung, Definition, Erklärung


Der Begriff komedogen wird häufig in der Hautpflege verwendet. Besonders Produkte für die Gesichts- und Körperpflege tragen das Adjektiv, das ihnen besondere Wirkungseigenschaften zuspricht. Der Ursprung des Wortes liegt in der lateinischen Sprache und wird abgeleitet vom Verb comedere. Comedere hat die Bedeutung verzehren oder steht in umgangssprachlicher Form für Aufessen. Den Zusammenhang zwischen der Kosmetik und dem Verzehren erklärt ein Blick auf den geschichtlichen Hintergrund.

1691 veröffentlichte der Sprachwissenschaftler Kaspar von Stieler ein Wörterbuch, in dem der Ausdruck Mitesser erschien. Der Begriff bezog sich schon in der damaligen Zeit auf die Begleiterscheinung von Akne. In der Medizin galt die Ursache für Mitesser ein Befall mit Parasiten. Bis in das 19. Jahrhundert hinein war der Glaube Verfestigen, dass ein Mitesser ein Schmarotzer ist, der vom Menschen zehrt. Mitesser oder Komedone waren aus dem medizinischen Blickwinkel kleine Lebewesen, die sich ähnlich wie Blutegel von den Körpersekreten des Menschen ernähren und diese damit verzehren. Die Aufklärung über Hautunreinheiten und die Entstehung von Mitessern setzte sich erst sehr durch und bis dahin hatte sich die Begriffsbenutzung gefestigt.

Was ist ein Komedogen? Bedeutung, Definition, Erklärung

Ein Komedon ist ein Mitesser, der charakteristisch für eine besondere Form der Akne ist. Die Acne comedonica entsteht in der Regel während der Pubertät und kann bis ins Erwachsenenalter bestehen bleiben. Ein Komedon ist eine verstopfte Talgdrüse, die durch einen Oxidationsprozess an der Hautoberfläche dunkel erscheint. Entzündet sich ein Mitesser so bilden sich Pusteln und Pickel.

Unreine Haut braucht eine sensible Pflege

Mitesser und Pickel sind unabhängig vom Alter unbeliebt. Damit die Haut rein und klar bleibt oder wird, benötigt die Haut eine spezielle Pflege. In vielen Cremes und Lotion gibt es Zusätze, die die Eigenschaft haben, die Bildung von Mitessern zu fördern. Diese Inhaltsstoffe gelten als komedogen und können bei der Anwendung für eine Verschlechterung des Hautbildes sorgen. Besonders für Akne geplagte Menschen ist dies ein kontraproduktiver Prozess. Eine Haut, die zu Unreinheiten neigt, ist auf nicht-komedogene Inhaltsstoffe angewiesen und daher befindet sich der Hinweis häufig auf Hautpflegeprodukten. Komedogene Inhaltsstoffe befinden sich nicht ausschließlich in Gesichtspflegeprodukten, sondern auch in Pflegemitteln für den ganzen Körper.

Welche Inhaltsstoffe haben eine komedogene Wirkung?

Produkte, die eine komedogene Wirkung haben sind in der Regel reichhaltig und haben einen hohen Anteil an Fetten und Ölen. Die zugesetzten Öle sind verantwortlich dafür, ob ein Pflegeprodukt komedogen oder nicht-komedogen ist. Nicht jedes Öl verhält sich gleich. Mineralöle stehen im Verdacht, unabhängig vom Hauttyp eine komedogene Wirkung zu haben. Zu den Mineralölen gehören Silikone, Vaseline und Paraffin. Es handelt sich dabei um industriell hergestellte Öle, die aus Erdöl und Braunkohle gewonnen werden. Gleichermaßen können natürliche Fette die Bildung von Mitessern begünstigen. Das Wollfett der Schafe, das sogenannte Lanolin, kann eine komedogene Wirkung haben ebenso wie einige Fette und Öle aus Pflanzen. Bei der Verwendung von Kokosfett, Kakaobutter, Erdnussöl und Olivenöl können sich verstärkt Komedone und Pickelchen zeigen.

Wie wird Komedogenität klassifiziert?

Ob eine Substanz komedogen ist, wird über Tierversuche ermittelt. Wie stark ein Fett die Poren verstopft, ist spezifisch für jede Substanz. Der Grad der komedogenen Eigenschaften wird in einer Skala von 1 bis 5 eingeteilt. Öle ohne komedogene Wirkung haben dabei einen Komedogenitätsgrad von 0 bis 1. Je stärker das Öl die Poren verstopft, desto höher der Wert. Arganöl und Öle auf Hanfbasis gehören zu den nicht-komedogenen Ölen, während Avocadoöl ein Vertreter der komedogenen Inhaltsstoffe sein kann.

Können komedogene Produkte Akne auslösen?

Akne kann viele Ursachen haben. Ob ein Inhaltsstoff eines Pflegeproduktes das Hautbild verschlechtert ist von der individuellen Hautbeschaffenheit abhängig. Ist die Haut von Natur aus eher fettig, dann können komedogene Stoffe sind eher negativ auf das Hautbild auswirken. Bei einer trockenen Haut ist dies nicht zu erwarten. Eine Haut, die Unreinheiten zeigt sollte daher eher mit einer Pflege versorgt werden, die nicht-komedogen ist. Sehr starke Unreinheiten und Akne können unterschiedliche Ursachen haben und sind nicht ausschließlich auf Pflegeprodukte zurückzuführen. Im Zweifelsfall kann ein Test im Ellenbogen Aufschluss darüber geben, wie die Haut auf eine Creme oder Lotion reagiert.

Warum klebt Klebstoff / Kleber? Erklärung, Gründe, Wissenschaft


Die Fähigkeit eines Klebstoffes, zwei Materialien fest miteinander zu verbinden, geht auf zwei Prinzipien zurück: Adhäsion und Kohäsion. Daneben sind die physikalischen Eigenschaften der zu verklebenden Materialien (im Folgenden als Fügeteile bezeichnet) für die Klebewirkung verantwortlich.

Kleber / Klebstoff: Was passiert bei der Adhäsion?

Die Adhäsion beschreibt allgemein die Fähigkeit eines Stoffes, an der Oberfläche eines anderen Stoffes zu haften. Beim Klebstoff beschriebt dies also seine Eigenschaft, beim Auftragen auf das Fügeteil an dieser Stelle haften zu bleiben. Dafür verantwortlich sind Wechselwirkungen zwischen den Molekülen des Fügeteils und denen des Klebstoffs. Es treten Wechselwirkungen durch polare oder polarisierbare Gruppen auf, durch Wasserstoffbrückenbindungen oder durch van-der-Waals-Kräfte. Während polarisierbare Gruppen und Wasserstoffbrückenbindungen nicht bei allen Stoffen vorliegen, gibt es van-der-Waals-Kräfte bei allen. Diese entstehen durch zufällige Ungleichverteilung von Elektronen in den Molekülen, sodass kurzzeitig winzigste Magnete entstehen. Je mehr der zwischenmolekularen Kräfte vorliegen, desto stärker fällt also die Adhäsion aus.

Die genannten Kräfte haben eine Reichweite unter einem Nanometer, weshalb eine gleichmäßige Benetzung der Oberfläche des Fügeteils maßgebend für eine gute Adhäsion und die gewünschte Klebewirkung ist. Die meisten Klebstoffe sind daher flüssig. Je nach Material des Fügeteilchens hat das Lösemittel im Klebstoff noch eine Verstärkung der zwischenmolekularen Kräfte zum Zweck. Wird die Oberfläche des Fügeteilchens durch das Lösemittel angelöst, können sich die gelösten Teilchen mit dem Klebstoff vermischen. Dadurch werden die Kräfte zwischen Klebstoff und Fügeteil erhöht. Dieser Prozess wird als Dispersionsprozess bezeichnet.

Neben den physikalischen Kräften gibt es in manchen Fällen auch Klebstoffe, bei denen chemische Bindungen für die Adhäsion verantwortlich sind. Diese sind in der Regel deutlich stärker als die physikalischen Kräfte und liegen beispielsweise beim Kleben von Aluminium mit Klebstoffen aus der Gruppe der Epoxidklebstoffe vor.

Kleber: Welche Rolle spielt die Oberflächenbeschaffenheit des Fügeteils bei der Adhäsion?

Da die zwischenmolekularen Wechselwirkungen nur eine geringe Reichweite haben, sind die obersten Schichten der Fügeteilchenoberfläche für die Klebewirkung entscheidend. Sollten Verunreinigungen auf der Klebefläche vorliegen, stellen diese die Adhäsionsfläche dar.

Verunreinigungen verändern zum einen die Beschaffenheit und damit die physikalischen Eigenschaften der Oberfläche. Bestehen die Fügeteile beispielsweise aus Keramik, so hat diese andere physikalische Eigenschaften als Fett. Zum anderen können die Kräfte des Klebstoffes diese Schicht je nach Stärke nicht durchdringen. Dazu kommt, dass die Verschmutzung nicht so fest mit dem Fügeteilchen verbunden ist wie die Moleküle des Fügeteils unter sich. Insgesamt fällt die Adhäsion geringer aus. Nicht nur bei Verschmutzungen kann die Anbindung der Oberfläche an das restliche Teilchen nicht stark genug sein. Sollte die Oberfläche korrodiert sein, wie es bei rostigem Eisen beispielsweise der Fall ist, hat diese Schicht nicht die Anbindung an den Rest des Materials, die für eine stabile Verklebung notwendig wäre.

Um also eine gleichmäßige Adhäsion zu gewährleisten, muss vor dem Benetzen des Fügeteils dessen Oberfläche frei von Fremdsubstanzen sein und gewährleistet werden, dass die Stabilität der obersten Schichten der der übrigen Materials entspricht.

Was passiert bei der Kohäsion?

Kohäsion beschreibt die im Inneren eines Materials auftretenden Kräfte. Beim Klebstoff beschreibt dies also seine Eigenschaft, innere Festigkeit aufzubauen. Diese ist notwendig, um die Verbindung beider Fügeteile herzustellen. Je länger sich ein Klebstoff an der Oberfläche des Fügeteils befindet, desto größer wird seine Kohäsion und damit stärker die Verbindung beider Teile. Je nachdem, ob die Kohäsion auf chemische oder physikalische Prozesse zurückgeht, spricht man von chemisch härtenden Klebstoffen oder physikalisch abbindenden Klebstoffen. Das Ausmaß der Kohäsion hängt in entscheidendem Maße von den Umgebungsbedingungen wie Temperatur, Luftfeuchtigkeit und Lichtverhältnissen ab. Auch die mechanische Belastung ist ausschlaggebend.

Wie wirken physikalisch abbindende Klebstoffe?

Bei Klebstoffen dieser Art liegen die für die Klebewirkung verantwortlichen Moleküle bereits in ihrer endgültigen Größe vor und werden nicht erst im Laufe des Kohäsionsprozesses durch chemische Reaktionen erzeugt. Die Verfestigung erfolgt durch Trocknen, Abkühlen oder Gel-Bildung.
Bei der Verfestigung durch Trocknung verdunstet das Lösemittel, in dem die Moleküle des Klebstoffs gelöst sind. Der Abstand zwischen den Klebstoffmolekülen wird verkleinert und zwischenmolekulare Kräfte beginnen zu wirken. Die Teilchen des Klebstoffs sind meist Polymere, zum Beispiel solche aus der Stoffgruppe der Polyvinylacetate, Acrylate oder Polyurethane.

Ähnlich verhält es sich bei Klebstoffen, die durch Abkühlen verfestigen. In warmen Materialien haben die Teilchen viel Bewegungsenergie, welche die Ausbildung von zwischenmolekularen Kräften erschwert. Erst mit dem Abkühlen verlangsamen sich die Teilchen, sodass zwischenmolekulare Kräfte wirken können. Eine Verklebung mit solchen Klebstoffen ist daher reversibel. Je nach Material des Klebstoffes unterscheiden sich seine Verarbeitungstemperaturen. Beispielsweise müssen Polyamide auf über 200°C erhitzt werden, wohingegen Polyethylen bereits ab 140°C verarbeitet werden kann.

Bei der Verhärtung durch Gelbildung sind die Klebstoffe Dispersionen, also Gemische aus Feststoff und Flüssigkeit. Diese sind so gewählt, dass sie unter passenden Umgebungsbedingungen, zum Beispiel bei Temperaturerhöhung, zu einem einphasigen Gel diffundieren. Im Allgemeinen ist der Feststoff ein Polymer, zum Beispiel Polyvinylchlorid, und die Flüssigkeit ein Weichmacher wie ein Phthalsäuereester. Zusätzlich können Füllstoffe und Pigmente zugegeben werden.

Wie wirken chemisch härtende Klebstoffe?

Bei Klebstoffen dieser Art liegen die für die Klebewirkung verantwortlichen Moleküle nicht von Beginn an vor. Sie entstehen während des Kohäsionsprozesses durch chemische Reaktionen aus kleineren Molekülen. Dabei muss gewährleistet werden, dass die Reaktion erst zustande kommt, wenn der Klebstoff auf die Fügeteile appliziert wird.

Bei manchen Klebstoffen sind dafür die zur Reaktion notwendigen Komponenten voneinander getrennt. Erst durch Mischen beider Komponenten kurz vor der Applikation wird die Reaktion in Gang gebracht. Andere Klebstoffe sind so konzipiert, dass sie bestimmte Umgebungsbedingungen brauchen, um die chemische Reaktion und damit die Härtung einzuleiten. Dies kann zum Beispiel Licht einer bestimmten Wellenlänge, Vorhandensein von Sauerstoff oder Einwirkung von Wärme sein. Bei den eintretenden Reaktionen kann es sich um Polymerisation, Polyaddition oder Polykondensation handeln.

Bei der Polymerisation sind die Vorläufermoleküle alle identisch. Ein Vertreter aus der Gruppe der so aushärtenden Klebstoffe sind die Cyanacrylat-Klebstoffe. Bei ihnen wird die Polymerisationsreaktion durch Kontakt mit der Luftfeuchtigkeit ausgelöst.

Bei Polyadditionsreaktionen sind die Vorläufermoleküle nicht identisch. Beispielsweise bestehen Polyurethanklebstoffe aus mehrwertigen Isocyanaten und mehrwertigen Alkoholen, die bei Vermischung miteinander reagieren und dabei ein Reaktionsprodukt aus der Stoffgruppe der Polyurethane bilden.

Bei einer Polykondensation müssen die Vorläufermoleküle ebenfalls nicht identisch sein. Bei solchen Reaktionen wird ein Nebenprodukt wie Wasser oder Ammoniak frei. Zu dieser Gruppe zählen die Phenol-Formaldehydharz-Klebstoffe, bei welchen die Reaktion von Phenolen und Aldehyden durch Änderung von Temperatur oder pH-Wert eingeleitet wird.

Was ist eine Kopfgeburt? Bedeutung, Definition, Erklärung


„Kopfgeburt“ bezeichnet eine Idee, die nicht funktionieren wird. Sie hat mit der Realität nicht viel zu tun und ist daher kaum überlebensfähig. Stets wird der Begriff abwertend gebraucht. Eine bereits umgesetzte Idee bezeichnet man nur dann als Kopfgeburt, wenn sie gescheitert ist. Der Begriff wird in der Einzahl gebraucht. Seltener kann er aber auch in der Mehrzahl stehen.

Hauptmerkmal des Begriffes ist nie die Idee selbst. Vielmehr wird unterstellt, dass es ein reines Gedankenkonstrukt (ein Idealbild) sei, welches zwangsläufig an der Realität scheitern werde. In der Verwendung des Begriffes liegt stets eine Geringschätzung der betreffenden Idee. Häufig dient dies auch der Abwertung des Urhebers der Idee.

Somit lässt sich die Idee selbst meist einem bestimmten Menschen zuordnen. Die Idee ruft zudem großen Widerspruch hervor. Synonyme sind Hirngespinst, Spinnerei oder auch Schnapsidee.

Was ist eine Kopfgeburt? Bedeutung, Definition, Erklärung

Seinen Ursprung hat der Begriff Kopfgeburt in der griechischen Mythologie. Dort gibt es die Geschichte von Zeus, der seine Tochter Athene durch Kopfgeburt zur Welt brachte: Dem Göttervater wurde vorhergesagt, dass ihn ein Sohn stürzen werde, während eine Tochter ihm ebenbürtig sei. Beides lehnte Zeus natürlich ab, schließlich betrachtete er sich als allmächtig. Als er erfuhr, seine Frau Metis erwarte Zwillinge, meinte er, seine Zeit sei gekommen. Kurzerhand verschlang er die Schwangere.

Im Anschluss bekam er jedoch solche Kopfschmerzen, dass er den Schmied Hephaistos rief. Dieser erhielt den Auftrag, seinen Kopf zu zerschlagen, was Hephaistos auch tat. Dem Zeus als Gott konnte dies nichts anhaben. Aus diesem Gewaltakt entsprang Athena, als fertige Frau in voller Rüstung. Fortan galt sie nicht nur als überragende Kriegerin. Sie galt auch als Symbol für Intelligenz und Weisheit, denn sie kam ja aus dem Kopf des Zeus.

Was in der Mythologie seinen Zweck erfüllt, kann es in der Realität nicht geben. Deshalb wurde der Begriff im Lauf der Jahrhunderte immer mehr zum Synonym für etwas Negatives.

Wofür wird das Phänomen Kopfgeburt verwendet? Erklärung

Kopfgeburt bezeichnet den Inbegriff einer nicht lebensfähigen Idee: Diese wird zwar wie alle Ideen durch den Kopf geschaffen. Jedoch ist sie von vornherein zum Tod verurteilt. Deshalb muss jede Kopfgeburt in dem Sinn, wie wir sie heute gebrauchen, zwangsläufig scheitern.

Der Grund besteht nicht in ihrer Produktion, also der Geburt an sich. Diese funktioniert ja, die Idee wird geboren. Jedoch kann die Idee nicht weiterleben – sie stirbt im realen Umfeld. Ein Beiklang von Spott schwingt ebenfalls stets mit. Schließlich wurde eine Kopfgeburt lange mit dem allmächtigen Göttervater Zeus in Verbindung gebracht.

Damit beschränkt sich die Anwendung auf intellektuelle Leistungen. Diese werden zunächst präsentiert und daraufhin von anderer Seite verunglimpft. Beispiele finden sich in Politik, Kunst und Literatur. Besonders in der Politik tauchen sie überall da auf, wo zwei verschiedene Lager aufeinander treffen. Ziel ist in den meisten Fällen eine Diffamierung der gegnerischen Partei. Dann bezeichnet Kopfgeburt eine belanglose oder hoch spekulative Idee. Auch Unvernunft wird häufig unterstellt, also ein unzureichendes Durchdenken. Dies unterstellt weiterhin Unfähigkeit, was wiederum dem Ansehen des Gegners schaden soll.

Kopfgeburt als Äußerung von Ablehnung

In jedem Fall wird damit gezeigt, dass der Sprecher die Idee für unwichtig hält. Sie kann aber auch als gefährlich dargestellt werden. In jedem Fall wird sie abgelehnt. Die Ablehnung wird im Anschluss begründet, wodurch der Anwender sich selbst oder die eigene Idee hervorheben möchte. Diese Idee widerpricht stets der ursprünglichen Idee. Sie stellt sich damit als besonders realistisch dar.

Häufig ist die Ursache dieser Abwehr eine gefühlte Bedrohung. Eine Kopfgeburt bezeichnet zwar etwas Fiktives. Sie kann jedoch durchaus die Wirklichkeit betreffen: Wenn eine Idee oder Theorie die Realität in gravierender Weise ändern möchte, wird sie ebenfalls oft als Kopfgeburt bezeichnet.

Kopfgeburt in Kunst und Literatur

In früheren Zeiten fand der Mythos selbst großes Interesse. Auf griechischen Vasen ist die Darstellung der Geburt der Athene ebenso zu finden wie in der Malerei. Selbst Statuen stellen die Athena dar, wie sie aus dem Kopf ihres Vaters Zeus steigt.

Moderner ist die Verwendung im symbolischen Sinn. Sehr bekannt ist etwa Günter Grass‘ Werk „Kopfgeburten“. In diesem Mix aus Essay und Roman behandelt der Autor zahlreiche Visionen eines künftigen Deutschlands. Weniger bekannt blieb ein Sachbuch mit dem Namen „Der Kommunismus als Kopfgeburt“. Es stammt von Eberhard Rathgeb.

Weitere Bedeutungen des Begriffes Kopfgeburt

Eine weitere Bedeutung von Kopfgeburt ist heute veraltet. Sie stammt aus der Medizin und bezeichnet eine Geburt, bei welcher der Schädel des Babys zuerst erscheint.

Was ist Smurfing / Smurfen? Bedeutung, Definition, Erklärung


Smurfing oder Smurfen heißt auf Englisch „Schlumpfen“. Es bedeutet, eine Aktivität so zu splitten, dass daraus viele kleine, unauffällige Aktivitäten (klein wie die Schlümpfe) werden. Der Begriff wird bei der Geldwäsche und auch beim Online-Gaming verwendet.

Was ist Smurfing / Smurfen? Bedeutung, Definition, Erklärung

Bei der Geldwäsche teilen Kriminelle einen hohen, auffälligen Geldbetrag in viele kleine Beträge auf, die sie in mehreren Tranchen überweisen. Das fällt weder auf dem Absender- noch auf dem Empfängerkonto auf. So ist es beispielsweise in Deutschland bei Bareinzahlungen ab einem Betrag von 15.000 Euro vorgeschrieben, dass sich der Einzahler identifizieren muss. Seine Daten werden anschließend fünf Jahre lang gespeichert (§ 10 Absatz 3 Nummer 2 Geldwäschegesetz). Bei Sorten (ausländischen Währungen) liegt die Grenze sogar bei nur 2.500 Euro. Per Smurfing teilen nun die Einzahler ihren hohen Betrag in kleine Summen auf, die nicht unter diese Vorschrift fallen. Die Banken setzen allerdings inzwischen automatische Systeme ein, deren Algorithmen das Smurfing erkennen.

Smurfing bei Online-Games

In Online-Games spielen manche Teilnehmer auf mehreren Accounts in unterschiedlichen Levels. Auch diese Praxis wird als Smurfing bezeichnet und ist mehr oder weniger verpönt. Beim CS:GO stößt sie auf starke Ablehnung, bei League of Legends scheint sie gängige Praxis zu sein. Die Smurfer machen im Jargon der Spieler ein Play, das über dem üblichen Niveau der Elo dieses Spiels liegt. Sie legen Zweit-, Dritt- und sogar Viert- und Fünftaccounts in niedrigeren Elos an und geraten dort an Gegner unter ihrem Niveau, wodurch ihre Gewinnwahrscheinlichkeit steigt. Ihre Ziele gelten dabei als ambivalent. Manchmal spielen sie aus Spaß „Troll-Games“ auf ihrem Smurf-Account, welche die MMR ihres Hauptaccounts nicht gefährden. Teilweise wollen sie auch per Smurfing mit Freunden spielen, welche niedriger als sie selbst ranken. Im Game League of Legends etwa ist es nicht möglich, mit dem Silberstatus in dasselbe Spiel wie ein Challenger-Gamer zu gelangen. Eine Begrenzung sieht vor, dass für ein gemeinsames Spiel nur ein gewisser Unterschied der Elo vorliegen darf. Smurfer umgehen diese Begrenzung.

Training für Online-Games per Smurfing (Erklärung, Definition, Bedeutung)

Bei Online-Games kann Smurfing den Zweck verfolgen, effizient zu trainieren. Einige Spieler betreiben mehrere Top-Accounts in hohen Challenger-Rängen, teilweise sogar unter den Top-Ten. Per Smurfing wechseln sie nun wieder in untere Ränge, um mehrmals neu zu beginnen und sich wieder auf die vorderen Plätze zu kämpfen. Das gilt sogar als legitim. Allerdings schmälern sie dabei durch ihr Können die Chancen von echten Einsteigern, weshalb diese Verhalten auf den Unwillen anderer Teilnehmer und auch der Betreiber stößt. Diese tolerieren es allerdings mehr oder weniger. Smurfing gilt in der Szene als Unbotmäßigkeit, die nicht schön, aber auch kaum zu bestrafen ist – so ähnlich wie das Raubkopieren von Filmen oder das Ignorieren einer roten Ampel als Fußgänger. Dennoch wird es als Problem wahrgenommen. Die Betreiber könnten es verbieten, jedoch schrecken sie offenkundig davor zurück, um die Gamer nicht zu verärgern. Es ist schließlich auch – im Gegensatz zu Raubkopien oder dem Überqueren einer roten Ampel – keine echte Straftat. Letzten Endes haben Gamer, die auf niedrigeren Rängen smurfen, auch nur so lange etwas davon, bis sie in ihrer alten Elo ankommen. Oft erstellen sie anschließend einen neuen Smurf.

Warum tut Salz in der Wunde weh? Warum brennt es? Erklärung, Wissenschaft


Das Sprichwort mit dem „Salz in die Wunde streuen“ kennt so gut wie jeder. Es soll bedeuten, etwas nicht schlimmer zu machen, als es ohnehin schon ist.

Bereits im Mittelalter war bekannt, dass es sehr stark brennt und schmerzt, Salz in eine offene Wunde zu geben. Das wurde für Folterungen ausgenutzt.
Doch warum schmerzt Salz in einer offenen Wunde? Die Antwort auf diese Frage lautet: Osmose.

Salz in der Wunde: Was ist Osmose?

Dieser Begriff meint einen Druckausgleich, ein Gleichgewicht. Durch Osmose werden Stoffe durch Membranen der Zellen transportiert. Für andere Stoffe ist die Membran hingegen undurchlässig. Diese Eigenschaft wird als halbdurchlässig oder „semipermeabel“ bezeichnet.

Als einfaches Beispiel die Erklärung an einem Badeschwamm. Zunächst ist ein Badeschwamm trocken und mit Luft gefüllt. Sobald er in Wasser gelegt wird, füllt der Schwamm sich automatisch mit Wasser. Die vorher im Schwamm befindliche Luft hat einen geringeren Druck als Wasser. Daher füllt sich der Schwamm, sobald Wasser vorhanden ist, automatisch mit diesem.

Das Äußere vom Schwamm ist genau wie eine Zelle halbdurchlässig. Diese Halbdurchlässigkeit ermöglicht das Eindringen vom Wasser zum Druckausgleich. Sobald innen und außen allerdings der gleiche Druck herrscht, wird kein Wasser mehr hineingelangen.

In der Natur kann dieses Phänomen auch bei Kirschen beobachtet werden. Bei einem Regenschauer platzen Kirschen auf, wenn sie reif sind. Das liegt daran, dass das Regenwasser in ihnen aufgenommen wird. Dies geschieht solange, bis die äußere Hülle der Kirsche platzt, weil sie der Druck zu stark ist.

Es handelt sich bei Osmose also um einen automatischen, keinen steuerbaren Vorgang. Stimmen die Umweltbedingen, findet die Osmose automatisch statt.

Im Falle der Kirsche enthält diese sowohl gelösten Zucker als auch noch weitere Stoffe. Regenwasser hingegen beinhaltet nur wenige gelöste Teilchen. Daher findet durch die Osmose ein Ausgleich dieses Ungleichgewichtes statt, bis es beseitigt ist.

Die Membran der Kirsche lässt den Zucker allerdings nicht heraus. Deshalb besteht nur die Möglichkeit zum Ausgleich das Wasser in die Kirsche hineinzulassen.

Dadurch gleicht sich das Verhältnis von gelösten Stoffen in Kirsche und Regenwasser an. Osmose hat stattgefunden.

Osmose findet auch beim Baden statt. Durch Baden wird die Haut schrumpelig. Das liegt daran, dass sich vor allem in Füßen und Händen mehr Salz befindet als im Badewasser. Das Salz wird nicht durchgelassen, das Wasser hingegen schon. Dadurch dringt Badewasser in die Haut ein. Ein Gleichgewicht wird hergestellt und die Haut wird schrumpelig.
Im Meer hingegen schrumpelt die Haut nicht allzu stark. Denn dort ist der Unterschied im Salzgehalt zwar nicht gleich, allerdings auch nicht hoch genug um eine sichtbare Osmose hervorzurufen.

Die Bedeutung von Osmose im Körper des Menschen

Im Körper ist Salz enthalten. Dieses befindet sich in einer bestimmten Konzentration in den Körperzellen. Das ist wichtig für die Übertragung von Nerven.

Durch Osmose werden Körperzellen mit für sie wichtigen Stoffen versorgt. Die meisten Zellen sind nur durchlässig für Wasser. Mittels Transportproteinen können aber auch andere Stoffe die Zellmembranen überwinden.

Osmose ist unabdingbar für die Versorgung der Stellen. Durch Osmose wird auch eine Vergiftung durch zu viel im Körper befindliches Salz verhindert und überschüssiges Wasser wird aus dem Körper transportiert.

Warum tut Salz in der Wunde weh? Warum brennt es? Nervenzellen und Kochsalz

Für die Erregungsleitung der Nervenzelle ist Kochsalz notwendig. Erregungsleitung bedeutet die Weiterleitung von einem Reiz.
Dabei werden diese Reize durch elektrische Signale weitergeleitet. Für die Weiterleitung wird eine Kochsalzlösung benötigt (Gemisch aus Wasser und Salz). Die Reize werden letztendlich im Gehirn übersetzt und als Maßnahme zurück an die Körperstellen geschickt.

Jeder Reiz, wie etwa Schmerz oder der Reiz zum Sehen, wird mittels elektrischer Signale weitergeleitet. Benötigt wird dafür eine Kochsalzlösung. Das ist eine Mischung aus Wasser und Salz. Die Reize kommen im Gehirn an, um dort übersetzt zu werden. Anschließend schickt das Gehirn dann eine Reaktion an die Körperstellen, die verantwortlich sind.

Ohne ausreichend Kochsalz kann diese Weiterleitung nicht funktionieren. Für einen erwachsenen Menschen werden etwa zwei bis fünf Gramm pro Tag benötigt.

Warum Salz in Wunden brennt

Zusammen mit Wasser wird Salz zur einer Salzsäure. Gelangt Salz in eine offene Wunde, so wird sofort diese Säure gebildet. Denn durch Osmose wird Wasser, welches sich in den umliegenden Zellen befindet, zum Ausgleich abgesaugt.

Durch das schnelle Wegleiten des Wassers können die Zellen innerhalb von Sekunden austrocknen und sterben. Das Sterben der Zellen führt zu dem brennenden Schmerz, der entsteht, wenn Salz in die Wunde gelangt.
Die Nervenzellen, die in der Nähe liegen, haben durch diesen Vorgang ausreichend Natrium zur Verfügung und geben den Schmerzreiz daher ungehindert weiter. Durch eine optimale Signalübertragung wird der Schmerz sehr schnell weitergegeben, was ihn noch verstärkt.

Salz in der Wunde als Foltermethode

Wie bereits erwähnt, wurde im Mittelalter als Foltermethode Salz in Wunden gegeben.

Oft wurde diese Strafe von Gerichten angeordnet, die damit ein Geständnis vom Angeklagten erreichen wollten. Manchmal wurden dabei wirklich Schuldige entlarvt, oft gestanden allerdings auch Unschuldige unter Schmerzen Verbrechen, die sie gar nicht begangen hatten.

Es gibt die Redewendung „ein Geständnis herauskitzeln“. Diese stammt aus jener Zeit. Denn auch Kitzeln wurde früher als Foltermethode genutzt. Auch dafür wurde Salz verwendet. Dieses wurde auf kitzelige Stellen wie die Füße gestreut und dann von einer Ziege abgeleckt. Was sich recht lustig anhört, verursachte durch das lang andauernde Kitzelgefühl starke Schmerzen, vor allem in Lunge und Bauch.

Hinzu kommen die rauen Zungen von Ziegen. Durch die wurden auch die Fußsohlen in Mitleidenschaft gezogen.

Bis in die Kolonialzeit hinein wurde Kitzeln mithilfe von Salz als Foltermethode betrieben. Die Folter fand dabei öffentlich statt und vorbeilaufende Menschen konnten dem Verurteilen kitzeln und ihm so Schmerzen zufügen.

Auch heute gibt es noch Folterungen mit Salz. Dabei wird Inhaftieren Salzwasser verabreicht. Das führt zu starkem Erbrechen und kann tödlich sein.

Fazit „Warum Salz in der Wunde weh tut“: Schmerzen durch Osmose

Letztlich schmerzt die Wunde also nicht durch das Salz, sondern durch die damit im Körper ausgelöste Funktionsweise.

Osmose ist lebensnotwendig und versorgt Zellen mit Nährstoffen. Außerdem wird eine Vergiftung durch übermäßig viel Salz im Körper durch Osmose verhindert. Für die Weiterleitung von Reizen ist Salz im menschlichen Körper unverzichtbar.

In einer offenen Wunde brennt Salz, durch den Entzug und das Absterben der Körperzellen.

Eine Kochsalzlösung kann eine Wunder allerdings auch desinfizieren. Größere Konzentrationen sind allerdings schädlich, auch für die Wundheilung.

Salz kann auch die Immunabwehr anregen, führt aber in hohen Mengen zu Bluthochdruck.

Salz ist für den Körper also sehr wichtig, in hohen Dosen und in einer Wunde allerdings schädlich und schmerzhaft.

Was passiert wenn man den Stuhlgang unterdrückt? Erklärung


Oft führt Zeitmangel oder fehlende Möglichkeit dazu, dass die Toilette zum Stuhlgang nicht aufgesucht werden kann. Damit wird der Impuls des Stuhldrangs oftmals ignoriert. So muss der Toilettengang situationsbedingt oftmals warten. Bereits nach etwa 30 bis 60 Sekunden erfolgt eine Anpassung des Mastdarms durch den vermehrten Inhalt. Diese Spannung des Darms lässt nach und der Drang zur Entleerung verschwindet. In den meisten Situationen des Lebens ist das hilfreich. Jedoch ist es nicht unbedenklich, wenn die Signale des Körpers ignoriert werden.

Gastroenterologen stehen jenem Verhalten kritisch gegenüber, wenn der Stuhlgang unterdrückt wird. Durch diese Unterdrückung des Stuhldranges sehen diese eine nicht zu unterschätzende Ursache für verschiedene Darmbeschwerden. Wenn der Gang zur Toilette über einen langen Zeitraum regelmäßig aufgeschoben wird, dann verlernt der Körper automatisch die Reaktion auf diesen wichtigen Reflex. Auf lange Sicht kann das zum Beispiel zu chronischer Verstopfung führen. Auch wenn es sich nur um Ausnahmesituationen handelt, können solche Beschwerden auftreten, die das Wohlbefinden stark beeinträchtigen.

Stuhlgang unterdrücken: Situation, Gründe

Der Darm verrichtet generell vielfältige Aufgaben idealerweise unbemerkt. Nach der langen Passage über den Mundbereich, die Speiseröhre sowie den Magen landet die Nahrung als Brei im Dünndarm und gelangt von hier in den Dickdarm. Hier wird der Brei durch die Darmbakterien zersetzt. Die Nervenzellen des Darms steuern den Wasserentzug, durch welchen der Kot die beim Ausscheiden bekannte Konsistenz erhält. Wellenartige Bewegungen lösen den Stuhltransport in den Enddarm aus. Die dafür zuständigen Rezeptoren im Darm übermitteln den Impuls an das Gehirn und der Drang zum Stuhlgang stellt sich ein.

Bleibt der Kot für längere Zeit im Darm, führt dies oftmals zu einem Völlegefühl, Blähungen oder Übelkeit. Zudem bewirkt diese lange Verweildauer im Darm einen erhöhten Verlust von Wasser des Darminhalts. Der Stuhl wird dann härter und die Darmentleerung entsprechend schmerzhaft. Die harte Konsistenz wiederum behindert den Ausscheidungsvorgang, sodass vermehrtes Pressen erforderlich ist. Dadurch erhöht sich auch das Risiko, Hämorrhoiden mit den dazugehörigen Beschwerden zu bekommen. Diese können Schmerzen und Juckreiz hervorrufen. Als Folge eines verhärteten Stuhls kann es zudem zu schmerzhaften Rissen an der empfindlichen Haut in der Afterregion kommen. Dies sind die Analfissuren.

Aus medizinischer Sicht spricht daher einiges dafür, die Darmentleerung nicht allzu lange aufzuschieben. Wer einen Stuhldrang spürt, sollte daher nachgeben und den Gang zur Toilette nicht aufschieben. Generell kann jeder mit einfachen Maßnahmen auf diese Weise die Darmgesundheit unterstützen.

Unterstützend wirkt eine ballaststoffreiche und ausgewogene Ernährungsweise mit Vollkornprodukten und frischem Obst und Gemüse. Zusätzlich gilt es hinreichend zu trinken, Genussgifte wie Nikotin und Alkohol sind zu meiden oder weitgehend zu vermindern und für regelmäßigen Stressabbau ist außerdem zu sorgen. Hierbei helfen auch Entspannungsübungen und Bewegung.

Warum der Stuhlgang nicht unterdrückt werden sollte

Wenn der Stuhldrang verspürt wird, dann sollte nicht zu lange gewartet werden, bis der Betroffene die nächste Toilette aufsucht.

Dieser Stuhldrang kommt nicht einfach so und hat vor allem seinen Sinn. Damit signalisiert der Körper signalisiert, dass er den Darm nun entleeren möchte.

Dies macht der Darm nicht nur, weil dieser voll ist, denn der Kot ist ein Abfallprodukt, welches der Körper gerne so schnell wie möglich wieder loswerden möchte. Wenn der Stuhl nicht abgeführt wird, kann nichts weiter von oben nachkommen. Hierdurch wird der Darm stark blockiert und kann die eigentliche Aufgabe nicht erfüllen.

Zu diesen Aufgaben zählt die Aufnahme der Nährstoffe aus der Nahrung. Wenn das Entleeren des Darms verhindert wird, sind die Verdauungsstörungen schon vorprogrammiert. Neben dem Völlegefühl müssen Betroffene mit Blähungen und mit Übelkeit rechnen.

Stuhlgang unterdrücken: Folgen für den Darm und den Körper

Der Kot sollte nicht unnötig lange im Darmtrakt verbleiben, da dieser neben den unverwertbaren Bestandteilen der Nahrung auch Schadstoffe enthält.
Generell ist nicht immer ist die Möglichkeit gegeben, bei Stuhldrang gleich eine Toilette aufzusuchen. Zu lange sollte der Stuhldrang jedoch nicht unterdrückt werden – vor allem nicht allzu oft.

Wird der Stuhl zurückgehalten, wird dieser vom Enddarm in das kleine Becken gezogen. Hier ruft dieser keinen Stuhldrang hervor, kann sich jedoch sehr stark verhärten. Die Folge können schmerzhafte Darmentleerungen und Verstopfung sein.

Härterer Stuhl führt dazu, dass die Betroffenen bei der Darmentleerung vermehrt pressen müssen. Durch ein starkes Pressen kann außerdem der empfindliche Analkanal einreißen.

Toilettenverweigerung führt zu Verstopfung

Die Toilettenverweigerung unterscheidet sich zunächst in Fälle, bei welche eine starke Verstopfung (Obstipation) besteht und in Fälle ohne. Es gibt vor allem Kinder, die den der Stuhlgang aufgrund einer Verstopfung absichtlich zurückhalten und die Toilette gemieden wird. Der Stuhlgang ist hier ebenfalls schmerzhaft und hart und wird daher so lange wie nur möglich herausgezögert, wodurch der Stuhl jedoch nur noch weiterhin härter wird und dadurch ein Teufelskreis entsteht.

Vor allem diesen Kindern muss mit stuhlaufweichenden Arzneimitteln und Toilettentraining nachgeholfen werden. Der Stuhl wird dann breiig-weich gemacht, dass die der Stuhlgang nicht wehtut und die Kinder werden generell nach den Hauptmahlzeiten zur Toilette geschickt.

Das Unterdrücken des Stuhlgangs ist damit schädlich und kann schwere gesundheitliche Konsequenzen haben. Durch die Verdauung absorbiert der Körper die Nährstoffe. Jedoch hinterlässt dieser Vorgang viele Abfälle, welche beseitigt werden müssen. Wenn er das Signal sendet, dass der Betroffene auf die Toilette gehen soll, dann ist es schlecht, wenn dieses Signal ignoriert wird. Dies ist deshalb so, weil der Körper zu jenem Zeitpunkt seine Abfälle unbedingt loswerden muss. Es ist von großer Wichtigkeit, diese Abfälle abzusondern. Geschieht dies nicht, sie die Funktion des Darms beeinträchtigt.

Wenn der Darm blockiert ist, verändert sich die Aufnahme der Nährstoffe. Aus diesem Grund wird die Nahrung nur sehr schlecht verdaut es werden Verdauungsstörungen, hervorgerufen. So sollte der Drang, auf die Toilette zu gehen, nur in besonderen Notfällen unterdrückt werden.

Wenn etwas sehr Schweres gegessen wurde und der Darm entleert werden soll, dann ist es wichtig dieses Gefühl nicht abzuweisen. Dies ist deshalb wichtig, weil der Körper mitteilen möchte, dass er den Abfall loswerden muss, um alle Nährstoffe verdauen zu können, die gerade zugeführt wurden.

Außer den schwerwiegenden Verdauungsproblemen, die entstehen können, kann das Unterdrücken des Stuhlgangs auch Auswirkungen auf den ganzen Körper haben. Es muss bedacht werden, dass dies die Art und Weise ist wie tausende von Schadstoffen abgesondert werden, ist. Durch ein Unterdrücken des Stuhlgangs vergiften die einzelnen Schadstoffe im Körper, was zu gesundheitlichen Schäden führen kann.

Warum müssen wir schlafen? Erklärung, Gründe


Jeder Mensch verbringt von seinem Leben ein Drittel beim Schlafen. Beim Schlafen ist der Mensch absolut wehr- und schutzlos. Jede Nacht bringt unser Körper uns in diese Situation. Die zur Außenwelt bestehende Verbindung wird im Schlaf komplett gekappt. Wir sind abgeschnitten von allem, was um uns herum passiert und verlieren uns in unseren Träumen. Hätte dieser Zustand nicht lebenswichtige Funktionen, so wäre er der größte Fehler der Evolution. Zu keiner Zeit sind Mensch oder Tiere schutzloser, als wenn sie schlafen.

Der Mensch ist darüber hinaus das Lebewesen, welches am tiefsten Schlafen kann. Befindet sich ein Mensch in seiner gewohnten Umgebung im Tiefschlaf, so bedarf es schon lauter Geräusche, um ihn aus diesem zu wecken.

Warum bringt der Körper sich absichtlich in so eine Situation? Was ist an dem Schlaf für den menschlichen Körper so wichtig?

Warum müssen wir Menschen also schlafen? Hier sind die Gründe

Für einige Körperfunktionen ist ausreichender Schlaf unentbehrlich. Dies betrifft die Gedächtnisbildung, Heilung und Immunabwehr.

Der Ursprung vom Schlafbedürfnis liegt vermutlich darin, dass durch die Erde ein bestimmter Rhythmus vorgegeben wird. Denn am Tag ist es hell und in der Nacht ist es dunkel. Tiere, Pflanzen, alles Leben auf der Erde ist diesem Rhythmus unterworfen. So auch wir Menschen.

Der Mensch ist tagaktiv. Gerade aufgrund der nachtaktiven Raubtiere war es für den Menschen sinnvoll, sich nachts zurückzuziehen und regungslos zu verharren.

Das wird allerdings nicht die einige Ursache für das universelle Bedürfnis nach Schlaf sein. Schließlich funktioniert der Schlaf problemlos auch tagsüber.

Unterschiedliche Schlafrhythmen und ihre Ursachen

Die unterschiedlichen Schlafrhythmen liegen in der Urzeit begründet. Nach einer Nacht im fremdem Bett fühlen sich viele wie gerädert. Denn die linke Hirnhälfte ruht nicht wirklich, sondern verharrt in einer Habachtstellung. Die ungewohnte Umgebung lässt das Hirn nicht richtig zur Ruhe kommen. Der Schläfer wird in diesem Fall schneller und leichter wach. Dieser Schutzmechanismus hat sicherlich einigen Menschen das Leben gerettet. An einem fremden Ort können unbekannte Gefahren drohen. Daher schaltet das Hirn im Schlaf nicht richtig ab, sondern bleibt in einer vorsichtigen Position.

Auch unterschiedliches Schlafverhalten hat einen tieferen Nutzen. Es gibt im Schlafverhalten Lerchen (werden früh wach) und Eulen (bleiben lange wach). So ist im Zweifelsfall in einer Gruppe immer jemand da, der im Notfall Alarm schlagen konnte und die jeweils andere Gruppe wecken konnte.

Der Mensch benötigt sechs bis acht Stunden Schlaf. Andere Tiere benötigen deutlich mehr Schlaf, beispielsweise die kleine Taschenmaus mit 20 Stunden. Andere deutlich weniger, wie beispielsweise Giraffen. Diese benötigen nur zwei Stunden Schlaf.

Doch egal wie oft und wie lange, mit einer oder beiden Hirnhälften – genügend Schlaf benötigen alle Lebewesen.

Warum wir Schlaf brauchen: Schwächung der Immunabwehr aus Schlafmangel

Energiesparen ist ein Grund für den Schlaf, aber sicherlich nicht der Hauptgrund. Forscher sind davon überzeugt, dass Lebewesen sterben, wenn sie nicht schlafen. Experimentell nachgewiesen ist dies nicht. Von Ratten ist allerdings bekannt, dass nach zwei schlaflosen Wochen ihr Immunsystem zusammenbricht.

Ein Beweis dafür ist eine bei Menschen auftretende Erbkrankheit. Diese verursacht schwere Schlafstörungen. Die Krankheit verläuft immer tödlich. Nach wenigen Monaten sterben die Betroffenen, viele an Lungenentzündung.

Im Schlaf formiert sich die Körperabwehr neu. Wer nicht schläft, hat keine Chance dazu. Daher die Todesursache Lungenentzündung. Die körperlichen Abwehrkräfte haben aufgrund des Schlafmangels dieser Krankheit nichts entgegenzusetzen.

Auch eine Partynacht schwächt das Immunsystem bereits. Vorher verabreichte Impfungen wirken deutlich schwächer, als wenn die Nacht beim Schlafen verbracht wird.

Im Schlaf werden auch Wachstumshormone produziert, sowie Schäden am Körper repariert. Wunden heilen im Schlaf schneller als im wachen Zustand. Das Gehirn benötigt den Schlaf, um „Müll“ abzustoßen.

Bei chronischem Schlafmangel neigen die Patienten zu Stoffwechselstörungen, Übergewicht, Blutdruck und erkranken zudem häufiger an Krebs.

Nachts weiten sich die Zwischenräume unserer Zellen. Außerdem werden schädliche Stoffwechselprodukte, die am Tag entstehen, aus dem Körper herausgeschwemmt.

Das Langzeitgedächtnis im Schlaf

All diese Vorteile erklären allerdings nicht, warum im Schlaf das Bewusstsein verloren wird. Gedächtnisforscher sind der Meinung, dies liegt an der Bildung des Gedächtnisses im Schlaf. Versuche haben diese Theorie bestätigt. Vor allem beim Tiefschlaf verfestigen sich die Erinnerungen und Eindrücke.

Im Verlaufe eines Tages durchleben wir unzählige Sinneseindrücke. Diese werden im Kurzzeitspeicher vom Gehirn abgespeichert. Beim Schlafen werden diese dann im Langzeitgedächtnis verankert. Dies funktioniert nicht einfach per Kopie an einen anderen Speicherort, wie am Computer. Die Bildung von Erinnerungen im Gedächtnis ist ein komplizierter und aktiver Prozess.

Im Schlaf wird Unwichtiges aussortiert. Neue Erinnerungen werden mit alten verknüpft. Sehr effektiv ist daher auch Lernen vor dem Schlaf. Doch warum geht das alles nicht im wachen Zustand?

Für eine langfristige Gedächtnis Bildung werden die im Kurzzeitspeicher gespeicherten Inhalte neu aktiviert. Dies wurde durch Messungen an den Gehirnströmen bestätigt. Dieser Prozess funktioniert allerdings nicht, wenn währenddessen neue Sinneseindrücke einströmen. Dies wäre der Fall, wenn die Inhalte im wachen Zustand neu aktiviert werden. Denn dann strömen permanent neue Sinneseindrücke auf uns ein.

Somit ist ein erfolgreicher Prozess nur im Schlaf möglich. Ansonsten kann es zu Halluzinationen kommen. Diese treten auch bei Schlafentzug oft auf.

Lernen im Schlaf

In einem Versuch wurden Zahlenreihen von Probanden ergänzt. Hinter diesen verband sich ein Muster. Wer das Muster erkannt hat, ist schnell zur Lösung gelangt.

Acht Stunden später wurde der Test wiederholt. Einige der Probanden hatte in dieser Zeit geschlafen, andere nicht. Unter denen, die geschlafen hatten, erkannten das System hinter den Zahlenreihen nun doppelt so viele Personen wie zuvor.

Im Schlaf muss also etwas passiert sein, etwa eine Art Zusammenschau. Es ist also durchaus sinnig, über etwas zu schlafen. Das kann Probleme lösen und Zusammenhänge besser erkennbar machen.

Wer abends vor dem Schlafen an einem Problem schier verzweifelt, kann es oft am nächsten Morgen problemlos lösen. Der Schlaf ist also sicherlich nicht vergeudet und unser Leben wird nicht verschlafen, auch wenn ein Drittel von diesem geschlafen wird.

Für unsere Gesellschaft ist der Schlaf hingegen oft eher negativ. Wer schläft, tut nichts und ruht sich nur aus. Zum wirtschaftlichen Erfolg wird im Schlaf nichts beigetragen, wohl aber zum eigenen.

Schlafstörungen sind längst eine Volkskrankheit. Egal, wie perfekt das Leben organisiert ist, der Schlaf kann nicht organisiert werden. Er kommt nicht auf Knopfdruck, stattdessen muss losgelassen werden. Vor allem die Kontrolle muss losgelassen werden. Wer krampfhaft einschlafen will, bleibt daher oft wach.

Hyäne: Ist sie eine Katze oder ein Hund? Erklärung, Zoologie, Wildtiere


Die Hyänen (lateinischer Name Hyaenidae) gehören zu den Säugetieren und innerhalb dieser Gattung zur Gruppe der Raubtiere. Es gibt nach der Klassifizierung bei den heute noch lebenden Hyänen zwei Unterfamilien. Zur ersten Unterfamilie ,den Eigentlichen Hyänen, gehören die Tüpfelhyänen, die Streifenhyänen und die Schabrakenhyänen. Die andere Unterfamilie bilden die Erdwölfe (lateinisch proteles cristatus).

Sind Hyänen nun eigentlich eher Katzen oder Hunde?

Obwohl sie äußerlich eher etwas Hundeartiges haben und die eine Unterfamilie tatsächlich auch als Erdhund bezeichnet wird, werden die Hyänen den Katzenartigen (feliformia) zugeordnet. Diese Zuordnung erfolgte in erster Linie durch die spezielle Schädelform der Hyänen. Er weist außerdem eine ganz spezielle Form der Paukenhöhle, eines Teiles des inneren Ohres auf, die bei den Katzen und den anderen Katzenartigen vorkommt, bei den Hunden und den anderen Hundeartigen aber nicht. Lange Zeit waren sich die Forscher aber nicht darüber einig, ob die Hyänen ein eigenständiger früher Seitenzweig der Katzenartigen sind, der sich vor Millionen Jahren abspaltete, oder ob sie Nachkommen der frühen Katzen oder der Mangusten sind, mit denen sie ebenfalls genetische Ähnlichkeiten haben. Heute ist durch Molekularuntersuchungen geklärt, dass die Hyänen nicht direkte Nachkommen frühgeschichtlicher Katzenarten sind, aber beide gemeinsame Vorfahren haben. Die nächsten heute noch lebenden Verwandten der Hyänen sind deshalb auch nicht die Katzen sondern die Mangusten (Herpestidae) und die sogenannten Madagassischen Raubtiere (Eupleridae), zu denen neben den Madagaskar-Mangusten auch verschiedene Mungoarten, sowie die Fossa und die Fanaloka gehören. Etwas weiter als mit den Mangusten und Madagassischen Raubtieren sind die Hyänen mit den Schleichkatzen (Viverridae) verwandt. Eine noch weiter entfernte Verwandtschaft besteht zu den echten Katzen, den Pardelrollern oder Parderkatzen und den Linsangs, die lange zu den Schleichkatzen gezählt wurden, aber ebenfalls eine eigene Art der Katzenartigen darstellen.

Hyänen: Der Erdwolf, einzig lebender Vertreter der Gattung Proteles

Erdwölfe sind die kleinste aller heute noch existierenden Hyänenarten und unterscheiden sich von den anderen drei noch lebenden Arten hinsichtlich ihrer Größe, ihres Gewichtes und ihrer Nahrung ganz erheblich. Sie werden ausgewachsen nur bis 40 bis 50 cm hoch und 8 bis 14 Kilo schwer. Dagegen erreicht zum Beispiel die Tüpfelhyäne eine Größe von über 80 cm und ein Gewicht um die 60 bis maximal 80 Kilo. Während die anderen Hyänenarten ganz überwiegend Fleisch-und Aasfresser sind und mit ihrem überaus kräftigen Gebiss perfekt selbst große Knochen knacken und große Fleischteile in Stücke zerreißen können, ernähren sich die Erdwölfe überwiegend von einer bestimmten Termitenart. Ihre schmale längliche Kopfform und ihr nur schwach entwickeltes Gebiss sind an diese Nahrung perfekt angepasst. Lange Zeit glaubte die Wissenschaft aufgrund der deutlichen Unterschiede zu den Eigentlichen Hyänen, dass die Erdwölfe eine eigene Familie der Katzenartigen darstellen würden. Aber diese Aufteilung hat sich nach weiteren molekularischen taxonomischen Forschungen nicht halten lassen. Die Abstammung aller heute lebenden vier Arten von Hyänen von einer gemeinsamen Ur-Hyänenart, gilt inzwischen als bewiesen.

Die Aufspaltung der Katzenartigen in die Unterarten Hyänen und Mangusten/Madagassische Raubtiere liegt geschätzt 29 bis 30 Millionen Jahre zurück, die Aufspaltung der Hyaenidae in die Unterfamilien der Eigentlichen Hyänen und der Erdwölfe vollzog sich wahrscheinlich vor etwa 10 Millionen Jahren.

Vorteile und Nachteile einer glutenfreien Ernährung: Liste, Übersicht


Hinweis 1: Für gesunde Menschen, bei denen z. B keine Zöliakie diagnostiziert wurde, besteht keine Notwendigkeit, sich glutenfrei zu ernähren!

Hinweis 2: Sollten Sie den Verdacht haben, an einer Glutenunverträglichkeit/ Zöliakie zu leiden, suchen Sie einen Arzt (Gastroenterologen) auf! Dieser Artikel ersetzt den Arztbesuch nicht. Die Feststellung einer Zöliakie bedarf einer entsprechenden Diagnostik (Blutuntersuchung, Magenspiegelung). Eine glutenfreie Diät sollte nicht auf eigene Faust, auf Grundlage eines selbsterstellten Verdachts erfolgen.

Vorteile: glutenfreie Ernährung

  • Fertigprodukte, welchen häufig Konservierungsmittel, Zucker und Stabilisatoren zugesetzt sind, sind selten glutenfrei! Deshalb ist meist selbst kochen, mit frischen Lebensmitteln (am besten in Bio- Qualität), angesagt!
  • die Verführung lauert nicht an jeder Ecke, denn frische Backwaren vom Bäcker, Fastfood bei McDonalds oder ein Döner auf die Hand sind tabu
  • für Menschen die an einer Weizenallergie leiden, sind glutenfreie Produkte häufig gut bekömmlich (denn in den meisten glutenhaltigen Backwaren findet sich auch zugesetzt Weizenmehl)
  • glutenfreie Produkte enthalten kein Weizen, dieses unliebsame Getreide sollte so wenig wie möglich auf unserem Teller landen (lieber zu ballaststoffreichen Vollkorn-, Dinkel- oder Roggenprodukten greifen! …leider nicht glutenfrei, was uns zu den Nachteilen der glutenfreien Ernährung führt 😉 )
  • so schnell isst dir niemand mehr dein Essen weg! Denn 1. schmecken glutenfreie Produkte oft einfach nicht so gut wie glutenhaltige und 2. möchten die meisten Menschen dir nicht auch noch das wenige wegessen, was du überhaupt essen kannst
  • bei Flugreisen kannst du (außer bei den Billig- Airlines) glutenfreies Essen bestellen. Um Verwechslungen zu vermeiden, erhalten Passagiere mit Unverträglichkeiten und besonderen Essenwünsche ihr immer Essen zuerst!

Nachteile einer glutenfreien Ernährung

  • eine glutenfreie Ernährung bringt gesunden Konsumenten keine Vorteile! Bisher gibt es keine Studien, die am Menschen durchgeführt wurden, die beweisen, dass diese Form der Ernährung gesund ist (z. B. fit und gesund hält, Gewicht reduziert). Das Gegenteil ist der Fall! (Hierzu mehr in den folgenden Stichpunkten.)
  • durch den Verzicht auf Vollkornprodukte, fällt deren protektiver Effekt auf das Herzkreislaufsystem weg! Dies konnte in zwei amerikanischen Langzeitstudien nachgewiesen werden, deren Ergebnisse im „British Medical Journal“ veröffentlicht wurden.
  • glutenfreie Produkte bestehen aus einer Grundsubstanz, die einem Gemisch aus Reis- und Maismehl entspricht- leere, ballaststoffarme Kohlenhydrate, die den Insulinspiegel ansteigen lassen und somit sogar zu einer Gewichtszunahme führen können
  • Reismehl ist oft mit Arsen belastet – Arsen kann krebserregend sein. Bisher gibt es jedoch keine Hinweise darauf, dass die nachweisbaren Arsenmengen im Reismehl gesundheitsbedenklich sind. (Quelle: Aerztezeitung: „Glutenfreie Ernährung mit bitterem Nachgeschmack“)
  • die glutenfreie Ernährung ist oft ballaststoffarm- achte deshalb besonders auf die ausreichende Zufuhr von Nüssen, Hülsenfrüchten, Obst und Gemüse
  • glutenfreie Produkte sind sehr teuer
  • glutenfreie Produkte schmecken oft nicht so gut wie glutenhaltige Produkte
  • um den Geschmack glutenfreier Lebensmittel zu verbessern, werden den Produkten häufig mehr Zucker oder Fett zugesetzt (achte deshalb besonders auf die Zutatenliste glutenfreier Lebnsmittel!). Dadurch sind sie dann auch kalorienhaltiger!
  • auf Reisen (insbesondere als Backpacker) ist es oft schwer, geeignete Restaurants/ Kiosk zu finden (Sprachbarriere, fehlendes Angebot). Wenn du nicht hungern möchtest, habe immer einen Snack dabei à glutenfreie Ernährung macht dich auf Reisen und Unterwegs unflexibel. Ausserdem kannst du deinen kulinarischen Horizont nicht erweitern und von den regionalen Köstlichkeiten probieren, und Kultur ist eben auch Essen, oder?
  • Glutenfreie Ernährung ist mit sozialen Einschränkungen verbunden, sei es beim Essen gehen (welches Restaurant ist überhaupt möglich), der spontanen Einkehr in ein Restaurant (die Suche kann lange andauern und am Ende doch erfolglos verlaufen) oder bei einer Einladung zum Essen nach Hause (für den Gastgeber eine schwierige Situation: was kann ich kochen, wo kann ich glutenfreie Lebensmittel kaufen, wie vermeide ich Kontaminationen)
  • glutenfreies Essen enthält nicht, wie irrtümlicherweise oft angenommen, weniger Kalorien (s. Stichpunkt oben)
  • Wer sich glutenfrei ernährt, sollte konsequenterweise darauf achten Kontaminationen mit Gluten zu vermeiden (für Menschen die an Zöliakie ist dies unermesslich!). Das heißt Geschirr sollte im Geschirrspüler gereinigt werden, verwende keine Holzkochutensilien, verwende deine eigenen Aufbewahrungsschlüssel oder- Dosen, benutze einen eigenen Toaster, verwahre deine glutenfreien Produkte in einem extra Fach in deinem Küchenschrank, verwende deine eigenen (Brot-) Aufstriche, usw. Die Liste mit Verhaltensempfehlungen ist lang.
  • In vielen Restaurants, Cafés, Eisdielen, Kiosk suchst du vergebens nach glutenfreien Nahrungsmitteln. Spontan ein Eis in der Fußgängerzone essen- nahezu aussichtlos.
  • Glutenfreie Produkte sind in der Regel nicht frisch, es handelt sich um abgepackte Lebensmittel die vor dem Verzehr aufgebacken werden müssen. Es gibt aber glücklicherweise erste glutenfreie Bäcker, vor allem in den Großstädten (z. B die Jute- Bäckerei in Berlin oder Martinas Brotgefühle in Leipzig). Ich habe beide ausprobiert, die Produkte sind super lecker, frisch und 100% glutenfrei!
Was sind winterharte Pflanzen? Definition, Erklärung und Übersicht


Wer einen etwas genaueren Blick auf die Etikette vieler Pflanzen wirft, der wird dort auf den Begriff „winterfest“ stoßen. Schnell stellt sich die Frage, welche Eigenschaften Pflanzen nach dieser Definition wirklich mitbringen müssen, um dieses Siegel tragen zu dürfen. Was genau sich hinter dem Begriff verbirgt, welche Bedeutung er hat und welche Auswirkungen für den typischen Gärtner damit verbunden sind, das wollen wir in diesem Beitrag genauer unter die Lupe nehmen.

Definition: Was sind winterharte Pflanzen?

An und für sich handelt es sich beim Begriff „winterhart“ um eine relative Größe. Dies bedeutet, dass etwa die geographische Lage einen Einfluss darauf hat, welche Gewächse wirklich als winterhart bezeichnet werden können. Auf der anderen Seite fallen unter den Begriff verschiedene definitorische Größen. So leitet sich die Winterhärte zum Beispiel von Temperatur, Bodenart, Wasserversorgung, Luftfeuchtigkeit oder Sonneneinstrahlung ab. All diese Elemente müssen gegeben sein, damit eine Pflanze auch unter den Bedingungen des regionalen Winters zurechtkommen kann.

Was den Begriff so kompliziert macht, sind nicht zuletzt die verschiedenen Abstufungen. In unterschiedlichen Graden werden auch diese von den Händlern benutzt. So zum Beispiel die Bezeichnung „bedingt winterhart“. Diese gilt für jene Gewächse, die zwar den Winter draußen überstehen können, aber nur, wenn zuvor einige Vorkehrungen getroffen werden. Ein genauer Blick auf die jeweilige Definition ist also entscheidend, um im Anschluss die richtige Entscheidung im Sinne der Pflanzen treffen zu können.

Welche Pflanzen sind winterhart?

Letztlich gibt es eine ganze Reihe von Gewächsen, die als winterhart bezeichnet werden können. Dazu zählen auf der einen Seite Kräuter wie zum Beispiel Salbei, Minze oder Thymian. Auf der anderen Seite gibt es diverse Obstbäume, denen der Winter nichts anhaben kann. Doch nicht nur die Pflanzen in dieser Größenordnung sind dazu in der Lage, der kalten Jahreszeit zu trotzen.

Zugleich gelten einige Gräser, wie zum Beispiel Segge- und Chinaschilfsorten und diverse Stauden und Blumen als Winterhart. Anführen lassen sich in diesem Kontext zum Beispiel die Herbst-Anemonen, Purpurglöckchen, aber auch Christrosen, Kriechender Günsel oder Winterveilchen. Und sogar Primeln können mit in das Spektrum der winterharten Pflanzen aufgenommen werden.

Winterharte Pflanzen und Kübelpflanzen

Winterharte Pflanzen tragen den Vorteil in sich, über den Winter mit gutem Gewissen draußen bleiben zu können. Jedoch ist es kaum möglich, den gesamten Garten allein aus solchen Arten aufzubauen. Jene Pflanzen, die nicht als winterhart bezeichnet werden können, müssen bei fallenden Temperaturen unbedingt in Schutz genommen werden. Bei einigen Arten reicht es zu dem Zweck aus, sie etwas zu isolieren und so vor Wind und Kälte zu schützen. Zum einen bietet sich in dem Kontext die Möglichkeit, zu Luftpolsterfolie zu greifen.

Aus ökologischer Sicht empfiehlt es sich, stattdessen natürliches Reisig zu verwenden. Auch dieses Material kann dicht um den Stamm der Pflanzen geschlagen werden. Auch die Wurzeln sollten vor dem Einfrieren in der Erde auf jeden Fall geschützt werden. Auf diesem Wege ist es möglich, die notwendigen Bedingungen für die Beständigkeit während der kalten Jahreszeit zu schaffen.

Sollte dies noch nicht ausreichen, um die Pflanzen zu schützen, müssen sie außerdem in einen Unterschlupf gebracht werden. Ein einfaches Unterfangen ist dies natürlich nur bei Kübelpflanzen, die einfach verschoben werden können. Der Blumenkübel sollte für diesen Zweck die ausreichende Größe haben, aber trotzdem gut zu manövrieren sein. Eine gute Übersicht über die verschiedenen verfügbaren Angebote ist hier auf dieser Seite zu finden.

Für die Überwinterung ist es von Vorteil, wenn ein ausreichend großes Gartenhaus zur Verfügung steht. Experten raten dazu, dieses mit einem stabilen Regal auszustatten. So ist es selbst auf einer begrenzten Grundfläche möglich, sehr viele Pflanzen sicher durch den Winter zu bringen. Steht diese Option nicht zur Verfügung, rückt der Keller als Alternative in den Blickpunkt. Der lange Weg dorthin und die Kräfte, die dementsprechend auf die Pflanzen wirken, können jedoch ein Risiko darstellen. In jedem Fall sollte es sich um eine kühle Räumlichkeit handeln. Ansonsten besteht das Risiko, dass die Temperaturschwankungen für sensible Pflanzen zu hoch werden.

Trockenheit als Gefahr des Winter für Pflanzen

Zu den größten Gefahren, denen die Pflanzen in der kalten Jahreszeit zu trotzen haben, zählt die Trockenheit. Dies gilt vor allem dann, wenn ein frostiges Wetter vorherrscht und der Boden in diesem Zuge sogar gefriert. Trotzdem kann aber die Sonne auf die zarten Pflanzen scheinen. Sie verdunsten somit in der Wintersonne Wasser, können dieses aber aufgrund des gefrorenen Bodens nicht wieder aufnehmen.

Aus dem Grund ist es besonders wichtig, die Pflanzen mit ausreichend Wasser zu versorgen. Was in den Wintermonaten erst einmal als überflüssig erscheint, kann der entscheidende Beitrag zu ihrem Überleben sein. Sobald die Temperaturen etwas wärmer werden, ist eine ausreichende Zufuhr von Flüssigkeit von entscheidender Bedeutung. Ansonsten droht selbst jenen Pflanzen das Aus, die der klirrenden Kälte bis dato noch gut trotzen konnten. Zu vermeiden ist eine zu hohe Feuchtigkeit, die sich gerade bei gefrorenem Boden als Staunässe äußert.

Wie schütze ich mich im Internet vor Hackerangriffen? Tipps, Anleitung, Erklärung


Trojaner, Würmer, Viren und andere Schadsoftware zählen mittlerweile zu den täglichen Gefahren im Internet. Allein im letzten Jahr gab es weltweit mehr als 30 Milliarden Hacker-Angriffe, die darauf abzielten die Daten von Internetnutzern auszuspähen. So ist es umso wichtiger geworden sich mit den entsprechenden Vorbeugemaßnahmen gegen Cyber-Attacken zu schützen. Hier gibt es ganz unterschiedliche Möglichkeiten, um den Datenschutz und die Sicherheit im Internet zu erhöhen.

Das Bundesamt für Sicherheit in der Informationstechnik ruft schon seit vielen Jahren dazu auf den Datenschutz zu verbessern. Leider nehmen immer noch viele Internetnutzer die Gefahren im Bereich der Cyberkriminalität auf die leichte Schulter, so dass die meisten Systeme hierzulande gar nicht oder nur unzureichend geschützt sind. Wer häufig und regelmäßig im Internet surft, trägt auch selbst die Verantwortung dafür seine persönlichen Daten vor Hackerangriffen zu schützen. Vor allem durch die Coronakrise haben viele Menschen ihren Alltag zunehmend in den Online-Bereich verlegt. Die Zahl der Online-Einkäufe und Freizeitaktivitäten im Internet sind rapide nach oben geschnellt, so dass es derzeit umso wichtiger ist verschiedene Sicherheitslücken zu schließen. Denn der Verlust von persönlichen Informationen wie Kontodaten, Passwörter oder vertraulichen Dokumenten kann schnell einen Schaden im fünfstelligen Bereich anrichten.

Deshalb ist es für Internetnutzer heutzutage unabdingbar geworden ihr Computersystem vor den Gefahren im Internet zu schützen. Wir zeigen Ihnen wie es funktioniert. So stehen Ihnen im Folgenden eine Reihe von sehr nützlichen Tipps und Tricks zur Verfügung, um ein Computersystem deutlich besser vor Angriffen von Cyberkriminellen zu sichern.

4 Tipps für mehr Schutz im Online-Bereich / Schutz vor Cyber-Angriffen

  1. regelmäßig Updates installieren
  2. verschiedene und sichere Passwörter erstellen
  3. einen hochwertigen Virenschutz installieren
  4. seine Daten nicht zu leichtfertig preisgeben

Zusatz: das Heimnetzwerk richtig absichern

1. Regelmäßig Updates installieren

Kein Betriebssystem ist von Anfang an perfekt – die Programmierer von Microsoft arbeiten deshalb regelmäßig an der Optimierung des Systemschutzes und ermöglichen es Computeranwendern so für mehr Sicherheit zu sorgen. Doch vernachlässigt der größte Teil aller Computeranwender hierzulande die Installation von Updates. Die meisten Updates dienen dazu aufgedeckte Sicherheitslücken zu beheben. Ebenso werden Computersysteme durch verschiedene Updates vor neu entwickelten Viren und Trojanern geschützt. Deshalb gilt es das Computer-Betriebssystem regelmäßig nach Updates zu durchsuchen und diese auch zu installieren. Dabei gelingt es auch solche Updates ganz automatisch zu installieren. Unter der Windows-Rubrik ‚Einstellungen‘ lässt sich die automatische Suche und Installation von Updates aktivieren. Auf diese Weise wird es möglich für deutlich mehr Sicherheit zu sorgen.

2. Jedes Passwort nur einmal verwenden

Es ist zwar mit etwas Aufwand verbunden, doch ist es sinnvoll für verschiedene Accounts im Internet verschiedene Passwörter zu verwenden. Um ein Chaos, bei der Erstellung von verschiedenen Passwörter zu vermeiden, lohnt sich ein Blick auf die Plattform von it-jobs.de. Die IT-Experten geben Internetnutzern in ihrem Blog verschiedene Hilfestellungen, um sich verschiedene Passwörter zu merken. Ebenso sollte man darauf achten ausschließlich ein komplexes Passwort zu verwenden, um Hackern das Ausspähen von Kundendaten möglichst schwer zu machen. So empfiehlt es sich ein Passwort aus mindestens zehn verschiedenen Zeichen zu verwenden. Darunter sollten neben Buchstaben, Zahlen, auch einige Sonderzeichen enthalten sein. Umso willkürlicher das Passwort gewählt wird, desto besser. Denn zu einfache Passwörter wie der Name, das Geburtsdatum oder der Wohnort lassen sich viel zu einfach von Cyberkriminellen knacken. Auch, wenn jeder Internetnutzer im Durchschnitt 20 verschiedene Accounts im Internet besitzt, sollte jedes Passwort nur ein einziges Mal verwendet werden. Hier können sich verschiedene Passwortmanager lohnen, um sich alle Passwörter merken zu können. Auf keinen Fall sollten die Passwörter für verschiedene Konten im Internet in einer Word-Datei abgespeichert werden. Kommen Hacker in den Besitz dieser Datei, wird Ihnen Tür und Tor für sämtliche Zugänge in der virtuellen Welt geöffnet.

3. Virenprogramme und Firewalls sorgen für zusätzlichen Schutz im Internet

Ein Virus oder ein Trojaner kann schon mit dem Öffnen einer E-Mail oder dem Aufrufen einer dubiosen Webseite auf den Computer gelangen. Um dies zu verhindern, gilt es zu hochwertigen Virenprogrammen und Firewalls zu greifen. Auch, wenn hochwertige Virenprogramme meistens nicht kostenlos sind, lohnt es sich auf diese Schutzprogramme zu setzen. Eine Firewall sorgt dabei zusätzlich für einen besseren Schutz vor Trojanern und Viren im Internet. Denn eine Firewall erkennt schädliche Dateien sofort und bildet eine Art Schutzmauer, die das Eindringen von Trojanern und Viren auf dem PC-System verhindert.

4. Die Eingabe von sensiblen Daten mit Bedacht durchführen

Es müssen nicht immer hochkomplexe Computerprogramme sein, um für einen besseren Datenschutz und mehr Anonymität im Internet zu sorgen. Demnach lässt sich die Sicherheit auch deutlich verbessern, wenn man mit persönlichen Daten behutsam umgeht. Wer seine Daten auf diversen Social Media Plattformen und im Internet auf ganz verschiedenen Webseiten verteilt, braucht sich nicht zu wundern, wenn Hacker dies ausnutzen. Demnach gilt es nicht blind überall seine persönlichen Daten einzugeben. Wer zu fahrlässig mit seinen Kontodaten, seiner Wohnadresse oder Handynummer umgeht, gerät schnell in das Visier von Cyberkriminellen. Demnach sollte man seine Daten nur dann eingeben, wenn es wirklich notwendig ist. Auch beim Einkauf im Internet, wo es zwingend erforderlich ist seine Daten preiszugeben, um die Waren zu bezahlen und auch nach Hause geliefert zu bekommen, gilt es auf eine verschlüsselte Verbindung des Online-Shops zu achten. Dies erkennen Internetnutzer schnell und einfach am ‚grünen Schloss‘ welches sich neben der Adresszeile im Browser befindet.

Was ist ein mRNA-Impfstoff? Wie funktioniert er? Erklärung, Bedeutung, Definition


Ein RNA- oder auch mRNA- (Messenger-RNA) Impfstoff ist eine neue Art von Impfstoff, der Fragmente der viralen mRNA (Ribonukleinsäure) in menschliche Zellen einschleust, die so umprogrammiert werden, dass sie Pathogenantigene (wie virale Proteinspikes oder Krebsantigene) produzieren, die dann eine adaptive Immunantwort gegen den Erreger stimulieren.

Zu den wichtigsten Vorteilen von RNA-Impfstoffen gegenüber herkömmlichen Proteinimpfstoffen gehören vor allem die potenziell höhere Produktionsgeschwindigkeit bei geringeren Kosten sowie die Induktion zellulärer und humoraler Immunität. Die relativ hohe Fragilität des mRNA-Moleküls erfordert jedoch eine möglichst ununterbrochene und konstante Kühlkette bei der Verteilung sowie Lagerung bei niedrigen Temperaturen und kann die effektive Wirksamkeit aufgrund unzureichender Dosierung beeinträchtigen.

Obwohl die RNA-Produktion „in vitro“ (außerhalb eines Organismus) mit anschließender Translation „in vivo“ (in einem Organismus) bereits 1990 erstmals beschrieben und RNA-Impfstoffe schon 1994 bei Mäusen verwendet wurden, waren mRNA-Impfstoffe für den Einsatz bei Menschen noch zu Beginn des Jahres 2020 nahezu exklusiv Gegenstand lediglich experimenteller und theoretischer Erörterung und Forschung.

Durch die globale Corona-Pandemie erleben mRNA-Impfstoffe eine Renaissance

Doch im Verlauf sowie unter dem Eindruck der ab März/April 2020 global grassierenden Corona- bzw. COVID-19-Pandemie wird dem Einsatz von mRNA-Impfstoffen zur möglichst mittel- und langfristigen oder gar permanenten Immunisierung anhand der Einschleusung von Antigen-mRNA in die Zellen (Transfektionsreagenz) gegen diese sowie weitere virale Infektionskrankheiten weltweit viel Beachtung geschenkt und Bedeutung beigemessen. Im Moment (November 2020) warteten zwei neue mRNA-Impfstoffe auf die Notfallzulassung als COVID-19-Impfstoffe: Namentlich sind dies „MRNA-1273“ aus den Laboren des US-amerikanischen Biotechnologieunternehmen „Moderna“ und „BNT162b2“ als das Ergebnis der Kooperation zwischen dem deutschen Pionier für Immuntherapien „BioNTech“ mit Sitz in Mainz sowie dem in New York City (USA) ansässigen Pharmakonzern „Pfizer“.

Obwohl die beabsichtigte und forcierte schnelle Zulassung beider Präparate angesichts der relativ kurzen Entwicklungsphase und nur lückenhaften Datenlage von vielen Wissenschaftlern und Medizinern rund um den Globus recht kritisch und kontrovers beurteilt wird, weisen sie jedoch in bisherigen Studien jeweils deutlich über 90 Prozent Wirksamkeit auf und werden somit als äußerst vielversprechend eingestuft.

Siehe: Was ist ein Immunitätsausweis?

mRNA-Impfstoff-Entwicklung: Selten wurde die Entwicklung von neuen Impfstoffen so schnell vorangetrieben

Während „Moderna“ bereits im Januar 2020 die Entwicklung seines Impfstoffs „MRNA-1273“ zur Induktion von Immunität gegen SARS-CoV-2 ankündigte und die Phase I-Humanstudie in Partnerschaft mit dem „US National Institute of Allergy and Infectious Diseases“ und „U.S. Department of Health and Human Services“ im März 2020 begann, folgten „BioNTech“ und „Pfizer“ mit der öffentlichen Bekanntgabe von „BNT162b2“ erst im April desselben Jahres. Beide Unternehmen haben seither Millionen von staatlichen Fördergeldern erhalten und auch der jeweilige Aktienkurs ist im Verlauf des Jahres 2020 deutlich und teils sprunghaft gestiegen.

Nach ihrem Abschluss der Phase II-Humanstudie im Oktober 2020 („Moderna“) bzw. November 2020 („BioNTech“) durchlaufen die beiden Impfmittel zurzeit die entsprechende Phase III mit jeweils 30.000 Probanden. Erkenntnisse aus den vorherigen Phasen klassifizieren „BNT162b2“ als ein stark RBD-bindendes Immunglobulin G, dessen neutralisierende Antikörperreaktion sieben Tage nach einer Boosterdosis ihren Höhepunkt erreicht sowie robuste Reaktionen der CD4+- und CD8+-T-Zellen und noch unbestimmte Haltbarkeit aufweist.

Bislang bekannte und unerwünschte Nebenwirkungen sind Schmerzen an der Injektionsstelle, Müdigkeit und Kopfschmerzen sowie Schüttelfrost, Muskel- und Gelenkschmerzen und Fieber. Gleiches gilt für „MRNA-1273“, wobei hier die neutralisierende Antikörperreaktion nach einem Zwei-Dosis-Schema erfolgt.

mRNA-Impfstoff: Beim weltweiten Wettlauf gegen COVID-19 liegen momentan zwei Firmen gleichauf

Ebenfalls auf dem zu Grunde liegenden Prinzip einer mRNA (Boten-RNA) beruhen die weiteren COVID-19-Impfstoffkandidaten „CVnCoV“ des deutschen biopharmazeutischen Unternehmens CureVac in Zusammenarbeit mit der globalen „Coalition for Epidemic Preparedness Innovations (CEPI)“, „Lunar-COV19/ARCT-021“ des US-amerikanischen Unternehmens „Arcturus Therapeutics“ und „LNP-nCoVsaRNA“ vom „Medical Research“ Council am „Imperial College London“ sowie ein nicht namentlich benanntes Präparat, das seit Juni 2020 an der chinesischen Militärakademie „PLA Academy of Military Science“ in Peking entwickelt wird. Alle diese Präparate befinden sich aber noch in der Phase I oder II der Erprobung und mit der eventuellen Marktreife sowie Einführung wird erst in den Jahren 2021 oder 2022 gerechnet. Diese Umstände machen die weiter oben bereits mehrfach genannten Impfstoffe „MRNA-1273“ und „BNT162b2“ aktuell zu den wichtigsten, weil am weitesten entwickelten Impfstoffkandidaten gegen Corona/COVID-19.

Der momentan noch größte Unterschied zwischen beiden Präparaten besteht laut Berichten und Meldungen in der für die zuverlässige Haltbarkeit notwendigen Mindesttemperatur, die bei „MRNA-1273“ nur 2 bis 8 Grad Celsius, bei „BNT162b2“ jedoch minus 70 Grad Celsius beträgt.

mRNA-Impfstoff: Entscheidend bei der Therapie ist die exakte Zielgenauigkeit an die jeweiligen Zellen

mRNA-Moleküle in voller Länge wurden wie weiter oben erwähnt schon seit Beginn der Biotech-Ära um das Jahr 2000 herum als effektive Therapeutika diskutiert, aber bis in die 2010er-Jahre und der sukzessiven Etablierung der genannten Pioniere „Moderna“ und „BioNTech“ blieben die praktischen Fortschritte in der Forschung jedoch begrenzt und überschaubar. Theoretisch kann also die verabreichte mRNA-Sequenz eine Zelle dazu veranlassen, ein Protein herzustellen, das wiederum direkt eine Krankheit behandeln oder auch als Impfstoff funktionieren kann, indirekt könnte das Protein die körpereigene Stammzelle dazu bringen, sich in der gewünschten Weise zu differenzieren. Die primären Herausforderungen der RNA-Therapie bestehen darin, die RNA an die gerichteten Zellen zu liefern, mehr noch als in der Bestimmung der zu liefernden Sequenz. Nackte RNA-Sequenzen werden nach der Vorbereitung auf natürliche Weise abgebaut. Sie können das körpereigene Immunsystem dazu veranlassen, sie als Eindringling anzugreifen und sie sind undurchlässig für die Zellmembran. Einmal in der Zelle angekommen, müssen sie dann den Transportmechanismus der Zelle verlassen, um im Zytoplasma zu agieren, das die Ribosomen beherbergt, die die Herstellung von Proteinen steuern.

mRNA-Impfstoffe nutzen Zellen zur Antigenproduktion und fördern die Immunität

mRNA-Impfstoffe funktionieren auf eine völlig andere Art und Weise als herkömmliche Impfstoffe. Herkömmliche Impfstoffe stimulieren eine Antikörperreaktion durch die Injektion von Antigenen (Proteinen oder Peptiden) oder eines abgeschwächten Virus oder eines rekombinanten Antigen-codierenden viralen Vektors in einen Menschen. mRNA-Impfstoffe injizieren ein Fragment der RNA-Sequenz eines Virus direkt in die Zellen, die dann umprogrammiert werden, um die viralen Antigene zu produzieren, die dann eine adaptive Immunantwort stimulieren, was zur Produktion neuer Antikörper führt, die an das Antigen binden und T-Zellen aktivieren, die spezifische Peptide erkennen, die auf MHC-Molekülen präsentiert werden. mRNA-Vakzine beeinflussen die DNA innerhalb der Zelle nicht – das mRNA-Fragment ist ein spezifisches Stück der Virus-RNA, das die Instruktionen trägt, das Antigen des Virus zu bauen. Ein Vorteil von RNA-Vakzinen ist, dass die Antigene innerhalb der Zelle produziert werden und dadurch die zelluläre und humorale Immunität stimulieren. Im Gegensatz zur DNA ist mRNA jedoch ein zerbrechliches Molekül, welches in einer exponierten Umgebung innerhalb von Minuten abgebaut wird, weshalb mRNA-Impfstoffe bei sehr niedrigen Temperaturen gelagert werden müssen. Außerhalb der menschlichen Zelle wird mRNA auch vom menschlichen Körper schnell abgebaut.

Diese Fragilität des mRNA-Moleküls ist eine Hürde für die langfristige Wirksamkeit eines RNA-Impfstoffs, die dazu führen könnte, dass die Menschen glauben und so tun könnten, als seien sie immun, wenn sie es nicht sind und so infiziert werden.

Vorteile und Funktionsweise mRNA-Impfstoff

RNA-Impfstoffe bieten eine Reihe spezifischer Vorteile gegenüber herkömmlichen Protein-Impfstoffen. Da RNA-Impfstoffe nicht aus aktiven oder inaktivierten Erregern hergestellt werden, sind sie nicht infektiös. Im Gegensatz dazu erfordern herkömmliche Impfstoffe die Produktion von Krankheitserregern, was, wenn dies in großen Mengen geschieht, das Risiko eines lokalen Ausbruchs des Virus in der Produktionsstätte erhöhen könnte. RNA-Impfstoffe können darüber hinaus schneller, billiger und standardisiert hergestellt werden, was die Reaktionsfähigkeit auf Ausbrüche verbessert. Neben der gemeinsamen Nutzung der Vorteile theoretischer DNA-Impfstoffe gegenüber traditionellen Proteinimpfstoffen bietet die RNA-Impfung weitere Vorteile.

Die mRNA wird im Zytosol translatiert. Daher ist es nicht notwendig, dass die RNA in den Zellkern gelangt und das Risiko der Integration das Wirtsgenom wird somit abgewendet. Modifizierte Nukleoside können in die mRNA eingebaut werden, um die Stimulation der Immunantwort zu unterdrücken und eine sofortige Degradation zu vermeiden und mit erhöhter Translationskapazität eine bessere Wirkung zu erzielen. Der offene Leserahmen (OLR) und die unübersetzten Regionen (UTR) können für verschiedene Zwecke optimiert werden (Sequenz-Engineering), etwa durch Anreicherung des Guanin-Cytosin-Gehalts oder durch Auswahl spezifischer UTRs zwecks Erhöhung der Translation. Eine zusätzliche Leserahmen-Kodierung für einen Replikationsmechanismus kann hinzugefügt werden, um die Antigentranslation und damit die Immunantwort zu verstärken, wodurch die Menge des benötigten Ausgangsmaterials verringert wird.

Wie funktioniert Homeschooling? Erklärung, Bedeutung, Definition


„Homeschooling“ ist die englische Bezeichnung für Heimunterricht.

Hoomschooling ist in Deutschland eigentlich verboten.

Beim Homeschooling bzw. Heimunterricht sind die Eltern für die Teil-Schulausbildung ihrer Kinder verantwortlich. Es liegt in der Verantwortung der Eltern einen Arbeitsplatz und Stundenplan für das Kind einzurichten.

Was ist Homeschooling? Bedeutung, Definition, Erklärung

Ein Kind hat dann das Recht, nicht nur aus gesundheitlichen Gründen zu Hause zu lernen. In einigen Ländern ist es gar nicht so schwer das zu arrangieren. Unterricht, Pausen, Hausaufgaben, die strenge Stimme des Lehrers. Ohne all das sind Schuljahre kaum vorstellbar. Aber moderne Eltern entscheiden sich zunehmend für Outschooling oder Lernen außerhalb der Schulmauern. Es gibt keine offiziellen Statistiken zum Homeschooling. Das Kind kann die Schule ganztägig oder nur halbtags besuchen. Und außerhalb der Institution gibt es in manchen Ländern die Bildung als Form der Familienerziehung und Selbstbildung.

Wenn ein Kind eine Ausbildung in einer Organisation erhält – ob Vollzeit oder Teilzeit -, ist die Schule zusammen mit den Eltern für es verantwortlich. Und wenn die Option außerhalb der Institution gewählt wird, liegen alle Verpflichtungen nur bei der Familie.
Der Begriff Homeschooling umfasst alle Formen, in denen ein Kind zumindest einen Teil der Zeit außerhalb der Schule lernt.

Fernstudium

Das Kind geht nicht in die Einrichtung und arbeitet selbständig – mit Hilfe von Online-Ressourcen oder Privatlehrern. Darüber hinaus ist es als Schüler der Schule aufgeführt. Dies bedeutet, dass die Eltern den Lehrplan genau befolgen müssen. Sie können das auf der Grundlage der Bildungsstandards entwickelte Programm nicht ändern oder eine Klasse überspringen. Und die Lehrbücher, die von der Bibliothek bereitgestellt werden, sollten genutzt werden.

Die Zertifizierung erfolgt planmäßig, in der Schule oder per Fernzugriff. Einige Leute verwechseln Fernunterricht mit der Selbstbildung.
Im ersten Fall erhält das Kind selbst Wissen, und die Schule kontrolliert und führt es. Im zweiten Fall muss das Kind vieles selbst machen. Dies ist nur möglich, wenn der Schüler schwer krank oder körperlich nicht in der Lage ist, am Unterricht teilzunehmen.

Teilzeitausbildung

Das Kind kommt nur zu einem Teil des Unterrichts, nach Wahl der Eltern. Den Rest der Zeit lernt es zu Hause. Für den Schüler wird ein individueller Lehrplan erstellt, dabei darf er beispielsweise drei Tage die Woche zur Schule gehen oder nur bei einem bestimmten Fach anwesend sein. Die Zertifizierung muss im Unterricht mit anderen Kindern erfolgen.
Wenn ein Kind schwer krank ist, können die Lehrer es manchmal selbst besuchen. Diese Option wird als Heimunterricht bezeichnet, wird jedoch selten praktiziert und nicht als separate Bildungsform betrachtet.

Die Familienerziehung

Die Familie bringt das Kind nicht zur Schule und unterrichtet es alleine.
Eltern wählen das Programm. Sie entscheiden unabhängig darüber, welche Lehrmittel und Online-Ressourcen das Kind benutzen soll. Sie können es in einem Bildungszentrum oder in einer alternativen Schule (Montessori, Waldorf usw.) einschreiben oder Tutoren einstellen. Die Zertifizierung kann persönlich, in der Schule oder per Fernzugriff erfolgen. Unschooling kann als eine Art Familienerziehung angesehen werden. In dieser Form der Erziehung ist das Kind nicht an die Schule gebunden und folgt nicht dem Programm, auch nicht von den Eltern. Das Kind liest Bücher, die für es interessant sind, studiert die Welt um sich herum und beschäftigt sich mit Kreativität.

In einigen Ländern werden bei der Wahl dieser Form höchstwahrscheinlich Schwierigkeiten auftreten.

In der Praxis könnten die Vormundschaftsbehörden jedoch an Familien interessiert sein, die ihre Kinder nicht zur Schule geschickt haben. Darüber hinaus ist es für solche Schüler schwierig, die Abschlusszertifizierung zu bestehen.

Homeschooling: Die Selbstbildung

Das Kind lernt selbst, ohne die Teilnahme der Schule oder der Eltern. Für wen ist das Homeschooling geeignet? Es kann viele Gründe geben, sich für die Heimschule zu entscheiden. Hier sind einige davon: Der Schüler kann nicht nachkommen, das Programm ist zu schwer oder es ist im Gegenteil zu leicht.

Das Kind hat vielleicht große Schwierigkeiten, mit Gleichaltrigen zu kommunizieren. Oder es ist nur ein schüchterner Schüler, der es viel bequemer hat, alleine zu lernen.

Das Kind hat Mobbing erlebt und will nicht mehr zur Schule gehen. Es ist professionell an Sport oder Kreativität engagiert.

Der Schüler lebt dort, wo es keine Schulen gibt. Die Familie reist viel und bleibt nicht lange an einem Ort. Die Eltern haben ihre eigene Vorstellung davon, wie und was das Kind lernen soll. Und es stimmt nicht mit der Position der Schule überein.

Hoomschooling: Wer sollte besser nicht zu Hause unterrichten?

Homeschooling kann wie eine Idylle erscheinen. In Wirklichkeit ist dieses Format jedoch nicht für jeden geeignet. Hier sind einige Gründe, dies zu unterlassen:

Das Kind braucht tägliche Kommunikation mit Gleichaltrigen, es langweilt sich zu Hause. Es toleriert keine Isolation. Der Schüler ist sehr unorganisiert und ohne ständige strenge Kontrolle entspannt er sich schnell und weigert sich, etwas zu tun. Beide Elternteile arbeiten viel, sie haben keine Zeit, mit dem Kind zu lernen – schließlich müssen sie mit der Familienerziehung alle Funktionen eines Lehrers übernehmen. Es sei denn, sie sind natürlich bereit, eine große Summe für alternative Schulen oder Privatstunden zu zahlen. Der Familie fehlen die Kraft, Geduld und Lehrfähigkeiten, um den Bildungsprozess zu Hause aufzubauen.

Eltern haben finanzielle Schwierigkeiten. Heimunterricht ist teurer als Schulunterricht, insbesondere wenn es um Familienerziehung geht. Das Kind hat nicht die richtigen Bedingungen, um außerhalb der Schule zu lernen. Zum Beispiel ein kleiner Wohnraum, viele Brüder und Schwestern unterschiedlichen Alters, es ist laut und unruhig zu Hause.

In einigen Ländern geht man so vor:

Die Eltern informieren die Schulverwaltung. Es ist notwendig, einen Antrag zu stellen, wenn das Kind auf eine Teilzeitausbildung umsteigt. Es ist besser, dies vor Beginn des Schuljahres zu tun – damit der Direktor Zeit hat, sich vorzubereiten, Änderungen vorzunehmen und das Bildungsministerium über die Entscheidung zu informieren. Fernstudenten sind leider nicht überall willkommen. Für die Einrichtung bedeutet dies zusätzliche Schwierigkeiten, denn wenn der Schüler die Zertifizierung nicht besteht, werden die Lehrer und der Direktor verantwortlich gemacht.

Homeschooling: Situation in Deutschland, EU und USA

In einigen Staaten ist Homeschooling erlaubt. Zum Beispiel in Amerika. Es war jedoch nicht immer so. Homeschooling wurde dort erst seit 1993 legal, sogar in allen Bundesstaaten.

In Deutschland sieht es damit ganz anders aus – Homeschooling ist hier seit 1919 verboten.

In der Europäischen Union zählt Deutschland zu den wenigen Ländern, in denen eine Schulpflicht existiert und nicht nur die allgemeine Bildungspflicht. Die Kinder müssen hier unbedingt in eine Schule gehen.

Die Vollzeitschulpflicht gehört zur Ländersache. Sie dauert neun oder zehn Jahre. Danach spricht man in Deutschland noch von einer Berufsschulpflicht, die meistens bis zu dem 18. Lebensjahr folgt.

Die Eltern (oder Kinder) dürfen gegen die Schulpflicht nicht verstoßen. Homeschooling ist auf keinen Fall in Deutschland praktizierbar. Wer eine Schulverweigerung begeht, muss natürlich mit bestimmten Konsequenzen rechnen. Kommt es doch zu dem Verstoß gegen die Schulpflicht, ist die Angelegenheit als ordnungswidrig anzusehen und der Schuldige muss Bußgeld zahlen. Aber so manche Bundesländer (z.B. Saarland, Hamburg, Hessen) reagieren in solchen Fällen mit einer strafrechtlichen Verfolgung. Es werden Freiheitsstrafen verhängt, die bis zu sechs Monaten dauern.

Einschränkung für die freie Entwicklung befürchtet

Nicht alle Eltern in Deutschland sind mit der Schulpflicht zufrieden. Sie möchten sich von dem Einfluss des Staates befreien, weil eine Einschränkung für die freie Entwicklung befürchtet wird. Außerdem sind sie der Meinung, dass das Kind schon bald seine Freude am Lernen verliert.
Es gibt noch viele andere Punkte, warum die Eltern in Deutschland auch gerne Homeschooling praktiziert hätten. Oft sind es religiöse, ethische oder pädagogische Gründe. Die Kritiker des Heimunterrichts haben aber ihre Argumente. Sie sind der Ansicht, dass durch das Homeschooling eine Parallelgesellschaft entsteht. Die Kinder bekommen keine Chance, mit Gleichaltrigen zu diskutieren, mit Andersdenkenden die Meinung auszutauschen.

Was ist Haltungsjournalismus? Bedeutung, Definition, Erklärung


Als Haltungsjournalismus wird ein Journalismus bezeichnet bei dem ein Journalist objektive Fakten mit seiner subjektiven Meinung vermischt.

Was ist Haltungsjournalismus? Bedeutung, Definition, Erklärung

Beim Haltungsjournalismus werden die journalistischen Darstellungsformen „Bericht“ und „Kommentar“ miteinander vermischt. Während ein Bericht (Berichterstattung) objektiv und neutral sein sollte, darf ein Kommentar subjektiv sein und als Inhalt die Meinung des Journalisten haben. Bei einem Bericht sollte gesagt werden, was ist. Bei einem Kommentar darf das was ist, bewertet werden.

Für sauberen Journalismus gilt, dass ein Kommentar als Kommentar gekennzeichnet wird, damit Leser oder Zuschauer erkennen, dass sie gerade die Meinung eines Journalisten aufnehmen. Der sich äußerende Journalist wird meist mit Namen und Bild neben seinem Kommentar gezeigt.

Haltungsjournalismus: Kritik, Bedeutung, Erklärung

Wird Journalismus als Haltungsjournalismus kritisiert, so wird kritisiert, dass ein Journalist seine subjektive Meinung als objektive Berichterstattung verkauft, ohne dies dem Leser, Zuschauer oder Zuhörer kenntlich zu machen. Damit kann dem Journalisten vergeworfen werden, dass er täuscht und eigentlich kein Journalist ist, sondern vielmehr Aktivist. Ferner führt dies dazu, dass das Vertrauen in Journalisten und journalistische Produkte sinkt.

Weiterhin dient der Ausdruck „Haltungsjournalismus“ als Vorwurf, dass ein Journalist Fakten subjektiv interpretiert und uminterpretiert, so dass sie einer Mehrheitsmeinung oder anderen Journalisten gefallen.

Beim Haltungsjournalismus verliert ein Journalist seine Unabhängigkeit, Überparteilichkeit und Objektivität. Er beginnt die Welt in gut und schlecht einzuordnen. Hierbei macht er sich selbst zum Maßstab. Davon profitieren die einen, benachteiligt werden andere.

Haltungsjournalismus wird auch als Meinungsmache bezeichnet.

Beim Thema „Haltungsjournalismus“ stellen sich verschiedene Fragen:

  • Können Journalisten immer völlig neutral sein?
  • Müssen Journalisten immer neutral berichten?
  • Sind Journalisten bei ihrer Berichterstattung bestimmten Werten verpflichtet?
  • Wo hört Berichterstattung auf, wo fängt eine Meinung an?

Anmerkung der Redaktion: Totale Neutralität und 100 Prozent Objektivität kann es nie geben. Denn Sprache an sich ist immer einseitig und subjektiv. (Beispiel: Für die einen sind manche Menschen Terroristen. Für andere sind sie Freiheitskämpfer.) Es kann aber Journalismus geben, der versucht unaufgefragt, vielseitig und sachlich Ereignisse darzustellen. Es kann Journalismus geben bei dem sich ein Journalist nicht mit einer Sache gemein macht, sondern kritisch bleibt.

Jedoch gilt grundsätzlich, dass die Einseitigkeit beim Journalismus schon bei der Themenauswahl anfängt. Da Sendezeit und Textplatz begrenzt ist, muss eben entschieden werden, welche Themen bearbeitet und wie sie präsentiert werden.

Haltungsjournalismus: Fazit und Bedeutung

Fazit: Haltungsjournalismus sollte als Haltungsjournalismus gekennzeichnet werden. Neben dem Haltungsjournalismus sollte auch ein Journalismus angeboten werden, der objektiv und sachlich bericht, sowie die journalistische Darstellungsform „Bericht“ wirklich einhält. Beide Angebote sollten gemacht werden, damit unterschiedliche Sichtweisen möglich sind. Was Leser, Zuschauer oder Zuhörer am Ende wahrnehmen, bleibt diesen überlassen.

Was ist der pandemische Imperativ? Bedeutung, Definition, Erklärung


Der Virologe Christian Drosten formuliert den pandemischen Imperativ wie folgt: „Handle in einer Pandemie stets so, als seist du selbst positiv getestet, und Dein Gegenüber gehört einer Risikogruppe an.“

Die Idee eines pandemischen Imperativs leitet sich vom kategorischen Imperativ des deutschen Aufklärungsphilosophen Immanuel Kants ab. Immanuel Kant formulierte den kategorischen Imperativ wie folgt: „Handle nur nach derjenigen Maxime, von der du wollen kannst, dass sie ein allgemeines Gesetz werde!“ Der kategorische Imperativ dient als eine allgemeingültige Regel und Grundlage für moralisch gutes Verhalten.

Was ist der pandemische Imperativ? Bedeutung, Definition, Erklärung

Der pandemische Imperativ ist eine allgemeingültige Verhaltensregel, damit Menschen sich in und während einer Pandemie Virus-eindämmend und nicht Virus-verbreitend verhalten. Denn der pandemische Imperativ hält Menschen dazu an, dass sie sich so verhalten, dass sie einen Virus nicht absichtlich oder unabsichtlich verbreiten.

Wer den pandemischen Imperativ befolgen will, sollte sich einfach an die empfohlenen Verhaltensweisen halten:

Würden sich alle Menschen an den pandemischen Imperativ halten, so würde die Ausbreitung eines Virus stark verlangsamt. Dies hat zur Folge, dass weniger Menschen erkranken und das Gesundheitssystem vor Überlastung geschützt wird. (Darum geht es nämlich! Benötigen zu viele Menschen auf einmal intensivmedizinische Betreuung kommen die Krankenhäuser schnell an ihre Belastungsgrenzen. In solch einem Fall müssen Ärzte entscheiden, wer behandelt werden soll und wer nicht. Das würde bedeuten, dass Menschen, die Intensivmedizin benötigen, diese nicht erhalten würden. Siehe: Flatten the Curve)

Der pandemische Imperativ gilt nur während einer Pandemie. Vor und nach einer Pandemie gilt der pandemische Imperativ nicht.

Pandemischer Imperativ: Folgen und Verhalten

Der pandemische Imperativ kann im Sinne des kategorischen Imperativs zu folgendem Verhalten führen:

  • Ich halte Abstand zu anderen und wünsche, dass andere Abstand zu mir halten.
  • Ich trage Maske und wünsche, dass andere auch Maske tragen.
  • Ich bleibe vermehrt zu Hause und wünsche, dass andere auch vermehrt zu Hause bleiben.
  • Ich meide Menschenmengen und wünsche, dass andere auch Menschenmengen meiden.
  • Ich meide Kontakte und schränke Besuche ein. Andere sollen auch Kontakte meiden und Besuche einschränken.

Pandemischer Imperativ und Konjunktiv: Bedeutung, Definition, Erklärung

Der pandemische Imperativ kann zum pandemischen Konjunktiv umformuliert werden. Der pandemische Konjunktiv lautet: „Handle in einer Pandemie stets so, als könntest du selbst positiv sein, und Dein Gegenüber könnte immer zu einer Risikogruppe gehören.“

Der pandemische Konjunktiv thematisiert die Ungewissheit und die dauerhafte Möglichkeit, dass man bzw. jeder sich mit dem Corona-Virus infiziert haben könnte, aber nichts davon weiß. Dieses Szenario kann dazuführen, dass jemand unabsichtlich andere mit dem Virus ansteckt.

Kritik am pandemischen Imperativ:

Der pandemische Imperativ kann für gelebte Solidarität, Verantwortung und gegenseitiges Schutzinteresse stehen. Jedoch kann der pandemische Imperativ auch so interpretiert werden, dass jemand sich freiwillig und dauerhaft von der Welt isoliert, in dem er oder sie in Heimisolation geht. (Denn für Corona-positiv Geteste gilt, dass sie in Heimquarantäne gehen müssen.)

Wer den pandemischen Imperativ lebt, müsste davon ausgehen, dass er oder sie ein dauerhaftes Risiko für andere darstellt. Ferner kann der pandemische Imperativ so interpretiert werden, dass ein gelebter pandemischer Imperativ dazu führt, dass Alte, Schwache und Risikogruppen im Allgemeinen von der Gesellschaft isoliert werden.

Der pandemische Imperativ kann auch dazu führen, dass Menschen sich freiwillig in Selbstquarantäne begeben, wenn sie glauben, dass sie Corona-positiv sind. Dies kann gut und schlecht sein. Gut ist dies, wenn (z.B. an Grippe) erkrankte Menschen sich auskurieren und sich nicht zur Arbeit zwingen. Schlecht ist dies, wenn Menschen den pandemischen Imperativ ausnutzen, um z.B. nicht zur Arbeit zu müssen.

Der pandemische Imperativ kann so ausgelegt werden, dass Menschen alle Tätigkeiten – erlaubte wie verbotene – unterlassen sollen. Denn der pandemische Imperativ geht davon aus, dass jeder immer für andere eine Gefahr darstellt. Wer diese Gefahr auf Null reduzieren möchte, muss sich eben isolieren.

Der pandemische Imperativ kann aber auch ins Absurde intepretiert werden: Würden sich alle Menschen freiwillig in Heimisolation begeben, so würde es gar keine Kontakte mehr geben. Dies hätte zur Folge, dass zwar das Virus komplett eingedämmt wird, aber auch dass gar kein Leben mehr stattfindet. (Wo es keine Begegnungen zwischen Menschen mehr gibt, ist auch keine Moral benötigt. Damit würde der pandemische Imperativ sich im Extrem selbst auflösen.)

Hand aufs Herz: Ein kategorischer oder pandemischer Imperativ stellt für das Individuum eine Handlungsgrundlage dar. Der Wunsch, dass alle Menschen sich so verhalten, ist ein Wunsch nach einer utopischen Welt und diese kann es nicht geben.

Fazit: Der pandemische Imperativ ist eine Möglichkeit mit einer Pandemie zu leben. Ob der pandemische Imperativ die moralisch beste Möglichkeit ist, muss geklärt werden.

Weitere Formulierungen für den pandemischen Imperativ

Die Redaktion von BedeutungOnline.de schlägt folgende weitere Formulierung für den pandemischen Imperativ vor:

  • „Handle so, als seist du ein Superspreader, der jederzeit und jederort ein Superspreading-Event auslösen könnte.“
Was bedeutet „postfossil“? Bedeutung, Definition, Erklärung


„Postfossil“ bedeutet, dass auf fossile Brennstoffe, Rohstoffe und Energieträger verzichtet wird.

Konkret bedeutet das Wort „postfossil“ „Zeit nach den fossilen Energieträgern“. (Das lateinisch „post“ bedeutet „nach“.)

Fossile Brennstoffe sind kohlenstoffhaltige Brennstoffe und Energieträger aus längst vergangenen Erdzeitaltern. Konkret sind fossile Brennstoffe Kohle, Erdöl und Erdgas. Bei ihrer Verbrennung wird CO2 freigesetzt.

Ein Synonym zu postfossil ist CO2-frei.

Was bedeutet „postfossil“? Bedeutung, Definition, Erklärung

Über „postfossil“ wird unter anderem in folgenden Kontexten gesprochen:

  • CO2-Ausstoß reduzieren und vermeiden
  • Weg vom Verbrennungsmotor (Verkehrswende)
  • Energiegewinnung sauberer machen (Energiewende)
  • Nachhaltigkeit und Umweltschutz

Postfossile Energiegewinnung und -versorgung bedeutet, dass statt Kohle- und Erdgaskraftwerken Strom und Energie durch Solar- und Windenergie gewonnen werden soll. Damit kann Energie sauberer gewonnen werden und der CO2-Ausstoß kann reduziert werden.

Für den postfossilien Verkehr und die postfossile Mobilität gilt, dass der Verbrennungsmotor zu Gunsten sauberer Technologien aufgegeben werden soll.

Ferner wird auch vom postfossilen Kapitalismus gesprochen. Damit ist ein Kapitalismus gemeint, der nicht auf Erdöl, Erdgas und Kohle aufbaut, aber trotzdem Wachstum ermöglicht.

Beim Thema „postfossil“ geht es aber auch um Ersatzstoffe, so z.B. Stoffe die Erdöl als Rohstoff ersetzen.

„Postfossil“ steht aber auch dafür, dass die industrielle Wachstumsgesellschaft sich weiterentwickelt und das Zusammenleben (und wirtschaften) neugedacht werden kann.

Anlasse für das Thema „postfossil“

Es gibt zwei Anlässe für das Thema „postfossil“:

  • Umweltverschmutzung durch fossile Energieträger
  • Endlichkeit der fossilen Energieträger und Suche nach Ersatz und Alternativen
Wie bleibe ich im Internet anonym? Erklärung


Wir verbringen immer mehr Zeit im Internet. Für die meisten Menschen in Europa vergeht kaum ein Tag, an dem wir nicht mehrere Stunden mit dem Internet verbunden sind. Sowohl privat als auch in der Arbeit: das Internet wird immer wichtiger. Doch welche Daten können Unternehmen und Regierungen über uns sammeln, wenn wir auf Social Media, Netflix und Co. unterwegs sind und welche Auswirkungen kann das auf unser Leben haben? Wie nutze ich das Internet, ohne meine Identität preiszugeben?

Daten, die wir im Internet über uns preisgeben

Nutzen wir das Internet, werden verschiedene Daten unseres Computers, Tablets oder Smartphones von den Webseiten erfasst und aufgezeichnet, die wir aufrufen. Neben platzierten Cookies, für welche Webseiten mittlerweile vorab das Einverständnis ihrer Besucher erhalten müssen, ermöglichen IP-Adressen (individuelle Zahlen jedes Geräts, mit dem wir auf das Internet zugreifen) detaillierte Analysen über den jeweiligen Nutzer und dessen Verhalten.

Dazu kommen weitere Tracking Systeme, mit denen Plattformen wie Facebook, Instagram, YouTube oder Google das Verhalten ihrer User aufzeichnen um ihnen später ähnlichen Content und potenziell interessante Werbung anbieten zu können.

Was passiert, wenn persönliche Daten im Internet gesammelt werden?

Da man beim Surfen im Internet keine anderen Personen unmittelbar vor sich hat, denken viele Menschen, dass ihre Online-Aktivitäten weitgehend anonym bleiben. Bewegt man sich allerdings ungeschützt im Internet, können Webseiten ungehindert Daten sammeln, welche die Erstellung eines ziemlich detaillierten Persönlichkeitsprofils jedes Nutzers ermöglichen.

Informationen darüber, wann welche Seite aufgerufen wird, wie lange sich Nutzer auf bestimmten Bereichen verschiedener Webseiten aufhalten, welches Gerät sie nutzen, welche Schriftarten auf dem Gerät installiert sind und vieles mehr können dazu führen, dass Dinge wie sexuelle Orientierung, individuelle Tagesrhythmen oder politische Ansichten für Unternehmen, Hacker oder Regierungen ersichtlich sind.

Social Media Plattformen verwenden gesammelten Daten dafür, User für möglichst lange Zeit auf ihren Portalen zu behalten, wo sie gezielte Werbungen anbieten, mit welchen sich Facebook, Google und Co. finanzieren.

Wie surft man anonym im Internet?

Um möglichst wenige Daten über sich im Internet preiszugeben, muss man verhindern, dass das eigene Verhalten und der jeweilige Aufenthaltsort getrackt werden kann. Hierfür reicht es leider nicht aus, Cookies zu verwenden oder den privaten Modus von Browsern wie Firefox zu verwenden. Denn die IP-Adresse bietet weiterhin genug Möglichkeiten, um ein detailliertes Nutzerprofil zu erstellen.

Wie kann man auf Webseiten und Streams zugreifen, die für meine Region gesperrt sind?

Aus diesem Grund bieten sich beim regulären Surfen die Nutzung eines virtuellen privaten Netzwerks (VPN) an, die über einen oder mehrere Computer die IP-Adresse der Nutzer verschleiern. Allerdings können hier VPN-Betreiber Daten einsehen und tracken, was dazu führen kann, dass diese ihrerseits gezielte Werbung schalten oder im schlimmsten Fall Malware verbreiten.

Seriöse VPN-Premiumanbieter sind in der Regel aber ohne bedenken nutzbar. Teilweise kann man per VPN Streams und Webseiten, die eigentlich nicht für Besucher aus der eigenen Region zugänglich sind, nutzen. Große Streamingdienste wie Netflix oder DAZN haben bekannten VPN-Anbietern allerdings den Zugriff auf ihre Plattformen verwehrt. Verwendet man einen VPN, um Streams aus dem Ausland nutzen zu können, sollte man sich vor dem Kauf eines VPN-Abonnements informieren, ob der Anbieter bereits vom Streaming-Dienstleister blockiert wurde.

Kann man im Internet anonym bezahlen?

Wer im Internet anonym für Dienstleistungen oder Produkte bezahlen will, kann den Zahlungsanbieter Trustly nutzen. Oft sind es Zahlungsoptionen, die trotz verschiedener Sicherheitsvorkehrungen, private Daten an Webseiten übermitteln. Trustly wird vor allem bei Online Casinos gerne genutzt, denn über den Anbieter werden keine Daten an die jeweilige Webseite weitergegeben. Dazu ist später auf dem Kontoauszug nicht ersichtlich, dass die Zahlung an ein Online Casino ging. Wir haben mit der Schritt für Schritt Anleitung von NoDepositFriend gelernt, wie man ohne Kontoanmeldung anonym im Online Casino spielen kann.

Maximale Privatsphäre per anonymisierten Browser

Eine bessere Alternative zu VPNs, wenn auch mit Leistungseinbußen verbunden, ist der Browser “TOR”, über welchen die Daten der User Bei über tausende Knotenpunkte verschlüsselt werden. So ist es schwer, das Verhalten eines einzelnen Nutzers zu tracken. Allerdings muss man hier aufpassen, dass man nicht auf einen seiner Social Media Accounts zugreift, denn so könnten Unternehmen, aufgrund früher aufgezeichneter IP-Adressen, ihr Tracking trotz verschlüsseltem Browser fortsetzen. Auch Plugins können dazu führen, dass das Tracking über den letzten Knotenpunkt wieder aufgenommen werden kann.

Was bedeutet Sachzwang? Bedeutung, Definition, Erklärung


Ein Sachzwang ist ein Umstand und eine Notwendigkeit, die dazu führt, dass ein Entscheidungsfeld eingeschränkt wird. Ein Sachzwang führt dazu, dass eine Entscheidung anhand der geänderten Sachlage – und nicht nach den Wünschen einer Person – getroffen werden muss.

Sachzwänge sind oft Erklärungen, warum Entscheidungen auf bestimmte Arten und Weisen getroffen werden.

Was bedeutet Sachzwang? Bedeutung, Definition, Erklärung

Es gibt sie ganz sicher. Hier einige Beispiele:

  • #1: Ein Kleinunternehmer hat schon länger eine bestimmte Investition geplant. Einen Kredit erhält er dafür nicht, also spart er das Geld an. Als er die Investition tätigen will, wird eine unerwartete Steuernachzahlung fällig. Nun muss er hierfür das ersparte Geld verwenden. Die Investition ist aufgrund des Sachzwangs zu verschieben.
  • #2: Eine Lehrerin wollte mit ihrer Klasse ein Schulfest organisieren. Die Vorbereitungen hierfür liefen seit dem Schuljahresbeginn 2019/2020. Das Fest sollte im April 2020 stattfinden. Wegen des Ausbruchs der Corona-Pandemie musste es ausfallen. Die Pandemie und die damit verbundenen Einschränkungen fallen in die Kategorie der Sachzwänge.
  • #3: Der Bürgermeister einer kleinen Kommune wollte die Straßenbeleuchtung erneuern. Bei den Haushaltsberatungen stellte sich aber heraus, dass es einen Investitionsstau bei der Straßenerneuerung gibt. Freie Mittel müssen zunächst hierfür verwendet werden. Wegen des Sachzwangs muss die Straßenbeleuchtung warten.

Darüber hinaus gibt es viele vermeintliche Sachzwänge, die mangels Flexibilität oder einfach aus Bequemlichkeit vorgeschoben werden, um Projekte nicht durchzuführen. Das wäre der Fall, wenn

  • #1 der Kleinunternehmer eigentlich doch einen Kredit bekommen könnte, sich aber kaum darum bemüht hat,
  • #2 die Lehrerin das Schulfest mit verändertem Konzept und verschobenem Termin ins Freie verlegen könnte oder
  • #3 der Bürgermeister durch eine Umschichtung von Mitteln und eine Anpassung der Rahmenbedingungen für die Straßenbeleuchtung und die Straßenerneuerung (beides eine Nummer kleiner + zusätzliche kleine Kreditaufnahme) doch beide Projekte parallel durchführen könnte.

Weil es zur Eingrenzung von Handlungsoptionen durch tatsächliche oder vermeintliche Sachzwänge sehr oft Alternativen gibt, ist das grundsätzliche Problem des Sachzwangs hoch umstritten. Philosophen befassen sich damit. Schon länger kritisieren sie, dass aus einem formulierten Faktum ein scheinbar unumstößlicher Handlungszwang abgeleitet wird: „Es regnet, daher muss ich unbedingt den Schirm mitnehmen. Er behindert mich anschließend den ganzen Tag über, doch der Sachzwang (des Regens) lässt mir keine Wahl.“ – Ist es wirklich so? Vielleicht hätte wegen eines leichten Regens am Morgen die Regenjacke genügt.

Warum formulieren wir den Sachzwang? Erklärung, Bedeutung

Psychologisch gesehen erzeugt ein Sachzwang die Tendenz zur freiwilligen Einschränkung unserer Handlungsmöglichkeiten. Dabei können Sachzwänge wie beschrieben wirklich durch materielle Situationsdetails bzw. soziale oder finanzielle Umstände entstehen. Sie schränken auch in der Tat die individuelle Entscheidungsfreiheit ein. Das wiederum bedeutet, dass der Anteil von individuell zu verantwortenden Handlungsvarianten zugunsten des Einflusses von objektiven Situationsbedingungen vermindert wird. Sachzwänge drängen das Individuum eher zu einer bestimmten Handlungsweise, die es selbst so nicht geplant hatte. Dennoch gilt der Sachzwang als kritische Kategorie. Es ist von Fall zu Fall stets schwer auszumachen, ob ein tatsächlicher Sachzwang herrscht oder ob er nur unaufrichtig behauptet wird, um nicht alle Handlungsoptionen ausschöpfen zu müssen. Wir ziehen wiederum die oben genannten Beispiele heran:

  • #1: Der Kleinunternehmer hatte sich in einer früheren Phase bei zwei bis drei Banken um einen Kredit bemüht und ihn nicht erhalten. Daraufhin stand für ihn fest: Ich bekomme keine Kredite, künftig muss ich für Investitionen sparen. Er könnte jedoch nochmals hartnäckig sehr viele Banken befragen bzw. einen Kreditvermittler einschalten, vielleicht hätte er Erfolg. Der Sachzwang macht die Sache schwerer, aber nicht unmöglich.
  • #2: Die Lehrerin könnte mit viel Kraft ihr Schulfest umorganisieren. Der Erfolg ist aber sehr ungewiss. Vielleicht ist es effizienter, wenn sie sich dem Sachzwang beugt.
  • #3: Auch beim Bürgermeister ist es eine Frage der Effizienz, ob er dem vermeintlichen oder tatsächlichen Sachzwang nachgibt oder mühselig alle anderen Handlungsoptionen prüfen lässt. Allerdings erwartet man von ihm in seiner Position (anders als vom Kleinunternehmer), dass er dicke Bretter bohrt und sich die entsprechende Mühe macht.

Sachzwänge und die Moral

Als sehr kritisch gilt das Vorschieben von vermeintlichen Sachzwängen, wenn es mit dem Abwälzen von moralischer Verantwortung verbunden wird. In diesem Punkt gilt: Je geringer die moralische Verantwortung für ein Handeln erscheint, desto größer ist die Versuchung, einen Sachzwang als Begründung für die unterlassene Handlung vorzuschieben:

  • #1: Der Kleinunternehmer ist nur sich selbst gegenüber verantwortlich. Die aufgeschobene Investition kann sein Geschäft langfristig am schnellen Wachstum hindern, doch a) weiß er das nur selbst und b) geht sein dadurch schrumpfender Gewinn nur ihn selbst etwas an. Bestenfalls seine Familie könnte darunter leiden, dass er weniger als gewünscht verdient. Doch diese weiß nichts vom Zusammenhang zwischen aufgeschobener Investition und gebremstem Wachstum. Die Versuchung ist daher groß, einen Sachzwang vorzuschieben. Gegen die Steuerforderung des Finanzamts kann man halt nichts machen.
  • #2: Die Lehrerin sieht sich in einer sehr großen moralischen Verantwortung. Zudem wird ihr Verhalten von sehr vielen Menschen beobachtet, nämlich den SchülerInnen, deren Familien, den übrigen Klassen und dem Kollegium. Vielleicht hat sich sogar schon die lokale Presse für das Schulfest unter Corona-Bedingungen interessiert. Es ist für die Lehrerin daher moralisch sehr schwer, sich dem Sachzwang zu beugen. Dabei hätte sie durchaus das Recht dazu.
  • #3: Der Kommunalpolitiker weiß sehr viele Argumente, um die moralische Verantwortung von sich zu schieben. Er muss aber damit rechnen, dass die Opposition im Stadtparlament kritische Fragen stellt und somit als moralische Instanz fungiert. Das ist ihre politische Aufgabe. Möglicherweise schafft sie es, dass der Bürgermeister nicht einfach vermeintlichen Sachzwängen nachgibt.

Es erschließt sich, dass Sachzwänge genauestens beurteilt werden sollten. Die Argumentation mit ihnen, um Handlungen bzw. ihre Unterlassung zu begründen, dürfte stets kritisch betrachtet werden. Wo es wie in unserem Fall #1 kaum eine kritische Instanz gibt, sollte die betreffende Person (der Kleinunternehmer) auf die eigene kritische Stimme in seinem Inneren hören.

Fazit: Was bedeutet Sachzwang? Bedeutung, Definition, Erklärung

Es gibt objektive Sachzwänge, doch fast immer gibt es auch Handlungsalternativen. Äußere Einflüsse können unsere Handlungsfreiheit objektiv begrenzen, allerdings sollten wir wegen der moralischen Verantwortung für unser Handeln stets alle Alternativen prüfen, bevor wir uns dem Sachzwang beugen. Diesen zu leugnen gilt andererseits als irrational. Das wäre die Haltung: „Wo ein Wille ist, ist auch ein Weg!“ So einfach ist es leider nicht.

Was ist Wissenschaftsgläubigkeit? Bedeutung, Definition, Erklärung


Der Ausdruck „Wissenschaftsgläubigkeit“ dient in der Umgangssprache als Kritik an einer unkritischen Haltung gegenüber der Wissenschaft, wissenschaftlichen Erkenntnissen und den Aussagen von Wissenschaftlern.

Was bedeutet Wissenschaftsgläubigkeit? Bedeutung, Definition, Erklärung

Das Wort „Wissenschaftsgläubigkeit“ setzt sich aus den Worten „Wissenschaft“ und „Gläubigkeit“ zusammen.

„Wissenschaft“ ist die Technik, um neue Erkenntnisse und damit neues Wissen zu erlangen. Wissenschaft baut auf anerkannten und gültigen Methoden auf. Die Erkenntnisse und die Ergebnisse, die in der Wissenschaft produziert werden, sind von anderen überprüfbar und falsifizierbar. Wissenschaft ist immer falsifizierbar!

Als „Gläubigkeit“ bzw. „Glaube“ wird die persönliche Überzeugung über die Richtigkeit und Absolutheit von etwas bezeichnet. „Gläubigkeit“ bzw. „Glaube“ ist nicht überprüfbar oder falsifizierbar.

Glaube gilt als absolut, während sich Erkenntnisse der Wissenschaft als falsch herausstellen können. Für Glaube gibt es die Kategorie „wahr / falsch“ nicht. Glaube steht über allen Zweifeln.

Was passiert beim Begriff „Wissenschaftsgläubigkeit“? Bedeutung, Definition, Erklärung

Wird nun jemanden „Wissenschaftsgläubigkeit“ vorgeworfen, so ist damit gemeint, dass eine Person wissenschaftliche Erkenntnisse und Ergebnisse absolut stellt, nicht anzweifelt oder kritisch hinterfragt. Die wissenschaftsgläubige Person ist von der Wahrheit der wissenschaftliche Erkenntnisse absolut überzeugt und sie ist davon überzeugt, dass wissenschaftliche Erkenntnisse von jedem Zweifel erhaben sind.

Beim Begriff „Wissenschaftsgläubigkeit“ werden zwei Systeme (Wissenschaft und Religion) miteinander vermengt. Durch die Verwendung des religiösen oder theologischen Begriffs der „Gläubigkeit“ wird die Überzeugung, dass die Wissenschaft wahr ist und recht hat, abgewertet. Denn durch den religiösen oder theologischen Begriff der „Gläubigkeit“ wird unterstellt, dass jemand seine Überzeugung nicht mehr auf Fakten aufbaut, sondern auf persönliche Ansichten oder Vorlieben.

Weitergedacht und Fazit: Wissenschaft ist keine Frage der Gläubigkeit oder des Glaubens! Sie ist wahr oder falsch, unabhängig davon, was ich glaube!

Siehe auch: Was hier beschrieben wurde, ist auch beim Begriff „Klimareligion“ passiert.

Wissenschaftsgläubigkeit: Die Lehre vom Szientismus

Die Wissenschaft des Szientismus geht auf den französischen Biologen Felix le Dantec zurück. Er ging davon aus, dass sich alle wesentlichen Fragen immer mit wissenschaftlichen Methoden erklären und begründen lassen. Der Szientismus lehnt deshalb auch die Religion ab. Ein nicht rational erklärbarer Gott trifft keine Entscheidungen, noch veranlasst er Menschen zu unterschiedlichen Handlungen.

Am Anfang wehrte sich die Kirche gegen die wissenschaftlichen Methoden. Sie widersprachen dem göttlichen Bild, das die Geistlichen den Menschen vermitteln wollten.

Doch worum ging es dabei? Der Mensch ist das einzige Individuum, das vom ersten rationalen Gedanken bis zu seinem Tod die Endlichkeit seines Daseins geistig erfassen und deuten kann. Religionen dienen – im Gegensatz zur Wissenschaft – dazu, eine sinnvolle und erträgliche Begründung für die eigene Existenz zu finden. Der Glaube an einen Gott, der der menschlichen Seele zum Schluss ein endliches Leben im Himmel schenkt, versöhnt viele eher als das Wissen um den reinen biologischen Werdegang.

Wissenschaftsgläubigkeit: Die Wissenschaft verlängert Leben!

In früheren Zeiten bedeutete eine Infektion stets eine Lebensgefahr. Mit der Einführung von Antibiotika wurden viele Leben gerettet. Dazu kamen die Entwicklungen von technischen Geräten, mit denen komplizierte Operationen an Herzen oder Transplantationen durchgeführt werden können.

Es gibt viele Wissenschaftler, die in der Wissenschaft die einzige vertretbare Religion sehen, auf die die Menschheit bauen kann. Durch die biochemischen Untersuchungen ist bekannt, dass fast alle physischen und psychosomatischen Krankheiten mit speziellen Techniken zu heilen sind, sofern die Medikation zur Verfügung steht.

Die Wissenschaftsgläubigkeit hat jedoch auch ihre Grenzen. Werden Menschen schwer krank und können nur mithilfe von Medikamenten und Geräten am Leben erhalten werden, erreicht die Wissenschaft ihre Grenzen. Soll sie das Leben auf jeden Fall erhalten oder beispielsweise in absolut aussichtslosen Fällen außer Ansatz bleiben.

Auf der anderen Seite vertreten einige führende Wissenschaftler eine zwiespältige Meinung. Jeder Mediziner, der alle von ihm erlernbaren Techniken und Methoden kennt, ist trotzdem nicht allwissend. Er kann alleine niemals die Verantwortung für ein Menschenleben mit gutem Gewissen tragen. Die Serie Dr. House liefert dazu interessante Ansatzpunkte, die sogar von Medizinern in der Presse aufgegriffen wurden. Dr. House arbeitet immer mit einem Team von guten Assistenz- und Fachärzten zusammen. In Kooperation mit seinen Kollegen findet er in fast allen Fällen die Lösungen, die den Patienten letztlich die Rettungen bringen. Einige Erkrankungen, so die Mediziner, waren sogar in der täglichen Praxis aufgetreten. In einem Fall erlitt eine Patientin nach einer Hüftoperation eine Infektion. Der Auslöser war – wie in einer Folge von Dr. House – ein verwendetes Material, das zu einer Veränderung des Blutbildes führte.

Die Wissenschaftsgläubigkeit bei der Entwicklung neuer chemischer Stoffe

Die Wissenschaftsgläubigkeit spielt auch bei der Entwicklung von chemischen Wirkstoffen eine Rolle. So erschaffen Wissenschaftler ständig neue Substanzen, die in dieser Form niemals in der Natur vorkommen können. Sie haben, wie bei Medikamenten in der Krebstherapie, viele Vorteile, die das Leben durchaus verlängern und verbessern können.
Daneben kommen auch Kombinationen vor, die bei unkontrollierter Freigabe in der Natur Schäden verursachen.

In den 70-er Jahren griffen viele Ärzte und Krankenhäuser auf das Schlaf- und Beruhigungsmittel Contergan zurück. Bei Schwangeren hatte dieses Medikament in vielen Fällen extrem negative Auswirkungen. Viele Kinder kamen mit Missbildungen auf die Welt. Einige hatten beispielsweise keine Arme oder Beine. Andere Gliedmaßen waren verstümmelt. Zwar wurden später einige Schuldige verurteilt, die Auswirkungen für die Betroffenen blieben jedoch bestehen.

Wissenschaftsgläubigkeit im Zusammenhang mit der militärischen Entwicklung

Seit Jahrtausenden führen die Menschen Kriege. Es geht um Macht, Geld und die persönlichen Interessen der Machthabenden. Bis zur Entwicklung von atomaren Sprengköpfen reichten meistens mittlere Streitigkeiten zur Eröffnung von Kriegen aus. Im Zweiten Weltkrieg kamen so über fünfundfünfzig Millionen Menschen ums Leben. Mit der Einführung von nuklearen Sprengköpfen und interkontinentalen Raketen auf beiden Seiten stieg jedoch das gegenseitige Risiko. So gehen Forscher davon aus, dass die Atombomben als Abschreckungswaffen viele Kriege zwischen den Weltmächten seit 1945 verhindert haben. Die grausamen Ergebnisse der Atombombenabwürfe in Hiroshima und Nagasaki im letzten Kriegsjahr sind dabei jedem gegenwärtig und wurden zum unmenschlichsten Zeichen der Abschreckung.

Grenzen der Wissenschaftsgläubigkeit

Genauso problematisch wie der jeweilige Einsatz von radioaktiven Substanzen ist die spätere Endlagerung. Die für alle Lebewesen gesundheitsgefährdenden Strahlungen machen in allen Fällen eine extrem komplizierte Entsorgung und langjährige Lagerung notwendig. Diese Nachteile werden jedoch gerne übersehen, wenn es die um daraus resultierende Energie geht. Sie ist erforderlich, damit die Wissenschaft neue Techniken entwickeln kann, die die Industrie im Anschluss einsetzt.
Es gibt auch Materialien, die keine Strahlung absondern, sondern nur schwer zu recyclen sind. Dabei bringt jedes Stadium der industriellen Revolution neue Komponenten hervor, die die Vorgänger ablösen und so zum Verbrauch von natürlichen Ressourcen beitragen. In den vergangenen vierzig Jahren wurden beispielsweise Fernsehapparate so gebaut, das sie für die nächsten zwanzig Jahre halten. Bei technischen Problemen tauschte der Fachmann die defekten Teile einfach aus. Ist heute ein Fernseher nach fünf bis sieben Jahren nicht mehr funktionsfähig, kann er von einem TV-Techniker nicht mehr repariert werden. Er kommt auf den Recyclinghof und wird ausgeschlachtet.

Was ist Wissenschaftsgläubigkeit? Allgemeine Situation, Bedeutung, Definition, Erklärung

Jeder Fortschritt in der Wissenschaft hat meistens zum Wohlstand der jeweiligen Gesellschaft beigetragen. Während es von der Antike bis zum 19. Jahrhundert nur bedingte Veränderungen gab, vollzog sich seit dem Beginn des 20. Jahrhundert bis heute auf fast allen natur- und geisteswissenschaftlichen Gebieten jeweils ein grenzüberschreitender Wandel. Fast alle Schritte waren und sind von den wissenschaftlichen Ausbildungen und Forschungen abhängig. So prägen auch viele Menschen, die von den Vorgängen profitieren, ihre jeweilige Wissenschaftsgläubigkeit aus.

Wissenschaftsgläubigkeit findet man in der Medizin, der Chemie und vor allem in der Digitalisierung der Wirtschaftsprozesse. Jeder ist zu jedem Zeitpunkt über die technischen Medien wie Computer, Smartphone und Internet erreichbar. Gleichzeitig sorgt ein Überwachungssystem für die absolute Kontrolle jeder Person. Auf der einen Seite ermöglicht dieser Fortschritt die Ausübung neuer Berufe, auf der anderen setzt die Digitalisierung hohe Ansprüche. Da niemand etwas für die geistigen und körperlich vordefinierten Grenzen seiner Persönlichkeit kann, muss oder sollte der Staat hierbei über eine ausgleichende finanzielle Beteiligung am Wohlstand nachdenken. Sonst haben Menschen, die die digitalen Methoden nur bedingt anwenden können, sehr geringe Chancen auf Dauer an den Errungenschaften der Gesellschaft teilzunehmen.

Wer sich der Wissenschaftsgläubigkeit zuwendet, lässt jedoch auch alle Folgewirkungen außer Betracht. Diese entstehen, wenn die moralischen und ethischen Grenzen bei der Anwendung von neuen Techniken überschritten werden. Alle Errungenschaften werden nur in positiven Blickwinkeln betrachtet. Eine wesentliche Grundlage bildet die Lehre vom Szientismus.

Was ist Biohacking? Bedeutung, Definition, Erklärung


Hinter dem Begriff „Biohacking“ verbirgt sich eine Wissenschaft, bei welcher versucht wird, das persönliche biologische (körperliche und geistige) Potential zu ermitteln, zu entfalten und zu optimieren.

Was ist Biohacking? Bedeutung, Definition, Erklärung

Beim Biohacking wird auf verschiedene Art und Weise auf den Organismus eingewirkt. Dies kann auf biologische, technische oder auch chemische Weise geschehen. Die Einwirkungen werden mit dem Ziel vorgenommen, die Leistungsfähigkeit zu verbessern.

Um sich in eine bestmögliche Richtung positiv entwickeln zu können ist es nötig, den eigenen Geist und Körper bestmöglich zu kennen und zu verstehen.

Biohacking ist auch eine Maßnahme, um dem Alterungsprozess entgegen zu wirken.

Vor allem in den USA, aber auch schon in vielen Teilen Europas betreiben Menschen mit wachsender Euphorie das Biohacking.

Bereiche des Biohacking: Erklärung

Grundsätzlich wird das Biohacking in drei verschiedenen Bereichen durchgeführt.

Einen Bereich bilden Körper und Geist. Hier kann man durch Ernährung einen großen Einfluss nehmen. Auch Routinen spielen eine große Rolle, ebenso wie die Veränderung von Verhaltensweisen. Für die Optimierung muss man die körpereigenen Abläufe verstehen. Dabei geht es auch um Bereiche wie das Immunsystem und die Konzentrationsfähigkeit. Mit der Kenntnis über die Funktionsweisen lassen sich dann Maßnahmen und Verhaltensweisen ableiten, die zu einer Optimierung führen.

Es gibt verschiedene Instrumente, die das Biohacking unterstützen. Hierzu gehören vor allen Fitness- und Schlaftracker, welche eine genaue Datenerhebung durchführen, deren Auswertung dann die Richtung vorgeben.

Extremere Anhänger des Biohacking nutzen auch Implantate oder sogenannte RFID-Chips zur Informationsspeicherung. In Europa sind bereits mehr als 50.000 Menschen mit einem Chip oder Implantat ausgestattet.

Diese Chips senden zum Teil bestimmte Impulse, je nach Laufrichtung. Wenn man sich gen Norden bewegt, erfolgt eine Vibration.

Es werden weiter auch Experimente mit dem menschlichen Körper durchgeführt. So können zum Beispiel die Reaktionen auf externe Einflüsse wie Wärme oder Kälte gemessen werden. Auch hieraus ergeben sich wieder wichtige Informationen für eine Selbstoptimierung.

Die Wirkung verschiedener Lebensmittel wird ebenfalls überprüft. Auch wird der Stoffwechsel mit einbezogen. Hier kann versuchsweise die Ernährung von einer Zucker- auf eine Fettverbrennung umgestellt werden.

Weiter beschäftigen Biohacker sich auch mit der menschlichen DNA. So gilt es herauszufinden, ob die DNA vorbelastet ist und sich hier eventuelle Mutationen verbergen. Mit gezielten Untersuchungen können diese sichtbar gemacht werden. Ein großer Teilbereich des Biohacking ist die Epigenetik. Hierbei geht es darum, die eigene Abstammung zu entschlüsseln.

Ein weiterer Bereich des Biohacking befasst sich mit der Verwendung bestimmter Tools. Diese setzen externe Impulse oder stimulieren bestimmte Areale des Körpers. Auch dies soll zu einer Optimierung des Organismus führen. Mögliche technische Tools sind Neuro-Feedback-Geräte, Brainwaves oder auch Geräte, die die Gehirnaktivität anregen.

Biohacking:  Wie wird man ein Biohacker?

Zunächst einmal muss man damit anfangen, seinen Körper zu erkunden. Jede Information über die körpereigenen Abläufe und Zusammenhänge bietet eine Grundlage zur Verbesserung. Dabei geht es zunächst einmal darum, bekannte negative Probleme und „Störungen“ zu beseitigen. Hierzu gehören vor allem Stress, Müdigkeit oder auch Schlafstörungen. Durch das Beheben der Probleme kann ein neues Wohlbefinden eintreten.

Vielfach müssen verschiedene Ansätze zunächst einmal getestet und ausprobiert werden. Nicht jeder Körper reagiert gleich. Zudem muss man stets an sich weiter arbeiten. Es gilt auch, Entscheidungen zu treffen, die das Leben auf den Kopf stellen können. Man arrangiert sich nicht länger mit dem, was man hat – wie z.B. bestimmte Ernährungsgewohnheiten oder Rhythmen. Dabei hilft es sich vor Augen zu führen, dass man selbst Einfluss nehmen kann. Hierbei muss man natürlich trotzdem noch seine eigenen Grenzen kennen. Das Denken sollte lösungsorientiert sein. Man darf keine Scheu vor Experimenten haben. Das gesamte Biohacking fängt dabei im eigenen Kopf an.

Biohacking: Tools und Werkzeuge

Ein mögliches Tool ist eine Brille mit Blaulichtfilter. Wenn die Netzhaut blaues Licht aufnimmt, dann wird dem Körper suggeriert, es sei heller Tag. Dies führt zu einer Steigerung der Konzentration. Auch sorgt das Licht dafür, dass man wach bleibt. Die Einstrahlung von blauem Kunstlicht führt zu einer Hemmung der Melaninproduktion. Melanin ist dafür verantwortlich, dass man müde wird. Durch den Blaulichtfilter wird diese Wirkungskette unterbrochen, so dass das Einschlafen leichter fällt. Es tritt eine bessere Erholung ein.

Biohacking: Was ist die kalte Thermogenese?

Ein weiterer Bereich ist die sogenannte kalte Thermogenese. Durch Kälte wird braunes Fettgewebe oxidiert. Dadurch wird Hitze freigesetzt, die sich im gesamten Körper breitmacht. Diese Funktion sollte man trainieren, da sie ansonsten verkümmert. Durchführen kann man die kalte Thermogenese ganz einfach mit einer kalten Dusche am Morgen. Die kalte Thermogenese kann eine Reihe positiver Wirkungen auf den Organismus haben. So kurbelt sie nicht nur die Fettverbrennung an, sie stärkt zudem auch das Immunsystem.

Biohacking: Meditation und Fasten

Im Biohacking ist auch die Meditation ein wichtiger Teilbereich. Dabei geht es vor allem um Entspannung. Man kann für sich selbst entscheiden, welche Form der Meditation man wählt und wie man diese durchführt.

Im Bereich der Ernährung erreicht das intermittierende Fasten einen immer höheren Stellenwert. Es gibt verschiedene Methoden, die Nahrungsaufnahme zu kontrollieren. Das Fasten ist eine uralte Technik. Regelmäßiges Fasten führt zu einer Reduzierung des Körperfettanteils, zu einer Regulierung des Blutzuckerspiegels und auch zu einer Bekämpfung von Entzündungen im Körper. Es entspricht dabei dem natürlichen Essverhalten des Menschen.

Aber auch Diäten wie die Paleo- oder die Bulletproof Diät orientieren sich an der ursprünglichen Programmierung des Körpers. Bei der Paleodiät werden nur Lebensmittel verzehrt, die regionaler Herkunft sind und keine künstlichen Zusatzstoffe enthalten. Bei der Bulletproof-Diät werden Lebensmittel wie der Bulletproof-Coffee und andere Supplemente konsumiert. Auch hier geht es um eine Ernährungsweise mit natürlichen Zutaten.

Biohacking: Schlaf optimieren

Um den Schlaf zu optimieren, kann man sich zum einen der Brille mit Blaulichtfilter bedienen. Weiter spielen aber auch die richtige Ernährung sowie Bewegung eine wichtige Rolle. Durch ein erfolgreiches Zusammenspiel aller Komponenten kann sich der Körper in der Nacht erfolgreich erholen und regenerieren. Im Rahmen der Ernährung achten Biohacker vor allem darauf, wichtige Mikronährstoffe zu konsumieren. Diese findet man vor allem in den sogenannten Superfoods. Möglich ist auch die Einnahme bestimmter Nahrungsergänzungsmittel, um den Körper mit allen wichtigen Nährstoffen zu versorgen.

Verschwörungserzählung, Verschwörungsmystik, Verschwörungsmythen, Verschwörungsideologie, Verschwörungsglaube: Bedeutung, Definition, Erklärung


Annahmen, die nicht auf überprüfbaren und falsifizierbaren Fakten beruhen, sind keine Theorien. Sie sind erst einmal nur Behauptungen, ohne wissenschaftliche Grundlage.  Erst, wenn überprüfbare Fakten eine Behauptung belegen, wird diese zur Theorie.

Deswegen wurde der Begriff „Verschwörungstheorie“ in der öffentlichen Debatte durch Begriffe wie „Verschwörungserzählung“, „Verschwörungsmystik“, „Verschwörungsmythen“, „Verschwörungsideologie“ oder „Verschwörungsglaube“ ersetzt. Denn jede „Theorie“ hat einen Anspruch auf Wahrheit.

Kritik am Begriff „Verschwörungstheorie“

Theorien basieren auf Fakten und sind ein wissenschaftliches Konzept. Das bedeutet, dass Theorien durch andere Menschen (z.B. Wissenschaftler) überprüfbar (falsifizierbar) sein müssen und dass widersprüchliche Fakten oder Ergebnisse dafür sorgen, dass eine Theorie widerlegt, aufgegeben oder angepasst wird. (Eine Theorie, die andere nicht überprüfen können, ist keine Theorie und auch keine Wissenschaft!)

Verschwörungserzählungen oder Verschwörungsmythen basieren auf subjektiven Behauptungen. Sie können zwar auf einzelnen Fakten beruhen, aber wenn die gezogenen Schlussfolgerungen und Annahmen nicht falsifizierbar oder belegbar sind, sind die Behauptungen keine Theorie, sondern eine Geschichte oder ein Narrativ. Verschwörungserzählungen und Verschwörungsmythen haben keine wissenschaftliche Grundlage, sondern sie sind eben eine Erzählung, Mythos oder nur ein Glaube wie die Welt sein könnte.

Der Begriffsteil „Theorie“ im Wort „Verschwörungstheorie“ gibt den verbreiteten Behautpungen eine gewisse Glaubwürdigkeit und suggeriert, dass diese auf Wissenschaft fußen und einen Anspruch auf Wahrheit haben. Da keine Überprüfbarkeit möglich ist, sind Verschwörungstheorien auch keine wissenschaftliche Theorien. (Umgekehrt gilt, dass eine Theorie erst zur Theorie (und damit Wissenschaft) wird, wenn sie auf überprüfbaren Fakten aufbaut.)

Unterschied: Wissen – Glauben

Um den Unterschied zwischen „Theorie“ und „Glaube“ oder „Geschichte“ zu verstehen, ist es wichtig den Unterschied zwischen Wissen und Glauben zu kennen.

„Wissen“ und „Glauben“ sind beides Annahmen über die Welt.

Was ist Wissen? Kurzerklärung, Bedeutung

„Wissen“ ist wahre gerechtfertige Auffasung. Wissen beruht auf überprüfbaren Fakten. Für Wissen gilt, dass es durch eigene Erfahrung oder durch Dritte erworben werden kann.

Für Wissen gilt – und das ist am wichtigsten -, dass es falsifizibar und widerlegbar ist. Dass heißt Wissen kann sich (immer) als falsch herausstellen. Dies passiert, wenn eine Theorie durch widersprüchliche Fakten widerlegt wird.

Für Wissen gilt, dass andere Menschen Wissen und Theorien überprüfen können.

Was ist Glaube? Kurzerklärung, Bedeutung

„Glaube“ ist eine Überzeugung darüber wie die Welt ist. Diese Überzeugung ist nicht durch Fakten überprüfbar. (z.B. der Glaube an Gott) Für „Glaube“ gilt, dass er nicht widerlegbar ist.

„Glaube“ geht meist mit der Überzeugung einher, dass dieser Glaube richtig ist.

„Glaube“ kann nicht durch widersprüchliche Fakten oder Widersprüche widerlegt werden.

„Glaube“ existiert jenseits von Überprüfbarkeit und Widerlegbarkeit.

Fazit: Unterschied Glauben – Wissen

Die Überprüfbarkeit (Falsifizierbarkeit) ist eine der wichtigsten Unterscheidungen zwischen „Wissen“ und „Glauben“.

Während Glaube als absolut und immer wahr gilt, ist Wissen immer relativ.

Zurück zu den Verschwörungserzählungen und den einzelnen Begriffen. Im nachfolgenden werden die Ausdrücke „Verschwörungserzählung“, „Verschwörungsmystik“, „Verschwörungsmythen“, „Verschwörungsideologie“ und „Verschwörungsglaube“ erklärt.

Was bedeutet „Verschwörungserzählung“? Bedeutung, Erklärung

Im Sinne des Begriffes ist eine „Verschwörungserzählung“ die Erzählung eines Planes, um Machtverhältnisse zu ändern.

Eine „Erzählung“ ist keine Wissenschaft, da sie eben nur einen Bericht oder eine Darstellung von einem Ereignis oder Geschehen darstellt. Eine Erzählung ist immer subjektiv, da ein Erzähler (oder eine Erzählerin) die Erzählung erzählt.

Wer eine Verschwörungserzählung erzählt, ist ein Verschwörungserzähler.

Was bedeutet „Verschwörungsmystik“? Bedeutung, Erklärung

Als „Mystik“ werden göttliche, übersinnliche oder übernatürliche Erfahrungen bezeichnet. Die Mystik gibt es in vielen Religionen. Ein Mystiker will – im Sinne des Begriffs – Gott, etwas Übersinnliches oder etwas Übernatürliches erfahren.

Der Begriff „Verschwörungsmystik“ kann im Kontext des Begriffs „Mystik“ so verstanden werden, dass die Verschwörungsmystik dazu dient besondere persönliche und subjektive Erfahrungen wiederzugeben. Es kann vermutet werden, dass ein Verschwörungsmystiker oder eine Verschwörungsmystikerin die Überzeugung hat, dass er oder sie besondere (und erschütternde) Einblicke in das Geschehen der Welt gewonnen hat und diese nun unbedingt mitteilen will.

Wer Verschwörungsmystik verbreitet oder glaubt, ist ein Verschwörungsmystiker.

Was bedeutet „Verschwörungsmythen“? Bedeutung, Erklärung

Ein Mythos ist in der Regel eine Geschichte über die Herkunft oder den Ursprung der Menschen. Die meisten Mythen berichten über eine Zeit bevor es Menschen gab und sie berichten darüber wie die Welt erschaffen wurde. In Mythen wird über Götter, Geister und Vorwelten erzählt. Mythen dienen dazu den Menschen mit dem Übernatürlichen und dem Kosmos zu verbinden.

In Religionen spielen und im antiken Griechenland spielten Mythen eine wichtige Rolle.

Der Begriff „Verschwörungsmythen“ kann im Sinne des Begriffs so verstanden werden, dass ein Erzähler seine Annahme verbreitet, wie die Welt zusammenhängt und funktioniert.

Der Singular ist „Verschwörungsmythos“. Der Plural ist „Verschwörungsmythen“.

Was bedeutet „Verschwörungsideologie „? Bedeutung, Erklärung

Eine „Ideologie“ ist eine Weltanschauung, die dazu dient Menschen in (und außerhalb) einer Gesellschaft einzuordnen, Lösungen für gesellschaftliche Probleme festzulegen und Handlungen zu rechtfertigen.

In der Praxis führt eine „Ideologie“ dazu, dass Herrschende eine Gesellschaft nach ihren Ansichten und Vorstellungen formen. Dies bedeutet, dass Einfluss auf Menschen innerhalb der Gesellschaft durch staatliche Organisationen genommen wird. In einer Ideologie wird die Unterordnung der Bürger gefordert und durch staatliche Gewalt erzwungen. Menschen, die den Ansichten und Vorstellungen der Herrschenden in einer Ideologie widersprachen oder nicht entsprachen, wurden bestraft, verfolgt oder ermordet.

Der Begriff „Verschwörungsideologie“ kann im Kontext des Begriffs „Ideologie“ so verstanden werden, dass Verschwörungsideologen glauben, dass eine Verschwörung zur Um- oder Neuordnung der Gesellschaft stattfindet.

Wer „Verschwörungsideologien“ verbreitet oder anhängt, ist ein Verschwörungsideologe.

Was bedeutet „Verschwörungsglaube „? Bedeutung, Erklärung

Ein Glaube ist eine Überzeugung oder Annahme über die Welt, die nicht überprüft werden kann. Wer glaubt, ist von der Richtigkeit des Glaubens überzeugt.

Der Begriff „Verschwörungsglaube“ bedeutet im Kontext des Begriffs „Glaubens“, dass jemand Annahmen über die Welt hat oder verbreitet, die nicht durch Fakten überprüfbar oder falsifizierbar sind.

Wer „Verschwörungsglauben“ verbreitet oder anhängt, ist ein Verschwörungsgläubiger.

Was ist Waldbaden? Wie geht Waldbaden? Bedeutung, Definition, Erklärung


Als Waldbaden wird der achtsame Aufenthalt im Wald bezeichnet. Schon ein Spaziergang im Wald wirkt sich positiv auf das Befinden und die Gesundheit aus.

Was ist Waldbaden? Bedeutung, Definition, Erklärung

Waldbaden erfreut sich insbesondere in unserer stressiger und immer schneller werdende Gesellschaft großer Beliebtheit. Dabei finden gestresste Menschen zu such selbst und halten Seele und Körper gesund. Mittlerweile gilt es bereits als wissenschaftlich bestätigt, dass Waldbaden unseren Alltag stressfreier und Geist sowie Körper fitter macht.

In Japan gibt es den Begriff „Shinrin-Yoku“, was so viel bedeutet wie Waldbaden. Das Baden in der Natur wird in Japan als wichtiger Bestandteil eines gesunden Lebens gesehen. Der Begriff wurde im Jahr 1982 von dortigem Ministerium für Forsten geprägt und beschreibt den Zustand, den Wald mit allen Sinnen aufzunehmen und die Stille wirken zu lassen.

Während Praktiken wie Waldbaden bei uns noch immer bei vielen Menschen für Kopfschütteln sorgen oder vermeintlich der Esoterik zugeordnet werden, ist die Waldmedizin in Japan sogar ein anerkanntes Forschungsgebiet an Universitäten.

Siehe auch: Was ist Komorebi?

Wirkung von Waldbaden: Erklärung und Studien

Mediziner und Wissenschaftler untersuchen dort schon seit Jahren die Auswirkungen, die der Aufenthalt in unberührter Natur auf den menschlichen Körper und die Seele hat. Das Ergebnis der Untersuchungen bisher ist eindeutig: Schon ein kurzer Spaziergang durch den Wald verbessert Blutdruck, Puls und Atmung. Daher ist es auch keine Seltenheit, dass japanische Ärzte bei Burnout oder Erkrankungen des Herzkreislauf-Systems eine Waldtherapie verordnen. Grundlage für das Konzept des Waldbadens haben Forscher von der Nippon Medical School gelegt.

Hunderte Probanden wurden für eine Untersuchung von den Wissenschaftlern zu einem Spaziergang geschickt. Während die eine Hälfte durch die Stadt lief, wanderte der Rest durch den Wald. Die Blutentnahme im Anschluss zeigte, dass das DHEA-Hormon bei der Waldgruppe deutlich erhöht war. Dabei handelt es sich um jedes Hormon, welches Herzerkrankungen vorbeugt und die Funktionen aufrecht hält.

Eine weitere Studie zeigte ein ähnlich faszinierendes Ergebnis. Dafür wurden insgesamt zwölf Menschen für einen ganzen Tag in den Wald geschickt. Ihre Blutergebnisse im Anschluss zeigten, dass sich die natürlichen Killerzellen des Körpers um unglaubliche 40 Prozent gesteigert haben. Diese Zellen töten beispielsweise Krebszellen und Viren ab.

Waldbaden und Wald: der perfekte Ort für ältere Menschen

In Deutschland haben die Krankenkassen das Waldbaden als Therapieform bisher nicht anerkannt. Für Bewohnerinnen und Bewohner von Heimen hat sich das Waldtrainingsprogramm aber bereist etabliert. Angeboten wird das von der Bundeszentrale für gesundheitliche Aufklärung entwickelte Konzept bereits in rund 100 Pflegeeinrichtungen bundesweit. Dabei kommt das Waldbaden besonders älteren Personen zugute, die schon kognitive und körperliche Einschränkungen aufweisen. Dabei hilft es besonders, die Natur aufzunehmen und ganz bewusst den Geräuschen des Waldes zu lauschen.

Waldbaden und Terpene

Experten raten dazu, den Wald mit allen Sinnen wahrzunehmen. Also das Moos zu riechen, das Harz der Bäume zu spüren und das Klopfen des Spechtes zu hören. Vermutet wird, dass gerade die Terpene der Grund dafür sind, warum Geist und Körper so positiv auf den Wald reagieren. Der Wald dünstet seine ätherischen Öle über die Sträucher, Rinde und Blätter aus.

Wenn die Haut des Menschen und zudem die Lunge diese aufnehmen, führt das zu einer Beruhigung des vegetativen Nervensystems, welches die Kampfreaktionen, Stresszustände und Ängste steuert. Gerade bei depressiven Gedanken, stressiger Belastung, Aufmerksamkeitsstörungen oder Schlafstörungen kann das Waldbaden eine echte Unterstützung sein. Waldbaden wirkt dabei präventiv und ersetzt weder eine Therapie noch Medikamente.

Waldbaden als Trend

In der Schweiz, Österreich und Deutschland entwickelt sich das Waldbaden immer mehr zu einem beliebten Trend. So gibt es in Deutschland bereits einige Trainerinnen und Trainer für Waldbaden. An der Münchner LMU wird an einem Lehrgang mit Zertifikat zum Waldgesundheitstrainer gearbeitet. Zudem sollen gemeinsam mit der Ärztegesellschaft für Präventionsmedizin und klassische Naturheilverfahren Kneippärztebund e.V. Waldtherapeuten ausgebildet werden. Menschen, sie sich nach keinem Termin richten wollen und allein das Waldbaden im Sinne des japanischen Konzertes unternehmen wollen, können sich etwa ein Programm via Audioguide zur Hilfe nehmen. Diese enthalten beispielsweise wichtige Übungen zur Atmung und dazu, wie die Atmosphäre des Waldes am besten wahrgenommen und erkundet werden kann.

Waldbaden: Tipps

Prof. Dr. Qing Li lehrt nicht nur an der besagten Nippon Medical School, er ist auch einer der erfolgreichsten Köpfe im Bereich der Shinrin-Yoku-Forschung Seine Empfehlungen und Tipps rund um das Thema Waldbaden basieren auf vielen Studien und Ergebnissen seiner Forschungsarbeit. So empfiehlt er beispielsweise, sich einen genauen Plan zu machen, der den körperlichen Möglichkeiten entspricht und nicht zu einer Überforderung führt.

Steht ein ganzer Tag zur Verfügung, so rechnen Interessierte am besten vier Stunden für einen Aufenthalt im Wald ein und legen bei ihrem Spaziergag rund fünf Kilometer zurück. Bleibt dahingegen nur die Hälfte des Tages, verbringen Waldbadende am besten zwei bis zweieinhalb Stunden vor Ort und legen zweieinhalb Kilometer zurück. Wer sich erschöpft oder müde fühlt, solle Pausen einlegen, so der Wissenschaftler. Wer Durst hat, sollte am besten Tee oder Wasser zu sich nehmen und wer sich an einem Ort besonders wohl und geborgen fühlt, darf gerne an diesem Ort verweilen und die Landschaft genießen.

Wenn die Möglichkeit besteht, empfiehlt der Wissenschaftler ein Bad in einer heißen Quelle aufzusuchen. Das kann aber auch die heiße Badewanne Zuhause oder ein Thermalbad sein. Je nach körperlicher Verfassung sollte ein Waldweg gewählt werden, der zu den Bedürfnissen passt. Wer die Produktion von Killerzellen ankurbeln will und sein Immunsystem in Schwung bringen möchte, sollte tatsächlich über einen mehrtägigen Waldausflug mit Übernachtungen nachdenken.

Wer stattdessen einfach einmal Erholung vom stressigen Alltag sucht, ist auch mit einem Tagesausflug bedient. Gleichzeitig weist der Forscher darauf hin, dass das Waldbaden immer nur eine vorbeugende oder eine zusätzliche Maßnahme ist, um sich gut zu halten. Bei Krankheiten führt dennoch kein Weg daran vorbei, einen Arzt aufzusuchen.