Übersicht aller Beiträge in der Kategorie: Wissenschaft und Technik.

Wie, wo, wann und warum starb Stalin? Erklärung, Geschichte


Der Machthaber Stalin starb offiziell am 05. März 1953 in seiner Datscha in Kunzewo. Sein richtiger Name war Josef Wissarionowitsch Dschugaschwilli und er wurde in der georgischen Stadt Gori am 21. Dezember 1879 geboren. In der Laufzeit seines Lebens wurde er zu einer der politisch mächtigsten Personen auf der ganzen Welt.

Er galt als „stählerner Diktator“ und seine Herrschaft bestand überwiegend aus Terror und Gewalt. Bis zu seinem letzten Atemzug blieb es sehr spannend um ihn. Am 28.Feruar 1953 erlitt er nach einem nächtlichen Trinkgelage einen Schlaganfall. Ärzte rangen um sein Leben und gleichzeitig brach unter seinen Höflingen schon das Gerangel um seine Nachfolge aus.

Irgendwann zwischen dem 01. und 05. März 1953 ist der sowjetische Diktator Stalin nach seinem Hirnschlag gestorben. Dabei unternahmen die Mitglieder des Politbüros der KP stundenlang erst einmal nichts. Dafür hatten sie aber auch ihre Gründe.

Hintergründe zu Stalins Tod

Erst am 04. März 1953 informierte die Regierung über die staatliche Nachrichtenagentur die Welt darüber, dass der Kreml-Chef erkrankt sei. Sie sprachen von einem Unglück, welches die Partei und das Volk getroffen hat. Sie erwähnten eine schwere Erkrankung des Genossen Stalin. Nach dieser Aussage erlitt Stalin in der Nacht vom 01.03. auf den 02.03.1953 einen Schlaganfall in seiner Wohnung. Des Weiteren wird berichtet, dass er unter Herz- und Atmungsstörungen leidet. An dieser Aussage war sowohl die Zeit als auch der Ort fehlerhaft. Dann hieß es, dass zur Behandlung Stalins nur die besten Ärzte herangezogen wurden. Auch diese Aussage ist fehlerhaft, denn zu dieser Zeit saßen die besten Ärzte bereits in den Folterkammern der Geheimdienste. Einen Tag später, also am 05. März 1953, war Stalin tot.

In Wirklichkeit hat es sich jedoch folgendermaßen zugetragen: In der Nacht zum 01. März 1953 war nach dem Schlaganfall von Stalin kein Arzt in der näheren Umgebung. Der Geheimdienstchef wird erst zwölf Stunden nach dem Hirnschlag informiert. Dieser erwidert die Aussage damit, dass man doch keine Panik machen solle. Man würde doch sehen, dass Stalin schläft und man solle ihn nicht stören.

Erst nach weiteren 24 Stunden wird ein Arzt gerufen, der dann seine Hirnblutungen diagnostiziert. Da jedoch jeder Angst vor Fehlern hinsichtlich der Medikamentengabe hatte, wurde er nicht medikamentös behandelt. Nachdem sich dann am 05.03.1953 Stalins Zustand rapide verschlechtert hatte, starb er um 21:50 Uhr. Unter den sowjetischen Bürgern löste die Nachricht des Todes von Stalin Entsetzen und Verzweiflung aus. Auf der Beerdigung des Führers waren enorm viele Menschen anwesend. Aufgrund des riesigen Andrangs wurden dabei einige Menschen totgetrampelt und erdrückt.

Was ist Minting / Minten bei NFTs und Krypto? Bedeutung, Definition, Erklärung


Das Minting spielt in Bezug auf Kryptowährungen eine Rolle, indem eine Person selbst einen neuen Token generieren kann, ohne dass dafür eine Behörde oder Bank involviert sein muss. Hierbei handelt es sich entweder um Krypto-Coins oder um einen Non-Fungibility Token. Übrigens unterscheidet sich die Prägung der Münzen in zwei Arten, wobei das Endergebnis, also die Herstellung neuer Münzen, immer dasselbe ist. Einziger Unterschied liegt im Verfahren, wie diese hergestellt werden.

Die verschiedenen Prägungsarten: Krypto

Bei den beiden Prägungsarten benötigt die eine Münze das sogenannte Mining (Proof of Work-Verfahren) und eine andere Münze benötigt das sogenannte Staking (Proof of Stake-Verfahren). Beim Mining handelt es sich um die Erzeugung von Kryptowährung. Diese entsteht durch das Validieren und Speichern mit dem Handel in einer Blockchain. Üblicherweise erfolgt dies von öffentlichen Geräten aus, was bedeutet, dass jeder Rechner daran teilnehmen kann. Um die komplizierten, mathematischen Probleme zu lösen, werden leistungsstarke Prozessoren erforderlich. Als Dank für das Lösen kryptografischer Gleichungen wird der Miner dann für seine Arbeit in Form von Kryptowährung bezahlt. So kommen neuen Münzen in den Umlauf.

Das andere Verfahren, also das Staking, gilt als die bessere Art des Minting. Von Staking wird gesprochen, wenn ein Nutzer eine Transaktion gegen Kryptowährung prüfen möchte, dieser zunächst aber erst einmal einen hohen Betrag einsetzen muss. Diesen Betrag bezeichnet man dann als Stake. Die zuständigen Stakeholder (Gruppe von Menschen oder eine einzelne Person) werden per Zufallsprinzip ausgewählt. Diese geben dann die gewünschten Transaktionen auf einer Blockchain frei. Dabei gilt, wer mehr Coins einsetzt, umso höher ist die Wahrscheinlichkeit, ausgewählt zu werden. Dabei dürfen Stakeholder den gesetzten Wettbetrag nicht ausgeben. Werden sie beim Aufzeichnen ungenauer Daten oder bei Regelverstößen erwischt, müssen sie damit rechnen, ihren gesamten Einsatz zu verlieren.

Bei beiden Verfahren (Mining und Staking) werden neue Münzen geprägt. Der Begriff „Minting“ wird jedoch häufig in Verbindung mit Staking verwendet. Sowohl bei Mining als auch bei Minting werden neue Blöcke generiert und zu einer bereits vorhandenen Blockchain hinzugefügt. Begriffe wie Staking und Mining werden in Bezug auf das Minting von Kryptowährung angewandt. Dies ist aber nicht gleichzusetzen mit dem Minting eines NFT. Hierbei handelt es sich um einen anderen Vorgang.

Die NFTs finden Eingang im Ethereum Blockchain, wo sie von Urhebern genutzt werden, um Videos, Fotos oder digitale 3D-Objekte zu verkaufen. Um das Minting eines NFTs durchführen zu können, wird zunächst ein Wallet mit Ethereum benötigt. Mit dieser Wallet können sich die Benutzer dann auf einem sogenannten NFT-Marktplatz anmelden (beispielsweise OpenSea). Hier erstellen sie dann ihr NFT, auf dieses sie ihr gewünschtes Objekt hochladen. Für die Erstellung des NFT wird in ETH bezahlt. Ist eine Transaktion bestätigt, wird die nächste NFT gemint. Das Minting kann jedoch auch unterschiedliche Verfahren zur Herstellung verschiedener Token bezeichnen. Der Begriff Minting ist dabei der bekannteste Begriff für die Herstellung neuer Kryptowährungsmünzen mit der sogenannten Proof of Stake-Methode.

Was ist der Unterschied zwischen Minting und Mining?

Bei beiden Verfahren, also beim Mining und beim Minting, werden neue Blöcke an eine Blockchain hinzugefügt beziehungsweise neue Token generiert. Der Unterschied beim Minting besteht darin, dass hierbei bereits vorhandene Token eingesetzt werden. Beim Mining müssen schwere, komplexe und kryptografische Rechenaufgaben gelöst werden, die eine hohe Rechnerleistung benötigen. Bei beiden Verfahren existieren Benutzer, die ausgewählt werden, um eine solche Transaktion zu überprüfen. Hierfür erhalten sie dann eine Gegenleistung (Rewards).

Um was handelt es sich bei NFTs?

NFTs werden als sogenannte „Non-fungible Token“ bezeichnet. Dies bedeutet übersetzt, dass es sich um „nicht tauschbare Wertmarken“ handelt. Ein NFT ist also eine virtuelle Wertmarke, die ein bestimmtes digitales Objekt schützt. Dieses digitale Objekt wird vom NFT als einzigartiges Unikat gekennzeichnet und anschließend einer bestimmten Person zugeordnet.

Bedeutung von NFTs Minten

Grundsätzlich heißt Minten nichts anderes als Prägen. Beim Minten wird dementsprechend ein digitales Objekt in eine Krypto-Sammeldatei umgewandelt. Sobald dieses Objekt erst einmal auf der Blockchain abgespeichert ist, ist auch keine Löschung oder Umwandlung mehr möglich. Bei der umgewandelten Datei handelt es sich dann um einen digitalen Vermögenswert. Dieser wird direkt auf dem Marktplatz mittels Kryptowährung gekauft oder gehandelt.

Unterschieden wird in zwei Arten des NFT Minting:

  • Der NFT wird direkt auf einer Website eines Projekts erstellt.
  • Der NFT kann selbst erzeugt und hochgeladen werden.

Entscheidet man sich für die erste Variante, so können entweder ein NFT oder auch mehrere auf einer Website erstellt werden. Jedoch werden keine schon vorher bekannten NFTs gemintet. Vielmehr wird, wie bei allen erzeugten Kunstwerken, zufällig generiert. Sobald ein Projekt zum Erfolg wird, wird auch das NFT immer beliebter und somit über einen Marktplatz Gewinne erzielen.

Wie, wo, wann und warum starb Sissi? Erklärung, Geschichte


Elisabeth Amalie Eugenie von Wittelsbach (genannt „Sissi“) wurde am 24.12.1837 als eines von acht Kindern in München geboren. Die bayerische Prinzessin wurde erst durch die Heirat mit Franz Josef I. zur Kaiserin von Österreich und späteren Königin von Ungarn. Durch den Historienfilm „Sissi“ (1955) mit Romy Schneider in der Hauptrolle wurde die Figur weltberühmt. Das hier gezeichnete Bild ist allerdings verfälscht und kitschig verklärt.

Wie lebte Sissi?

Die junge Elisabeth liebte ihren Ehemann, der sich aufgrund politisch unruhiger Zeiten wenig um sie kümmern konnte. Von ihrer Schwiegermutter wurde Elisabeth nur widerwillig akzeptiert. Da sich Sissi nicht an die strenge Hofetikette in Wien gewöhnen konnte, mied sie den Hof so gut es ging. Ihr Leben war von zahlreichen Schicksalsschlägen geprägt. Der erste traf sie mit dem Tod ihrer zweijährigen Tochter Sophie. Eine ihrer Schwestern starb später bei einem Großbrand. Sissis Lebensmut schwand endgültig, nachdem sich ihr Sohn Kronprinz Rudolf das Leben genommen hatte. Von nun an wurde Elisabeths Leben noch rastloser, bestimmt von Einsamkeit und Schönheitswahn. Sie unternahm lange Reisen und verbrachte auf Korfu, Madeira und in Venedig viele Wochen. In ihren letzten Lebensjahren bestimmten Trostlosigkeit und Depressionen ihren Alltag. Sie reiste nun fast ohne Unterbrechung quer durch Europa.

Sissi: Umstände des Attentats

Im Jahr 1898 reiste Elisabeth mehrmals in die Schweiz. Dabei lehnte sie stets Personenschutz ab. Gerade in der Schweiz waren zur damaligen Zeit viele Anarchisten aktiv und ein Aufenthalt für eine hochgestellte Persönlichkeit immer gefährlich. Sissi verdrängte das Risiko. Da man ihr zudem eine allgemeine Todessehnsucht nachsagt, ist es durchaus möglich, dass sie das Risiko bewusst eingegangen war.

Am 9. September unternahm sie mit ihrer Hofdame Irma Gräfin Sztáray inkognito eine Schifffahrt. Ihr Ziel war das Hotel „Beau Rivage“ in Genf. Als beide am folgenden Tag das Schiff zur Rückfahrt besteigen wollten, näherte sich ihnen unweit des Hotels ein Mann. Es war der Anarchist Luigi Lucheni. Er stolperte auf die beiden Frauen zu und stieß Sissi mit einer dünn geschliffenen Feile in die Brust. Sissi fiel rückwärts zu Boden und bemerkte die Verletzung zunächst nicht. Sie ging davon aus, dass der Mann sie bestehlen wollte. Als Passanten zu Hilfe eilten, wiegelte sie ab und sagte: „Es ist nichts geschehen.“

Elisabeth und Gräfin Sztáray betraten das Schiff, wo sich ihr Zustand rapide verschlechterte. Sie rang nach Luft und wurde ohnmächtig. Noch einmal soll sie sich aufgerichtet und ihre Begleiterin gefragt haben: „Was ist denn mit mir geschehen?“ Als Sztáray Sissis Kleidung öffnete, um ihr das Atmen zu erleichtern, entdeckte sie einen Blutfleck auf Höhe des Herzens. Da Elisabeth nach dem Attentat noch eine Weile handlungsfähig war, wurde die Verletzung zu spät entdeckt.

Man brachte die Kaiserin zurück ans Ufer und in ihr Hotel. Irma Sztáray schickte ein Telegramm mit den Worten „Ihre Majestät die Kaiserin schwer verwundet“ nach Wien. Um 14:40 Uhr stellte ein Arzt Elisabeths Tod fest. Daraufhin wurde ein zweites Telegramm mit der Todesnachricht nach Wien geschickt.

Nach dem Attentat

Der Obduktionsbefund spricht von einem langen, spitzen Gegenstand, der sich 85 mm tief in die Brust gebohrt und eine Rippe verletzt hat, außerdem einen Lungenflügel, die linke Herzkammer und den Herzbeutel durchgeschnitten hat.

Am 13. September wurde der Leichnam Elisabeths in Genf eingesegnet und am 14. September in einem Sonderzug nach Wien gebracht. Unter den Augen einer riesigen Menschenmenge überführte man den Sarg in die Burgkapelle, wo am 16. September eine Messe stattfand. Abertausende Menschen nahmen von ihrer Kaiserin Abschied. Am 17. September überführte man den Sarg in die Kapuzinergruft, die Grabstätte der Habsburger. Hier liegt Elisabeth von Österreich neben Ehemann und Sohn, Kaiser Franz Joseph und Kronprinz Rudolf.

Was man über den Mörder von Sissi weiß

Ihr Mörder war der damals 25 jährige Luigi Lucheni, ein italienischer Hilfsarbeiter. Er hatte aus der Zeitung vom kaiserlichen Besuch in Genf erfahren. Nach seinem Angriff flüchtete Lucheni in die Rue des Alpes, wo Passanten ihn überwältigten. Die Polizei verhaftete ihn. Auf dem Revier gab er zu Protokoll, dass er eigentlich Prinz Heinrich von Orléans hatte töten wollen. Sollte das nicht gelingen, stand König Umberto von Italien auf seiner Todesliste. Da beide gar nicht in Genf anwesend waren, suchte sich Lucheni offensichtlich ein Ventil für seine Frustration und erstach Sissi aus reiner Mordlust.

Von seiner Verhaftung existiert ein Foto, auf dem Lucheni zufrieden grinst. Entgegen der Theorie vom Zufallsopfer ging die Polizei sofort von einem gezielten Mordkomplott aus, da sich Luigi zusammen mit einer Gruppe Anarchisten schon längere Zeit in der Schweiz aufgehalten hatte. Öffentlich bereute Lucheni seine Tat niemals. Im Gegenteil, er prahlte: „Ich würde die Tat noch einmal begehen“. 1910 erhängte er sich in seiner Zelle.

Was ist Wegovy (Semaglutid)? Bedeutung, Definition, Erklärung


Wegovy kommt unterstützend bei Diäten und körperlichen Aktivitäten zum Einsatz. Es besteht aus dem Wirkstoff Semaglutid und soll Menschen helfen, abzunehmen und ihr Gewicht zu halten. Üblicherweise wird das Mittel bei Erwachsenen eingesetzt, die

  • mindestens einen BMI von 27 kg/m², jedoch weniger als 30 kg/m² besitzen oder Gesundheitsprobleme aufgrund des Gewichts haben wie beispielsweise Bluthochdruck, Diabetes, Atemprobleme beim Schlafen (obstruktive Schlafapnoe), unnormale Blutfettwerte,
  • einen BMI von 30 kg/m² oder höher besitzen,
  • anderweitige Vorgeschichten bezüglich Schlaganfall, Herzinfarkt oder Blutgefäßproblemen.

Der BMI (Body-Mass-Index) ist eine Bezugsgröße hinsichtlich des Verhältnisses von Gewicht zur Körpergröße.

Wie ist die Wirkung von Wegovy?

Semaglutid als Wirkstoff in Wegovy gilt als ein „GLP-1-Rezeptoragonist“ und wirkt genauso wie GLP-1, ein natürlich vorkommendes Hormon im Körper. Unter anderem soll es den Appetit zügeln, indem sich bei der Person ein Sättigungsgefühl einstellt. Gleichzeitig sollen Hunger und das Verlangen nach Nahrungsaufnahme unterbunden werden.

Wofür wurde Wegovy früher verwendet?

Das Produkt gibt es in Deutschland schon seit dem Jahr 2018 auf dem Markt. Früher war es allerdings unter dem Namen „Ozempic“ als Mittel gegen Diabetes bekannt. Mittlerweile ist es als Abnahmepräparat auf dem Markt und besitzt zudem noch eine höhere Dosierung. Seit 2021 ist das Mittel in der EU unter einem neuen Namen (Wegovy) zugelassen.

Zur Erklärung des neuen Mittels gibt die EMA (Europäische Arzneimittelbehörde) ein Statement ab, wonach Wegovy hauptsächlich zur Unterstützung der körperlichen Aktivität sowie einer Diät angewandt wird. Hierbei soll es den Anwender unterstützen, Gewicht zu verlieren und ihr neues Gewicht zu halten.

Das Mittel ist aktuell nur gegen Rezept erhältlich.

Gibt es Nebenwirkungen? Wegovy

Die EMA berichtete über Nebenwirkungen wie Erbrechen, Verstopfung, Durchfall, Übelkeit und Bauchschmerzen. Das sind laut EMA „sehr häufige Nebenwirkungen“ von dem Präparat „Wegovy“. Laut Behörde können diese Nebenwirkungen bei mehr als einem von zehn Behandelnden vorkommen. Jedoch seien laut der Zulassungsbehörde die Nebenwirkungen regulierbar. Zudem gelangte die Behörde zu dem Schluss, dass der Nutzen dieses Präparates den Risiken überwiegt und es schlussendlich deshalb auch in der EU zugelassen wurde.

Wie wird Wegovy angewendet?

Das Mittel wurde hauptsächlich zur Unterstützung einer kalorienreduzierten Ernährung und vermehrter körperlicher Aktivität zugelassen. Es soll helfen, das Gewicht zu kontrollieren und Gewicht zu verlieren. Insbesondere gilt dies für Erwachsene, die über einem BMI von 30 kg/m² (Fettleibigkeit) liegen. Aber auch bei Erwachsenen mit einem BMI von mehr als 27 kg/m² soll das Präparat zum Einsatz kommen. Voraussetzung hierfür ist allerdings, dass mindestens eine Gewichts-assoziierte Komorbidität vorliegt. Vor allem zählen dazu Diabetes Typ 2, oder Prädiabetes sowie erhöhte Blutfettwerte, Bluthochdruck, kardiovaskuläre Erkrankungen und obstruktive Schlafapnoe.

Das Mittel ist als Lösung zum Spritzen in folgenden Stärken zugelassen:

  • 0,25 mg
  • 0,5 mg
  • 1 mg
  • 1,7 mg
  • 2,4 mg

Das neu zugelassene Semaglutid ist als Lösung wesentlich höher dosiert, als das vorhergehende Diabetesmittel. Zu Behandlungsbeginn mit Wegovy wird die Dosis aufgeteilt. Zudem kommen gastrointestinale Nebenwirkungen sehr häufig vor.

Ob der neue Wirkmechanismus von Semaglutid tatsächlich beim Abnehmen hilft, ist noch nicht ganz klar. Durch den GLP-1-Rezeptoragonisten wird der Appetit gezügelt und vermittelt ein Sättigungsgefühl. Somit sollen Anwender weniger Essen und dadurch Gewicht verlieren. Gegenüber Placebo war bei den klinischen Studien zufolge der Gewichtsverlust sehr deutlich zu erkennen. Im Durchschnitt verloren die Probanden in 68 Wochen circa 15 bis 17 Kilogramm. Hierzu hatten sie sich jede Woche eine Dosis von insgesamt 2,4 mg Semaglutid injiziert. Insgesamt lag somit hinsichtlich des Gewichts ein Minus von 16 % im Vergleich zum Ausgangsgewicht vor.

Antibaby-Pille: Vorteile und Nachteile erklärt


Die Anti-Baby-Pille, umgangssprachlich „Pille“ genannt, ist eine hormonelle Verhütungsmethode, die erstmals 1960 in den USA auf den Markt kam. Ein Jahr später war sie auch in Deutschland erhältlich. Bei korrekter Anwendung verhindert die Pille mit sehr hoher Wahrscheinlichkeit eine Schwangerschaft. Die Pille schenkte Frauen eine nie dagewesene Freiheit und Selbstbestimmtheit über ihren Körper. Dadurch prägte sie die Gesellschaft von Industrieländern maßgeblich. Heute verhüten weltweit ca. 200 Millionen Frauen mit der Anti-Baby-Pille. In Deutschland ist die Pille mit 34 % ähnlich beliebt wie das Kondom mit 38 %.

Vorteile der Anti-Baby-Pille

(Nachteile der Antibaby-Pille folgen weiter unten)

– Die Verhütung mit der Pille ist komfortabel und leicht. Sie gilt außerdem als sehr sicher, deutlich sicherer als beispielsweise natürliche Empfängnisverhütungs-Methoden.

– Die Einnahme der Anti-Baby-Pille erlaubt eine optimale Zykluskontrolle. Die Frau weiß genau, wann sie ihre Periode bekommt und kann diese bei Bedarf einige Tage verschieben. (Davon machen Leistungssportlerinnen gerne Gebrauch).

– Die Pille hat keinerlei Einfluss auf die Fruchtbarkeit. Nach Absetzen werden die meisten Frauen nach einem Zyklus schwanger, egal wie lange sie die Präparate vorher eingenommen haben.

– Durch die Einnahme reduzieren sich Dauer und Stärke der Menstruation, was in der Regel mit weniger Schmerzen verbunden ist. Die Einnahme der Pille kann die Symptome einer Endometriose deutlich lindern.

– Einige Präparate können Akne reduzieren, so dass diese bevorzugt jungen Frauen mit Hautproblemen verschrieben werden. Die positiven Effekte auf die Haut resultieren aus der Tatsache, dass die Einnahme der Pille die Konzentration männlicher Geschlechtshormone im Blut reduziert. Allerdings ist die Wirkung gegen Akne keine zugelassene medizinische Indikation der Pille.

– Ferner ist nachgewiesen, dass Kombinationspräparate das Risiko senken, an Eierstockkrebs und Gebärmutterkörper-Krebs erkranken. Das ist bis 30 Jahre nach Absetzen der Pille der Fall. In Bezug auf andere Krebserkrankung gibt es zwar positive Studiendaten, die sind aber noch nicht gesichert.

– Die Minipille enthält eine Wirkstoffmischung mit extrem wenig Östrogen. Sie eignet sich für Frauen, die eine Hormonbehandlung mit Östrogen nicht vertragen.

Die Antibaby-Pille und ihre Nebenwirkungen: Nachteile

Heute bietet der Markt mehr als 50 verschiedene hormonelle Verhütungsmittel. Sie sind zwar praktisch, aber nicht nebenwirkungsfrei. Insbesondere die Langzeitfolgen haben dazu geführt, dass die Pille an Beliebtheit etwas eingebüßt hat. Manchmal können sich die Symptome bei längerer Einnahme jedoch abschwächen. Ob Mikropille, Minipille oder „normale“ Anti-Baby-Pille, alle Präparate beeinflussen den Hormonhaushalt der Frau.

Da jede Frau anders auf Hormone reagiert, können die Nebenwirkungen sehr unterschiedlich sein. Wird die Pille abgesetzt, kann es mehrere Monate dauern, bis sich der normale Zyklus wieder einstellt. Genauso ist es möglich, dass die Frau nach sehr kurzer Zeit schwanger wird. Gerade Minipillen haben den Nachteil, unregelmäßige Zyklen und Zwischenblutungen hervorzurufen. Diese Präparate können auch während der Stillzeit eingenommen werden, da sie weder die Milchbildung noch die Milchqualität beeinflussen. Stillende Frauen, die trotzdem Bedenken haben, dass ihr Baby mit der Muttermilch Hormone aufnimmt, müssen eine andere Verhütungsmethode wählen.

Die häufigsten Nebenwirkungen sind:

  • Kopfschmerzen
  • Übelkeit und Erbrechen
  • Zwischenblutungen
  • Wassereinlagerungen
  • Stimmungsschwankungen
  • depressive Verstimmungen
  • Gewichtszunahme
  • Nachlassen der Libido
  • Blutgerinnsel, Thrombosen und Embolien

Krebsrisiko durch die Pille – ja oder nein?

Die Einnahme muss immer nach individueller Risiko-Nutzen-Abwägung erfolgen. Bei langer Einnahmedauer (25 bis 35 Jahre) gehen Mediziner von einem marginal erhöhten Risiko (0,1 %) für Gebärmutterhalskrebs und Brustkrebs aus. Frauen, die die Pille einnehmen, haben jedoch ein geringeres Risiko für Eierstockkrebs.

Die Pille erhöht das Risiko für Thrombosen

Eine der wichtigsten und zugleich schwerwiegendsten Komplikationen sind Thrombosen. Frauen mit weiteren Risikofaktoren sind besonders gefährdet. Diese Risikofaktoren sind Rauchen, Übergewicht, Diabetes mellitus, Bluthochdruck und familiäre Vorbelastung. Ein erhöhtes Thromboserisiko kann durch eine Blutuntersuchung festgestellt werden.

Schlechtere Körperwahrnehmung

Es ist unbestritten, dass die Pille stark in den Hormonhaushalt eingreift. Viele Frauen wünschen sich mehr Natürlichkeit und möchten Ihren Körper besser wahrnehmen. Sie haben das Gefühl, die Wahrnehmung wird durch die Pille gedämpft.

Schwächere Libido

Die Pille kann die Libido abschwächen, was selten erwünscht ist und zu Konflikten in der Partnerschaft führen kann.

Feste Einnahmezeiten

Die Minipille muss jeden Tag konsequent zur gleichen Uhrzeit eingenommen werden. Sie eignet sich daher nur für Frauen, die gut strukturiert sind. Sie toleriert nur geringe Abweichungen beim Zeitpunkt der Einnahme.

Störfaktoren für die Wirksamkeit der Pille

Der Empfängnisschutz der Minipille ist nicht mehr gewährleistet, wenn sich die Einnahme um mehr als 12 Stunden verschoben hat oder sie mehr als einmal vergessen wurde. Auch Durchfall und Erbrechen haben Einfluss auf ihre empfängnisverhütende Wirkung. Antibiotika, aber auch pflanzliche Medikamente wie beispielsweise Nahrungsergänzungsmittel mit Johanniskraut, beeinträchtigen die Sicherheit der Anti-Baby-Pille. Wer verreist, muss Zeitverschiebungen berücksichtigen. Bei Zeitverschiebungen bis maximal 12 h (in der Regel alle Reiseziele innerhalb Deutschlands) können Frauen die Pille am Urlaubsort wie gewohnt einnehmen. Bei Flügen in westlicher Richtung vergrößert sich der Einnahmeabstand. Information im Beipackzettel und Gynäkolog:innen geben darüber genaue Auskunft.

Kurze Entwicklungsgeschichte der Antibaby-Pille

Die Idee, Hormone zur Empfängnisverhütung einzusetzen, verfolgten Ärzte schon ab 1919. Margaret Sanger und Katharine McCormick, beides Frauenrechtlerinnen und im medizinischen Bereich tätig, gaben den entscheidenden Anstoß hierzu.

Die Krankenschwester Margaret Sanger sah in ihrem Arbeitsumfeld täglich Frauen, die an den Folgen ungewollter Schwangerschaften litten und nach dilettantisch durchgeführten Schwangerschaftsabbrüchen starben. Beide Frauen waren engagierte Frauenrechtlerinnen und strebten eine großflächige Aufklärung über Verhütung an. 1921 gründeten sie die „Amerikanische Liga für Geburtenkontrolle“.

1951 lernte Sander den Endokrinologen Gregory Pincus kennen und fragte ihn, wie viel Geld er für die Entwicklung eines hormonellen Verhütungsmittels bräuchte. Er veranschlagte weitaus weniger, als letztendlich benötigt wurde, erhielt es aber von der vermögenden Katharine McCormick, einer Freundin Sanders. Sie unterstützte das Vorhaben mit insgesamt 2 Millionen US-Dollar.

Zusammen mit anderen Wissenschaftlern gelang es Pincus, die Hormone Progesteron und Östrogen künstlich herzustellen. Ihre Erfolge sind nicht ohne die Arbeit des Deutschen Chemikers Adolf Butenandt denkbar. Ihm gelang es nach jahrelangen Versuchen, Hormone zu isolieren. Damit schaffte er die chemische Grundlage zur Herstellung der Anti-Baby-Pille. 1939 erhielt Butenandt für seine Forschungen zu Sexualhormonen den Nobelpreis für Chemie.

Als die Pille 1961 auch in Deutschland verfügbar war, gab es seitens der Kirchen erheblichen Widerstand. Man befürchtete einen Verfall der Moral. Zunächst war die Pille auch nicht zur Empfängnisverhütung, sondern als Medikament gegen Menstruationsbeschwerden gedacht. Ärzte verschrieben sie nur verheirateten Frauen mit Kindern. Die empfängnisverhütende Wirkung erwähnte der Hersteller Schering lediglich als Nebenwirkung im Beipackzettel, doch sie kam einer Revolution gleich.

Eine neue Zeit bricht an: die sexuelle Revolution

Erst die Pille machte die sexuelle Revolution der 1960er Jahre möglich, doch das innovative Verhütungsmittel setzte sich nicht von Anfang an durch. Das lag nicht nur daran, dass die katholische Kirche dagegen protestierte, auch die Frauen selbst (50 %) waren der Pille gegenüber skeptisch eingestellt. Das zeigen Umfragen des Allesbach-Institutes von 1963. Sie plädierten sogar dafür, die Pille in Deutschland zu verbieten. Mehr als 60 % der Befragten schlossen sich der Auffassung der Kirchen an, dass die Pille einen negativen Einfluss auf die Moral habe. Obwohl Papst Paul VI. in seiner Enzyklika die Pille sogar mit einem Bann belegte, konnte er letztendlich nicht viel ausrichten. Zu groß war die Freude der Frauen, endlich von der Angst vor einer ungewollten Schwangerschaft befreit zu sein. Von nun an waren Fruchtbarkeit und Sexualität getrennte Lebensbereiche.

Wie funktioniert die Anti-Baby-Pille? Funktionsweise

Die in der Pille enthaltenen Hormone Östrogen und Gestagen unterdrücken die Reifung des weiblichen Eis im Eierstock und verhindern damit den Eisprung. Die Hormone beeinflussen auch die Schleimhaut des Gebärmutterhalses, denn während des gesamten Zyklus bleibt der Muttermund mit einem Schleimpfropfen verschlossen. Dadurch wird das Eindringen von Spermien in die Gebärmutter verhindert. Die Hormone schwächen außerdem den Aufbau der Gebärmutterschleimhaut deutlich ab. Würde wider Erwarten ein Eisprung stattfinden, könnte sich eine befruchtete Eizelle hier nicht einnisten.

Wie wird die Antibaby-Pille eingenommen?

Die einzelnen Einnahme-Anleitungen variieren von Präparat zu Präparat. Frauen nehmen die Tabletten durchgehend ein, sie basieren auf einem Zyklus von 28 Tagen. Die erste Tablette wird bei allen Präparaten am ersten Tag der Regelblutung eingenommen. Nach 21 Tagen folgt eine siebentägige Einnahmepause. In dieser Zeit sinken die Hormonspiegel und eine schwache Regelblutung setzt ein. An Tag acht wird wieder mit einer neuen Packung begonnen. Es gibt auch Präparat die eine durchgehende Tabletteneinnahme vorsehen. Dann enthalten die Tabletten, die in der Zeit der Periode genommen werden, keine Wirkstoffe.

Warum und wann wurden Kettensägen erfunden? Erklärung, Bedeutung, Definition


Die Kettensäge wurde im 18. Jahrhundert von zwei schottischen Ärzten – John Aitken und James Jeffray – erfunden, um gebärenden Frauen die Beckenknochen durchzusägen, um dem Kind auf die Welt zu helfen. Das war nötig, wenn ein Kind beispielsweise zu groß für den Geburtskanal war oder nicht richtig für eine Geburt positioniert war. Mit der Säge wurde damals der Beckenknochen (die Symphyse) durchgesägt oder entfernt – eine sogenannte Symphysiotomie – um mehr Platz für das Kind im Geburtskanal zu schaffen.

Wie sah die erste Kettensäge aus?

Die Kettensäge von John Aitken und James Jeffray erinnerte nur grob an das, was wir heute als Kettensäge kennen. Die ursprünglich als Knochensäge entwickelte Kettensäge bestand aus zwei Handgriffen, zwischen denen eine Kette hindurchgeführt wurde. Diese Kette bestand aus beweglichen, gezahnten Gliedern. Durch ein Hin- und Herziehen dieser Kette mit den Handgriffen konnten Knochen zersägt werden.

Welche Folgen hatte der Einsatz einer solchen Kettensäge bei Geburten?

Da die medizinischen Entwicklungen im 18. Jahrhundert noch nicht annähernd so gut waren wie heute, war der Einsatz einer Kettensäge und das Zersägen von Beckenknochen tatsächlich eine valide Notfallmaßnahme unter der Geburt. Aufgrund des mangelnden Wissens zu Hygiene und Sterilität war ein Kaiserschnitt zu dieser Zeit noch viel riskanter als die Symphysiotomie und endete fast immer mit dem Tod der Mutter durch Verbluten oder Infektionen. Ein Kaiserschnitt hatte zur damaligen Zeit eine Sterblichkeitsrate für die Mutter von fast 100 %.

Doch auch der Einsatz der Kettensäge bedeutete für die Mutter monatelange Schmerzen und barg ein hohes Infektionsrisiko. Auch für das Kind war der Eingriff höchst riskant, da es verletzt werden konnte.

Die Alternative war jedoch, nichts zu tun, was bei einer stagnierten Geburt für Mutter und Kind mit an Sicherheit grenzender Wahrscheinlichkeit zum Tod führt.

Wie entstand die heutige Kettensäge mit rotierender Kette?

Die erste Kettensäge von Aitkins und Jeffray war eine Kette, die man über zwei Handgriffe hin- und herbewegen konnte. Bis auf die gezahnten Kettenglieder gab es also kaum Ähnlichkeit zur heutigen Kettensäge mit rotierendem Sägeblatt und Motor. Doch auch diese moderne Version der Kettensäge ist eine Erfindung der Medizin.

1830 präsentierte der Instrumentenbauer und Orthopäde Bernhard Heine seine neuste Erfindung: das Osteotom. Der Begriff stammt aus dem Altgriechischen. „Osteo“ bedeutet Knochen und „Tomia“ bedeutet Schnitt.

Bernhard Heine hatte damals eine Knochensäge zum Öffnen von Schädeln entwickelt, von der er sich eine deutlich exaktere Schnittführung versprach als damals möglich. Zu der Zeit wurden Schädelöffnungen mit Hammer und Meißel oder einem Bohrer durchgeführt. Mit diesem Osteotom hatte Bernhard Heine das grundlegende Prinzip entwickelt, das auch heute noch modernen Kettensägen mit Motor zugrunde liegt.

Seit wann gibt es die heutige Kettensäge?

Obwohl das Prinzip für die rotierende Kettensäge schon 1830 geboren war, dauerte es bis in die Mitte des 19. Jahrhunderts, bis die erste elektrische Kettensäge auf den Markt kam. Zuvor hatte es Versuche mit dampfbetriebenen oder mechanischen Kettensägen mit rotierendem Sägeblatt gegeben, die sich allerdings aufgrund von Unhandlichkeit oder Fehleranfälligkeit nicht durchgesetzt hatten. Ein Jahr nach der elektrischen Kettensäge kam auch die benzinbetriebene Motorsäge auf den Markt. Diese Sägen mussten zunächst von zwei Personen bedient werden, da sie sehr schwer waren.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen


Die Substanz, mit der Raucher immer wieder dazu verleitet werden zu rauchen, nennt sich Nikotin. Diese ist im Tabak enthalten. Menschen rauchen, obwohl sie wissen, dass es ungesund ist. Doch was steckt hinter dem Verlangen immer wieder eine rauchen zu müssen? Tatsächlich gehört die Sucht des Rauchens zu der am schwersten zu besiegenden Gewohnheit.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Für Menschen gibt es viele verschiedene Gründe, mit dem Rauchen anzufangen. Abgesehen davon ist es umso schwerer, mit dem Rauchen wieder aufzuhören. Nikotin wirkt sehr stark als Suchtmittel und übernimmt schnell die Kontrolle im Leben eines Menschen. Obwohl viele Raucher mit dem Rauchen aufhören möchten, haben oftmals nur weniger als 10 % Erfolg damit.

Mittlerweile gibt es verdichtende Hinweise dafür, dass im Gehirn das sogenannte endogene Opioidsystem mit der Sucht nach Nikotin zusammenhängt. Verschiedene Studien haben gezeigt, dass der Konsum von Nikotin sogar Endorphine im Gehirn freisetzt. Diese Endorphine wiederum setzen im endogenen Opioidsystem positive Gefühle frei und bewirken so bei den meisten Rauchern eine angenehme Wirkung.

Man kann sich vorstellen, dass das endogene Opioidsystem wie ein Informationsnetz funktioniert. Sämtliche Informationen werden dann über verschiedene Botenstoffe – wie beispielsweise Endorphine – weitergegeben. An speziellen Rezeptoren bleiben diese Botenstoffe dann haften. Konsumiert man eine große Menge an Drogen, vergrößert sich auch die Menge an Botenstoffen und kann so das ganze Informationsnetz im Gehirn durcheinander bringen.

Gründe für das Rauchen

Viele Raucher haben Angst, mit dem Rauchen aufzuhören, weil sie eventuell an Gewicht zunehmen könnten. Ganz unbegründet ist dies nicht, denn Nikotin hemmt nachweislich den Appetit. Menschen, die aufgehört haben zu rauchen, essen dann vermehrt statt zu rauchen. Hinzu kommt, dass Nikotin den Stoffwechsel ankurbelt und folglich ein Raucher auch mehr Kalorien verbraucht. Dennoch ist dies der völlig falsche Grund, mit dem Rauchen anzufangen, denn die wenigsten Menschen haben wegen Gewichtsproblemen angefangen zu rauchen.

Wer mit dem Rauchen aufhören möchte, sollte intensiver darauf achten, nicht den Ersatz im Essen zu suchen, denn dann bestehen gute Chancen, auch ein schlanker Nichtraucher zu bleiben. Eine zusätzliche, ausreichende Bewegung kann diesen Prozess unterstützen.

Andere Raucher berichten, dass sie durch eine Zigarette entspannter werden. Insbesondere, wenn man gestresst und nervös ist, greifen die Menschen am häufigsten zur Zigarette. Sie erhoffen sich dadurch einen beruhigenden Effekt. Es dauert nicht lange, bis der eingeatmete Rauch im Gehirn ankommt und das Verlangen befriedigt. Allerdings ist es umgekehrt: Nicht das Nikotin beruhigt den Raucher, sondern das Ausbleiben des Nikotins löst Anspannung aus. Im Prinzip ist dies nichts anderes, als eine Art Entzugserscheinung, die entsteht, wenn das Zuführen von Nikotin eine längere Zeit ausbleibt. Da bei vielen Rauchern der Eindruck erweckt wird, das Rauchen könnte entspannend wirken, wird oftmals zur Zigarette gegriffen, was einen wahren Teufelskreis bildet.

Werden Raucher befragt, weshalb sie eigentlich Zigaretten konsumieren, ist der häufigste genannte Grund die Geselligkeit. Als Raucher findet man schnell Anschluss – so der Gedankengang. Dennoch hat das eine mit dem anderen überhaupt nichts zu tun. Es gibt immerhin genauso viele Nichtraucher, die die Gesellschaft von anderen Menschen genießen und sich mit ihnen gerne unterhalten. Wer einfach einmal vor die Tür möchte, um frische Luft zu schnappen oder mit anderen Menschen zusammenzustehen, muss sich dafür nicht gleich eine Zigarette anzünden. Wer die Meinung vertritt, dass das Rauchen die Menschen verbindet, der kann genauso gut sagen, dass das Nichtrauchen verbindet. Der Vorteil bei Nichtrauchern ist zudem, dass eine gesellige Runde sich nicht nur auf einen abgegrenzten Raucherbereich konzentrieren muss.

Siehe auch: Synonyme für Zigaretten und Rauchen

Weshalb fällt es schwer, mit dem Rauchen aufzuhören? Erklärung

Grundsätzlich sind dafür zwei Komponenten verantwortlich: die Gewohnheit sowie das Nikotin. Auf natürliche Art und Weise kommt es in der Tabakpflanze vor und gilt als stark süchtig machende Substanz. Wird Nikotin konsumiert, setzt es im Gehirn das Belohnungshormon Dopamin frei.

Des Weiteren fällt es Rauchern schwer, mit dem Rauchen aufzuhören, da sie gewisse Rituale, also Gewohnheiten, mit der Zigarette verbinden. Das kann entweder die Zigarette nach einem guten Essen oder auch die Zigarette zum Kaffee sein. Eigentlich immer dann, wenn der Mensch sich entspannen möchte. Diese Gewohnheiten zu durchbrechen, erfordert einiges an Disziplin und ist nicht immer ganz einfach. Genauso herausfordernd ist da natürlich auch die körperliche Abhängigkeit.

Fazit: Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Die Beliebtheit des Rauchens hat global gesehen in den letzten Jahren abgenommen. Nicht zuletzt haben die Gesundheitsbedenken einen großen Anteil dazu beigetragen. Trotzdem gibt es immer noch viele Menschen, die regelmäßig rauchen. Es lohnt sich – einfach gesagt – gar nicht erst mit dem Rauchen anzufangen. Wer schon zu den starken Rauchern gehört, für den kann unter Umständen eine Raucherentwöhnung in Betracht kommen.

Wer sich als Raucher entschieden hat, mit dem Qualmen aufzuhören, probiert meistens erst einmal einen kalten Entzug, welcher jedoch auch einige Gefahren mit sich bringen kann. Als Raucher sollte man sich bewusst machen, dass man nicht allein ist und es auch nicht unmöglich ist, mit dem Rauchen aufzuhören. In der heutigen Zeit gibt es viele Methoden, um endlich rauchfrei zu werden. Hierzu gehören Praktiken wie beispielsweise Hypnose, eine Spritze ins Ohr oder auch eine Nikotinersatztherapie.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition


Factfulness ist eine Wortneuschöpfung, die eine faktenbasierte Weltsicht beschreibt. Anders formuliert: Factfulness bedeutet, dass man seine Meinung auf starken und eindeutigen Fakten aufbaut.

Bekanntheit erreichte der Begriff durch das gleichnamige Buch von Hans Rosling aus dem Jahr 2018. Rosling spricht darin von einer verzerrten Darstellung der Welt durch Medien, Meinungsführer und Politiker. Er stellt fest, dass Medienberichte häufig nicht mit den tatsächlichen Fakten übereinstimmen und appelliert an uns, nicht alle Informationen der Medien ungeprüft zu übernehmen.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition

Die Welt in zwei Hälften zu teilen ist einfach, aber auch für die seelische Gesundheit des Menschen enorm wichtig. Osten und Westen, reiche Länder und Entwicklungsländer, Islam und Christentum – Schubladen machen die komplizierte Welt etwas einfacher. (Siehe: Was ist schwarz-weiß-Denken?)

Für Rosling geschieht dies nicht in schlechter Absicht oder aufgrund schlechter Recherche. Es ein typisch menschliches Phänomen, Fakten zu verleugnen. Das menschliche Gehirn tendiert dazu, die Welt in zwei Pole zu zerlegen, in gebildet und ungebildet, männlich und weiblich, Arme und Reiche usw. Werden durchschnittliche Unterschiede gefunden, bauschen Medien diese gerne zu einer ganz großen Sache auf. Betrachtet man die Fakten genauer, stellt sich heraus, dass es sehr große Überschneidungen zwischen beiden Gruppen gibt, die Unterschiede zwischen den Mittelwerten für die meisten Menschen also bedeutungslos sind.

Doch das menschliche Gehirn fixiert sich bevorzugt auf die Unterschiede. Wir haben die Tendenz, Schreckensszenarien in den Vordergrund zu stellen. Für uns ist die Information, dass 8 % der Jugendlichen in Deutschland keinen Schulabschluss haben, viel spannender, als die Tatsache, dass 92 % einen besitzen. Genauso wird eine Arbeitslosenquote von 6 % deutlich spannender wahrgenommen als eine Quote von 94 % Beschäftigten – obwohl die Beschäftigtenzahl eigentlich überzeugen muss. Denn eine Gesellschaft wird nicht durch die Arbeitslosenzahl charakterisiert, sondern durch die überwiegende Zahl Beschäftigter, die zum Bruttosozialprodukt beitragen.

Ähnlich verhält es sich mit Zahlen über Bildung und sozialer Herkunft. Seit langem lassen Politik und Medien verlauten, dass die soziale Herkunft über den Bildungserfolg entscheidet. Statistiken zufolge sind es aber nur zwischen 10 und 20 % der Unterschiede beim Bildungserfolg, die sich auf die soziale Herkunft zurückführen lassen. Auch die Intelligenz ist ein wesentlicher Faktor, scheint aber weniger interessant zu sein, weil sie keine Skandale erzeugen kann.

Factfulness: Skandalisierung von Bagatellen in den Medien

Der Mensch ist von Skandalen fasziniert und neigt zu schnellen Urteilen, ohne die Fakten zu berücksichtigen. Die Medien machen sich das zu Nutze, was sich auch bei Nachrichtensendungen zeigt. Zugunsten des Skandals lassen deren Redakteure häufig wesentliche Fakten unerwähnt. Wird beispielsweise über Terroranschläge berichtet, zeigt man die Opfer. Verschwiegen wird die Tatsache, dass die Zahl der Terroropfer in Deutschland seit Jahren zurückgeht. Oft hält man an Überzeugungen und Bildern fest, die vor Jahrzehnten galten, aber mittlerweile überholt sind.

Rosling behauptet in seinem Buch, dass man von den freien Medien keine faktenbasierte Weltsicht erwarten kann. Sie seien auch nicht die richtigen Quellen, um etwas über umwälzende kulturelle Veränderungen zu erfahren.

Um weiterhin alte Stereotype zu bedienen, nutzten westliche Medien häufig veraltete Quellen. Damit trügen sie nicht wirklich zu einem realistischen Bild anderer Länder bei. Hierfür nennt er zahlreiche Beispiele, unter anderem den Iran: In diesem Land geht die Zahl der Kinder pro Frau, seit es Statistiken darüber gibt, weltweit am schnellsten zurück. (Heute sind es statistisch 1,6 Kindern, 1984 waren es noch über 6 Kinder).

Obwohl der Iran häufig Thema in den freien Medien war, wurde über diesen Umstand nie berichtet. Stattdessen stellte man einen spekulativen Zusammenhang zwischen Kinderzahl und Religion her. Entscheidend für die veränderte Geburtenzahl im Iran sind aber Einkommen und Kindersterblichkeit. Fakten wurden verschwiegen und die Meldung so formuliert, dass man zwangsläufig falsche Schlüsse daraus zieht.

Factfulness: Faktenbasierter Journalismus darf keine Ängste schüren

Roslings Buch kann man als Appell verstehen, die Menschen hin zu mehr Factfulness zu bewegen. Er möchte uns dazu ermutigen, auch bei Meldungen, die zunächst sehr dramatisch erscheinen, nicht sofort in Panik zu verfallen.

Stattdessen sollen wir als Medienkonsumenten Fakten und Daten sammeln und uns genau über den Sachverhalt informieren. Denn die meisten Probleme, die in den Medien dargestellt werden, können nicht auf die Schnelle gelöst werden. Wie die Corona-Pandemie gezeigt hat, ist es selbst bei einer Epidemie besser, zunächst Daten zu sammeln und dann Entscheidungen zu treffen, die auf Fakten beruhen. Besonders wichtig ist das bei den aktuellen und künftigen Herausforderungen des Klimawandels.

Die alten Ängste sorgen nur dafür, dass wir im Nichtstun verhaftet bleiben.
Rosling rät zur Politik der kleinen Schritte. Die Geschichte zeigt, dass viele der so genannten Dritte-Welt-Länder schon aus der schlimmsten Armut herausgekommen und eine Stufe höher geklettert sind. Es sind die Menschen und nicht die Politiker, die für bessere Bildung, bessere Gesundheit und sauberes Trinkwasser kämpfen. Noch vor 150 Jahren war auch Deutschland ein armes Land voller Hungersnöte und Seuchen. Es gilt also, die Bevölkerung in den südlichen Teilen der Welt nicht als anonyme Arme zu sehen, sondern als Menschen, deren Leben dem unseren sehr ähnlich ist. Wir alle streben nach einem gesünderen und glücklicheren Leben.

Rosling möchte uns mit seinem Buch zeigen, dass die Welt reicher und bunter ist, als es uns die Medien weismachen möchten. Er appelliert an unseren Verstand und betont immer wieder, dass es sich lohnt, nicht jede reißerische Information ungeprüft zu übernehmen, sondern sie stets zu hinterfragen.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte


Der französische Kaiser und Feldherr Napoleon Bonaparte starb am 5. Mai 1821 auf der Insel St. Helena im Südatlantik. Die Schlacht bei Waterloo 1815 war Napoleons letzte große Schlacht. Da die Engländer siegreich aus ihr hervorgingen, schickten sie Napoleon auf die Insel St. Helena in die Verbannung. Hier verbrachte er seine letzten sechs Lebensjahre. Der Leichnam Napoleons wurde im Invalidendom in Paris beigesetzt.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte

Dass Napoleon an den Folgen eines Magenkarzinoms starb, wurde von seinem letzten Leibarzt Francesco Antommarchi diagnostiziert. Er obduzierte den französischen Kaiser und stellte eine Reihe von Krebsgeschwüren an der Magenwand fest.

Bei der Autopsie waren acht Ärzte anwesend, doch von Anfang an gab es Ungereimtheiten. Antommarchi sah zwar die Karzinome und ein verfettetes Herz, befand aber, dass die Todesursache das Klima auf St. Helena sei. Daraufhin kam es zu einem heftigen Streit unter den anwesenden Ärzten. (Quelle: das Standardwerk „Sankt Helena. Der Tod des Kaisers“ von Octave Aubry).

Der Historiker hat sich hierfür eingehend mit Augenzeugenberichten der Autopsie beschäftigt. Einen Zusammenhang zwischen dem Klima auf St. Helena und den Tod Napoleons herzustellen, hatte der Inselgouverneur bei Strafe verboten. Er befürchtete, dass die Engländer verantwortlich gemacht werden könnten.

Obwohl Antommarchi den englischen Autopsie-Bericht nicht unterschrieben hatte, gegen die meisten Forscher schon damals vor der Todesursache Krebs aus. Die war auch aufgrund der familiären Häufigkeit sehr wahrscheinlich. Zwei Schwestern Napoleons und sein Vater waren ebenfalls am Magenkrebs verstorben. Trotzdem gab es in der Vergangenheit immer wieder Zweifel am Krebstod Napoleons.

Die Gegner argumentieren, dass Magenkarzinome in der Regel mit starker Auszehrung einhergehen. Davon war bei Napoleon jedoch kaum etwas zu bemerken. In seinen letzten Lebensjahren hatte er stark zugenommen, so dass man ihn als fettleibig bezeichnen kann. Zeitzeugen sprachen von einer zeitgleichen Verweiblichung. Das lässt den Schluss auf eine endokrine Störung (Hormon- und Stoffwechselerkrankungen) zu. Erst 2021 (siehe unten) konnte die Magenkrebs-Diagnose untermauert und bewiesen werden, dass Napoleon innerhalb weniger Monate mehr als 10 kg Gewicht verloren hat.

Napoleons Tod

Menschen lieben dramatische Geschichten, deshalb hielt sich auch die Giftmordtheorie hartnäckig. Sollte ihm das Gift (vermutlich Arsen) schleichend verabreicht worden sein, dann passt diese Theorie zu seinem Übergewicht.

Außerdem soll Napoleon in seinen letzten Lebensjahren über Lichtempfindlichkeit und Schwerhörigkeit geklagt haben. Vergiftungen gehen häufig mit einer Schwächung der Sinnesorgane einher. Erst vor wenigen Jahren wurden Haare Napoleons noch einmal untersucht und das Ergebnis stützt die Arsen-Theorie. Man fand nicht nur auf der Haaroberfläche Spuren des Giftes, sondern auch im Inneren des Haares.

Sollte das zutreffen, kann Napoleon nur von seinen Wachleuten vergiftet worden sein. Gegen die Theorie spricht die Tatsache, dass Krankheiten vor 200 Jahren häufig mit giftigen Substanzen behandelt wurden. Man war sich der toxischen Wirkung dieser Stoffe nicht bewusst. Ein Beispiel hierfür ist Kalomel, das hochgiftiges Quecksilber enthält.

Von Napoleon ist bekannt, dass er dieses Mittel regelmäßig gegen die unterschiedlichsten Beschwerden einnahm. Eine Überdosis kann tödliche Folgen haben. Der Schweizer Arzt Théodor Turquet de Mayerne nahm Kalomel im 17. Jahrhundert in das allgemeingültige Arzneibuch auf. Fortan gehörte Kalomel in jeden Arztkoffer.

Napoleon: Starb er wegen seiner Tapete?

Einen ähnlichen Ansatz verfolgt die Tapetentheorie. Auch hier war die angenommene Todesursache eine schleichende Vergiftung. Vor 200 Jahren waren Gifte im Alltag allgegenwärtig. Auch die grünen Tapeten (Schweinfurter Grün) in Napoleons Exil enthielte Arsen.

Aufgrund der hohen Luftfeuchtigkeit befanden sich höchstwahrscheinlich viele Schimmelpilz-Sporen in der Raumluft, die mit dem Arsen chemisch reagierten. Demnach muss Napoleon ständig Gifte eingeatmet haben. Gegen die Theorie spricht, dass es aufgrund der Beliebtheit von Schweinfurter Grün deutlich mehr Todesfälle hätte geben müssen. Bekannt ist allerdings, dass damals viele Menschen über Übelkeit, Schwindel und Kopfschmerzen klagten, man aber kein Zusammenhang zu Umweltgiften herstellen konnte, da man ihre toxische Wirkung gar nicht kannte.

Napoleon-Spezialist Lugli untermauert Krebs als Todesursache

Erst 2021 konnte der Pathologe Alessandro Lugli, der mehr als 1.000 Bücher über Napoleon besitzt und sich intensiv mit dem Thema beschäftigt hat, Magenkrebs als Todesursache bestätigen. Seither ist seine Expertise international gefragt.

Obwohl Napoleons Leibarzt Antommarchi einen offiziellen Obduktionsbericht vorgelegt hatte, hielt sich die Vergiftungstheorie noch bis 2008. Die meisten Wissenschaftler gingen zwar von Anfang an von einer Krebserkrankung als Todesursache aus, doch es fehlte der richtige Beweis.

Lugli zweifelte die Vergiftungstheorie vor allem deshalb an, weil Napoleon extrem vorsichtig und darauf bedacht war, Vergiftungsszenarien aus dem Weg zu gehen. Wäre er vergiftet worden, dann nicht schleichend, sondern akut. Zum anderen war es damals üblich, Haare in Arsen zu konservieren, um sie als Andenken aufzubewahren (beispielsweise in einem Amulett). Es war also mehr als wahrscheinlich, dass man auch in Napoleons Haaren Arsen nachweisen konnte.

Anhand von BMI-Messungen (Body- Mass-Index) und Vergleichen mit Hosen Napoleons konnte Lugli beweisen, dass Napoleon in den letzten sechs Monaten seines Lebens 10-14 kg an Gewicht verloren haben muss. Er hatte kein Übergewicht mehr. Das wiederum bestätigt den Obduktionsbefund des Leibarztes: Napoleon muss am Magenkrebs verstorben sein.

Was ist ein Pheromon-Parfum? Wie ist die Wirkung? Erklärung


Menschen fühlen sich von den unterschiedlichsten Düften angezogen und reagieren sehr individuell darauf. Eine Ausnahme hiervon bilden die so genannten Pheromone, die als Lockstoffe fungieren. Tiere und Menschen sondern die Duftstoffe ab, um potentielle Geschlechtspartner anzulocken.

Das Lebewesen, das Lockstoffe produziert, sendet eindeutige Reize aus, die von einem anderen als solche wahrgenommen werden. Die Duftsignale werden von speziellen Riechzellen im Inneren der Nase erkannt und zum Gehirn weitergeleitet. Sie liefern Informationen über Kompatibilität und sexuelle Verfügbarkeit des potentiellen Geschlechtspartners, sodass der Fortbestand der Spezies sichergestellt werden kann.

Was sind Pheromone? Erklärung, Bedeutung, Definition

Der Informationsaustausch mithilfe dieser Botenstoffe, die eigentlich Hormone sind, geschieht unbewusst. Pheromone sind zum Beispiel in Schweiß, Urin, Speichel und Sekreten der Geschlechtsorgane enthalten und senden ihre Signale bei engem Körperkontakt. Sie werden von einem Lebewesen gebildet und rufen in einem anderen Lebewesen eine bestimmte Reaktion hervor. Wie das geschieht, ist noch nicht genau erforscht.

Ferner ist auch nicht bekannt, ob es körpereigene Pheromone gibt. Eigentlich sind diese chemischen Substanzen geruchlos, doch wenn sie an das Jacobson-Organ in der Nase andocken, werden die ausgelösten Reize zum Hypothalamus geleitet, dem ältesten Teil unseres Gehirns. Der steuert unter anderem Appetit, Aggressionen, geschlechtliches Verlangen und die Hormonbildung. Der Volksmund ist sich jedenfalls sicher, dass bestimmte Gerüche unwiderstehlich machen. So nutzt auch die Parfümindustrie Pheromone, um ihre Duftkreationen besser verkaufen zu können.

Pheromone – schon in der Antike bekannt und beliebt

Dass Frauen die Aufmerksamkeit von Männern mithilfe erotischer Düfte auf sich ziehen möchten, ist vermutlich so alt wie die Menschheit selbst. Die tierischen Duftstoffe Moschus, Zibet und Ambra sind schon sehr lange für ihre aphrodisierende Wirkung bekannt und werden nach wie vor in großen Mengen eingesetzt.

Als die Florentinerin Katharina von Medici 1533 Heinrich II. heiratete, brachte sie nicht nur die Kunst des Parfümierens mit an den Hof, sie führte auch mit Zibet, Moschus und Ambra imprägnierte Lederhandschuhe ein. Bis heute ist Moschus einer der beliebtesten Ausgangsstoffe für die Herstellung herber, animalisch riechender Parfüms. Die alten Ägypter wussten auch von der aphrodisierenden Wirkung von Schweiß und sammelten diesen gezielt von jungen, kräftigen Männern ein. Sie verwendeten ihn zur Herstellung von Parfüms und mischten ihn mit anderen Duftstoffen.

Im antiken Rom waren es die Gladiatoren, auf deren Schweiß gutsituierte Römerinnen nicht verzichten wollten. Was die Ägypter vor tausenden Jahren praktizierten, haben europäische Wissenschaftler in der Neuzeit ebenfalls erprobt. Peter Karlson und Martin Lüscher extrahierten aus Körperflüssigkeiten und Achselschweiß ein Duftgemisch zum Aufsprühen. Sie erfanden den Begriff Pheromone.

Pheromone in Parfüms; Wirkung

Bei der Herstellung von Parfüms spielen Pheromone bis heute eine wichtige Rolle. Parfüms mit Pheromonen werden auch als Moleküldüfte bezeichnet. Copulin, Estratetraenol und Androstadienon sind die meistverwendeten Pheromone in der Parfümherstellung. Estratetraenol und Copulin sollen Frauen attraktiver für Männer machen, Androstadienon sorgen dafür, dass Männer für Frauen attraktiver werden.

Parfümhersteller halten die Rezepturen ihrer Pheromon-Parfüms genauso streng geheim wie die Rezepturen ihrer besten Marken. Sie riechen bei jedem Menschen anders, da sie den individuellen Eigengeruch der Person unterstreichen. Deshalb verwendet man Parfüms mit Pheromonen als Layer-Parfüms. Sie werden mit dem Parfüm kombiniert, das man üblicherweise trägt. Zusammen mit weiteren Duftstoffen entfaltet sich die verführerische Wirkung der Pheromone am besten.

KI generierte Texte erkennen: 4 Tools, die dir helfen


ChatGPT hat eine Goldgräber und „Wild West“-Stimmung hervorgebracht, was das Erzeugen von Texten angeht. Auf einmal – so scheint es – kann es jeder. Man muss nur die richtige Aufforderung bei ChatGPT eingeben und bekommt einen Text. So spart man sich stundenlange Recherche und Arbeit. Aber, dass ist zu kurz gedacht, denn man kann KI-Texte von menschlichen Texten unterscheiden und damit den Betrug erkennen. Dabei helfen diese Tools:

Tools zum Erkennen von KI generierten Texten / Content

Anwendungshinweis: Diese Tools funktionieren nur mit englischsprachigen Texten. Wenn du einen deutschen Text überprüfen willst, so musst du diesen erst per Übersetzer (z.B. DeepL) ins englische übersetzen lassen und dann den englischen Text in das Tool einfügen.

1. „GPT-2 Output Detector Demo“

Füg deinen englischen Text ein. Das Tool sagt dir zuviel Prozent er fake oder real ist. (Fake = von einer KI geschrieben; Real = von einem Menschen geschrieben)

2. „roberta-base-openai-detector“

Das zweite Tool ist das gleiche wie das erste. Ich verwende es nur, falls das erste Tool mal laggt oder nicht erreichbar ist. (Dies geschah im Januar 2023 leider öfters.)

roberta base openai detector

Füge deinen Text auf der rechten Seite in dem Feld ein. Sobald du „Compute“ drückst, spuckt dir das Tool seine Einschätzung aus.

„Fake“ bedeutet eine KI hat den Text geschrieben. „Real“ bedeutet ein Mensch hat den Text geschrieben.

3. Grover

Das nächste Tool ist Grover.

Hier fügst du deinen Text bei „Detect“ ein und das Tool bewertet den Text. Grover gibt leider nur ein Ergebnis raus und keine prozentuale Verteilung.

4. GPTZero

Die Version von GPTZero auf Streamlit funktioniert derzeit und ist erreichbar. Link: hier. Die Homepage von GPTZero.me ist gerade nur zur Information da und leitet (bei Klick) auf die Version auf Streamlit weiter.

Hinweis: Diese Tools sind nicht perfekt. Auch sie können Fehler machen.

Über KI generierte Texte

Übrigens: Wer glaubt KI generierte Texte sind nicht unterscheidbar von Texten, die ein Mensch geschrieben hat, der irrt. KI Texte haben ein Muster und das macht sie erkennbar. Wer also meint, den Lehrer oder Dozenten bei der Hausarbeit zubetrügen oder mit KI-Texten bei Google nach vorne möchte, sollte vorsichtig sein.

Was ist mein Problem mit KI generierten Texten? Mein Problem ist die Qualität. Die KI erzeugt (derzeit; Januar 2023) mittelmäßige bis schlechte lange(!) Texte. Sie sind schlecht geschrieben, unkonkret, aber wortreich. Jedoch teils komplett sinnlos. Das erkennen Leser, das erkennen Dozenten / Lehrer und das erkennen Suchmaschinen. (Ja, ChatGPT arbeitet an einem Wasserzeichen für KI generierte Texte, damit die KI „KI generierte Texte“ nicht als Quelle nimmt und KI generierte Texte erkennbar bleiben bzw. sind. Das hat zwei Gründe: die Qualität und Missbrauch vermeiden.)

Für kurze Texte, private Botschaften, E-Mails und Social-Media-Posting eignet sich eine KI. Doch sobald es darum geht einen längeren Text zu schreiben, versagt die KI. Ihre Texte haben keinen roten Faden und man kann der KI nicht blind vertrauen.

Die KI kann (derzeit) selbst ihre eigenen Matheformeln nicht richtig ausrechnen und Programmiercode den sie ausspuckt, ist falsch. Wie soll ich den Inhalten und Fakten dann vertrauen? Auf Stackoverflow wurden Texte und Content, die mit ChatGPT erzeugt wurden, im Dezember 2022 gebannt. Der Grund dafür: Die Qualität ist zu schlecht!

Was sind Frühlingsgefühle? Wie entstehen sie? Was passiert im Körper? Erklärung


Frühlingsgefühle sind kein erfundenes Phänomen, diese Gefühle gibt es wirklich. Viele Menschen spüren, schon bevor der Frühling kalendarisch einsetzt, angenehme Gefühle des Aufbruchs, sind besonders motiviert, unternehmungslustig und gut gelaunt.

Genau wie die Natur, die aus dem Winterschlaf erwacht, machen auch wir Menschen mit beginnendem Frühling aus unserem unserer winterlichen Trägheit auf. Alle Zeichen stehen auf Aufbruch. Es lockt uns in die Natur, für deren vielfältige Erscheinungsformen wir nun besonders empfänglich sind. Es scheint so, als ob Körper und Geist ein neues Energieniveau erreicht haben.

Das lang ersehnte Grün zeigt sich an den unterschiedlichsten Orten und wir reagieren intensiv auf sämtliche Grünnuancen. Die Farben der Natur nehmen wir jetzt genauso intensiv wahr wie ihre Düfte und Geräusche. Egal ob Moos, Gras, das Holz, das sich im Sonnenlicht zu öffnen scheint oder das Plätschern eines Bächleins, die Natur offenbar sich neu, inspiriert uns und weckt buchstäblich die Lebensgeister.

Was bei Frühlingsgefühlen im Körper geschieht: Erklärung

Wenn wir Frühlingsgefühle spüren, sind wir keineswegs hoffnungslos romantisch, sondern haben es mit organischen und psychischen Veränderungen zu tun. Wir gehen den Alltag beschwingter und glücklicher an, werden unternehmungslustiger und fühlen uns vitaler. Frühlingsgefühle regen uns zu Aktivitäten an. Das hängt direkt mit der UVA-Strahlung, also dem Sonnenlicht, zusammen.

Damit Frühlingsgefühle entstehen, wirken zwar verschiedene Komponenten zusammenwirken, doch Licht ist der Hauptauslöser für die nun stattfindenden Veränderungen in Körper und Psyche. Das Licht dringt durch die Augen zu einem Bereich des Gehirns vor, den wir als „ unsere innere Uhr“ kennen. Hier werden Informationen an die Zirbeldrüse weitergeleitet. Die wiederum ist für die Ausschüttung des Hormons Melatonin verantwortlich. Sind die Tage kurz und die Nächte lang, herrscht also viel Dunkelheit, wird viel Melatonin ausgeschüttet. Wie fühlen und schläfrig. An hellen Tagen ist die Melatonin-Ausschüttung deutlich geringer, so dass wir uns wacher fühlen und energiegeladener sind.

Während im Winter verstärkt das Schlafhormon Melatonin produziert wird, schüttet unser Körper im Frühling verstärkt die Hormone Dopamin, Serotonin und Noradrenalin aus. Das Glückshormon Serotonin wirkt fast wie eine Droge und erzeugt ein Hochgefühl, das sich durchaus mit durchaus mit Verliebtheit vergleichen lässt. Bei Männern steigt außerdem der Testosteronspiegel, was zusätzlich das Gefühl von Kraft und Stärke intensiviert. Dank der Hormone fühlen uns lebendiger und streben ins Freie. Wir möchten den Ballast des Winters abwerfen, freuen uns auf längere helle Tage und sind voller Tatendrang. Die Wirkung dieser Hormone ist sehr intensiv. Mediziner konnten sogar nachweisen, dass die Zahl der Winterdepressionen mit beginnendem Frühling abnimmt.

Das bewirken die Glückshormone:

1. Dopamin sorgt dafür, dass unsere Empfindungen und Gefühle weitergeleitet werden. Außerdem hat es eine stark motivierende Kraft, die uns dazu bringt, Angefangenes endlich zu beenden oder Neues zu wagen.

2. Noradrenalin wird als Stresshormon bezeichnet. Seine wichtigste Aufgabe ist die Weiterleitung von Signalen an das zentrale Nervensystem. Der Körper schüttet es sowohl bei physischem als auch psychischem Stress aus. Noradrenalin steuert unsere Aufmerksamkeit und hat Einfluss auf den Schlaf-Wach-Rhythmus. Das Hormon bewirkt eine Kontraktion der Blutgefäße, senkt dadurch die Pulsfrequenz und erhöht den Blutdruck. In der Folge fühlen wir uns leistungsfähiger und motivierter.

3. Serotonin ist als Glückshormon bekannt. Das Hormon wird vom Körper produziert, wenn wir etwas tun, auf das wir stolz sind, beispielsweise dann, wenn wir Angst überwunden oder eine besondere Leistung erbracht haben. Produziert der Körper nicht genug Serotonin, können sich Schlaflosigkeit, Angstzustände und Depressionen einstellen. Serotonin hat die Fähigkeit, die Stimmung zu heben und wird daher zur Behandlung von Depressionen genutzt. Generell ist Serotonin ein wichtiger Neurotransmitter und an vielen Vorgängen im Körper beteiligt. Es beeinflusst den Appetit genauso wie Bewegung, Schlaf und Sexualität.

Frühlingsgefühle: Die Natur inspiriert uns zu Neuem

Auch die optischen Reize des Frühlings sind nicht zu unterschätzen. Da ist zum einen die nackte Haut, die erotische Signale aussendet, aber auch das frische Grün, das an allen Ecken und Enden hervorsprießt. Wer da keine gute Laune bekommt, muss schon sehr ignorant oder aber krank im Sinne von depressiv sein. Alles schreit nach Veränderung, auch unser eigenes Innenleben. Beinahe logisch, dass wir nun auch eher zum Flirten aufgelegt sind.

Der Frühling kann sogar Probleme verursachen

Trotz der angenehmen Seiten des Frühlingserwachens haben viele Menschen mit dem Übergang vom Winter zum Frühling Schwierigkeiten und fühlen sich noch längere Zeit müde und erschöpft. Sie leiden unter Frühjahrsmüdigkeit. Eigentlich müssten sie jetzt putzmunter sein, doch das Gegenteil ist der Fall. Der Körper muss sich erst an die veränderte Hormonsituation gewöhnen.

Verlieben wir uns im Frühling häufiger als im Winter?

Von Frühlingsgefühlen spricht man aber auch, wenn wir uns verlieben. Lange Zeit nahm man an, dass sich Menschen im Frühling häufiger verlieben als zu den übrigen Jahreszeiten. Das ist aber längst widerlegt. Tatsächlich sind es weder die Jahreszeit noch die Hormone, die Verliebtheit erzeugen. Das Gefühl entsteht nur deshalb, weil im Frühling alles leichter erscheint. So hat sich auch der Eindruck verfestigt, dass sich Verlieben im Frühling leichter fällt.

Frühlingsgefühle können uns durchaus in eine chaotische Gefühlslage versetzen. Denn wenn wir in dieser Stimmung sind, haben unsere Antennen ganz anders ausgerichtet und sehen alles viel positiver. Wir spüren die sprichwörtlichen Schmetterlinge im Bauch, die mit einem angenehmen Kribbeln verbunden sind.

Frühlingsgefühle hängen sie in erster Linie mit der höheren Lichtintensität im Frühling zusammen. Das Licht steuert unsere innere Uhr. Bekommen wir viel Licht, dann sind wir besser gelaunt und fühlen uns fitter. Im Frühling sind sie keineswegs chaotischer als im Herbst oder Winter. Der menschliche Organismus wird seit Millionen Jahren von Hormonen gesteuert, sodass man mit Fug und Recht behaupten kann, dass die Geschlechtshormone keinen Einfluss darauf haben, ob wir uns verlieben oder nicht. Vielmehr sind es die optischen Reize (wir zeigen zum Beispiel mehr nackte Haut), die den Eindruck erzeugen, wir würden uns schneller verlieben.

Frühlingsgefühle sind nicht auf der ganzen Welt bekannt

Frühlingsgefühle gehen mit einer Mischung aus psychologischen und körperlich messbaren Veränderungen einher. Amerikaner sprechen vom „spring fever“, also Fieber, was eine deutlich höhere Intensität der Gefühle beschreibt.

In den südlichen Ländern Europas dagegen ist das Phänomen unbekannt. Auch in den Ländern am Äquator kennt man keine Frühlingsgefühle. Die sind typisch für Länder, die ein Jahreszeitenklima haben. Denn wo kaum Unterschiede zwischen winterlichen und sommerlichen Sonnenstunden bestehen, kann es auch kein typisches Frühlingserwachen geben. Hier wird der Rhythmus der Menschen von der Tageszeit bestimmt.

Was ist Lensa? Bedeutung, Definition, Erklärung


Lensa ist eine Foto-App für Smartphones und vergleichbare Geräte, die im Winter 2022 in den verstärkten Fokus der Öffentlichkeit rückte. Die App enthält klassische Funktionen, um Portraits und Selfies zu bearbeiten, zu verschönern und zu transformieren.

Kernstück der App ist jedoch eine AI, welche die Bilder der Nutzer in digitalisierte Kunstwerke verwandeln kann. Genannt werden diese kunstvollen Abbilder Magic Avatars. Der Nutzer lädt für diese Funktion mehrere Bilder von sich in die App und erhält schließlich jene beliebten Bilder der AI, welche in dieser Form jedoch nicht kostenlos sind.

Lensa entwickelte sich zu einer Trend-App, die zwischenzeitlich zu den am meisten heruntergeladenen Apps im Apple App-Store und im Google Play Store für Android heranwuchs. Die gestiegene Popularität der Software blieb jedoch nicht ohne Kritiker, so gab es kritische Kommentare über teils idealisiert und sexualisiert angehauchte Darstellungen und Zweifel gegenüber der Privatsphäre, die in verschienenen Zeitungen und Online-Redaktionen thematisiert wurden.

Wie funktioniert Lensa? Erklärung

Im Prinzip ist Lensa eine klassische Foto-App, die es erlaubt, Selfies und Portraits nach eigenen Wünschen digital zu bearbeiten. Dazu gehört ein zugänglicher One-tap-Editor, digitale Retuschierungs-Funktionen, das glätten von Falten und Bearbeitungsmöglichkeiten für Augenringe und Co. Kurz: Wer sein Portrait für die Außendarstellung überarbeiten möchte, kann per Smartphone oder Tablet auf Lensa zurückgreifen. Dabei läuft die App in vielen App-Stores als kostenlose App, was genaugenommen jedoch nur für einige Funktionen gilt.

Von anderen Foto-Apps setzt sich Lensa durch die Magic Avatars ab: Stilisierte Bilder von Nutzern, die an Kunstwerke, teils in Comic- und Illustrationsästhetik erinnern. Das meist in hervorstechenden Farben stilisierte Portrait erinnert in seinen Konturen meist auffällig ähnlich an das Gesicht der Person. Doch hinter den Magic Avatars steckt eine AI, welche die Bilder kunstvoll bearbeitet.

Lensa greift so auf den Trend von AI bzw. KI-basierten Funktionen zurück, die sich bei digitalen Bildgeneratoren vermehrter Popularität erfreuen. Lensa gehört zu den ersten Apps, welche diese Technologie so umfänglich in das Designtool einbindet. Wer einen hochstilisierten Avatar von sich erstellen lassen möchte, hat also Gründe, zu den Funktionen von Lensa zu greifen.

Der Erfolg on Lensa – Popularität und Kritik gegenüber der App

Lensa stammt von einem Unternehmen namens Prisma Labs aus Sunnyvale, Kalifornien. Von Prisma Labs und den Gründern sowie zugleich russischen Entwicklern Andrey Usoltsev und Alexey Moiseenkov stammt auch die AI-Fotosoftware Prisma. Nach dem Launch der Magic Avatars im November 2022, stieg die App in vielen App-Stores zu der beliebtesten kostenlosen App auf. Lensa wurde ein Highlight für Nutzer, die nach kunstvollen Avataren suchten oder auf einer Party für Erheiterung und Begeisterung sorgen wollten.

Der Erfolg von Lensa wurde jedoch auch von Kritik durch etablierte Zeitungen und Medien begleitet. Von Zeitungen wie Die Zeit oder der Süddeutschen Zeitung über Fachmagazine wie t3n oder Mashable bis zu etablierten Fernsehkanälen wie der Bayerische Rundfunk oder das US-amerikanische ABC News – über die App sprach nach ihrem Release einfach jeder. Das lag unter anderem natürlich an den untypischen und beliebten Funktionen der App. Aber auch an journalistischer Kuriosität gegenüber dem Background hinter dem Phänomen.

Ein weitverbreiteter Kritikpunkt an der App waren nach Release die Kosten: Denn obwohl Lensa in vielen App-Stores ursprünglich als kostenlose App firmierte, präsentierten sich zuweilen nicht alle Funktionen als kostenlos. Wer auf die Ästhetik des beliebten Magic Avatars zurückgreifen wollte, musste nicht nur mehrere Bilder von sich machen, sondern auch einen Betrag zahlen. Das führte zur Kritik an dem Bezahlmodell sowie am Datenschutz inklusive der Frage nach dem Urheberrecht. Das Unternehmen hinter Lensa unterstrich jedoch, dass die Bilder kurz nach der Erstellung aus den Servern gelöscht werden würden. Eine verbreitete Kritik an der App bezog sich zudem auf dem Fakt, dass die App Durchschnittsmenschen in makellose und ästhetisch hochpolierte Avatare verwandelt, woran manche Kommentatoren sexualisierte oder sexistische Züge festmachten. Allerdings ließe sich letztere Kritik auf viele der Bildgeneratoren dieser Art ausbreiten.

Überblick – Welche Bedeutung hat Lensa?

Ob man die Kritik an der App annehmen möchte – oder nicht – der Erfolg von Lensa läutet fraglos eine neue Epoche der Bildgeneratoren für Smartphones und Co. ein. Die Verwendung moderner AI und die Erkenntnis, dass die Nutzer für solche Bilder zu zahlen bereit sind, wird in Zukunft sicherlich die ein oder andere Nachfolgeapp inspirieren. Lensa verhilft mit dieser Popularität den Bildbearbeitungsprogrammen und digitalen Portraitgeneratoren zu vermehrter Aufmerksamkeit.

Um zusammenzufassen: Lensa ist eine moderne Foto-App, mit leistungsfähigen AI-Funktionen, die kunstvolle Magic Avatars erschafft. Die Trendsoftware hat so im November und im Dezember 2022 die App-Stores für Smartphones und Co. im Sturm erobert. Die App ist sowohl eine Ursache für Begeisterung wie für Kritik – vom Datenschutz über Kosten bis zur idealisierten Bilddarstellung – geworden. Das ändert allerdings nichts daran, dass Lensa zu den Hit-Apps des Winters 2022 gehört.

Was ist Nation Building? Bedeutung, Definition, Erklärung


Im Nation Building geht es darum, die nationale Einheit und die Integration der Bevölkerung zu stärken, um eine stabile und umfassende Nation zu schaffen. Dies kann durch verschiedene Maßnahmen erreicht werden, wie zum Beispiel die Schaffung gemeinsamer Strukturen und Institutionen, die Förderung von Bildung und Kultur, die Unterstützung der wirtschaftlichen Entwicklung und die Verbesserung der Lebensbedingungen der Bevölkerung.

Was ist Nation Building? Bedeutung, Definition, Erklärung

Nation Building bedeutet die Entstehung einer eigenständigen Nation mit eigener sprachlicher, religiöser, kultureller, ethnischer, sozialer, wirtschaftlicher und sozialer Identität und Denkweise. Die Tatsache, dass die Mitglieder dieser Staatengemeinschaft all diese Elemente gemeinsam haben, ist jedoch nicht entscheidend für die Bildung einer Nation.

Weltweit ist zu beobachten, dass sich Gruppen innerhalb von Ländern in verschiedenen Faktoren grundlegend unterscheiden, aber dennoch ein gemeinsames Identitätsgefühl haben. Tatsächlich sind regionale Unterschiede in ethnischen, kulturellen oder religiösen Aspekten innerhalb eines Landes eher die Regel als die Ausnahme. Nicht die Homogenität und Unverschiedenheit eines Volkes, sondern das homogene Zugehörigkeitsgefühl der nationalen Gemeinschaften ist der grundlegende Faktor für erfolgreiches Nation Building.

Nation Building: Wie eine Nation entsteht

Nation Building ist keine logische Wissenschaft und jeder Einzelfall muss gesondert bewertet werden. Die Prämissen, Prozesse und Ergebnisse der erfolgreichen oder erfolglosen Bildung einer Nation können auch teilweise fehlen. Darüber hinaus können einige Faktoren bei der Bildung einer Nation wichtiger sein als andere.

Nation Building wurde historisch nach bestimmten Mustern betrachtet, die sich in unterschiedlichen Formen manifestiert haben. Auch die Bestimmung des Einflusses anderer Länder und ihrer Vertreter hat einen großen Einfluss, daher ist auch zu berücksichtigen, ob die Entstehung der Nation auf eigene innere Stärke oder auf fremden Einfluss zurückzuführen ist.

Was passiert beim Nation Building?

Nation Building ist ein komplexer Prozess, der von vielen Faktoren beeinflusst wird. Einige der Gründe, warum Nationenbildung oft mit Massengewalt und Vertreibungen einhergeht, sind:

Machtstreben:
Die Gründung einer Nation kann oft von einer Gruppe von Menschen angestrebt werden, die politische oder wirtschaftliche Macht anstreben und bereit sind, Gewalt einzusetzen, um ihre Ziele zu erreichen.

Ethnische oder nationale Konflikte:
Oft gibt es tief verwurzelte ethnische oder nationale Spannungen zwischen den Menschen, die sich einer Nation anschließen wollen. Diese Spannungen können sich in Gewalt entladen, wenn die Menschen versuchen, ihre eigene Identität und ihre Interessen zu verteidigen.

Religiöse oder ideologische Unterschiede:
Nationenbildung kann auch von religiösen oder ideologischen Unterschieden angetrieben werden, die zu Konflikten und Gewalt führen können.

Kolonialismus und Unterdrückung:
In vielen Teilen der Welt ging die Nationenbildung einher mit der Unterdrückung von Völkern durch koloniale Mächte. Dies kann zu Widerstand und Gewalt führen, wenn schwache Völker um ihre Unabhängigkeit und Selbstbestimmung kämpfen.

Nationenbildung muss nicht immer von Gewalt und Konflikten begleitet sein. In einigen Fällen kann die Gründung einer Nation friedlich und kooperativ verlaufen, wenn es den Erfolg bringt, ihre Unterschiede zu überbrücken und gemeinsame Ziele zu verfolgen.

Ziele des Nation Buildings

Der Aufbau von Institutionen, die für die Regierungsführung, die Verwaltung von Ressourcen und die Einhaltung von Gesetzen verantwortlich sind. Dazu gehören zum Beispiel Parlamente, Gerichte und Verwaltungsbehörden.

Verbesserung der sozialen Dienste:
Nation Building kann auch darauf abzielen, die sozialen Dienste in einem Land zu verbessern, indem zum Beispiel Schulen und Krankenhäuser gebaut werden.

Förderung der wirtschaftlichen Entwicklung:
Ein weiteres Ziel von Nation Building kann sein, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastrukturprojekte realisiert werden.

Förderung von Einheit und Solidarität:
Nation Building kann auch dazu beitragen, die Einheit und Solidarität der Bevölkerung einer Nation zu stärken, indem zum Beispiel gemeinsame Werte und Ziele vermittelt werden.
Nation Building kann von Regierungen, internationalen Organisationen oder Nichtregierungsorganisationen durchgeführt werden.
Nation Building hat viele Bedeutungen und Auswirkungen, die je nach den Umständen und Zielen des Prozesses variieren können.

Bedeutungen von Nation Building

Stabilisierung und Frieden:
In einigen Fällen kann Nation Building dazu beitragen, ein Land zu stabilisieren und Konflikte friedlich zu lösen, indem zum Beispiel institutionelle Strukturen aufgebaut werden, die Regierungsführung und die Verwaltung von Ressourcen sicherstellen.

Wirtschaftliche Entwicklung:
Nation Building kann auch dazu beitragen, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastruktur gebaut werden und die wirtschaftlichen Rahmenbedingungen verbessert werden.

Einige Beispiele für Nation Building

Nation Building: Deutschland

Die Wiedervereinigung Deutschlands nach dem Fall der Mauer:
Die Wiedervereinigung Deutschlands fand am 3. Oktober 1990 statt, als der Einigungsvertrag in Kraft trat und die DDR offiziell ein Teil der BRD wurde. Die Wiedervereinigung war ein historisches Ereignis, das die deutsche Geschichte nachhaltig verändert hat und das auch Auswirkungen auf Europa und die ganze Welt hatte. Es gab jedoch auch Herausforderungen und Probleme, die im Zusammenhang mit der Wiedervereinigung auftraten, wie zum Beispiel wirtschaftliche Schwierigkeiten in den neuen Bundesländern und die Integration von Migranten aus der DDR.

Nation Building: Nordirland

Er begann Ende der 1980er Jahre und setzte sich in den 1990er Jahren fort. Er umfasste verschiedene Verhandlungen und Vereinbarungen, die darauf abzielten, den Konflikt friedlich zu lösen und eine stabile und inklusive Regierung in Nordirland aufzubauen. Ein wichtiger Meilenstein war der „Good Friday Agreement“ von 1998, der eine Zusammenarbeit zwischen den beiden Gemeinschaften in Nordirland vorsah und die Gründung einer gemeinsamen Regierung ermöglichte.

Er ist bis heute ein laufender Prozess und es gibt immer noch Herausforderungen und Spannungen. Trotzdem hat der Friedensprozess zu einer deutlichen Verbesserung der Sicherheitslage in Nordirland beigetragen und zu einem Rückgang der Gewalt. Der Friedensprozess ist auch ein Beispiel dafür, wie komplexe und langanhaltende Konflikte friedlich gelöst werden können, wenn alle Beteiligten bereit sind, Kompromisse einzugehen und miteinander zu arbeiten.

Nation Building: Afghanistan

Nach dem Fall des Taliban-Regimes wurde im Rahmen von Nation Building in Afghanistan ein neues politisches System aufgebaut und Institutionen wie die Polizei und die Armee.

Die Förderung von Bildung und Kultur in Entwicklungsländern:
In vielen Entwicklungsländern wird Nation Building genutzt, um die Bildungs- und Kulturinfrastruktur zu verbessern und damit die nationale Identität und Solidarität zu stärken.

Der Aufbau von Gemeinden in Katastrophengebieten:
Nach Naturkatastrophen oder Kriegen kann Nation Building dazu beitragen, die betroffene Bevölkerung zu unterstützen und ihnen dabei zu helfen, ihre Gemeinden wieder aufzubauen und neu zu integrieren.

Was ist ChatGPT? Bedeutung, Definition, Erklärung


ChatGPT ist ein KI-Chatbot, der auf Nutzer Aufforderungen und Anfragen mit selbst erstellten Antworten reagiert. Das Besondere an ChatGPT ist, dass der KI-Chatbot auf Folgefragen reagieren kann und so eine Art „Gespräch“ möglich ist. Das Besondere an ChatGPT ist, dass der KI-Chatbot neues Wissen erstellt, wozu Vorgänger nicht fähig waren.

Was ist ChatGPT? Einfach erklärt

ChatGPT ist ein Werkzeug, das Texte schreibt. Außerdem kann ChatGPT auch Programmiercode schreiben.

Mit ChatGPT kann man effizienter Texte schreiben, da ChatGPT den Text erstellt bzw. schreibt und dieser nur noch korrigiert und redigiert werden muss. Hier ist die Krux! ChatGPT liefert Textentwürfe, keine fertigen Texte. Ein Mensch muss den Text noch einmal Korrektur lesen und etwaige Fehler entfernen. Denn ChatGPT arbeitet nicht zu hundert Prozent faktentreu, sondern arbeitet mit Wahrscheinlichkeiten. Im Algorithmus von ChatGPT sind Wahrscheinlichkeiten enthalten, welches Wort und welcher Satz wohl als nächstes folgen soll, als nächstes Sinn ergibt und auch als nächstes vom Leser erwartet wird. ChatGPT rät also immer ein bisschen und das führt dazu, dass ChatGPT eben auch falsch raten kann.

Jeder kann ChatGPT benutzen. Die Qualität des gelieferten Textes hängt von der Arbeitsanweisung an ChatGPT ab. Je besser diese ist, umso besser ist der Text.

Ein Fakt spricht für ChatGPT. Die KI schreibt schneller als Journalisten, Programmierer und Texter. Wer also meint, schneller, also effizienter, als ChatGPT zu sein, irrt.

ChatGPT ist auch als Chat-Bot gedacht. Das bedeutet, ChatGPT kann auf Webseiten integriert werden und soll dort auf Besucher-Anfragen reagieren. Aber dieser Zweck steht beim aktuellen Hype im Hintergrund.

Siehe: 4 Tools zum Erkennen von KI-Texten

Wie wird sich ChatGPT weiterentwickeln?

Je mehr Daten ChatGPT verarbeiten wird, umso umfangreichere und bessere Texte wird die KI schreiben können. “Besser” bedeutet, dass die KI weniger rät, sich besser ausdrückt und allgemein besser schreibt.

ChatGPT schreibt heute (2023) noch kurze Texte. Die Redaktion vermutet, dass ChatGPT in den folgenden Jahren nach einer Anweisung ein ganzes Buch schreiben kann.

Die Krux an und Grenzen von ChatGPT

1. ChatGPT hat keine Sinne.

ChatGPT hat keine Primärerfahrungen, keine Sinneswahrnehmungen und keine Sinneseindrücke. (Primärerfahrungen = was ich beobachte, sehe, fühle, wahrnehme, was meine Sinne wahrnehmen) ChatGPT hat keinen Geschmack, keine Haltung und keine Vorlieben. ChatGPT hat keine Persönlichkeit. ChatGPT verwendet Texte als Grundlage und erstellt aus Millionen Texten neue Texte, aber nur Remixe.

Damit hat ChatGPT ein Limit. Die KI kann zwar Remixe erstellen, aber nie in die Texterstellung Primärerfahrungen und Persönlichkeit einfließen lassen.

2. ChatGPT hilft nur Leuten, die schon Fähigkeiten und Wissen haben.

Die Texte von ChatGPT kann redigieren, wer schreiben kann und Ahnung von Texten hat.

Die Fakten, die ChatGPT in seinen Texten erwähnt, kann nur bestätigten oder korrigieren, wer schon Erfahrung in dem Bereich hat. (Wenn ChatGPT z.B.: ein Keto-Kochbuch schreibt, dann sollten die dadrin erwähnten Fakten stimmen. Das kann aber nur jemand überprüfen, der oder die schon Ahnung von Keto-Ernährung hat.)

ChatGPT kann auch Programmieren. Aber das hilft mir nur, wenn ich auch Programmieren kann. Ich muss nämlich das Ergebnis sichten und verstehen, was ChatGPT vorschlägt.

Damit – so möchte ich schlußfolgern – verschiebt ChatGPT die Aufgaben. Journalisten, Texter und Programmierer werden vielmehr sichten, korrigieren und redigieren, und weniger selbst schreiben.

Fazit: Wer vor KI Content produziert hat, wird es auch nach KI tun. Nur das nun eine KI hilft bzw. mithilft. Wer vor KI nur im Internet gelesen, geschaut und kommentiert hat, der wird – so vermutet die Redaktion – jetzt nicht zum Content-Produzenten werden.

(Hier erinnere ich, Autor dieses Textes, an die 90-9-Regel. Sie besagt, dass 90 Prozent aller Internetnutzer nur gucken, neun Prozent kommentieren und ein Prozent produziert Inhalte.)

Was ist ChatGPT? Bedeutung, Definition, Erklärung

ChatGPT ist auch ein KI-basierter Chatbot-Entwicklungsdienst, der es Entwicklern ermöglicht, Chatbot-Anwendungen durch maschinelles Lernen zu erstellen. ChatGPT basiert auf einem modularen Ansatz, bei dem Entwickler die Komponenten für ihren Bot auswählen können. Das Werkzeug verwendet maschinelles Lernen, um die Eingaben des Benutzers zu verarbeiten und ihm passende Antworten zu liefern. Darüber hinaus bietet ChatGPT eine einzigartige Funktion zur Erstellung von Dialogflüssen, bei der die Antworten des Benutzers in die nächste Frage übergehen. Dies ermöglicht es Entwicklern, eine reibungslose, natürliche Konversation zu schaffen. ChatGPT bietet außerdem eine einfache und benutzerfreundliche Drag-and-Drop-Oberfläche, die das Erstellen von Chatbots vereinfacht und beschleunigt.

Wie funktioniert Chat GPT?

ChatGPT ist eine Technologie, die es Computern ermöglicht, natürliche und angemessene Konversationen mit Menschen zu führen. Sie wurde von Open AI entwickelt, einer KI-Forschungsorganisation, die von Elon Musk, Sam Altman und anderen gegründet wurde.

ChatGPT basiert auf Deep Learning, einer KI-Technologie, die es Computern ermöglicht, auf natürliche Sprache zu reagieren. Es verwendet ein Generative Pre-trained Transformer-Netzwerk, das sogenannte GPT-3. Mit GPT-3 kann ein Computer in der Lage sein, eine kohärente Konversation zu führen, indem er natürliche Sprache versteht und auf Fragen und Anweisungen angemessen antwortet.

ChatGPT ist in der Lage, eine Konversation in Echtzeit zu führen, indem es sich an die Kontextinformationen erinnert, die in den vorhergehenden Sätzen enthalten sind. Auf diese Weise kann es einige Anweisungen und Fragen beantworten, ohne erneut nach Informationen gefragt zu werden. Es kann auch kreative Konversationen führen, indem es neue Ideen vorschlägt und interessante Fragen stellt.

Darüber hinaus können Entwickler ChatGPT anpassen, um spezifische Konversationen für bestimmte Anwendungsfälle zu ermöglichen. Sie können beispielsweise dem Chatbot beibringen, Fragen zu einem bestimmten Thema zu stellen oder bestimmte Befehle auszuführen.
Die Hauptidee hinter ChatGPT ist es, den Menschen ein natürliches und angenehmes Konversationserlebnis zu bieten, indem sie Computern beibringen, wie man sich menschlich verhält. Es kann sowohl für private als auch für geschäftliche Zwecke verwendet werden, um Kundenunterstützung zu bieten, E-Commerce-Transaktionen abzuschließen und vieles mehr.

Was kann man mit ChatGPT machen?

ChatGPT ist eine KI-basierte Chatbot-Software, die es Nutzern ermöglicht, natürliche Spracheingaben zu verarbeiten und auf sie zu antworten. Es kann in einer Vielzahl von Anwendungen eingesetzt werden, von Kundendienst bis hin zu interaktiven Fiktionen.

ChatGPT kann ganz allgemein Text bzw. Textantworten schreiben. ChatGPT kann Anleitungen schreiben, aber auch Erklärung. ChatGPT kann auch Rezeptideen und Urlaubsziele vorschlagen. Die Antwort von ChatGPT ist abhängig von der Qualität der Aufforderung.

ChatGPT kann sowohl auf Text- als auch auf Stimmeingaben reagieren und bietet eine Reihe von Funktionen, einschließlich der Verarbeitung natürlicher Sprache, der Erkennung von Anfragen, der Erstellung von Antworten, der Erstellung von Konversationssträngen, der Erkennung von Entitäten und der Erkennung von Intents. ChatGPT verfügt auch über eine Reihe von Funktionen wie eine integrierte Entwickler-API, eine Sprachmodellierung und ein leistungsstarkes Machine Learning-Tool. Mit ChatGPT kann man die Konversation zwischen Menschen und Maschinen verbessern, indem man eine Vielzahl von natürlichen Spracheingaben verarbeitet, die alle möglichen Eingaben und Anfragen verstehen können. Es kann auch dazu beitragen, die Nutzererfahrung bei der Interaktion mit Chatbots zu verbessern, indem es eine natürliche und lebendige Konversation ermöglicht.

ChatGPT kann auch in der Entwicklung von Chatbots für virtuelle Assistenten verwendet werden, um eine reibungslose und intuitiv zu bedienende Benutzererfahrung zu ermöglichen. Darüber hinaus kann ChatGPT auch bei der Entwicklung von Anwendungen wie automatisierten Chatbots, interaktiven Fiktionen, Sprachassistenten und anderen AI-basierten Anwendungen helfen.

ABER ChatGPT macht nicht alles. Schon jetzt ist Ethtik im Tool integriert. ChatGPT gibt keine Anleitungen, um Menschen zu schaden oder ihnen weh zutun. ChatGPT erklärt auch nicht, wie man sich selber weh tut oder wie man Substanzen hergestellt, die gesetzlich verboten sind.

Welche Bedeutung hat ChatGPT und warum ist es besonders?

ChatGPT ist eine KI-basierte Chatbot-Technologie, die es Entwicklern ermöglicht, natürliche Gesprächsfähigkeiten in ihre Anwendungen zu integrieren. Es wurde von OpenAI entwickelt und verwendet maschinelles Lernen, um auf Benutzereingaben zu reagieren, indem es eine Reihe von Antworten generiert, die dem Kontext entsprechen. ChatGPT kann so programmiert werden, dass es auf verschiedene Arten interagiert, wie z.B. einfache Antworten, wissensbasierte Antworten, Dialogmanagement und natürliche Spracheingabe.

ChatGPT ist ein Textgenerator, der auf der GPT-3-Technologie (Generative Pre-trained Transformer) basiert. Es ist eine KI-basierte Software, die es Menschen ermöglicht, natürliche Konversationen zu führen. ChatGPT ist besonders, da es einen Dialog in Echtzeit erstellen kann, der der natürlichen Sprache eines Menschen ähnelt. Die Technologie ermöglicht es ChatGPT, auf Fragen und Befehle zu reagieren, indem sie eine passende Antwort generiert. Die Technologie ist so konzipiert, dass sie immer lernt und sich verbessert. Dadurch kann ChatGPT auf unregelmäßige Eingaben reagieren und den Dialog anpassen, was eine echte Konversation sehr natürlich erscheinen lässt. ChatGPT wird hauptsächlich für Chatbots, virtuelle Assistenten und Dialogsysteme verwendet, was es zu einem wertvollen Werkzeug für Unternehmen macht, die ihren Kunden eine bessere Interaktion mit ihren Produkten und Dienstleistungen bieten möchten.

Was ist die Keimtheorie? Bedeutung, Definition, Erklärung


Gemäß der Keimtheorie werden diverse Krankheiten durch Mikroorganismen ausgelöstet und verbreitet. Durch zum Beispiel Husten oder Niesen von erkrankten Personen gelangen Mikroorganismen in die Umwelt und können so von anderen Menschen aufgenommen werden, die dann ihrerseits erkranken.

Die Keimtheorie bezieht sich dabei nicht nur auf Atemwegserkrankungen, sondern auf alle Erkrankungen, die durch Mikroorganismen ausgelöst werden.

Die Keimtheorie wird heute nicht mehr als Theorie bezeichnet, da ihre Inhalte belegt sind und heute eine medizinische Selbstverständlichkeit darstellen.

Ursprung der Keimtheorie

Ihren Ursprung hat die Keimtheorie in der zweiten Hälfte des 19. Jahrhunderts. In Südfrankreich kam es im Jahr 1865 zu einem Massensterben der Seidenraupe, was zu finanziellen Problemen der dort angesiedelten Textilindustrie führte.

Der Chemiker Louis Pasteur wurde damit beauftragt, die Gründe für das Sterben der Raupen zu ermitteln. Im Rahmen seiner Untersuchungen entdeckte er unter dem Mikroskop kleine Parasiten und er konnte nachweisen, dass diese zunächst die Nahrung der Raupen befielen und über diese in die Tiere selbst gelangten.

Durch die Vernichtung der vom Parasiten befallenen Raupen konnte die Krankheit eingedämmt und schließlich besiegt werden.
Unabhängig davon hatte der ungarische Arzt Ignaz Semmelweis ebenfalls in der zweiten Hälfte des 19. Jahrhunderts festgestellt, dass in den Wiener Krankenhäusern viele Frauen dem Kindbettfieber erlagen. Brachten Frauen hingegen ihr Kind mithilfe einer Hebamme zur Welt, lag die Zahl der Todesfälle infolge des Kindbettfiebers weitaus niedriger. Semmelweis schlussfolgerte daraus, dass die Ursache des Kindbettfiebers von den Ärzten auf die Schwangeren übertragen wurde. Er ordnete darauf eine gründliche Desinfektion der Hände vor jeder medizinischen Maßnahme an. Die Sterberate infolge von Kindbettfieber in den Krankenhäusern sank daraufhin drastisch.

Folgen der Keimtheorie

Das veränderte Bewusstsein über die Ursachen von bestimmten Erkrankungen veränderte sowohl einerseits das bisherige Verständnis von bestimmten Erkrankungen, ebnete aber vor allem den Weg zu neuartigen Behandlungs- und Präventionsmethoden.

Der deutsche Mediziner Robert Koch griff den Ansatz auf und wurde der Erste, der Mikroorganismen systematisch auf ihre Pathogenität, also auf ihre krankmachende Wirkung, hin untersuchte. Der Nachweis des Zusammenhangs gelang ihm mit der Entdeckung des damals gefürchteten Erregers der Tuberkulose. Die damals auch unter dem Namen „Schwindsucht“ bekannte und berüchtigte Krankheit verursachte im 19. Jahrhundert eine große Krankheitslast in so gut wie allen europäischen Ländern.

Ebenso entstand ein verändertes Bewusstsein über die ärztlichen Tätigkeiten. Es stellte sich nun heraus, dass das Risiko von postoperativen Entzündungen, die nicht selten zum Tod der Patienten führten, deutlich reduziert werden konnte, wenn Operationsbesteck vor einem Eingriff gründlich desinfiziert wurde.

Die neuen Erkenntnisse fanden rasch auf den Schlachtfeldern der Welt Anwendung: Die Überlebenschancen von verwundeten Soldaten erhöhten sich erheblich, wenn bei einer Behandlung durch den Feldarzt sowohl die medizinischen Instrumente als auch die Wunden desinfiziert wurden.

Die Keimtheorie als Wurzel der öffentlichen Gesundheitsvorsorge

Das Bewusstsein über die Übertragungswege bestimmter Krankheiten eröffnete vielerlei Möglichkeiten, die Entstehung von Krankheiten schon im Vorfeld zu vermeiden und so die Krankheitslast in der Bevölkerung zu reduzieren.

So führte die Keimtheorie zu der Erkenntnis, dass sauberes Wasser Durchfallerkrankungen wie Typhus und Cholera verhindern konnte. Als es im Jahr 1892 in Hamburg zum letzten schweren Ausbruch von Cholera in Deutschland kam, verteilte die Medizinalbehörde Handschriften mit Verhaltensmaßregeln und Wagen verteilten abgekochtes Wasser. Im Verlauf der Epidemie wurden Häuser und ganze Straßenzüge mit verschiedenen Chemikalien behandelt, die die in der Umwelt verbliebenen Cholera-Erreger abtöten sollten.

Auf der Keimtheorie basierte auch die zunehmende Entwicklung und Verbreitung von Impfstoffen.

Einschränkungen und Kritik an der Keimtheorie

Wenngleich die Keimtheorie heute keine Theorie mehr ist, sondern die Tatsache, dass verschiedene Krankheiten von Mikroorganismen verursacht werden, wissenschaftlicher Konsens ist, ist sie nicht gänzlich unwidersprochen.

Teilweise wurde behauptet, dass zu große Hygiene die Ursache für die Vielzahl an Allergien ist, unter denen viele Menschen in den Industrienationen leiden. Diese Hygienehypothese besagte, dass Erkrankungen wie Asthma und Heuschnupfen seltener bei Kindern auftreten, die auf einem Bauernhof groß geworden sind als bei solchen Kindern, die in der Stadt aufgewachsen sind. Diese Hypothese konnte inzwischen durch Studien belegt werden; so stellten Forscher fest, dass Kinder seltener an Allergien leiden, wenn sie häufig rohe Kuhmilch trinken oder sich in Ställen mit lebendem Vieh aufhalten.

Verschiedene Forscher gehen deshalb davon aus, dass Kinder Kontakt zu Schmutz und Keimen benötigen, um ein funktionierendes Immunsystem zu entwickeln.

Neuere Erkenntnisse zeigen allerdings, dass nicht nur ein zu hohes Maß an Hygiene Allergien verursachen kann, sondern auch die genetische Veranlagung, Luftschadstoffe und Tabakrauch die Entwicklung des kindlichen Immunsystems negativ beeinflussen können. Auch verschiedene Infektionen im Kindesalter, psychische Faktoren und der persönliche beziehungsweise familiäre Ernährungsstil sind möglicherweise Auslöser für Allergien.

Vereinzelte Stimmen lehnen die heute wissenschaftlich anerkannte Tatsache, dass bestimmte Krankheiten durch Mikroorganismen übertragen werden, vollkommen ab. Diesen Ansichten nach zielten derartige Behauptungen lediglich darauf ab, sich durch die Entwicklung eigentlich unnötiger Medikamente finanziell zu bereichern.

Dabei handelt es sich jedoch um vereinzelte Aussagen, die nicht dem wissenschaftlichen Konsens entsprechen. In zahlreichen Studien konnte im Verlauf der letzten 120 Jahre nachgewiesen werden, dass bestimmte Mikroorganismen bestimmte Krankheiten verursachen. Dank moderner hochauflösender Mikroskope ist heute auch der optische Nachweis kleinster Viruspartikel in der Größenordnung von Nanometern möglich.

Chancen und Herausforderungen bei der Digitalisierung


Wer sich mit dem Thema Digitalisierung intensiv beschäftigt, der befindet sich nicht nur voll im Trend der Zeit. Stattdessen setzt er sich auch mit einem Bereich auseinander, in welchem sowohl Chancen, als auch Herausforderungen vorhanden sind, welche von den Menschen zu bewältigen sind.

Vor allem die riesige Menge an Daten, die von uns allen heute verfügbar ist, erfordert einen verantwortungsbewussten Umgang der Gesamtgesellschaft mit der Thematik. Insgesamt gilt es dann wieder die Blicke zu schärfen und sich zu verinnerlichen, dass es die Chancen sind, welche hier eindeutig überwiegen und dass es sich somit in jedem Fall lohnt, für die Probleme und Herausforderungen adäquate Lösungen zu finden.

Chancen zu sehen, das ist nicht nur in diesem Fall eine große Aufgabe, sondern wird auch in Zukunft für diejenigen wichtig sein, die das Leben selbst anpacken möchten und auf der Gewinnerseite stehen wollen. Schließlich gibt es in nahezu jedem Feld ebenso Herausforderungen und auch Gefahren, wie es auch Chancen sind, die sich uns erschließen. Der positive Blick auf die Dinge, die auf uns warten, ist von so großer Bedeutung, dass ohne ihn vielleicht keine Möglichkeit besteht, erfolgreich mit den großen Aufgaben umzugehen, welche auf uns zukommen.

Neue Herausforderungen in puncto Datensicherheit bedürfen der intensiven Auseinandersetzung

Neue Aufgaben finden sich in vielen Lebensfeldern und gerade in Zeiten, die sich so schnell und rasant entwickeln sowie verändern wie es unsere tun, ist dies der Fall. Oftmals suchen wir auch bewusst eine Herausforderung und haben somit die Gelegenheit, auch die persönliche Entwicklung voranzutreiben.

Eben jene Entwicklung kann dann wiederum auf verschiedensten Ebenen helfen, mit den Dingen des Lebens umzugehen. Auch im Rahmen der Digitalisierung sind wir mit zahlreichen neuen Aufgaben und Herausforderungen konfrontiert, die es auf dem Weg in die Zukunft zu bewältigen gilt. So stellen Datenrettung und Datensicherheit Kernelemente dar, die es unbedingt umzusetzen gilt, um den neuen Zeiten gerecht werden zu können. Neben Unternehmen sind es auch Privatpersonen, welche von dieser Notwendigkeit betroffen sind. Schließlich tummelt sich nahezu jeder von uns im World Wide Web und da ist es wichtig, dass mit sensiblen Inhalten und Informationen nur auf adäquate Art und Weise umgegangen werden kann. Das Tempo der Entwicklung, welches hier bei den Methoden und Möglichkeiten vorhanden ist, ist so groß wie es in Wissenschaft und Technik der Fall ist.

Wissenschaft und Technik haben ein hohes Maß an Begeisterungsfähigkeit in sich, welches sie auf die Menschen übertragen, die sich mit den einzelnen Feldern auseinandersetzen. Tun wir genau dies, so wird für nahezu jeden klar, dass da auch das eine oder andere Interessensfeld von uns betroffen ist, welches sich hier in rasanter Geschwindigkeit entwickelt. Diese Geschwindgkeit könnte im Rahmen der Digitalisierung noch weiter zunehmen, auch wenn die letzten Jahre und Jahrzehnte die Latte bereits recht hoch gelegt haben.

Wer sich intensiv mit dem Gedanken beschäftigt, in welchen Bereichen es überall möglich ist, dank modernster Technik Prozesse zu erleichtern und so noch schneller zum gewünschten Ziel zu kommen, der wird kaum einen Part finden, in dem hier nicht noch Entwicklungspotenzial besteht. Somit dürfen wir uns auf eine Zeit freuen, in der einiges an Bürokratie und Aufwand abgebaut werden kann, während die effektive Entwicklung, welche am Ende dem Menschen zukommt, in den Vordergrund aller Überlegungen gerückt wird. Gelingt dies nachhaltig und wir finden einen Konsens darüber, welche Rolle der Mensch bei dieser Entwicklung spielen soll und wie wir die Zukunft gestalten, so ist der Chancenreichtum so groß, wie vielleicht niemals zuvor in der Geschichte der Menschheit.

Mehr Chancen als Probleme oder Risiken

Wie bereits in der Einleitung erwähnt sind es vor allem die Chancen, die im Mittelpunkt unserer Betrachtung stehen sollten. Schließlich liefert die Digitalisierung auf mannigfaltige Weise Vereinfachungen in Abläufen und Verwaltung. Denken wir nur daran, wie wir Behörden digitalisieren könnten, so kann jede Menge effektive Zeitersparnis auf dem Zettel stehen. Diese Zeit für andere Dinge nutzen zu können, ist gleichzeitig mit der Gelegenheit verbunden, uns auf anderen Gebieten auszuprobieren und die Fähigkeiten zu testen, die wir hier nutzen können.

Weiterhin kann es im stressigen Alltag auch einfach mal erlaubt sein und gut tun, Zeit für Freizeit und Dinge wie Serien oder Filme zu haben, welche uns für einen gewissen Zeitraum in eine andere Welt zu entführen verstehen. Probleme und Herausforderungen gilt es ernst zu nehmen. Dies ist im Zusammenhang mit unserer modernen Zeit ebenso der Fall, wie es in allen anderen Zeiten war, als man sich damit auseinandersetzte, wie die jeweilige Zukunft gestaltet werden soll. Unwidersprochen ist auch die derzeitige Phase in der Geschichte der Menschheit ob der offensichtlichen Fragen und Konflikte mit zahllosen Aufgaben versehen. Auch das Zusammenleben der Menschen muss auf eine neue Art und Weise gelingen.

Doch die technischen Möglichkeiten und Mittel, die hierfür zur Verfügung stehen, sollten eigentlich Mut machen und dazu führen, dass der Blick der Menschheit mit mehr Optimismus in die Zukunft geht, als es allenthalben der Fall zu sein scheint. Am Ende liegt es schließlich an der Menschheit selbst, wie wir diese Möglichkeiten nutzen und in welche speziellen Bereiche wir diesbezüglich investieren werden.

Dank der Digitalisierung wird Teilhabe in vielen Lebensbereichen niedrigschwelliger möglich

Ein großer Teil des Lebens findet heute digital statt und wo früher teilweise weite Wege zurückzulegen waren, kann heute die Teilhabe mit wenigen Klicks gesichert werden. Nehmen wir den Besuch einer Veranstaltung als Beispiel, bei der die Karten regelmäßig bereits im Vorverkauf vergriffen sind. Heute ist es fast ausnahmslos so, dass online die entsprechenden Tickets mit wenigen Klicks im Einkaufswagen landen. Nicht einmal der Druck ist mehr notwendig, sondern lediglich das Vorzeigen des sogenannten E-Tickets.

Die mannigfaltigen Vorteile, welche hiermit verbunden sind, befinden sich vor allem auf den Gebieten Aufwands- und Zeitersparnis. Gerade für berufstätige Menschen ergeben sich so große Vorteile. Teilhabe ist für viele Menschen einer der wesentlichsten Faktoren, wenn es darum geht, ein erfülltes und möglichst glückliches Leben zu führen. Hier kann es heute deutlich effizienter gelingen, Aufwand zu vermeiden und dabei Teilhabe in verschiedenen Bereichen adäquat zu sichern. So profitieren diejenigen, die im Vorfeld den Aufwand gescheut hätten oder auch einfach nicht die Zeit aufbringen konnten, eben jenen für sich in Anspruch zu nehmen.

Was ist Cunningham’s Gesetz? Wer war Cunningham? Bedeutung, Definition, Erklärung


Cunningham’s Gesetz lautet: „The best way to get the right answer on the Internet is not to ask a question, it’s to post the wrong answer.“

Auf deutsch übersetzt:
„Der beste Weg, eine korrekte Antwort im Internet zu bekommen, ist nicht eine Frage zu stellen, sondern eine falsche Antwort auf die Frage zu stellen.“

Was sagt Cunninghams Gesetz aus? Bedeutung, Definition, Erklärung

Das Zitat klingt paradox, da ja keine falsche Antwort gesucht wird, wenn jemand eine Frage stellt, aber es funktioniert tatsächlich. Bezogen ist diese Aussage oder dieses „Gesetz“ darauf, dass Menschen eine falsche Antwort auf eine Frage im Internet schneller korrigieren, als eine Frage zu beantworten. Es genügt, eine Falschaussage in einem sozialen Netzwerk zu posten.

In der Regel lässt eine Korrektur von einem sich auskennenden Mitnutzer nicht lange auf sich warten. In kürzester Zeit wird die gepostete Falschaussage richtig gestellt. Die Eingabe einer Frage in eine Suchmaschine führt dagegen oft zu ungenauen Ergebnissen und wenn die Frage in einem Forum gestellt wird, wartet man länger auf eine Antwort.

Wer ist Cunningham?

Ward Cunningham, der am 26. Mai 1949 in den USA geboren wurde, ist ein US-amerikanischer Programmierer, der in Beaverton, Oregon lebt und arbeitet. Er erschuf am 25. März 1995 mit dem Wiki Wiki Web das erste Wiki. Damit legte er den Grundstein für Wikipedia und die Möglichkeit für jeden Internetnutzer, sein Wissen über ein bestimmtes Thema in einem Online-Lexikon zu verewigen. Er ist auch einer der Autoren und Erstunterzeichner des Agilen Manifests, ein wichtiger Werte-Kodex für die Softwareentwicklung.

Von Dezember 2003 bis Oktober 2005 arbeitete Ward Cunningham für Microsoft. Direkt im Anschluss wechselte er zu der Firma Eclipse Foundation und ab Mai 2007 war er technischer Leiter des Internetverzeichnisses AboutUs.org.

Seine bekannte Aussage hat er bereits in den 1980ern getroffen. Sein Kollege Steve Mc Geady nahm das Zitat auf und formte es zu „Cunninghams Gesetz“. Damals bezog sich das Gesagte noch auf die Vorläufer des Internets, es gab erste Foren im „Usenet“, in dem sich die Nutzer schon ähnlich verhielten, wie heute. Durch die Entwicklung des Internets und die Vernetzung, wie wir sie heute kennen, ist Cunninghams Gesetz so passend wie nie. Jeder Mensch in den Industrienationen ist mit dem Internet verbunden und kann seine Meinung und sein Wissen kundtun und überall mitdiskutieren.

Sonstiges in Bezug auf Cunninghams Gesetz

Es existiert ein kurzes You-Tube-Video, in dem Cunningham selbst auftritt und seine vor vierzig Jahren getroffene Aussage selbst widerlegt.
Dort nennt er sein Gesetz ein „falsches Zitat, das sich selbst widerlegt, indem es über das Internet verbreitet wird“.

Es gibt das französische Sprichwort „Prêcher le faux pour savoir le vrai“. Das bedeutet übersetzt soviel wie: „Predige das Falsche, um die Wahrheit zu kennen“. Dieser Hang dazu, andere Menschen zu korrigieren, war also schon immer da, wo öffentlich diskutiert wurde. In der heutigen Zeit, wo der Kontakt zu Anderen und das öffentliche Kundtun einer Meinung oder das Verbreiten von Informationen besonders einfach ist, sind sowohl dieses Sprichwort, als auch Cunninghams auf die Onlinewelt bezogene Aussage aktuell wie noch nie.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung


Ein Teelichtofen besteht aus zwei unterschiedlich großen Tontöpfen und einem Teller. Dazu kommen noch diverse Schrauben und Unterlegscheiben und eine Metallstange. Aus diesen Einzelteilen wird der Teelichtofen zusammen gebaut und mit der passenden Menge an Teelichtern versehen. Die Anzahl an Kerzen richtet sich nach der Größe des Tellers. Werden die Lichter zu eng platziert, besteht die Gefahr, dass sich die einzelnen Flammen zu einer großen zusammenschließen. Es gibt inzwischen diverse Bauanleitungen und Sets, nach denen ein Teelichtofen hergestellt werden kann.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung

Werden die Kerzen angezündet, entwickeln die Flammen Hitze. Diese steigt mit der Luft nach oben. Der kleinere Tontopf nimmt die Wärme auf. An dieser Stelle ist die größte Wärmeentwicklung spürbar. Der zweite Tontopf wird durch die Luft nur langsam aufgewärmt. Daher kann dieser äußere Bereich auch berührt werden. Der Luftspeicher zwischen den beiden Tontöpfen bewirkt, dass die warme Luft nicht ungehindert in den Raum entweichen kann.

Teelichtofen: Konvektionswärme und Strahlungswärme

Durch das Anzünden der Kerzen erwärmt sich die Oberfläche der Tontöpfe. Die Konvektionswärme sorgt dafür, dass die angenehme Temperatur langsam an die Umgebung abgegeben wird. Warme Luft ist leichter als kalte Luft. Daher steigt sie langsam auf. Der kühlere Luftstrom fließt nach. So entsteht ein Kreislauf. Dieser bewirkt, dass der Raum langsam wärmer wird.

Teelichter brauchen Sauerstoff, damit sie brennen können. Deshalb muss zwischen dem Teller ein Spalt offen stehen. Diesen Bereich nutzen die Flammen, um Frischluft anzusaugen. Gleichzeitig wird durch diesen Spalt Wärme direkt an die Umgebung abgestrahlt. Die kühlere Frischluft wird durch die Teelichter angesaugt. Die warme Luft wird gleichzeitig abgestrahlt. So wird mit den Teelichtern zusätzlich Strahlungswärme erzeugt.

Teelichtofen: Wärmeleistung

Ein gewöhnliches Teelicht kann zwischen drei und vier Stunden brennen. Während dieser Zeit entwickelt jedes Licht eine Leistung von 40 Watt. Werden vier Teelichter aufgestellt, haben sie eine Gesamtleistung von 160 Watt. Verglichen mit einer herkömmlichen Heizung ist diese Leistung sehr gering. Neben der messbaren Wärme wird aber auch Strahlungswärme angegeben. Nach etwa 20 Minuten ist diese für die Personen in der Nähe des Teelichtofens deutlich spürbar. Sie sorgt dafür, dass sich die subjektive Empfindung ändert. Die Einstellung der regulären Heizung wird reduziert. Dadurch kann Energie eingespart werden. Werden mehrere Teelichtöfen aufgestellt, können sie auf diese Weise in der Übergangszeit für die gewünschte Wärme sorgen.

Siehe: Wie gefährlich ist ein Teelichtofen? Risiken, Gefahr

Sauerstoffzufuhr:

Jedes Feuer verbrennt Sauerstoff. Der CO² Gehalt in dem Raum wird dadurch langsam höher. Wenn mehrere Teelichter oder andere Kerzen angezündet werden, ist daher immer auf eine ausreichende Sauerstoffzufuhr im Wohnbereich zu sorgen. Ähnlich wie beim offenen Holzofen oder Kamin ziehen die Flammen diesen Anteil der Luft zu sich. Eine zu geringe Menge an Frischluft kann dazu führen, dass die anwesenden Personen langsam eindämmern und dann ganz einschlafen. Dies kann im schlimmste Fall den Erstickungstod verursachen. Wo immer ein Teelichtofen betrieben wird, sollte stets ausreichend für Frischluft gesorgt werden. Ist dieser vollständig aufgebraucht, erlöschen die Kerzen.

Die unterschiedlichen Modelle von Teelichtöfen sorgen dafür, dass die Wärme an verschiedenen Stellen genutzt werden kann. Die Temperatur kann in der Nähe bis zu 50 °C betragen. Kleine Räume oder der Platz rund um einen Tisch können auf diese Weise für ein paar Stunden beheizt werden.

Ist ein Teelichtofen gefährlich? Risiken, Gefahr, Erklärung


Teelichtöfen können bei einer falschen Konstruktion und einer falschen Verwendung gefährlich sein. Die Verwendung von offenem Feuer bringt Risiken mit sich, die leicht unterschätzt werden können. Teelichtöfen können Haus- bzw. Wohnungsbrände verursachen, wenn gewisse Sicherheitsmaßnahmen nicht berücksichtigt werden.

Bei einem verantwortungsvollen Umgang mit Teelichtöfen ist das Risiko einer Brandentwicklung gering. Sonstige Gesundheits- oder Sicherheitsrisiken sind eher gering.

Wie kann es durch Teelichtöfen zu Bränden kommen?

Es gibt zwei grundlegende Mechanismen, wie es zu Bränden durch Teelichtöfen kommen kann. Die Teelichter können umliegende Materialien entfachen, wenn die Konstruktion zu dicht an brennbaren Gegenständen steht. Ein typischer Fall wäre es, wenn das Feuer bei einem Teelichtofen auf dem Fensterbrett auf die Gardinen überspringt und einen unkontrollierbaren Brand verursacht. Das Feuer kann dabei durch direkten Kontakt der Flamme oder indirekt durch die Hitzeentwicklung am Teelichtofen entstehen. Dieser Gefahr kann vorgebeugt werden, indem der Teelichtofen korrekt aufgestellt wird. Dabei ist ein Sicherheitsabstand zu allen brennbaren Materialien notwendig. Außerdem sollte ein Teelichtofen, wie alle Kerzen, niemals unbeaufsichtigt gelassen werden. Bevor das Zimmer oder sogar die Wohnung verlassen werden, sind alle Teelichter zu löschen.

Die zweite, unbekanntere Gefahr droht das Phänomen des Wachsbrandes.

Siehe: Wie funktioniert ein Teelichtofen? Was passiert physikalisch?

Was ist ein Wachsbrand?

Kerzenwachs kann sich ab bestimmten Temperaturen selbst entzünden. Dabei brennt das Teelicht nicht mehr über den Docht ab, sondern steht plötzlich komplett in Flammen. Dabei entsteht eine beeindruckende Stichflamme, die wiederum zu Brandschäden in der Wohnung, Verletzungen oder zu einem sich ausbreitenden Wohnungsbrand führen kann.

Wachs ist chemisch mit Fetten und Ölen verwandt. Ein Wachsbrand kann, genau wie ein Fettbrand in der Küche, nicht mit Wasser gelöscht werden. Für das Löschen eines Wachsbrandes ist ein Feuerlöscher (Klasse F) oder eine geeignete Löschdecke erforderlich.

Die Temperatur, ab der sich das Wachs entzündet, hängt von der chemischen Zusammensetzung des spezifischen Teelichts ab. Bio-Teelichter auf Rapsöl-Basis sind ab etwa 300 °C entzündlich.

Wie kann ein Wachsbrand verhindert werden?

Um Wachsbrände auszuschließen, darf die Temperatur im Teelichtofen nicht zu hoch steigen. Deswegen ist es empfehlenswert, einen ausreichenden Abstand zwischen den Teelichtern und dem darüberliegenden Blumentopf einzuhalten. Bei der Konstruktion von Teelichtöfen sollte auf erprobte, sichere Baupläne zurückgegriffen werden.
Um die Hitzeentwicklung zusätzlich zu begrenzen, sollte ein Teelichtofen nicht mit zu vielen Teelichtern betrieben werden. Die genau Maximal-Anzahl ist von der Größe des Teelichtsofens abhängig, aber ein ausreichender Abstand zwischen den Teelichtern muss gewährleistet sein.

Gefahren für Kinder und Haustiere

Bei der Anwesenheit von Kindern und Haustieren gelten für Teelichtöfen dieselben Gefahren wie bei normalen Kerzen oder Holzöfen. Kinder und Haustiere dürfen niemals unbeaufsichtigt mit einem Teelichtofen zurückgelassen werden. Mögliche Gefahren sind etwa Verbrennungen und Brände durch ungewolltes Umwerfen des Teelichofens.

Der Teelichtofen sollte nicht an Orten aufgestellt werden, die für Kinder erreichbar sind. Einige beliebte Orte für Teelichtöfen, etwa Fensterbänke, sind zudem bevorzugte Aufenthaltsorte von Katzen.

Es ist zu beachten, dass nicht nur von den Teelichtern selbst eine Verbrennungsgefahr ausgeht. Auch am Ton des Blumentopfs entstehen Temperaturen, die zu Verletzungen führen können.

Kann es durch Teelichtöfen zu Kohlenstoffmonoxid-Vergiftungen kommen?

Bei allen Verbrennungsreaktionen entsteht Kohlenstoffmonoxid als Nebenprodukt. Kohlenstoffmonoxid wird nach dem Einatmen anstelle von Sauerstoff an die roten Blutkörperchen gebunden und führt zu einer inneren Erstickung. Das Gas ist geruchlos und kann nicht erkannt werden. Deswegen ist bei Holzöfen eine Wartung durch den Schornsteinfeger vorgeschrieben.

Auch bei Teelichtöfen wird Kohlenstoffmonoxid produziert. Normalerweise ist dies aber unbedenklich, da die Menge nur sehr klein ist. Durch reguläres Lüften und etwas Durchzug in der Wohnungsluft wird das Kohlenstoffmonoxid zerstreut und kann keine Schäden verursachen.
Trotzdem sollte die Gefahr nicht vernachlässigt werden. Wenn ein Teelichtofen betrieben wird, muss die Wohnung regelmäßig gelüftet werden. Dabei ist eine Stoßlüftung mit der Öffnung mehrerer Fenster empfehlenswert. Es dürfen zudem nicht zu viele Teelichtöfen gleichzeitig betrieben werden. Dies gilt besonders für kleinere, gut isolierte Räume.

Wie gefährlich sind Teelichtöfen also allgemein?

Teelichtöfen bringen einige Gefahren mit sich. Unfälle entstehen aber nur bei der Missachtung von einfachen Sicherheitsmaßnahmen. Bei einem verantwortungs- und maßvollen Umgang mit Teelichtöfen sind die Gefahren gering.

Warum hat der Kochlöffel ein Loch? Erklärung


Auch wenn dies längst nicht bei jedem Kochlöffel der Fall ist, werden heutzutage die meisten Kochlöffel serienmäßig mit einem Loch in der Mitte, der Laffe (korrekter Ausdruck für die Rührfläche), hergestellt.

Fachlich richtig wird diese Art von Löffel auch Rührlöffel oder Lochkelle genannt. In Italien wird ein Kochlöffel mit einem solchen Loch als Risottorührer bezeichnet und wird dementsprechend für das Rühren von Risottogerichten genutzt. Es ist nicht zu hundert Prozent bewiesen, doch mit hoher Wahrscheinlichkeit wurde der Kochlöffel mit dem Loch so, wie er heute ist, in Italien erfunden.

Loch als Aussparung für einen geringeren Widerstand beim Rühren

Gerade bei Reisgerichten wie Risotto ist das regelmäßige Rühren anstrengender mit einem Löffel ohne Aussparung. Es erfordert viel Kraft, je dicker oder zäher ein Gericht oder eine Masse ist. Durch das Loch in der Laffe entsteht ein geringerer physischer Widerstand bei gleichem Effekt, was das Umrühren vereinfacht und auch einen gewissen Klebeeffekt der Speisen am Löffel reduziert. Auch bei manchen Eintöpfen oder besonders zähen Massen wie Teig oder Kartoffelpüree erfordert das permanente Rühren viel physische Energie, die durch das Loch in der Laffe eingespart wird. Es wird davon ausgegangen, dass dies der Hauptgrund für das Produktdesign einer Lochkelle ist. Es gibt jedoch einige weitere Vorteile der Aussparung.

Nebeneffekte des Loches

Komfortableres Herausnehmen von größeren Stücken:

Ein weiterer Vorteil einer Lochkelle bzw. eines Löffels mit Loch in der Laffe ist, dass das Herausnehmen größerer Stücke besser funktioniert. Wenn jemand zum Beispiel ein Stück Kartoffel oder Zwiebel aus einem Eintopf herausnimmt, bleibt dieses Stück besser auf dem Loch liegen, als auf einem normal geformten Kochlöffel. Bei Letzterem neigt das betroffene Stück Inhalt eher dazu, abzurutschen und es ist schlechter greifbar.

Flüssigkeit kann leichter abfließen:

Ein Nebeneffekt, und auch der Grund, warum es den mit der Lochkelle verwandten Schlitzlöffel gibt, ist folgender: Flüssigkeiten in Speisen, die mit dem Rührlöffel herausgenommen werden, fließen ab.

Der soeben genannte Schlitzlöffel hat sogar allein diesen Zweck. Es ist ein Löffel mit länglicherer, nicht ganz runder Laffe, die mehrere Schlitze in der Mitte aufweist. Dies ist bei vielen Nudel- oder Fleischgerichten praktisch. Der Schlitzlöffel ist größer als ein üblicher Rührlöffel, was sowohl die Laffe, als auch den Stiel betrifft.

Spaghetti-Löffel

Eng verwandt mit der Lochkelle ist der Spaghetti-Löffel, der ebenfalls ein Loch in der Mitte hat. Hierbei lassen sich die Spaghetti nach dem Kochen leichter mit einer dicken Soße verrühren.

Beim Herausnehmen der Spaghetti aus dem Kochtopf wird durch die kellenartige Form vereinfacht und das Wasser fließt durch das Loch leichter ab.

Zu guter Letzt sind die Löcher in Spaghetti-Löffeln so genormt, dass der Durchmesser einer Portion getrockneter Spaghetti genau hindurchpasst. So lassen sich die Nudeln im Voraus leicht portionieren.

Spitz zulaufende Ecke

Der Kochlöffel mit Loch oder die Lochkelle hat in den meisten Fällen zusätzlich eine einzelne spitz zulaufende Ecke. Diese ist dazu da, durch den entstandenen rechten Winkel mit dem Löffel besser an den Topfboden heranzukommen. So ist es einfacher, auch den unten liegenden Inhalt leichter aus dem Topf kratzen zu können.

Was ist ein „Luser“? Bedeutung, Definition, Erklärung


Luser ist ein englischer Begriff, der einen laienhaften Computerbenutzer bezeichnet. Dabei handelt es sich um ein Schachtelwort, welches sich aus den beiden englischen Wörtern „Loser“ (Verlierer) und „User“ (Benutzer) zusammensetzt.

Die Entstehung des Begriffs Luser

Das Wort Luser trat erstmals Ende der 60er-Jahre in Verbindung mit einem CTSS-Quellcode in Erscheinung. Richtig Fahrt auf nahm das englische Kofferwort am MIT (Massachusetts Institute of Technology) Mitte der 70er-Jahre.

Ein Nutzer lies sich damals unter ITS mittels der Tastenkombination Control-Z detaillierte Informationen ausdrucken. Darunter war die Zahl der Nutzer, welche den Computer benutzten, zu sehen. Aus Spaß wurde ein Patch geschrieben, welches die Bezeichnung „User“ auf „Loser“ abänderte. Wurden nun die Statusinformationen eines Computers von einer Person ausgedruckt, bekam diese beispielsweise 8 Verlierer statt 8 Benutzer zu sehen.

Die Bezeichnung Loser (Verlierer) stieß jedoch auf Widerstand und war nicht von jedem gern gesehen, wodurch der Begriff Luser entstand.

Von wem heute der Begriff Luser hauptsächlich genutzt wird

Vielfach verwendet wird Luser von Hackern. Für Hacker ist ein jeder „normale“ Computerbenutzer ein Luser. Dabei spielt es keine Rolle, ob es sich um einen Neuling handelt oder um jemanden, der zwar im Umgang mit Windows oder anderen Betriebssystemen geübt ist, allerdings keine oder kaum Erfahrung mit den verschiedenen Programmiersprachen hat.

Auch von Systemadministratoren werden Personen mit normalen Benutzerkonten mitunter als Luser bezeichnet. Dies gilt für jede Person, die keinen Zugriff auf die Systemverwaltung hat und aufgrund mangelnder Erfahrung auch nicht haben sollte. Unerfahrene Kunden werden daher von technischen Supportmitarbeitern oft als Luser bezeichnet.

Häufig verwendet wird der Begriff Luser auch bei Personen, die stetig dieselben Fragen in Bezug auf Computer-Befehle stellen. Wenn eine Person trotz mehrmaliger Hilfestellung nicht mit seinem Computer zurechtkommt, dann wird diese gerne als Luser bezeichnet.

Beispiele für einen Luser

Eine Person, die sich mit einem Programm oder einem System nicht zurechtfindet und auch nicht geschult ist. Beispielsweise werden Computerbenutzer als Luser bezeichnet, welche sich beschweren, dass die eingegebenen Daten bei einem System nicht gespeichert wurden. Gleichzeitig hat sich der Computerbenutzer nicht beim Support informiert oder es auch nach einer Anfrage beim Support nicht verstanden, dass es einen Button zum Abspeichern der Daten gibt.

Als Luser können jedoch auch Personen bezeichnet werden, die eine eigenwillige oder spezielle Einstellung zum Internet haben. Verwendet wird der englischsprachige Begriff auch, wenn ein Betriebssystem wie Windows genutzt wird.

Windows 95 sorgte für starken Aufschwung des Begriffs Luser

In den 80er-Jahren konnten Computer nur von jenen richtig bedient werden, die eine Schulung absolviert oder sich das Hintergrundwissen selbst mühsam angeeignet haben. Erst mit Windows 95 kam die Zeit, als auch völlig unerfahrene Benutzer einen Computer bedienen konnten. Dadurch stieg die Zahl unqualifizierter Anwender, wodurch der Begriff Luser von qualifizierten Nutzern noch häufiger verwendet wurde.

Luser – Wörter mit ähnlicher Bedeutung

Oft wird als Synonym für Luser auch DAU verwendet. DAU steht für „dümmste anzunehmende User“.

Teilweise wird auch da Kürzel LART genutzt. LART ist die Abkürzung für „Luser Attitude Readjustment Tool“. Hierbei handelt es sich um ein Werkzeug, durch das die Luser-Einstellung neu ausgerichtet wird. Das kann ein Programm sein, mit dem zuvor falsche Einstellungen des Lusers wieder rückgängig gemacht und richtige Einstellungen vorgenommen werden.

Weitere Wörter für Luser sind zudem Luzer oder Luzzer.

Was ist Stacking Sats? Bedeutung, Definition, Erklärung


Was bedeutet der Begriff Stacking Sats? Oft findet man den Begriff Stacking Sats in den Bitcoin Foren. Auch bei Twitter wird der Hashtag #StackingSats oft verwendet. Viele Menschen, die Bitcoin nicht kennen oder Bitcoin Anfänger sind, können mit dem Begriff aber nichts anfangen.

Stacking Sats: Definition, Bedeutung, Erklärung

Die Nutzer von Bitcoin bezeichnen mit Stacking Sats eine Anhäufung (Akkumulation) von Bitcoin (BTC). Diese Anhäufung entsteht, indem der Nutzer BTC kauft und so Geld verdient.
Das Wort Sats steht für Satoshis. Dies ist die kleinste Einheit des Bitcoins.

Angeblich wurde der Begriff Stacking Stats erstmalig auf Twitter benutzt. Damals verwendete der User @CryptoGod112358 diesen Hashtag. Diese Bezeichnung wurde dann von anderen einflussreichen Influencern wie Jack Dorsey adaptiert. Dorsey ist ein bekannter Twitter-CEO.

Er postete einen Screenshot von seinem Bitcoinkauf und setzte unter das Foto den Hashtag #stackingsats. Im Urban Dictionary ist der Begriff mittlerweile auch zu finden. Im Laufe der Zeit lohnt sich das Anhäufen von Satoshis (Sats) auch. Selbst kleine Ansammlungen können aufgrund des zukünftigen Wertes später einmal sehr nützlich sein.

Wann kann der Begriff Stacking Sats verwendet werden?

Der Begriff kann immer verwendet werden, wenn ein Käufer neue Satoshi kauft, tauscht oder einen Gewinn erzielt. Jede kleine Anhäufung und jede kleine Steigerung des Bestandes kann mit dem Begriff beschrieben werden.

Was ist Sats? Wieviel Bitcoin ist ein Satoshi?

Sats ist die Abkürzung von Satoshi. Satoshi ist die kleinste Einheit von Bitcoin. Satoshi Nakamoto erfand Bitcoin im Jahre 2008. Damals veröffentlichte er das Bitcoin-White-Paper. 2009 erschien die erste Version der Referenzimplementierung Bitcoin Core.

Der Name Satoshi Nakamoto ist ein Pseudonym. Seit 2008 wurden verschiedene Personen für Satoshi gehalten. Satoshi Nakamoto legte folgenden Wert fest: 1 Satoshi sind 0.00000001 BTC. Also besteht 1 Bitcoin aus 100 Millionen Satoshis.

Seitdem es Käufern schwerer fällt, einen ganzen Bitcoin zu kaufen, gewinnen die Satoshis zunehmend an Relevanz. Die Preise für den Bitcoin steigen und daher sind Bitcoins nicht mehr so einfach erhältlich.

Satoshi und Euro

Satsoshi können auch in Euro umgerechnet werden. Bei einem Preis von 8000 Euro pro Bitcoin wäre 1 Satoshi (bzw. 0.00000001 BTC) ungefähr 0,008 Cent wert. Der aktuelle Preis des Bitcoins muss durch 100 Millionen dividiert werden. So wird der Preis pro Satoshi in Euro berechnet.

Experten vermuten, dass in der Zukunft der BTC eine Million Euro wert sein könnte, dann würden auch die Satoshis teurer werden. Falls der BTC einmal wirklich eine Million Euro wert sein sollte, dann wird ein Satoshi den Wert von 0,1 Cent haben. Der Bitcoin Preis lag am 06.11.2022 bei 21370,09 Euro.

Bitcoin und Sats kaufen

Viele Menschen glauben inzwischen an den Wertzuwachs von Sats und versuchen daher, Sats anzuhäufen. Bitcoins oder Sats sind auf Bitcoin Plattformen erhältlich. Anleger und Bitcoin Interessierte können sich über die besten Plattformen und Wallets informieren. Es gibt verschiedene Möglichkeiten, Sats günstig zu erwerben und sicher zu verwahren.

Das Wiener Unternehmen Bitpanda ist inzwischen eine der führenden Kryptobörsen in ganz Europa. Die Zahlen sind erstaunlich. Inzwischen wird der Wert des Unternehmens auf über 4 Billionen Dollar geschätzt. Auf Bitpanda sind mehr über 3 Millionen Anleger und Kryptoinvestoren angemeldet. Die weltweit größte Plattform für Krypto ist aber eToro. Auch Coinbase ist eine riesige Plattform mit vielen Millionen von Anlegern.

Was ist Dark Data? Bedeutung, Definition, Erklärung


Unter Dark Data versteht man Datenmengen und Datenflüsse, die in der täglichen Kommunikation zwischen Unternehmern und Endbenutzern zwar abgefragt und gespeichert werden, tatsächlich aber niemals von den Systemen dahinter verwertet werden. Es ist eine Art von blinder Masse, die bei der Datenverarbeitung anfällt und auf den Systemen bleibt, aber aus unterschiedlichsten Gründen nicht in die nachfolgenden Prozesse eingebunden wird. Schuld daran ist in der Regel die schiere Menge an Daten, die derzeit bei digitalen Prozessen erhoben wird. Technische Aspekte machen es zwar notwendig, dass auch die Dark Data erfasst wird, verarbeitet wird sie aber nicht und nur die wenigsten Unternehmen und Behörden sind sich der Existenz der Dark Data überhaupt im größeren Maße bewusst.

Unterschiedliche Szenarien für die Existenz von Dark Data

Generell kann Dark Data in ganz unterschiedlichen Formen auf Systemen vorliegen und auch aus ganz verschiedenen Gründen überhaupt erzeugt werden. Mit der Zunahme von Digitalisierungsprozessen und der allgemeinen digitalen Kommunikation begann auch die umfassende Speicherung eben dieser Daten und Dateien. Dabei geht es sowohl um die Interaktion zwischen Endbenutzer und System – in diesem Fall beispielsweise ein Kunde und das Unternehmen dahinter – aber auch um die Daten, die durch automatisierte Prozesse anfallen und im Hintergrund gespeichert werden. Alleine das Prinzip Big Data sorgt heute dafür, dass jedes Unternehmen Gigabytes bis Terrabytes an Daten jeden Tag auf den eigenen Systemen speichert. Während manche weiterverwendet und andere nach kurzer Zeit gelöscht werden, gibt es durchaus die sogenannte Dark Data, die vollkommen ungenutzt weiterhin auf dem System verbleibt.

Wann genau nun Dark Data entsteht ist in der Regel von der Infrastruktur des Systems abhängig. Es gibt Dark Data, die beispielsweise dadurch entstanden ist, dass sie einfach auf dem System vergessen wurde. Das kann durch inkorrekte Auswertungsprozesse passiert sein oder weil sich zu diesem Zeitpunkt noch kein tieferer Zweck für genau diesen Datensatz ergeben hat. Es gibt darüber hinaus Informationen, die einfach nicht brauchbar sind. Sie sind beispielsweise beschädigt oder liegen in einem Format vor, das für die eigenen internen Prozesse nicht brauchbar ist. Auch veraltete Daten sind nicht selten noch lange auf den Systemen zu finden und fallen irgendwann in die Kategorie von Dark Data, da sie in Vergessenheit geraten und nicht in die Prozesse eingebunden werden.

Die möglichen Folgen und Potentiale von Dark Data

Dass Daten im Zeitalter des Internets zu einer der wichtigen Währungen überhaupt geworden sind, beweisen nicht nur die sozialen Netzwerke und Advertiser Tag für Tag. Eine intelligente und vor allem zielgeführte Auswertung von allen Daten auf dem eigenen System ist wichtig – nicht nur um Prozesse zu optimieren, sondern auch um möglichst viel von den Menschen zu erfahren, mit denen das eigene System interagiert. Nun können Daten im Laufe der Zeit wieder interessanter werden. Vielleicht entwickelt man einen Prozess, mit den die bisherigen Datenreste oder falschen Formate doch noch ausgewertet und in die Datenbasis überführt werden können. Oder es entsteht ein neuer Trend, für den man eine ganz bestimmte Form von Daten benötigt, die bisher nicht genutzt wurde, aber in umfassender Form auf den Systemen vorhanden ist.

Gleichzeitig entstehen natürlich auch sicherheitsrelevante und nicht zuletzt datenschutzrechtliche Probleme mit Dark Data. In Europa sind Unternehmen generell zur Datensparsamkeit angehalten. Sie sollen nur Daten von Kunden und Nutzern speichern, die direkt weiterverarbeitet und für eigene Prozesse genutzt werden können. Liegen nun größere Mengen an Dark Data auf dem System, bei dem man nicht einmal genau weiß, was sie eigentlich beinhaltet, könnte das bei einem Sicherheitsleck zu einem Problem werden. Dazu kommen die Kosten für die Speicherung, die bei einer beständigen Zunahme der Datenmenge auch mittelfristig zu einem Problem werden können. Unternehmen müssen sich daher damit beschäftigen, was sie mit dieser dunklen Masse an Daten in ihrem eigenen System machen wollen.

Was bedeutet „Fediverse“? Was ist das? Bedeutung, Definition, Erklärung


Die sozialen Medien sind zentralisiert. Der Zugang zu großen Datenmengen ist zwar eine große Hilfe für Unternehmen, die ihre Produkte verbessern wollen, aber die Zentralisierung hat ihren Preis. Zentralisierte Dienste sind ein Angriffsziel für Hacker. Anfang Oktober 2021 kam es z.B. auf Amazons Streaming-Plattform Twitch zu einer großen Datenpanne, die es Hackern ermöglichte, eine große Menge an sensiblen Daten zu veröffentlichen.

Zentralisierte Anwendungen erleichtern es den Unternehmen auch, ihre Macht auszuüben. Ein großer Teil der heutigen Webkultur verlässt sich auf Unternehmen wie Meta und Google, um alle Ihre Inhalte zu speichern. Diese Tech-Giganten sind auf nutzergenerierte Inhalte angewiesen, um Gewinne zu erzielen, und nutzen oft die Privatsphäre der Nutzer aus, um ihre Gewinne weiter zu steigern.

Fediverse hofft, das Problem der zentralisierten sozialen Medien zu lösen. Föderierte Social-Media-Plattformen ermöglichen es den Nutzern, Inhalte ins Netz zu stellen, ohne dabei auf große Unternehmen angewiesen zu sein. Mit Fediverse kann man endlich sein eigenes Facebook erstellen.

Was ist das Fediverse? Bedeutung, Definition, Erklärung

Fediverse bezieht sich auf ein Netzwerk von miteinander verbundenen Servern, die für Web-Publishing und File-Hosting verwendet werden. Diese Server kommunizieren untereinander über einen offenen Standard. Fediverse-Anwendungen werden in der Regel als die bessere Alternative zu zentralisierten Anwendungen wie Twitter, Facebook oder YouTube dargestellt.

Die Microblogging-Plattform Mastodon beispielsweise verfügt über ähnliche Funktionen wie Twitter, funktioniert aber ganz anders als diese. Während Twitter sich auf einen zentralen, vom Unternehmen betriebenen Server stützt, besteht Mastodon aus mehreren über die ganze Welt verteilten Servern.

Jeder Server kann seine eigenen Regeln und Kontoprivilegien haben. Da die Zahl der Anwendungen auf fediverse von Jahr zu Jahr wächst, können Websites wie fediverse.party und fediverse.space den Nutzern helfen, die verschiedenen Plattformen zu erkunden.

Um zu verstehen, was Fediverse tut, muss man zunächst die Bedeutung des Namens aufschlüsseln. Fediverse steht für föderiertes Universum und konzentriert sich, wie der Name schon sagt, auf das Konzept der Föderation.

Wie funktioniert Fediverse?

Jeder Fediverse-Server hat seine eigenen Regeln, Konten und Gemeinschaften. Inwiefern unterscheidet sich dies von der aktuellen Landschaft von TikTok, Twitter und Instagram?

Wenn ein Benutzer ein Twitter-Konto hat, kann er nur anderen Twitter-Konten folgen. Aber wenn man ein Konto bei Fediverse hat, kann man jedem anderen Konto in jeder anderen App folgen. Man kann zum Beispiel ein Konto auf mastodon.social haben und Konten auf anderen Instanzen wie hackers.town folgen, ohne dort ein Konto erstellen zu müssen.

Wie ist das möglich? Jede Fediverse-Plattform verwendet ein als ActivityPub bekanntes Protokoll, um miteinander zu kommunizieren. Ähnlich wie E-Mail auf dem SMTP-Protokoll basiert, um Nachrichten an verschiedene Server zu senden und von ihnen zu empfangen, stützt sich Fediverse auf ActivityPub, um Nutzern verschiedener Plattformen die Interaktion miteinander zu ermöglichen.

Was ist ActivityPub?

ActivityPub umfasst eine große Anzahl von Aktionen, darunter die Veröffentlichung von Inhalten, Folgeanfragen, Nachrichten und vieles mehr. Ein ActivityPub-Objekt liegt im JSON-Format vor und enthält mehrere Felder.

Jedes ActivityPub-Objekt muss einen Typ und eine ID haben. Die id ist eine eindeutige URL, in der alle Metadaten der Nachricht gespeichert sind. Benutzer können eine GET-Anfrage an die eindeutige URL stellen, um alle mit diesem Objekt verbundenen Daten abzurufen.

ActivityPub definiert auch verschiedene Akteursobjekte wie Person, Gruppe, Organisation, Anwendung und Dienst. Jeder Akteur benötigt außerdem zwei Eigenschaften: einen Posteingang und einen Postausgang.

Warum sollten soziale Medien dezentralisiert werden?

Privatsphäre und Eigentum:

Die Dezentralisierung ermöglicht es den Nutzern, wirklich Eigentümer ihrer Daten zu sein. Einheitliche Plattformen ermöglichen es den Nutzern, alle ihre Daten herunterzuladen oder zu löschen. Standardmäßig verkaufen diese Plattformen niemals personenbezogene Daten an Werbeplattformen oder Data-Mining-Initiativen.

Datenschutz:

Fediverse-Anwendungen sind theoretisch auch sicherer. Anstatt dass ein Nutzer seine Daten einer zentralisierten Social-Media-Plattform wie Facebook anvertraut, vertraut er seine Daten einer verschlüsselten Open-Source-Instanz an. United Social Networks setzt auf Public-Key-Kryptographie für die Kontosicherheit.

Freie Rede:

Jede Instanz auf Plattformen wie Mastodon hat ihre eigenen Moderationsregeln. Nutzer, die ein offenes Ventil für ihre Gedanken finden wollen, können wählen, welchen Instanzen sie beitreten möchten.

Software-Beispiele von Fediverse

Mastodon: Mastodon ist die bisher beliebteste App auf Fediverse. Die App ist eine Open-Source-Microblogging-Plattform, die aus einer großen Anzahl von Mastodon-Knoten besteht. Sie wurde 2016 erstmals veröffentlicht und hat inzwischen über 3 Millionen Nutzer. Die Popularität von Mastodon hat weiter zugenommen, als die Spannungen wegen der Übernahme von Twitter durch den Tesla-Gründer Elon Musk Anfang April dieses Jahres zunahmen.

PeerTube: PeerTube ist eine dezentralisierte Open-Source-Video-Plattform, die von ActivityPub unterstützt wird. Jede Instanz von PeerTube verfügt über eine Website-Schnittstelle, auf der die Nutzer Videos durchsuchen und ansehen können. Die Videos werden mit der WebTorrent-Technologie ausgeführt. Jeder Server hostet seinen eigenen Torrent-Tracker und teilt die Last des Video-Hostings zwischen dem Server selbst und den Clients. Jeder PeerTube-Server kann sich mit anderen Servern zusammenschließen, damit die Nutzer das gleiche Video ansehen können. Dies könnte es PeerTube ermöglichen, Millionen von Videos zu hosten, ohne die Infrastruktur zu benötigen, die ein milliardenschweres Unternehmen wie Google verwendet.

Owncast: Owncast ist ein selbst gehosteter Live-Video- und Web-Chat-Server, der als Alternative zu Live-Streaming-Plattformen wie Twitch genutzt werden kann.

Fazit

Das Misstrauen gegenüber Technologiemonopolen nimmt in der Gesellschaft weiter zu. Plattformen wie Facebook und YouTube nutzen weiterhin proprietäre Algorithmen und Data-Mining-Techniken, um ihre Nutzer auszunutzen. Diese Plattformen haben auch an Attraktivität für Nutzer verloren, die es vorziehen, Inhalte ohne Angst vor Verbot oder Zensur zu veröffentlichen.

Obwohl Fediverse seit fast einem Jahrzehnt existiert, bleibt abzuwarten, ob die breite Öffentlichkeit genügend Anreiz hat, dorthin zu ziehen.

Unterschiede zwischen Zwetschgen und Pflaumen: Erklärung


Die Pflaume, Prunus domestica, ist eine Pflanzenart aus der Familie der Rosengewächse, die Zwetschge, Prunus domestica subsp. domestica, ist eine Unterart der Pflaumen. Das bedeutet, dass jede Zwetschge zwar eine Pflaume, aber nicht jede Pflaume eine Zwetschge ist.

Die Pflaume wird als die Mutter aller Sorten der Pflanzenart Prunus domestica bezeichnet und ist eine Kulturpflanze aus Asien. Der Übergang zwischen Pflaumen und Zwetschgen ist fließend, und zwar deshalb, weil die Früchte gekreuzt werden. Dennoch gibt es feine Unterschiede zwischen Pflaumen und Zwetschgen.

Vegetative Unterschiede zwischen Zwetschgen und Pflaumen

Pflaumenbäume erreichen eine Wuchshöhe von sechs bis zehn Metern. Es gibt selbstfruchtbare sowie selbstunfruchtbare Sorten. Fremdbestäubte Bäume erzielen einen höheren Ertrag. Pflaumenbäume blühen von März bis Mai und die Früchte reifen je nach Sorte von Juli bis Oktober.

Zwetschgenbäume erreichen eine Wuchshöhe von sechs Metern und werden selten höher. Der Zwetschgenbaum hat kleine grünlich-weiße Blüten, die zugleich mit den Blättern, meistens im April, erscheinen.

Früchte der Zwetschgen und Pflaumen

Pflaumen sind rundlicher und größer als Zwetschgen. Pflaumen haben eine grüne, gelbe oder rote Farbe, während die kleineren sowie schmäleren Zwetschgen blau- beziehungsweise violett sind. Pflaumen schmecken süß, nur selten leicht säuerlich und das Fruchtfleisch lässt sich schwer vom Stein lösen. Eine Ausnahme bildet die meist gelbe Pflaume, die Mirabelle. Bei dieser Pflaumensorte lässt sich der Stein genauso leicht wie bei der Zwetschge entfernen. Pflaumen sind saftiger als Zwetschgen.

Die eher ovalen Zwetschgen haben ein festes bis weiches, gelbliches Fruchtfleisch, das sich leicht vom Stein lösen lässt. Wie die Pflaume schmeckt auch die Zwetschge süß, jedoch häufiger leicht säuerlich und ist von August bis Oktober genussreif. Zwetschgen dürfen nicht grün gepflückt werden, weil sie nicht nachreifen.

Das Fruchtfleisch der Pflaumen ist fester als das der Zwetschgen. Dennoch zerfällt es beim Kochen, weshalb Pflaumen für die Herstellung von Konfitüre, Mus, Chutney, Crumble oder Saft bestens geeignet sind. Zwetschgen behalten hingegen bei der Verarbeitung größtenteils ihre Form und werden deshalb hauptsächlich zum Backen von Torten, Kuchen und Strudeln verwendet.

Markante Unterschiede und Gemeinsamkeiten: Zwetschgen und Pflaumen

Neben Form und Farbe lassen sich Pflaumen und Zwetschgen an der Bauchnaht unterscheiden. Pflaumen haben eine ausgeprägte Bauchnaht, Zwetschgen verfügen über keine Bauchnaht. Das gemeinsame Prunus-Qualitätsmerkmal ist der Duftfilm. Es handelt sich um einen feinen, weißen Überzug, der auch bei Weintrauben zu sehen ist. Fälschlicherweise wird oft angenommen, dass es sich bei diesem Überzug um Pestizide handelt, doch der Überzug schützt die Früchte vor Austrocknung und entsteht durch Kondenswasser.

Deshalb sollte der Duftfilm erst kurz vor dem Verzehr oder der Verarbeitung der Früchte entfernt werden. In der Regel reicht es aus, die Früchte mit einem Küchentuch zu polieren. Nur wenn sich der Überzug nicht entfernen lässt, werden die Zwetschgen oder Pflaumen mit einem feuchten Tuch gereinigt. Entfernt werden sollte der Duftfilm auf jeden Fall, er könnte durch die Luft oder den Regen verunreinigt sein.

Gesunde Inhaltsstoffe von Zwetschgen und Pflaumen

Sowohl die Pflaumen als auch die Zwetschgen enthalten wertvolle Inhaltsstoffe. Die Früchte sind reich an Vitaminen, vor allem Vitamin A, C, K und E. Außerdem enthalten die Früchte Spurenelemente, wie Kupfer und Zink und Ballaststoffe. 100 Gramm Pflaumen haben 47 Kalorien, bei den Zwetschgen sind es 43 Kalorien.

Was ist ökologische Amnesie (Generationsamnesie, Umweltamnesie)? Bedeutung, Definition, Erklärung


Ökologische Amnesie (Generationsamnesie, Umweltamnesie) einfach erklärt:

Als „ökologische Amnesie“ wird der Umstand bezeichnet, dass man die Natur, die man in seiner Kindheit erlebt hat, als Norm empfindet. Mit dieser Norm wird die Natur, die man im späteren Leben erlebt, verglichen. Jedoch ist dies eine zu kurzfristige und eingeschränkte Beobachtung für eine gute Aussage über den Zustand der Natur.

Wer z.B. in seiner Kindheit viel Großstadtsmog und „blaue Wolken“ aus Autos erlebt hat, wird sagen, dass es der Natur heute besser geht. Denn der Großstadtsmog ist an den meisten Orten weg und verbleites Benzin ist verboten. Doch zu meinen, dass es der Natur deswegen besser geht, ist ein Fehlschluss. Und dieser Fehlschluss wird Umweltamnesie, Generationsamnesie oder Ökologische Amnesie genannt.

Ein anderes Beispiel: Menschen, die noch nie einen wilden Fluß gesehen haben, werden meinen, dass es den geraden Flüssen, die sie kennen, gut geht und dass diese normal sind. Jedoch sind begradigte Flüsse eben nicht die Norm. Sie sind künstlich und von Menschen gemacht.

Weiter:

Der Verlust des Gedächtnisses, vorübergehend oder dauerhaft, ist als Amnesie bekannt. Tritt dieser Umstand in Kombination mit der anthropisierten Natur und Umwelt auf, nennt sie sich ökologische Amnesie. Alternative Bezeichnungen sind die Generationenamnesie und Umweltamnesie. Das Konzept stammt aus der Naturschutzbiologie. Sie ist gekennzeichnet durch künstliche Naturerlebnisse anstatt realer Erfahrungen in der Natur. Das führt zu einer Vergessenheit, die sich von einer Generation auf die nächste weiter verstärkt.

Technologischer Fortschritt als Ursprung der Generationsamnesie

Die generationsbedingte Umweltamnesie ist gekennzeichnet durch den Einfluss der Hochtechnologie in der heutigen Zeit. Die Moderne ist von dem technischen Fortschritt geprägt. Das beeinflusst den menschlichen Umgang mit der Natur und die Wahrnehmung selbiger. Die ursprüngliche Umgebung dient generell als Vorbild für die weiterentwickelte Technologie des digitalen Zeitalters. Was das bei dem Menschen, speziell der neuen Generation, bewirkt, konnten Wissenschaftler inzwischen genauer erforschen.

Ökologische Amnesie – Auswirkungen der realen Natur auf die Psyche

Die originale Umwelt, einen echten Sonnenuntergang sehen oder lebende Haustiere versorgen, sorgt für eine Reduktion von Stress. Der Mensch beruhigt sich durch wahrhafte Naturerlebnisse. Dadurch hat die natürliche Umgebung einen signifikanten Effekt auf das Wohlbefinden und die Gesundheit des Homo sapiens.

Dagegen steht der neuzeitliche Fortschritt mit einer Künstlichen Intelligenz und nachgebildeten Natürlichkeit hinter einem Display. Wer mit Hightech aufwächst, erfährt eher einen Abbau von Stress und eine beruhigende Wirkung durch die nachgeahmte Umwelt als jene Personen, die die reale Tier- und Pflanzenwelt kennen. Das bewirkt letztlich einen immensen Unterschied zwischen den Generationen – und hat eine sogenannte generationsbedingte Umweltamnesie zur Folge.

Abgestumpfte Generation – Auswirkungen der nachgebildeten Umwelt

Die technologisierte Flora und Fauna spielt insbesondere bei Kindern eine immense Rolle. Die neue Generation wächst mit Robotern und der Künstlichen Intelligenz auf. Das geht zugleich mit einer abnehmenden echten Naturerfahrung einher. Da die technologische Natur lediglich ein Abbild der Realität ist, bewirkt dies eine veränderte Wahrnehmung der Umwelt.

Ein Beispiel für diese Veränderung ist der Einsatz von Roboterhunden. Kinder betrachten die künstlichen Tiere längst als wirkliche Lebewesen. Sie interagieren zunehmend intuitiv miteinander – denn die KI macht es möglich. Auf die Art geraten ursprüngliche Geschöpfe, reale Haustiere und deren Interaktion immer mehr in Vergessenheit. Damit ist der Grundstein der ökologischen Amnesie gelegt: Die jüngere Generation stumpft ab – und das hat Konsequenzen für das echte Umwelterleben.

Folgen für die Natur durch generationsbedingte Amnesien

Tierhaltung ist ein Lebensbereich, der durch die Technologie unweigerlich verändert wird. Daneben spielen Flussbegradigungen oder die Verschmutzung der Luft bedeutsame Rollen. Wissenschaftler gehen davon aus, dass die künstliche Natur die Wahrnehmung derart modifiziert, dass die reale Naturerfahrung zunehmend in Vergessenheit gerät.

Der moderne Mensch hält sich vermehrt in der virtuellen Realität hinter einem Bildschirm auf als in der echten Tier- und Pflanzenwelt. Das verstärkt die gefühlsmäßige Distanz zur Umwelt. Ein Beispiel ist der begradigte Flusslauf. Bei einer Flussbegradigung wird der ursprüngliche Lauf des Fließgewässers begrenzt und in geordnete Bahnen gelenkt. Das hat Auswirkungen auf die Flora und Fauna des Flusses. Die gesteigerte Unempfindlichkeit gegenüber der realen Ökosysteme aufgrund der Bevorzugung von künstlicher Naturreiche erhöht den Raubbau.

Die Menschheit verliert demnach ihre Empathie gegenüber Tieren und Natur, weil die originale Unberührtheit der Welt zunehmend in Vergessenheit gerät. Auf die Art empören sich immer weniger Personen über den voranschreitenden Raubbau in der Umwelt. Das zieht unweigerlich ein rasches Fortschreiten dieser Entwicklung nach sich, sodass letztlich die Generationsamnesie oder Umweltamnesie zum Tragen kommt. Der Mensch vergisst von einer Generation zur nachfolgenden immer mehr von der originalen Umwelt. Dadurch befeuert er den technologischen Fortschritt, der nichts weiter als ein künstliches Abbild der echten Natur darstellt.

Zusammenfassung – ökologische Amnesie durch Fortschritt

Greift der Mensch verändernd auf die Ökosysteme ein, erfolgt eine Anthroposierung selbiger. Das Vorgehen reduziert die biologische Vielfalt des Planeten und die originale Flora und Fauna verliert zunehmend ihre Ursprünglichkeit. Zugleich verstärkt sich der technologische Fortschritt zusammen mit künstlichen Naturerfahrungen. Dadurch stumpft die neue Generation ab. Sie büßt ihre Feinfühligkeit gegenüber dem Verlust der Natürlichkeit in der Umwelt ein.

Mit jedem weiteren Geburtsjahrgang wird auf diesen Zustand des Raubbaus aufgebaut. Die neue Generation vergisst zunehmend mehr von der ursprünglichen Natur. Denn der Fortschritt orientiert sich vor allem an der gegenwärtigen, anthropisierten Landschaft. Das führt schlussendlich zur ökologischen Amnesie oder generationsbedingten Umweltamnesie.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung


Autark bedeutet in seiner griechischen Übersetzung so viel wie „unabhängig“ und „auf niemanden angewiesen“ sein. In Verbindung mit einem Kochfeld steht der Begriff für dessen selbstständigen Betrieb. Davon abzugrenzen sind die klassischen Herdplatten, die nur in Verbindung mit einem darunter befindlichen Herd funktionieren und sich über diesen bedienen lassen.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung

Ein autarkes Kochfeld kann vollkommen unabhängig vom Herd im Raum platziert werden. Gängig ist beispielsweise die Integration in eine Kochinsel. In diesen Kochfeldern ist hinreichend Technik verbaut, denn die Steuerung der Herdplatten muss über das Kochfeld selbst erfolgen.

Der flexible Einbau in der Küche macht autarke Kochfelder zu einem stark nachgefragten Produkt. Der hohen Flexibilität autarker Kochstellen steht die separate Anschaffung eines Backofens gegenüber.

Autarke Kochfelder gelten nicht als Erfindung der Neuzeit. Bereits bei alten Gusseisenöfen waren mobile Versionen für kleine Küchen erhältlich.

Aufbau: autarkes Kochfeld

Autarke Kochfelder stellen eine Alternative zum klassischen Herd dar. Herde besitzen ein Kochfeld und einen entsprechenden Unterbau. Der Unterbau integriert die Bauteile, welche für die Steuerung des Kochfeldes notwendig sind. Meist finden sich zudem Kombinationen zwischen Herd und Backofen im Handel.

Ein autarkes Kochfeld kommt ohne Unterbau aus. Der Aufbau bringt Vor- und Nachteile mit sich. Während der herkömmliche Herd als platzsparende Version überzeugt, bietet eine autarke Kochstelle mehr Flexibilität und eignet sich bevorzugt für die Gestaltung weitläufiger und offener Küchen, die in ihrem Zentrum eine Kochinsel besitzen.

Arten: autarkes Kochfeld

Unterschiede ergeben sich in der Steuerung der autarken Kochfelder. Die Bedienung kann über einzelne Drehknöpfe erfolgen. Im Handel sind auch Kochfelder, die über ein praktisches Touch-Bedienfeld verfügen.

Auch die Heiztechnologie stellt ein Unterscheidungsmerkmal dar. Häufig handelt es sich um autarke Ceran-Kochfelder. Daneben können auch Gas- oder Induktionskochfelder angeschafft und frei in der Küche installiert werden.

Einsatzmöglichkeiten: Autarkes Kochfeld

Die Einsatzmöglichkeiten von autarken Kochfeldern unterscheiden sich in der Regel nicht von dem Gebrauch der klassischen Kochplatten. Der größte Unterschied bleiben die eigenen Bedienelemente und der fehlende Backofen.

Autarke Kochfelder finden in kleinen Küchen Platz, wenn es keine Möglichkeiten gibt, einen Einbauherd unterzubringen. Beliebt sind mobile Kochfelder für den Einbau in weitläufigen Kücheninseln, die in großen und modernen Küchen ihren Platz finden.

Da autarke Kochfelder nicht an die Standard-Maße von Einbauherden gebunden sind, ist auch ein entsprechende höherer oder niedriger Einbau in Küchenfronten möglich.

Vor- und Nachteile: Autarkes Kochfeld

Durch die freie Installation verschaffen autarke Kochfelder ein Höchstmaß an Flexibilität. Die mobilen Kochfelder bringen ihre eigene Stromversorgung mit und sind nicht an einen Herd mit Unterbau gebunden. Bei Defekten muss nicht der komplette Herd ersetzt werden. Autarke Kochfelder lassen sich ohne großen Aufwand austauschen und entsprechend ersetzen.

Preislich liegen autarke Kochfelder häufig über den Kosten für einen herkömmlichen Herd. Für die getrennte Aufstellung von Herd und Kochfeld machen sich oft mehrere Stromanschlüsse notwendig.

Anschluss

Für den Anschluss von autarken Kochfeldern sollte ein Fachmann bestellt werden. Zunächst sind die Sicherungen herauszudrehen. Durch den Einsatz eines Spannungsprüfers kann festgestellt werden, ob sich auf der Streckdose noch Strom befindet.

In der Regel werden autarke Kochfelder an Herdanschlussdosen angeschlossen. Bei der Installation sollte den Hinweisen der Hersteller Folge geleistet werden. Mobile Kochplatten sind mit einer fünfadrigen Anschlussleitung versehen und der Querschnitt der Adern beträgt mindestens 1,5 Quadratmillimeter.

Wichtig beim Anschluss von autarken Kochfeldern sind die Farben der einzelnen Kabel. Zunächst wird die braune L1-Ader an die Herd-Klemme L1 angeschlossen. Die Verbindung für die Herd-Klemme L2 ist schwarz. Die graue L3-Ader ist für die Herd-Klemme L3 bestimmt. Die blaue N-Ader wird mit der Herd-Klemme N gekoppelt und die Herd-Klemme PE ist für die gelbgrüne PE-Ader vorgesehen.

Warum schwimmen Eiswürfel oben? Erklärung


Eiswürfel bestehen aus Wasser, genauer gesagt aus vielen Wassermolekülen. Ein Wassermolekül setzt sich aus zwei Wasserstoffatomen und einem Sauerstoffatom zusammen. Diese sind über eine polare, kovalente Bindung miteinander verbunden.

Der chemische Aufbau von Wasser

Die Elektronegativität beschreibt die relative Stärke eines Atoms, die Bindungselektronen in einer chemischen Bindung an sich zu ziehen. Je höher der Elektronegativitätswert ist, umso stärker zieht ein Atom die Elektronen an sich. Sauerstoff hat einen Elektronegativitätswert nach Pauling von 3,5 und der von Wasserstoff beträgt 2,1. Somit zieht das Sauerstoffatom das Bindungselektronenpaar stärker an sich heran, wodurch Ladungsschwerpunkte, sogenannte Dipole, entstehen. Dadurch sind die Wasserstoffatome partiell positiv geladen und das Sauerstoffatom ist partiell negativ geladen. Überdies beträgt der Bindungswinkel, der zwischen den beiden kovalenten Bindungen besteht, 104,45°, was dazu führt, dass das Molekül einen gewinkelten Aufbau besitzt.

Wasserstoffbrückenbindungen

Durch die bestehenden Ladungsschwerpunkten in den Wassermolekülen kommt es zu Wechselwirkungen zwischen den Molekülen. Gleiche Ladungen stoßen sich ab und unterschiedliche Ladungen ziehen sich an. Es kommt zur Ausbildung von Wasserstoffbrückenbindungen zwischen den Molekülen, wodurch sich Cluster bilden. Diese Cluster sind aber nicht starr, sondern variabel. Da die Wasserstoffbrückenbindungen immer nur kurzzeitig bestehen, können immer wieder Moleküle aus einem Cluster herausfallen und sich an anderer Stelle wieder neu verbinden. Dieser Vorgang findet ununterbrochen statt. Es bilden sich unendliche große Wassermoleküle, da ein Wassermolekül theoretisch mit vier weiteren über Wasserstoffbrücken verbunden sein kann. Die Wasserstoffbrückenbindungen sind der Grund, warum das Wasser seine ganz speziellen Eigenschaften besitzt.

Die Dichteanomalie des Wassers

Im Normalfall nimmt das Volumen beim Wechsel vom festen in den flüssigen Aggregatzustand zu und die Dichte somit ab. Anders verhält sich dies beim Wasser, das bei exakt 3,98° Celsius die höchste Dichte hat. Dieses Phänomen wird als die Dichteanomalie des Wassers bezeichnet. Bei 3,98° Celsius nehmen die Cluster das geringste Volumen ein. Bei höheren Temperaturen sind die Moleküle beweglicher, wodurch sich ihre Dichte verringert, und das Volumen erhöht.

Unter dieser Temperatur nimmt die Bewegungsenergie der Wassermoleküle immer weiter ab. Aus den zuvor variablen Clustern bilden sich mehr und mehr starre hexagonale Cluster. Es kommt final zur Bildung eines starren Kristallgitters. Bei diesem ist jedes Sauerstoffatom tetraedrisch von vier Wasserstoffatomen umgeben. Zwischen den Wassermolekülen haben sich Hohlräume gebildet, welche natürlich mehr Platz benötigen. Somit hat Eis ein höheres Volumen als Wasser. Genau gesagt hat Eis ein zehnmal höheres Volumen als Wasser, aber dafür eine zehnmal geringere Dichte, da die Wassermoleküle durch die entstandenen starren Hohlräume nicht mehr so eng gepackt sind. Aus diesem Grund schwimmen Eiswürfel auf der Oberfläche.

Dadurch, dass Wasser bei 4° Celsius die geringste Dichte hat, wird ein Durchfrieren von Gewässern verhindert. Oberflächenwasser mit einer Temperatur von unter 4° Celsius kann nicht nach unten sinken, was ein Abkühlen tieferer Gewässerschichten verhindert und ein Überleben der Lebewesen im Wasser ermöglicht.

Weitere besondere Eigenschaften des Wassers

Wasser ist zwischen 0° und 100° Celsius flüssig, darüber gasförmig und darunter fest. Durch die bestehenden Wasserstoffbrückenbindungen wird mehr Energie benötigt, um die Aggregatzustände zu wechseln, weswegen der Schmelz- und Siedepunkt von Wasser höher liegt als erwartet. Theoretisch wäre Wasser bei 25° Celsius ein Gas und das Leben auf der Erde wäre in dieser Form wahrscheinlich gar nicht möglich. So ist Wasser aber der einzige Stoff auf der Erde, der in nennenswerten Mengen in allen drei Aggregatzuständen vorliegt.

Wasser hat mit Ausnahme von Quecksilber die größte Oberflächenspannung unten allen Flüssigkeiten. Diese machen sich zum Beispiel einige Insekten wie der Wasserläufer zu nutzen, weswegen dieser über das Wasser laufen kann. Wir Menschen sind dafür zu schwer. Aber dafür nutzen wir bei der Tränenbildung die Oberflächenspannung aus, wodurch Verunreinigungen aus dem Auge befördert werden.

Wasser hat zudem unter allen Flüssigkeiten die größte Verdampfungsenthalpie, was sich in einem kühlenden Effekt beim Schwitzen bemerkbar macht. Als Mpemba-Effekt wird eine weitere spezielle Eigenschaft des Wassers bezeichnet. Unter bestimmten Bedingungen gefriert nämlich heißes Wasser schneller als kaltes.

Obendrein ist die Wärmekapazität die höchste unter allen Flüssigkeiten. Diese spiegelt sich darin wider, dass beispielsweise Ozeane ausgezeichnete Wärmespeicher sind. Zudem ist die Schmelzenthalpie und die Wärmeleitfähigkeit hoch, sofern man nur Flüssigkeiten betrachtet. Überdies ist Wasser ein hervorragendes Lösungsmittel, was an seiner hohen Dielektrizitätskonstante liegt.

Was ist Brackwasser? Bedeutung, Definition, Erklärung


Brackwasser ist Wasser mit einem gewissen Gehalt von gelösten Salzen. Es handelt sich dabei weder um Süß- noch um Meerwasser, sondern es ist eine Vermischung aus beiden Arten von Wasser. Brackwasser enthält somit mehr Salz als Süßwasser, aber nicht so viel Salz wie Meerwasser. Der Salzgehalt des Brackwassers liegt dabei zwischen Süß- und Meerwasser. Das Wort Brackwasser leitet sich ursprünglich von der niederländischen Wurzel „Brak“ ab, was so viel wie „salzig“ bedeutet.

Was ist Brackwasser? Bedeutung, Definition, Erklärung

Allgemein wird der Begriff Brackwasser für Wasser verwendet, das eine nicht unerhebliche Menge an gelösten Salzen enthält. Die Salzkonzentration ist die Menge an Salz im Wasser nach Gewicht, gemessen in „Teilen pro Million“ (ppm). Die vom US Geological Survey verwendete Einteilung der Salzkonzentration stuft Brackwasser in drei Kategorien ein:

  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm
  • Mittelstark salzhaltiges Wasser mit einer Salzkonzentration von etwa 3.000 bis 10.000 ppm
  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm

Das Vorhandensein von Brackwasser kann daher durch die Messung der Salzkonzentration eines salzhaltigen Wassers festgestellt werden. Technisch gesehen enthält Brackwasser somit zwischen 0,5 und 30 Gramm Salz pro Liter, häufiger ausgedrückt als 0,5 bis 30 Teile pro Tausend (Einheitenzeichen: ‰), was einem spezifischen Gewicht zwischen 1,005 und 1,010 entspricht. Der Begriff Brackwasser umfasst also eine große Bandbreite an Salzgehalten und wird nicht als genau definierter Zustand angesehen. Charakteristisch für viele brackige Oberflächengewässer ist, dass ihr Salzgehalt räumlich und zeitlich stark schwanken kann.

Was ist der Salzgehalt?

Die durchschnittliche Salzkonzentration im Meer beträgt etwa 35 ‰. Dies wird genauer durch den Salzgehalt ausgedrückt. Der Salzgehalt ‰ ist definiert als die Masse der gelösten anorganischen Stoffe in 1 kg Meerwasser in Gramm, nachdem alle Br- und I- durch die entsprechende Menge Cl- ersetzt und alle HCO3- und CO32- in Oxide umgewandelt wurden. Im Allgemeinen liegt der Salzgehalt des Meerwassers zwischen 33 und 37 ‰.

Der Salzgehalt ist ein wichtiger Faktor, der viele Aspekte der Chemie natürlicher Gewässer und der biologischen Prozesse in diesen Gewässern bestimmt. Neben Temperatur und Druck bestimmt der Salzgehalt physikalische Eigenschaften wie die Dichte und Wärmekapazität des Wassers.

Brackwasser und Salzgehalt

Brackwasser ist ein weit gefasster Begriff für Wasser, das salzhaltiger als Süßwasser, aber weniger salzhaltig als echte Meeresgebiete ist. Oft handelt es sich um Übergangsgebiete zwischen Süß- und Meerwasser. Ein Ästuar, d. h. der Teil eines Flusses, der ins Meer mündet, ist das bekannteste Beispiel für Brackwasser. Ästuare sind äußerst variable Umgebungen, da sich der Salzgehalt über eine kurze Strecke drastisch ändern kann. Dramatische Veränderungen können auch an einem bestimmten Punkt des Ästuars in Abhängigkeit von der Tages- oder Jahreszeit auftreten. Bei Hochwasser beispielsweise steigt der Salzgehalt an einer bestimmten Stelle des Ästuars, da Meerwasser in das Gebiet eindringt. Im Gegensatz dazu sinkt der Salzgehalt an einer bestimmten Stelle des Ästuars, wenn das Süßwasser aufgrund von Regenfällen oder Schneeschmelze saisonal zunimmt. Die Schwankungen des Salzgehalts können zwischen 10 und 32 ‰ liegen, wobei der durchschnittliche Salzgehalt des Süßwassers 0,5 ‰ beträgt.

Der saisonale Anstieg des Süßwassers aufgrund von Regenfällen oder Schneeschmelze senkt den Salzgehalt an einem bestimmten Punkt des Ästuars. Um hier überleben zu können, müssen die ansässigen Mikroben an diese starken Schwankungen des Salzgehalts angepasst sein. Trotz dieser Herausforderung sind Ästuare ein sehr produktives Milieu. Im Allgemeinen ist die Primärproduktion der Ästuare gering, da das Sonnenlicht aufgrund der hohen Trübung, die durch organische Schwebstoffe aus dem Flusszufluss und der Gezeitenvermischung entsteht, schlecht eindringt.

Brackwasser und Mensch

Wie Meerwasser kann Brackwasser vom Menschen nicht getrunken werden, es sei denn, es wird einem Entsalzungsprozess unterzogen. Wenn Brackwasser in landwirtschaftliche Flächen eindringt, spricht man von Versalzung. Brackwasser tötet die meisten Kulturpflanzen. Brackwasser ist für Süßwasser- und Meereslebewesen nicht optimal, so dass die Lebensmöglichkeiten in Brackwasser begrenzt sind.

Wie entsteht Brackwasser?

Brackwasser entsteht in der Regel dann, wenn Süßwasser auf Meerwasser trifft. Brackwasser tritt somit an den Orten auf, an denen sich Meer- und Süßwasser vermischen können. Dies ist vor allem in Gezeitenzonen, Flussmündungen und Mangrovensümpfen der Fall. Brackwasser kann auch in fossilen Brackwasser-Grundwasserleitern vorkommen.

Auch menschliche Aktivitäten können dazu führen, dass frische Oberflächengewässer und Grundwasserressourcen durch Verbrauch und erhöhte Salzbelastung brackig werden. So kann z. B. das übermäßige Abpumpen von Grundwasser aus küstennahen Aquiferen ein Eindringen von Salzwasser verursachen, das die Brackwasserzone der Durchmischung landeinwärts ausdehnt, während salzhaltige Rückflüsse aus bewässerten landwirtschaftlichen Flächen die Salzbelastung von Oberflächengewässern erhöhen können. Einige landwirtschaftliche Bewässerungsmethoden, wie z. B. die unterirdische Entwässerung mit Ziegeln, führen häufig zu stark brackigem Wasser. Auch der Bergbau kann zu brackigen und mit Schwermetallen belasteten Abwässern führen.

Wo findet sich Brackwasser?

Auf natürliche Weise kann Brackwasser in unterirdischen salzhaltigen Grundwasserleitern, als Oberflächenwasser infolge natürlicher Erosion oder als Ergebnis der Vermischung von Meerwasser mit Flusswasser (in Flussmündungen) oder Grundwasser (in Küstengrundwasserleitern) auftreten. Natürliches Brackwasser, insbesondere Brackwasser-Grundwasser, kommt auf den meisten Kontinenten in Mengen vor, die fast so groß oder größer sind als Süßwasser-Grundwasser und Oberflächenwasser zusammen.

Die weltweit am weitesten verbreiteten Brackwasserlebensräume sind Ästuare, also das Gebiet, in dem ein Fluss auf das Meer trifft. Daneben kommt Brackwasser in Brunnen, Binnenseen, Bohrlöchern und sogar in Meeren vor. Die Ostsee ist beispielsweise ein Brackwassermeer.

Brackwasser und Ästuare

Um in dieser Umgebung überleben zu können, müssen die Mikroben und Pflanzen in einem Ästuar an die Schwankungen des Salzgehalts angepasst sein. Trotzdem sind Ästuare sehr produktive Lebensräume.

Besondere Beispiele für hochproduktive Brackwasserumgebungen sind Mangrovensümpfe, wie sie in den Everglades von Florida zu finden sind. Der Salzgehalt in diesen Sümpfen ist in der Regel sehr ähnlich dem von Meerwasser. Mangrovensümpfe sind nach den charakteristischen Bäumen benannt, die in den gesättigten Böden des Sumpfes wachsen. Diese Bäume haben speziell angepasste Wurzeln, die aus dem Wasser herauswachsen, um den Gasaustausch über dem Wasser zu ermöglichen, so dass die Bäume weiterhin Sauerstoff erhalten und „atmen“ können.

Eine zweite wichtige Anpassung ist, dass Mangrovenbäume den Salztransport in die Wurzeln verhindern, um Salzstress zu vermeiden. Mangrovensümpfe sind eine wichtige Übergangsgemeinschaft, da sie dazu beitragen, Schadstoffe und Nährstoffe aus dem Wasser zu filtern, Sedimente zu stabilisieren und die Küstenlinie vor Erosion zu schützen. Außerdem bieten sie einen aktiven Lebensraum für mehr als 250 Tier- und 180 Vogelarten.

Brackwasser und Ästuare als Lebensraum

Im Allgemeinen reicht die Primärproduktion der Ästuare (10 bis 45 mg Kohlenstoff/m3/Tag) nicht immer aus, um die Sekundärpopulationen zu unterstützen. Ästuare neigen dazu, trübe zu sein, weil die Flüsse große Mengen an organischem Material einbringen und die Gezeiten für eine Durchmischung sorgen. Infolgedessen ist die Lichtdurchlässigkeit gering. Die Anzahl der Primärproduzenten schwankt zwischen 100 und 107 Organismen/ml, und diese Populationen variieren auch erheblich in Abhängigkeit von der Tiefe und der Nähe zu den bestehenden Litoralzonen. Trotz der geringen Primärproduktivität ist die heterotrophe Aktivität mit 150 bis 230 mg Kohlenstoff/m3/Tag hoch, da die Verfügbarkeit von Substrat nicht eingeschränkt ist.

Lokale Abflüsse und organischer Kohlenstoff werden von den Flüssen, die in die Ästuare fließen, reichlich eingebracht. Die Nährstoffzufuhr kann sogar so groß sein, dass Ästuare in vielen Fällen ganze Jahreszeiten lang frei von Sauerstoff werden können. Infolge der ständigen und reichlichen Kohlenstoffzufuhr fällt die Zahl der Sekundärproduzenten in einen viel engeren Bereich von 106 bis 108 Organismen/ml. Das gemessene Verhältnis von Viren zu Bakterien reicht von 0,4 bis 50.

Was lebt im oder am Brackwasser?

Zu den Tier- und Pflanzenarten, die in Brackwasser überleben können, gehören Dreistachliger Stichling, Flunder, Gebogene Schwebegarnele, Europäischer Queller und Strand-Aster. Da der Salzgehalt für ein vielfältiges und natürliches Nahrungsangebot sorgt, finden im Brackwasser insbesondere Raubfische wie Barsch, Dorsch und Hecht günstige Lebensbedingungen.

Erschließung von Brackwasservorkommen

Das Ausmaß der Erschließung von Brackwasser hängt von der Suche nach geeigneten Verwendungszwecken ab, wobei zu berücksichtigen ist, dass Brackwasser nicht immer dort vorhanden ist, wo es nutzbringend verwendet werden kann. Die häufigste Verwendung von Brackwasser findet sich im landwirtschaftlichen Bereich. Dies gilt sowohl für die Fisch- und Garnelenzucht als auch für die Bewässerung von Pflanzen, die eine hohe Salztoleranz aufweisen. Baumwolle und Gerste zum Beispiel werden durch den für Brackwasser typischen Salzgehalt nicht beeinträchtigt.

Behandlung von Brackwasser zur Trinkwasseraufbereitung

Brackwasser kann mit einem Wasserreinigungssystem zu Trinkwasser aufbereitet werden. In dem als Umkehrosmose bezeichneten Verfahren wird das Brackwasser durch eine Membran gepresst, die die im Brauchwasser gelösten Salze zurückhält. Die Entsalzung von Brackwasser erfolgt dabei bei niedrigerem Druck als die Meerwasserentsalzung und ist wirtschaftlicher, energiesparender und kostengünstiger.

Die Qualität des Speisewassers spielt sowohl bei der Auslegung als auch beim Betrieb von Brackwasserentsalzungsanlagen eine wichtige Rolle. Die Ionenzusammensetzung und der Ionengehalt von Brackwasser variieren sowohl zeitlich als auch geografisch stark, abhängig von den hydrogeologischen Bedingungen und den damit verbundenen menschlichen Aktivitäten (z. B. Industrie oder Landwirtschaft). Im kalifornischen San Joaquin Valley zum Beispiel, einer der produktivsten landwirtschaftlichen Regionen der USA, entsteht durch die Entwässerung bewässerter landwirtschaftlicher Flächen Brackwasser mit unterschiedlichem Salzgehalt.

Brackwasser im US-Sedimentbecken

In den USA wurde in einer umfangreichen Studie untersucht, ab welcher Tiefe das Grundwasser in Brackwasser und schließlich in salziges Tiefenwasser übergeht. Im Schnitt trifft man in den US-Sedimentbecken schon ab 550 Metern Tiefe auf Brackwasser.

Was bedeutet DYOR? Bedeutung, Definition, Erklärung


DYOR steht für „Do Your Own Research“. Jedermann sollte nicht blindlings glauben, was irgendwo publiziert wird, sondern sich selbst über die Hintergründe zu einem Thema informieren.

Der Begriff wird in der Kryptoszene besonders häufig verwendet, einige Publizisten nutzen ihn sogar als Haftungsausschluss. Er ist aber in der Online-Ära mit ihren überbordenden Informationen, von denen 99 % halbgar oder falsch sind, für jedes Thema wichtig.

DYOR bei Geldanlagen / Kryptowährungen

Dass über Geldanlagen viele Informationen verbreitet werden, ist seit jeher gängige Praxis. Es gibt hierzu sogar einige Reglements. Wenn ein Publizist etwas über ein Asset schreibt, das er selbst als Anleger im Portfolio hält, ist er gesetzlich dazu verpflichtet, dies anzugeben. Doch beileibe nicht alle Publizisten sind selbst Anleger. Dennoch können sie ein Interesse daran haben, ein Asset zu zu „pushen“, also mit subtil positiven Informationen die Anleger zum Kauf zu animieren. Häufig kommen solche Publikationen von freien Autoren, die sie im Auftrag von Affiliates (Werbepartnern) von Investmentfonds verfassen.

Der Autor hält das Asset selbst nicht, auch der Affiliate nicht. Beide sind aber an einer positiven Darstellung interessiert: der Autor, weil er dafür bezahlt wird, der Affiliate, weil er weiß, dass das Fondsmanagement dies wünscht. Diesen verschlungenen Weg der Interessenverknüpfung erkennt der Leser nicht. Das ist ein Fall, der zu verzerrten oder gar falschen Informationen führen kann, wobei der Leser auf keinerlei Weise informiert wird, dass hier ein Interessenkonflikt bestehen könnte. Ein anderer Fall ist die Begeisterung von Autoren, die über ein Asset schreiben, das sie wiederum selbst nicht halten (und daher auch zu keinerlei „Warnhinweis“ verpflichtet sind), von dem sie aber selbst höchst begeistert sind. Sie schreiben also dessen Möglichkeiten hoch, liegen damit aber häufig stark daneben.

Grundsätzlich sollten interessierte Anleger wissen, dass kein Mensch wissen kann, wie sich der Kurs eines Assets entwickelt. Sie sollten also allen allzu eindeutigen, apodiktisch und ohne jeden Konjunktiv vorgetragenen Aussagen zum Thema misstrauen. Wie ist das gemeint? Nun, wenn jemand behauptet, der Goldpreis müsse noch in diesem Jahr diese und jene Preismarke knacken, dann ist diese Aussage praktisch gar nichts wert. Selbst wenn der Goldpreis zufällig dieses Jahr diese Preismarke wirklich knackt, war die Aussage nichts wert. Seriöse Publizisten schreiben so etwas auch nicht, sondern bestenfalls, dass der Goldpreis, wenn er demnächst diese und jene Schwelle überwindet, möglicherweise auch die nächste Marke von XY knacken könnte. Wann? Das weiß niemand, denn gerade zeitliche Aussagen sind an der Börse überhaupt nicht möglich. Die Zeit ist an der Börse gedehnt oder gestaucht (vgl. Benoît B. Mandelbrot „Fraktale und Finanzen“).

Halbwegs seriöse Aussagen werden stets im Konjunktiv vorgetragen und taugen auch dann übrigens nicht viel, denn börsliche Entwicklungen sind in Wahrheit gar nicht zu prognostizieren, vgl. nochmals Benoît B. Mandelbrot. Der Jahrhundertmathematiker hat es 30 Jahre lang mit fraktaler Geometrie versucht und dann aufgegeben. So viel zu apodiktischen Aussagen. Es gibt aber noch schlimmere Publikationen.

DYOR als Sicherheit gegen Betrugsversuche

Einige Publikationen laufen auf handfesten Betrug hinaus. In der noch jungen Kryptoszene beispielsweise werden manche Assets als „der kommende Bitcoin“ (mit unglaublichem Kurspotenzial) angepriesen. Sie sollen zudem schneller und einfacher zu handhaben sein als der Bitcoin. Diese Praxis der Publikationen heißt Shilling von shill = Lockvogel. Die betreffenden Beiträge kommen oft ohne die oben beschriebene Kennzeichnung von Personen, die selbst die beworbene Kryptowährung halten. Rein juristisch sind sie sogar nicht einmal zur strikten Kennzeichnung ihres Interessenkonflikts verpflichtet, weil Kryptowährungen nicht offiziell börslich gehandelt werden.

Die Publizisten hoffen, dass sie mit ihren Aussagen andere Anleger zum Kauf der Kryptos motivieren können, was deren Preis in die Höhe treiben würde. Daher gilt DYOR ganz besonders bei Anlagen in Kryptowährungen. Wer diese kaufen will, muss unbedingt eigene Recherchen durchführen. Shilling ist auf-Social-Media-Portalen wie Facebook, Reddit und Twitter sehr verbreitet.

Angepriesen werden vor allem bislang unbekannte Kryptowährungen (von denen es mit Stand 2022 rund 10.000 geben könnte). Sie sollen den Käufern traumhafte Renditen und somit schnellen Reichtum einbringen. Wer solchen Empfehlungen folgt, verliert nach einschlägigen Erfahrungen in 99 % aller Fälle sein Geld. Bekannt sind auch Sybil-Konten in sozialen Medien, die in betrügerischer Absicht eine Kryptowährung pushen. Dabei erstellt eine Person mehrere Konten unter verschiedenen Namen, wobei ein positiver Beitrag zur betreffenden Kryptowährung auf einem dieser Accounts gepostet und von den anderen Accounts geteilt wird. Dies erweckt den Anschein, als ginge die Nachricht viral und müsse wichtig sein.

Haftungsausschluss via DYOR

Dass DYOR als Haftungsausschluss verwendet wird, ist zwar juristisch kaum belastbar, geht aber völlig in Ordnung. Sollten Händler oder Enthusiasten öffentliche Beiträge zu Kryptowährungen verfassen und am Ende mit DYOR auf die Notwendigkeit eigener Recherchen hinweisen, handeln sie prinzipiell seriös. Es genügt auch der obligatorische Hinweis, dass die publizierte Marktanalyse eine subjektive Einschätzung des Autors ist.

Wo sind seriöse Recherchen zu Kryptowährungen möglich?

Es gibt einige vertrauenswürdige Quellen, die neutral zu Kryptowährungen publizieren. Dazu gehören unter anderem:

Dies sind natürlich nicht die einzigen Quellen. Wichtig ist für Interessenten, dass sie auf den Duktus einer Publikation achten: Dieser muss grundsätzlich neutral bleiben und darf in keinem Fall Gewinnversprechen beinhalten, schon gar keine überzogenen. Häufig heißt es in entsprechenden manipulativen Advertorials, dass die neue Kryptowährung ein Gewinnpotenzial von mehreren 1.000 % in den nächsten Wochen und Monaten aufweise. Dazu ist so viel zu sagen:

  • Es gab tatsächlich Kryptowährungen, die in relativ kurzer Zeit (aber nicht in wenigen Wochen) um mehrere 1.000 % zulegten. Der Bitcoin selbst ist das beste Beispiel dafür.
  • Dieses Kurswachstum konnte aber nicht prognostiziert werden.
  • Die Zahl der Kryptowährungen ist seit etwa 2018 explodiert. Sie kann mit Stand 2022 nur noch geschätzt werden, so etwa sehr grob auf ~10.000. Von diesen Kryptos haben nur sehr wenige nennenswerte Kurssprünge vollzogen. Zudem folgten nach Kurssprüngen praktisch immer auch drastische Kursrückgänge – auch beim Bitcoin.

Das bedeutet: Jedes Advertorial, das irgendwelche Gewinnversprechen enthält, ist inhaltlich wertlos. So unbequem es sein mag: Anleger müssen ihre Informationen aus verschiedenen Quellen zusammentragen und sich dann eine eigene Meinung bilden. Das war auch schon immer so. „Do Your Own Research“ ist daher im Grunde nichts Neues.

Was ist die Spätmoderne? Bedeutung, Definition, Erklärung


Das Konzept der „Spätmoderne“ wurde als Reaktion auf die Postmoderne vor allem durch die Arbeiten von Anthony Giddens und Ulrich Beck populär. Sie setzten Ideen ein, die die gegenwärtige Epoche mit Begriffen wie „späte“, „reflexive“, „entwickelte“, „zweite“, „reflexive“, „hohe“ („höhere“) oder „globale“ Moderne, „Risikogesellschaft“ und „reflexive Moderne“ charakterisierten. Sie versuchen, viele der Fragen zu den Besonderheiten der Gegenwart zu beantworten, mit denen auch die Postmoderne konfrontiert ist, wie z. B. die zunehmende Unsicherheit und Kontingenz, die Schwächung der binären Oppositionen, die Fragmentierung des sozialen Lebens, und nehmen sogar eine Reihe postmoderner Argumente auf und integrieren sie in ihre theoretischen Modelle. Sie zeichnen sich dadurch aus, dass sie die These, die Welt befinde sich in einer postmodernen Situation, zurückweisen und bekräftigen, dass es sich um eine bestimmte Periode der Moderne handelt, die mit der Globalisierung, der Rekonstruktion der Tradition und dem Phänomen der Individuation verbunden ist. Dieser Zeitraum wird durch die Entwicklung der elektronischen Medien und der Kommunikationstechnologien ermöglicht, die wiederum die Mobilität des Kapitals, die Globalisierung und die sich daraus ergebenden Veränderungen in der Politik, den grundlegenden Institutionen, dem menschlichen Verhalten und anderen Lebensbereichen unterstützen.

Was ist die Spätmoderne? Bedeutung, Definition, Erklärung

Die Analyse der Spätmoderne kann sich auf verschiedene Merkmale beziehen. Zu beachten ist die charakteristische Zeittransformation. Die Art und Weise, wie die Zeit in der traditionellen Gesellschaft fließt und wahrgenommen wird, unterscheidet sich von der der frühen Moderne, vor allem seit dem siebzehnten Jahrhundert. Ihre soziale Funktionsweise ist derzeit einem radikalen Wandel unterworfen, der mit den Besonderheiten der marktwirtschaftlichen Situation infolge der dritten industriellen Revolution und der Globalisierung zusammenhängt.

Transformationen der Gegenwart und der Zukunft

Die Gegenwart verändert sich, und sie beginnt sich schneller zu verändern als je zuvor in der Geschichte. Ereignisse und Informationen entstehen und veralten immer schneller, und was neu ist, wird schnell durch etwas Neues ersetzt, das mehr Wert und Bedeutung beansprucht. Es gibt mehrere Voraussetzungen, die zu einer radikalen Beschleunigung der Zeit und zur raschen Veralterung alles Neuen auf Kosten dessen, was danach kommt, führen.

Erstens wird die zentrale Logik der Funktionsweise des Kapitalismus zur Innovation und zur Geschwindigkeit, mit der man etwas Neues und Anderes anbieten und verkaufen kann. Der frühere Vorteil der Wirtschaftsakteure bestand in der Produktion von mehr gleichen Gütern, d. h. in der Größenordnung der Produktion, während der heutige Vorteil in der Geschwindigkeit und der Innovation liegt. Wer sich beeilt, gewinnt, wer sich bremst, verliert. So entsteht der Kult des schnellen Umsatzes, des beschleunigten Wandels von allem. Der Gewinner ist derjenige, der etwas Neues und Anderes anbieten kann, das einen Vorteil gegenüber dem bereits Bekannten und Vertrauten hat.

Wenn man die Anwendung eines berühmten Satzes von Peter Drucker über die Wettbewerbsbeziehungen zwischen Unternehmen ausdehnt, kann man sagen, dass früher „die Großen die Kleinen gefressen haben, jetzt fressen die Schnellen die Langsamen“. Überall wird Geschwindigkeit zum Schlüssel, und die bisherigen Grenzen zwischen Alter, Arbeit und Freizeit, Arbeit und Freizeit verschwimmen. Die Geschwindigkeit, mit der etwas erledigt wird, wird zu einem entscheidenden Wettbewerbsvorteil. In einem immer härteren globalisierten Wettbewerb gewinnt derjenige, der den anderen übertrifft, der etwas vor ihm tut, was er nicht tut. Das Neue an sich wird geschätzt, und die Logik des globalen Marktes legt die Neophilie als eine alltägliche und gemeinsame Leidenschaft nahe.

Zweitens verändern die globalisierten Finanzmärkte, auf denen mehr als eine Billion Dollar rund um die Uhr bewegt werden und Millionen von Anlegern, Kleinanlegern, Aktienbesitzern, Händlern und Maklern ständig das Geschehen beobachten, weil eine kleine Verzögerung zu riesigen Verlusten führen kann, den bisherigen stündlichen Rhythmus des Funktionierens der verschiedenen Prozesse. Auch wenn in einer Region technisch gesehen der Arbeitstag vorbei ist und die Börse schließt, ist sie anderswo in Betrieb und große Geldmengen hängen von ihr ab. Das globalisierte Finanzsystem führt zu einer Situation, in der Schnelligkeit und Timing, die Fähigkeit, schnell zu reagieren, zu antizipieren, dass etwas passieren wird, enorme Gewinne oder Verluste bringen.

Mehr als je zuvor in der Geschichte wird Zeit zu Geld, und Beschleunigung bedeutet mehr Geld – sei es durch die Beschleunigung der Fortbewegung von Verkehrsmitteln, Innovationen, die Verarbeitung von Informationen, die Geschwindigkeit von Computern usw. Die Zeit ist nicht mehr lang und langwierig, sie schrumpft immer mehr, was zu einem ständigen Gefühl führt, man könnte etwas verpassen, nicht schaffen, zurückbleiben. Millionen von Menschen stehen unter dem Druck, in einem beschleunigten Tempo zurückzufallen.

Drittens intensiviert die Globalisierung die Verflechtung zwischen den verschiedenen Teilen des Planeten und führt zu einem „Verschwinden der Distanz“, einer „Verdichtung des Raums“, einem „Ende der Geographie“ und einer „Deterritorialisierung“. Es wird möglich, ein lokales Ereignis schnell in ein globales Ereignis und seine Auswirkungen auf alle anderen zu verwandeln. So werden die kausalen Abhängigkeiten lokaler Ereignisse, die früher in Echtzeit ebenfalls mehr oder weniger lokal und in ihrer Stärke und Geschwindigkeit begrenzt waren, nun global, und im Prinzip kann eine große Anzahl lokaler Ereignisse in jedem Moment die Richtung unseres Lebens ändern. Dadurch entsteht das Gefühl einer gigantischen Beschleunigung aller Prozesse und einer sehr schnellen Bewegung der Zeit.

Viertens „schrumpft“ die Zeit durch die globalen Medien, die es ermöglichen, über alles in „Echtzeit“ informiert zu sein und alle Informationen und Ereignisse rasch zu veralten. Wenn der traditionelle Mensch im Zeitalter der mündlichen Kommunikation informationell in den Ereignissen seiner Mikrogruppe verschlossen ist, und das sind relativ wenige, was eine Wahrnehmung des langsamen und stetigen Vergehens der Zeit schafft, dann kann heute in seinem Leben informationell täglich eine riesige Lawine von Informationen über alles, was auf dem Planeten geschieht, niedergehen.

Im zwanzigsten Jahrhundert erzwingt die Tageszeitung einen 24-Stunden-Rhythmus für diese Informationen. Man kann sich über neue Dinge aus der Morgenzeitung informieren. In den letzten Jahrzehnten des zwanzigsten Jahrhunderts wurde diese Funktion in vielerlei Hinsicht von der zentralen Nachrichtensendung des nationalen Fernsehens oder der verschiedenen Fernsehsender übernommen, die in der Regel abends um 7, 8 oder 9 Uhr ausgestrahlt wird.

Die neuen digitalen Medien, die mit dem Aufkommen des Satellitenfernsehens, des Internets und des Mobilfunks entstanden sind, führen dazu, dass der frühere Abstand zwischen dem Zeitpunkt, an dem ein Ereignis eintritt, und dem nächsten Zeitpunkt, an dem die Menschen darüber informiert werden, immer geringer wird. Alles, was fast in Echtzeit geschieht, gelangt in den öffentlichen Raum. Außerdem wird erwartet, dass die Ereignisse, sobald sie eingetreten sind, interpretiert werden, dass darauf reagiert wird, dass sie einen Sinn ergeben und dass darüber entschieden wird. Dadurch ändern sich die Erwartungen an die Politiker grundlegend. Von ihnen wird verlangt, dass sie sofort reagieren und alles bewerten.

Jegliches Abwarten, Sammeln von Informationen, Nachdenken, Verzögern ist in der Regel zu ihrem Nachteil, weil jemand anderes ihnen zuvorgekommen ist und ihnen seine Interpretation der Ereignisse aufgezwungen hat. In ähnlicher Weise wird die traditionelle akademische Sozialwissenschaft, die sich mit anhaltenden, langfristigen Trends, „Mustern“ und „tiefgreifenden Veränderungen“ befasst, allmählich von neu entstehenden Denkfabriken an den Rand gedrängt, die darauf ausgerichtet sind, das Geschehen in der realen Welt zu interpretieren und zu analysieren und entsprechende politische Maßnahmen vorzuschlagen.

Eine neue Generation von Analysten für Politik, Wirtschaft und öffentliche Meinung blüht auf, die Interpretationen und Einstellungen zu den Geschehnissen unmittelbar nach deren Eintreten festlegen und so zu Machthabern eines einschlägigen Diskurses werden, der die Wahrnehmung der Bürger und Politiker, ihre Handlungen und ihr Verhalten bestimmt.

Warum ist der Name Glühwürmchen streng genommen falsch? Erklärung


Wenn man von Glühwürmchen hört, könnte man schnell denken, dass sie zu einer Wurm-Art gehören. Doch das ist nicht richtig. Sie sind Leuchtkäfer und gehören zu einer bestimmten Käferfamilie. Die Bezeichnung Glühen stimmt in diesem Fall auch nicht ganz. Zu sagen, dass sie leuchten, wäre eine Beschreibung, die besser für sie passen würde.

Was für Käfer sind Glühwürmchen? Erklärung

Glühwürmchen oder wissenschaftlich Lampyridae genannt, gehören zur Familie der Leuchtkäfer. Es gibt auf der gesamten Welt etwa 2000 Arten. Sie gehören zu der Überfamilie mit dem Namen Weichkäferartige oder auch Elateroidea. Nicht alle Käfer dieser Art sind in der Lage, Lichtsignale zur Kommunikation zu benutzen.

Das Leben der Glühwürmchen

Ende Juli, nachdem die Paarungszeit vorbei ist, legen die Weibchen der Leuchtkäfer 100 – 200 Eier. Aus diesen schlüpfen nach ungefähr 4 Wochen die Larven, die eine Größe von 0.25 Zentimeter haben. Das Männchen stirbt bereits kurz nach der Paarung, während das Weibchen noch am Leben bleibt, bis sie die Eier ausgetragen hat und dann stirbt sie kurz nach der Ablage.

Glühwürmchen verbringen die meiste Zeit ihres Lebens als Larve. Sie leben auf dem Boden und ernähren sich von Schnecken. Sie können ihre Opfer anhand der zurückgelassenen Schleimspur finden und durch ein Gift, welches sie den Schnecken injizieren, werden diese gelähmt. Trotz des enormen Größenunterschiedes kann eine ausgewachsene Leuchtkäfer-Larve eine Schnecke innerhalb von 30 Stunden verspeisen.

Die Larven benötigen 3 bis 4 Jahre, bis sie vollständig ausgewachsen sind. In dieser Zeit müssen sie sich mehrfach häuten. Haben sie ihr Endstadium erreicht, verpuppen sie sich in einer kleinen Höhle im Boden und nach ungefähr 2 Wochen schlüpft dann ein Glühwürmchen.

Ihre Zeit als Leuchtkäfer ist nicht sehr lang. Sie fressen in diesem Abschnitt ihres Lebens sehr viel weniger als im Larvenstadium und sind auf der Suche nach einem Partner für die Fortpflanzung.

Worin unterscheiden sich weibliche und männliche Glühwürmchen?

Die Männchen sind zwischen 12 und 16 mm groß und können fliegen. Die Weibchen dagegen werden zwischen 15 und 25 mm groß und bleiben auf dem Boden. Sie sind nicht in der Lage zu fliegen, da ihnen die Flügel fehlen. Größere Exemplare können mehr Eier legen als kleinere. Die weiblichen Leuchtkäfer haben einen stärkeren Leuchtstoff als die männlichen Glühwürmchen, damit sie auf dem Boden für die Paarung gefunden werden können.

Warum und wie leuchten Glühwürmchen? Erklärung

Wenn Lebewesen Licht erzeugen, wird dieser Prozess Biolumineszenz genannt. Sie erzeugen ihr Licht mithilfe ihres Leuchtorganes. Bei Leuchtkäfern reagieren dabei unterschiedliche Naturstoffe, auch Luciferin genannt, mit dem Enzym Luciferase zusammen mit ATP und Sauerstoff. Dabei wird Energie in Form von Licht freigesetzt. Auf der unteren Seite des Hinterleibes ist der Käferpanzer rau und lässt Licht hindurch. Die innere Schicht im Panzer ist weiß und kann das Licht somit reflektieren.

Sie senden diese Lichtsignale zur Kommunikation mit gleichgeschlechtlichen Partnern. Die Glühwürmchen benutzen das Leuchten ausschließlich, um einen Partner zur Paarung zu finden.

Wann und wo kann man Glühwürmchen beobachten?

Im mitteleuropäischen Bereich liegt die Lichtperiode der Glühwürmchen zwischen Juni und Juli. Durch unterschiedliche Witterung kann dieser Zeitraum minimal variieren.

Sie benutzen diese Art der Signale nur in der Nacht zwischen 22 und 24 Uhr, da ihre Leuchtkraft nicht stark genug ist, um im Hellen zu leuchten. Man kann sie in trockenen Nächten an Wiesen, Hecken oder an Gewässern beobachten.

Fakten über Hunde: interessant, kurios, lustig

Fakt 1: Hunde können Haarausfall haben

Vor allem Hunderassen mit längerem Fell neigen zu Haarausfall. Die Hundehaare setzen sich meist auf Teppichen und Möbelstücken ab. Hierfür ist die ständige Bewegung und teilweise auch Verspieltheit vieler Hunde verantwortlich. Wie beim Menschen, fallen natürlicherweise auch beim Hund täglich eine gewisse Anzahl an Haaren aus. Da Hunde wilder sind als Menschen und viel herumtoben, verlieren sie in der Regel mehr Haare. Öfters bleiben sie zum Beispiel zwischen den Textilien am Sofa hängen oder aber in einem Spalt.

Fakt 2: Hunde-Fell riecht beim Waschen

Da der Hundekörper bei Nässe automatisch ein Talgsekret produziert, wird der stechende Hundegeruch erzeugt. Bei diesem Eigengeruch handelt es sich um eine Mischung verschiedenster Hormone und Körperausdünstungen. Für einen Hund dürften wir demnach höchstwahrscheinlich ebenso recht unangenehm riechen.

Fakt 3: Exzellenter Geruchssinn

Der Hund hat einen ausgezeichneten Geruchssinn, welcher unseren bei Weitem schlägt. Mit nur fünf Millionen verfügbaren Riechzellen, hinken wir den insgesamt 200 Millionen Riechzellen eines Hundes ganz schön hinterher. Demnach ist der Hund in der Lage, wie ein genialer Kommissar verschiedene Geruchsmischungen wahrzunehmen, die im Zusammenhang stehen und sich folglich ein Bild der vergangenen Geschehnisse machen.

Fakt 4: Hunde sind gute Wächter

Ein weiteres Faktum ist die Tatsache, dass es sich beim Hund um einen exzellenten Wächter handelt. Hunde müssen lediglich gefüttert, jedoch nicht bezahlt werden. Demnach kann der Hund einen menschlichen Security Dienst beim reinen Bewachen locker in die Tasche stecken. Ebenso ist ein Hund in den meisten Fällen sogar zuverlässiger, als etwa eine Alarmanlage. Hunde spüren nämlich sehr gut, wenn Gefahr droht und fangen rechtzeitig an uns zu warnen, ehe Unbekannte sich unserem Grundstück nähern.

Fakt 5: Wertvoller sozialer Kontakt

Da Hunde vom Wolf abstammen, handelt es sich um Rudeltiere, die eine äußerst strenge Hierarchie innerhalb der Gruppe wahren. Ein Hund ist daher tatsächlich der beste Freund des Menschen, denn bei richtigem Training und der nötigen Fürsorge würde er sein Leben für sein Herrchen geben. Das spüren die meisten Besitzer und da der Hund auch angefasst werden kann, spendet diese tiefe Freundschaft beiden Lebewesen eine Menge Lebenskraft.

Das Streicheln von Hunden soll übrigens sogar den Blutdruck senken, da der Kontakt uns beruhigt. Wenn Hunde und Menschen sich begegnen, schütten beide Lebewesen das Hormon Oxytocin aus. Dieses weckt im Hund und Menschen gleichermaßen ein Gefühl des Wohlbefindens.

Fakt 6: Straßenhunde wissen, wie man Bahn fährt

Da der Hund schon ewig vom Menschen gezüchtet wird, ist er uns mittlerweile recht ähnlich. Selbst sein Verhalten passt der Hund über Generationen immer mehr seinem Menschenfreund an.

Straßenhunde sind zum Beispiel in der Lage, mit der Straßenbahn zu fahren. Wenn etwa am Feierabend alle von der Arbeit kommen und in die Bahn steigen, schleichen sich clevere Straßenhunde rein. Diese Ereignisse sind vor allem in Internetvideos zahlreich dokumentiert worden. Das bedeutet, dass der Hund mittlerweile sehr intelligent geworden ist und sich uns noch mehr anpassen kann, als wir es jemals für möglich halten würden.

Fakt 7: Die feuchte Nase gibt Wärme ab

Warum die Hundeschnauze feucht ist? Über Schweiß und andere Sekrete, geben Hunde Wärme nach außen ab. Ungefähr dasselbe passiert auch an den Fußballen eines Hundes.

Wie die Haut eines Menschen an den Achselhöhlen, hat der Hund an der Schnauze und Füßen spezielle Poren entwickelt. Interessanterweise wachsen dem Hund an diesen Stellen keine Haare, während es sich beim Menschen umgekehrt verhält.

Fakt 8: Einige Hunde können nicht bellen

Der Basenji kann nicht bellen. Diese Hunderasse wurde vermutlich im alten Ägypten gezüchtet und unter anderem als Wachhund gehalten. Da er nicht bellen kann, durfte er auch in der Nähe der oberen Schicht Wache halten. Auf diese Weise wurde niemand unnötig geweckt.

Der Basenji gibt jedoch (zum Beispiel bei Gefahr) einen sehr eigenen Laut von sich, welcher nichts mehr mit dem eigentlichen Bellen zu tun hat. Somit konnte die Oberschicht damals noch immer recht gut feststellen, wo ihr Kleiner gerade ist. Das Bellen des Basenji gleicht nämlich eher einem Jaulen und unterscheidet sich demnach vom gewöhnlichen Bellen der Kläffer in der Umgebung.

Wenn ein Basenji zum Beispiel sehr aufgeregt ist, fängt er an zu heulen wie ein Wolf. Dies trifft jedoch nicht auf jeden einzelnen Basenji zu.

Fakt 9: Hunde können Linkshänder oder Rechtshänder sein

Auch bei Hunden gibt es tatsächlich Hunde, welche die linke oder aber rechte Pfote bevorzugen. Beim Pfötchen geben stützen sich (bei der Entscheidung welche Seite man nimmt) Hunde genauso wie der Mensch auf das, was sie als Jungspund gelernt haben. Manchmal haben sich Hundebesitzer nicht mit dem Hund beschäftigt und er hat eine eigene Vorliebe entwickelt. Dabei hat sich im Laufe der Jahre bewährt, dass Linkspfoter kreativer sind und Recchtspfoter einen guten Assistenzhund abgeben.

Fakt 10: Das Hundegehör ist besser ausgeprägt als das menschliche

Zwar ist bekannt, dass Hunde besser riechen können als die meisten Säugetiere, vom Hören, hören einige nun aber sicher zum ersten Mal. Hunde können nämlich nicht nur bis zu 50.000 Hz wahrnehmen, sondern auch selektiv hören. Wenn zum Beispiel sehr laute Musik spielt, können Hunde dieses Hintergrundgeräusch besser ausblenden, als wir Menschen. Öffnet sich dann selbst bei lauter Musik der Kühlschrank, hören Hunde es in den meisten Fällen trotzdem noch.

Fakt 11: Die Vorstellungskraft von Hunden

Der Hund lernt in seinem Leben recht schnell, wie etwas riecht. Aus diesem Grund kann er (wie wir auch) ungefähr einschätzen, wie etwas aussieht, das er gerade riecht. Somit weiß der Hund sehr wohl, dass es sich bei dem leckeren Geruch nach dem Einkauf beim Metzger in der verschlossenen Tüte um Gulasch und eine Edelsalami handelt. Gepaart mit dem fantastischen Geruchssinn, bereichert die Vorstellungskraft eines Hundes seine Wahrnehmung ungemein.

Fakt 12: Dalmatiner ohne Punkte

Vor allem nach den vielen Dalmatiner Disney Filmen und anderen Fernsehauftritten, hat die Beliebtheit dieser Rasse zugenommen. Doch wer wusste, dass Dalmatinerwelpen gar keine Punkte haben? Erst ungefähr zwei Wochen nach der Geburt werden die Punkte sichtbar und zieren das Fell der kleinen Dalmatiner Hündchen. In einigen Fällen kommt es auch vor, dass sich selbst noch viele Monate nach der Geburt neue Punkte bilden können.

Fakt 13: Farben sehen für Hunde anders aus

Lila sieht für Hunde aus wie Grau und die Farbe Rot wie Gelb. Das liegt vor allem an den verschiedenen Zapfenarten im Auge des Tiers. Ein Vorteil, den Hunde uns gegenüber visuell haben ist, dass ihre spezielle Netzhaut vor allem rotes Licht während der Dämmerung besser einfangen kann. Aus diesem Grund sehen nicht nur Katzen, sondern auch Hunde in der Nacht besser als der Mensch.

Fakt 14: Hunde erkennen Größe am Knurren

Wenn ein Kleinkind laut aufschreit, können die meisten Erwachsenen erkennen, dass es sich um den Schrei eines kleinen Kindes handelt. Ungefähr in diesem Zusammenhang können auch Hunde die Größe (bzw. das Alter) eines anderen Hundes einschätzen, ohne ihn gesehen zu haben. Lediglich am Knurren kann ein Hund einen anderen bereits erkennen und visualisieren, ohne ihn gesehen zu haben.

Fakt 15: Hundehalter haben ein starkes Immunsystem

Da Hundebesitzer regelmäßig mit dem Hund Gassi gehen müssen und das jeden Tag, haben sie im Durchschnitt ein besseres Immunsystem, als Menschen ohne einen Hund. Weiterhin gehen Menschen, die einen Hund besitzen, seltener zum Arzt, als Menschen, die keinen Hund haben. Dies ist vor allem mit der Tatsache zu begründen, dass man zusammen mit dem Hund öfter in der Natur ist.

Fakt 16: Es existieren 246 anerkannte Hunderassen

Im Jahre 2021 hat der FCI offiziell bekannt gegeben, dass es bisher 246 Hunderassen auf dem Planeten Erde gibt. Zu den begehrtesten Hunderassen gehören unter anderem:

  • Chihuahua
  • Mops
  • Dackel
  • Terrier
  • Golden Retriever
  • Spitz
  • Bulldogge

Fakt 17: Es gibt einen Beatles Song, der auch für Hunde geschrieben wurde

Im Song „A Day in the Life“ von den Beatles, wurde am Ende des Lieds eine Hundepfeife benutzt. Das haben die Musiker ganz gezielt inszeniert, da sie sich selbst für Hunde begeistern. Wenn dieses Lied läuft, sollte man auf seinen Vierbeiner achten, denn die Ohren wird er bei dem Geräusch mindestens anheben.

Fakt 18: Einige Hunde haben die Titanic überlebt

Im Jahre 1909 ging die Titanic unter und mit ihr eine Menge Menschen. 700 Passagiere und sogar 3 Hunde konnten es jedoch in die Rettungsboote schaffen und überlebten den schrecklichen Vorfall. Bei den Hunderassen handelte es sich um einen Pekinesen und zwei Spitzwelpen. Die Hunde wurden höchstwahrscheinlich in die Rettungsboote reingeschmuggelt, da sie recht klein sind und leicht in einen Koffer passen.

Fakt 19: Hunde waren schon im Weltall

Der russische Hund namens Laika wurde im Jahre 1957 ins Weltall geschossen und umkreiste die Erde in seiner Kapsel im Alleingang. Bei dem Experiment wurde der Straßenhund in die Sputnik 2 gesteckt und durfte dann als Testobjekt einmal um den Globus reisen.

Fakt 20: Auch Hundezähne sollten geputzt werden

Während Welpen meist um die 28 Zähne haben, knurren erwachsene Tiere mit etwa 42 Zähnen. Wer seinen Hund pflegt, sollte sich eventuell überlegen, ob er ihm nicht auch die Zähne putzen sollte. Zwar kann ein Knochen bereits für gute Dienste sorgen, jedoch kann nur mit unserem Zutun eine ansprechendere Mundhygiene erreicht werden.

Fakt 21: Riechversagen bei Überhitzung

Wenn der Hund an einem sehr warmen Tag nur wenig trinkt, kann er leicht überhitzen. In solch einem Zustand ist er unter anderem nicht mehr richtig fähig zu riechen. Der Körper stellt nämlich alle Funktionen in den Alarmzustand und versucht dadurch lebenserhaltende Maßnahmen einzuleiten. Der Geruchssinn eines überhitzten Hundes schwindet dabei um ganze 60 %.

Was ist ein Brownout? Erklärung, Bedeutung, Definition


Ein Brownout ist ein anhaltender Niederspannungszustand in einem elektrischen Stromnetz. Die Bundesnetzagenturen bezeichnen Brownouts häufig als „Gebietsabschaltungen“. Spannungsabfälle können wiederum zu Stromausfällen und Abschaltungen führen. Das Prinzip von Brownouts besteht darin, dass durch die Verringerung der Spannung in einem Gebiet die Abdeckung dieses Gebiets erhöht werden kann. Dies geschieht, indem einige Teile des Stromnetzes abgeschaltet werden, um andere am Netz zu halten. Stromausfälle dauern in der Regel vier Stunden oder weniger, können aber gelegentlich auch länger andauern.

Brownout bei Angebot und Nachfrage

Ein Brownout ist ein Stromausfall, der auftritt, wenn die Nachfrage nach Strom das Angebot übersteigt. Das kann passieren, wenn das Stromnetz überlastet ist oder wenn es ein Problem mit dem Kraftwerk gibt. Stromausfälle können gezielt sein, d. h. nur bestimmte Gebiete sind betroffen, oder sie können weit verbreitet sein.

Unkontrollierter Spannungsabfall beim Brownout

Ein Brownout ist ein unkontrollierter Spannungsabfall, der mehrere Minuten dauern kann. Brownouts werden durch ein überlastetes Stromnetz oder eine Störung in der Stromversorgung verursacht. Bei Spannungsabfällen kann es in Unternehmen und Haushalten zu Stromausfällen kommen.

Im Falle eines Stromausfalls können Geräte flackern oder weniger Strom verbrauchen. Stromausfälle können bei einem Spannungsabfall in einer elektrischen Stromversorgung auftreten.

Siehe: Unterschied: Blackout – Stromausfall

Wie oft kommen Brownouts vor?

Stromausfälle kommen häufiger vor, als man denkt. Sie treten auf, wenn die vom Kraftwerk gelieferte Spannung abfällt. Dafür kann es verschiedene Gründe geben, z. B. eine instabile Verbindung oder eine zu große Nachfrage seitens der Verbraucher. Stromausfälle dauern in der Regel nicht lange, aber sie können lästig sein und zu Störungen führen.

Wie hoch ist die Gefahr eines Brownouts?

Im kommenden Winter besteht die Gefahr von Stromausfällen, da es zu unkontrollierbaren Lastabschaltungen kommen kann. Das Stromnetz ist nicht in der Lage, die zusätzliche Nachfrage von Gasheizungen und anderen Geräten, die Strom verbrauchen, zu bewältigen. Dies kann zu Stromausfällen führen, d. h. zu Zeiträumen, in denen die Leistung gering ist. Die Bundesnetzagentur arbeitet an der Verbesserung des Stromnetzes, aber es ist immer noch anfällig für Stromausfälle in Zeiten hoher Nachfrage.

Gibt es im Strom eine Abschaltreihenfolge?

Ja, es gibt eine Abschaltreihenfolge im Strom. Die Abschaltreihenfolge ist wie folgt: Stromversorger, Übertragungsnetzbetreiber, Netzbetreiber, Bundesnetzagentur. Diese werden nacheinander abgeschaltet und der ihnen zur Verfügung stehende Stromverbrauch wird reduziert. Diese Abschaltung zielt darauf ab, die Stromzufuhr für das Prinzip zu reduzieren, und es ist unwahrscheinlich, dass andere Verbraucher davon betroffen sind.

Wie wahrscheinlich sind Lastabschaltungen im Strom?

Lastabschaltungen sind im Falle einer Unterbrechung der Stromversorgung eine sehr reale Möglichkeit. Nach Angaben der Bundesnetzagentur „müssen die Netzbetreiber die Wahrscheinlichkeit von Lastabschaltungen so gering wie möglich halten“. Denn Lastabschaltungen können einen Engpass im Stromnetz verursachen, der zu Stromausfällen führen kann.

Im kommenden Winter werden die Lastabschaltungen aufgrund der gestiegenen Stromnachfrage wahrscheinlich zunehmen. Dies liegt daran, dass in den Wintermonaten weniger Stromerzeugungskapazität zur Verfügung steht. Die Kraftwerke gehen in dieser Zeit in der Regel wegen Wartungsarbeiten oder aus anderen Gründen vom Netz. Infolgedessen ist der Strommarkt angespannter und die Preise sind höher.

Trotz der erhöhten Wahrscheinlichkeit von Lastabschaltungen im Winter sind die Netzbetreiber in der Regel in der Lage, diese unter Kontrolle zu halten und großflächige Ausfälle zu verhindern. Das liegt daran, dass sie über Notfallpläne verfügen und den Strom notfalls umleiten können. Darüber hinaus können sie andere Maßnahmen wie Lastabwürfe einsetzen, um die Nachfrage im Netz zu verringern.

Wie oft kommen Stromausfälle in Deutschland vor?

In Deutschland kommt es relativ häufig zu Stromausfällen. Nach Angaben der Bundesnetzagentur gab es allein im Jahr 2018 rund 1.200 Stromausfälle. Das liegt daran, dass die Stromnetze in Deutschland nicht immer auf der Höhe der Zeit sind. Meistens dauern die Ausfälle nur ein oder zwei Minuten, es gab aber auch schon welche, die viel länger dauerten.

Warum ist das Kolosseum kaputt? Erklärung


Das Kolosseum ist eines der wichtigsten und beeindruckendsten Wahrzeichen Roms. Scharen von Touristen aus aller Welt besichtigen täglich die fotogene Ruine, die früher ein Amphitheater war. Schon Jahrhunderte lang ist das Kolosseum eine Ruine. Es lohnt sich, die Geschichte des Bauwerks und seiner Zerstörung näher anzuschauen – und auch die Frage zu klären: „Was ist eigentlich ein Amphitheater?“

Die Geschichte des Kolosseums bis zum Beginn seiner Zerstörung

In Rom existierten schon Vorgängerbauten des Kolosseums, teils aus Holz, teils aus Stein, aber sie hielten alle nicht lang. Das Kolosseum wurde ganz aus Stein errichtet, und zwar in den Jahren 72 – 80 n. Chr. Bauherr war der römische Kaiser Vespasian, der von 9 – 79 n. Chr. lebte und von 69 – 79 Kaiser war. Er erlebte die Einweihung seines Prestige-Projekts „Kolosseum“ nicht. Die Einweihung konnte dann sein Sohn, Kaiser Titus (39 – 81, Kaiser von 79 – 81) feiern. Das Kolosseum wurde damals übrigens „Flavisches Amphitheater“ genannt, da Vespasian und Titus der Dynastie der Flavier angehörten.

Die Arena des Kolosseums ist oval und ca. 156 x 188 m groß. Bis zu 50.000 Zuschauer konnten rund um die Arena Platz nehmen, und zwar auf 4 Geschossen. Die drei unteren Geschosse hatten Arkaden, die oberste Etage war massiv gebaut. Interessant ist die Tatsache, dass die Arena 80 Eingänge hatte! Die 80 Arkaden im Erdgeschss dienten als Eingänge, so konnten die Besucher rasch an ihre Plätze gelangen und nach der Vorstellung das Kolosseum auch schnell wieder verlassen, ohne dass sich lange Warteschlangen bildeten. Im Jahr 80 fand die Einweihung statt, mit Gladiatorenkämpfen, Tierjagden und Seeschlachten. Für die Seeschlachten wurde die Arena geflutet.

Die Zerstörung des Kolosseums

Im Jahr 217 traf ein Blitzschlag das Kolosseum und richtete große Schäden am Bauwerk an. Das bedeutete aber nicht das Ende der Vorstellungen. Das Bauwerk wurde renoviert, und ab 238 fanden wieder Gladiatorenkämpfe und Tierjagden statt. Die Verbreitung des Christentums bedeutete jedoch eine Zäsur für die Amphitheater. Den Anhängern der neuen Religion waren sowohl die Gladiatorenkämpfe als auch die Tierhetzen ein Gräuel – zumal ja auch Christen im Kolosseum getötet worden waren. Um das Jahr 435 fanden die letzten Gladiatorenkämpfe im Kolosseum statt, um 523 die letzten Tierhetzen. Im Jahr 520 beschädigte ein Erdbeben das Kolosseum. Die Römer reparierten das Bauwerk nochmals, aber seine Zeit war vorbei. In der Spätantike diente das Areal zeitweise als Wohngebiet. Im Mittelalter richteten weitere Erdbeben (in den Jahren 847 und 1349) erhebliche Schäden an. Nachdem das Bauwerk schon stark beschädigt war, nutzten die Römer es im Mittelalter als Steinbruch. So entstand der heutige Zustand des Kolosseums – es ist auch als Ruine noch immer beeindruckend!

Die weitere Geschichte der Ruine: eine Attraktion für Archäologie und Tourismus

Papst Benedikt XIV., der von 1740 bis 1758 amtierte, erklärte die Ruine des Kolosseums als Märtyrerstätte, in Erinnerung an die Christen, die dort wegen ihres Glaubens getötet worden waren. Der Papst ließ auch eine Steintafel als Erinnerung an die Märtyrer anbringen und innerhalb des Kolosseums einen Kreuzweg mit Kapellen errichten. Im 19. Jahrhundert wurde das Kolosseum zu dem, was es noch heute ist: eine Touristenattraktion. Auch die Archäologen begannen nun, die Stätte zu erforschen. Seit 1964 findet jedes Jahr an Karfreitag eine Andacht mit dem Papst im Kolosseum statt. Touristen können die Sehenswürdigkeit jederzeit besuchen, es kostet aber Eintritt. Führungen werden u.a. auf Deutsch und auf Englisch angeboten.

Amphitheater – schöne Bauwerke für grausame Zwecke

Amphitheater sind Entwicklungen der antiken Römerzeit. Ein Amphitheater ist eine nach oben offene Arena mit rundem oder ovalem Grundriss, d vieon Zuschauerrängen umgeben ist. Die Zuschauerränge können mehrere Etagen umfassen – so wie ein Fußballstadion der modernen Zeit. Das Kolosseum ist das größte Amphitheater, das je gebaut wurde. In Ländern, die sie eroberten, haben die Römer auch Amphitheater konstruiert, so etwa im germanischen Trier.

Die Amphitheater dienten der Belustigung der Zuschauer. Es wurden Gladiatorenkämpfe und Tierkämpfe veranstaltet. Bei den Gladiatorenkämpfen gingen bewaffnete Männer aufeinander los, solche Kämpfe endeten sehr oft mit Todesfällen. Die Tierkämpfe waren für die menschlichen Teilnehmer auch nicht ganz ungefährlich, aber in der Regel endeten sie mit dem Tod von vielen Tieren. Löwen, Tiger und Bären waren bei den Zuschauern besonders beliebt. Gladiatorenkämpfe veranstalteten die Römer vom 3. vorchristlichen Jahrhundert bis in das 5. nachchristliche Jahrhundert, die Tierkämpfe sind für die Zeit zwischen dem 2. vorchristlichen Jahrhundert bis zum Anfang des 6. nachchristlichen Jahrhunderts belegt. Nachdem sich das Christentum im römischen Reich durchgesetzt hatte, ging die Zeit der Gladiatoren- und Tierkämpfe zu Ende. Schon der christliche Kaiser Konstantin hatte um das Jahr 300 n. Chr. ein Edikt gegen die „Tierhetzen“ erlassen. Aber es dauerte dann noch einige Zeit, bis sie endgültig abgeschafft wurden.

Sind Spatzen wichtig? Erklärung, Bedeutung


Der zierliche Hausspatz begleitet den Menschen seit Tausenden von Jahren. Dabei ist sein Einfluss auf die Umwelt keineswegs zu unterschätzen. Denn der Haussperling frisst weit mehr als Körnerfutter. Die Singvögel dienen als sichere Indikatoren für die Gesundheit in städtischen Regionen. Damit sind Spatzen für das Ökosystem unerlässlich.

Spatz, Hausspatz oder Haussperling – dem Menschen wohlvertraut

Passer domesticus folgt seit über 10.000 Jahren dem Menschen. Dort, wo der Homo sapiens dauerhaft siedelt, sind die Sperlingsvögel ebenfalls anzutreffen. Heutzutage finden sich in Großstädten jedoch immer weniger geeignete Nistplätze für den zierlichen Singvogel. Dabei ist der Hausspatz vor allem durch charakteristische Tschilp-Laute und das Auftauchen in Gruppen bekannt. Mit bis zu 16 Zentimetern Länge und einem Gewicht von etwa 30 Gramm ist der Spatz sowohl von geringer Größe als auch unauffällig. Sein üblicherweise unscheinbares, braunes Gefieder unterstreicht diesen Eindruck.

Futter für den Spatz – Körner, Insekten, Wirbellose

Der Haussperling findet sich in Trupps zusammen. In solchen Verbänden erfolgt praktisch alles gemeinsam: schlafen, jagen, baden, brüten und die Futtersuche. In urbanen Gegenden fallen die kleinen Vögel auf, sobald sie im Café auf dem Nachbartisch landen und Reste stibitzen. Dadurch entsteht vornehmlich der Eindruck, dass die Singvögel hauptsächlich Körner fressen. Dabei wählen die Sperlingsvögel ebenfalls Insekten und Wirbellose als Nahrungsquelle. Deshalb finden sich Spatzen oftmals in der Nähe von Büschen, Blumen und Wiesen mit Wildblumen. Die Lebensräume von Krabbeltieren ziehen unweigerlich den Hausspatz an. Der Vogel bedient sich gern und hält dementsprechend die Population der Insekten in Grenzen.

Das zeigt sich ebenfalls in der Vergangenheit: Im 18. Jahrhundert wurde der Spatz auf königlicher Anordnung hin bekämpft. Denn die landwirtschaftlichen Felder sollten geschützt werden. Das Resultat war jedoch ein Übermaß an Insekten, sodass der Sperling schnell wieder willkommen war. In der modernen Welt zählt der Vogel zu den Allesfressern. Neben der Auswahl an Insekten, Wirbellosen, Körnern und Sämereien, bedient sich das Tier gleichfalls bei Imbissständen, Restaurants oder Cafés. Aufgrund der Nähe zu Supermärkten und gewerblichen Küchen wird der Singvogel oftmals als Schädling betrachtet. Dabei ist seine Existenz für die Natur von enormer Bedeutung.

Der Haussperling und die Umwelt: Wie wichtig sind Spatzen?

Der Singvogel ist nahe dem Lebensraum von Menschen heimisch. Allerdings verursachen aufgeräumte Städte und nischenfreie Häuser zunehmend eine Abnahme der Möglichkeiten für Nester und Bruthöhlen. Das erschwert das Leben des Vogels. Zusätzlich sorgen Katzen, selten Hunde, Turmfalken und andere Greifvögel neben Steinmardern für gefährliche Lebensräume. Damit gelten Spatzen als wertvolle Beutetiere innerhalb der natürlichen Nahrungskette. Ihr Beitrag zur Regulierung der Krabbeltiere ist nicht zu unterschätzen. Die Haussperlinge vertilgen als ausgewachsene Vögel die zahlreichen Insekten ebenso wie deren Larvenstadien in der Zeit der Brutpflege.

Demzufolge tragen sie zu einem ökologischen Gleichgewicht bei – speziell innerhalb urbaner Gegenden. Ohne die Singvögel gäbe es für Insekten keine natürlichen Fressfeinde. Das zöge einen verstärkten Anstieg der Insektenpopulation nach sich. Letztlich müsste sich der Mensch der Probleme durch Schädlinge annehmen. Denn zerstörte Ernten auf den Feldern wäre eine Schwierigkeit, die ein Schwund an Spatzen zur Folge hätte. Ein weiterer Aspekt betrifft die Verbreitung der Gewächse im Lebensraum. Der Hausspatz verzehrt Körner und Sämereien. Dadurch trägt er wesentlich zur Fortpflanzung von Pflanzen bei. Denn der Vogel frisst die Früchte und scheidet sie schließlich woanders aus, sodass die Pflanzen neu wachsen können.

Zusätzlich zählen Hausspatzen zu den sogenannten Biomarkern für Städte. Sie liefern Erkenntnisse über die Luftverschmutzung innerhalb urbaner Zonen. Das bedeutet, die Verschmutzung ist umso stärker, je weniger der Tiere dort existieren. Ein wichtiger Aspekt ist deshalb besonders erwähnenswert: Spatzen gelten als bedrohte Tierart, speziell in Städten. Durch die moderne Lebensweise der Menschen finden die Vögel immer weniger Nistplätze. Sie sind verstärkt auf die menschliche Unterstützung angewiesen. Nistkästen, Wildblumen, Kletterpflanzen und Hecken helfen, Insekten anzulocken und schlussendlich Haussperlinge zu beheimaten.

Zusammenfassung: Spatzen als wichtige Säule im Ökosystem

Vögel gehören zu den bedeutsamen Kriterien, sobald es um den Schutz der Umwelt geht. Das natürliche Gleichgewicht beinhaltet ebenso Insekten und Wirbellose (beispielsweise Würmer und Raupen). Sind die Krabbeltiere in ausreichender Zahl vorhanden, finden sich an Gebäuden genügend Nischen zum Nisten, werden die zierlichen Spatzen gerne heimisch. Da sie Insekten fressen, helfen sie effizient, potentielles Ungeziefer auf natürliche Weise unter Kontrolle zu halten.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung


Quastenflosser gelten als das fehlende Bindeglied zwischen Fischen und Landwirbeltieren. Aufgrund ihrer besonderen Merkmale zeigen diese ursprünglichen Fische Anzeichen für den Übergang zu Landlebewesen. Quastenflosser galten als prähistorische Fische, die seit langem ausgestorben sind. Doch erst vor weniger als einem Jahrhundert wurde klar, dass dies doch nicht der Fall ist. Es war eine Sensation: Für die Wissenschaftler kam die Entdeckung eines Quastenflossers der Entdeckung eines lebenden Dinosauriers gleich.

Ein lebendiges Stück der Evolution

Es war Charles Darwin, der darauf hinwies, dass sich die Arten der verschiedenen Gattungen und Klassen im Laufe der Zeit nicht in gleichem Maße verändert haben. Charles Darwin prägte für dieses Phänomen auch den Begriff „lebende Fossilien“. Mit diesem Begriff definierte er Abstammungslinien, innerhalb derer sich neue Formen langsamer bilden und alte Formen langsamer aussterben, wobei entwicklungsgeschichtlich ursprüngliche Merkmale erhalten bleiben. Dieser Begriff ist populär geworden, wird aber manchmal missverstanden, da er bedeutet, dass sich manche Organismen nicht weiterentwickeln. Paläontologen und Evolutionsbiologen verwenden den Begriff jedoch häufig. Hier wird der Begriff „lebendes Fossil“ verwendet, um einen Stillstand bei der Veränderung der Körperstruktur in einigen Abstammungslinien zu beschreiben.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung

Die ältesten bekannten Quastenflosser-Fossilien stammen aus der Zeit vor über 400 Millionen Jahren. Der Fossilbericht der Quastenflosser endet mit der späten Kreidezeit. Es lag die Vermutung nahe, dass die mit dem Massenaussterben vor 66 Millionen Jahren auch die Quastenflosser ausgelöscht worden sind.

Der Quastenflosser und seine Wiederentdeckung

Man ging davon aus, dass der Quastenflosser vor über 60 Millionen Jahren ausgestorben war, doch seine Wiederentdeckung 1938 vor der Küste Südafrikas schockierte die wissenschaftliche Welt. Marjorie Courtenay-Latimer war gerade 24 Jahre alt, als sie die Entdeckung ihres Lebens machte. Einer der weniger aufregenden Teile ihres Jobs als Kuratorin des East London Museum in Südafrika bestand darin, auf Anrufe von Fischern zu reagieren, die etwas gefangen hatten, das sie für ungewöhnlich hielten, und dann zu den Docks zu fahren und es zu untersuchen.

Für Marjorie Courtenay-Latimer war die Entdeckung dieses vermeintlich ausgestorbenen Tieres, das schon existierte, als die Tyrannosaurier noch auf der Erde lebten, ein Triumph. Sie beschrieb ihn als den schönsten Fisch, den sie je gesehen hatte.

Der Fang von Quastenflossern war in der Folgezeit äußerst selten. Erst im Jahr 1952 wurde ein zweites Exemplar gefangen. Der Fangplatz vor den Komoren war 3000 km von dem des ersten Exemplars entfernt. Diese Fische werden als Komoren-Quastenflosser (wissenschaftlich: Latimeria chalumnae) bezeichnet. Als weitere Art wurde 1997 der kleiner bleibende Manado-Quastenflosser Latimeria menadoensis entdeckt.

Die Wiederentdeckung des Quastenflossers, des 400 Millionen Jahre alten prähistorischen Fisches, der lange als ausgestorben galt, zeigt, dass diese Fische über einen längeren Zeitraum existieren als die Dinosaurier. Kein Wunder, dass der Fisch nach Courtenay-Latimers verblüffender Entdeckung im Jahr 1938 als lebendes Fossil bezeichnet wurde und seine Identifizierung als das wichtigste Ereignis in der Erforschung der Naturgeschichte im 20. Jahrhundert dargestellt wird.

Die besonderen Merkmale der Quastenflosser

Abgesehen von der Tatsache, dass er seit Jahrtausenden als ausgestorben galt, ist der Quastenflosser auch aus mehreren anderen Gründen einzigartig. Die vier gliedmaßartigen Flossen, die Courtenay-Latimer feststellte, sind eigentlich Lappenflossen, die fast wie Beine für den Fisch wirken und sich in einem abwechselnden Muster bewegen, wie ein trabendes Pferd. Damit ergibt sich der Anlass für die Vermutung, dass der Quastenflosser ein wichtiges Bindeglied zwischen herkömmlichen Fischen und den ersten Lebewesen ist, die sich zu vierbeinigen, land- und meeresbewohnenden Amphibien entwickelten.

Der Quastenflosser wird also deshalb als lebendes Fossil betrachtet, da Wissenschaftler davon ausgingen, dass er das einzige verbliebene Mitglied einer Abstammungslinie ist, die sonst nur aus Fossilien bekannt ist und keine nahen Verwandten hat und dass er sich vor etwa 400 Millionen Jahren zu seiner heutigen Form entwickelt hat. Mehrere neuere Studien haben jedoch gezeigt, dass die Körperformen von Quastenflossern weit vielfältiger sind als bisher angenommen.

Der Quastenflosser kann über zu zwei Meter lang werden und bis zu 100 kg wiegen. Wissenschaftler schätzen, dass der Fisch über 60 Jahre alt werden kann, was ihn noch geheimnisvoller macht. Die Weibchen sind im Allgemeinen größer als die Männchen, und obwohl sie in größeren Gruppen friedlich sind, mögen Quastenflosser keinen Körperkontakt. Quastenflosser sind nachtaktive Tiere, die sich tagsüber in Höhlen oder tiefe Gewässer zurückziehen und dann in die untersten Ebenen des Ozeans aufsteigen, um am Meeresboden zu fressen.

Geschwindigkeit der Evolution

Die niedrige Evolutionsrate auf der Grundlage eines dauerhaften generalistischen morphologischen Bauplans wurde von den meisten nachfolgenden Autoren, die sich mit der Gruppe beschäftigt haben, bestätigt, wohl wissend, dass es auch Ausnahmen von diesem allgemeinen Bauplan gibt. Ein Teil der Forschergemeinschaft, die sich mit fossilen und lebenden Quastenflossern beschäftigt, vermeidet es jedoch, diesen Ausdruck zu verwenden.

Warum sind Quastenflosser fast „lebende Fossilien“?

Darwins Definition des Begriffs war ungenau, und er vertrat die Auffassung, dass „Arten und Gruppen von Arten, die man abweichend nennt und die man fantasievoll als lebende Fossilien bezeichnen kann, uns helfen werden, uns ein Bild von den alten Formen des Lebens zu machen“. Seit mehr als 200 Jahren wird jedoch über die Definition des Konzepts und ganz allgemein über die Vorzüge seiner Verwendung in den Biowissenschaften debattiert. Obwohl Darwin (1859) mehrere Fischtaxa als Beispiele für „lebende Fossilien“ anführte, erwähnte er die Quastenflosser nicht, die zu seiner Zeit nur als Fossilien bekannt waren. Huxley bemerkte jedoch bald darauf die geringe anatomische Vielfalt der Quastenflosser im Laufe ihrer Geschichte.

Seit dieser Zeit und insbesondere nach der Entdeckung der lebenden Latimeria im Jahr 1938 ist der Quastenflosser aufgrund der langsamen morphologischen Entwicklung, die durch die Fossilienaufzeichnungen der Gattung veranschaulicht wird, und seiner angeblichen Verwandtschaft mit den Tetrapoden zu einem ikonischen Symbol des „lebenden Fossils“ geworden. Hier geht es nur um die Frage der Evolutionsgeschwindigkeit, nicht um die Frage der Abstammung oder anderer Merkmale, die Quastenflossern als „lebende Fossilien“ zugeschrieben werden. Zuvor war man davon ausgegangen, dass es sich um ein lebendes Fossil handelte, da die Wissenschaftler davon überzeugt waren, dass es sich bei dem Exemplar von 1938 um den letzten verbliebenen Quastenflosser handelte, doch spätere Studien zeigten, dass die Art weitaus vielfältiger ist.

Warum sind Meere salzig? Erklärung


Salz ist für das Leben unerlässlich. Salz ist ein natürliches Mineral, das aus dem Boden gewonnen wird. Es ist ein wesentlicher Nährstoff für die meisten Lebewesen und hilft, den Körper hydriert zu halten. Salz entsteht, wenn sich Gesteinsmassen auflösen oder durch Erosion abgetragen werden. Aber Salz ist auch ein wesentlicher Bestandteil von Meeren und Ozeanen. Die Frage, warum Meere salzig sind, ist eine der am häufigsten gestellten Fragen über Ozeane. Die Antwort ist relativ einfach und liegt in der Herkunft des Wassers.

Das Urmeer

Das Salz in unseren Meeren stammt ursprünglich aus dem Urmeer, einem riesigen Meer, das vor etwa 500 Millionen Jahren existierte. Dieses Meer war so groß, dass es alle Kontinente bedeckte und sich über die ganze Erde erstreckte. Im Laufe der Zeit verdunstete das Wasser des Urmeers und hinterließ eine dichte Salzlösung. Diese Salzlösung wurde immer konzentrierter, bis sie schließlich zu einer festen Masse erstarrte und zu dem Salzberg wurde, den wir heute als Salzsee bezeichnen.Das Salz in unseren Meeren ist also vor allem aufgrund der Verdunstung des Wassers im Urmeer entstanden. Aber es gibt noch eine andere Quelle für das Salz in unseren Meeren.

Salz durch Flüsse und Regenwasser

Salz kommt in die Meere durch Flüsse, die ins Meer münden. Diese Flüsse transportieren das Salz, das sich in den Gesteinen des Ufers angesammelt hat, ins Meer. Auch Regenwasser enthält geringe Mengen an Salzen, da es sich beim Kontakt mit dem Boden verdünnt und so auch Salze aus dem Boden löst. Das Wasser der Meere stammt daher auch aus dem Regen, der auf die Erde fällt. Und weil das Salz aus dem Boden und den Gesteinen langsam in das Regenwasser gelangt, ist auch das Meerwasser salzig. Diese beiden Prozesse tragen dazu bei, dass sich im Laufe der Zeit immer mehr Salz in den Meeren anreichert.

Aber das ist noch nicht alles: Auch die Tiere und Pflanzen, die im Meer leben, tragen zur Salzigkeit bei. Denn ihre Körper enthalten ebenfalls Salz, das ins Wasser abgegeben wird, wenn sie sterben. So gelangt immer mehr Salz ins Meerwasser – und es wird immer salzhaltiger.

Ein weiterer Faktor, der die Salzigkeit der Meere beeinflusst, ist die Verdunstung. Wasser verdunstet ständig von der Oberfläche der Meere und Ozeane und nimmt dabei auch einige der Salze mit. Dieser Prozess findet jedoch nicht überall gleich schnell statt. In Bereichen mit hoher Verdunstungsrate, wie zum Beispiel an den Küsten trockener Länder oder in der Nähe von Gebirgen, verdunstet mehr Wasser und es bleiben entsprechend mehr Salze zurück. So tragen auch die unterschiedlichen Klimazonen dazu bei, dass sich die Meere unterschiedlich salzig verhalten.

Herstellung von Meeressalz

Die Herstellung von Kochsalz ist relativ einfach und erfordert lediglich einige chemische Verfahren sowie eine Verdampfung des Meerwassers. In erster Linie wird jedoch Steinsalz verwendet, da es einen höheren Reinheitsgrad aufweist und daher für die Herstellung von Lebensmitteln besser geeignet ist.

Fazit

Insgesamt ist die Zusammensetzung des Meereswassers sehr komplex und wird von vielen verschiedenen Faktoren beeinflusst. Die genaue Zusammensetzung variiert jedoch nur geringfügig von Ort zu Ort und hat im Wesentlichen einen natürlichen Ursprung. Grundsätzlich kann gesagt werden, dass Meere salzig sind, weil sie aus dem Salz der Erde bestehen. Das Salz der Erde stammt aus dem Gestein der Kontinente und wird durch Erosion in die Meere gespült.

Warum Casinobegriffe einheitlich verwendet werden? Erklärung, Bedeutung


Mit komplexen Regeln und verschiedenen Strategien setzen manche Casinospiele viel Konzentration und Vorkenntnisse voraus. Schon die Begrifflichkeiten sorgen bei Einsteigern für Schweißperlen auf der Stirn. Allerdings bringt das Vokabular einen großen Vorteil mit sich: Viele Begriffe sind in allen Sprachen gleich. Eine Erleichterung, die das internationale Spiel weltweit so beliebt macht.

Sprache ist eine faszinierende Sache. Mehr als 700 verschiedene Arten existieren laut Experten auf der Welt, die eine gemeinsame Kommunikation in vielen Fällen erschweren. Schon die Frage nach dem Weg kann zur Herausforderung werden, wenn sich Sender und Empfänger nicht auf einer Ebene verständigen können. Was bleibt, ist eine Erklärung, die nur mit Händen und Füßen übermittelt werden kann.

Umso erstaunlicher ist es, dass durchaus komplexere Themen dennoch eine Community verschiedener Sprachen vereinen können. Casinospiele zählen in diese Kategorie, die Spieler weltweit an einen Tisch holen und aufgrund einheitlicher Begrifflichkeiten für einen reibungslosen Ablauf sorgen. Online Casinos haben ihren Teil dazu beigetragen, dass diese Entwicklung so rasch vorangeschritten ist. In Ländern wie der Schweiz, in der Italienisch, Deutsch und Französisch als gängige Sprachen gesprochen werden, bieten die Online Casinos der Schweiz eine perfekte Anlaufstelle für Interessierte. Der Blick auf einige wichtige Begrifflichkeiten zeigt, warum.

Wort für Wort

Wer sich zum ersten Mal an Casino- oder Tischspielen versuchen möchte, dem sei ans Herz gelegt, die ersten Runden in der jeweiligen Muttersprache zu spielen. Das Regelwerk kann Anfänger überfordern und erschwert das Verständnis unnötig, wenn es in einer Fremdsprache vorliegt. Von selbsterklärenden Zügen oder nächsten Schritten kann bei Poker, Baccarat oder Blackjack kaum die Rede sein. Im Zuge der Einführung wird jedoch deutlich, dass es viele Begriffe und Schlagwörter gibt, die als einheitliche Umschreibung international gelten.

Bankroll, Bet Fold oder La Grande sind nur eine Auswahl an unzähligen Beispielen. Dennoch stehen sie für eine verständliche Themensprache, die Deutsche, Amerikaner oder Franzosen gleichermaßen verstehen. Die Vereinheitlichung gestaltet das gemeinsame Spiel deutlich flüssiger und umgeht auch bei Turnieren unnötige Barrikaden. Alle Teilnehmer, aus welchen Ländern sie auch stammen mögen, haben somit die gleichen Chancen auf den Sieg.

Grundlagen schaffen

Internationale Spiele oder sportliche Turniere kommen ohne eine gemeinsame Basis kaum aus. Events wie die Fußballweltmeisterschaft in Katar wären kaum denkbar, wenn sich bestimmte Begriffe im Spiel nicht einfach vermitteln ließen. Die Faktoren von Zeit, Stress, Druck und Kombinationsgabe verlangen einfache Ansagen, die keine Übersetzung benötigen. Auf Basis dieser Grundlagenverständigung sind Spiele über sämtliche Kontinente hinweg erst möglich und durchführbar.

Die Gaming-Community bietet ein weiteres passendes Beispiel für Sprache auf einer Ebene. Auch wenn sich typische Begriffe wie Score, Hub, Cheat oder Bug fast ausschließlich der englischen Sprache bedienen, wissen Gamer sofort, um was es sich dabei handelt. Die Wissenschaft hat diese Ebene schon lange für sich entdeckt: Seit Jahrhunderten werden wissenschaftliche Entdeckungen aus dem Pflanzen- oder Tierreich mit lateinischen Namen versehen, damit internationale Forschungen einen gemeinsamen Nenner besitzen.

Die Welt rückt zusammen

Dank der Digitalisierung rückt die Welt ein kleines bisschen enger zusammen. Kommunikationsweisen, die früher nur über langwierige Wege funktionierten, sind heute mit WhatsApp, E-Mail oder Messenger innerhalb von Sekunden möglich. Grenzen verschwimmen und machen besonders das Internet zu einem Ort, an dem Verständigung über eine eigene Sprache funktioniert.

Online Casinos nehmen dabei einen Raum ein, indem sie durch Live- oder Online-Spiele unterschiedliche Nationen an einen Tisch holen. Wer sich mit den Grundlagen auseinandersetzt und die wichtigsten Begriffe zuzuordnen weiß, der wird selbst bei Spielen mit fremdsprachigen Mitspielern keine Probleme haben, sich zurechtzufinden. Statt langen Erklärungen gibt es präzise Ansagen, die keine Fragen offenlassen. Vielleicht ist dies ein wichtiger Grund, weshalb sich Poker oder Blackjack im digitalen Raum großer Beliebtheit erfreuen. Zudem teilt die Community eine Sprache, die Abgrenzungen schafft und den Kreis des Besonderen umschließt.

Warum ist Pluto kein Planet mehr? Erklärung


Pluto war jahrelang als der neunte Planet unseres Sonnensystems bekannt. Mittlerweile zählt er aber laut Astronomen nicht mehr dazu und wird als Zwergplanet klassifiziert. Er liegt im sogenannten Kuipergürtel, einem großen Feld an Asteroiden und Kometen. Viele, die in der Schule noch den alten Fakt gelernt haben, sind immer wieder überrascht zu erfahren, dass Pluto nicht mehr zu den großen Planeten unseres Sonnensystems zählt. Wie ist diese Klassifizierung zugeordnet und warum zählt Pluto heutzutage nicht mehr als Planet?

Fakten zu Pluto

Der Zwergplanet liegt im Kuipergürtel, etwa 7,5 Milliarden Kilometer von der Erde entfernt. Diese Zahl schwankt aber je nach Orbit der beiden Himmelskörper. Sonnenlicht braucht rund sechs Stunden, bis es Pluto erreicht hat. Er hat einen Durchmesser von etwas mehr als 2300 Kilometer und ist somit etwas kleiner als unser Mond. Für eine Umrundung der Sonne braucht Pluto ganze 247,94 Erdjahre.

Seine Atmosphäre besteht zu 99 Prozent aus Stickstoff, mit Anteilen von Methan und Kohlenmonoxid. Die Oberfläche ist ca. -240 Grad kalt. Er besteht aus einer Schicht von Stickstoffeis, darunter Wassereis und der Kern aus Gestein. Die bisher besten Bilder wurden 2015 von der Raumsonde „New Horizons“ aufgenommen. Dabei zeigt sich Pluto in einem rot-weiß-blauen Ton. Der Zwergplanet hat aktuell fünf bekannte Monde: Charon, Nix, Hydra, Kerberos und Styx.

Die Entdeckung von Pluto

Offiziell wurde Pluto am 18. Februar 1930 entdeckt und damals als neunter Planet bezeichnet. Forscher haben bereits vermutet, dass sich nach Neptun noch ein weiterer Planet befinden muss, der die Umlaufbahnen der anderen vorherigen Planeten beeinflusst. Gefunden wurde er von Clyde W. Tombaugh, einem jungen Astronomen im Lowell-Observatorium. Wie auch alle anderen Planetennamen bezieht sich dieser auf die römische und griechische Mythologie. Pluto ist dabei der Herrscher der Unterwelt.

Pluto: Klassifizierung als Planet

Pluto wurde in den folgenden Jahrzehnten weiter erforscht. Es gab jedoch schon damals Diskussionen, ob Pluto jemals als Planet zählen sollte. Immerhin ist er kleiner als unser Mond. Die Unterhaltungen darüber fanden bereits Anfang der 1990er Jahre statt, da man die Größe und die stark elliptische Umlaufbahn des Planeten nicht ganz mit den anderen acht kategorisieren konnte. Man hatte zuerst nicht erwartet, dass Pluto in Wirklichkeit so klein ist.

In den Jahren danach wurden immer mehr solcher vermeintlichen Planeten gefunden, diese wurden „Plutinos“ genannt. Der Begriff umfasst alle Objekte aus dem Kuipergürtel, die dem Pluto ähneln. Es war also schon abzusehen, dass Pluto vielleicht nicht mehr lange den Status als neunten Planeten behalten konnte. Ansonsten hätten Astronomen die Klassifikation ändern müssen.

Pluto als Zwergplanet

Am 24. August 2006 wurde schließlich eine neue Klasse von Planeten eingeführt, die sogenannten Zwergplaneten. Pluto, mitsamt anderen Himmelskörpern, wurde in diese Klassifizierung gesteckt. Seitdem gilt Pluto nicht mehr als neunter Planet, da er dafür nicht die neu definierten Anforderungen erfüllt.

Die neue Definition für Planeten lautet:

  • 1. Objekt muss um die Sonne rotieren.
  • 2. Objekt muss genügend Masse und Rotation haben, um eine fast runde Form anzunehmen.
  • 3. Objekt muss frei von umliegenden kleineren Objekten sein, die diese durch die dominante Anziehungskraft in sich aufgenommen hat.

Laut dieser Definition fällt Pluto im dritten Punkt raus, da es andere Himmelskörper in der unmittelbaren Umgebung gibt. Dementsprechend mussten auch Schulbücher und Lehrpläne angepasst werden, da viele Pluto weiterhin als Planet sahen. Auch unter Astronomen gibt es weiterhin Streitigkeiten, ob Pluto nicht wieder als normaler Planet eingestuft werden soll. Bisher gibt es jedoch keine offiziellen Versuche, ihn wieder als neunten Planeten ins Sonnensystem aufzunehmen.

Woher kommt das ganze Salz im Meer? Erklärung


Im Laufe der Zeit entstanden Gebirge und sind wieder zerbrochen, woraufhin abgefallenes Gestein mithilfe des Wetters zersetzt werden konnte. Bei diesem Prozess werden die Salze mithilfe von Regen aus den Steinen gespült und anschließend durch Bäche und Flüsse ins oder ans Meer befördert.

Woher kommt das ganze Salz im Meer? Erklärung

Diese Erklärung findet sich im gesamten Internet und in nahezu jedem themenverwandten Buch, jedoch handelt es sich hierbei nur um eine Seite der Münze, die in den meisten Lexika präsentiert wird. Folgt man dieser Logik, so müsste doch nachweislich immer mehr Salz im Meer landen?

In der Realität verhält es sich jedoch anders als man meist annimmt, denn die meisten Salze setzen sich irgendwann am Meeresboden ab und versickern. Somit kann eine wirklich enorm große Menge Salz im Meer gespeichert werden.

Einigen speziellen Salzen, wie etwa dem Kalzium, gelingt das sogar ganz gut. Immerhin existiert es unter Wasser vor allem als Kalkschale, welche unter anderem für Korallen und Muscheln essenziell ist.

Irgendwann sind die Salzablagerungen an einer Stelle des Meeres derart hoch, als dass sich im Laufe von Millionen von Jahren ein Gebirge daraus auffaltet. Sobald dieses dann anfängt zu bröckeln, schließt sich der Salzkreislauf wieder.

Ein weiterer Faktor sind die vielen vom Mensch geschaffenen Dämme, Landhebungen und Senkungen. Diese kappen die Verbindung zwischen dem Meer und den Flüssen, sodass sich an den entsprechenden Stellen ein großer Teil der Salze in den Flüssen absetzt. Verdunstet nun ein Teil oder der gesamte Fluss während eines sehr heißen Sommers, bleibt eine Menge Salz zurück.

Diese ausgetrockneten Salzseen hinterlassen gigantische Salzblöcke, die meterhoch in die Luft ragen. Besonders bekannt sind in diesem Zusammenhang deutschlandweit etwa das Kavernengelände in Wilhelmshaven oder aber die Salzstöcke in Gorleben.

Bald gibt es keine Salzmeere mehr

Wissenschaftler aus aller Welt sind sich mittlerweile einig: In etwa 100 Millionen Jahren wird das Mittelmeer nur noch Geschichte sein, denn die Menge an Salz wird irgendwann auch Gebirge im Meer produzieren und das Wasser in riesige Seen umschichten.

Ein äußerst interessantes Phänomen ist unter anderem, dass Meerwasser erst bei -2°C gefriert. Dies hat vor allem mit dem erhöhten Salzgehalt zu tun, welcher dem Wasser eine hohe Stabilität verleiht.

Auch unsere Körperflüssigkeiten sind voller verschiedener Salzverbindungen, die denen im Meer gleichen. Tränen oder Schweiß sind hierbei sehr gute Beispiele, denn jeder weiß, dass diese Flüssigkeiten salzig schmecken. Somit ist im menschlichen Körper nachweislich eine Menge Salz vorhanden. Im Prinzip tragen wir das Weltmeer in einer verkleinerten Form ständig mit uns herum.

Vor allem Nationalparks brüsten sich des Öfteren mit ihren salzigen Attraktionen. Diese sind in einigen Teilen Deutschlands recht nah ans Meer gebaut worden und daher direkt vom Salz betroffen. Den erhöhten Salzgehalt in der Luft schmeckt man zum Beispiel am Wattenmeer.

Hier kann die salzige Seeluft die Gesundheit fördern und die inneren Abwehrkräfte aktivieren. Besonders salzhaltige Gewässer hinterlassen meist eine Salzkruste auf den Badesachen. Somit weiß man in einem solchen Fall direkt, dass es sich um eine hohe Konzentration handelt.

Die Pflanzen und Tiere, die in solch salzigen Gegenden überleben möchten, müssen sich sehr kreative Wege einfallen lassen, wie sie regelmäßig an Süßwasser (bzw. Frischwasser) kommen. Das frische Salzwasser bahnt sich nämlich zunehmend neue Wege in Richtung Meer.

Warum ist der Uluru heilig? Erklärung


863 Meter über dem Meersspiegel thront der Uluru, zwischenzeitlich auch als Ayers Rock bekannt, über das australische Outback. Der im Sonnenuntergang rot leuchtende Berg gehört zu den heiligen Stätten der Anangu. Denn der Berg hat mythologisch eine enge Verknüpfung zur sogenannten Traumzeit, dem Entstehungsmythos der Anangu. Lange vernachlässigt, kristallisierte sich über die letzten Jahrzehnte in Australien und westlichen Ländern das Verständnis für die heilige Bedeutung des Berges heraus.

Der Uluru gehört zu den imposanten Landmarken mitten in der zentralen Wüste Australiens, des Outbacks. Auf einer Länge von drei Kilometern streckt sich das Paradebeispiel eines sogenannten Inselbergs aus: Ein einsamer Berg, der kein Teil einer Gebirgskette ist. Nicht umsonst gehört der Berg als Teil des Uluru-Kata Tjuta National Parks heute zum UNESCO-Weltkulturerbe.

Doch seit der Etablierung des Nationalparks hat sich vor Ort ein problematisches Phänomen entwickelt: Touristische Besucher bestiegen den Berg in Scharen. Das Verhalten der Reisenden führte schon in den 90ern zu Schildern mit der Aufforderung, den Berg nicht zu besteigen. Doch noch 2010 erstieg laut statistischer Forschung etwa ein Drittel der Besucher, darunter viele Familien mit Kindern, den heiligen Berg. Seit 2019 ist die Besteigung des Uluru offiziell verboten. Denn der Uluru ist ein heiliger Berg der Anangu.

Entstehung und Kulturgeschichte des Uluru

Nach wissenschaftlichem Verständnis entstand der Uluru in einem frühen Meer der Erde, das sich im sogenannten Amadeus-Becken Australiens entfaltete. Dort wurden schon vor hunderten Millionen Jahren neue geologische Formationen als Grundlage der heutigen Region erschaffen. Der Uluru selbst soll vor etwa 65 Millionen Jahren beim Übergang von der Kreidezeit ins Tertiär entstanden sein, – etwa zu jener Zeit, als die Dinosaurier ihrem Ende entgegensahen. Dabei setzt sich der Uluru aus der Gesteinsart Arkose zusammen, die für ihre auffälligen Mineralien bekannt ist.

Weit vor der westlichen Kolonialisierung Australiens existierte hier das Volk der Anangu, die den Aborigines zugeordnet werden. Seit mehr als 10.000 Jahren leben diese Ureinwohner Australiens in der Region. Die Anangu betrachten sich auch dank ihrer langen Geschichte vor Ort als rechtmäßige Besitzer des Landes, auf dem der Uluru steht. Der Name Anangu bedeutet übersetzt etwas wie menschliches Wesen, menschlicher Körper oder Person. Die heimischen Anwohner verehrten den Uluru seit jeher als heiligen Berg.

Doch vieles änderte sich mit der Entdeckung und Kolonialisierung Australiens durch europäische Einwanderer – ausgelöst von Seefahrern und Entdeckern wie Willem Jansz und James Cook. Der britisch-australische Entdecker William Gosse sah den Berg 1873 als erster Europäer und taufte ihn mit dem Titel Ayers Rock, ein Kolonialname, der sich lange als offizielle Bezeichnung hielt. Das Gebiet wurde um 1920 erst zu einem Reservat für die Ureinwohner, in den 50er-Jahren schließlich entstand der heutige Nationalpark. Es kam zu einer schleichenden Enteignung, deren man sich in den 70er- und 80er-Jahren gewahr wurde. 1976 wurden der Aboriginal Land Rights Act verabschiedet, 1985 folgte die Rückkehr des Eigentums in die Hand der Anangu. Doch bald stellte sich für die Ureinwohner ein weiteres Problem ein: der Tourismus.

Warum ist der Uluru heilig? Erklärung

Die Anangu kannten den roten Berg im Outback schon lange unter dem Namen Uluru – international hat sich erst in den letzten Jahren der ursprüngliche Name gegenüber dem lange geläufigen Ayers Rock durchgesetzt. Das hat gute Gründe: Denn die Geschichte des Uluru ist eng mit der Historie der Anangu verwoben. Der Uluru spielt eine wichtige Rolle im Entstehungsmythos der Anangu, der sogenannten Traumzeit. Während der Traumzeit wurde alles Lebende auf der Erde erschaffen, so der Mythos. Die Geister der Vorväter kamen auf die Erde hinab und erschufen Landschaft und Leben. In dieser Geschichte spielt der Uluru eine spirituelle und ritualistische Rolle.

Die schöpferischen Geister aus dem Traumzeit-Mythos der Anangu sollen auch heute noch auf dem Grund ihres Landes wandeln. Nach einer populären Überlieferung sollen zwei sagenumwobene Stämme vor Ort in einen kriegerischen Konflikt verfallen sein – und aus dem Leid und ihren Geistern erhob sich der Uluru als Antwort aus der Erde. Überliefert sind verschiedene Varianten des Mythos, doch einen Zweifel an der Bedeutung des Uluru für die Anangu gibt es nicht.

An den Wänden und Höhlen des Uluru lassen sich bis heute zahlreiche Wandgemälde und Felszeichnungen entdecken, welche die lange und eindrucksvolle Geschichte des heiligen Bergs unterstreichen. Noch immer besitzt der Uluru spirituelle und rituelle Bedeutung für die Anangu. Daher gehört es zu der logischen Konsequenz, die Stätte des Uluru in die Hände der urprünglichen Landbesitzer zurückzuführen, und den Namen Ayers Rock in Uluru abzuändern.

Tourismus und der Uluru

Der Status als Nationalpark und die Anerkennung des Uluru als UNESCO-Weltkulturerbe bescherte dem Naturwunder große touristische Aufmerksamkeit. Von der europäischen Entdeckung des Bergs durch William Gosse und die folgende Umbenennung in Ayers Rock im 18. Jahrhundert über die Einrichtung eines Reservats auf dem Grund des heutigen Nationalparks in den 20er-Jahren des 20. Jahrhunderts bis zur touristischen Flut ab der Ernennung zum Nationalpark in den 50ern umweht die heilige Landschaft des Uluru eine fragwürdige Kolonialgeschichte.

Wie bereits angedeutet, konnten es sich viele Touristen nicht nehmen lassen, den Berg zu besteigen. „Please Don’t Climb“ – Schilder mit dieser Aufforderung tauchten ab den 90er-Jahren vor Ort auf. Doch es nützte nichts, um 2010 bestieg noch immer etwa ein Drittel der Besucher den heiligen Berg. Die Besucher trampelten so wortwörtlich nicht nur auf dem spirituellen Erbe der Anangu herum, auch wurden teilweise Felszeichnungen beschädigt und verstärkte Spuren hinterlassen. Seit 2019 ist das Besteigen des Uluru verboten.

Seit dem ersten Tiefpunkt Mitte des 20. Jahrhunderts hat sich der Umgang mit dem kulturellen Erbe der Anangu sichtbar verändert. Nicht nur ist das Besteigen des Uluru mittlerweile verboten, ausgewählte heilige Stätten dürfen nicht fotografiert oder auf Video festgehalten werden. Auch kommt es zur Schließung der Parkregion, wenn die Anangu eines ihrer heiligen Rituale am Berg abhalten. Auf diesem Weg versucht man mittlerweile, die Bedürfnisse der Anangu und ihr Heiliges Erbe zu schützen – und dennoch Touristen die Möglichkeit zu geben, den Berg auf ausgewählten Routen ohne Besteigung zu sehen. Dass der Uluru mehr als irgendein schön aussehender Berg ist, ist mittlerweile innerhalb Australiens aber auch international anerkannt. Er ist seit Tausenden von Jahren eine heilige Stätte der Anangu.

Warum hassen Katzen Wasser? Erklärung


Katzen stehen mit Wasser auf Kriegsfuß. Wasserpistolen oder Pflanzensprüher werden bevorzugt verwendet, um die Tiere zu bestrafen und zu maßregeln. Tatsächlich schrecken die meisten Katzen vor Wasser zurück. Dieser Umstand erstaunt und überrascht, denn Großkatzen wie Leopard, Tiger oder Luchs scheuen das nasse Element nicht und nutzen es als Abkühlung und Jagdrevier. Nun stellt sich die Frage, warum meiden Stubentiger das kühle Nass und sind Katzen wirklich wasserscheu?

Warum hassen Katzen Wasser? Erklärung

Katzen pflegen akribisch ihr Fell. Mehrere Stunden täglich werden mit Fellpflege verbracht. Die Vermeidungshaltung gegenüber dem Kontakt mit Wasser steht in direktem Zusammenhang mit der Beschaffenheit des Fells.

Wasser verändert die Fellstruktur. Das Haarkleid nimmt an Gewicht zu und verklebt. Katzen vermeiden daher jeden Kontakt mit Wasser. Ein nasses und verklebtes Katzenfell ist auf Beutezügen hinderlich und erschwert das Klettern und Balancieren. Außerdem benötigt das recht dicke Haarkleid längere Zeit zum Trocknen. Katzen fühlen sich mit einem nassen Fell buchstäblich nicht wohl in ihrer Haut und schützen ihre Haarpracht daher vor dem Kontakt mit Feuchtigkeit.

Katzen putzen sich nicht nur ausgiebig, damit das Fell glänzt und gut gepflegt erscheint. Die Kommunikation unter Artgenossen konzentriert sich auf Gerüche. Am Maul und Schwanz der Tiere befinden sich die Pheromondrüsen. Diese geben einen individuellen Duftstoff ab. Damit verständigen sich die Tiere untereinander und markieren ihr Revier.

Beim Putzen werden die Pheromone über die Katzenzunge im Fell verteilt. Der Kontakt mit Wasser würde die Duftmarker wieder entfernen. Daher ist das Verlieren ihres spezifischen Duftes ein weiterer Grund, warum Katzen Wasser meiden.

Katzen und Wasser: Ausnahmeregelung

Bei näherer Beobachtung zeigt sich, dass Katzen Wasser nicht komplett ablehnen, sondern sogar eine ausgesprochene Faszination dafür entwickeln können. So mancher Stubentiger verbringt Stunden vor dem Wasserhahn und zeigt Interesse an Katzenbrunnen, Dusche oder Klospülung.

Tierärzte sehen den Grund in der Begeisterung für fließendes Wasser in der Bewegung an sich, dem damit verbundenen Geräusch und den entstehenden Lichtspielen. Dadurch kann der Beutetrieb der Tiere stimuliert werden.

Wissenschaftler ziehen auch die Möglichkeit in Betracht, dass Katzen einer Weiterentwicklung folgen und sauberes Leitungswasser den stehenden Gewässern in der freien Natur vorziehen. Dies sind jedoch nur Spekulationen.

Geschichte: Warum hassen Katzen Wasser?

Die Abneigung für Wasser lässt sich auch mit der Geschichte der Spezies begründen. Unsere Hauskatzen sind direkte Nachfahren der Felis silvestris lybica. Diese kleine Wildkatze lebte im Nahen Osten, in trockenen Wüstenlandschaften. In der Heimat der kätzischen Vorfahren herrschte Wasserknappheit.

Die Wildkatzen nahmen lieber Sonnenbäder, anstatt im Wasser zu planschen. Die Angewohnheit, Fell und Pfoten trocken zuhalten und gerne an sonnigen Fleckchen vor sich hin zu dösen, scheinen die wilden Vorfahren an unsere zahmen Hauskatzen weitergegeben zu haben.

In der freien Natur nahmen wilde Katzen das meiste Wasser über die feste Nahrung, die sie zu sich nahmen, auf. Nur wenn Katzen dehydriert waren, zog es sie an die offenen Wasserstellen. Theorien besagen, dass unsere domestizierten Hauskatzen nur den Wassernapf aufsuchen, weil die verabreichte Nahrung eigentlich viel zu wenig Flüssigkeit enthält und zu einer Dehydrierung führen würde.

Dies betrifft besonders Tiere, die allein mit Trockenfutter ernährt werden. Dies stellt generell ein Risiko dar, weil Katzen dann zwar mehr Feuchtigkeit aufnehmen, jedoch meist nicht genug trinken, um den Feuchtigkeitshaushalt wirklich auszugleichen.

Paradoxes

Die meisten Hauskatzen hassen Wasser. Sie würden nie freiwillig ein Bad nehmen, obwohl sie gute Schwimmer sind. Doch Ausnahmen bestätigten die Regel. Einige Katzenrassen entwickeln sogar eine Affinität für das nasse Element.

Folgende Rassen sind dem Wasser nicht abgeneigt:

  • Norwegische Waldkatze
  • Bengalkatze
  • Amerikanisch Kurzhaar
  • Abessinier
  • Maine Coon
  • Türkisch Van

Diese Katzenrassen besitzen eine andere Haarstruktur. Das Fell ist widerstandsfähiger gegenüber Feuchtigkeit und vermittelt den Tieren bei direktem Kontakt kein unangenehmes Gefühl. Die genannten Rassen sind zugleich allesamt Katzen, die sich mit Hunden gut arrangieren können. Ob dies als Zufall gewertet werden kann, ist wissenschaftlich nicht bekannt.

Katzen und Wasser: Umgewöhnung

Wer Katzen mit dem Wasser vertraut machen möchte, sollte möglichst früh damit beginnen. Die wichtigsten Dinge für ihr weiteres Leben lernen Kitten im Alter von drei bis 16 Wochen. Während dieser Zeit können Katzenhalter versuchen, die Tiere langsam an das feuchte Element heranzuführen. Spielzeuge und Leckerlis können dabei Unterstützung leisten.

Auch ältere Katzen können mit dem Wasser vertraut gemacht werden. Dies wird allerdings etwas mehr Geduld erfordern. Vernachlässigen ältere Tiere ihre Körperpflege, kann ein Bad notwendig werden. Die meisten Katzen werden das Wasser zwar nicht mögen, können aber durchaus lernen, ein Bad zu tolerieren.

Woraus wird Gelatine hergestellt? Herstellung, Erklärung


Gelatine ist ein Produkt, das gerade in der Lebensmittelindustrie häufig zum Einsatz kommt. Es handelt sich dabei um einen Lebensmittelzusatz, mit dem sich beispielsweise Flüssigkeiten wie Soßen andicken und zu einer gelartigen Masse verarbeiten lassen. Aber woher kommt die Gelatine eigentlich und wie wird sie hergestellt?

Der Grundstoff der Gelatine

Gelatine besteht aus einem Protein namens Kollagen, das sich bei den Menschen und auch bei einigen Tieren findet. Kollagen ist unter anderem in den Zähnen, Knochen, den Sehnen, Knorpel, Bändern und in der Haut enthalten und sorgt für Stabilität und Straffheit.

Der Name “Kollagen” kommt aus dem Griechischen und bedeutet so viel wie “Leim erzeugend”. Damit wird darauf angespielt, dass in früheren Zeiten unter anderem im Tischlerei-Handwerk der Leim für die Möbel aus den Knochen von Tieren hergestellt wurde.

Für die Herstellung von Gelatine werden auch heutzutage noch tierische Produkte wie die Fettschichten von Schweinen oder die Häute von Rindern verwendet.

Wie wird Gelatine hergestellt?

Um Gelatine herzustellen, sind verschiedene Herstellungsprozesse notwendig, die nur in großen Fabriken erfolgen können:

Die Vorbehandlung:

Zunächst wird das zu verarbeitende Bindegewebe chemisch vorbehandelt, um das Kollagen aus dem Gewebe zu lösen. Bei Bindegewebe vom Rind wird ein alkalisches Verfahren angewendet. Hierbei wird das entfettete und Salz-befreite Gewebe erst zerkleinert und danach mehrere Wochen in alkalische Laugen eingelegt. Da das Kollagen im Bindegewebe von Rindern stark vernetzt ist, müssen die Laugen die einzelnen Verbindungen erst aufbrechen, bevor das Kollagen aus dem Gewebe gelöst werden kann.

Beim Bindegewebe vom Schwein ist das Kollagen dagegen eher locker vernetzt. Aus diesem Grund kann das Protein in einem sogenannten Säureverfahren durch spezielle Säuren innerhalb eines Tages von den tierischen Fasern getrennt und weiterverarbeitet werden.

Die Extraktion:

Nach der Vorbehandlung liegt das Kollagen in einer Lösung vor, in der aber noch die tierischen Restfasern sowie nicht benötigte Fette enthalten sind. Um diese Nebenprodukte vom Kollagen zu trennen, wird die Proteinlösung mit Wasser angereichert und anschließend in einer Zentrifuge behandelt. Durch die schnellen Drehungen der Zentrifuge werden schwere Bestandteile wie beispielsweise Fett oder Tiermasse aus der Flüssigkeit herausgetrieben und lassen sich gut entfernen.

Die Reinigung:

Um das Kollagen von Salzen, Calcium, Natrium und Resten der Säuren und Basen zu befreien, wird die Lösung in sogenannte Hochleistungsseparatoren geleitet. Es handelt sich dabei um spezielle Filter aus Keramik, die viele kleine Poren haben, durch die nur die reine Kollagenflüssigkeit laufen kann. Um den Vorgang zu beschleunigen, wird die Kollagenflüssigkeit allerdings unter hohem Druck durch die Filter gepresst. Andernfalls würde allein der Reinigungsprozess mehrere Tage dauern.

Um auch letzte Mikrospuren von Salzen aus der Lösung zu entfernen, wird in einem weiteren Reinigungsschritt die Flüssigkeit durch industrielle Behälter geleitet, in denen sich kleine Kunstharz-Kugeln befinden. Die Salzrückstände bleiben an diesen Kügelchen haften, sodass am Ende nur noch das in Wasser gelöste Kollagen aus dem Behälter herausgelangt.

Die Eindickung:

Im nächsten Schritt wird die Flüssigkeit in Vakuum-Eindampfbehälter geleitet und mehrfach erhitzt. Weil das Ganze in einem luftleeren Raum (Vakuum) abläuft, reichen bereits geringe Temperaturen aus, damit die Wasserbestandteile verdampfen. Außerdem bleiben so die Protein-Fasern erhalten, die sehr hitzeempfindlich sind und sich bei Temperaturen über 50°C auflösen würden.

Nach der Eindickung liegt das reine Kollagen als dunkelbraune, dickflüssige Masse vor. Rein optisch erinnert diese Masse an Honig.

Das Trocknen:

In einem letzten Verfahren wird die honigfarbene Masse einmal kurz erhitzt, um Keime abzutöten. Anschließend wird sie heruntergekühlt und durch spezielle Lochscheiben gepresst. Es entstehen sogenannte Gelee-Nudeln. Diese Nudeln werden abschließend mit steriler, warmer Luft getrocknet und danach in großen Mühlen zu feinem Gelatine-Pulver gemahlen. In der Industrie wird dieses Pulver zum Andicken der Lebensmittel verwendet. Für den Gebrauch zuhause gibt es Gelatine aber auch in dünnen Platten. Um diese Platten zu erzeugen, wird das Gelatine-Pulver erneut in Wasser gelöst und auf breite Kühltrommeln aufgetragen. Es entsteht ein hauchdünner Film, der anschließend einen letzten Trocknungsprozess durchläuft und dann in kleine Platten zerschnitten wird, wodurch sich die Gelatine zuhause besser portionieren lässt.

Verwendung von Gelatine

Gelatine findet sich in vielen Süßspeisen und Süßigkeiten. Gumminaschwerk besteht zu einem Großteil aus Gelatine, aber auch für Wackelpudding oder für Tortenfüllungen wird das Produkt benötigt. Da es geschmacksneutral ist, dickt es Speisen nur an, ohne ihren Geschmack in irgendeiner Weise zu verändern.

Warum hat man Ohrenschmalz? Erklärung


Ohrenschmalz ist ein wachsartiges Sekret, welches Mediziner auch als Cerumen oder Zerumen bezeichnen. Es handelt sich um eine Absonderung der Ohrenschmalzdrüsen, welche bei jedem Menschen vorkommt. Die Substanz entsteht im äußeren Gehörgang. Ohrenschmalz kann von Mensch zu Mensch in unterschiedlicher Masse, Farbe und Konsistenz auftreten.

Funktion von Ohrenschmalz

Alle Säugetiere produzieren Ohrenschmalz. Die fettige, gelbe bis bräunliche Substanz hält die Haut im Gehörgang feucht und sorgt dafür, dass abgestorbene Hautzellen, Staub und Schmutz aus dem Ohr abtransportiert werden.

Ohrenschmalz verflüssigt sich in Verbindung mit Talg und kleidet den äußeren Gehörgang mit einer Schutzschicht aus. Mit der Aufnahme von Staub und Schmutzpartikeln verdickt sich das Sekret zusehends.

Das Sekret ist mit antibakteriell wirkenden Stoffen angereichert und hält Insekten oder andere kleinere Fremdkörper davon ab, in den Gehörgang vorzudringen. Wäre kein Ohrenschmalz vorhanden, würde es durch häufiges Waschen oder Schwimmen zu starken Ohrenschmerzen kommen.

Damit besitzt Ohrenschmalz folgende hauptsächlichen Funktionen:

  • Schmieren der Haut im Gehörgang
  • Schutz vor dem Eindringen von Staub, Bakterien oder Fremdkörpern
  • Selbstreinigung des Gehörgangs (Ohrenschmalz wird durch den Kauvorgang zum Außenohr transportiert)

Inhaltsstoffe von Ohrenschmalz

Ohrenschmalz ist eine vielschichtige Substanz aus Fetten, Talg und Wachs. Bislang konnten beinahe 1.000 unterschiedliche Inhaltsstoffe nachgewiesen werden.

Der Inhaltsstoff Lysozym besitzt eine antibakterielle Wirkung und kann Keime und Mikroorganismen abhalten, in den Gehörgang vorzudringen.

Die Inhaltsstoffe im Einzelnen:

  • Kohlenwasserstoffe
  • Wachsester
  • Cholesterin
  • Cholesterinester
  • Triglyceride
  • Squalen
  • Fettsäuren
  • Hydroxysäuren

Eigenschaften von Ohrenschmalz

Der menschliche Gehörgang besitzt eine Länge von etwa drei Zentimetern. Ohrenschmalz wird im äußeren Drittel gebildet. Dort befinden sich die Ceruminaldrüsen. Die Haut des Gehörgangs wächst nach außen und sorgt für eine gleichmäßige Verteilung des Sekrets im äußeren Gehörgang.

Ohrenschmalz ist eine geruchlose Substanz. Sondert das Sekret Gerüche ab, liegt in der Regel eine Infektion der Ohren vor. Das Farbspektrum kann variieren und reicht dabei von einem hellen Gelb über Bernsteinfarben bis hin zu Dunkelbraun.

Die Eigenschaften des Sekrets sind abhängig von der Beschaffenheit und dem Alter der Masse. Auch Alter und Geschlecht des Menschen spielen eine Rolle. Hormonelle Einflüsse sorgen ebenfalls für eine veränderte Beschaffenheit des Schmalzes. So wird Ohrenschmalz mit zunehmendem Lebensalter trockener. Bei Europäern dominiert klebriger bis öliger Ohrenschmalz, während Asiaten trockenen und pulverartigen Schmalz besitzen.

Risiken von Ohrenschmalz

Kommt es zu einer Überproduktion von Cerumen, kann der Gehörgang komplett verschlossen werden. Es entsteht ein Ohrenschmalzpfropf, welcher immer tiefer in den trichterförmig verlaufenden Gehörgang geschoben wird und zu Ohrenschmerzen und Gehörverlust führen kann.

Wattestäbchen und Ohrenschmalz

Obwohl Wattestäbchen seit Jahren im Handel sind und für die Reinigung der Ohren empfohlen werden, ist davon dringend abzuraten. Die Stäbchen eignen sich zwar für die Säuberung des Außenohres, können ab Cerumen im Gehörgang nicht entfernen. Das Sekret wird stattdessen nach hinten geschoben und verhärtet zu einem Pfropf. Dabei entsteht vermehrter Druck auf das Trommelfell und die Hörleistung schwindet.

Die allgemeine Beliebtheit von Wattestäbchen für die Ohrreinigung lässt sich vermutlich mit der bei den ausgeführten Bewegungen ausgelösten Stimulation des Vagusnervs begründen. Das dadurch auftretende angenehme Gefühl verstärkt den Impuls dieses weit verbreiteten Fehlverhaltens.

Behandlung: Ohrenschmalz

Ist der Abtransport des Sekrets gestört, lassen sich verstopfte Ohren nur mit Flüssigkeit säubern. Während des Badens oder Duschens lässt man sich lauwarmes Wasser ins Ohr laufen. Durch intensive Kaubewegungen kann versucht werden, das Sekret zu lösen und zum Außenohr zu befördern. Der Abfluss von Ohrenschmalz wird erleichtert, wenn man das Ohr dabei zur Seite neigt.

Hartnäckige Verstopfungen können mit apothekenpflichtigen Lösungen und Sprays behandelt werden. Bessern sich die Beschwerden nicht, ist ein Hals-Nasen-Ohren-Arzt aufzusuchen.

Hausmittel gegen Ohrenschmalz

Gegen festsitzenden Ohrenschmalz können folgende Hausmittel helfen:

Salzwasser

Auf 100 Milliliter warmes Wasser kann ein Teelöffel Salz gegeben werden. Die Verwendung einer Ballonspritze kann das Einführen der Lösung in den Gehörgang erleichtern. Nach etwa 15 Minuten sollte das Wasser entfernt und das Ohr gereinigt werden.

Öl

Bei der Ohrreinigung mit Öl sollte zu Mandelöl oder Olivenöl gegriffen werden. Das Öl sollte auf Körpertemperatur erhitzt werden. Mithilfe einer Pipette werden einige Tropfen der Lösung ins Ohr geträufelt. Das Öl sollte etwa fünf Minuten im zur Seite geneigten Ohr einwirken. Anschließend werden die Ohren mit lauwarmem Wasser gespült.

Dampf

Mit Wasserdampf lassen sich die Ohren besonders schonend von überschüssigem Ohrenschmalz befreien. Einer Schüssel mit heißem Wasser werden einige Kamillenblüten zugegeben. Die Ohren können bis zu einer Viertelstunde über den aufsteigenden Wasserdampf gehalten werden. Durch ein um den Kopf geschlungenes Tuch verstärkt sich die Wirkung.

Vorbeugung: Ohrenschmalz

Stellt der Körper vermehrt Cerumen her, können folgende Maßnahmen schützen und die Ohrgesundheit erhalten:

  • lediglich die Ohrmuschel wird gereinigt
  • kein Einführen von Wattestäbchen, Haarklemmen oder anderen ungeeigneten Gegenständen in das Innenohr
  • Ohrstöpsel vermeiden, dies hemmt die Selbstreinigung des Gehörgangs
  • regelmäßige Vorsorgeuntersuchungen beim HNO
  • regelmäßige professionelle Reinigung von Hörgeräten
Warum ist der schiefe Turm von Pisa schief? Erklärung


Der Schiefe Turm von Pisa wurde ab dem Jahr 1173 als separater Glockenturm für den bereits bestehenden Dom von Pisa erbaut. Er besitzt eine Höhe von 55,8 Metern bei einer aktuellen Abweichung von 3,9 Metern an der Spitze. Die ursprünglich geplante Höhe von 100 Metern ließ sich aufgrund der eintretenden Neigung nicht mehr verwirklichen.

Ursachen für die Absenkung des Glockenturms: Schiefer Turm von Pisa

Die Stabilität eines Turmes hängt von seiner Höhe, seiner Grundfläche und der Art des verwendeten Materials ab. Ein Fundament unterhalb eines Gebäudes dient dazu, das Gewicht auf den Untergrund zu verteilen, sodass dieser nicht nachgibt und keine Schäden am Bauwerk entstehen. Aus diesem Grund ist auch der vorhandene Boden für die Stabilität zu berücksichtigen.

Bei der Planung des Turmes entschied sich der Architekt für ein drei Meter tiefes Fundament aus Zement und Bruchstein. Bei dieser Entscheidung schenkte er allerdings dem morastigen und sandigen Untergrund zu wenig Beachtung. In der Antike befand sich an dieser Stelle ein Hafenbecken am Rande einer Insel, das durch den angeschwemmten Schlamm des Flusses Arno allmählich versandete. Im Jahr 1173 war dieser Bereich bereits vollständig verlandet, während die Setzung des Bodens weiter andauerte.

Das hohe Gewicht von 14.500 Tonnen bewirkt nicht nur eine Absenkung des Turmes, sondern bewirkt aufgrund des weichen Untergrundes auch eine Drehung um seine eigene Achse. Die Entscheidung für ein rundes Gebäude verstärkte die Probleme: Es lässt sich gegenüber einem eckigen Turm deutlich schwerer ausbalancieren. Gleichzeitig bewahrte der weiche Untergrund das Bauwerk allerdings vor Erschütterungen durch wiederholte Erdbeben.

Schiefer Turm von Pisa: Ablauf der Bauarbeiten und Änderungen in der Planung

Der Glockenturm von Pisa senkte sich bereits während der Bauphase, sodass die Arbeiten ab dem Jahr 1185 zunächst für 90 Jahre unterbrochen wurden. Zu diesem Zeitpunkt waren erst drei Stockwerke fertiggestellt. Um die Absenkung auszugleichen, beschlossen die Erbauer nach Wiederaufnahme der Arbeiten, bei der Konstruktion der nächsten vier Stockwerke den Neigungswinkel anzupassen. Aus diesem Grund lässt sich bei genauer Betrachtung erkennen, dass der Turm ab dem vierten Stockwerk nicht gerade, sondern krumm in die Höhe wächst.

Als weitere Maßnahmen entschied man sich auf der überhängenden Seite des Bauwerks für die Verwendung leichterer Materialien. Dies alles verhinderte jedoch nicht, dass im Jahr 1350 die Abweichung an der Turmspitze bereits 1,4 Meter betrug und verzögerte die Fertigstellung des Gebäudes weiter. Die Glockenstube über dem siebten Stockwerk konnte aus diesem Grund erst 1372 vollendet werden.

Schiefer Turm von Pisa: Sanierungsarbeiten in neuerer Zeit

Im Laufe der Jahrhunderte versuchte man immer wieder, durch eine Sanierung des Turms dessen Neigung zu verlangsamen. Im Jahr 1835 entfernte der Architekt Alessandro Gherardesca den schlammigen Boden unterhalb des Bauwerkes und ersetzte ihn durch ein Fundament aus Marmor. Diese Maßnahme vermochte eine weitere Absenkung allerdings nicht zu verhindern, sodass sich bis 1918 die Neigung an der Spitze auf 5,1 Meter verstärkte. Bis zum Jahr 1990 senkte sich der Turm jährlich um weitere 1 – 1,2 Millimeter ab und erreichte schließlich eine Abweichung von 5,5 Grad.

Dies gab den Ausschlag zu ausgedehnten Sanierungsarbeiten in den Jahren 1990 – 2003. Nachdem die Positionierung von Bleigewichten und Stahlreifen sowie die Verankerung mit Stahlseilen nicht den gewünschten Erfolg zeigten, entfernte man durch schräge Bohrungen tonnenweise Bodenmaterial unter der Nordseite des Turms. Zeitgleich bewirkten Gewichte an der Nordseite ein langsames Aufrichten des Bauwerks. Der Neigungswinkel hat sich seitdem um 44 cm vermindert.

Der Schiefe Turm von Pisa ist zwar weltberühmt, aber nicht einzigartig. Weltweit finden sich weitere Beispiele von Gebäuden, bei denen der instabile Untergrund im Laufe der Zeit zu einer Neigung geführt hat. In Venedig fällt sofort der schiefe Turm der Kirche San Giorgio dei Greci ins Auge – wie die ganze Stadt wurde er auf Pfählen im schlammigen Untergrund errichtet. Darüber hinaus existieren auch Bauwerke mit einem noch stärkeren Neigungswinkel: Mit 5,2 Grad überbietet der Glockenturm von Gau-Weinheim seit 1990 den Turm von Pisa.

Warum hat die Woche sieben Tage? Erklärung


Die Sieben Tage-Woche existiert nun bereits seit Jahrtausenden. Der Ursprung dieser Zeitrechnung lässt sich bis in das alte Babylon zurückverfolgen, wo bereits mit einer Woche von sieben Tagen kalkuliert wurde. Auch in den Weltreligionen tauchte die Woche aus sieben Tagen früh auf. In der Tora und in der Bibel hatte die Woche sieben Tage. Berühmt ist der Spruch: Gott erschuf die Welt in sieben Tagen. Die Woche aus sieben Tagen hat also vor allem historische und religiöse Wurzeln. Doch lässt sie sich auch wissenschaftlich bzw. logisch erklären?

Warum hat die Woche sieben Tage? Erklärung

Die Woche ist wie Jahre, Monate und Tage eine etablierte Zeiteinheit – und definiert heute das Leben von Milliarden von Menschen. Doch während Jahre, Monate und Tage sinnvoll an die Zyklen von Erde, Mond und Sonne gebunden sind, lässt sich eine Woche aus sieben Tagen wissenschaftlich wesentlich schwerer erklären. In gewisser Weise ist die Woche ein Sonderfall, der zwischen Zeitrechnungen von Sekunden bis Jahrhunderten heraussticht. Die Woche aus sieben Tagen scheint mehr eine historische Setzung, als eine logische Notwendigkeit zu sein. Tatsächlich gab es in der Vergangenheit verschiedenen Kulturen, die Wochen aus fünf, acht oder zehn Tagen nutzten. Gegenüber dem Modell der Woche mit sieben Tagen gäbe es historisch also mehrere Alternativen.

Die Woche aus sieben Tagen passt nicht perfekt in die Zeitrechnung eines Jahres. Ursprünglich erschaffen, um einen Monat aus 28 Tagen in vier Wocheneinheiten aus sieben Tagen zu unterteilen, wirkt diese Form der Woche in Monaten mit 30 oder 31-Tagen vergleichsweise chaotisch. Doch Versuche, die Woche zu reformieren, scheiterten in der Vergangenheit an Gewohnheiten und religiösen Befindlichkeiten. Auch wenn sich eine Woche aus sieben Tagen logisch also nur bedingt erklären lässt, ist sie geschichtlich und religiös nicht wegzudenken.

Geschichte – wie die Sieben-Tage-Woche entstand

In der vorchristlichen Zeit Babylons suchte man nach Lösungen, den recht langen Monat aus 28 Tagen in kleinere Zeiteinheiten einzuteilen. Im Epos Gilgamesch nahm die sieben ebenso eine große Rolle ein, wie im damaligen Alltag der Menschen: der 7., der 14., der 21. und der 28. Tag des Monats wurde zum heiligen Tag erklärt. Diese Tage fungierten als Ruhetage, den Göttern wurden Opfergaben dargebracht. Die Woche aus sieben Tagen gab es in einer Frühform also bereits im historischen Babylon.

Die Zahl sieben und die Zeitspanne von sieben Tagen übernahm zugleich in der Tora und der Bibel eine zentrale Funktion. Adoptiert wurde die Idee einer Woche mit dieser Tagesanzahl früh auch durch das Persische Reich und in der hellenischen Astrologie. Während die Römer lange ihre eigene Zeitrechnung mit dem sogenannten Nundinum verfolgen, der Woche aus acht Tagen, wurde spätestens mit der Herrschaft von Augustus dem heute bekannten Modell eine höhere Bedeutung zugetragen.

Mit der Ausbreitung des Christentums in Europa wurde die Idee einer Sieben-Tage-Woche immer weiter verfestigt. Dabei übernahm der Sonntag eine zentrale Rolle. An jenem Tag beginnt nach christlicher Idee die Woche. Die Verwendung einer Woche von sieben Tagen lässt sich zudem in China im 4. und in Japan im 11. Jahrhundert historisch belegen. Nach und nach haben die sieben Tage so eine internationale Bedeutung erlangt.

Je mehr Termine und Kalender in der Planung des Alltags in den Fokus rückten, desto zentraler würde die Einheit der Woche. So gab es spätestens im 19. Jahrhundert trotz international einiger alternativer Modelle eine deutliche Vereinheitlichung der Wochenzeitrechnung. Übrigens: die Namen der sieben Wochentage verdanken sich den sieben klassischen Planeten und den damit verbundenen Gottheiten, die in antiker Zeit bekannt waren. So wurde der Sonntag einst dem Sonnengott Helios, der Montag der Mondgöttin Luna etc. gewidmet. Viele der heutigen deutschen Tagesnamen wurden aus früheren Bezeichnungen dieser Art germanisiert.

Alternativen – Fünf-, Acht- oder Zehn-Tage-Woche

Zu den bekanntesten Alternativmodellen der Sieben-Tage-Woche zählt das römische Nundinum. Zwar bedeutet Nundinum wörtlich in etwa „neuntägig“, in Wirklichkeit handelte es sich jedoch um eine Acht-Tage-Woche. Jeder Monate hatte so vier Feiertage, die sich an den acht Tagen des damaligen Kalenders orientierten: Kalenden, Nonen, Iden und Tubilustrium. Ähnlich wie die sieben Tage bei den Babyloniern kam der Woche mit acht Tagen so eine Art heilige Bedeutung zu. Zudem wurden mit der Zeitrechnung des Nundinum die Markttage eines Jahres bestimmt. Wie die Römer sollen auch die Kelten einen Kalender mit einer Woche von acht Tagen verwendet haben. Die Abschaffung des Nundinums begann bereits unter Augustus, offiziell wurde die Sieben-Tage-Woche jedoch erst unter Kaiser Konstantin im 4. Jahrhundert n. Chr. etabliert.

Genutzt wurde zeitweise auch die sogenannte Dekade, die Woche mit zehn Tagen. Bereits das Alte Ägypten teilte das Kalenderjahr in 36 Wochen mit je 10 Tagen ein. Zwischen 1792 und 1806 – als die Französische Revolution in Frankreich stattfand – gab es den sogenannten Französischen Revolutionskalender, der ebenso zehn Tage verwendete. Doch unter Napoleon wurde diese Entwicklung wieder zurückgedreht.

Zu den wiederkehrenden Mustern der historischen Kalenderwoche gehören zudem auch fünf Tage. Die Azteken beispielsweise hantierten mit Zeitphasen von fünf bis dreizehn Tagen. Im Hinduismus Balis wird heute noch auf religiöser Ebene gleich mit mehreren Tagesabschnitten umgegangen, die von drei über fünf bis sieben Tage dauern. Klar ist: Obwohl die Woche mit sieben Tagen heute unumstößlich scheint, gab es historisch zahlreiche Alternativmodelle. Die Sieben-Tage-Woche verdankt der Geschichte und Religion ihre Durchsetzung, logisch wären jedoch auch andere Rechenmodelle denkbar.

Überblick – Warum die Woche sieben Tage hat

Die siebentägige Woche ist den Babyloniern sowie dem Judentum und Christentum zu verdanken. Ursprünglich hatten die sieben Tage bei den Babyloniern eine rituelle Funktion, durch die Globalisierung der Welt und die Verbreitung der Weltreligionen hat sich das Modell jedoch nach und nach international durchgesetzt. Wochen mit anderen Tageszahlen sind logisch durchaus denkbar, doch religiöse Bedeutung und Gewohnheit haben das Modell zu einem unverzichtbaren Bestandteil unserer alltäglichen Zeitrechnung werden lassen.

Was ist der Unterschied zwischen E5 und E10 Benzin? Erklärung


Die beiden Superkraftstoffe E5 und E10 unterscheiden sich durch die Beimischung von Bioethanol. Dies ist aus pflanzlichen Rohstoffen gewonnener Äthylalkohol, der wie Benzin verbrennungsfähig ist und als Beimischung im Superkraftstoff dessen Umweltbilanz etwas aufwertet.

E5 enthält 5 % Bioethanol, bei E10 sind es 10 %. Das Superbenzin E10 wurde an deutschen Tankstellen im Jahr 2011 eingeführt. Anfangs bestanden (teilweise berechtigte) Bedenken, dass der höhere Bioethanolanteil dem Motor schaden könnte, doch Fahrzeuge der Baujahre ab spätestens 2012 sind praktisch durchweg E10-fähig. Kraftfahrer finden Listen im Internet, die anzeigen, ob ihr eigener Motor mit dem günstigeren E10 betankt werden kann. Wichtig zu wissen: Der Anteil von Bioethanol kann in modifizierten Motoren sogar noch viel höher (bis 85 %) ausfallen. Brasilien etwa, das über sehr viele pflanzliche Rohstoffe verfügt, setzt konsequent auf solche Fahrzeuge.

Wie wird Bioethanol gewonnen?

Die Ausgangsstoffe sind überwiegend die Agrarprodukte Zuckerrüben, Weizen, Zuckerrohr und Mais, doch auch aus Holz, Stroh und Bioabfällen lässt sich Bioethanol gewinnen, wenn auch nicht sehr effizient. Die Herstellung des Ethanols erfolgt wie bei herkömmlichem Alkohol durch die Fermentation (alkoholische Gärung). Der in den Pflanzen enthaltene Zucker wird dabei durch Mikroorganismen zu Alkohol vergärt. Anschließend muss eine Reinigung durch thermische Trennverfahren erfolgen, damit das Bioethanol zum brennfähigen Treibstoffzusatz wird.

Umweltbilanz von Bioethanol

Das Bioethanol emittiert bei seiner Verbrennung prinzipiell nicht mehr CO₂, als die Pflanzen bei ihrem Wachstum aus der Umwelt aufgenommen haben. Wenn man dieser sehr pauschalen Betrachtung folgt, verbrennt Bioethanol umweltneutral. Die höhere Beimischung im E10 seit 2011 soll die Umweltbilanz des deutschen Straßenverkehrs verbessern.

Auswirkungen von Bioethanol auf den Motor

Ältere Fahrzeuge der Baujahre vor 2012 (aber nicht alle!) könnten unter Umständen Bioethanol schlecht vertragen. Der Biokraftstoff greift unter anderem Gummidichtungen an, was zu Undichtigkeiten führt. Auch kann ihre Leistung durch die Beimischung signifikant sinken, was bei jüngeren Motoren nicht mehr zu erwarten ist. Diese verbrauchen nach aktueller Studienlage durchschnittlich 2 % mehr durch die Betankung mit E10.

Im Jahr 2011 hatten der ADAC und einige Hersteller Tests zur Verträglichkeit von E10 durchgeführt und in der Tat bei einigen Fahrzeugen Undichtigkeiten festgestellt. Allerdings galt auch schon damals, dass solche Schäden nur beim durchgängigen Betanken mit E10 zu erwarten sind, wenn das Fahrzeug für den Kraftstoff nicht geeignet ist. Eine einmalige oder gelegentliche Tankfüllung schadete schon damals nicht.

Spätestens ab 2012 reagierten die Hersteller auf E10 und bauten ihre Motoren so um, dass diese die höhere Beimengung von Bioethanol verkraften. Einige Hersteller, darunter beispielsweise Porsche, hatten schon in den 1990er Jahren Motoren gebaut, die auch höhere Beimischungen von Bioethanol vertragen. Der Übergang zum E10-Kraftstoff war ohnehin fließend. 5 % Beimischung von Bioethanol im Kraftstoff Super E5 sind schon länger obligatorisch. E5 und E10 unterscheiden sich also lediglich durch 5 % mehr Bioethanol. Motoren können wie erwähnt bei entsprechender Auslegung auch noch viel mehr Bioethanol vertragen. Wer aber noch ein älteres Fahrzeug fährt, kann sich an einer Liste aus dem Jahr 2011 zur E10-Verträglichkeit orientieren (nach der Einleitung etwas weiter unten).

Ethanolbeimischungen in anderen Regionen

An brasilianischen Tankstellen gibt es weder E5 noch E10: Der Bioethanolanteil beginnt dort bei 25 % (E25) und kann bis E95 reichen (sogenannter Flexkraftstoff). In den USA wird schon seit den 1970er Jahren mindestens E10 getankt. Die gängigen Mischungen enthalten 2, 5, 10, 15, 25, 50, 85, 95 und auch 100 % Bioethanol. Das muss bei entsprechender Motorauslegung keinesfalls zu einer schlechteren Leistung führen, im Gegenteil: Durch eine höhere Klopffestigkeit von Bioethanol kann E85 sogar die Motorleistung deutlich steigern. Die Motoren müssen nur entsprechend ausgelegt sein.

Bis 5 % Beimischung von Bioethanol verträgt jeder Motor, weshalb die EN 228 diese Beimischung grundsätzlich zulässt. E10 vertragen wie erwähnt die Neufahrzeuge ab 2012, Ottomotoren mit voll geregeltem Kraftstoffsystem können im Prinzip auch bedenkenlos mit E25 betankt werden. Dies funktioniert über eine großzügig dimensionierte Korrekturregelung der Einspritzung via Lambdasonde. Es gab in Deutschland sogar bis 2016 wenige Tankstellen, die Beimischungen bis E85 anboten. Der Verbrauch steigt mit zunehmendem Bioethanol, bei E85 kann er bis 30 % über dem Verbrauch mit E5 liegen. Der Heizwert von Bioethanol liegt unter dem von Superbenzin.

Was ist der Unterschied zwischen Blackout und Stromausfall? Erklärung


Stromausfälle betreffen im Regelfall kurze Zeitspannen. In Deutschland dauert ein durchschnittlicher Ausfall in der Stromversorgung lediglich 12,2 Minuten – kaum eine Viertelstunde. Ein Blackout tritt dagegen großflächig und länger anhaltend auf. Dabei sind grundsätzlich kritische Infrastrukturen gefährdet.

Blackout – der umfassende Stromausfall

Ein Blackout ist zunächst der englische Begriff für einen Stromausfall. Allerdings ist nicht jeder Stromausfall gleichzeitig ein Blackout. Denn der Blackout ist grundsätzlich durch umfassende Ausfälle gekennzeichnet. Sie treten nicht nur in eng begrenzten Regionen auf, sondern großflächig. Das betrifft zum Beispiel Bundesländer oder sogar ganze Staaten. Hierbei fallen diverse, wichtige Elemente einer Gesellschaft aus. Gleichzeitig trifft der Blackout zahlreiche Haushalte und Privatpersonen völlig unvorbereitet. Speziell bei einem weitreichenden Ausfall der Energieversorgung gibt es Probleme, weil der Strom nicht so zügig wiederhergestellt wird, wie es bei einem herkömmlichen Stromausfall der Fall wäre.

Ursachen für einen Blackout

Warum tritt ein Blackout auf? Kommt es zu einem derart übergreifenden Ereignis, sind verschiedene, schwerwiegende Ursachen denkbar. Demnach kann in Kriegsgebieten der Beschuss kritischer Systeme einen solchen Blackout zur Folge haben. Gleichzeitig können Hacker die zuständigen Systeme gezielt angreifen, um den Blackout zu provozieren. Nicht zuletzt besteht die Möglichkeit, dass eine technische Störung weitreichende Ausfälle zur Folge hat.

Was fällt bei einem Blackout aus?

Ampeln und Straßenbeleuchtungen sind ebenso von einem Blackout betroffen wie Alarmanlagen oder die Notrufzentralen. Telefonnetze, Krankenhäuser und Verwaltungen fallen ebenfalls aus. Im Kern betrifft ein Blackout stets eine gesamte Gesellschaft. Da Verkehrsleitsysteme ebenfalls ausfallen, führt dies unweigerlich zu Chaos auf den Verkehrsstraßen. Gestörte Alarmanlagen begünstigen Einbrüche und Plünderungen.

Die kritischen Strukturen, wie Krankenhäuser oder Pflegeeinrichtungen, wären besonders betroffen. Bei einem Blackout bekämen diese Institutionen ebenso keinen Strom. Dadurch wären sie auf die Notversorgung durch integrierte Notstromaggregate angewiesen. Solche Aggregate oder Akkus erhalten die Stromversorgung im Notfall für einige Stunden aufrecht. Da ein Blackout schlimmstenfalls Tage oder Wochen andauert, würde dies zu Problemen in den Kliniken und Pflegeheimen führen.

Weitere betroffene Systeme sind Fahrstühle und Bankautomaten. Insbesondere bei den Geldautomaten und Kassensystemen zeigen sich die enormen Auswirkungen eines Blackouts. Ebenso betrifft ein solcher Ausfall die automatischen Türen in Supermärkten – vorausgesetzt der jeweilige Laden hat kein separates Notaggregat, um die Stromversorgung zumindest kurzzeitig zu sichern.

Schwerwiegendere Auswirkungen betreffen die Wasser- und Abwasserversorgung. Denn Leitungswasser käme in einem solchen Fall nicht mehr aus dem Hahn. Zudem könnten Abwässer nicht länger geklärt werden. Die notwendigen Pumpen, die für die Wasserverteilung und Wasseraufbereitung zuständig sind, würden bei einem Blackout ausfallen. Nicht zuletzt beeinträchtigt ein derart umfassendes Ereignis die Telefonnetze, inklusive der Mobilfunknetze.

Stromausfall – kurzzeitig und eng begrenzt

Stromausfälle sind durch den Ausfall oder die Betriebsstörung bei einzelnen Netzbetreibern gekennzeichnet. Das Risiko einer Störung besteht grundsätzlich. Das kann beispielsweise bei einem Unwetter vorkommen, wenn Bäume auf Leitungen stürzen oder Kabelverbindungen gestört und beschädigt sind. Ein solcher Ausfall dauert höchstens wenige Stunden, ehe er behoben ist. Daneben tritt ein Ausfall der Stromversorgung in einzelnen Wohnungen immer wieder auf. Welche Ursachen hat ein Stromausfall demnach?

Ursachen für Stromausfälle

Ein Stromausfall, der in der eigenen Wohnung auftritt, kann beispielsweise von einem Kurzschluss herrühren. Eine kaputte Leitung kommt ebenso infrage. Normalerweise zeigt sich ein Kurzschluss – zum Beispiel, weil zu viele Verbraucher gleichzeitig angeschlossen waren – durch eine Sicherung, die »rausfliegt«. Hierbei ist ein Schalter zu bedienen und die verursachenden Geräte auszuschalten, um das Problem zu lösen.

Eine defekte Leitung tritt mitunter im Haus auf. Eine umliegende Baustelle verursacht gegebenenfalls derartige Schwierigkeiten. Sind Bauarbeiter oder Handwerker unachtsam, führt dies unter Umständen zu elektrischen Problemen. Das Resultat: Der Strom ist »weg«.

Was ist von einem Stromausfall betroffen?

Städtische Systeme und Anlagen, wie Ampeln oder Straßenleuchten sind im Regelfall nach Straßenzügen geschaltet. Fällt der Strom in einem Teil der Gemeinde aus, sind dort ebenfalls die Lampen betroffen. In anderen Stadtteilen funktionieren sie dagegen weiterhin.

Ein Stromausfall, der auf die eigene Wohnung begrenzt ist, betrifft entweder den kompletten Wohnraum (beispielsweise durch Fehler bei Bauarbeiten) oder einzelne Areale, wie zum Beispiel Lampen oder ausschließlich die Küche. Hierbei lässt sich die Ursache zügig finden und beheben.

Zusammenfassung – Blackout vs. Stromausfall: Erklärung, Unterschiede

Ein Stromausfall kann prinzipiell auftreten. Er ist lokal begrenzt und von kurzer Dauer – in Deutschland beschränkt sich ein solches Ereignis auf durchschnittlich wenige Minuten. Dagegen ist ein Blackout generell auf enorme Flächen ausgelegt mit weitreichender Wirkung. Er tritt selten auf, betrifft jedoch vielfältige Systeme. Darunter sind auch solche von kritischer Natur. Im Gegensatz dazu sind Stromausfälle eher auf lokaler, kommunaler Ebene verortet. Netzbetreiber können einen Ausfall in der Stromversorgung üblicherweise schnell beheben.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung


Wer bereits etwas älter ist, wird die Fragen in der Überschrift sehr gut verstehen können. Da wir uns im Laufe unseres Lebens ständig verändern und unsere Persönlichkeit sich oftmals den gegebenen Umständen anpasst, empfinden wir die Zeit stets anders. Ein weiterer Grund ist vor allem das Empfinden der Zeit selbst, welches sich bei verschiedenen Tätigkeiten anders gestaltet.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung

Wenn man älter wird, ist man automatisch auch ruhiger, da man schon alles kennt und nicht das ständige Bedürfnis hat, alles ausprobieren zu wollen. Ist man hingegen noch jung, gestaltet sich der Alltag alleine schon wegen Schule und Co. weitaus dynamischer.

Wer in seinen besten Jahren dann auch noch im Homeoffice arbeitet oder aber anderweitig selbstständig ist, wird die Zeit wahrscheinlich noch schneller vorbeiziehen sehen. Wenn wir uns auf eine einzige Sache fokussieren und uns nur schwer oder gar nicht ablenken lassen, entsteht nach einiger Zeit sowas wie ein Trance-ähnlicher Zustand. Dieser ist bei älteren Menschen ausgeprägter, da der Stoffwechsel und im Allgemeinen alles andere ebenso langsamer funktioniert, als bei einem Jungspund. Man kann sich im Alter also länger auf eine einzige Sache (bzw. seine Arbeit) konzentrieren, da man es über die Jahre hinweg erlernt hat.

Was kann ich tun, damit die Zeit langsamer vergeht?

Damit die Zeit langsamer vergeht, kann man viele verschiedene Dinge tun. Nachfolgend werden die beliebtesten Methoden vorgestellt. Viel Spaß beim Durchlesen!

Öfter auf die Uhr schauen

Dieses Phänomen haben die meisten wohl eher als negative Erfahrung verbucht. Vorwiegend schauen wir nämlich ständig auf die Uhr, wenn wir auf etwas warten oder schnellstmöglich ein gewichtiges Ereignis eintreten soll. Da dies dann nicht passiert und die Sekunden genaugenommen recht langsam vergehen, wenn man sie beobachtet und an nichts anderes denkt, ist dies eine gute Methode, die Zeit langsamer vergehen zu lassen.

Selbst wenn man also gerade Spaß hat und sich nicht stören lassen will, sollte man jede Stunde einen kurzen Blick auf die Uhr werfen und dies zur Gewohnheit machen. Prompt hat man eine bessere Übersicht über seine jeweilige Aktivität und weiß zudem stets genau, ob es nicht doch lieber wieder Zeit ist, sich um etwas Wichtigeres zu kümmern, als was auch immer gerade gemacht hat.

Sport treiben

Es ist wirklich wahr: Wer in der Morgenstunde regelmäßig eine Stunde lang läuft, wird anschließend den ganzen Tag lang weitaus entspannter werden und produktiver sein, als jemand, der eher unsportlich ist. Auf diese Weise bringen wir unsere Energien in Einklang und die Zeit vergeht dann auch noch im Alter nicht mehr ganz so schnell. Doch warum ist das so?

Da ältere Körper wie auch ältere Autos länger brauchen, um warmzuwerden, müssen sie gefordert werden. Heranwachsende Körper sind immerhin auch ohne Sport bereits ständig beschäftigt, denn es müssen fortlaufend neue Zellen zum Wachsen produziert werden. Ausgewachsene Menschen sind zudem etwas anfälliger fürs faul Herumliegen und Nichtstun.

Neben dem Laufen kann man aber auch andere Dinge tun, die etwas Lebensschwung in den alten Körper jagen (wie etwa Yoga). Das ist nicht nur gesund, sondern fühlt sich auch super an. Wenn wir Sport treiben und zum Beispiel eine längere Strecke laufen müssen, zieht sich die Zeit enorm und das ganz egal, in welchem Alter man auch ist.

Während man sich eine halbe oder eine Stunde lang durchquält, passieren im Körper jedoch eine Menge positiver Ereignisse.

Früher noch waren wir als Höhlenmenschen täglich dazu gezwungen uns zu bewegen und etwa jagen oder sammeln zu gehen.

Heutzutage muss man das jedoch schon fast gar nicht mehr. Dank des Internets arbeiten viele nun im Homeoffice oder aber sitzen den ganzen Tag in Büros herum. Irgendwann kommt der Körperfluss bei einem solch tristen Alltag nahezu zum Stillstand, sodass vor allem ältere Menschen das Gefühl bekommen können, dass die Zeit schneller vergeht.

Immerhin wird alles zur Routine und wir trauen uns dann schon fast gar nicht mehr, diese zu ändern, aus Sorge, der Alltag würde noch anstrengender und kürzer werden. Dem ist jedoch bei Weitem nicht so, denn Bewegung macht uns im Gegenteil aktiver und lässt uns mehr Zeit genießen.

Die Laune anheben

Wer andauernd schlechte Laune hat und etwas älter ist, wird sicherlich bemerkt haben, dass die Zeit in einem solchen Gemütszustand scheinbar schneller vergeht. Um diesem Phänomen vorzubeugen, sollte man versuchen sich mit Menschen zu umgeben, die einem Freude bereiten.

Ist dies nicht möglich, so entfernt man sich eben von den schlechten Kollegen, die einem die Laune vermiesen können und verbringt seine Zeit lieber alleine oder aber mit netteren Kollegen. Auch Chats sind sehr gut dazu geeignet, seine Laune anzuheben. Im Internet trifft man immer mal wieder auf Menschen aus den verschiedensten Ländern und unterschiedlichsten Klassen.

Solche Konversationen oder modernen Brieffreundschaften sind in der Regel zwar kein Ersatz für echte Interaktionen, jedoch kommen sie dem schon sehr nah und können eine gute Alternative darstellen.

In diesen Zeiten ist das Chatten bereits fester Bestandteil in vielen Leben. Auf diese Weise kann man mit all seinen Liebsten im ständigen Kontakt sein und die Zeit vergeht daraufhin nicht mehr so schnell. Ist man dank eines Kompliments im Chat also nicht mehr so gelangweilt und besser gelaunt, vergeht die Zeit ein wenig langsamer als gewohnt.

Produktiv sein

Heutzutage kann man im Internet eine Menge machen und damit eventuell sogar Erfolge verbuchen. Die Rede ist von moderner Arbeit. Mittlerweile kann man Online-Shops ganz einfach von zu Hause aus betreiben und braucht hierfür dank Dropshipping nicht einmal mehr die Finger dreckig zu machen.

Es ist daher immer eine gute Idee sich zumindest Gedanken darum zu machen, wie man etwas vom Internetkuchen abhaben kann. Der beste und wirklich effektivste Weg ist es sich eine Sparte auszusuchen und anschließend Vollgas zu geben. Wer produktiv ist, wird immerhin die Zeit zu schätzen lernen.

Sobald sich nämlich erste Erfolge zeigen, ist man motiviert weiterzumachen. Doch auch wenn es nicht unbedingt etwas mit dem Internet zu tun hat, so ist die Produktivität dennoch ein wichtiger Faktor. Wer zum Beispiel einfach nur gerne malt oder zeichnet, tut ebenfalls etwas Gutes für sein Wohlbefinden und das langsamere Verstreichen der Zeit. Man blickt etwa auf Gestern zurück und ist zufrieden mit dem vergangenen Tag, da man viel geschafft oder gemacht hat.

Extremsport

Selbstverständlich soll man sich jetzt nicht als Opa aufs Skateboard stellen. Aber Spaß beiseite: Bungeejumping ist zum Beispiel eine sehr gute Methode, um seine innere Balance wieder auszugleichen. Umso mehr man sich davor fürchtet, desto besser ist die anschließende Wirkung. Nachdem man seinen inneren Schweinehund überwunden hat, kann man sich an einen der Anbieter in der Nähe wenden.

Nach einem solch heftigen Adrenalinstoß, programmiert sich der Körper sozusagen neu und kann auch das Empfinden des schnelleren Zeitzyklus eindämmen. Dies verhält sich hier also sozusagen ungefähr so, wie nach einem wichtigen Wettkampf beim Training oder aber einer Rauferei im Jugendalter.

Auch ein verbaler Austausch kann die Gemüter ganz schön erhitzen und uns somit anschließend weitaus aufmerksamer für die Zeit machen. Hierfür ist das Adrenalin verantwortlich, welches unseren gesamten Körperhaushalt richtig schön aufwirbelt und anspornt.

Diskussionsrunde

Wer nicht unbedingt streiten möchte, um die Zeit langsamer vergehen zu lassen, sollte sich an einer Diskussionsrunde versuchen. Hierfür muss man nicht unbedingt in einen bestimmten Club gehen oder aber einem Schützenverein beitreten. Auch in der eigenen Familie kann man wunderbar diskutieren und Debatten abhalten.

In dieser Zeit können alle sich beteiligen und etwa ihre Meinung zum neuen Fernseher kundtun. Somit fühlt sich jeder gehört und der Hausfrieden ist sichergestellt. Werden es hingegen hitzige Argumentationen und Diskussionen, wird es ebenso interessant sein. Hier kann man gut Dampf ablassen und seine Meinung energisch vertreten. Da dies nur hin und wieder vorkommen sollte, ist es im Grunde ganz gesund seine Psyche auf diese Weise zu bedienen.

Nach einem verbalen Schlagabtausch mit seinen Freunden oder innerhalb der Familie ist der Gemütszustand meist fitter und alarmiert. Somit geht auch die Zeit langsamer vorbei, da sich kein lähmendes Verhaltensmuster im allgemeinen Alltag festsetzen kann.

Fazit: Warum geht vergeht die Zeit schneller, wenn man älter wird?

Alles in allem ist der Verlauf der Zeit nicht so schwer zu verstehen. Hat man zu viel oder zu wenig Spaß, während man etwas macht, vergeht die Zeit auch bei jüngeren Menschen recht schnell. Da in unserem Kopf fest verankert ist, dass wir (je älter wir werden) dem Tod näher kommen, vergeht die Zeit (gefühlt) deshalb wahrscheinlich ebenso etwas schneller.

Das Problem hierbei ist etwa die weiter oben erwähnte Tatsache, dass wir uns mehrheitlich nur auf die schlechten Gedanken stützen, anstatt ein positives Denkverhalten zu entwickeln.

Wer es schafft, auch noch im älteren Abschnitt seines Lebens etwas offener für gute Laune zu sein, wird es also genauso machen wie die jüngeren Spunde und seinen Alltag aktiver gestalten.

Auf diese Weise kann man viele verschiedene Dinge ausprobieren, die man vorher nicht gekannt hat. Weiterhin wären auch längere Bus- oder Zugreisen zu nennen. Freut man sich zum Beispiel, mit dem Zug zu seinen Freunden, Bekannten oder Verwandten zu fahren, schaut man viel öfter auf die Uhr und die Zeit geht somit scheinbar langsamer vorbei.

Wer sich also dazu zwingen kann, seinen Alltag disziplinierter und vor allem facettenreicher zu gestalten, schafft es, sich dem Phänomen Zeitbeschleunigung im Alter zu entziehen. Selbst wenn man im Moment so empfindet, heißt es also nicht, dass es auch für immer so bleiben muss.

Warum hat der Februar nur 28 Tage? Erklärung


Die Tatsache, dass der Februar nur 28 Tage hat, verdanken wir den alten Römern. Im Römischen Reich begann das Jahr nicht im Januar, sondern im März. Der Februar war also der letzte Monat. Außerdem hatte das Jahr nur 355 Tage. So konnte ein Monat nie länger als 29 Tage sein. Die restlichen 28 Tage bleiben für den Februar übrig.

Februar 28 Tage: Kalenderreform durch Julius Cäsar

Im Jahre 45 v. Chr. führte Julius Cäsar eine umfassende Kalenderreform durch, die auch heute noch größtenteils ihre Gültigkeit besitzt. Maßgebend für die Länge eines Jahres waren nun nicht mehr die Mondphasen, sondern die Sonne. Die Erde umrundet die Sonne einmal innerhalb von 365 Tagen, 5 Stunden, 49 Minuten und 3 Sekunden. Ein Schaltjahr, das diesen Unterschied ausgleichen sollte, war nach der Kalenderreform durch Julius Cäsar zunächst unbekannt. Es sollte erst viel später eingeführt werden.

Das Jahr beginnt im Januar – die meisten Monate haben 30 oder 31 Tage

Heute markiert nicht mehr der März, sondern der Januar den Beginn eines neuen Jahres. Der Januar, der März, der Mai, der Juli, der August, der Oktober und der Dezember haben 31 Tage, während der April, der Juni, der September und der November jeweils 30 Tage haben. Nur der Februar ist mit seinen 28 Tagen die große Ausnahme.

Der Februar hat 28 Tage – im Schaltjahr 29 Tage

Um auf eine Gesamtzahl von 365 Tagen pro Jahr zu kommen, bleiben für den Februar 28 Tage. Alle 4 Jahre hat der Februar 29 Tage. Mit dieser Regelung soll erreicht werden, dass sich die Jahreszählung an das Sonnenjahr angleicht. Addiert man die 5 Stunden, 29 und 3 Sekunden pro Jahr, die die Erde länger als 365 Tage für einen Umlauf benötigt, kommt alle 4 Jahre ungefähr ein Tag zusammen. Genau das ist der Grund für die Einführung des Schaltjahres, in dem der Februar dann 29 Tage hat.

Hatte der römische Kaiser Augustus etwas mit dem kurzen Februar zu tun?

Es existiert eine Legende, nach der wir den kurzen Februar nicht nur dem Römischen Kalender und der Kalenderreform, sondern in erster Linie dem Kaiser Augustus zu verdanken haben. Er war so eitel, dass er forderte, dass ein Monat nach ihm benannt wird. Das sollte der August sein. Es wird gesagt, dass er ursprünglich nur 30 Tage hatte und dass es Kaiser Augustus nicht ausstehen konnte, dass sein Monat einen Tag kürzer als der Juli war. Also fügte er einen Tag an und der August hatte fortan 31 Tage. Diesen einen Tag nahm er dem Februar weg, der wie viele andere Monate auch 29 Tage hatte.

Diese Legende hat sich jedoch als unwahr erwiesen und konnte von vielen Experten widerlegt werden. Es ist also davon auszugehen, dass der Kaiser Augustus nichts mit dem kurzen Februar zu tun hat.

Kalenderreform 1582 – Papst Gregor XIII – Schaltjahr wird eingeführt

Die letzte bedeutsame Kalenderreform geht auf das Jahr 1582 zurück. Der Kalender, der von Julius Cäsar eingeführt wurde, trug den Namen Julianischer Kalender, während der Kalender nach der Reform von Papst Gregor XIII. Gregorianischer Kalender genannt wird. Für den Namen Julianisch stand der Name Julius und für den Namen Gregorianisch der Name Gregor Pate. Der Kalenderreform 1582 haben wird das Schaltjahr zu verdanken. Vorher gab es das noch nicht. Die Folge davon war, dass sich der Frühlingsanfang im Laufe der Zeit schrittweise verschoben hat. Mit der Einführung des Gregorianischen Kalenders wurde der Lauf der Erde um die Sonne mit dem Kalender in Einklang gebracht.

Warum sind Vögel wichtig (für die Umwelt)? Erklärung, Nutzen


Es gibt sie in allen möglichen Formen und Varianten – die Vögel unserer Erde. Ob groß, klein, Zugvogel oder nicht – sie alle tragen dazu bei, dass unser wertvolles Ökosystem intakt bleibt.

Welchen Nutzen haben Vögel für die Umwelt / Klima? Erklärung

Spechte bauen ihre Höhlen in alten oder kranken Bäumen und ernähren sich von den unter Rinde lebenden Insekten. Aasgeier kümmern sich um tote Tiere, gehören also zu der „Gesundheitspolizei“ im Tierreich – genau wie die Hyänen und andere Aasfresser. Vögel wie der Kolibri wiederum helfen bei der Bestäubung von Pflanzen, indem sie von Blüte zu Blüte fliegen.

Es gibt noch mehr Beispiele, die aufzeigen, dass Vögel wichtige Aufgaben in unserem Ökosystem übernehmen. Sie sind ein wichtiger Bestandteil des Kreislaufs der Natur und sorgen für das nötige Gleichgewicht.
Die wesentlichen, nützlichen Aufgaben der Vögel sind vielfältig. Zu den wesentlichen zählen folgende:

  • Schädlingsbekämpfung
  • Bestäubung und Samenverbreitung
  • Regenerierung von Wäldern und Landschaftsgestaltung
  • Teil der Nahrungskette
  • Vernetzung von Lebensräumen
  • Belebung von Städten und Inspirationsquelle

Schädlingsbekämpfung

Dadurch, dass viele Vögel sich von Insekten ernähren, treten Schädlinge in einer Zahl auf, die das Ökosystem nicht beeinträchtigt. Bäume bleiben gesund, Plantagen bleiben von extremem Raupenfraß verschont und Pflanzen im Allgemeinen, die wiederum wichtig für unser Ökosystem sind, können gedeihen.

Die Schädlingsbekämpfung bezieht sich nicht nur auf Insekten. Auch Mäusepopulationen müssen im Zaum gehalten werden. Hier sorgen Greifvögel wie Milane, Bussarde und Eulen für das Gleichgewicht.
Manche Vögel haben sich sogar darauf spezialisiert, Fische, Schlangen oder andere Tiere zu erbeuten, deren Reduktion ebenfalls wichtig für das Ökosystem ist.

Bestäubung und Samenverbreitung

Für die Vermehrung von Pflanzen muss der Pollen von Blüte zu Blüte getragen werden. Diese Aufgabe übernehmen nicht nur Schmetterlinge, Bienen und andere Insekten, sondern auch Vögel – ganz besonders die Feld- und Wiesenvögel oder beispielsweise der Kolibri. Klein, flink und leicht streifen sie die Blüten.

Regenerierung von Wäldern und Landschaftsgestaltung

Der Tannenhäher ist hier ein gutes Beispiel dafür, wie sehr die Vogelwelt mit unserer Umgebung zusammenhängt. Er sorgt dafür, dass sich die in den Alpen vorkommende Zirbelkiefer verbreitet, indem er sich von den harten Nüssen ernährt, die die Samen nicht von allein freigeben. Der Tannenhäher knackt sie und vergisst mancherorts eine Nuss, sodass an dieser Stelle eine neue Zirbelkiefer wachsen kann, die wiederum mit ihren Wurzeln die wichtige Aufgabe des Lawinenschutzes übernimmt.
Ein anderes Beispiel ist der Eichelhäher, der sich von Eicheln ernährt, diese ausscheidet und so eine bedeutende Rolle für die Verbreitung dieses Baumes spielt. In gleicher oder ähnlicher Manier sind viele Vogelarten an Pflanzenarten gekoppelt.

Vögel sind Teil der Nahrungskette

Es gibt Säugetiere, die sich von Eiern ernähren. Somit stellen Vögel nicht nur Fressfeinde für Insekten und kleine Säugetiere dar, sondern fungieren auch als Teil der Nahrungskette. Es kommt auch vor, dass große Vögel kleine erbeuten, somit wird wiederum deren Population im Zaum gehalten – das betrifft unter anderem Sperlinge und Meisen, die durch ein gutes Nahrungsangebot und eine gute Anpassung häufiger vorkommen als andere Arten.

Vernetzung von Lebensräumen

Insbesondere Zugvögel sind ein gutes Beispiel dafür, was für Strecken diese Tiere zurücklegen können. Damit vernetzen sie unter anderem nördliche und südliche Gebiete miteinander. Samen von besonderen Pflanzen können weitergetragen werden, sodass die Vielfalt in der Flora insgesamt zunimmt.
Orte, Ressourcen und biologische Prozesse werden so allein durch die Vogelwelt stark vernetzt, was die Artenvielfalt weltweit begünstigt.

Belebung von Städten und Inspirationsquelle

Der Mensch greift in die Landschaft ein. Glücklicherweise haben sich die Vögel im Laufe der Zeit an die Städte angepasst – das gilt besonders für Krähen, Amseln, Sperling und Meisen.

Ihr Zwitschern sorgt beim Menschen für ein Wohlbefinden, trägt also zu einer gesunden Psyche bei – genau wie das Grün der Pflanzen. Stadtparks werden so zu einer Oase der Erholung, die für den Menschen so wichtig ist.
Ein nicht ganz unwesentlicher Punkt ist auch die Bionik, denn ohne den Vogel als Vorbild gäbe es zahlreiche Erfindungen nicht. Flugzeuge sind leicht gebaut und weisen große Tragflächen auf, weil sich Menschen diese Bauweise von den Vögeln, den Meistern der Lüfte, abgeschaut haben.

Was wäre, wenn es keine Vögel mehr gäbe?

Gäbe es keine Vögel, könnten sich Insekten in einem schädlichen Ausmaß vermehren. Auf Obstplantagen gäbe es wesentlich mehr Raupenfraß, im Frühling würden wir vielleicht eine Mückenplage erleben und auf Feldern würden Heuschrecken die Ernte dezimieren. Durch den Wegfall der Bestäubung durch Vögel hätten wir weniger Früchte zur Verfügung, was zu einer Lebensmittelknappheit führen könnte.

In Städten gäbe es kein Zwitschern mehr, Pflanzen könnten sich weniger vermehren und die allgemeine Vielfalt würde verloren gehen, da sich nur noch gewisse Arten ausbreiten würden. Manche Pflanzen können nur von einer einzigen Vogelart bestäubt werden. Das Ende des einen Lebewesen würde also das eines anderen nach sich ziehen. Gäbe es beispielsweise den Tannenhäher nicht, wären die Zirbelkiefern in ihrer Verbreitung stark eingeschränkt und Lawinen würden die Hänge in den Alpen gefährden. Viele Baumarten würden aufhören, zu existieren. Zunächst wäre dies an kahlen Stellen im Wald erkennbar, die sich weiter ausdehnen würden.

Auf Neuseeland konnte zum Beispiel im Laufe von fünf Jahren beobachtet werden, dass das Aussterben von zwei wichtigen Vogelarten zur Folge hatte, dass der Busch Rhabdothamnus solandri nur noch von einer Art bestäubt wurde. Dadurch gab es viel weniger junge Pflanzen dieser Art und die Früchte waren bei den nachwachsenden Exemplaren kleiner als bei denen einer anderen Insel, auf der der Busch von drei Vogelarten bestäubt wurde.
Die genannten Szenarien sind Beispiele und spiegeln nur einen Bruchteil dessen wider, was passieren würde, wenn es keine Vögel gäbe. Kurz-, mittel- und langfristige Folgen treten auf, wenn diese Tiere verschwinden.

Fazit: Warum sind Vögel wichtig?

Unser Ökosystem besitzt ein empfindliches Gleichgewicht. Ohne Vögel gäbe es in allen Bereichen drastische Veränderungen. Aktuell bedrohen der Klimawandel sowie die Abholzung der Wälder, das Trockenlegen von Feuchtgebieten und eine Zunahme der Städte die Vielfalt der Vögel, die auf spezifische Lebensräume angewiesen sind.

Darum ist es wichtig, diese wichtigen Tiere zu schützen, indem der Mensch Ausgleichsmaßnahmen unternimmt.

Was es bedeuten würde, wenn es gar keine Vögel mehr gäbe, ist schwer abzuschätzen, da diese Tiere eng in unser Ökosystem eingebunden sind und vielfältige Aufgaben übernehmen – manche davon sind selbst bei dem heutigen Stand der Forschung noch unklar.

Was ist das lauteste Tier der Welt? Erklärung

Platz 10: Der Löwe (lautestes Tier der Welt)

Kaum ein exotisches Tier ist bekannter als der Löwe. Diese majestätischen Katzen können eine Schulterhöhe von bis zu 115 cm und ein Gewicht von bis zu 250 kg erlangen. Auf Jagd können sie Spitzengeschwindigkeiten von 60 km/h erreichen. Heutzutage kommen Löwen fast nur noch in den Savannen Afrikas vor. Doch vor wenigen hundert Jahren waren Löwen auch noch im östlichen Europa und in Südwestasien weit verbreitet. Zur Verteidigung ihres Reviers, aber auch um ihre Kraft und Stärke zu demonstrieren, stoßen Löwen die bekannten Brüllgeräusche aus, welche eine Lautstärke von bis zu 114 dB erreichen können.

Platz 9: Der Elefant (lautestes Tier der Welt)

Auf aus Platz 9 landet ein allseits bekanntest und beliebtes Tier, der Elefant. Sowohl der afrikanische als auch der asiatische Elefant gehört zu den größten Tieren der Welt. Sie gelten als die schwersten bekannten und noch lebenden Landtiere. Zur internen Kommunikation verwenden Elefanten Töne, welche im Infraschallbereich liegen und vom menschlichen Ohr nicht wahrgenommen werden können. Wenn Elefanten jedoch ihr Revier verteidigen oder mögliche Gefahren in die Flucht schlagen wollen, stoßen sie trompetenartige Geräusche aus, welche bis zu 117 dB laut sein können.

Platz 8: Der Nördliche See-Elefant (lautestes Tier der Welt)

Auch wenn der Name beinahe gleich ist, hat der Nördliche See-Elefant mit unseren Elefanten von Platz 7 nichts gemeinsam. Denn See-Elefanten gehören zur Gattung der Robben und wurden nur anhand ihrer vergrößerten Nase so bezeichnet. Der Nördliche See-Elefant kann bis zu vier Meter groß werden und ein Gewicht von 2500 kg erreichen. Ein See-Elefanten Bulle paart sich üblicherweise mit mehreren Weibchen. Versucht ein fremder Bulle eines der Weibchen eines solchen Harems zu begatten, stößt das dominante Männchen einen mächtigen Warnruf mit einer Lautstärke von bis zu 125 dB aus, um einen Kampf zu verhindern. Derartige Rivalenkämpfe können häufig blutig oder sogar tödlich für eines der beteiligten Männchen enden.

Platz 7: Der Molukken-Kakadu (lautestes Tier der Welt)

Auf Platz sieben unserer Liste der lautesten Tiere der Welt landet der Molukken-Kakdu. Dieser Vogel kommt nur auf einigen Inseln in der indonesischen Provinz der Südlichen Molukken vor. Sie sind weiß gefärbt und besitzen einen roten Kamm. Mit einer Körpergröße von in etwa einem halben Meter gehören sie zu den größten Kakaduarten der Welt. Ihre Kommunikation ist äußerst vielfältig. So kann ein Molukken-Kakadu Pfeiftöne von sich geben aber auch unterschiedliche Laute imitieren. Am eindrucksvollsten ist jedoch ihre Lautstärke. Das Geschrei eines Molukken-Kakadus kann bis zu 129 dB erreichen und erreicht damit in etwa die Lautstärke eines Düsenjets. Dennoch werden diese Vögel überraschend häufig auch als Haustiere gehalten.

Platz 6: Der Kakapo (lautestes Tier der Welt)

Auch auf Platz sechs landet ein exotischer Vogel. Der Kakapo gehört zu der Gattung der Papageien und stammt aus Neuseeland. Es ist der einzige Papagei, der ebenfalls eine weit entfernte Verwandtschaft mit Eulen aufweist. Er ist ein nachtaktiver Pflanzenfresser, woher auch seine Benennung stammt. Denn Kakapo leitet sich aus der einheimischen Sprache der Maori ab und heißt so viel wie „Nacht-Papagei“. Dieser akut vom Aussterben bedrohte Vogel besitzt einen einzigartigen Balzruf. Dabei bläht er zwei Luftsäcke in seiner Brust auf und stoßt kontinuierlich lauter werdende Rufe aus. Diese werden je nach Wahrnehmung als undefinierte Grunzlaute oder als „BOOM“-Rufe bezeichnet und können eine Lautstärke von bis zu 132 Db erreichen.

Platz 5: Das Große Hasenmaul (lautestes Tier der Welt)

Zugegeben, unter dem Namen „Das große Hasenmaul“ erwartet man kaum ein Tier, welches einen Platz in der Liste der lautesten Tiere der Welt verdient hat. Dies gilt immer noch, auch wenn man erfährt, dass das Große Hasenmaul zur Gattung der Fledermäuse gehört. Doch zur Navigierung stoßt das große Hasenmaul pro Sekunde bis zu 200 Rufe aus, deren Echos vom Körper empfangen und analysiert werden. Diese Rufe können eine Lautstärke von 137 dB erreichen. Zum Glück liegen diese Echoortungsrufe jedoch in einer kHz-Frequenz, welche vom menschlichen Ohr nicht wahrgenommen werden kann.

Platz 4: Der Brüllaffe (lautestes Tier der Welt)

Endlich kommen wir zu einem Tier, dessen Bezeichnung perfekt zu dieser Auflistung passt. Brüllaffen kommen in Mittel- und Südamerika vor und sind vor allem für ihr außergewöhnlich lautes Schreien von bis zu 140 dB bekannt. Diese Affengattung kann beinahe einen Meter groß werden und besitzen einen Schwanz, welcher in etwa gleich lang ausfällt. Ihr Mundbereich ist anatomisch speziell für das Ausstoßen von lauten Geräuschen entwickelt. Täglich brüllen sowohl männliche als auch weibliche Tiere einer Gruppe und können so innerhalb einer Gruppe über mehrere Kilometer hinweg kommunizieren. Dadurch finden Einzelgänger relativ einfach Anschluss an eine Gruppe und eine Migration innerhalb einzelner Gruppen wird dadurch deutlich einfacher. Zusätzlich wird auf diese Weise das Revier gekennzeichnet und gefährliche Revierkämpfe vermieden.

Platz 3: Der Blauwal (lautestes Tier der Welt)

Blauwale können eine Größe von bis zu 33 Metern erreichen und weisen ein Gewicht von bis zu 200 Tonnen auf. Damit zählen sie zu den größten und schwersten Tiere der Geschichte. Es ist daher wenig verwunderlich, dass sie auch zu den lautesten Tieren der Welt gehören. Dabei gehören Blauwale zu jenen Walen, welche nicht über eine ausgeprägte Kommunikation verfügen. Sie stoßen Stöhnlaute, Brumm- und Pochgeräusche und gelegentliche Klicklaute aus. Diese können jedoch eine Lautstärke von bis zu 188 dB erreichen. Da Geräusche unter Wasser hervorragend weitergeleitet werden, können so die Töne eines Blauwals bis zu einer Entfernung von 850 km weit entfernt wahrgenommen werden.

Platz 2: Der Pottwal (lautestes Tier der Welt)

Auch auf Platz 2 der lautesten Tiere der Welt landet ein Wal: Der Pottwal. Dieser kann eine Länge von 20 Metern und ein Gewicht von ca. 50 Tonnen erreichen. Pottwale können bis zu 1000 Meter tief tauchen. Zur Navigation stoßen sie Klicklaute aus, deren Echo ähnlich wie bei Fledermäusen aufgefangen wird. Diese fallen jedoch nicht überdurchschnittlich laut aus. Pottwale können jedoch auch weitere, undefinierbare Laute ausstoßen, welche eine Lautstärke von bis zu 230 dB erreichen können. Der Zweck dieser Geräusche ist noch nicht endgültig geklärt. Eine überzeugende Hypothese besagt jedoch, dass der dabei entstehende Schalldruckpegel zur Betäubung und Desorientierung von Beutetieren genutzt werden könnte.

Platz 1: Der Pistolenkrebs (lautestes Tier der Welt)

Auch das lauteste Tier der Welt stammt aus dem Meer. Pistolenkrebse, häufig auch Knallkrebse genannt, zählen zur Gattung der Krebstiere und sind vor allem in tropischen und subtropischen Gebieten weit verbreitet. Einzelne Arten können sogar im Süßwasser auftreten. Ihren Namen haben diese Krebse erhalten, da sie mit ihren Scheren einen pistolenähnlichen Knall erzeugen können. Beim Zuklappen der Schere wird unter enormen Kraftaufwand ein Sperrmechanismus geschlossen. Dabei wird ein mächtiger Wasserstrahl ausgestoßen, welcher als Waffe eingesetzt wird. Zusätzlich wird der erwähnte Knall erzeugt, welcher eine Lautstärke von bis zu 250 dB erreichen kann. Besondere Aufmerksamkeit haben die Pistolenkrebse auch während des Zweiten Weltkrieges erlangt. Denn ihre unglaublichen Knallgeräusche haben wiederholt die Sonargeräte der Militärs gestört.

Was ist Gelatine? Erklärung


Die meisten Menschen haben schon einmal von Gelatine gehört. Dabei handelt es sich um ein Lebensmittel, das aus tierischen Proteinen hergestellt wird. Für Vegetarier und Veganer sind Speisen, die Gelatine enthalten also nicht geeignet.

Was genau ist Gelatine? Die chemische Erklärung!

Chemisch erklärt ist Gelatine ein Protein. Ein Protein wiederum ist reines Eiweiß. Um dieses spezielle Protein herstellen zu können müssen tierische Rohstoffe zu einer langen Kette von Aminosäuren verknüpft werden. Insgesamt besteht Gelatine zu jeweils 84 bis 90 Prozent aus den genannten Eiweißen. Dazu kommen verschiedene Mineralsalze, die etwa zwei Prozent des Gesamtgehaltes von Gelatine ausmachen. Der Rest ist einfaches Wasser.

Wozu braucht man Gelatine bei der Herstellung von Lebensmitteln?

Gelatine wird in der Lebensmittelindustrie als Geliermittel genutzt. Gelieren bedeutet verdicken. Kurz gesprochen ist Gelatine also ein Bindemittel, das Speisen, die in ihrer ursprünglichen Form flüssig sind, fest werden lassen kann. So findet sich Gelatine zum Beispiel in vielen Süßigkeiten wie etwa Gummibärchen, Lakritze oder auch Marshmallows. Auch in Nachtischen und Kuchen und Torten kommt Gelatine nicht selten zum Einsatz, zum Beispiel bei Cremefüllungen oder Tortengüssen. Und auch in Joghurt oder Götterspeise findet sich Gelatine. Darüber hinaus wird Gelatine oft für die Herstellung deftiger Speisen, wie zum Beispiel Sülze und Wurstwaren benutzt.

Gibt es noch andere Verwendungszwecke von Gelatine?

Gelatine wird zwar in erster Linie zur Herstellung von Lebensmitteln benutzt, aber es gibt auch noch andere Anwendungsbereiche. Vor allem die Kosmetikindustrie setzt gerne auf den Stoff Gelatine. Vor allem in Cremes und Gesichtsmasken lässt sich Gelatine finden. Daneben schätzt auch die Pharmaindustrie auf die positiven Eigenschaften der Gelatine und verwendet sie für die Produktion vieler Arzneimittelkapseln. Außerdem verwenden auch traditionelle Gewerke Gelatine. Fotografen und Buchbinder arbeiten beispielsweise mit ihr. Fotografen nutzen sie beim Drucken von Abzügen, Buchbinder verwenden Gelatine als eine Art natürlichen Kleber.

Welche tierischen Bestandteile werden für die Gewinnung der Gelatine benutzt?

Für die Gewinnung von Gelatine eignen sich eine ganze Reihe an Nutztieren, zum Beispiel Schweine, Fische, Rinder und auch unterschiedliche Geflügelarten. Hierzulande wird für die Produktion von Gelatine zu ungefähr 70 Prozent das Nutztier Schwein genutzt. Herstellen lässt sich Gelatine aus dem tierischen Bindegewebe, das sich etwa in den Knochen oder der Haut der Tiere befindet. In aller Regel werden Teile des tierischen Körpers für die Produktion der Gelatine genutzt, die ansonsten keine Verwendung bei der Lebensmittelherstellung finden und alternativ nach der Schlachtung weggeworfen werden würden. Somit kann gesagt werden, dass die Herstellung der Gelatine ungenutzte Schlachtabfälle vermeidet.

Wie genau gewinnt man Gelatine?

Die Gewinnung von Gelatine ist ein chemischer Prozess. Das tierische Bindegewebe wird dabei sozusagen in seine einzelnen Bestandteile gespalten. Alle dabei abgetrennten tierischen Rohstoffe, die für den weiteren Herstellungsprozess der Gelatine nicht benötigt werden, werden weggegossen während die Gelatine ausgefiltert und anschließend weiter verarbeitet wird.

Die unterschiedlichen Arten von Gelatine

Gelatine gibt es in unterschiedlichen Erscheinungsformen. Neben der industriell genutzten Gelatine gibt es auch Gelatine, die im Haushalt verwendet wird, zum Beispiel zum Kochen oder Backen. Hier ist erstens die Blattgelatine zu nennen. Blattgelatine hat in der Regel eine rechteckige Form und weist ein Muster auf, das wie ein Netz aussieht. Diese Netzaufteilung sorgt dafür, dass man die Blattgelatine ganz nach persönlichem Bedarf in der Küche genau teilen und portionieren kann. Man bricht die benötigte Ecke der Blattgelatine einfach ab. Zweitens ist die Instantgelatine zu nennen. Diese muss, im Gegensatz zur Blattgelatine, während der Verwendung nicht erhitzt werden. Man benutzt sie deshalb in erster Linie für Sahnespeisen, da Sahne beim Verarbeitungsprozess häufig nicht erhitzt werden sollte.

Ist Gelatine gesund oder ungesund?

Grundsätzlich lässt sich über Gelatine sagen, dass es sich dabei um ein natürliches und gesundes Lebensmittel handelt. Da der Hauptbestandteil der Gelatine Protein ist, kann der Verzehr von Gelatine zu einer gesunden Ernährung beitragen. Weiterhin sind in Gelatine insgesamt 18 unterschiedliche Aminosäuren enthalten wovon acht als notwendig für den menschlichen Körper eingestuft werden. Da Gelatine jedoch, wie vorab zu lesen war, meist in Süßspeisen oder deftigen Nahrungsmitteln Verwendung findet, sollte unbedingt auf die verzehrte Menge der gelatinehaltigen Lebensmittel geachtet werden. Zu viel von ihnen ist letztlich jeweils ungesund.

Gibt es auch Gelatine für Vegetarier und Veganer? Ist Gelatine vegan?

Gelatine für Vegetarier und Veganer gibt es nicht, da für die Herstellung von Gelatine immer Teile eines Tieres verwendet werden. Vegetarier und Veganer können jedoch auf einige Alternativen zurückgreifen, die ähnliche Eigenschaften wie Gelatine aufweisen. Das sind zum Beispiel Speisestärke, Agar Agar oder Pektin. Alle genannten Produkte sind für Veganer und Vegetarier geeignet.

Was ist das Blockchain Trilemma? Erklärung, Bedeutung, Definition


Die meisten erfolgreichen Innovationen nehmen ihren Weg auf ähnliche Weise: Es wird etwas geschaffen, das die Menschen wollen, und wenn die Verkaufszahlen zu steigen beginnen, wird die Produktion aufgrund von Größenvorteilen billiger, was zu einer größeren Nachfrage führt. Bei Kryptowährungen sind die Dinge jedoch nicht so einfach. Während der Handel mit Token wie Bitcoin und Ethereum zunimmt, wird die Aufzeichnung und Sicherung von Transaktionen langsamer und teurer.

Was ist das Blockchain Trilemma? Erklärung, Bedeutung, Definition

Es wurden verschiedene Versuche unternommen, dieses Problem zu lösen, aber sie alle machen das System entweder anfälliger für böswillige Akteure oder verwässern das dezentrale Modell, das für die Attraktivität des Kryptosektors entscheidend ist. Dieses „Blockchain-Trilemma“ (die Vorstellung, dass dezentrale Netzwerke nur zwei von drei Vorteilen gleichzeitig bieten können – Dezentralisierung, Sicherheit, Skalierbarkeit) ist eine der schwierigsten Herausforderungen bei der Masseneinführung von Kryptowährungen.

Öffentliche Blockchains sind die Motoren der Kryptowährungen. In diesen digitalen „Büchern“ werden Salden, Vertragscodes und andere Daten mit Hilfe hochentwickelter digitaler Schlüssel aufgezeichnet. Die Tatsache, dass diese Aufzeichnungen öffentlich sind und nicht gelöscht, geändert oder kopiert werden können, schafft das nötige Vertrauen, um auf der Blockchain ohne Vermittler zu arbeiten. Dieses Vertrauen wird durch die Vervielfältigung und Validierung von Informationen von mehreren Computern in einem Netz noch verstärkt. Aus diesem Grund können viele der ursprünglichen Blockchains nicht mehr Transaktionen verarbeiten, als ein einzelner Computer im Netzwerk bewältigen kann.Dies kann dazu führen, dass Blockchains mit dem Arbeitsvolumen überfordert sind, was wiederum zu Verzögerungen und übermäßigen Kosten für die Nutzer führt, insbesondere in Zeiten intensiver Kryptomarktaktivitäten. Seit September kann die Blockchain von Bitcoin nicht mehr als sieben Transaktionen pro Sekunde verarbeiten, während Ethereum auf etwa 15 pro Sekunde begrenzt ist.

Warum ist es ein Trilemma?

Denn eine Ausweitung der Blockchain über einen bestimmten Punkt hinaus gefährdet unweigerlich zwei ihrer grundlegenden Eigenschaften – ihre dezentrale Struktur, die Transparenz und das Vertrauen der Nutzer in die Unabhängigkeit von Dritten und Regierungen bietet, sowie die Sicherheit (Schutz der Daten vor Hackern). Kurz gesagt: Man kann Zersiedelung, Dezentralisierung oder Sicherheit haben, aber nicht alle drei zusammen.

Wurde dies als Entwicklung erwartet?

Ja. Der Informatik-Experte Hal Finney, der Empfänger der ersten Bitcoin-Transaktion des so genannten Erfinders der Kryptowährung, Satoshi Nakamoto, warnte schon früh davor, dass Blockchains gemäß ihrer ursprünglichen Konzeption nicht von selbst wachsen können. Dann schlug er vor, die Hauptblockchain um ein einfaches und effizienteres Sekundärsystem zu ergänzen. „Bitcoin selbst kann nicht so wachsen, dass jede einzelne Finanztransaktion auf der Welt an jeden gesendet und in die Blockchain aufgenommen wird“, schrieb Finney 2010 in einem Forenbeitrag. 2017 prägte Ethereum-Blockchain-Mitbegründer Vitalik Buterin den Begriff „Blockchain-Trilemma“.

Gibt es eine Lösung für das Blockchain Trilemma?

Es gibt einige Innovationen, die die Leistung von Blockchains verbessern sollen, aber bei näherer Betrachtung zeigt sich, dass sie entweder die Dezentralisierung oder die Sicherheit auf Kosten der Skalierbarkeit verwässern. Hier sind einige Möglichkeiten:

Größere Blöcke: Die Blockchain wurde so verändert, dass Transaktionen zu größeren Paketen zusammengefasst werden, bevor sie validiert und dem Netzwerk hinzugefügt werden. Dies kann durch die Schaffung eines neuen Netzes aus dem bestehenden erreicht werden, ein Prozess, der als Forking bekannt ist. Bitcoin Cash ist eine der bekanntesten Abspaltungen dieser Art.

Neue Schichten: ein Protokoll, das auf einer bestehenden Blockchain aufbaut und Transaktionen unabhängig abwickeln kann – etwas, das eher dem entspricht, was Finney vorschlägt. Beispiele für diese sogenannten Layer-2-Protokolle sind das Polygon von Etherium und das Lightning Network von Bitcoin.

Chunking: Aufteilung von Datengruppen in kleinere Chunks, um die Rechen- und Speicherlast gleichmäßiger über das Netz zu verteilen. Die Informationen in einem solchen Chunk können gemeinsam genutzt werden, so dass das Netzwerk dezentralisiert und sicher bleibt.

Welche Auswirkungen hat das Blockchain Trilemma?

Das war kein Problem, als Kryptowährungen nur eine Nischentechnologie waren, die von einer Kerngruppe von Enthusiasten genutzt wurde. Jetzt, da sich das traditionelle Finanzwesen und andere Mainstream-Branchen der Blockchain zuwenden, werden diese Einschränkungen immer mehr zu einem Hindernis. Regelmäßig auftretende Engpässe und hohe Gebühren haben dazu geführt, dass Ethereum Marktanteile im dezentralen Finanzwesen an konkurrierende Blockchains wie Binance Smart Chain und Solana verloren hat, die schneller und billiger sein können, weil sie weniger Teilnehmer für die Durchführung von Transaktionen benötigen.

Zwischen Anfang 2021 und September 2022 sank der Marktanteil von Ethereum im dezentralen Finanzwesen in Form von „Locked-in“-Werten von 96 % auf 58 %, so die Daten der Plattform Defi Llama. Die Befürworter hoffen, diese Probleme überwinden zu können, wenn sich die Art und Weise, wie die Plattform Transaktionen bewertet, ändert.

Warum ist das Fenster nass? Tipps gegen Kondenswasser, Erklärung


Der Begriff Kondenswasser bezeichnet eine Wasserablagerung auf der Innenseite von Fenstern und Fensterrahmen. Hierbei handelt es sich um Feuchtigkeit aus der Raumluft, welche durch eine sinkende Lufttemperatur von der Luft auf die Fensterscheibe abgegeben wird. Meistens tritt dieses Phänomen in der Nacht und den frühen Morgenstunden während der kalten Jahreszeit auf. Betroffen ist vor allem der untere Bereich von Fensterscheiben.

Warum werden Fenster von innen nass? Erklärung

Ursache für die Entstehung von nassen Fenstern ist der Unterschied zwischen der Temperatur im Inneren des Raumes und der Temperatur im Freien. Ist es im Raum warm, nimmt die Raumluft Feuchtigkeit auf. Trifft diese warme Luft dann auf die Oberfläche eines Fensters, sinkt die Lufttemperatur innerhalb kurzer Zeit deutlich und die Luft gibt die aufgenommene Feuchtigkeit an die Oberfläche des Fensters ab.

Dass sich Luft an einem Fenster schnell abkühlt, liegt an einer deutlich niedrigeren Außentemperatur und damit verbunden einer niedrigeren Temperatur der Glasfläche auch auf der Innenseite des Fensters. Nasse Fenster treten daher vor allem im Winter und während des Winters vornehmlich in den besonders kalten Nachtstunden auf, da zu dieser Zeit der Temperaturunterschied oft besonders groß ist.

Nicht nur die Innenseite von Fenstern kann nass werden. Herrscht draußen eine sehr hohe Luftfeuchtigkeit und besteht ein Temperaturunterschied zwischen Innen- und Außenluft, dann kann es auch zur Ablagerung von Kondenswasser auf der Außenseite von Fenstern kommen. Das ist ein Anzeichen für eine gute Isolierung der Fenster und stellt in der Regel kein Problem dar.

Was kann man gegen Kondenswasser machen? Tipps

Bemerkt man an den Fensterscheiben Kondenswasser, sollte dieses umgehend entfernt werden. Mit einem saugfähigen Tuch lässt sich Kondenswasser gut von der Scheibe abwischen. Zusätzlich ist es ratsam, auch den Fensterrahmen abzuwischen und zu prüfen, ob sich im Rahmen ebenfalls Wasser angesammelt hat. Durch das gründliche Trocknen der Flächen kann der Entstehung von Schimmel vorgebeugt werden.

Um Bereits die Entstehung von Kondenswasser am Fenster zu verhindern, ist eine Kombination aus ausreichender Beheizung von Räumlichkeiten, effektivem Lüften und einer Überprüfung der Dichte der Fenster sinnvoll. Wasser lagert sich nur dann an Scheiben ab, wenn sie vorher im Raum von der Luft aufgenommen wurde und dazu ist eine gewisse Luftfeuchtigkeit notwendig. Durch das Trocknen von Wäsche in Räumen, beim Duschen oder Kochen kann die Luftfeuchtigkeit deutlich steigen. Regelmäßiges Lüften sorgt für einen Abtransport der Feuchtigkeit nach draußen. Stoßlüften erweist sich hierzu als besonders effektive Methode. Dazu werden Fenster mehrmals am Tag für eine Dauer von fünf bis zehn Minuten vollständig geöffnet. Bestenfalls öffnet man dabei sich gegenüberliegende Fenster für eine optimale Luftzirkulation.

Was hilft noch gegen Kondenswasser?

Durch eine ausreichend hohe Raumtemperatur kann die Luftfeuchtigkeit im Raum gesenkt werden. Zudem ist der Luftaustausch während des Lüftens dann effektiver. Als Richtwert wird eine Raumtemperatur von 20 Grad angegeben. Außerdem ist es wichtig, die Entstehung von Luftfeuchtigkeit so weit wie möglich zu reduzieren. Wäsche sollte gerade in den Wintermonaten nicht in Wohnräumen getrocknet werden. Alternative Trockenmöglichkeiten sind ein gut belüfteter Wäscheraum im Keller, ein Wäscheständer auf dem Balkon oder die Nutzung eines Wäschetrockners.

Fazit: Ursache und Hilfe bei Kondenswasser am Fenster

Damit sich Kondenswasser an einem Fenster absetzen kann, müssen verschiedene Faktoren zusammenkommen. Eine hohe Luftfeuchtigkeit und ein deutlicher Temperaturunterschied zwischen der Raumluft und Außenluft sind dafür erforderlich. Bereits nass gewordene Fenster kann man mit einem Tuch trockenwischen. Die weitere Entstehung von nassen Fenstern lässt sich durch ausreichendes Heizen und Lüften verhindern.

Warum ist das Kreuz das Symbol des Christentums? Erklärung, Geschichte


Das Kreuz erinnert Christen nicht nur an die Opferung Jesus Christus für die gesamte Menschheit, sondern symbolisiert außerdem den Sieg über den Tod.

Das Kreuz im Christentum – Symbolik und Bedeutung

Im Christentum ist das Symbol des Kreuzes auf das Neue Testament zurückzuführen, laut welchem Jesus Christus durch Kreuzigung hingerichtet wurde. Zudem betont das Kreuz die Verbindung zwischen dem Irdischen (dargestellt durch die waagrechte Achse) und dem Himmlischen (senkrechte Achse). Es steht weiters auch für Gegensätze wie Materie und Geist, Leib und Seele, das Weibliche und das Männliche.

Diese Verbindungen, vormals durch den Sündenfall gebrochen, wurden laut der biblischen Lehre durch Jesus‘ Opfertod (daher auch „Bundesopfer“ genannt) wiederhergestellt, was das Kreuz zum Zeichen des Heils und der Versöhnung werden ließ. Dennoch kann es auch für Bürde und Qualen stehen, wie auch in verschiedenen Redewendungen offensichtlich wird.

Das Kreuz im Christentum – Geschichte und Entwicklung

Zu Beginn des Christentums waren dessen Symbole das Staurogramm und das Christusmonogramm ΧΡ, welche jedoch beide in ihrer Anordnung bereits an ein Kreuz erinnerten. Die älteste bildliche Darstellung der Kreuzigung wird tatsächlich erst auf das späte 2. bis frühe 3. Jahrhundert datiert und während das Bekreuzigen bzw. Kreuzschlagen schon im 3. Jahrhundert üblich wurde, löste das Kreuzzeichen die frühe Symbolik erst im 5. Jahrhundert allgemein ab. Zu dieser Zeit hatte das heute bekannte Lateinische Kreuz das vorerst übliche Taukreuz, welches ein einfaches T darstellt, bereits verdrängt.

Die vermehrte Verwendung des Kreuzzeichens scheint auch mit der Abschaffung der Kreuzigungsstrafe im Jahr 320 n. Chr. einherzugehen und wurde zudem dadurch gefördert, dass Konstantin der Große Religionsfreiheit gewährte sowie sich zum Christentum bekannte und das Christentum 391 von Konstantins Nachfolger zur Staatsreligion des Römischen Reiches ernannt wurde. Einige Historiker gehen auch davon aus, dass das heidnische Umfeld eine große Rolle dabei spielte, warum die Wahl auf das Kreuzzeichen fiel, da viele heidnische Kulturen Versionen dieses Symbols bereits verwendeten. Schon in der Steinzeit wurde das Kreuz als Kultgegenstand gebraucht.

Im Mittelalter schließlich wurde das Kreuz in Form von Kruzifixen gemeinhin verbreitet und lief zur Hochform auf. Angebracht wurde das Symbol nicht nur an Kathedralen und Kirchen, sondern fand auch Eingang in die Wappen vieler Adelshäuser.

Das Kreuz im Christentum – Weitere Kreuzformen

Neben dem weithin bekannten Lateinischen Kreuz finden sich noch zahlreiche weitere Kreuzformen in der christlichen Religion.
Unter den verbreiteteren Formen befindet sich das Keltenkreuz (Lateinisches Kreuz mit Ring), welches vornehmlich in Irland verwendet wurde, das Patriarchenkreuz (zweiter Querstrich als Symbol für die Kreuzinschrift), das Petruskreuz (auf dem Kopf stehendes Lateinisches Kreuz) zur Verehrung des heiligen Petrus, das Tatzenkreuz mit nach außen hin verbreiterten Balken und das Papstkreuz, das mit seinen drei Querbalken die päpstlichen Gewalten Priester-, Hirten- und Lehrgewalt symbolisiert.

Das Kreuz im Christentum – Verwendung und Vorführung

Vor allem in christlich geprägten Ländern ist das Kreuz heute noch an zahllosen Orten anzutreffen. Noch immer ist das Kreuz ein beliebter Halskettenanhänger und das nicht nur bei bekennenden Christen.
Nach wie vor wird auch bei Segnungen das Kreuz geschlagen und Prozessionen führen das Kreuz voraus.

Teilweise hängt das Kreuz auch immer noch in Klassenzimmern öffentlicher Schulen und aufgrund der traditionellen Krankenpflege der Kirche tragen auch viele Apotheken, Krankenhäuser und Verbände wie das Rote Kreuz dieses Symbol als Kennzeichen.

Bis heute enthalten auch viele Länderflaggen das Kreuzzeichen. So vereint die britische Union Jack das Andreas-, Georgs- und Patrickskreuz auf einmal.

Auch viele Berge ziert noch immer ein Gipfelkreuz.

Warum hat man Alpträume? Gründe, Erklärung


Bei einem Alptraum, auch Albtraum oder Nachtmahr, handelt es sich um eine Schlafstörung, eine sogenannte Parasomnie. Als Alpträume werden Träume bezeichnet, die mit negativen Emotionen, wie beispielsweise Angst, Trauer oder Panik, einhergehen. Dabei durchlebt der Träumende meist bedrohliche oder chaotische Situationen und Szenarien.

Warum hat man Alpträume? Gründe, Erklärung

Ein Alptraum taucht meistens während der REM-Phase (englisches Kürzel für „rapid eye movement“, zu deutsch „schnelle Augenbewegung“) auf, die typische Dauer beträgt von wenigen Minuten bis zu einer halben Stunde. Alpträume werden in vielen Fällen als sehr intensiv wahrgenommen und enden oft mit einem aufgeschreckten Erwachen. Nach dem Wachwerden tritt häufig ein beklemmendes oder gehetztes Gefühl der Panik auf, welches einige Zeit anhält und sich erst nach einer Weile allmählich legt. Häufige Alpträume, vor allem solche mit immer gleichem Inhalt, können zu einer dauerhaften psychischen Belastung während der Wachzeit eines Menschen werden, der sich irgendwann davor fürchtet, zu Bett zu gehen und Schwierigkeiten hat, Schlaf zu finden.

Als Ursache für schlechte Träume bekannt sind zum Beispiel traumatische Erlebnisse aus der Vergangenheit, die Verarbeitung des letzen Tages, Stress, aber auch psychische Störungen und physische Probleme. Auch kommende Ereignisse, die Angst oder Nervosität auslösen, können solche schlechten Träume begünstigen. Alpträume wirken sich in der Regel negativ auf die nächtliche Erholung und die körperliche und seelische Verfassung des Schlafenden aus.

Viele große Künstler ließen sich von der Thematik des Alptraums inspirieren. Der Alptraum ist Mittelpunkt musikalischer Werke, bestimmt die Handlungsstränge vieler Filme und Bücher und alptraumhafte Szenen werden auf etlichen Leinwänden abgebildet.

Kann man Alpträume behandeln oder ihnen vorbeugen?

Eine gute Methode, um Alpträume abzuwenden oder sie von vornherein zu vermeiden, ist die Fähigkeit des Klartraums oder „luziden Traums“. Bei einem Klartraum wird dem Träumenden bewusst, dass es sich bei dem Erlebten nicht um reales Geschehen handelt, sodass er eingreifen und die Kontrolle über seinen Traum gewinnen kann. Durchlebt man einen Traum bewusst, kann man ihn umstrukturieren und die Handlung verändern und so das Alptraumhafte daraus verbannen. Diese Methode gilt als sehr zuverlässig, doch handelt es sich bei einem luziden Traum um eine Fähigkeit, die erst einmal erlangt werden muss. Um dies zu schaffen, gibt es verschiedene Übungen, mit denen man einen Klartraum auslösen kann. Indem man sich diese Übungen zur Gewohnheit macht, ist es möglich, regelmäßig luzide Träume zu erleben, und so langfristig die eigenen Alpträume zu bekämpfen.

Für Menschen, denen es nicht gelingt, sich während des Traumes bewusst zu werden, dass sie träumen, und die an immer wiederkehrenden Alpträumen leiden, gibt es noch andere Behandlungen. In dem man der Ursache seiner Ängste auf den Grund geht und sich ihnen stellt, kann man weiteren Alpträumen entgehen. Dies können ganz alltägliche, berufliche oder familiäre Missstände sein, aber traumatische und seelisch belastende Erlebnisse aus der Kindheit oder jüngeren Vergangenheit können ebenso verantwortlich für die sich wiederholenden Träume sein. Manchmal ist der Grund für solche Alpträume auch nicht eindeutig klar, in dem Fall muss erst Ursachenforschung betrieben werden. Es empfiehlt sich, dafür professionelle Hilfe in Anspruch zu nehmen.

Ist der Ablauf des Alptraums immer gleich, kann man auch versuchen, ihn sozusagen umzuschreiben. Eine Theorie lautet, dass ein Traum, je öfter er sich wiederholt, desto schneller erneut ausgelöst werden kann. Um diesen Kreis zu durchbrechen, muss man versuchen, das „Drehbuch“ abzuändern. Diese Methode ist bekannt als „imagery rehearsal therapy“, kurz IRT, und gilt ebenfalls als überaus wirksam. Sie baut darauf auf, dass man den Traum während der Wachzeit immer wieder visualisiert und ihn dabei auf immer gleiche Weise umformt, so dass der tatsächliche Alptraum sich ebenfalls bis zur Harmlosigkeit verändert. Neben der Methode des Klartraums ist die IRT-Methode eine der erfolgreichsten Möglichkeiten, sich von erschöpfenden Alpträumen zu befreien.

Warum ist der Daumen kein Finger? Erklärung


Der Daumen unterscheidet sich anatomisch und funktionell von den Fingern. Seine Sonderstellung als Glied der Hand verschaffte den Primaten außerordentliche evolutionäre Vorteile, die sich bis zur Menschwerdung fortsetzten und nach wie vor bestehen.

Sichtbare Unterschiede zwischen Daumen und Fingern

Nicht nur seine Stellung, sondern auch sein Aufbau unterscheidet den Daumen von den Fingern: Diese haben drei Knochen, beim Daumen sind es nur zwei. Er steht auch vollkommen anders am Handteller, was ihn so vorteilhaft macht: Durch seine Stellung gegenüber der Mitte zwischen Zeige- und Mittelfinger ist er opponierbar. Er kann sich zu den Fingern und zum Handteller hin bewegen. Damit kann er die Spitzen der Finger berühren, was erst das geschickte und differenzierte Greifen ermöglicht. Diese Stellung ist die Opposition (Gegenüberstellung) des Daumens. Es gibt auch bei manchen Füßen von Tieren eine Opposition. Sie verfügen über die Fähigkeit, ihre erste Zehe per Pinzettengriff den anderen gegenüberzustellen. Doch die beste Opposition haben die Daumen von Menschen, gefolgt von denen der Menschenaffen.

Wann hat sich der Daumen so entwickelt?

Nach Forschungen der Universität Tübingen dürfte der Prozess bei den Primaten vor rund zwei Millionen Jahren eingesetzt haben. Bereits der Homo erectus konnte demnach relativ geschickt mit seinem Daumen umgehen. Dies verschaffte der Spezies die Fähigkeit, frühe Steinwerkzeuge herzustellen und zu benutzen.

Die Knochen des Daumens

Die beiden direkt am Daumen sichtbaren Knochen sind der Phalanx proximalis (näher zum Handteller) und Phalanx distalis (Endglied). Funktionell gehört allerdings der Os metacarpale I (erster Mittelhandknochen) eigentlich auch zum Daumen. Er lässt sich mit dem Daumensattelgelenk artikulieren (ansteuern) und ermöglicht damit die höhere Bewegungsfreiheit des Daumens. Die distale (vom Handteller entfernteste) Stelle des Os metacarpale I weist häufig ein Sesambein auf. Dieses ist ein kleiner, in eine Sehne eingelagerter Knochen, welcher der Sehne einen größeren Hebel verschafft und nochmals die Beweglichkeit des Daumens erhöht.

Faustschluss durch den Daumen

Der Faustschluss ist nur möglich, weil der Daumen in Opposition zu den Fingern steht und besonders beweglich ist. Beide Eigenschaften zusammengenommen sind die Voraussetzung für das kräftige Greifen und führten zum entscheidenden evolutionären Entwicklungssprung der Primaten gegenüber anderen Affenarten und allen übrigen Tieren. Es gibt auch Affenarten (sogenannte Neuweltaffen), die zwar einen Daumen haben, ihn aber nur adduzieren (heranführen), aber nicht opponieren können. Zur Opposition des Primatendaumens gehören auch eine sehr differenzierte Muskulatur und die besondere Beweglichkeit durch die Sehnen und Gelenke im Daumen. Er verfügt über neun Einzelmuskeln. Auch das unterscheidet ihn von den Fingern, weshalb er evolutionstechnisch diesen nicht zugeordnet wird.

Die Unterschiede zwischen Daumen und Fingern setzen sich im Gehirn fort: Diejenigen Hirnareale, die ihn steuern, sind deutlich größer gegenüber denen für die anderen Finger. Ein weiterer Unterschied ist beim Daumennagel festzustellen: Er wächst deutlich langsamer als die Fingernägel und würde sich im Gegensatz zu diesen bei einem sehr langen Wachstum zu einer Spirale zusammenrollen.

Entstehung des Daumengelenks

Das Daumengelenk ist im Gegensatz zu den anderen Gelenken relativ jung. Es entstand vor rund acht Millionen Jahren, während das übrige Skelett seine prägende Form schon bei den frühen Menschenartigen im Miozän vor rund 20 Millionen Jahren ausbildete. Daher ist das Daumengelenk deutlich weniger belastbar als andere Gelenke (darunter die der Finger). Dies führt unter anderem dazu, dass ~80 % der aller Frauen ab dem 40. Lebensjahr von der Wachstumsstörung Rhizarthrose betroffen sind, die mehr oder minder stark ausfällt und nicht unbedingt belastend sein muss. Sie führt aber dazu, dass ihr Sattelgelenk am Daumen schräg steht. Dieses spezielle Gelenk macht den Daumen besonders beweglich, es ist aber auch empfindlich.

Ebenfalls der Jugend des Daumens schreibt man verschiedene Anomalien zu, darunter den Doppeldaumen (zwei Daumen an einer Hand) als häufigste Fehlbildung der Hand, den dreigliedrigen Daumen und die Typ-D-Brachydaktylie mit verkürztem Endglied inklusive kürzerem Fingernagel. Auch hiervon sind Frauen häufiger betroffen. Diese Anomalie kann ein- oder beidseitig auftreten.

Woher hat der Daumen seinen Namen?

Im Althochdeutschen hieß er Dumo oder Dum, im Mittelhochdeutschen Dume. Beide Worte leiteten sich vom westgermanischen Wort thuman ab, das mit dem vorindogermanischen tum verwandt ist. Es bedeutete „geschwollen sein“ „besonders starker Finger“ und ebenso „Zoll, Daumenbreit“. Das Wort Tumor (Geschwulst) kommt vom gleichen Wortstamm.

Der sprichwörtliche Daumen

Die Menschen schätzen ihren Daumen sehr und binden ihn in zahllose Sprichwörter ein. Sie schätzen etwas π (pi) mal Daumen oder auch Daumen mal Fensterkreuz, was bedeutet, dass sie den Daumen gegen das Fensterkreuz heben und dann die Entfernung über den Daumen peilen, was schon wieder ein eigenes Sprichwort ist. Daraus leiten sie auch ihre Daumenregeln ab. Wer mit Pflanzen geschickt umgehen kann, hat einen grünen Daumen. Wenn jemand Glück braucht, drücken wir ihm fest beide Daumen. Müßiggang unterstreichen wir mit Däumchen drehen, was ja tatsächlich eine gelangweilte Bewegung sein kann. Der Däumling ist im Märchen ein ganz besonders kleiner Mensch. Wer etwas für sich fixiert, hat den Daumen drauf. Der englische Begriff thumbnail (Daumennagel) bezeichnet das daumennagelgroße Vorschaubild.

Was ist CBDC? Vorteile, Nachteile, Erklärung


CBDC steht für „Central Bank Digital Currency“. Es handelt sich um eine Kryptowährung der Zentralbanken. Diese wollen das rein digitale Bezahlen damit in die breite Öffentlichkeit tragen und gleichzeitig für die Stabilität einer solchen Kryptowährung sorgen, die prinzipiell dieselbe wie die des (konventionellen) FIAT-Geldes sein soll. Entsprechende Projekte laufen weltweit schon mindestens seit 2015.

Was ist CBDC? Erklärung, Ziele

Das elektronische Geld liegt auf Konten der Zentralbanken und soll einem größeren Personenkreis zur Verfügung stehen. Wenn CBDC vollkommen ausgebaut ist, könnten praktisch alle geschäftsfähigen Bürger*innen und alle Unternehmen bei der Zentralbank ein CBDC-Konto führen. Die Währung hätte alle Eigenschaften von Kryptowährungen und ließe sich selbstverständlich auch mit Mobile Apps und anonymen Guthabenkarten verwenden. Sie wäre für Sparanlagen geeignet, wenn sie die Stabilität des heutigen FIAT-Geldes (Euro, Dollar etc.) erreicht.

Bei den derzeitigen Kryptowährungen wie Bitcoin & Co. ist das keineswegs der Fall, sie unterliegen enormen Wertschwankungen. Sie heißen Stablecoins und kommen aus der Privatwirtschaft, während das digitale Zentralbankgeld ausschließlich von Zentralbanken geschaffen werden soll. Es könnte dann wie das heutige Bargeld umlaufen. Die Berechtigung zu Emission hätte stets nur eine Zentralbank. Der Umlauf käme in Gang, indem Privathaushalte, Geschäftsbanken und Unternehmen das per Geldschöpfung erzeugte Buchgeld von Geschäftsbanken in digitales Zentralbankgeld tauschen. Die Geschäftsbanken müssten hierfür einen Teil ihrer Geldreserven in digitales Zentralbankgeld tauschen, das eine andere Form der Geldreserve neben dem Bargeld wäre. Nachfolgend könnte das digitale Zentralbankgeld im Zahlungsverkehr benutzt werden.

Organisation der CBDC-Konten

Die naheliegendste Möglichkeit der Organisation von CBDC-Konten wäre die Einrichtung einer Blockchain oder alternativ eines Directed Acyclic Graph bei der Zentralbank. Diese beiden Systeme sind sicher, die heutigen Kryptowährungen existieren damit. Doch es ist auch die Organisation als herkömmliche Datenbank denkbar. Die Kunden würden den Unterschied nicht bemerken: Sie hätten den digitalen Zugriff auf ihr Zentralbankkonto in ähnlicher Weise, wie sie heute schon auf ihr Konto bei einer traditionellen Geschäftsbank per Onlinebanking oder Kreditkarte zugreifen. Wenn sich CBDC durchsetzt, dürfte der Umgang mit dem digitalen Geld zunehmend per App organisiert werden, was aber nichts mit der digitalen Gelderzeugung und -verwaltung zu tun hat: Auch auf konventionelle FIAT-Konten können Menschen schon per App zugreifen, wenn sie es wünschen.

Welche Vorteile bietet CBDC?

  • Digitales Zentralbankgeld ist durch die Blockchain oder den DAG sicherer als FIAT-Geld.
  • Es unterliegt der zentralen Geldpolitik, was es im Gegensatz zu den Stablecoins als gesetzliches Zahlungsmittel geeignet macht.
  • Der Umgang damit entspricht dem digitalen Zeitalter. Bargeld gilt in vielen Ländern (beispielsweise in Skandinavien) längst als obsolet.
  • Mit CBDC würde der Bargeldverbrauch wahrscheinlich wirklich schrumpfen.
  • Der Währungsumlauf wäre damit effizienter zu kontrollieren, weil jede Geldbewegung in Echtzeit nachzuvollziehen ist.
  • CBDC würde die Vorherrschaft von Stablecoins beim Kryptogeld beenden und zur Währungsstabilität der Kryptowährungen beitragen. Damit könnten auch private Unternehmen mit hoher Finanzkraft wie Facebook mit der eigenen Kryptowährung Libra nicht mehr den Markt dominieren.
  • Die Abläufe sind wie bei jeder Kryptowährung schnell und effizient.

Nachteile: CBDC

Der Umgang mit der Technologie dürfte rein vom Handling her nur zögernd von alle Verbrauchern angenommen werden. Bisher nutzen auch nur sehr wenige Menschen Apps für Bezahlvorgänge.

  • Der Verwaltungsaufwand für die Konten könnte für die Zentralbanken sehr hoch werden. Immerhin benötigen die Kunden auch Support sowie Kredit- und Anlageberatung. Bislang übernehmen diese Rolle die lokalen Geschäftsbanken mit ihren vielen Beschäftigten.
  • Es dürfte in der Bevölkerung noch lange Zeit Vorbehalte gegen rein digitales Geld geben.

Zwei unterschiedliche Arten von CBDC

CBDC wird in zwei prinzipielle Arten unterschieden:

Wholesale CBDC: Dieses CBDC gibt die entsprechende Zentralbank ausschließlich an Geschäftsbanken und weitere Verwalter großer Vermögen als NBFI (Nichtbank-Finanzinstitution, beispielsweise Versicherung oder Rentenfonds) aus.

Retail CBDC: Das CBDC liegt bei der Zentralbank auf Kundenkonten vor. Die Kunden (Unternehmen, Privathaushalte, öffentliche Einrichtungen) können direkt darauf zugreifen.

Rein strukturell (unabhängig von der Technik der Geldgenerierung) würde Wholesale CBDC dem gegenwärtigen Bankensystem entsprechen. Die aktuelle Diskussion dreht sich aber überwiegend um Retail CBDC, das auch strukturell eine Innovation wäre. Es würde unter anderem das Gegenparteienrisiko der Insolvenz einer Geschäftsbank ausschalten und damit zum Beispiel die gegenwärtige Einlagensicherung überflüssig machen. Grenzüberschreitende Zahlungen würden deutlich billiger und liefen auch schneller ab, wenn das Geld nicht mehr den Umweg über eine Geschäftsbank nehmen müsste.

Fragen der Ausgestaltung von CBDC

Zentralbanken sehr vieler Staaten forschen zu CBDC. Allerdings sind die betreffenden Bemühungen in den digitalisierten Volkswirtschaften am weitesten fortgeschritten, in denen die informelle Wirtschaft ohnehin sehr ausgeprägt ist. Den Schritt zum vollkommen bargeldlosen System untersuchen die Zentralbanken mit Stand 2022 noch nicht. Sie wollen Bargeld lediglich digital ergänzen. Hierzu konzipieren sie auf unterschiedliche Weise ein hybrides System, in welchem CBDC eine bargeldähnliche Direktforderung gegenüber der Zentralbank darstellt. Die kundenbezogenen Aktivitäten wickelt jedoch der Privatsektor ab.

Ein wichtiger Punkt bei der Ausgestaltung des CBDC ist die Einführung von Zinsen auf Kredite und Guthaben. Dieser Punkt ist keinesfalls selbstverständlich, denn wenn CBDC praktisch ein digitaler Bargeldersatz sein soll, dürfte es nicht verzinst werden: Auch Bargeld läuft zinsfrei um. Wenn es Zinsen auf das CBDC gibt, stellt sich die Frage nach ihrer Höhe. Sie könnten beispielsweise dem Einlagesatz bei den Zentralbanken entsprechen, doch vielleicht müsste auch für CBDC ein neuer Leitzinssatz definiert werden. In jedem Fall entfiele das Zinsgeschäft der Geschäftsbanken, die Geld von der Zentralbank günstiger bekommen und es als Kredit teurer verleihen. Doch es wäre zu hinterfragen, mit welchen Zinsen Sparer rechnen könnten. Denkbar wäre, dass die Zentralbank CBCD zu einem gewissen Zinssatz für die Sparer anlegt und zu einem etwas höheren Zinssatz verleiht. Damit würde sie wie eine riesige Geschäftsbank fungieren.

Eine zweite wichtige Frage ist die nach der Möglichkeit, CBDC auf den Kundenkonten zu erzeugen. Dies müsste der Zentralbank vorbehalten sein. Sie könnte damit eine Art Helikoptergeld bzw. Quantitative Easing für normale Kontoinhaber vergeben. Die dritte wichtige Frage ist die der Verrechnung von CBDC mit FIAT-Geld, solange Letzteres noch existiert. Eine Variante lautet, dass CBDC in FIAT-Geld 1:1 konvertierbar ist, was im Sinne der Währungsstabilität zu begrüßen wäre. Doch es könnte sich auch ein Wechselkurs bilden. Die dritte Möglichkeit wäre die Einführung einer Höchstgrenze für die 1:1-Konvertierung. Dies liefe auf ein völlig neues Geldsystem hinaus. Auch die Frage der anonymen Zahlungen stellt sich, wie sie heute mit Bargeld völlig unproblematisch möglich sind. Da CBCD komplett digital verwaltet wird, könnte für anonyme Zahlungen eine Höchstgrenze festgelegt werden, was Geldwäsche im großen Stil erschweren oder ganz unterbinden würde. Wenn die Zentralbank auf den bei ihr geführten CBDC-Konten Geldwäsche feststellen würde, könnte sie diese direkt sanktionieren.

Verbreitung: CBDC

Auf den Bahamas wurde schon der Sand Dollar, in Kambodscha der Bakong als CBDC-Geld vollständig eingeführt. In anderen Staaten gab oder gibt es Pilotprojekte oder sehr fortgeschrittene Untersuchungen zur Thematik. Hier ein Überblick (Stand: November 2022):

  • Bahamas: Sand Dollar, vollständig eingeführt seit 2020
  • Kambodscha: Bakong, vollständig eingeführt seit 2021
  • Ostkaribische Währungsunion: DCash, Pilotprojekt seit 2021
  • China: e-CNY, Pilotprojekt seit 2020
  • Uruguay: e-Peso, Pilotprojekt von 2017 bis 2018
  • Kanada: Jasper, nur als Wholesale CBDC für Interbankenzahlungen seit 2021
  • Südafrikanische Republik: Khokhag, nur als Wholesale CBDC für Interbankenzahlungen seit 2020
  • Schweden: e-Krona, Pilotprojekt seit 2020
  • Ukraine: E-Hrywnja, Pilotprojekt seit 2018

Eine Umfrage stellte im Jahr 2021 fest, dass 80 % aller Zentralbanken der Welt an CBDCs arbeiten und 40 % schon Proof-of-Concept-Tests durchführen. Der e-Euro wird durch die EZB noch bis 2023 geprüft. Schon Mitte 2021 stellte sie fest, dass es hierfür keine technischen Hindernisse gibt. Gegenwärtig untersucht sie noch die Auswirkungen auf die Märkte, Händler und Bürger sowie die nötigen Voraussetzungen für die Gesetzgebung. Schon seit 2020 laufen mehrere Projekte der EIB (Europäische Investitionsbank), welche die Ausgabe, Übertragung und Kontrolle von CBDC, Smart Contracts und Wertpapier-Token testen. In Thailand wurde noch kein CBDC eingeführt, jedoch hat die Zentralbank dessen mögliche Auswirkungen sehr umfangreich untersucht und hierzu im April 2021 einen Bericht veröffentlicht.

Mögliche Finanzstabilität durch CBDC

Zentralbanken interessiert vorrangig die Frage, ob im Krisenfall CBDC die Stabilität des Finanzsystems eher stärkt oder schwächt. Zu erwarten wäre, dass im Krisenfall Geldmarktakteure (Unternehmen, Privatleute, öffentliche Hand) ihre FIAT-Bankeinlage und Bargeld in großem Stil in CBDC umschichten, weil diese Anlageform garantierte Sicherheit durch die Zentralbank verspricht. Dies könnte zu einem Liquiditätsrisiko für Geschäftsbanken und möglicherweise sogar zu Währungsturbulenzen führen, muss es aber nicht. Darauf weist die BoE (Bank of England) hin. Die dortigen Experten sind der Auffassung, dass es lediglich einer konkreten Ausgestaltung des Wechsels von FIAT-Geld in CBDC bedarf, um die genannten Risiken zu minimieren.

Auch der EZB-Experte Ulrich Bindseil weist darauf hin, dass es diesen Effekt der Umschichtung zu sicheren Banken bereits gibt. Daher würde digitales Zentralbankgeld keine prinzipiell neue Situation schaffen. Vor allem bei einer unbegrenzten 1:1-Konvertierung von FIAT-Geld zu CBDC gäbe es überhaupt kein Risiko der Instabilität an den Finanzmärkten, da sich an der umlaufenden Geldmenge durch die Umschichtungen gar nichts ändern würde.

Fazit: Was ist CBDC?

Die weltweite Einführung von CBDC könnte noch mindestens zehn Jahre oder länger dauern. Sie scheint aber angesichts der digitalen Durchdringung aller Wirtschafts- und Finanzkreisläufe unausweichlich.

Warum ist der Jazz in New Orleans entstanden? Erklärung, Geschichte


New Orleans, Louisiana – in der US-amerikanischen Stadt wurde Ende des 19. und Anfang des 20. Jahrhunderts der Jazz geboren. Zu jener Zeit war New Orleans ein multikultureller Hotspot, mit spanischen, französischen kolonialen Wurzeln und afrikanischen wie europäischen Einflüssen. New Orleans hob sich auf diese Weise von anderen US-amerikanischen Städten ab. Dieser besondere Mix aus Kulturen bereitete den musikalischen Nährboden für die Entstehung des Jazz. Auch, wenn es Debatten darüber gibt, wer letztendlich den Jazz erfand, ist es unumstritten, dass jenes Musikgenre in New Orleans entstand.

Noch heute lassen sich in New Orleans die Einflüsse des Jazz entdecken, der die Kulturgeschichte der Stadt maßgeblich geprägt hat. Der New Orleans Jazz florierte zwischen 1890 und 1930 und bereitete den Boden für zahlreiche Entwicklungen in der Musikhistorie. Damals brachten Musiker verschiedenster Kulturen ihre Musikeinflüsse mit und halfen, das neue Musikgenre zu erschaffen.

Traditionell greift der New Orleans Jazz auf Instrumente wie Kornett, Trompete und Posaune zurück. Je nach Band konnten sich zudem Klarinette, Tuba, Kontrabass oder Schlagzeug dazugesellen. Der Jazz aus jener Zeit hatte seine musikalischen Wurzeln wohl in lokalen Street Bands und im Ragtime. Von New Orleans breitete sich der Einfluss des Jazz schließlich in die Welt aus.

Ursprünge und Einflüsse des Jazz von New Orleans

Bis heute gibt es verschiedene Theorien darüber, wie der Jazz in New Orleans entstanden ist. Klar ist, dass die Musikrichtung zuerst unter dem Titel Jass bekannt war, bis sich gegen 1917 der Begriff Jazz etablierte. Zu jener Zeit war der Ragtime bereits etabliert, eine einflussreiche Vorversion des Jazz, die Straßenzüge von New Orleans wurden zudem von Street Bands geprägt. Der beschriebene multikulturelle Flair sorgte für die Entwicklung neuer Kunstformen, an deren Spitze der Jazz stand. Dabei hat die Entwicklung des Jazz in New Orleans einen ernsten Hintergrund: In vielen Städten der USA herrschten Formen der fragwürdigen Rassentrennung. In New Orleans gab es jedoch lockerere Interpretationen dieser Praktiken. So kam es an Plätzen wie dem Congo Square zur Mischung von afroamerikanischer und kreolischer Kultur, die sich gegenseitig beeinflussten und den Jazz möglich machten.

Der Name Buddy Bolden taucht immer wieder auf, wenn es um die Väter des Jazz geht. Er, unter dem vollen Namen Charles Joseph Bolden bekannt, half beim Übergang vom Ragtime zum Jazz. Um 1895 stieg er zu einer der ersten prominenten Figuren der neuen Musikrichtung auf, dabei spielten auch amerikanische Marschmusik und Blues in den Sound hinein, der auf öffentlichen Veranstaltungen und auf Paraden gespielt wurde. Der Legende nach soll Bolden der erste Bandleader des Jazz gewesen sein. Heute ist Buddy Bolden als King bekannt und gehört zur sogenannten Jazz Royalty der USA. Louis Armstrongs Lehrmeister King Oliver gehört ebenso zu den frühen Ikonen des Jazz, wie das experimentelle Genie Jelly Roll Morton. Auch Louis Armstrong erlernte sein Kunstwerk zu Beginn des 20. Jahrhunderts in New Orleans.

In New Orleans entwickelten sich über die Jahre zudem weitere Varianten des Jazz wie der Dixieland Jazz, zu dessen Popularisierung die Original Dixieland Jass Band mit ihren Aufnahmen um 1917 beitrug. Dabei vermischte der frühe Dixieland den afroamerikanischen Ragtime mit sizilianischer Musik. Sowohl New Orleans Jazz als auch Dixieland haben über die Dekaden bis heute zahlreiche Revivals durchlebt.

Die spätere Geschichte des New Orleans Jazz

Der Höhepunkt des klassischen New Orleans Jazz ist zwischen 1890 und 1930 zu verorten. King Oliver, Jelly Roll Morton, Louis Armstrong, Kid Ory – die Liste der Namen unter den Jazz-Berühmtheiten aus New Orleans ist lang. Dabei fanden einige der früheren Entwicklungen des Jazz im Vergnügungsviertel Storyville statt. Aufgrund von Zwischenfällen wurde das Viertel geschlossen. Nicht nur, aber auch deshalb zog es nach und nach Musiker aus New Orleans weg. Louis Armstrong und Kid Ory gingen nach Chicago, wo sich eine eigene Jazzbewegung herauskristallisierte. Der Jazz emanzipierte sich nach und nach von New Orleans.

Der Jazz machte danach zahlreiche Evolutionen durch, neue Formen wurden erschaffen, die den New Orleans Jazz als eine von vielen Strömungen des Genres zurückließ. Und doch ist der Einfluss des New Orleans Jazz auch heute noch zu spüren. In den 30ern, den 50ern und 60ern kam es jeweils zu einflussreichen Revivals des Stils.

Michael White, Kermit Ruffins und George E. Lewis sind ein Nachweis, dass die Jazzszene von New Orleans noch heute einflussreiche Musik produziert. New Orleans hat mit dem Jazz die Welt verändert, aber der Jazz hat New Orleans nie verlassen.

Überblick – Warum der Jazz in New Orleans entstand

New Orleans gilt als Ursprung des Jazz. Beeinflusst von Ragtime und örtlichen Streetbands entstand aus dem kulturellen Melting Pot von New Orleans ab 1890 bis 1930 die Ursprungsform des New Orleans Jazz. Das Zusammenleben verschiedenster Kulturen, die sich musikalisch gegenseitig inspirierten, machte den Jazz überhaupt erst möglich. Buddy Bolden, Jelly Roll Morton, King Oliver und Louis Armstrong gehören zu den Ikonen der frühen Jazzbewegung. Seitdem hat sie ein ganzes Genre beeinflusst, das noch heute lebhaft – auch in New Orleans – existiert.

Warum ist der Dodo ausgestorben? Erklärung, Geschichte


Der Dodo, oder Raphus cucullatus, wie sein offizieller lateinischer Name lautet, ist eine ausgestorbene flugunfähige Vogelart, die hauptsächlich auf der kleinen Insel Mauritius lebte, bevor sie leider ausstarb.

Warum ist der Dodo ausgestorben? Erklärung, Geschichte

Es wird allgemein angenommen, dass der Dodo ausgestorben ist, weil holländische Seefahrer alle Exemplare verspeisten, nachdem sie festgestellt hatten, dass der Vogel unglaublich leicht zu fangen war, weil er keine Angst vor Menschen hatte (warum er keine Angst vor einem Wesen hatte, das ein Vielfaches seiner Größe hatte, bleibt ein Rätsel). Im Großen und Ganzen ist dies eine ziemlich zutreffende Aussage. Es ist bekannt, dass die Dodo-Population nach der Ankunft und Besiedlung der Insel im Jahr 1598 rapide zurückging, und viele verschiedene Quellen bestätigen, dass der Dodo in der Tat ein häufiger und leichter Snack für viele Seefahrer war, da er aufgrund seiner schwerfälligen Gangart und der bereits erwähnten fehlenden Angst vor Menschen recht leicht zu fangen war.

In einer von der Oxford University School of Natural History veröffentlichten Arbeit werden jedoch die Tiere, die die Seeleute mitbrachten, als einer der Hauptgründe für das Aussterben des Dodos genannt. Die Schweine, Hunde und Ratten, die mit den Seeleuten ankommen, beginnen, die Eier der Vögel zu fressen – dies und die Menschen, die sie jagen und fressen, stören das empfindliche natürliche Gleichgewicht, das der Dodo so lange genossen hat. So wird die Art bald vom Aussterben bedroht und verschwindet dann von der Bildfläche.

Das genaue Datum, wann die Menschen mit dem Dodo in Kontakt kamen, ist noch nicht bekannt. Die holländischen Seeleute, die mit Jacob van Neck (einem der ersten Beschreiber des Tieres) reisten, sollen den Vogel als erste gesehen haben – dies geschah im Jahr 1598. Das Problem ist jedoch, dass portugiesische Seeleute behaupten, den Vogel schon Jahrzehnte vorher gesehen zu haben – bereits 1507.

Dies ist nur eine der vielen Tatsachen über den Dodo, die noch immer nicht eindeutig geklärt sind. So ist das Datum, an dem der Vogel offiziell verschwunden ist, ebenso unbekannt wie das Datum seiner Entdeckung. In der Studie der Universität Oxford wird behauptet, dass der Dodo um 1680 bereits ausgestorben war, was auch in vielen anderen Quellen bestätigt wird. Einige Wissenschaftler, die neuere Aufzeichnungen des Vogels untersucht haben, vermuten jedoch, dass das wahre Datum 10 Jahre später liegt. Andererseits wurde, wie in dem Buch „Lost Land of the Dodo: The Ecological History of Mauritius, Réunion and Rodrigues“ – einem der wichtigsten Texte über den Vogel und sein Ende – vermerkt, die letzte, allgemein anerkannte, bestätigte Sichtung eines lebenden Dodos Jahre zuvor, im Jahr 1662, vorgenommen. Das bedeutet, dass es eine 30-jährige Lücke gibt, in der nicht bekannt ist, was die Dodo-Vögel taten.

Interessanterweise weiß niemand so genau, wie der Dodo-Vogel aussah, obwohl er zusammen mit dem Mammut zu den berühmtesten ausgestorbenen Tieren aller Zeiten gehört. Ganze Skelette dieses Tieres sind äußerst selten – eines der letzten wurde 1755 bei einem Brand zerstört. Selbst das Modell im Naturhistorischen Museum besteht aus Skeletten verschiedener Exemplare.

Die gängige Darstellung des Dodos – als übergewichtiger Vogel mit dümmlichem Aussehen – ist jedoch wahrscheinlich falsch. Aus Rekonstruktionen kürzlich gefundener Knochen geht hervor, dass der Dodo in Wirklichkeit viel schneller und beweglicher war, als die Künstler der Vergangenheit glaubten. Seltsamerweise geht die Standarddarstellung von übergewichtigen Dodos auf die Zeit zurück, als diese Vögel zum ersten Mal gesichtet wurden, obwohl es auch Darstellungen von schlankeren und schlankeren Dodos gibt (einschließlich der Zeichnungen von Jacob van Neck, der einer der ersten war, der sie skizzierte). Diese sind jedoch viel weniger zahlreich als jene, die Dodos zeigen, die groß und unhandlich aussehen. Wahrscheinlich gibt es dafür einen bestimmten Grund, aber wie bei allem, was mit Dodos zu tun hat, weiß niemand genau, was es ist.

Obwohl die Vögel zu einem Beispiel für Dummheit und einem Symbol für das Artensterben geworden sind und in populären Geschichten von „Alice im Wunderland“ bis „Ice Age“ eine Rolle spielen, sind die meisten Aspekte der Biologie des Dodo-Vogels noch immer unbekannt. Das liegt zum Teil daran, dass Exemplare des Vogels extrem selten sind, weil sie ausgestorben sind, bevor die großen naturkundlichen Sammlungen angelegt wurden.

Um das Gehirn von Dodo zu untersuchen, verwendete das Team von Eugenia Gold einen gut erhaltenen Schädel aus den Sammlungen des Natural History Museum in London und scannte ihn mit einem hochauflösenden Computertomographen.

Den Wissenschaftlern zufolge hatte Dodo einen vergrößerten Riechkolben (der Teil des Gehirns, der für die Wahrnehmung von Gerüchen zuständig ist), was nicht typisch für Vögel ist, die über besser entwickelte visuelle Rezeptoren verfügen. Die Autoren vermuten, dass die Dodo-Vögel als Landbewohner ihre Geruchsrezeptoren für die Suche nach Nahrung – Früchte, kleine Landwirbeltiere, Weichtiere – nutzten.

„Es ist erstaunlich, wie neue Technologien aus alten Museumsexemplaren neue Daten herausholen können“, sagte der Mitautor der Studie, Mark Norell, Vorsitzender der Abteilung für Paläontologie am American Museum of Natural History. „Das zeigt, wie wichtig es ist, naturkundliche Sammlungen zu erhalten und zu erweitern, denn niemand weiß, was auf uns zukommt.“

Warum hat ein Igel Stacheln? Erklärung


Stacheligel trifft man in Europa, Asien und Afrika an. Charakteristisch für sie ist ihr Stachelkleid aus langen, dichten Stacheln. Es macht sie unverwechselbar Die Stacheln schützen Igel vor Verletzungen und vor Feinden, den sie bedecken den gesamten Rücken, von der Stirn bis zum Schwanz und auch noch seitliche Bereiche des Bauches. Bei Gefahr können sich Igel in wenigen Sekunden komplett einrollen, so dass sie wie eine stachelige Kugel aussehen.

Woraus bestehen die Stacheln eines Igels?

Die Stacheln sind hohl und bestehen überwiegend aus Keratin, also demselben Stoff, aus dem auch unsere Haare und Nägel sind. Keratin ist ein Eiweiß, das den Stacheln ihre Festigkeit und zugleich eine gewisse Elastizität verleiht. Die Stacheln haben mit Wülsten verstärkte Innenwände, was sie fest, aber zugleich leicht macht. Dieser stabile Aufbau kann dem Igel sogar das Leben retten, denn dadurch können Stacheln Stürze auch aus größerer Höhe gut abfedern. Bei erwachsenen Tieren sind die Stacheln 2-3 cm lang, bei Igel-Babys wenige Millimeter. Die Stacheln werden zur Spitze hin schmaler und sind mit einer Art Wurzel in die Haut eingebettet, die einer kleinen Knolle ähnelt. Jeder einzelne Stachel wird durch einen Muskel bewegt, sodass ein Igel seine Stacheln individuell aufstellen oder anlegen kann. Die Stacheln von Igeln haben eine beige-braune Zeichnung, was den Tieren in der Natur eine hervorragende Tarnung verschafft. Mit zunehmendem Alter wird das Stachelkleid heller, es bleicht aus.

Die Anatomie des Stachel-Igels

Ein durchschnittlicher Igel ist braun bis graubraun, wird selten größer als 32 cm und wiegt zwischen 800 und 1.400 g. Am Kopf fallen ihre knopfartigen, runden Augen, kleine Ohren und eine spitze Nase auf. Er hat kürzere Vorder- als Hinterbeine und Krallen an den Pfoten. Der Schwanz ist zwischen 2 und 4 cm lang. Eine anatomische Besonderheit bringt den Igel zuweilen zum Spucken. Ursache hierfür ist das sei zusätzliches Geschmacksorgan, das Jacobsonsche Organ im Gaumen. Wenn er etwas zum Fressen findet, es aber nicht sofort erkennen kann, kaut er darauf herum, wobei Speichelschaum entsteht. Diesen befördert der Igel mit der Zunge zum Jacobsonsche Organ, das genau identifizieren kann, ob seine Beute essbar ist oder nicht.

Siehe: Was ist das Meme „friedlicher Igel, panischer Igel“?

Die Lebensweise des Stachel-Igels

Igel sind Einzelgänger, man trifft sie nur zur Paarungszeit zu zweit an. Ihr bevorzugter Lebensraum sind Hecken und Gebüsche am Waldrand. Sie mögen auch Parks und Gärten. Igel sind nachtaktive Säugetiere und werden erst in der Dämmerung munter. Sie können zwar nicht gut sehen, haben aber einen sehr feinen Riechsinn. Igel sind Insektenfresser und bevorzugen Spinnen, Käfer und andere Laufinsekten. Auch Schmetterlingslarven, Regenwürmer und Schnecken gehören zu ihren Speisen. Das Nahrungsspektrum ist also sehr umfangreich. Schnecken und Regenwürmer sind für Igel potenziell gefährlich, denn sie sind Zwischenwirte für Parasiten wie Bandwurm und Rundwurm. Fressen Igel die befallenen Würmer, kann es zu Schäden an allen inneren Organen kommen. Der Stacheligel hält Winterschlaf und benötigt in dieser Zeit Nahrung. In den kalten Monaten zehrt er von den Fettreserven, die er sich den Sommer und Herbst über angefressen hat. Wie wichtig die vorherige Nahrungsaufnahme ist, zeigt die Tatsache, dass er während des Winterschlafes zwischen 20 und 40 % seines Gewichtes verliert.

Wie Sie den richtigen Thermostat für Ihr Haus auswählen: Erklärung


Der Thermostat steuert die Temperatur des Hauses und ist ein wichtiger Faktor bei der monatlichen Energierechnung. Es ist essentiell, sich über die vielen Thermostate auf dem Markt zu informieren, bevor Sie einen Kauf tätigen. Im Idealfall finden Sie ein Thermostat, das den Anforderungen Ihres Hauses entspricht und energieeffizient ist. Erfahren Sie hier, wie Sie das richtige Thermostat für Ihre Fußbodenheizung auswählen.

Finden Sie ein geeignetes Thermostat

Vor dem Kauf eines Thermostats ist es essentiell zu wissen, welche Art von Thermostat Fußbodenheizung und -kühlung derzeit in der Immobilie installiert ist. HLK-Geräte sind in den meisten Häusern der Standard.

Modelle von Thermostaten

Thermostate gibt es in einer Vielzahl von Stilen und Funktionen. Ihre Fähigkeit, Energie zu sparen und sich an die Vorlieben der Benutzer anzupassen, ist sehr unterschiedlich.

Programmierbarer Thermostat

Ein programmierbarer Thermostat stellt die Temperatur ohne menschliches Zutun ein. Er kann so eingestellt werden, dass er die Temperatur in Ihrer Wohnung automatisch nach Ihren Wünschen ändert. Wenn Sie ein solches Gerät besitzen, müssen Sie nicht jeden Tag aufstehen und am Thermostat herumschrauben. Im Vergleich zu herkömmlichen Thermostaten senken programmierbare Modelle den Stromverbrauch und die Kosten. Da sie sich weniger abnutzen, haben sie eine längere Lebensdauer.

Sie können Ihr programmierbares Thermostat auf verschiedene Arten einstellen. Sie haben einen Sieben-Tage-Zeitplan, der tägliche Temperaturänderungen zulässt. Eine Variation dieses Themas besteht darin, ihn an Wochentagen auf eine bestimmte Weise und am Wochenende auf eine andere Weise einzustellen.

Digitaler nicht programmierbarer Thermostat

Diejenigen, die tagsüber zu Hause sind, bevorzugen vielleicht nicht programmierbare Thermostate, die manuell eingestellt werden müssen. Einige digitale, nicht programmierbare Thermostate können jedoch Daten mit dem HLK-System teilen, um das Haus den ganzen Tag über auf einer angenehmen Temperatur zu halten.

Manueller Thermostat

Ein manuelles Thermostat ist einem normalen, nicht programmierbaren Thermostat sehr ähnlich, das manuell eingestellt werden muss. Im Gegensatz zu nicht programmierbaren Thermostaten verfügen manuelle Thermostate jedoch nicht über ein gut lesbares LCD-Display.

Thermostat mit drahtloser Steuerung oder Fernbedienung

Das Einstellen der Temperatur in Ihrem Haus ist jetzt so einfach wie das Verbinden eines Fern- oder WLAN-Thermostats mit Ihrem Internetservice und das Einstellen von Ihrem Computer, Tablet oder Smartphone aus. Die Temperatur eines WLAN-Thermostats kann geändert werden, ohne dass Sie sie von Grund auf neu einstellen müssen, und zuvor eingestellte Temperaturen außer Kraft setzen. Die Möglichkeit, Änderungen von außerhalb des Hauses vorzunehmen, erhöht die Benutzerfreundlichkeit und das Potenzial zum Energiesparen.

 Zu beachtende Faktoren

Im Laufe der Zeit werden die Thermostate immer intelligenter und innovativer. Jedes ist auf seine Weise besonders, aber es gibt ein paar gemeinsame Vorlieben bei den Käufern, die Sie im Auge behalten sollten.

  1. Intelligente Thermostate verfügen über eine App, mit der Sie die Temperatur von überall im Haus aus einstellen können. Viele von ihnen sind mit Sprachassistenten wie Alexa von Amazon, Siri von Apple und Google Home kompatibel.
  2. Viele moderne intelligente Thermostate sind mit Geo-Fencing und Smartphone-Apps ausgestattet, um Ihre Routine zu lernen und die Temperatur entsprechend einzustellen.
  3. Sie können je nach Temperatur in Ihrem Haus automatisch von Kühlen auf Heizen umschalten, was sie ideal für Regionen mit einer großen Temperaturspanne macht.
  4. Thermostate mit hintergrundbeleuchtetem Display und Touch-Bedienung sind leicht zu überwachen und fein einzustellen.
  5. Thermostate, die Sie daran erinnern, den Filter der Klimaanlage oder des Ofens zu wechseln, sind praktische Funktionen.

Intelligenter Thermostat

Ein intelligentes Thermostat ist heutzutage der letzte Schrei in der Heiz- und Kühltechnik. Bei diesem programmierbaren Gerät ist keine vorherige Programmierung erforderlich. Je mehr es im Haus verwendet wird, desto mehr lernt es die Eigenheiten und Routinen seiner Besitzer. Wenn niemand zu Hause ist, kann das intelligente Thermostat für die Fußbodenheizung die Temperatur automatisch absenken.

Dieses Thermostat ist mit intelligenten Lautsprechern wie Alexa kompatibel und ermöglicht eine freihändige Bedienung mit Ihrer Stimme. Wenn es mit WLAN verbunden ist, können Sie es auch aus der Ferne bedienen.

Eine Schritt-für-Schritt-Anleitung zur Kombination Ihres neuen AC-Thermostats.

  1. Schalten Sie die alten Heiz- und Kühlsysteme aus, indem Sie die Sicherungen und den Thermostat ausschalten.
  2. Verwenden Sie Klebeband und einen Permanentmarker, um jedes Kabel zu kennzeichnen. Notieren Sie auf jedem Aufkleber, wohin das Kabel führt.
  3. Entfernen Sie die Schrauben und schneiden Sie die Drähte ab. Nehmen Sie die Rückwand von der Wand ab. Um zu verhindern, dass die Kabel im Raum hinter dem Thermostat verschwinden, kleben Sie sie mit Klebeband an der Wand fest.
  4. Bringen Sie die Rückwand des neuen Thermostats an der Wand an. Um Platz für das neue Thermostat an der Wand zu schaffen, müssen Sie die Dübel, mit denen das alte Thermostat an der Wand befestigt war, entfernen und eventuell einige Trockenbauarbeiten durchführen.
  5. Es ist wichtig, dass Ihr Thermostat richtig installiert ist. Einige Thermostate haben einen winzigen Level auf der Rückwand. Bevor Sie die Dübel in der Wand anbringen, markieren Sie mit einem Level die Position der Dübel und machen Sie mit einem Bleistift Führungslöcher.
  6. Verwenden Sie das Loch auf der Rückplatte, um alle Kabel hindurchzuführen. Verwenden Sie die Schrauben, die mit dem neuen Thermostat geliefert wurden, um die Rückplatte an der Wand zu befestigen. Stellen Sie sicher, dass alle Schrauben fest angezogen sind, bevor Sie fortfahren.
  7. Vergewissern Sie sich, dass alle Kabel richtig angeschlossen sind. Wenn die Kabelfarben anders sind als erwartet, können Sie sich jederzeit an dem Foto und den Etiketten orientieren.
  8. Bringen Sie die Abdeckung Ihres Thermostats wieder an. Starten Sie die Thermostat-Fußbodenheizung und das Kühlsystem des Thermostats neu, indem Sie die Unterbrecher wieder auf „ein“ stellen. Es ist sicher, den neuen Thermostat zu diesem Zeitpunkt zu aktivieren.

Beauftragen Sie einen Fachmann

Es gibt eine große Auswahl an Thermostaten auf dem Markt, so dass es schwierig sein kann, einen auszuwählen. Wenden Sie sich an einen professionellen Heizungsservice, um sich beraten zu lassen, was für Ihr Haus das Beste ist.

Strategie durch Wettrechner – Wissenswertes rund um die Vorbereitung von Sportwetten!


Online Sportwettenanbieter erhalten immer öfter den Vorzug von Sport-Fans, wenn es darum geht eine Wette auf ein Sportereignis zu platzieren. So haben stationäre Wettbetreiber zunehmend häufiger das Nachsehen. Grund für das gestiegene Interesse für Online Wetten sind dabei nicht nur die höheren Gewinnaussichten, sondern auch die Möglichkeit einer besseren Vorbereitung von verschiedenen Wetten.

Ohne die nötige Analyse und Vorbereitung von Wetten auf ein Sport-Event, bleibt eine Sportwette pures Glücksspiel. So nutzen immer mehr Sport-Fans einen Wettrechner, um damit potenzielle Gewinne vorab auszurechnen. Auf diese Weise gelingt es besonders gut Risiko und Chancen gegeneinander abzuwägen und sich somit für oder gegen bestimmte Wettangebote zu unterscheiden. In Deutschland gibt es unter den Sportwetten-Tipper ein deutliches Mehrinteresse für Systemrechner. Die oftmals sehr umfangreiche und komplizierte Rechnung von komplexen Wettangeboten kann durch einen Wettrechner deutlich vereinfacht werden. Denn der Markt für Sportwetten hält eine Vielzahl von verschiedenen Wettsystem bereit, so dass nicht nur Laien schnell den Überblick verlieren können. Um einen Tippschein ideal vorzubereiten, ist ein Wettrechner eine große Hilfe. Doch was versteht man eigentlich unter einem Wettrechner? Und welche Wettangebote lassen sich mittels Systemrechner vorab besser kalkulieren?

Was ist ein Wettrechner? Bedeutung, Definition, Erklärung

Ein Wettrechner ist ein praktisches Werkzeug für alle Sport-Fans, die sich gelegentlich an der Tippabgabe im Internet versuchen. Hierfür ist es lediglich notwendig die Wettquoten der Online Buchmacher in den Wettrechner einzutragen und den gewünschten Wetteinsatz zu bestimmen. Innerhalb weniger Sekunden gelingt es so die genaue Gewinnsumme zu berechnen, was vor allem bei Systemwetten oftmals sehr komplex erscheint. Anfänger im Wett-Bereich sollten nicht auf dieses Tool verzichten, um die Zusammenhänge zwischen Wettquoten, dem Einsatz und den Gewinnchancen besser zu verstehen. Spielkunden erhalten damit einen Überblick von den potenziellen Gewinnaussichten für verschiedene Wettsysteme im Internet. Es ist demnach nur noch notwendig den Ausgang von Sportereignissen richtig einzuschätzen. Den Rest übernimmt der Wettrechner im Internet. Die Plattform wettanbieter.org erklärt hier alle Wettrechner ausführlich, so dass sich Sport-Fans einen Überblick von dem enormen Vorteil dieses Tools machen können. Denn mittels Wettrechner lässt sich vor der Tippabgabe schnell erkennen, ob sich eine Wette überhaupt auszahlt. Je nach Wettart gelingt es hierbei sehr komplexe Berechnungen schnell und simpel zu lösen.

Systemwetten, Einzelwetten und Co. einfach erklärt!

Der Wettrechner wird nicht nur bei gewöhnlichen Einzelwetten verwendet, sondern bietet gerade bei komplexeren Systemwetten eine große Hilfe. Auf den meisten Wettportalen im Internet gibt es mittlerweile für Spielkunden eine große Auswahl für verschiedene Wetten. So haben Sport-Fans die Qual der Wahl, wenn es um die Art einer Wette gibt. Umfangreiche Systemrechner ermöglichen es gleich verschiedene Ausgänge von mehreren Sportereignissen zu berechnen, so dass Spielkunden im Vorfeld einen detaillierten Überblick von unterschiedlichen Gewinnaussichten erhalten. Die folgende Übersicht bietet eine Auswahl von verschiedenen Wettarten und deren Definition:

Einzelwetten

Der Klassiker unter den Wetten ist die Einzelwette. Hierbei wird lediglich auf ein Sportereignis getippt. Dabei handelt es sich meistens um die Optionen Sieg, Remis und Niederlage. Schätzt man eine sportliche Partie oder ein Event richtig ein, hat man die Wette gewonnen. In der Regel nutzen nur wenige Sport-Fans einen Wettrechner für Einzelwetten, da hierbei nur die Wettquote mit dem Einsatz multipliziert werden muss, um sich einen Einblick von dem möglichen Gewinn zu verschaffen.

Kombinationswetten

Kombinationswetten sind unter Sport-Fans sehr beliebt, da es hier gelingt durch die Einschätzung auf zwei oder mehr Sportereignisse einen deutlich höheren Gewinn einzufahren, als bei einer bloßen Einzelwette. Kombinationen von bis zehn Spielen sind hier möglich und können mittels Wettrechner sehr unkompliziert berechnet werden. Doch aufgepasst: Ist nur eine Einschätzung eines Sportereignisses bei einer Kombination falsch, ist gleich die ganze Wette verloren.

Trixie Wette

Eine einfache Systemwette ist die Trixie Wette. Hierbei wird in einem System aus drei Spielen mit vier Wetten getippt. Demnach ist es möglich einen Fehler bei der Tippabgabe zu machen und dennoch einen erfolgreichen Wettschein vorzuweisen. Es gibt demnach die Möglichkeit auf vier potenzielle Gewinnchancen.

Heinz Wette

Das System Heinz verbindet sechs Partien aus dem Sportbereich zu insgesamt 57 Kombinationen. Hierbei gibt es demnach eine Menge verschiedene Spielausgänge, die allesamt einen Gewinn versprechen. Großer Vorteil: Die Gewinnchancen steigen enorm, so dass diese Wettart in den meisten Fällen erfolgreich verläuft. Doch sind die Kosten für den Einsatz dieser Wettart deutlich höher als bei einer konventionellen Einzel- oder Kombinationswette.

Goliath Wette

Bei der Goliath Wette werden insgesamt acht Spiel zu 247 möglichen Wetten miteinander verbunden. Auf fast sämtliche Spielausgänge wird hier eine Wette platziert. Den Namen dieses Wettsystem lässt richtig vermuten, dass sich diese Wettart besonders dann lohnt, wenn Underdogs und Außenseiter einer sportlichen Partie das Rennen machen. Gewinnen lediglich die Favoriten kommt es zwar trotzdem zur Gewinnausschüttung, allerdings mit einem Verlustgeschäft für Spielkunden.

Alphabet Wettsystem

Bei der Alphabet Wette werden sechs Spiele zu 26 Kombinationen verbunden. Die Chancen auf eine erfolgreiche Wette sind hier hoch, allerdings lohnt sich diese Art Wette nur, wenn vor allem hohe Quoten auf dem Tippschein zu finden sind.

Wann sollte man einen Wettrechner benutzen?

Grundsätzlich bietet es sich immer an einen Wettrechner zu nutzen, um sich einen Überblick von den Gewinnmöglichkeiten ausgesuchter Wetten zu verschaffen. So sind Wettrechner überaus nützlich, um ein perfektes Gleichgewicht aus Risiko und Gewinnchancen herzustellen. Viele Spielkunden nutzen einen Wettrechner zudem, um den Einfluss der Einsatzhöhe auf verschiedene Systemwetten zu kalkulieren. Damit gelingt es nicht nur den Ertrag einer Wette zu bestimmen, sondern auch die eigenen Ausgaben jederzeit im Blick zu haben.

Wie wird ein Wettrechner bedient?

Die meisten Wettrechner stehen kostenlos zur Verfügung. Durch die Eingabe der Einsatzhöhe und der Wettquoten gelingt es durch wenige Mausklicks gleich mehrere Berechnungen durchzuführen. Bei den Wettquoten unterscheiden Wettrechner im Internet zudem zwischen fraktionalen und amerikanischen Wettquoten und Quoten in Dezimalangaben. Sind die Wetten bereits platziert, ist es zudem möglich bereits vorhandene Ergebnisse einzutragen, um Gewinne und Verluste einfach zu überblicken.

Fazit: Wettrechner bieten Spielkunden vielerlei Vorteile!

Wer regelmäßig eine Wette im Internet platziert, sollte unbedingt auch einen Wettrechner nutzen. Denn mit einem Wettrechner wird es möglich Systemwetten deutlich einfacher zu berechnen und somit unterschiedliche Spielausgänge und den potenziellen Gewinnbetrag bereits vor der Tippabgabe einsehen zu können. Die Nutzung ist kostenlos und bietet bei der Vorbereitung einer Wette eine große Hilfe, so dass man nicht auf dieses praktische Tool verzichten sollte.

Was ist „Dall E Mini“? Erklärung, Bedeutung, Anleitung


„Dall E Mini“ ist eine „text-to-image“ künstliche Intelligenz, die aus geschriebenen Wörtern Bilder erzeugt.

„Dall E Mini“ wird auch „Dalle Mini“ oder „Dalle Mini Ai“ genannt.

„Dall E Mini“ ist kostenlos.

Wie funktioniert „Dall E Mini“? Erklärung, Bedeutung, Definition

Die künstliche Intelligenz „Dall E Mini“ erstellt die Bilder unter anderem auf Grundlage der in der Google-Bildersuche gelisteten Bilder und Grafiken. In den Bildersuchen der Suchmaschinen sind die Bilder, Grafiken und Fotos anhand von Suchbegriffen, Bildnamen, Bildunterschriften und Alt-Texten gelistet und sortiert. Anhand dieser Texte nimmt „Dall E Mini“ die gelisteten Bilder, scannt sie, ermittelt die Essenz und erschafft daraus neue Bilder.

Einfacher ausgedrückt: „Dall E Mini“ schaut sich Millionen Bilder an und ermittelt in bzw. aus diesen Bildern sich wiederholende und identitätsstiftende Muster. (Die KI ermittelt, was allen Bildern gleich ist.) „Dall E Mini“ ermittelt, was diese Bilder ausmacht. Hat „Dall E Mini“ diese Analyse abgeschlossen, so kann „Dall E Mini“ eigene Bilder erschaffen, da die KI jetzt ja weiß, was ein Wort oder einen Satz ausmacht.

„Dall E Mini“ ermittelt die Essenz der gelisteten Bilder und erschafft aus dieser Essenz neue Bilder. (Mit Essenz ist gemeint, dass die KI übereinstimmende Merkmale findet und damit das Eigentliche, jenes das allen Bildern gemein ist, ermittelt.)

Hier muss natürlich gesagt werden, dass „Dall E Mini“ die eingegebenen Worte nicht wirklich versteht, sondern nur versucht die Essenz der Worte in Bildern wiederzugeben. „Dall E Mini“ rät nur.

Am besten kann man „Dall E Mini“ verstehen, wenn man es anhand von berühmten Beispielen anwendet.

„Dall E Mini“: Berlin

Als Term verwenden wir das Wort „Berlin“.

dalle e mini berlin

Zu sehen sind die Wahrzeichen Berlins: Das Brandenburger Tor, der Fernsehturm, die Kuppel vom Berliner Dom.

Die KI hat verstanden, was Berlin ausmacht. Fotos von Wahrzeichen bei blauem Himmel.

„Dall E Mini“: Merkel eating fish

Doch was passiert beim Term „Merkel eating fish“?

dalle e mini merkel eating fish

Di KI hat verstanden, dass mit „Merkel“ die ehemalige deutsche Bundeskanzlerin Dr. Angela Merkel gemeint ist. Das der Ausdruck „fish“ und „eating“ zusammengehören hat sie auch einigermaßen verstanden. Dies ist daran erkennbar, dass die KI den Fisch zum Mund von Angela Merkel „führt“.

Doch schön ist das Ergebnis nicht.

„Dall E Mini“: Germany

dalle e mini germany

Beim Suchwort „Germany“ wird es etwas langweilig. Die KI zeigt nur deutsche Fahnen. Lustigerweise fliegen oder schweben diese teils durch die Luft.

„Dall E Mini“: Techno Party

dalle e mini techno party

Bei den Worten „Techno Party“ hat „Dalle E Mini“ gut eingefangen, was eine Techno Party ist: Dunkle Räume mit etwas buntem Licht.

Dall E Mini: „Too much traffic, please try again“

Wird der Fehler „Too much traffic, please try again“ angezeigt, so ist die KI gerade überlastet, da zu viele Anfragen abgesendet werden.

Der einfachste Weg, um doch noch an seine Bilder zukommen ist: einfach noch einmal auf Run drücken. Sollte dies nicht funktionieren, so sollte mindestens zwei Minuten gewartet werden.

DallE Mini: Warum so beliebt?

Im Frühjahr und Sommer 2022 wurden bildgeneriernde KIs sehr beliebt. Für das IPhone gibt es z.B. die App „Dream“, die das gleiche macht wie Dalle Mini nur mit verschiedenen Filtern: neue Bilder aus der Essenz alter Bilder zu erstellen.

Die KI Dalle Mini kann neue Bilder erstellen, ohne dass diese auf Tatsachen beruhen oder real sind. Die KI erschafft diese einfach aus Kombinationen. Dies kann lustig sein.

Wassertest für Trinkwasser: Wissenswertes rund um den Qualitätstest


Leitungswasser in Deutschland weist allgemein eine gute Qualität auf und kann bedenkenlos verzehrt werden. Experten sprechen aus diesem Grund auch von Trinkwasserqualität. Dennoch gibt es regionale Unterschiede, etwa was den Mineraliengehalt oder auch den Kalkanteil betrifft. Verbraucher, die sich über die genauen Inhaltsstoffe und Konzentrationen in ihrem Leitungswasser informieren möchten, können einen Wassertest durchführen lassen.

Wer kontrolliert die Wasserqualität in Deutschland

Sowohl in der Bundesrepublik Deutschland als auch in Österreich und der Schweiz hat Leitungswasser allgemein eine gute Qualität. Diese wird von den Wasserwerken regelmäßig kontrolliert, um sicherzustellen, dass das Wasser von den Verbrauchern bedenkenlos genutzt und verzehrt werden kann, ohne dass gesundheitliche Schäden zu befürchten sind. So wird ausgeschlossen, dass sich etwa Schwermetalle in höheren Konzentrationen im Wasser befinden. Allerdings endet die Zuständigkeit der Wasserwerke an der Grundstücksgrenze: Ab dieser Stelle sind Hausbesitzer und Vermieter dafür verantwortlich, den Bewohnern und Mietern einwandfreies Trinkwasser zur Verfügung zu stellen.

Selbst wenn das Wasser in guter Qualität am Haus ankommt, kann es sein, dass alte Rohre mit einem hohen Bleigehalt etwa die Flüssigkeit auf den letzten Metern vor dem Wasserbahn verunreinigen und dafür sorgen, dass es zu gesundheitlichen Beeinträchtigungen kommt. Vor allem Kinder sowie alte und kranke Menschen sind an dieser Stelle gefährdet. Vermieter sind daher verpflichtet, das Trinkwasser in ihren Immobilien in regelmäßigen Abständen zu testen. Zahlreiche Anbieter bieten entsprechende Wassertests an, die auf Veranlassung des Vermieters durchgeführt werden und im Idealfall die einwandfreie Qualität des Leitungswassers bescheinigen.

Was genau ist ein Wassertest, und wo und wie wird er durchgeführt?

Ein Wassertest ist die genaue Überprüfung der Wasserqualität durch ein geeignetes und zertifiziertes Labor. Die zugesendeten Wasserproben werden chemisch auf ihre Bestandteile untersucht. Auf diese Weise kann beispielsweise zuverlässig ermittelt werden, wie viel Chlor und Kalk sich im Leitungswasser befindet, welche Mineralien in welcher Konzentration darin enthalten sind und ob etwa ein erhöhtes Schwermetallaufkommen vorliegt. Auf Basis dieser Testergebnisse kann dem Wasser Unbedenklichkeit bescheinigt werden, sofern es die jeweiligen Standards erfüllt. Ist dies nicht der Fall, müssen entsprechende Maßnahmen ergriffen und vor allem auch die Verbraucher gewarnt werden: So kann es etwa vorübergehend erforderlich sein, das Wasser vor dem Verzehr abzukochen oder es gegebenenfalls bis zum Beheben der Probleme gar nicht zu sich zu nehmen.

Einen Wassertest kann grundsätzlich jeder veranlassen. Besteht in einem Mietshaus der berechtigte Verdacht auf eine Verunreinigung des Trinkwassers, ist der Vermieter dafür verantwortlich, den Wassertest durchführen zu lassen. Er muss dann auch die Kosten für die Laboruntersuchung tragen. Diese können abhängig vom gewählten Labor und dem genauen Umfang der Untersuchung teils deutlich variieren. Im Durchschnitt liegen die Kosten für einen professionellen Wassertest zwischen 19€ und 49€. Heutzutage ist es problemlos möglich, eine Trinkwasserüberprüfung online zu veranlassen. Hierzu sind einige persönliche Daten sowie Angaben zum Wohnort erforderlich. Eine entnommene Wasserprobe wird nach dem ersten Kontakt und nach Aufforderung durch den Anbieter in das Labor geschickt, wo die Untersuchung stattfindet. Nach einigen Tagen bekommt der Auftraggeber das Ergebnis per E-Mail oder auf Wunsch auch auf dem Postweg.

Was ist Blutregen / Sahara-Regen? Erklärung, Bedeutung, Definition


Der sogenannte Blutregen ist ein Wetterphänomen, das in der Regel im Frühjahr oder auch im Sommer auftritt. Dabei verfärbt sich der Himmel Orange bis hin zu einem Rotton. Kommt es zu Regenschauern, ist das Regenwasser rötlich gefärbt. Das Phänomen rührt von verwehtem Saharasand her, weshalb das Wetterphänomen heutzutage auch eher als Sahararegen bezeichnet wird.

Wie entsteht der Blutregen / Sahararegen? Entstehung, Erklärung

Gerade im Frühling oder auch in den Sommermonaten kann es passieren, dass starke Winde über Afrika hinweg bis nach Europa wehen. Die Winde nehmen in ihrem Verlauf Saharasand auf und tragen den über das Meer hinweg bis nach Europa. In der Regel ist die Konzentration an Sand in der Luft recht gering und kaum wahrnehmbar. Je nachdem, wie stark und lang anhaltend die Winde wehen, können die Konzentrationen an Saharasand in den oberen Luftschichten aber auch so dicht werden, dass in manchen Gegenden der Himmel orange oder rötlich eingefärbt wirkt. Das hängt damit zusammen, dass die Sandpartikel die Lichtstrahlen anders brechen und in einem eher rötlichen statt in einem blauen Farbton scheinen lassen.

In der Regel löst sich die Konzentration an Saharasand auf, wenn sich die Strömungen der Winde ändern. Es kann aber auch passieren, dass während der Hochphasen der Sandkonzentrationen Regenschauer über einzelnen Gebieten niedergehen. Der in der Luft schwebende Sand wird vom Regen aufgenommen und fällt zur Erde. Die Regentropfen erscheinen rötlich und es bleiben hinterher rote oder orangene Sandspuren auf dem Erdboden, an Häusern und ähnlichem zurück. Dieses Phänomen ist dann der besagte Blutregen.

Woher hat der Blutregen seinen Namen?

Die Bezeichnung “Blutregen” geht auf das Mittelalter zurück. Damals war das Wissen über Wetterphänomene noch sehr begrenzt. Die Menschen waren ungebildeter und deutlich abergläubischer.

Weil man nicht wusste, dass der rötliche Regen von Sand eingefärbt wurde, suchten die Menschen nach anderen Erklärungen. Sie bezeichneten das Wetterphänomen als Blutregen und glaubten daran, dass es tatsächlich Blut regnen würde.

Viele Menschen hatten damals Angst vor diesem Regen. Sie dachten, dass eine höhere Macht bzw. Gott den Himmel aus Zorn mit Blut überzogen hätte, um die Menschen für ihre Fehler zu bestrafen. Der Blutregen galt als böses Omen, das eine Katastrophe in der nahen Zukunft ankündigen müsste.

Ist der Blutregen / Sahararegen gefährlich?

Auch wenn der Blutregen in früheren Zeiten ein deutlich schlechteres Image hatte, ist er für die meisten Menschen nahezu harmlos. Auch für Pflanzen oder die Gewässer ist die erhöhte Konzentration an Saharasand eher unbedenklich, weil der Sand an sich keine gefährlichen Eigenschaften hat. Er ist weder toxisch, noch besonders radioaktiv.

Es kommen jedes Jahr gut 1,8 Milliarden Tonnen Mineralstaub allein über der Nordhalbkugel in die Atmosphäre. Zwei Drittel davon bestehen alleine aus Staub aus der Sahara. Weil der Staub die Luftqualität etwas beeinträchtigt, kann es allerdings bei Menschen mit hoher Sensibilität oder mit Allergien zu leichten Atembeschwerden kommen.

Wie lange hält das Wetterphänomen an?

Der Blutregen/Sahararegen ist ein Phänomen, das sich über mehrere Tage hin erstrecken kann. Für gewöhnlich dauert es eine Woche bis zehn Tage – abhängig von der Menge an Niederschlägen und der verschiedenen Windströmungen – bevor die Menge an Saharastaub aus den oberen Luftschichten wieder verschwunden ist.

Die rötliche Färbung des Bodens kann dagegen etwas länger sichtbar sein. Anders als die Sandpartikel in der Luft verwirbelt sich der mit dem Regen gefallene rötliche Sand nicht weiter. Darum kann es einige Regenabschnitte benötigen, ehe auch die letzten Spuren vom Blutregen verschwunden sind.

Das Phänomen des Sahararegen ist außerdem kein einmaliges Wetterphänomen. Es kann mehrere Male in einem Jahr passieren und hängt immer von den Veränderungen der Luftströmungen ab. Darum ist es durchaus möglich, dass sich zwei Blutregen-Abschnitte direkt hintereinander ereignen. Allerdings ist das eher selten. Der Abstand zwischen den Phasen des Sahararegens ist eher unregelmäßig und endet auch, wenn nach dem Sommer die Windströmungen häufiger von Norden nach Süden wehen.

Was ist eine Kakophonie? Bedeutung, Definition, Erklärung


Kakophonie bedeutet Missklang oder Dissonanz. Dieser Missklang entsteht, wenn ein einzelner Satz oder ganzer Text aus unharmonisch klingenden Wörtern zusammengesetzt wird. Die Reihenfolge der akustisch nicht zusammenpassenden Elemente im Satzbau führt zur Kakophonie, die sogar als störend empfunden werden kann.

Gegenteil von Kakophonie

Das Antonym für Kakophonie ist Euphonie, was genau das Gegenteil bedeutet: wohlklingend.

Was bedeutet „Kakophonie“? Bedeutung, Definition, Erklärung

Kakophonie wird von dem griechischen Adjektiv κακός(kakós = schlecht) und dem Substantiv φωνή (phōné = Laut) abgeleitet und kann somit als schlechter Laut oder schlecht klingender Ton übersetzt werden.

Anwendung der Kakophonie

Der Begriff „Kakophonie“ wird meistens in der Sprache und in der Musik verwendet.

Im alltäglichen Sprachgebrauch bezieht sich die Kakophonie, zum Beispiel, auf ein Durcheinander mehrerer Stimmen oder Meinungen. Wenn mehrere Personen gleichzeitig sprechen, wird es häufig als unangenehm empfunden. Durch das Stimmengewirr wird die Sprache unverständlich und nähert sich eher einem Geräusch anstatt einer Verständigungsmöglichkeit.

Im Bereich der Musik bezieht sich die Kakophonie auf unwohl klingende Werke. Das entsteht, zum Beispiel, wenn ein Musikinstrument verstimmt ist oder der Musiker nicht die richtige Note spielt.

Selbstverständlich kann auch ein Sänger oder eine Sängerin eine Kakophonie hervorrufen, wenn er oder sie den richtigen Ton verfehlt. Der daraus entstehende Missklang ruft eine unangenehme Reaktion des Publikums hervor.

Wie entsteht eine Kakophonie in der Sprache?

Folgen zwei gleiche Laute in einem Wort aufeinander, wird häufig der Sprachfluss unterbrochen. Das geschieht, zum Beispiel, in Wörtern, wo tz gefolgt von z steht. Ein Beispiel dafür ist das Wort „Jetztzeit“.

Die Kakophonie kann in einzelnen Wörtern oder in ganzen Sätzen vorkommen. Dies ist der Fall bei den sogenannten Zungenbrechern. Versucht man sie schnell auszusprechen, stolpert man häufig bei der Aussprache und die Harmonie wird somit unterbrochen.

Alle Buchstaben- oder Wortkombinationen, welche eine Sprechpause verursachen, werden als Kakophonie bezeichnet. Denn die Harmonie wird beim Zuhören unterbrochen und der Wortfluss wird nicht gewährleistet.

Jedoch beziehen sich manche Kakophonien auf ein persönliches Empfinden, denn sie haben oft eine sehr persönliche Auswirkung auf den Zuhörer. Sätze, die für manche als unharmonisch empfunden werden, kommen bei anderen Hörern ganz normal rüber.

Im Allgemeinen sollten Kakophonien vermieden werden, da sie nur unnötige Wiederholungen einzelner Buchstaben in ein und demselben Satz hervorrufen.

Beispiele einer Kakophonie

Schon einzelne Wörter rufen eine Kakophonie hervor:

  • nichtsdestotrotz,
  • Streichholzschächtelchen, oder
  • Strickstrumpf.

Aber auch komplette Sätze, wie die bekannten Zungenbrecher, bewirken eine Kakophonie. Der folgende Satz verdeutlicht die aufeinander folgende Wiederholung derselben Konsonanten: Fischers Fritz fischt frische Fische.

Die häufige Verwendung explosiver Konsonanten erzeugen die Kakophonie

Explosive Konsonanten werden auch als Stoppkonsonanten bezeichnet. Dafür gibt es eine einfache Begründung. Stehen in einem Satz mehrere Konsonanten in einer Reihenfolge hintereinander, kommt es bei der Aussprache zu plötzlichen Pausen, d. h., das flüssige Lesen kann hierbei nicht gewährleistet werden. Stattdessen kommt es zum Stocken.

Um welche Konsonanten handelt es sich dabei?

Die Konsonanten, welche am häufigsten eine Kakophonie hervorrufen, sind: B, D, K, P, T und G. Diese werden jedoch durch weitere explosive Konsonanten wie, zum Beispiel C, CH, Q und X, ergänzt

Kakophonie in der Kultur

Innerhalb der unterschiedlichen Sprachen und Kulturen kann ein Missklang ganz anders empfunden werden.

In der Literatur kann die Kakophonie absichtlich verwendet werden. Oft wird sie als rhetorische Figur verwendet, um den Leser über ein Paragraf stolpern zu lassen und somit gewisse Gefühle hervorzurufen.

Hier gilt jedoch, ob der Autor die Kakophonie absichtlich verwendet. Ist dies der Fall, dann dient es dazu, den Leser zum Nachdenken aufzufordern. Ferner möchten manche Schriftsteller anhand einer Kakophonie bestimmte Situationen hervorrufen.

Wird die Kakophonie jedoch unbewusst verwendet, deutet es eher auf ein mangelndes Können des Schriftstellers.

In welchen Situationen werden Kakophonien verwendet?

Je nach Inhalt der Geschichte kann, zum Beispiel, der Stadtverkehr oder Straßenlärm durch eine Kakophonie widergespiegelt werden. Der Lärm einer Klasse voller Schüler, während sie auf den Lehrer warten oder das entfernte Geräusch einer Kirchenglocke kann durch eine Kakophonie zum Leben erweckt werden.

Wird die Kakophonie im Text richtig eingesetzt, können sie den Leser in die Situation versetzen, die Geschichte zum Leben erwecken und gewisse Gefühle erwecken.

Richtige Rechtschreibung des Begriffs „Kakophonie“

Kakophonie und Kakofonie sind zwei akzeptierte Schreibvarianten. Das daraus entstehende Eigenschaftswort bietet mehrere Schreibweisen:

  • kakophon,
  • kakofon,
  • kakophonisch, oder
  • kakofonisch.

Hier werden alle 4 Formen akzeptiert.

Gibt es auch falsche Schreibformen der Kakophonie?

Typische Schreibfehler, welche hier häufig auftreten, sind:

  • Kackophonie,
  • Kakaphonie, oder
  • Kakofonia.

Diese Formen sollten nach Möglichkeit vermieden werden.

Fazit: Kakophonie

Wer die Kakophonie in einem Text anwenden möchte, sollte sich der Bedeutung und der richtigen Schreibweise bewusst sein. Ferner sollte man sich selbst vorher fragen: Was genau soll die Kakophonie bewirken? Dementsprechend sollte sie dann auch richtig angewendet werden. Andernfalls könnte es genau das Gegenteil hervorrufen.

Was sind Human Challenge Studien? Bedeutung, Definition, Erklärung


Human-Challenge-Studien sind Studien mit einer Herausforderung an Menschen (so die wörtliche Übersetzung). Der Begriff wird im Kontext der medizinischen Forschung verwendet und ist landläufig als Studie mit menschlichen Probanden bekannt. Im Falle der Erforschung von Covid-19-Viren wurden gesunde Freiwillige gezielt mit SARS-CoV-2 infiziert. Das Ergebnis: Die Viren sind ab dem zweiten Tag nach der Infektion ansteckend und bleiben es rund zehn Tage lang. Eine Fragestellung der kürzlich durchgeführten Human-Challenge-Studien zu diesem Thema lautete auch: Wie zuverlässig können Schnelltests die Ansteckungsgefahr erfassen?

Generelles zu Human-Challenge-Studien: Bedeutung, Erklärung

Human-Challenge-Studien sind ethisch umstritten, weil sie für die Freiwilligen immer ein hohes Risiko bergen. Es gibt sie auch für Grippe- oder Malariamedikamente. Die hier beschriebene spezielle Human-Challenge-Studie für die Erforschung von Coronaviren war auch deshalb umstritten, weil sie mit dem Wildtyp von SARS-CoV-2 durchgeführt wurde, obgleich man zu jenem Zeitpunkt schon wusste, dass das Virus relativ schnell und stark mutiert. Daher sind die Ergebnisse mit einer gewissen Vorsicht zu genießen. Dennoch ist sich die Forschung darüber einig, dass man weder auf Tierversuche noch auf Human-Challenge-Studien gänzlich verzichten kann.

Fragestellungen und Studiendesign der Corona-Studie

Im Jahr 2021 führten Forscher am Londoner Imperial College die erste Human-Challenge-Studie mit SARS-CoV-2-Viren durch. Sie infizierten gesunde, junge Probanden mit dem Virus. Ihre Auswahl war unter dem Gesichtspunkt erfolgt, dass jüngere und grundsätzlich gesunde Menschen mit einem vergleichsweise milden Verlauf, auf jeden Fall aber mit nur schwachen Komplikationen (Beatmung etc.) rechnen können. Gleichzeitig trägt gerade diese Gruppe durch die vielfach asymptomatischen, also nicht erkannten Verläufe erheblich zur Ausbreitung des Virus bei. Die britischen Wissenschaftler wollten nun wissen, ab welchem Zeitpunkt nach der Infektion und wie lange danach eine Person ansteckend ist. Diese Fragen sind bislang nicht umfassend geklärt. Seit dem 1. Februar 2022 gibt es einen Preprint zu dieser Studie. Folgende Fragestellungen standen bei der Human-Challenge-Studie im Fokus:

  • #1 Ab wann ist eine infizierte Person ansteckend?
  • #2 Ab wann entwickelt sie/er eigene Symptome?
  • #3 Wie lange ist sie/er ansteckend?
  • #4 Wie sicher können Schnelltests diese genannten Zeiträume erfassen?

Die Studienteilnehmer waren 36 gesunde Teilnehmer*innen, deren Risiko für einen riskanten COVID-19-Verlauf als sehr gering eingeschätzt wurde. Ihr Alter betrug 18 bis 29 Jahre. Sie waren bei ihrer Auswahl für die Studie nicht geimpft und nicht genesen. Zwei der Probanden hatten allerdings zwischen ihrer Auswahl und dem Beginn der Studie Kontakt mit einer infizierten Person (sogenannte Serokonversion), weshalb ihr individuelles Studienergebnis nicht in die Auswertung mit einfloss. Per Protokoll kann daher nur von 34 Teilnehmer*innen ausgegangen werden, was nach anerkannten wissenschaftlichen Maßstäben eine vergleichsweise geringe Teilnehmerzahl ist, die belastbare Aussagen zulassen kann, aber nicht muss. Die Infektion der Teilnehmer*innen erfolgte durch das Einbringen einer exakt definierten Menge von mit SARS-CoV-2-Viren kontaminierter Flüssigkeit in die Nase. Es wurde die am niedrigsten mögliche Virusdosis verabreicht, die gerade noch eine Infektion auslösen kann. Dies ist die Menge an Viren, die ein Tropfen Nasensekret einer infizierten Person enthält.

Studienergebnisse der Human Challenge Studien zu Covid-19

Trotz einiger Bedenken zur Aussagekraft der genannten Human-Challenge-Studie sollen hier wesentliche Ergebnisse zitiert werden:

  • 53 % (18 von 34) der Teilnehmer*innen infizierten sich mit SARS-CoV-2.
  • Das Virus wurde nach 40 Stunden zuerst im Rachen nachgewiesen, nach 58 Stunden erreichte es mit wesentlich höherer Last die Nase.
  • Der Spitzenwert der Virustiter wurde im Rachen nach 112 Stunden erreicht, in der Nase nach 148 Stunden.
  • Die Viruslast blieb in der Nase durchweg signifikant höher als im Rachen.
  • Sämtliche Infizierten wurden auch nach 14 Tagen noch positiv auf SARS-CoV-2 getestet.
  • Die Viruslast war allerdings etwa ab dem 11. Tag so gering, dass die von den Probanden ausgehende Ansteckungsgefahr signifikant gesunken war (bis zu „vernachlässigbar klein“).
  • Nachweisbar blieben die Viren bei 83 % der Probanden bis 14 Tage nach der Ansteckung und bei 33 % bis 28 Tage nach der Ansteckung. Komplett negativ wurden sämtliche Teilnehmer*innen erst 90 Tage nach der Ansteckung getestet.

Schlussfolgerungen

Offenkundig ist aufgrund der deutlich höheren Viruslast die Ansteckungsgefahr über die Nase wesentlich größer als über den Mundatem. Die Maske sollte daher stets die Nase bedecken. Die symptom- und nachweisfreie Inkubationszeit ist mit unter zwei Tagen deutlich kürzer, als man bislang geschätzt hatte (bis zu sechs Tage). Nach der Inkubationszeit bleibt die Viruslast rund eine Woche lang sehr hoch. In dieser Zeit geht von Infizierten eine hohe Ansteckungsgefahr aus. Später – etwa ab Tag 11 nach der Ansteckung – sind sie zwar nicht gänzlich virenfrei, jedoch kaum noch ansteckend.

Das deutsche RKI hat hierzu eigene Studien durchgeführt und einen Ct-Wert von 30 ermittelt (Wert für die Viruslast), ab dem die Ansteckungsgefahr zu vernachlässigen ist. Die britischen Wissenschaftler bestätigen im Wesentlichen diese Aussage. Dieser Wert bedeutet auch, dass die Verdünnung von Aerosolen durch Wind im Freien und große Abstände zwischen Personen die Ansteckungsgefahr sehr deutlich senkt. In der vorliegenden Human-Challenge-Studie gelten überdies die zehn Tage, in denen die Infizierten eine Gefahr für ihre Umgebung darstellen und daher isoliert werden sollten, als reichlich bemessen.

Der eigentliche Median (Mitte der erhobenen Daten) für das Ende der Ansteckungsgefahr liegt eigentlich bei 6,5 Tagen für Viren aus der Nase und 6,25 Tagen für Viren aus dem Rachen. Nach 10,2 Tagen soll auch von der Nase praktisch keine Gefahr mehr ausgehen. Die bislang empfohlene Quarantänezeit von zehn Tagen sei gut gewählt, heißt es im Statement der britischen Wissenschaftler.

Einschränkung der Studienbewertung

Die Forscher nennen selbst die Einschränkungen, denen ihre Studienergebnisse unterliegen. Diese sind:

  • geringe Teilnehmerzahl
  • Gesundheitszustand der Probanden (jung und gesund)
  • relativ kurze Nachbeobachtungszeit
  • Durchführung mit dem Wildtyp des Coronavirus

Trotz dieser Einschränkungen hält der Leiter der Studie Prof. Christopher Chiu die Ergebnisse für relevant. Er räumt zwar ein, dass sich andere Virusvarianten (Delta, Omikron) anders ausbreiten könnten, doch die Faktoren für den Schutz vor Corona seien bei ihnen dieselben. Er weist auch darauf hin, dass die Infektiosität von Corona bislang möglicherweise immer noch unterschätzt werde.

Symptome der Probanden während der Human-Challenge-Studie

89 % der Probanden entwickelten leichte bis mittelschwere Symptome, die nach der Inkubationszeit (ab dem späten zweiten Tag) bis zum vierten Tag nach der Infektion begannen. Es waren typische Erkältungssymptome:

  • Geruchsverlust
  • Niesen
  • verstopfte oder laufende Nase
  • Halsschmerzen
  • Kopf-, Muskel- und Gelenkschmerzen
  • Fieber
  • Müdigkeit

Nach der Aussage des Studienleiters Prof. Chiu gab es keine klinisch behandlungsbedürftigen Symptome und keine Lungenveränderungen. Der Geruchssinn war nach 90 Tagen bei fast allen Teilnehmer*innen wieder komplett hergestellt. Bei zwei Probanden dauerte es rund fünf Monate. Aufgrund dieser Symptome und des überwiegend sehr leichten Krankheitsverlaufs, der allerdings am Alter und Gesundheitszustand der Freiwilligen und an der sehr geringen Viruslast bei der Infektion lag, hält das britische Forscherteam prinzipiell eine Human-Challenge-Studie mit Coronaviren und so einem Studiendesign ethisch für vertretbar.

Ergebnisse der Antigen-Schnelltests

Antigen-Schnelltests sind nach Aussage der Wissenschaftler „ein guter Indikator“ für den Nachweis einer Infektion kurz nach der Ansteckung. Aus der kurzen Inkubationszeit, die inzwischen für die Omikron-Variante des Virus bestätigt wurde, ergibt sich eine sehr große Sicherheit mit Antigen-Schnelltests, wenn diese etwa alle drei Tage durchgeführt werden. Es kann sich auch um Selbsttests handeln, wenn diese ordnungsgemäß durchgeführt werden. Dazu muss der Nasenabstrich tief genug und gründlich genug genommen werden, anschließend muss die Probe lange genug in der Testflüssigkeit bleiben (mindestens eine Minute).

Grundsätzlich, so das britische Forscherteam, korrelierten die Ergebnisse der Antigen-Schnelltests sehr gut mit denjenigen der PCR-Tests. Das funktionierte auch bei einem symptomfreien Verlauf. Zu beachten ist allerdings, dass Antigen-Schnelltests ihre Wirkung am ehesten bei hoher Viruslast entfalten, also etwa zwischen dem dritten bis achten Tag nach der Ansteckung. Die britischen Wissenschaftler empfehlen jedermann mindestens zwei Antigen-Schnelltests (auch Selbsttests) pro Woche.

Was ist Speziesismus? Bedeutung, Definition, Erklärung


Speziesismus ist ein Begriff aus der Tiertethik: Tiere werden durch diese fragwürdige Verhaltensweise gegenüber dem Menschen als minderwertig dargestellt. Verhalten auf der Basis des Speziesismus versucht dabei, tierisches Leid zu legitimieren. Tierschädigende Handlungen werden zuweilen damit gerechtfertigt, dass das Leben von Tieren weniger wertvoll als das von Menschen erscheint. Diese Position ist jedoch hochumstritten. Speziesismus wird insbesondere von Tierrechtsorganisationen aber auch von vielen ethischen lebenden Menschen als großes Unrecht angesehen.

Was ist Speziesismus? Herkunft, Ursprung, Bedeutung, Erklärung

Seine historischen Wurzeln hat der Begriff in den 70er-Jahren. Auch wenn ein Bewusstsein für tierisches Leid schon vorher existierte, definierte der britische Psychologe Richard Ryder damals zum ersten Mal den Begriff. Der Speziesismus wird von ihm als eine Art Artenarroganz gesehen, die zum tierischen Leid führt. Dabei werden von einigen Tierrechtlern auch Analogien zum Rassismus oder Sexismus gezogen.

Für erhöhte Popularität der Theorie sorgte der australische Ethiker und Philosoph Peter Singer, der einen großen Teil seines Werks der Tierethik gewidmet hat. In seinem berühmten 1975 veröffentlichten Buch Animal Liberation. Die Befreiung der Tiere verwendet Singer den von Ryder erfundenen Begriff Speziesismus und beschreibt eine Diskriminierung und Ausbeutung von Tierarten. Tiere werden durch diese Verhaltensweisen als minderwertige Art plakatiert und so zum Objekt von Diskriminierung. Singer möchte hingegen ein Gleichheitsprinzip angewandt sehen, das nicht nur Rassismus und Sexismus aufheben soll, sondern auch den Speziesismus gegen Tiere.

Das ethische Problem von Speziesismus ist im Extremfall der Umgang mit Tieren wie mit Objekten. Anstatt sie als Lebewesen mit einem individuellen Lebensrecht zu sehen, werden sie durch unethisches Verhalten zu einem Spielball menschlicher Interessen. Diese Benachteiligung soll laut Kritikern des Spezisismus – darunter Peter Singer – aufgehoben werden.

Negative Folgen von Speziesismus

Wo sich der Gedanke ausbreitet, dass Tiere weniger Anerkennung und Wert verdient haben, als Menschen, ist der Ausbeutung als logische Konsequenz die Türe geöffnet. Dem Tier ist so im Speziesismus bereits qua Artzugehörigkeit eine Minderwertigkeit zugeschrieben. Dies muss nicht, kann aber zu einer argumentativen Rechtfertigung von Quälerei und Tiermisshandlung werden. Die kritische Betrachtung des Speziesismus öffnet die Türe zu einer komplexen ethischen Diskussion über Tierrechte.

Ist es beispielsweise das Recht des Menschen, Tiere in einer hochindustrialisierten Massentierhaltung für die Umwandlung in Nahrung und Konsumprodukte zu halten? Und wie ethisch fragwürdig ist die Haustierhaltung von Vögeln in Käfigen und von Hunden an der Leine? Der Begriff Speziesismus und seine kritische Betrachtung kann also zu einer Debatte führen, die unser ethisches Verhalten gegenüber Tieren überprüft. Dabei öffnen sich zuweilen komplexe Dilemmata. Denn die Vorteile von Tierversuchen für medizinische Fortschritte sind sichtbar. Die Alternative wären Menschenversuche oder eine mangelhafte Testung von Medikamenten und ähnlichen kritisch notwendigen Produkten. Zugleich würde es vielen Menschen schwerfallen, den Tieren per se das Recht auf ein freies Leben fernab von quälenden Tierversuchen zuzusprechen. Was also tun?

Eine Tierschutzorganisationen setzten bereits bei der Sprache an. Wie beim Sexismus kann man im Fall des Speziesismus bereits bei herabwürdigen Sprachmustern die Missachtung von Tieren erkennen. So werden Menschen als „hässliche Sau“, „dummer Esel“ disqualifiziert. Es ist gar eine gängige Redewendung, ein „Hühnchen zu rupfen“, was eine gewisse Akzeptanz dieser Praxis impliziert. Allerdings kann man hier auch entgegenhalten, dass es Sprüche wie „Schlau wie ein Fuchs“ gibt, die Tiere nicht qua Spezies negativ abqualifizieren. Dennoch kann sich die Missachtung von Tieren bereits in der Sprache zeigen.

Gegenkonzepte und Alternativen zu Speziesismus

Das Bewusstsein, dass Tiere ebenso ein Recht auf Leben, auf Freiheit und auf den Status eines Subjekts haben, entfaltet sich in der Tierethik. Tierethik versucht genau das Problem des Speziesismus zu vermeiden: Eben nicht Tiere per se wegen ihrer Art als minderwertig abzuqualifizieren. Stattdessen versucht sie, Antworten darauf zu finden, wie man mit Tieren gerecht umgehen kann. Sie versucht in vielen Fällen auch die anthropozentrische Sichtweise zu überwinden, nach welcher der Mensch das Maß aller Dinge ist. Peter Singer gehört zu den berühmten Tierethikern, aber auch historische Philosophen wie Jeremy Bentham. Bentham, ein englischer Philosoph, Jurist und Ethiker, stellte bereits im Jahr 1789 in seiner Schrift An Introduction to the Principles of Morals and Legislation fest, dass Tiere durch ihre Fähigkeit zu Leiden eine tiefe Gemeinsamkeit mit Menschen teilen. Bentham vertrat in dieser Frage eine aufklärerische Position, die anerkannte, dass auch irgendwann Tiere das Recht auf ein selbstbestimmtes Leben haben sollten.

Von diesem Ideal der Tierethik ist die menschliche Gegenwart noch weit entfernt. Allerdings gibt es schrittweise Erfolge hin zu mehr Tierrechten. So wurde in Deutschland wie auch in vielen weiteren Ländern ein rechtlich bindendes Tierschutzgesetz etabliert, das Tierquälerei und mit gewissen Einschränkungen schädliche Tierhaltung unter Strafe stellt. Auch Phänomene wie Veganismus und Vegetarismus sind in den letzten Jahren deutlich präsenter geworden. Laut Bundesministerium für Ernährung und Landwirtschaft ernährten sich im Jahr 2021 etwa 10 % der deutschen Bürger vegetarisch, dazu kamen 2 % Veganer. Die Frage des Tierrechts schlägt sich mittlerweile also auch im Alltag in Form der Ernährung nieder.

Die schädlichen Folgen des Speziesismus und die Vorteile eine Achtung von Tierrechten sind offensichtlich. Dennoch kann es extreme Gegenbeispiele zum Speziesismus geben, die nicht immer im Sinne der Tiere sind. So gibt es den sogenannten Anthropomorphismus – der Drang, in Tieren aber auch Gegenständen und Naturphänomenen menschlichte Eigenschaften zu sehen. Das begann bereits zur Zeit der antiken Gottheiten, denen teils menschliche Züge zugeschrieben wurden: Ob der ägyptische Gott Horus oder die Verwandlung von Zeus in einen Stier. Eine Vermenschlichung von Tieren kann ungewollt zu Nachteilen für die Tiere führen. Wird zum Beispiel ein Haustier mit den gleichen Mahlzeiten gefüttert wie ein Mensch, kann dies gesundheitsschädlich sein. So gelten Schokolade oder Salz für Hunde als gefährlich. Ein Ausweg aus dem Dilemma zwischen Speziesismus und Anthropomorphismus wäre, die Tiere als Lebewesen zu sehen, die sich von uns klar unterscheiden können, jedoch dennoch ein großes Spektrum an Rechten verdient haben.

Überblick – Was Speziesismus ist

Speziesismus ist die Wahrnehmung von Tieren gegenüber Menschen als minderwerting. Einige Tierrechtler sehen darin ein äquivalent zum Sexismus und Rassismus. Tierethiker versuchen seit Jahrhunderten die Rechte der Tiere zu berücksichtigen. Dabei tragen Tierschutzgesetze, Veganismus wie Vegetarismus dazu bei, das Leid von Tieren zu mindern. Ein problematisches Gegenteil zum Speziesismus ist die Vermenschlichung von Tieren, der Anthropomorphismus.

Kann man einen Hund vegan ernähren? Erklärung


Da Hunde im Gegensatz zu Katzen keine reinen Fleischfresser (Karnivoren) sind, können sie somit auch vegan ernährt werden. Der folgende Artikel verrät Ihnen die Vor- und Nachteile einer veganen Hundeernährung und was es dabei zu beachten gilt.

Hunde: Worauf muss bei einer veganen Ernährung geachtet werden?

Herkömmliches Hundefutter enthält außer Fleisch auch Mägen, Knochen, Blut und weitere Teile des Körpers toter Tiere. Häufig kommt es sogar vor, dass Körperteile von erkrankten Tieren für Hundefutter verwendet werden. Immer häufiger erkranken Hunde an Krebs und Dickleibigkeit durch die industrielle Herstellung von Tierfutter.

Einen Hund vegan zu ernähren, gestaltet sich relativ unkompliziert, auch wenn diese Methode als umstritten gilt. Die Versorgung notwendiger Nährstoffe muss hierbei gewährleistet sein, da es sonst zu Mangelerscheinungen kommen könnte. Die Mahlzeiten lassen sich selbst zubereiten, aber auch im Handel gibt es Hundefutter, welches rein vegan ist.

Die Zähne von Hunden sind nicht dafür vorgesehen, Nahrungsteile zu zermahlen. Ihr Gebiss ist dafür ausgelegt, die Beute zu packen und zu reißen. Der Darm eines Hundes ist hauptsächlich für fleischhaltige Nahrung gedacht, deshalb ist der Dünndarm auch relativ kurz. Bei pflanzlichen Stoffen dauert der Prozess der Verdauung länger, was für den Hund von Nachteil ist.

Welche Nährstoffe benötigt ein Hund? Ernährung

Um Mangelerscheinungen zu vermeiden, benötigen Hunde folgende Nährstoffe:

  • Kohlenhydrate
  • Gemüse
  • Proteine
  • Öl
  • weitere Nährstoffe

Öl sollte dem Futter unbedingt beigemengt werden, sonst nimmt der Hund die Proteine nicht auf! Des Weiteren sollte bei der Zubereitung auf Gewürze verzichtet werden.

Die jeweiligen Anteile bestehen aus:

  • ca. 40 Prozent Kohlenhydrate
  • ca. 30 Prozent Proteine
  • ca. 27 Prozent Gemüse
  • ca. 3 Prozent Öl

Eisen, Kalzium, Phosphor, Jod, Vitamin E, Vitamin B12, Vitamin D, L-Carnitin und Taurin sind weitere Nähr- und Mineralstoffe, welche bei einer veganen Ernährung hinzugegeben werden sollten.

Was ist bei einer veganen Hunde-Ernährung erlaubt?

Ist ein Hundefutter vegan, darf es kein Fisch, Fleisch oder sonstige Bestandteile tierischer Herkunft wie beispielsweise Quark, Frischkäse oder Eier enthalten. Alternativ kann man seinem Vierbeiner zum Beispiel Süßkartoffeln, braunen Reis, Erbsen und Obst anbieten.

Eine vegetarische Ernährung hingegen erlaubt Produkte wie Quark oder Eier. Beide Methoden erfordern jedoch eine Zufuhr von Kohlenhydraten (Reis, Hafer, Weizen), um den Bedarf an Energie zu decken.

Welche Vorteile hat eine vegane Hundeernährung?

1. Verträglicher für den Hund

Ganz oft löst Futter bei Hunden Allergien aus. Einige Hunde reagieren allergisch auf fast sämtliche Sorten Fleisch oder andere Zutaten in gewöhnlichem Hundefutter. Durch veganes Hundefutter werden weniger Allergien ausgelöst und der Hund verträgt es deshalb besser.

2. Entlastet die Umwelt

Für rund 50 % der Treibhausgase in der Landwirtschaft sind die Nutztiere die Ursache. Durch vegane Ernährung werden Treibhausgase eingespart. Außerdem wird eine erhebliche Menge Wasser gespart. Als Beispiel: Es werden 15.000 Liter Wasser für 1 kg Rindfleisch verbraucht.

3. Weniger Übergewicht

Erkrankungen der Gelenke oder Diabetes sind nur zwei Folgeerscheinungen von Übergewicht. Rund 50 Prozent aller ausgewachsenen Hunde sind hierzulande zu dick. Eine vegane Ernährung kann diesem Problem entgegenwirken.

4. Weniger Tierleiden

Veganes Futter wirkt sich positiv auf die Massentierhaltung aus, da durch pflanzliche Nahrung weniger Tiere leiden müssen.

Welche Nachteile hat eine vegane Hundeernährung?

1. Setzt Grundwissen voraus

Besonders bei Junghunden ist es wichtig, ihnen alle nötigen Nährstoffe gewissenhaft zukommen zu lassen. Bereitet man das Futter selbst zu, sollte man deshalb die Zusammensetzung der Nährstoffe genau wissen. Nur so kann eine langfristige ausgewogene Ernährung sichergestellt werden. In veganem Fertigfutter hingegen sind im Regelfall bereits alle nötigen Nährstoffe enthalten.

2. Keine Akzeptanz des Futters

Manche Hunde entwickeln eine wahre Leidenschaft für Fleisch. Dies kann ein Grund dafür sein, dass er veganes Futter absolut nicht annehmen möchte.

3. Mischfutter erleichtert eine ausgewogene Ernährung

Da Welpen noch in der Wachstumsphase sind, haben sie noch einen höheren Bedarf an Nährstoffen. Deshalb ist es wichtig, auf eine ausgewogene Ernährung zu achten. Das ist leichter gewährleistet, wenn das Futter aus pflanzlichen sowie fleischlichen Zutaten besteht.

Fazit: Kann man einen Hund vegan ernähren? Erklärung

Einen Hund vegan zu ernähren, kann sowohl Vorteile als auch Nachteile mit sich bringen. Jeder Besitzer muss selbst entscheiden, was für seinen Vierbeiner das Beste ist. Eine gesunde und ausgewogene Ernährung ist das wichtigste dabei und sollte stets beachtet werden.

Am besten führt man seinen Hund langsam an eine Umstellung des Futters heran, idealerweise mit tierärztlicher Beratung. Erhält der Hund alle Nährstoffe, die er benötigt, steht einer veganen Ernährung nichts im Wege.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung


Da Hauswirtschaftsräume und Waschkeller oft nicht sehr groß sind, kommt häufig die Frage auf, ob man einen elektronischen Wäschetrockner auf eine Waschmaschine stellen kann. Zusätzlich zum Platzfaktor erleichtert es die Hausarbeit ungemein, wenn beide Geräte in unmittelbarer Nähe zueinander stehen. Einen Trockner auf eine Waschmaschine zu stapeln ist grundsätzlich möglich, jedoch gibt es einige Faktoren zu beachten, auf die im folgenden Text eingegangen wird.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung

Waschmaschinen wiegen je nach Modell zwischen 60 und 100 Kilogramm. Zusätzlich zum Gewicht der Bauteile wird ein sogenanntes Gegengewicht eingebaut, damit die Maschine beim Schleudergang einen festen Stand hat und nicht umkippt. Dennoch bleiben kleine Bewegungen nicht aus, was mitunter sogar dazu führen kann, dass das Gerät „wandert“. Es ist deshalb ratsam, die Maschine auf eine ebene Fläche zu stellen und die meist verstellbaren Füße so auszurichten, dass sie möglichst wenig wackelt. Die ruckelnden Bewegungen sind auch der Grund, wieso man einen Trockner niemals direkt auf eine Waschmaschine stellen sollte. Das Risiko, dass er während des Waschgangs hinunterfällt, ist zu groß. Es gibt dennoch verschiedene Methoden, dieses Problem zu umgehen.

Trockner auf Waschmaschine: Matte oder Vibrationsdämpfer 

Eine Antivibrationsmatte oder Vibrationsdämpfer sind der einfachste Weg, um einen Trockner auf eine Waschmaschine zu stellen.

Die Antivibrationsmatte ist eine Matte, die die Schwingungen absorbiert. Die Vibrationsdämpfer machen genau das gleiche, nur dass sie wie erweiterte Füße funktionieren.

Do it yourself – Zwischenboden

Mit ein wenig handwerklichem Geschick lässt sich selbstständig ein Zwischenboden bauen. Hierzu bietet sich ein Stück Arbeitsplatte oder eine lackierte Massivholzplatte an, denn diese sind in der Regel tief genug, damit der Trockner vollständig darauf Platz findet. Da Wäschetrockner ca. 35 – 50 Kilogramm wiegen, ist eine gewisse Materialstärke unerlässlich, auch hier haben sich Küchenarbeitsplatten bewährt.

Die Platte sollte an mindestens einer Seite fest mit der Wand verschraubt werden, um ein Verrutschen zu vermeiden. Je nach Länge der Platte sollte ein Zwischenfuß in Betracht gezogen werden, damit sich der Boden in der Mitte nicht durchbiegt. Außerdem ist darauf zu achten, dass der Zu- und Ablaufschlauch der Waschmaschine jederzeit leicht zugänglich ist, um im Notfall schnell Reparaturarbeiten erledigen zu können. Nachdem die Trennplatte auf einen festen Stand überprüft wurde, kann die Waschmaschine unter die Platte geschoben werden und der Trockner darüber platziert werden. So stehen beide Geräte übereinander, ohne direkten Kontakt miteinander zu haben. Die Heimwerkermethode ist zeitaufwändig und, wenn keine Restmaterialien verwendet werden, mitunter auch kostspielig. Der Vorteil dieser Methode besteht darin, dass sie oft optisch ansprechend ist und nach den eignen Bedürfnissen angepasst werden kann.

Die schnelle Lösung – der Zwischenbaurahmen

Die meisten Waschmaschinenhersteller bieten inzwischen sogenannte Zwischenbaurahmen zum Verbinden von Waschmaschine und Trockner an. Diese werden sowohl mit der Waschmaschine, als auch mit dem Trockner verschraubt, sodass das obere Gerät nicht herunterfallen kann. Die Kosten für einen Zwischenbaurahmen sind je nach Anbieter sehr unterschiedlich, Universalrahmen gibt es im Internet bereits ab 14 Euro. Der Vorteil eines Zwischenbaurahmens ist, dass man ihn selbst und meistens recht schnell anbringen kann. Allerdings sind aufgrund der unterschiedlichen Maße der einzelnen Anbieter nicht immer alle Geräte miteinander kombinierbar. So kann es sein, dass der Rahmen zwar auf die Waschmaschine passt, der Trockner dann aber nicht mehr auf den Rahmen. Daher sollte vor dem Kauf genau darauf geachtet werden, welche Abmessungen die Geräte zu Hause haben und ob sie auf die entsprechenden Zwischenbaurahmen passen.

Im Fachhandel – der Schrank

Im Möbelfachgeschäft gibt es fertige Waschmaschinenschränke zu kaufen, die zwei übereinander gelegene Fächer haben, wo die beiden Geräte genau hineinpassen. Zwar haben die meisten Waschmaschinen ein Universalmaß, es bietet sich aber dennoch an, vorher einen Blick auf die Abmessungen zu werfen. Manche Waschmaschinenschränke verfügen sogar über Türen, sodass man die Geräte bei Nichtbenutzung nicht sieht.
Auch hier sind Preise, Ausführungen und Qualitäten stark unterschiedlich.

Einen Trockner auf eine Waschmaschine zu stellen, ist also durchaus möglich. Andersherum sollte man es aber nicht machen, da die Waschmaschine schwerer ist und durch ihre starken Bewegungen den Trockner beschädigen könnte.

Was ist die Pomodoro-Technik? Wie funktioniert sie? Bedeutung, Definition, Erklärung


Die Pomodoro-Technik ist eine Methode des Zeitmanagements, die dabei helfen soll die eigene Produktivität durch das systematische Planen von Pausen zu steigern. Der italienische Erfinder Francesco Cirillo hat die Technik erfunden, da er während des Studiums dazu neigte, Aufgaben vor sich her zu schieben. Er ging davon aus, dass man am besten alle 25 Minuten eine Pause notwendig ist, um Produktivitätsabfälle zu vermeiden. Um dieses Schema einzuhalten, organisierte sich Cirillo mit Hilfe einer Küchenuhr in Tomatenform. Diese erinnerte den Erfinder an die Pausen.

Wie funktioniert die Pomodoro-Technik?

Die Pomodoro-Technik folgt folgendem Prinzip: Konzentrierte Arbeitsphasen von 25 Minuten werden mit durch regelmäßige Pausen von 5 Minuten getrennt. Damit wird dem Gehirn deutlich, wann gearbeitet wird und wann Zeit für die Erholung ist. Das soll die Konzentration fördern. Cirillo nennt eine Abfolge von Arbeitsphase und Pause Pomidori. Nach 4 Pomidori, die 2 Stunden und 25 Minuten beträgt, sollte eine längere Pause eingeplant werden, die zwischen 20 bis 30 Minuten beträgt. Danach kann erneut mit Pomidori begonnen werden.

Wirksamkeit der Pomodoro-Technik

Im Wesentlichen geht es bei der Pomodoro-Technik darum, den Fokus bei der Arbeit zu erhöhen, wodurch Multitasking verhindert wird. Daneben steigert die feste Struktur die Disziplin, da Arbeitsunterbrechungen und Ablenkungen komplett aus den produktiven Arbeitsphasen genommen werden. Die feste Strukturierung beugt durch die Aufteilung in sehr kleine Arbeitseinheiten und Ziele Prokastination vor. Schließlich ist es einfacher, sich an kleine, überschaubare Aufgaben zu machen.

Anwendung der Pomodoro-Technik

Die Erfolgreiche Durchführung der Pomodoro-Technik hängt von einer guten Vorbereitung ab. Bevor begonnen wird empfiehlt es sich, alle Aufgaben zu notieren und zu priorisieren. Wichtig ist dabei eine größere Aufgabe in kleine Einheiten zu unterteilen, die gemeinsam in einem 25-Minuten-Block bearbeitet werden können. Zum Beispiel Informationen nachschlagen (10 Minuten) und Folien gestalten (15 Minuten).

Ist eine Übersicht über aktuelle Aufgaben geschaffen, können diese in den Tagesplan aufgenommen werden. Dieser wird fokussiert und stringent durchgezogen, um die Konzentration zu halten und Ablenkungen zu vermeiden. Es kann einige Zeit dauern, sich an die Zeitintervalle zu gewöhnen. Werden diese auch nach längerer Zeit als unpassend empfunden, können die Zeitinvervalle an die eigene Produktivitätsspanne angepasst werden. In der Praxis haben sich hier 15-Minuten oder 40-Minuten-Blöcke bewährt. Die produktiven Phasen sollten jedoch nicht zu Weit ausgeweitet werden, da man oft mit Zeit unproduktiver wird und dies selbst nicht wahrnimmt.

Wichtig ist, Pausen effektiv zur Erholung zu nutzen. Etwas Bewegung kann helfen den Kopf frei zu bekommen. Nicht förderlich ist es, andere To Dos einzuschieben, wie beispielsweise ein kurzes Anruf etc. Schließlich sollen die 5 Minuten Pausen ausschließlich der mentalen Erholung dienen. Dementsprechend sollten in der Pause Dinge getan werden, die wirklich gut tun: Tief durchatmen, sich eine Tasse Kaffee holen oder eine kleine Einheit Yoga.

Es ist wichtig bei der Pomodoro-Technik den richtigen Umgang mit Ablenkungen zu lernen. Kommt ein Geistesblitz, kann man sich diesen notieren und auf einen späteren Zeitpunkt verschieben. Dasselbe gilt für ToDos die nachträglich aufkommen. Daneben gibt es natürlich wirklich wichtige Anrufe und Grundbedürfnisse, welche auch trotz Arbeitsphase bedient werden müssen. Schließlich wirkt es sich auf die Produktivität aus, wenn es uns nicht gut geht. In diesen Fällen kann eine 25-Minuten-Einheit auch kurz unterbrochen werden.

Klassischwerweise wird empfohlen die Pomodoro-Technik ausschließlich mit Stift und Papier umzusetzen. Denn digitale Helfer bergen die Gefahr durch weitere Ablenkung. In diesem Sinne empfiehlt sich der Einsatz einer handelsüblichen Küchenuhr, um die Zeitintervalle zu stoppen. Menschen die ohnehin am Laptop arbeiten können auch einen der zahlreichen Pomodoro-Timer im Internet benutzen. Auch für das Smartphone gibt es Pomodoro-Apps.

Kann man einen Schwan essen? Nein! Erklärung, Antwort, Gründe


Man kann einen Schwan (technisch gesehen) essen, aber es gibt viele gute Gründe, warum man es unterlassen sollte. Diese werden in diesem Beitrag erklärt.

Niedlichkeit oder ein zartes Alter schützt viele Tiere nicht davor, auf dem Teller zu landen. Kleine Lämmer und Zicklein gelten als Delikatessen. Kalbfleisch ist bei Feinschmeckern für seine Zartheit beliebt. Ente und Gans schmecken vielen besonders im Winter. Zu keiner der vier Jahreszeiten ist jedoch ein Schwan auf den meisten Speisekarten zu finden.

Der Schwan als Delikatesse, historischer Rückblick

In früheren Zeiten wurden Schwäne vor allem bei Hofe häufig gegessen. Dabei diente ein gebratener Schwan nicht nur als Nahrung, er erfüllte auch Dekorationszwecke auf der mittelalterlichen Tafel. Nach dem Braten wieder mit Federn bestückt, war er ein Augenfang für die Tafelgäste.
Weniger prunkvoll war die Zubereitung des Schwans während Kriegszeiten. Hier stillten die großen Entenvögel den Hunger und sicherten so manchem das Überleben.

Royale Schwanenflotte

Weil Schwäne in England zu früheren Zeiten als besondere Leckerbissen gejagt wurden, beschloss die englische Krone im 15. Jahrhundert sie unter Schutz zu stellen. Nun gehörten die großen, weißen Vögel dem Königshaus. Sie zu jagen war illegal und zog eine Strafe nach sich. Noch in der heutigen Zeit werden die Schwäne, die auf der englischen Themse schwimmen, im Juni jeden Jahres durchgezählt.

Schwanenfleisch in der heutigen Zeit

Wer Bilder von mittelalterlichen Festtafeln sieht, in deren Mitte ein hübsch dekorierter, stattlicher Schwan thront, fragt sich unweigerlich, wieso Schwanenfleisch auf kaum einer Speisekarte zu finden ist. Dass Schwan sich in Restaurants und den heimischen Küchen rar macht, hat mehrere Gründe.
Der Lebensraum von Schwänen sind bevorzugt eher seichte Seen und Flüsse mit geringer Strömung. Solche Gewässer und deren Bewohner sind nicht selten mit Keimen belastet, welche beim Verzehr auf den Menschen übergehen und Krankheiten auslösen können.

Außerdem mundet Schwanenfleisch alles andere als gut. Sein Geschmack wird mit tranig und sumpfig umschrieben. Mit entsprechenden Kenntnissen ist es wohl möglich, den Wasservogel auch schmackhafter zuzubereiten. Nur, wieso sollte sich jemand die Mühe machen, wenn es bei Enten und anderem Geflügel ganz ohne Aufwand geht.

Nicht zuletzt gilt der Schwan als Symbol für Treue und Liebe. Er steht auch für Königlichkeit, Vollkommenheit und Anmut und ist auf zahlreichen Wappen zu finden. Ein solch symbolträchtiges Tier, das ohne große Aufwand zudem nicht schmeckt, zu jagen und zu verspeisen ist heutzutage schlicht unpopulär.

Steckbrief des Schwans

Der Schwan gehört zur Familie der Entenvögel. Ein Schwan kann bis zu 14 kg schwer und über einen Meter groß werden. Dank seines langen Halses fällt ihm das Gründeln, also das Absuchen von Gewässerböden nach Nahrung, leicht. Bevorzugte Lebensbereiche sind Gewässer wie Seen und Flüsse. Auch in Sümpfen fühlen sich Schwäne wohl. Damit die Nahrungssuche am Boden des Gewässers gelingt, darf dieses nicht zu tief sein. Wasserpflanzen und Pflanzen des Uferbereichs sind Hauptnahrung der weißfedrigen Vögel. Ab und an stehen jedoch auch Insekten oder kleinere Fische auf dem Speiseplan.

Findet ein Schwanenpaar zusammen, so geht es meist einen Bund fürs Leben ein. Auch der Nestbau aus Pflanzenresten und Zweigen findet gemeinsam statt. Gewässernahe, aber möglichst ungestörte Standorte werden dabei bevorzugt. Ist das Nest fertig, legt das Schwanenweibchen Eier, die es, bewacht und beschützt vom seinem Partner, ausbrütet. Der Aufzucht der Jungen widmen sich dann wieder beide Partner.

Was ist eine Glückskatze? Bedeutung, Definition, Erklärung


Glückskatzen zählen eher zur Seltenheit und gelten als Glücksbringer, weswegen sie sehr beliebt sind. Was man unter Glückskatzen versteht und was sie ausmachen, zeigt der folgende Artikel.

Was versteht man unter einer Glückskatze? Erklärung

Als Glückskatzen werden im Volksmund Katzen bezeichnet, welche drei Farben, nämlich schwarz, rot und weiß aufzeigen. Bereits im Mittelalter war man der Überzeugung, dass solche Katzen Feuer von eigenen Häusern fernhalten. Seefahrer aus Japan nahmen die Glückskatzen bereitwillig mit auf Schiffe, um sie auf hoher See vor Unheil zu bewahren.

Des Weiteren sollen sie arme Menschen zu Reichtum verholfen haben, doch nur, wenn die Katzen gut behandelt wurden. Eine Glückskatze hingegen zu verletzen oder gar zu töten sollte Unglück über diese Menschen bringen.

Maneki Neko werden in Japan die dreifarbigen und laut Volksmund glücksbringenden Winkekatzen genannt. Eine Legende besagt, solch eine Glückskatze rettete einst eine Geisha vor dem tödlichen Biss einer Schlange.

Wissenschaftlich konnte nie nachgewiesen werden, ob dreifarbige Katzen ihren Besitzern Glück bringen, was den Begriff Glückskatze wohl eher zu einem Mythos macht.

Die Entstehung einer dreifarbigen Katze: Genetik

Das X-Chromosom ist für die Farbe des Fells einer Katze verantwortlich, wobei rot und schwarz die Grundfarben sind. Weibchen verfügen über 2 X-Chromosomen, weshalb sie beide Grundfarben zeitgleich haben können. Besitzt eine Katze diese rot-schwarze Färbung, bezeichnet man das auch als Schildpattmuster.

Da ein Kater im Gegensatz zur Katze für gewöhnlich nur ein X-Chromosom und ein Y-Chromosom besitzt, können die Katzenbabys auch im Regelfall entweder nur schwarz oder rot gefärbt sein. Aus diesem Grund sind Glückskatzen meist weiblicher Natur.

Um einer Glückskatze diesen Namen zu verleihen, benötigt sie ein sogenanntes S-Gen (Scheckungs-Gen). Dieses Gen ist für die weißen Flächen im Fell der Katze verantwortlich. Wie sich diese Flecken verteilen und wie groß sie sind, ist reiner Zufall. Solch eine Gen-Variante tritt eher selten auf, weshalb dreifarbige Katzen nicht so oft vorkommen. Das schwarz-weiß-rote Fell ist auch unter dem Namen Tricolor bekannt.

Ganz selten können Glückskatzen auch männlich sein, doch das ist wirklich eine absolute Ausnahme. Der Grund dafür ist eine Anomalie der Gene und nur möglich, wenn der Kater über 2 X-Chromosomen verfügt. Außer Schwarz und Rot bedarf es dabei auch noch einer weißen Scheckung, um ein Glückskater zu sein. In diesem Fall sind die Tiere allerdings unfruchtbar, somit können diese Gene auch nicht weiter vererbt werden.

Es kommt nicht auf die Rasse an

Die Rasse ist bei Glückskatzen unerheblich, denn sie können überall vorkommen, vorausgesetzt, die nötige Veranlagung der Katze ist gegeben. Ebenso muss sie das Scheckungs-Gen enthalten.

Ob eine Schildpatt-Katze, das heißt eine schwarz-rot gefärbte Katze entsteht, bleibt weiterhin der Natur vorbehalten und lässt sich nicht bewusst züchten.

Bei einer Katzenrasse tritt die 3-Farben-Zeichnung jedoch des Öfteren auf, nämlich bei der Crysanthemenkatze (Japanese Bobtail). Diese Rassekatze hat ihren Ursprung in Asien und Scheckungen kommen bei ihr häufiger vor. Tiere mit drei Farben werden dort überaus geschätzt.

Haben Glückskatzen einen speziellen Charakter?

Es gibt viel, was man einer Glückskatze an charakteristischen Eigenschaften nachsagt. So sollen diese Katzen laut einer Umfrage beispielsweise mehr temperamentvoll und eigensinniger sein als andere ihrer Artgenossen.

Von den Umfragen unabhängig meldeten Besitzer von Glückskatzen allerdings, dass diese Eigenschaften auf ihre Glückskatzen in keiner Weise zutreffen. Im Gegenteil, ihre Katzen wären sehr auf den Menschen bezogen und liebesbedürftig.

Beweise für solche Eigenschaften bei einer dreifarbigen Katze gibt es bisher nicht. Das hat den Grund, dass Katzen generell sehr individuell sind und jede ihre Vor-und Nachteile besitzt.

Fazit: Glückskatzen

Es ist und bleibt wohl eher ein Mythos, dass dreifarbige Katzen Glück bescheren sollen, denn es gibt keinen wissenschaftlichen Beweis dafür. Jede Katze hat ihren eigenen Charakter, welcher nicht von ihrer Farbe abhängt. Trotzdem kann sich jeder, der Besitzer solch einer Schönheit ist, sehr wohl überaus glücklich schätzen.

Was bedeutet „Sockenpuppe“? Bedeutung, Definition, Erklärung


In Diskussionen im Internet versteht man unter dem Vorwurf einer Sockenpuppe in der Regel einen Zweit- oder Mehrfachaccount eines Benutzers, der bereits über ein Benutzerkonto verfügt, aber unter verschiedenen Gründen in einer Diskussion nicht mit diesem Konto posten möchte. Die Sockenpuppen fallen daher nicht selten unter die Kategorie der Trolle, Agenda-Accounts oder Wegwerfaccounts. In der Regel werden die Sockenpuppen dafür genutzt, Diskussionen durch besonders kontroverse Äußerungen entgleisen zu lassen oder direkte Regelverletzungen auf einer Plattform vorzunehmen. Sockenpuppen können aber bei heiklen Themen auch einfach dem Wunsch nach Anonymität in einer Debatte entsprechen.

Was sind Sockenpuppen und wie funktionieren sie? Internet, Social Media

Bei einer Sockenpuppe handelt es sich in fast allen Fällen um einen weiteren Account einer Person, die entweder nur bei bestimmten Themen und Diskussionen auftritt oder stets dort, wo der User mit seinem eigentlichen Account in einer Diskussion verstrickt ist. Mit der Hilfe des zusätzlichen Accounts soll erreicht werden, dass die Meinung des Sockenpuppen-Besitzers als von anderen geteilt erscheint und damit mehr Legitimität hat. Sockenpuppen werden auch dafür genutzt, bestehende Diskussionen in eine bestimmte Richtung entgleisen zu lassen – etwas, das unter dem Begriff Derailing auf vielen Plattformen sanktioniert wird.

Der Einsatz von Sockenpuppen ist im Internet keine neue Entwicklung lässt sich in dieser Form bereits in die ersten Usenet-Gruppen zurückverfolgen. Vergleiche wurden auch mit Publikationen im Mittelalter gemacht, in denen wichtige Leute unter falschen Namen Leserbriefe oder Kolumnen in Zeitungen geschrieben habe, um ihren Standpunkt mit der Hilfe dieser vermeintlich neutralen Person zu verdeutlichen oder die Diskussion zu beeinflussen.

Vor allem die modernen sozialen Netzwerke, Foren und Kommentar-Bereiche in Online-Publikationen machen den Einsatz von Sockenpuppen heute einfach wie nie. In der Regel braucht es für die Verifizierung des Accounts nur eine E-Mail-Adresse und diese ist wiederum bei den verschiedensten Diensten in wenigen Minuten angelegt. Da man auch ohne irgendeine Form von Verifizierung und ohne Vorlauf in Diskussionen einsteigen kann, ist es für Sockenpuppen besonders einfach, bereits kurz nach der Registrierung aktiv zu werden. Das wiederum hat zur Folge, dass Accounts mit wenige Aktivität oder einem geringen Alter inzwischen in den sozialen Netzwerken von vielen Benutzern in Diskussionen besonders kritisch betrachtet werden.

Die Ziele hinter dem Einsatz von Sockenpuppen

Es gibt verschiedene Gründe für den Einsatz von Sockenpuppen. So setzen verschiedene Benutzer auf den Einsatz von mehreren Accounts, um ihre Anonymität im Internet zu wahren. Da sie keine zusammenhängende Historie haben, wird es schwieriger, eine Person hinter dem Account zu doxxen und somit die Verbindung zu einer realen Person herzustellen. Besonders in Zeiten, in denen die Cookies sonst zu einem Problem werden können, wird dieser Grund häufig benutzt. Allerdings würden in diesem Fall die Sockenpuppen nicht als Störungen oder als Agenda Pushing in bestimmte Richtungen dienen, sondern einzig zu dem Einsatz bei verschiedenen Themen.

Der eigentliche Grund liegt aber in der Regel bei einer Verschiebung des Diskurses. Mit der Hilfe von Sockenpuppen lässt sich beispielsweise in Diskussionen recht mühelos das Gefühl aufbauen, dass eine bestimmte Position von einer Mehrheit vertreten wird. Wenn ein Benutzer ein kontroverses Statement macht, ihm zwei Leute widersprechen, gleichzeitig aber zwei Sockenpuppen das kontroverse Statement aufgreifen, werden die Mehrheitsverhältnisse verfälscht. In größeren Dimensionen kann auf diese Weise eine bestimmte Ansicht oder Position besonders sichtbar gemacht werden. Durch das Gefühl, dass eine Mehrheit für kontroverse Statements werden sich daher auch Leute hervortrauen, die diese bestätigen. Das kann eine eigene Dynamik entwickeln.

Natürlich lassen sich auf diese Weise auch konkrete Vorhaben sichtbarer machen, als sie in einer organischen Diskussion sein würden. Sei es nun bei einer Petition, einer Umfrage oder bei einer einfachen Diskussion bei einem Forum im Internet – alles in allem werden durch Sockenpuppen Meinungen mehrheitsfähig gemacht, die in einem organischen Diskurs nicht mehrheitsfähig wären. Genau dort liegt auch das bisher größte Problem bei der Suche nach einer Lösung dieses Problems.

Unterscheidung zwischen Bot-Netzwerken und Sockenpuppen

Oftmals gehen in der Beschreibung Trolle, Sockenpuppen und Bots die Begrifflichkeit ineinander über. Tatsächlich gibt es aber Unterscheidungen. Ein Troll wird in der Regel einfach nur versuchen die anderen User zu provozieren, ohne dabei eine klare Agenda zu verfolgen. Ein Bot oder ein Bot-Netzwerk wird nicht nur von mehreren Personen oder Organisationen gesteuert, sondern agiert in den Diskussionen auch ganz automatisch. Es ist also selten eine einzelne Person dahinter, sondern ein Algorithmus, der beispielsweise in den sozialen Netzwerken auf einzelne Keywords anspringt und daraufhin anfängt aktiv zu werden.

Hinter den meisten Sockenpuppen in sozialen Netzwerken stehen einzelne Personen. Es gibt zwar auch eine Vielzahl von Berichten, nach denen etwa Geheimdienste in Russland, den USA und China inzwischen eine große Zahl von Sockenpuppen für die Beeinflussung von Diskussionen im Internet nutzen, das konnte aber bisher im größeren Maße nicht bestätigt werden. Zudem werden immer mehr Benutzer vorsichtig im Umgang mit einer speziellen Sorte von Accounts und bei einer genaueren Prüfung sind die Sockenpuppen für den Betreiber relativ einfach zu entdecken.

Was ist ein Seil? Ursprung, Bedeutung und Verwendungszwecke


Seile sind elastische Elemente, die aus Natur- oder Kunstfasern bestehen und nur auf Zugkraft beansprucht werden können. Weitere Begriffe, die in diesem Zusammenhang verwendet werden, sind Leine, Schnur, Tau oder Trosse. Die verschiedenen Bezeichnungen können umgangssprachlich unterschiedlich definiert sein.

Jede Seilart zeichnet sich durch unterschiedliche Merkmale aus

Ein dünnes Seil mit einem Durchmesser von weniger als sechs Millimetern gilt als Schnur, wobei eine lange Schnur auch als Leine bezeichnet wird. Dicke Seile, deren Durchmesser 50 Millimeter oder beträgt, sind Taue (Einzahl: Tau). Für Seile aus Stahl wird der Fachbegriff Trossen verwendet. Jede Seilart zeichnet sich durch besondere Merkmale aus und ist daher auch für bestimmte Einsatzbereiche geeignet, während sie für andere Fachgebiete vollkommen ungeeignet ist. Am häufigsten werden Seile, Schnüre und Kordeln im Bau- und Transportwesen genutzt. Außerdem bestehen Anwendungsmöglichkeiten als Sicherungsseile und Abhängeseile. In der Medizintechnik, Leuchtenindustrie, Möbelindustrie, Gartengerätetechnik und Agrartechnik sowie in der Automobilindustrie kommen Drahtseile zum Einsatz. In der Förder- und Hebetechnik ist das Edelstahlseil für das Tragen hoher Lasten unverzichtbar. Überall dort, wo hohe Tragkräfte, hohe Abriebfestigkeit sowie eine geringe Dehnung gefordert sind, wie bei der Sicherung von Transporten, auf Schiffen, im Ingenieurbau und Brückenbau kommt das Edelstahlseil zur Verwendung. Edelstahlseile, wie sie beispielsweise bei cgahrens zu finden sind, gelten als langlebig und optisch ansprechender als verzinkte Drahtseile. Der Bereich Drahtseiltechnik umfasst neben verschiedenen Einsatzmöglichkeiten für Drahtseile auch Drahtseilzubehör wie Drahtseilklemmen, Schäkel und Terminals sowie spezielle Werkzeuge für die Drahtseilverarbeitung.

Die Seilschaft, sprachlich verwandt, jedoch mit völlig anderer Bedeutung

Im Zusammenhang mit dem Begriff Seil existiert der sprachlich verwandte Ausdruck Seilschaft. Allerdings handelt es sich beim Begriff Seilschaft um etwas völlig anderes. In Unternehmen sowie in Bereichen wie Wirtschaft und Finanzen kennt man Seilschaften als Netzwerke von Personen, die gemeinsame Interessen, die oft über den beruflichen Kontext hinausgehen, verbinden. Daher wird die Bezeichnung Seilschaft oft negativ assoziiert. Die ursprüngliche Bedeutung der Seilschaft wird im Duden folgendermaßen beschrieben: Gruppe von Personen, die beispielsweise im politischen Bereich zusammenarbeiten und sich gegenseitig begünstigen. Eine Seilschaft kann jedoch auch eine Gruppe von Kletterern oder Bergsteigern sein, die bei Trekkingtouren durch ein Sicherungsseil miteinander verbunden sind. Im allgemeinen Sprachgebrauch wird eine Bergsteigergruppe auch dann als Seilschaft bezeichnet, wenn diese zwar gemeinsam unterwegs, allerdings nicht mit einem Seil verbunden ist.

Gleichzeitig bildet eine Seilschaft eine Gefahrengemeinschaft, da unter ungünstigen Bedingungen der Sturz eines einzelnen Mitgliedes bereits zum Absturz der gesamten Seilschaft führen kann. Durch das Sicherungsseil soll die Seilschaft ihren Mitgliedern zuverlässige Sicherung gegen Absturz bieten. In unserem modernen Zeitalter werden für technische Fachausdrücke oft Anglizismen verwendet. So handelt es sich bei einem Circuit Breaker um eine Sicherungsvorrichtung, die dazu dient, einen Stromkreis zu unterbrechen. Im Deutschen wird das Fachwort Circuit Breaker mit Sicherung oder Leistungsschutzschalter genannt. Da heutzutage vorwiegend online kommuniziert wird, haben die Internetsprache und der Netzjargon eine große Bedeutung. Die WLAN-Namen, die zur Identifizierung eines Internet-Anschlusses vergeben werden, können individuell und witzig, aber auch beleidigend und böse sein. Generell werden gern Abkürzungen verwendet, da diese fester Teil des Sprachgebrauches sind. Abkürzungen sollen den Lesefluss verbessern, Texte kürzer gestalten und Wortwiederholungen verhindern.

Was ist eine Impfprämie? Vorteile, Nachteile, Bedeutung, Definition, Erklärung


Mit einer Impfprämie sollen Bürgerinnen und Bürger motiviert werden, sich gegen Corona impfen zu lassen. Das Modell gibt es zumindest im Ausland schon seit2021, in Deutschland setzt es sich nur langsam und meistens durch privatwirtschaftliche Initiativen durch. Die Impfprämie kann direkt in Geld gezahlt werden, doch auch andere Anreize sind möglich: Bundesweite Schlagzeilen machten 2021 Gemeinden in Thüringen, die den Impfwilligen nach dem Pieks eine kostenlose Bratwurst spendierten.

Warum kommt die Diskussion um eine Impfprämie auf?

Dass eine Schutzimpfung die Folgen einer Infektion mit SARS-CoV-2 am besten auffängt oder diese Infektion gleich ganz verhindert, gilt zumindest in der Wissenschaft als unstrittig. Die Impfung mag aber nicht jeder, es gibt bekanntlich erklärte Gegner dieser Vorsichtsmaßnahme. Eine Impfpflicht, über die der deutsche Bundestag am 26. Januar 2022 erstmals debattierte und die in Österreich inzwischen beschlossen wurde, dürfte allerdings zur Radikalisierung einiger Impfgegner führen. Da radikale Strömungen auch immer einen Teil der eigentlich unentschlossenen Bevölkerung beeinflussen, wie an den Demonstrationen gegen die Coronamaßnahmen zu erkennen ist, wäre eine Impfprämie ein sanftes Motivationsmittel, um diese große Menge der Unentschlossenen zur Impfung zu bewegen. Die Privatwirtschaft hat das schon längst erkannt: In den USA boten schon im Frühjahr 2021 einige große Unternehmen ihren Beschäftigten Impfprämien an, gleich nachdem es erste Impfstoffe gab. Viele deutsche Unternehmen folgen inzwischen diesem Weg. Ihre Motivation ist vollkommen klar: Sie brauchen geimpfte Mitarbeitende, wenn ihre Produktion weiterlaufen soll.

Impfprämie: Beispiele aus Deutschland

Gerade in den Bundesländern Sachsen und Thüringen, in denen die Impfquote deutschlandweit am niedrigsten ist, preschen Firmen mit einer Impfprämie für ihre Beschäftigten vor. Sie lassen sich von Forschungsdaten leiten, welche die Motivation durch die Prämie belegen. Der Unternehmerverband Sachsen begrüßt das Modell grundsätzlich, verweist aber darauf, dass sich dieses weder alle Firmen noch alle Branchen leisten können. Hinter dieser Aussage stecken handfeste Zahlen: So zahlt die Böttcher AG aus Thüringen (Büroversand) jedem Mitarbeiter 5.000 Euro Prämie für die Impfung. Das ist eine enorme Summe, die in der Tat nur wenige Unternehmen stemmen können.

Böttcher-Vorstand Danilo Frasiak kann die Entscheidung aber begründen, die kurz vor dem Weihnachtsgeschäft 2021 getroffen wurde: Im Versandhandel (wie auch in anderen Handelsbereichen) ist der Dezember mit Abstand der stärkste Monat des Jahres. Die Böttcher AG konnte sich keine Ausfälle durch Coronaerkrankungen oder Quarantänemaßnahmen leisten. Die Prämie rechnete sich für das Unternehmen. Dieses steuerte damit auch den extrem hohen Inzidenzen in Thüringen und Sachsen entgegen. Frasiak führt aber noch weitere Gründe außerhalb der reinen Ökonomie für die Impfprämie an. Man habe, so der Manager, die Belegschaft zur Auseinandersetzung mit dem Impfthema bewegen wollen.

Der positive Anreiz einer hohen Prämie habe dabei als echter Motivationsbooster gewirkt. Frasiak spricht damit die beiden Seiten des Bonus-Malus-Systems via Geld an: Dem Bonus der Impfprämie würde nämlich bei der Einführung einer Impfpflicht als Malus die Geldbuße bei der Impfverweigerung gegenüberstehen. Wirtschaftsvertreter setzen ganz eindeutig auf den Bonus, also die Impfprämie. Sie wissen, wie man Menschen am besten motiviert. Hier einige Zahlen dazu:

  • Die 5.000 Euro bekommen die Beschäftigten der Böttcher AG nach der Zweitimpfung, und zwar auch, wenn sie diese schon vor dem Beginn der Prämienaktion bekommen hatten. Auch das ist wichtig bei einer Impfprämie. Sie muss gerecht ausgeschüttet werden.
  • Das Unternehmen bezahlte für seine Großzügigkeit drei Millionen Euro.
  • Es freut sich über eine Impfquote von 100 % in den meisten Abteilungen.
  • Niedriger als 80 % (eher: ~90 %) lag sie Anfang Januar 2022 in keinem Bereich des Unternehmens.
  • Zum Vergleich: Die deutschlandweite Quote der zweimal Geimpften lag am 26. Januar 2022 bei 73,6 %.
  • Seit Mitte Dezember 2021 gab es nur noch einen einzigen Infektionsfall bei der Thüringer Böttcher AG.

Die Belegschaft habe durchweg positiv auf das Prämienangebot reagiert, auch wenn es nicht ausnahmslos von allen Mitarbeitenden angenommen wurde, so Frasiak. Es wurde auch niemand benachteiligt, der sich nicht impfen lassen wollte.

Wissenschaftliche Untersuchungen zur Impfprämie

Solche Modelle gibt es in der Privatwirtschaft weltweit, die Forschung hat sich seit März 2021 (erste Impfprämien durch US-Unternehmen) damit befasst. Das Ergebnis der Untersuchungen ist eindeutig: Die Impfquote steigt direkt proportional zur Höhe der Impfprämie. Der Geldwert der Prämie darf hierfür aber nicht zu niedrig liegen.

Im Sommer 2021 ermittelte das KIT (Karlsruher Institut für Technologie) eine Mindestprämie von 100 Euro, um einen nennenswerten Effekt zu erzielen. Prof. Nora Szech vom KIT verweist darauf, dass die Impfprämie die Zeit für die Impfung kompensiere. Es gibt aber auch gegenteilige Meinungen aus der Wissenschaft. Der Doktorand Philipp Sprengholz von der Universität Erfurt führte im Sommer 2021 eine Studie durch, bei der er den Testpersonen zwischen 25 und 200 Euro nach der Impfung zahlte. Laut seinen Untersuchungen konnte er die Impfbereitschaft damit nicht steigern.

Durch Befragungen will er ermittelt haben, dass die Prämie mindestens 1.000 Euro betragen muss, um die Impfbereitschaft um wenige Prozentpunkte zu steigern. Dem widerspricht wiederum Prof. Szech, die auf US-Studien verweist. Schon ab 100 Euro steige demnach deutlich die Impfbereitschaft, und zwar bei 80 % aller Studienteilnehmer*innen. Ab 500 Euro waren es 90 %. Es gebe aber auch einen gegenteiligen Effekt durch die Prämie, so die Forscherin. Bei Prämien bis 20 Euro ließe die Impfbereitschaft nach. Prof. Szech verweist gleichzeitig auf den ökonomischen Wert einer Impfung, der sich durch ausbleibende Schäden infolge einer Coronainfektion oder einen schweren Krankheitsverlauf auf ~1.500 Euro pro geimpfter Person schätzen lasse. Gleichzeitig weisen jüngere Untersuchungen darauf hin, dass die Prämie nicht alternativlos ist.

Neben einer Strafzahlung nach Einführung einer allgemeinen Impfpflicht sind auch Zwischenlösungen möglich. So setzt der Hartmannsdorfer Kommunikationsdienstleister Komsa AG auf durchgängige, sehr leicht zugängliche Testungen und freiwillige Impfangebote. Die Impfprämie ist dem sächsischen Unternehmen zu teuer, zudem möchte es seine Mitarbeitenden weder positiv noch negativ auf die Impfung hin motivieren. Die Entscheidung solle der einzelne Mitarbeiter selbst treffen, so die Firmenleitung. Wie viele deutsche Unternehmen inzwischen Impfprämien zahlen (und in welcher Höhe), ist mit Stand Ende Januar 2022 noch nicht bekannt. Aus Befragungen von Journalisten, die allerdings kein statistisch exaktes Datenbild ergeben, geht hervor, dass in vielen Firmen eine Impfprämie von rund 100 bis 500 Euro gezahlt wird.

Impfprämie in Österreich

Die österreichische Bundesregierung will Impfprämien an Gemeinden nach dem Stand der Impfquote ausschütten, deren Höhe allerdings mit Stand 27. Januar 2022 noch nicht bekannt ist. Außerdem wurde eine Impflotterie aufgelegt. Jede geimpfte Person nimmt daran automatisch teil und kann also das große Los ziehen. Hinter der Aktion stehen die ÖVP, vertreten durch den Bundeskanzler Karl Nehammer, die Grünen, die mit Werner Kogler den Vizekanzler stellen, und auch die SPÖ, deren Chefin Pamela Rendi-Wagner an der Ausarbeitung des Prämienmodells beteiligt war. Gemeinden, die eine Impfquote von 80, 85 und 90 % erreichen, profitieren abgestuft mit immer höheren Prämien vom „Anreiz- und Belohnungspaket“. Darauf reagierten viele Gemeindevorstände äußerst positiv.

In Eisenerz etwa (Bezirk Leoben) zeigte man sich überrascht und erfreut. Die Impfquote liegt dort schon über 80 %, sodass das Extrageld der Gemeinde ohne weitere Anstrengung in den Schoß fällt. Der Bürgermeister Thomas Rauninger (ÖVP) will mit dem Geldsegen seine Stadt neu belegen, in der aktuell viele Häuser leerstehen. Der Tourismus soll eine Finanzspritze erhalten, aber auch die Kinderbetreuung wird die Kommune verbessern.

Es gibt allerdings auch kritische Stimmen, so aus der Nachbargemeinde Vordernberg, wo der Bürgermeister Walter Hubner (SPÖ) den Bonus als „irritierend“ bezeichnete. Er empfindet den Anreiz eher als Bürde, weil die Motivationsarbeit nun den Gemeinden zugeschoben würde. In Österreich diskutiert man ebenso wie in Deutschland über ein generelles Versagen der Bundesregierung in der Coronapandemie. Hubner verweist daneben auf ein praktisch-technisches Problem: Man müsse darüber reden, welche Personen in die Quote hineingerechnet würden. Im hiesigen Anhaltezentrum (Abschiebegefängnis für abgelehnte Asylbewerber) säßen derzeit 130 Schubhäftlinge, von denen nicht einmal eine Handvoll geimpft seien, so der Lokalpolitiker. Dies würde ihm ungerechterweise die Impfquote drücken. Ohne die Schubhäftlinge hätte sein Ort eine Impfquote von bis zu 84 %.

Impfprämien in den USA schon seit 2021

In den USA schütteten Unternehmen wie erwähnt schon seit März 2021 Impfprämien aus. Sie gingen dabei unterschiedlich vor. Prämien waren:

  • Geld
  • Freibier
  • Donuts
  • Gratis-Substanzen-Zigaretten in Bundesstaaten, in denen Cannabis legal ist

Zu den Firmen zählten auch damals schon die deutschen Discounter Aldi und Lidl, die in den USA viele Filialen unterhalten. Ihren US-Angestellten zahlten und zahlen sie Prämien für die Impfung (Aldi durchschnittlich zwei Stundenlöhne und Sonderkosten, Lidl bis 200 Dollar), in Deutschland sind sie bis heute nicht so großzügig, auch wenn sie mit diversen Maßnahmen die Impfbereitschaft ihrer Beschäftigten unterstützen, so etwa über die eigenen Betriebsärzte und bezahlte Freistellungen für den Impftermin. Die US-Fluggesellschaft American Airlines vergibt als Impfprämie an ihre Angestellten 50 Bonusmeilenpunkte und einen Tag Sonderurlaub.

Amazon zahlt 80 Dollar, bei McDonald’s beträgt die Prämie vier Stundenlöhne. Einige US-Unternehmen verknüpfen die Impfprämie mit ihrem Marketing. Die Lebensmittelkette Krispy Kreme, berühmt für ihre Donuts, spendiert allen Mitarbeitenden für den Impfnachweis einen glasierten Donut – und zwar täglich, nachdem sie am Betriebstor ihren Impfpass vorgezeigt haben. In New Jersey spendieren Brauereien den dortigen Einwohnern schon nach der ersten Impfung Freibier. Den Joint gibt es im Bundesstaat New York gratis von Aktivisten, die für die Cannabislegalisierung in New York gekämpft haben.

Was ist Oneirologie? Bedeutung, Definition, Erklärung


Oneirologie ist die Lehre der Deutung von Träumen, bzw. der Traumanalyse. In der Alltagssprache wird meist der Begriff Traumdeutung genutzt. Das Wort Oneirologie leitet sich von den griechischen Begriffen Oneiros für Traum und Logos für Lehre ab.

Oneirologie: Definition, Bedeutung, Erklärung

Die Traumdeutungslehre bezeichnet Versuche, in Träumen erlebte Handlungen, Bilder oder Emotionen einer methodischen Deutung zu unterziehen, um daraus Erkenntnisse und/oder Handlungsanweisungen abzuleiten.

Die Idee der Traumdeutung ist schon sehr alt und in nahezu allen Kulturen bekannt. Dabei werden und wurden unterschiedliche Ansätze verfolgt.
In der Vergangenheit wurden Träume häufig als Botschaften gedeutet, die Menschen zu bestimmten Handlungen bewegen sollten. Diese Botschaften konnten dabei sowohl göttlichen als auch teuflischen Ursprungs sein.
Zu den bekanntesten neuzeitlichen Vertretern der Oneirologie zählen Sigmund Freud und C.G. Jung, die Traumerlebnissen eine tiefenpsychologische Bedeutung beimaßen. Die Interpretation von Träumen sollte dementsprechend Informationen über die unbewussten Anteile der Psyche liefern.

Die Traumdeutung spielt auch im Volks- und Aberglauben eine Rolle. Dabei werden einzelne Traumsymbole meist mit einer mehr oder weniger festen Bedeutung verknüpft. Die Deutung verschiedener Traumsymbole erfolgt dabei weniger individuell, sondern eher nach populären Deutungsschemata.

Die Traumdeutung in der Psychologie

Mit der Analyse von Träumen haben sich vor allem Vertreter der Tiefenpsychologie und Psychoanalyse auseinandergesetzt. In der Tiefenpsychologie gelten die unbewussten Anteile der menschlichen Psyche als entscheidender Faktor für das individuelle Denken und Handeln. Ihnen auf die Spur zu kommen, soll helfen, psychische Probleme, wie etwa Komplexe, zu erklären und bestenfalls aufzulösen. Als bedeutendster Vertreter dieses Ansatzes und Begründer der Psychoanalyse gilt Sigmund Freud. Träume und deren Interpretation sah er als einen entscheidenden Zugangsweg zum Unbewussten an.

Auch der Begründer der analytischen Psychologie C.G. Jung maß Träumen in dieser Hinsicht Bedeutung zu. Er unterschied dabei auch zwischen unterschiedlichen Arten von Träumen:

  • Wiederholungsträume: Eine Erfahrung oder ein Problem dringt durch den Traum wiederholt ins Bewusstsein, um aufgearbeitet zu werden.
  • Kompensatorische Träume: Der Traum stellt eine Gegenwelt zur nicht zufriedenstellenden Realität dar.
  • Archetypische Träume: Träume, die nicht im individuellen, sondern im kollektiv Unterbewussten verankert sind.
  • Präkognitive Träume: Traumwahrnehmungen, die durch bekannte Wissensquellen nicht erklärt werden können.

Jung schrieb Träumen eine bewusstseinserweiternde Kraft zu, die Potenziale eröffnet, die im Wachzustand nicht ausgeschöpft werden können.

Ein weiterer bekannter psychologischer Ansatz zur Traumdeutung ist die Traumbearbeitung in der Gestalttherapie nach Fritz Perls. Dabei wird in mehreren Schritten vor allem das szenische Erleben des Traums entschlüsselt, um dessen Botschaft auf die Spur zu kommen. Perls Herangehensweise legt Wert auf die Unterscheidung zwischen dem erfahrenen Trauminhalt und dem zugrunde liegenden Traumgedanken.
Von den tiefenpsychologischen Ansätzen ist die Psychologie heute großteils abgerückt. Dennoch kommt der Interpretation von Träumen mitunter eine Bedeutung zu, da das Traumerleben häufig mit tatsächlichen Erfahrungen und Emotionen verknüpft ist und somit der Selbstreflexion dienen kann.

Alltagsdeutung von Träumen

Bei der Alltagsdeutung von Träumen liegt der Fokus meist auf der Betrachtung bestimmter Traumbilder, denen eine symbolische Bedeutung zugeschrieben wird. Sie können in zahlreichen Traumlexika und Glossaren nachgeschlagen werden oder werden von Mund zu Mund überliefert. So wird beispielsweise das Träumen von einer Spinne als Zeichen für eine Intrige interpretiert oder das Träumen von einem ausfallenden Zahn als bevorstehender Todesfall.

Aus wissenschaftlicher Sicht fällt diese Art der Traumdeutung häufig eher in den Bereich des Aberglaubens, da das Träumen ein sehr individueller Vorgang ist, der sich kaum allgemeingültig deuten lässt. Unter anderem ist das sozio-kulturelle Umfeld entscheidend dafür, welche (Be-)Deutung bestimmten Dingen und Ereignissen beigemessen wird. Auch individuelle Erfahrungen und Gefühle lassen sehr unterschiedliche Interpretationen zu. Träumt beispielsweise ein Metzger davon ein Schwein zu zerlegen, lässt sich das nicht auf die gleiche Weise interpretieren, wie wenn ein überzeugter Vegetarier denselben Traum hat.

Allerdings sehen auch einige Psychologen Muster in bestimmten Traumbildern, die sich relativ verlässlich deuten lassen. Ein Beispiel dafür wäre das Verfolgtwerden im Traum als Ausdruck dafür einer Situation oder einem Problem ausweichen zu wollen.

Erkenntnisse der Traumforschung

Träume werden nicht nur psychologisch, sondern in jüngerer Zeit auch neurowissenschaftlich erforscht. Moderne Technik macht das möglich. So werden beispielsweise in Schlaflaboren die Gehirnströme Träumender aufgezeichnet.

Dennoch gibt es zur Funktion, Bedeutung und möglichen Deutung von Träumen bislang wenig eindeutige Erkenntnisse. Und so ist auch die Oneirologie bis heute wissenschaftlich umstritten.

Es gibt verschiedene Theorien, warum Träume entstehen. Während einige Wissenschaftler glauben, Träume seien möglicherweise nur zufällig Begleiterscheinungen des Schlafens, sind andere Forscher der Meinung, dass im Traum Erlebnisse und Erfahrungen verarbeitet werden. Eine weitere Theorie sieht Träume als eine Art Trainingssimulation für das Gehirn an, die dann im realen Leben dabei hilft, bestimmte Situationen zu meistern.

Es ist wahrscheinlich, dass das Träumen letztendlich mehrere Funktionen erfüllt.

Hirnscans zeigen, dass während des Träumens insbesondere die für Emotionen zuständigen Regionen des Gehirns besonders aktiv sind. Das emotionale Erleben und Verarbeiten scheint also eine entscheidende Rolle zu spielen. Der frontale Cortex, unter anderem zuständig für das logische Denken, ist hingegen im Schlaf meist weitgehend inaktiv. Das liefert eine Erklärung dafür, warum Traum und Realität im Schlaf normalerweise nicht auseinandergehalten werden können.

Luzides Träumen – Was ist dran?

In jüngster Vergangenheit macht des Öfteren das Phänomen des sogenannten luziden Träumens von sich reden. Es ist bereits seit den 1980er Jahren bekannt, durch neueste Untersuchungen aber wieder ins Forschungsinteresse gerückt. Beim luziden Träumen oder auch Klarträumen soll es möglich sein, Träume bewusst als solche wahrnehmen und sie mitunter sogar beeinflussen und steuern zu können. Das soll durch gezieltes Training möglich sein und entwickelt sich zu einem regelrechten Trend.

Traumforscher haben auch dieses Phänomen untersucht und die Ergebnisse weisen darauf hin, dass Menschen offenbar tatsächlich einen gewissen Zugang zu ihren Träumen bekommen können.

Messungen zeigten beispielsweise, dass bei dieser Art des Träumens der frontale Cortex aktiver ist als bei normalen Schläfern. Geübte Klarträumer könnten also tatsächlich ihre Traumerlebnisse reflektiert betrachten. Andere Untersuchungen legen nahe, dass auch das bewusste Eingreifen in das Traumerleben möglich zu sein scheint.

Nun wird erforscht, wie und ob sich das luzide Träumen vielleicht nutzbar machen lässt. Menschen mit Prüfungsangst könnten dann zum Beispiel Prüfungssituationen im Traum bewusst trainieren, um ihre Angst abzulegen.

Inwiefern jeder mit entsprechenden Techniken das luzide Träumen lernen und es sich vielleicht sogar zunutze machen kann, ist unklar. Viele Traumforscher sehen hier aber interessantes Potenzial für die Forschung und Psychologie.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung


Kollagenpeptide werden auch als Kollagen-Hydrolysate bezeichnet. Es handelt sich hierbei um sogenannte Struktur-Proteine, also Eiweiße, die für Zellen und generell dem Gewebe des Körpers struktur-/formgebend sind. Diese werden aus Kollagen-Proteinen gewonnen und sind für die Flexibilität wie auch Festigkeit sämtlicher Zellen, Muskeln und Sehnen sowie des Bindegewebes im Körper verantwortlich.

Der Unterschied von Kollagen-Proteinen und Kollagenpeptiden (reines Kollagen) besteht darin, dass Kollegen-Proteine aufgrund einer Hydrolisierung wasserlöslich sind. Für Kollagenpeptide wird dafür während der Herstellung ein bestimmtes Enzym zugefügt.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung

Kollagenpeptid (Kollagen-Hydrolysat) ist also prinzipiell Kollagen, welches durch die Beimischung von ausgewählten Enzymen in ein wasserlösliches Präparat verwandelt wird.

Kollagenpeptide stehen in drei unterschiedlichen Ausführungen zur Verfügung:

  • trinkbares, flüssiges Kollagen-Hydrolysat
  • Kapseln beziehungsweise Tabletten
  • Pulver.

Kollagen-Hydrolysate können den Körper auf sehr vielfältige Weise positiv beeinflussen. Das Eiweiß kann unter anderem bei Arthrose und deren unterschiedlichen Varianten, bei Sportverletzungen sowie gegen Hautfalten verwendet werden. Durch zahlreiche wissenschaftliche Studien konnte die Wirksamkeit der Kollagenpeptide bereits bestätigt werden.

Wasserlösliche Kollagenpeptide lassen sich problemlos oral einnehmen. Dadurch kann das Eiweiß direkt vom Körper aufgenommen werden. Dieser Vorteil wird genutzt, um viele Lebensmittel sowie wie auch Produkte aus dem Gesundheits- und Kosmetikbereich, welche täglich verwendet werden, damit anzureichern. Ein sehr wichtiger und wertvoller Vorteil der Kollagen-Hydrolysate ist zudem, dass diese so gut wie kein Risiko für Allergiker darstellen.

Daher beinhalten beispielsweise etliche Proteinpulver, Proteinriegel sowie weitere eiweißhaltige Supplements Kollagenpeptide. Dadurch können wiederum schwache oder angegriffene Zellen und körperliches Gewebe an sich gestärkt und neu aufgebaut werden.

Wie wirken sich Kollagen-Hydrolysate im Körper aus? Wirkung

Durch die orale Einnahme von Kollagenpeptiden sind diese für den körperlichen Stoffwechsel sofort verfügbar (Bio-Verfügbarkeit). Dadurch kann der körpereigene Vorrat von Kollagen erhöht und verbessert werden. Dies ist ein wichtiger Faktor, denn Kollagen kann beispielsweise bei gewissen körperlichen Symptomen, spezifischen Verletzungen sowie bei vielen anderen Zwecken verschiedene Wirkungen zeigen.

Die Wirksamkeit der Kollagenpeptide ist in diversen Studien dokumentiert. Dadurch ist ein sehr umfangreiches Spektrum der Wirkungsweise bekannt. Trotzdem stehen immer noch kritische Meinungen im Raum, welche die positiven Ergebnisse der Forschungen hinterfragen.

Kollagen-Hydrolysate – wer und wann sollte das Präparat konsumieren?

Diverse Unternehmen und Marken bewerben Kollagenpeptide speziell für ältere Personen. Denn im Verlauf des Lebens nimmt die körpereigene Produktion von Kollagen stetig ab. Jüngere Personen, die noch keine 25 Jahre alt sind, benötigen normalerweise keine zusätzlichen Kollagenpeptide. Wichtig ist allerdings, dass eine eiweißhaltige, ausgewogene Ernährung stattfindet, die bewirkt, dass der Körper seine Kollagenfasern eigenständig elastisch erhält.

Kollagen-Hydrolysate empfehlen sich besonders dann, wenn gewisse Anzeichen beziehungsweise Symptome beispielsweise von Arthrose und Osteoporose, vermehrtem Haarausfall und Falten auftreten/diagnostiziert werden.

Wirkung bei Osteoporose und Arthrose

Kollagen-Hydrolysate beziehungsweise Kollagenpeptide sind durch zuständige Behörden anerkannt. Dadurch haben sich die Präparate bereits seit geraumer Zeit unter anderem zur nachhaltigen Therapie von Osteoporose wie auch Arthrose etabliert.

Im Rahmen dieser Behandlung stimulieren Kollagenpeptide die Produktion neuer Zellen innerhalb der sogenannten extra-zellulären Matrix (kollagenhaltige Knorpelschicht). Diese ist für eine schmerzfreie Gelenkfunktion essenziell. Während einer langfristigen Einnahme von Kollagenpeptiden bei Osteoporose/Arthrose können sich allerdings teilweise Magen-Darm-Beschwerden zeigen.

Kollagenpeptide für eine gesunde Kopfhaut

Die derzeitige Forschung ist, wenn es um Kollagen-Hydrolysate zum verbesserten Haarwuchs geht, oft unterschiedlicher Meinung. Denn einerseits kann Kollagen eine verletzte Kopfhaut positiv beeinflussen, sodass sich wieder mehr neue Haarfollikel (Basis der Haarwurzeln) bilden können.

Andererseits kann ein Mangel oder das Nichtvorhandensein des Kollagen VI (spezielles Kollagen) für Haarausfall verantwortlich sein. Diese Art Kollagen lagert sich in Haarwurzeln ab und kann zudem in Kollagenpeptiden vorhanden sein. Das Haarwachstum wird dadurch enorm beeinträchtigt. Die Wirkung ist also auch aus wissenschaftlicher Sicht noch nicht vollständig erforscht.

Um letztendlich gesunde Haarfollikel auszubilden, ist eine intakte Kopfhaut essenziell. Diese kann durch die Einnahme von Kollagenpeptide erheblich unterstützt werden.

Kollagenpeptide für eine Reduzierung der Falten

Die Alterung der Haut beginnt normalerweise ab dem 30. Lebensjahr. Somit kann durch die Einnahme der Kollagen-Hydrolysate eine beginnende Faltenbildung abgemildert werden. Bereits vorhandene Falten können in gewissem Maße deutlich verringert werden.

Kollagenpeptide beziehungsweise Kollagen-Hydrolysate können die sogenannte extra-zellulare Matrix also äußerst positiv unterstützen, um Alterserscheinungen zu reduzieren. Kollagenpeptide sind im Vergleich mit Kollagen-Hautcremes wesentlich effizienter, da sie unmittelbar im Körper wirken, Cremes dagegen lediglich auf der Hautoberfläche aufgetragen werden.

Kollagen-Hydrolysate bei Sportverletzungen

Ein wichtiger Bereich für den Einsatz der Kollagenpeptide sind speziell Verletzungen durch Sportunfälle und allgemeine Beschwerden, unter denen Sportler leiden. In Studien haben sich Kollagenpeptide als hochaktiv gezeigt, wenn es um die Wirkung auf Sprunggelenke geht. Die Einnahme der Kollagen-Hydrosylate kann als Prävention gegen Verletzungen also sehr hilfreich sein. So werden Kollagenpeptide mittlerweile unter anderem beim Bodybuilding vermehrt eingesetzt. Verbände sowie Sportler selbst kommunizieren die Verwendung des Supplements allerdings nicht.

Gibt es Nebenwirkungen durch Kollagenpeptide?

Die Forschung kann derzeit allerdings nicht gänzlich beantworten, ob Kollagen-Hydrolysate gesundheitlich völlig unbedenklich sind. Die aktuellen wissenschaftlichen Ergebnisse zeigen jedoch generell, dass sich eine bemerkenswert hohe Verträglichkeit zeigt.

Zudem sind derzeit keinerlei Wechselwirkungen bekannt, die eventuell durch Kollagenpeptide auftreten können. Allerdings ist es bei einer langfristigen Einnahme möglich, dass sich bei einigen Personen Magen-/Darmbeschwerden zeigen können.

Während einer Schwangerschaft gelten laut Wissenschaftler Kollagenpeptide als unbedenklich. Allerdings sollten Schwangere eine Supplement-Einnahme generell mit ihrem Frauenarzt besprechen.

Tagesdosis für Kollagen-Hydrolysate

Empfehlungen für eine exakte tägliche Dosierung der Kollagenpeptide steht derzeit nicht zur Verfügung. Aktuelle Studien über Kollagen-Hydrolysat beinhalten Informationen, welche meistens eine Tagesdosis zwischen 2 und 12 Gramm bei den Probanden nachweist.

Handelsübliche Trinkampullen mit Kollagenpeptid enthalten bereits eine Tagesdosis. Das Präparat als Pulver steht ebenfalls in einzeln dosierten Tagesdosen zur Verfügung. Grundsätzlich wird empfohlen, dass unbedingt die Herstellerhinweise zur Dosierung auf den Präparaten selbst beachtet werden sollten!

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung


Das Kollagenhydrolysat ist Bestandteil von Kollagen und wird aus rechtlicher Sicht als Nahrungsmittel eingestuft. So kommen spezielle Kollagenhydrolysatformen oft in Nahrungsergänzungsmitteln vor. Auch in Kosmetika ist das Hydrolysat häufig enthalten. Seine Gewinnung erfolgt aus Kollagen. Bei Kollagen handelt es sich um ein Strukturprotein (Eiweiß), das wichtig für die Festigkeit und Struktur des Bindegewebes ist. Ungefähr 30 Prozent des Proteins setzen sich aus Kollagen zusammen. Vor allem Haut und Gelenkknorpel profitieren vom Kollagen, dessen Herstellung durch den Körper selbst stattfindet.

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung

Wird der Mensch älter, geht die Produktion des Kollagens allmählich zurück. Die Folge davon können Beschwerden wie die Bildung von Orangenhaut (Cellulite), eine Verschlechterung des Hautbildes oder sogar Schmerzen an den Gelenken sein. Als Mittel dagegen gilt die Zufuhr von Kollagenhydrolysat.

Die Entstehung des Kollagenhydrolysats geschieht durch das Aufspalten von Kollagen in mehrere Fragmente. In aufgespaltener Form gilt das Kollagen als gut wasserlöslich und verdaulich. Die Haut und der Darm des Menschen können es besser aufnehmen. Außerdem sinkt das Risiko von allergischen Reaktionen. Zusätzliche Eigenschaften sind stärkere antioxidative Effekte sowie ausgeprägte antimikrobielle Funktionen.

Bekannt ist das Kollagenhydrolysat auch als vorverdautes oder hydrolisiertes Kollagen. Manche Produkte tragen zudem die Bezeichnung Kollagenpeptide.

Wirkung des Kollagenhydrolysats

In Nahrungsergänzungsmitteln sind Kollagenhydrolysate zu finden, in denen Kollagenpeptide vorkommen. Sie gelten als essentielle Nährstoffe. Durch ihre Einnahme sollen sie in Mitleidenschaft gezogenes Knorpelgewebe aufbauen, erhalten und regenerieren. Durch das besondere Kollagenhydrolysat lassen sich die Knorpelzellen des Körpers zur verstärkten Bildung von Knorpelgewebe stimulieren.

Der Verlust an Kollagen setzt bereits ab einem Alter zwischen und 18 und 29 Jahren ein. Ungefähr ab dem 40. Lebensjahr büßt der Mensch pro Jahr ca. 1 Prozent an Kollagen ein. Bei Menschen über 80 Jahren ist ein Absinken der Kollagenherstellung, verglichen mit jungen Menschen, um bis zu 75 Prozent möglich.

Zu welchen Zwecken lässt sich Kollagenhydrolysat verwenden?

Das in Nahrungsergänzungen enthaltene Kollagenhydrolysat soll sich positiv auf Haut und Gelenke auswirken. So dienen Kollagenhydrolysate zur Vorbeugung und Behandlung von Knorpelverschleiß innerhalb der Gelenke. Sie lindern Schmerzen und verbessern die Beweglichkeit der Gelenke.

Ebenfalls zu den Indikationen von Kollagenhydrolysat gehört das Anregen der Hautregeneration. Dabei kommen Kollagenhydrolysate mit kurzkettigen Kollagenpeptiden zur Anwendung, die die Gesundheit und Erscheinung der Haut verbessern. Zum Beispiel wird die Bildung von Falten bekämpft.

Eine andere positive Eigenschaft des Kollagens ist seine Auswirkung auf den Stoffwechsel. Durch die Einnahme von Nahrungsergänzungsmitteln sollen Körpergewicht und Blutzuckerspiegel stabil bleiben. Von seinen antioxidativen Effekten können zudem Knorpel, Knochen, Muskeln sowie die Herzgesundheit profitieren.

Zur Anwendung gelangt Kollagenhydrolysat mitunter, um den Heilungsverlauf bei Verbrennungen und Wunden zu unterstützen. Aber auch in verarbeiteten Nahrungsmitteln wie Suppen, Fleischerzeugnissen oder Getränken ist das Kollagenhydrolysat zu finden. Dort verbessert es Eiweißgehalt und Stabilität. Darüber hinaus vermindert es den Fettgehalt.

Herstellung von Kollagenhydrolysat

Es kommen unterschiedliche Verfahren zur Kollagenhydrolysatherstellung infrage. Natives Kollagen lässt sich mit bestimmten Säuren wie Salzsäure, Essigsäure oder Phosphorsäure behandeln. Gleiches gilt für Basen, Enzyme, Druck oder hohe Temperaturen.

In der Regel wird das angebotene Kollagenhydrolysat durch das Denaturieren von nativem Kollagen hergestellt. Dabei findet eine Enzym-Behandlung statt, zu deren Zweck Enzyme wie zum Beispiel Pepsin, Alkalase oder Papain Verwendung finden.

Mit dem enzymatischen Abbau kommt es zu hydrolisiertem Kollagen. Es setzt sich aus Peptiden, bei denen es sich um Proteinfragmente handelt, zusammen.

Aus welchen Quellen stammt das Kollagen?

Kollagenpeptide entstammen ausschließlich Tieren. So gibt es keinerlei Kollagen aus Pflanzen. Die Gewinnung des Kollagens erfolgt in den meisten Fällen aus Lebensmittelindustrieabfällen. Dazu zählen u. a. Knochen, Knorpel, Haut und Sehnen. Zu differenzieren ist zwischen Hühnerkollagen, Rinderkollagen, Schweinekollagen und Fischkollagen.

In früheren Jahren wurde das Kollagen für Nahrungsergänzungsmittel aus Schlachtabfällen von Rindern und Schweinen entnommen. Aus Gesundheitsgründen wie zum Beispiel BSE kam es allerdings zu Beschränkungen bei der Gewinnung von hydrolisiertem Kollagen aus Rindern und Schweinen. Ebenso spielten religiöse Aspekte eine Rolle.

Gestiegen ist dagegen die Nachfrage nach Fischkollagen oder Meereskollagen. Dabei lassen sich Bestandteile von Süß- und Salzwasserfischen wie Schuppen, Haut oder Gräten verwenden. Als Alternativen gelten überdies Schwämme oder Quallen. Sie werden als wirbellose Meerestiere eingestuft.

Unterschieden wird beim Kollagen weiterhin nach Typ 1 und Typ 2. Quellen wie Fisch, die reichlich Typ-1-Kollagen enthalten, gelangen für kosmetische Produkte zur Anwendung. Knorpel vom Huhn, Rind oder Schwein zählen zum Typ-2-Kollagen. Dieses findet für therapeutische Produkte für Gelenke Verwendung.

Aufnahme des Kollagenhydrolysats

In mehreren Studien stellte sich heraus, dass der menschliche Organismus hydrolisiertes Kollagen einfacher aufnimmt, als dies bei nativem Kollagen der Fall ist. Während der Verdauung wird das Kollagen in kleine Peptide und Aminosäuren aufgespalten. Im Anschluss an seine Resorption lässt es sich zum neuerlichen Aufbau von Kollagen oder anderen Eiweißen nutzen.

Vorteile von Kollagenhydrolysat

Durch die Aufnahme von Kollagenhydrolysat durch die Darmschleimhaut lassen sich die Peptide zu den unterschiedlichen Gewebearten weiterleiten. An diesen Stellen erfolgt ihre Umwandlung durch Spezialzellen in Spiralen. Diese Spiralen sind wichtig zum Regenerieren der extrazellulären Gewebematrix. Außerdem ersetzen sie zerstörte Kollagenfasern. Die Kollagenfasern werden zu den wichtigsten Hautbestandteilen gerechnet. Sie sind in der Demis (Lederhaut) vorhanden, die sich zwischen Ober- und Unterhaut befindet.

Kollagenhydrolysat in Nahrungsergänzungsmitteln

Kollagenhydrolysat, das in Nahrungsergänzungsmitteln enthalten ist, soll vor allem bei Arthrose eine positive Wirkung erzielen. Ebenso verbessert sich das Bindegewebe. Anwenden lässt sich das Kollagenhydrolysat in Form von Pulver oder als Tablette. Das geschmacksneutrale Pulver wird mit Wasser oder Fruchtsaft vermischt und anschließend verabreicht.

Eine wichtige Rolle bei der Auswahl des Pulvers spielt dessen Qualität. Als Qualitätsmerkmale gelten eine enzymatische Herstellung, gute Löslichkeit, die Weidehaltung der Tiere sowie die Reinheit des Produktes.

Warum macht Zucker süchtig? Definition, Symptome, Ursachen, Folgen und Lösungen


Weißer Zucker, der allgemein bekannte Haushaltszucker, wird auch als Saccharose bezeichnet. Er ist ein sogenanntes Disaccharid (Zweifachzucker). Die zwei Monosaccharide (Einfachzucker), aus denen es sich zusammensetzt, sind die Fructose (Fruchtzucker) und die Glucose (Traubenzucker).

Die Saccharose wird aus Pflanzen, wie zum Beispiel dem Zuckerrohr oder der Zuckerrübe gewonnen.

 Zuckersucht: Symptome und Hinweise

Von einer Zuckersucht wird gesprochen, da sich hierbei in vielen Fällen die Krankheitszeichen einer herkömmlichen Drogensucht erkennen lassen.
Der Verzicht auf Zucker führt dazu, dass der Verbrauch anderer Genussmittel, wie zum Beispiel Tabak oder Kaffee deutlich gesteigert wird.

Kann die zuckerfreie Phase selbst über einen längeren Zeitraum durchgehalten werden, kommt es anschließend, bei einem erneuten Verzehr, zu einer extremen Erhöhung der Einnahmemenge.
Zusätzlich besteht ein übermäßiges Verlangen nach Süßem, das den Tagesablauf kontrolliert und tägliche Aktivitäten immer weiter einschränkt.

Es kann dabei nur eine geringe Selbstkontrolle hinsichtlich des Konsums aufgebracht werden. Mit der Zeit wird die erforderliche Zuckermenge immer weiter gesteigert.

Gibt es keine Möglichkeit der Zuckeraufnahme, sinkt die Konzentrationsfähigkeit, das psychische Wohlbefinden sowie die geistige Leistungsfähigkeit.

Die Zuckersucht: Ursachen

Es gibt verschiedene Gründe dafür, dass Zucker süchtig macht:

1. Darmpilzerkrankung

Der menschliche Darm besitzt eine Vielzahl von Bakterien, die die Verdauung unterstützen und einen wichtigen Teil des Immunsystems darstellen. Teilweise siedeln sich aber auch Hefepilze, wie der Candida albicans an, die zu Blähungen und Bauchschmerzen führen können. Bei einem gesunden Menschen werden diese jedoch von den nützlichen Bakterien unter Kontrolle gehalten.

Die Hefepilze ernähren sich von Zucker, weshalb sie sich bei einer zu hohen Aufnahme dieses Stoffes leicht vermehren können. Es kommt zu Heißhungerattacken und infolgedessen zu einer erhöhten Zuckeraufnahme, wodurch ein Teufelskreis entsteht.

2. Erhöhte Dopaminausschüttung

Zucker wird als süß und positiv wahrgenommen. Durch seine Einnahme wird, ähnlich wie bei einem Drogenkonsum, das menschliche Belohnungsareal im Gehirn aktiviert und das Glückshormon Dopamin ausgeschüttet. Auf die Dauer kommt es an der Verbindungsstelle der Nerven zu anderen Zellen (Synapsen) zu Veränderungen. Vor allem übergewichtige Personen sind häufig davon betroffen. Alleine der Anblick einer süßen Speise führt zu einer Reaktion im Belohnungssystem und dem Drang, Zucker zu konsumieren.

Der Mensch möchte dieses positive Gefühl immer häufiger erleben, wodurch letztendlich eine Zuckersucht entsteht.

3. Psychische Probleme und seelische Unruhe

Neben der Dopaminausschüttung aktiviert der Zucker im menschlichen Körper auch die Produktion des Glückshormons Serotonin.
Bei Traurigkeit sinkt der Serotoninspiegel. Der Mensch versucht diesen Mangel auszugleichen, indem er Zucker zu sich nimmt. Die Hormonausschüttung wird wieder anregt und ein Glücksgefühl setzt ein.
Das Verhalten sich mit Süßigkeiten zu Belohnen oder Traurigkeit zu bekämpfen, wird oftmals bereits in der Kindheit von Eltern und Familie unbewusst antrainiert.

4. Schwankungen des Blutzuckerspiegels

Ein zu hoher Zuckerkonsum lässt den Blutzuckerspiegel im Blut rasch in die Höhe steigen. Um diesen wieder zu senken, schüttet die Bauchspeicheldrüse Insulin aus – ein Hormon, das den Zucker aus dem Blut in die Zelle transportiert.

Wird zu viel Zucker auf einmal aufgenommen, steigt der Blutzuckerspiegel so rasch an, dass zu viel Insulin produziert wird. Der Blutzuckerspiegel im Blut sinkt unter den Normalwert. Ein Unterzucker entsteht, der die Person aggressiv, unruhig und hungrig macht. Anschließende Heißhungerattacken führen zu einer erneuten übermäßigen Zuckeraufnahme.

Zuckersucht: Folgen und Gefahren

Zuckerhaltige Speisen in der täglichen Ernährung können zu Übergewicht führen, da sie häufig in viel zu hohen Mengen aufgenommen werden. Weiterführend steigt das Risiko, an Diabetes mellitus oder Herz-Kreislauf-Erkrankungen zu erkranken, welche lebensbedrohliche Ausmaße annehmen können.

Des Weiteren beschädigt zu viel Zucker die Darmflora und schwächt somit den Teil des sich dort befindenden Immunsystems. Die Abwehrkräfte sinken und Krankheiten haben es leichter, den Körper zu befallen.
Zuckersucht kann darüber hinaus die Entstehung von Krebs, Depressionen und Schlafproblemen fördern. Durch eine zuckerreiche Ernährung werden die Zähne angegriffen und Karies begünstigt. Zusätzlich verschlechtert sich das Hautbild und Akne entsteht.

Zuckersucht: Auswege und Lösungen

Zwar kommt es bei erhöhtem Zuckerkonsum schnell zu einer Abhängigkeit, dennoch gibt es Lösungsansätze, um diese Sucht zu bekämpfen:

1. Der Verzehr von zuckerhaltigen Lebensmittel sollte drastisch reduziert und komplett eingestellt werden. Besonders ist dabei auch auf versteckte Zucker zu achten, die sich hinter Namen wie Saccharose, Fruchtzucker, Lactose, Maltodextrin etc. verbergen. Fertigprodukte, Süßigkeiten und Backwaren müssen vom Speiseplan verbannt werden.

2. Ein weiterer Ausweg aus der Zuckersucht ist der Verzicht auf Zucker in Getränken. Hierdurch kommt es unbewusst zu einer viel zu hohen Aufnahme des weißen Zuckers.

3. Um Heißhungerattacken zu vermeiden, sollte eine ausgewogene Ernährung mit gesunden Fetten und vielen Ballaststoffen angestrebt werden. Der Blutzuckerspiegel steigt dadurch nur langsam an und sinkt nicht zu rasch wieder ab.

4. Ist der Drang nach Zucker zu stark, sollten Ersatzmittel bereit liegen. Dabei kann es sich um Nüsse oder Obst handeln, was den Blutzuckerspiegel nicht zu stark ansteigen lässt und trotzdem das Verlangen nach Zucker befriedigt.

5. Liegt das Problem der Zuckersucht im Darm, ist eine Darmsanierung empfehlenswert.

6. Depressive Verstimmungen können anstatt mit Zucker durch Meditations- oder Atemübungen vertrieben werden.

Was bedeutet Datastrophe? Bedeutung, Definition, Erklärung


Als Datastrophe wird ein schweres Unglücksereignis bezeichnet, dass durch falsche oder schlechte Daten verursacht wurde.

Als Datastrophe kann aber auch ein Datendiebstahl von sensiblen Daten bezeichnet werden.

Datastrophe: Bedeutung, Definition, Erklärung

Eine Datastrophe entsteht in dem auf Grundlage von falschen, schlechten oder manipulierten Daten Entscheidungen getroffen wurden, die schwere Folgen für und Auswirkungen auf Betroffene haben bzw. hatten.

Grundursache der Datastrophe sind falsche und/oder schlechte Daten. Diese wurden entweder absichtlich manipuliert, sind falsch, sind fehlerhaft, verfälscht oder wurden schlecht erhoben. Die Datenintegrität ist schlecht. (Daten sind integer, also gut und brauchbar, wenn sie korrekt, vollständig und konsistent sind. Daten sind korrupt, also schlecht und unbrauchbar, wenn sie inkorrekt, unvollständig und inkonsistent sind.)

Ursachen für schlechte Datenerhebung können sein:

  • mangelhaftes, schlechtes oder manipulatives Erfassen der Daten von zuständigen Verantwortlichen;
  • politische Einfärbung der Daten, um ein gewünschtes Ergebnis zu „erfälschen“;
  • Fälschung der Daten, um ein gewünschtes Ergebnis zu erzielen und ein unerwünschtes Ergebnis zu vermeiden.

Die kastastrophalen Folgen einer Datastrophe können Auswirkungen auf das Leib und Leben sowie Psyche und Seele haben. Die Auswirkungen können mit wirtschaftlichen Schaden und psychischen Schäden einhergehen.

Ein Datendiebstahl von sensiblen und wichtigen Daten kann auch als „Datastrophe“ bezeichnet werden. Hier besteht die Katastrophe dadrin, dass Ungewollte Zugriff und Macht über Daten haben, die sie nicht haben sollten und zum Nachteil der Betroffenen verwenden können.

Datastrophe ist ein Kofferwort aus den Worten „Daten“ (engl. Data) und Katastrophe.

Verbreitung: Datastrophe

Der Ausdruck „Datastrophe“ findet sich bei Google Trends nur im August 2006. Die Redaktion konnte leider nicht ermitteln, warum der Ausdruck „Datastrophe“ im August 2006 so oft bei Google gesucht wurde. Ein Datenfehler ist hier möglich.

Der Hashtag #Datastrophe trendete am 18. Dezember 2021 auf Twitter. Unter dem Hashtag wurden Aussagen über die Erfassung von Covid-19-Hospitalisierungen sowie deren Einordnung in Geimpft und Ungeimpft verbreitet. Außerdem wurden Aussagen über die Zählung von Ungeimpften und Geimpften sowie deren Einordnung nach Impfstatus verbreitet.
In diesem Zusammenhang kann der Ausdruck Datastrophe so verstanden werden, dass die Daten katastrophal gewesen sein sollen und die Daten zu katastrophalen Entscheidungen geführt haben.

Was ist das Web3? Erklärung, Definition, Bedeutung


Das Web3 ist die jüngste Evolutionsstufe des Internets. Eine zusätzliche Begrifflichkeit ist „semantisches Web“. Hinter dem Web3 stehen vor allem neue Technologien wie die Blockchain, die eine viel stärker Dezentralisierung des Internets ermöglichen und damit auch die Macht einzelner Onlinegiganten wie Google und Facebook brechen könnten.

Was ist das Web3? Erklärung, Definition, Bedeutung

Den Begriff Web3 prägte Tim Berners-Lee, dem maßgeblich die Entwicklung des gegenwärtigen Web 2.0 – also des heute (2021) existierenden Internets mit dem schlichten Namen World Wide Web (www) – zugeschrieben wird. Dass die Entwicklung fortschreitet, war zwangsläufig zu erwarten.

Mit der Bezeichnung Web3 wird folgerichtig angedeutet, dass es bislang zwei Stufen des Internets (Web 1.0 und Web 2.0) gab, auch wenn sie niemand explizit so bezeichnet hat. Web3 (oder auch Web 3.0) wäre nun die dritte Stufe. Es geht im Web3 um die rein maschinelle Auswertung aller Informationen, welche die Nutzer des Internets verbreiten. Darüber hinaus werden Informationen überwiegend und in manchen Bereichen ausschließlich von Maschinen generiert.

Welche Unterschiede erkennen wir zwischen dem Web 2.0 und Web3?

Beim immer noch existierenden Web 2.0 generieren die Nutzer die Inhalte selbstständig. Im Web3 liegt der Fokus darauf, nutzergenerierte Informationen mit eindeutigen Beschreibungen zu versehen. Daher kommt die Bezeichnung als semantisches Web. Die Semantik muss so beschaffen sein, dass sie Computer verarbeiten können. In diesem Fall kann die Maschine Abfragevarianten zu jeder Information generieren, welche den Nutzern zur Verfügung stehen. In Ansätzen existiert diese Semantik schon.

Wenn Nutzer bei Google eine Suchanfrage eingeben, ergänzt die Suchmaschine die ersten Buchstaben- und Worteingaben semantisch so, wie es der Suchintention des Nutzers entsprechen könnte. Das funktioniert immer dann sehr gut, wenn es sich um eine gängige Suchanfrage handelt, die viele andere Nutzer schon gestellt haben. Das Web3 perfektioniert diese semantische Suche und bezieht viel mehr ungewöhnliche Varianten mit ein.

Es ist auch in der Lage, Informationen zu Menschen, Dingen oder auch Ländern zueinander in Relation zu setzen. So könnte die Abfrage zu einem antiken Gebäude in Rom automatisch die Antwort „Kolosseum“ generieren. Zur Information: Das Kolosseum taucht auch jetzt schon als Antwort auf (Stand Dezember 2021), doch es steht nur an der Spitze einer ganzen Reihe von antiken römischen Gebäuden (gefolgt beispielsweise dem Pantheon, der Engelsburg und dem Titusbogen), weil die gegenwärtige Googlesuche noch nicht zwischen „antikes“ und „antike“ Gebäude in Rom unterscheidet (Einzahl und Mehrzahl). Das Web3 soll in der Lage sein, aus der Semantik der in der Einzahl gestellten Suchanfrage und der Intention der meisten Nutzer das Kolosseum herauszufiltern: Wer nur ein, und zwar das antike Gebäude in Rom schlechthin sucht, meint damit das Kolosseum. Das ist die Idee des semantischen Web3.

Ist das Web3 dem Web 2.0 zwangsläufig überlegen?

Nicht unbedingt, jedenfalls nicht mit dem Stand Ende 2021. Um bei dem genannten Beispiel zu bleiben: Vielleicht war ja der suchende Nutzer ein Gymnasiast, der für eine Hausarbeit irgendein antikes Gebäude in Rom beschreiben soll und nicht unbedingt das Kolosseum meint, das seine Mitschüler*innen bestimmt überwiegend wählen. Er möchte schon etwas Besonderes beschreiben. Die Idee, dass er in der Mehrzahl nach allen antiken römischen Gebäuden suchen und dann eines selbstständig auswählen müsste, könnte ihm nicht gleich kommen. In diesem Fall hätte ihn das Web3 verwirrt. Es bleibt nämlich dabei, dass Menschen schon ganz eigene Vorstellungen davon haben, was sie mit ihrer Suche meinen. Das Web3 soll ihnen aber offenkundig mit seiner Semantik das Denken ein Stück weit abnehmen, was nur mehr oder weniger gewollt ist. Es ist zu beachten, dass die Semantik des Internets (auch die gegenwärtig schon existierende) die menschliche Intelligenz beeinflusst. Assoziationen und Suchintentionen werden zunehmend davon geprägt, wie die am schnellsten zu findenden Informationen – die in der Suchmaschine – aufbereitet werden.

Wer vertritt das Web3

Wie bei den bisherigen Varianten des Internets gibt es auch für das Web3 eine Foundation (Web3 Foundation und Web3 Community). Diese Verfechter der Evolution wünschen, dass die Blockchain oder vergleichbare Technologien wie der DAG (Directed Acyclic Graph) zur technischen Basis des Web3 werden. Sie argumentieren, dass sich der technologische Fortschritt ohnehin nicht aufhalten lässt und seinen Niederschlag im Internet finden muss. Ein Verfechter der Evolution zum Web3 ist beispielsweise der Mitbegründer von Protocol Labs Juan Benet. Er sagte auf einem Web3-Gipfel im Jahr 2018, dass schon die gegenwärtige Kommunikationsgeschwindigkeit alles übertrifft, was Menschen seit vielen Jahrtausenden gewohnt waren, doch dass sich durchaus noch ein viel schnellerer Datendurchsatz inklusive der Aufnahme dieser Informationen durch Menschen denken lässt. Auch die zunehmende, aber längst nicht abgeschlossene Vernetzung der gesamten Menschheit sprach er an. Nach seiner Auffassung muss es ein Web3 geben, um die grenzenlose Kommunikation dann zu ermöglichen, wenn wirklich jede Person in jedem Winkel des Planeten Zugang zum Internet hat und sich Menschen über Länder- und Sprachgrenzen hinweg blitzschnell austauschen können.

Das Web3 solle ihnen dann helfen, so Benet, diejenigen Informationen zu filtern, die sie wirklich benötigen. Ansonsten würden alle Menschen in einem Meer von Informationen ertrinken. Diese nötige Filterung wiederum könne nur ein semantisches Web3 bewältigen. Gleichzeitig räumte Benet zumindest im Jahr 2018 noch die bestehenden Unzulänglichkeiten ein. Nach den bisherigen Erfahrungen ist allerdings davon auszugehen, dass diese behoben werden.

Welche Rolle spielen dezentrale Netze wie die Blockchain und DAG?

Die Blockchain- und DAG-Technologien, die bislang vorrangig durch Kryptowährungen allgemein bekannt sind, aber längst auch in der Industrie und in der allgemeinen Informationsverarbeitung genutzt werden, sollen zu viel mehr Demokratie im Web3 führen. So, wie schon gegenwärtig die Kryptowährungen über das Potenzial verfügen, die finanzielle Macht von Zentralbanken zu brechen, könnten dieselben Technologien im Web3 auch die Macht von Konzernen brechen, welche gegenwärtig die Informations- und Kommunikationswelten dominieren. Gemeint sind eindeutig Google und Facebook. Wenn die Vernetzung im Web3 über eine sichere, aber dezentrale Datenhaltung via Blockchain oder DAG stattfindet, kann nicht mehr ein einzelner Konzern die Spielregeln im Netz bestimmen. Vielmehr würden die Nutzer die Informationen untereinander austauschen. Dies erscheint zwar gegenwärtig auch so, doch in Wahrheit bestimmen die Algorithmen von Google, Facebook, Amazon & Co, welche Informationen wir im Netz zuerst finden (Google), mit wem wir vorrangig kommunizieren (Facebook) und was wir bevorzugt kaufen (Amazon).

Allerdings bedarf es hierfür einer gänzlich neuen Architektur des Web3, die nicht mehr von Algorithmen geprägt wird, die ein einzelner Konzern verantwortet und auch noch geheim hält. Darauf wies Juan Benet auf dem Web3-Gipfel-Rede 2018 ebenfalls hin: Er wies die teilnehmenden Entwickler und Programmierer darauf hin, dass sie diese Architektur verantworten würden und daher genau bedenken sollten, wie das Web3 beschaffen sein muss.

Entwickung zum Web3

Um die generische Entwicklung zum Web3 zu verstehen, ist es wichtig, sich das Web1 und Web 2.0 anzuschauen. Das Web1 entwickelte sich als öffentlich zugängliches Internet in den 1970er-Jahren aus dem ARPANET (für Advanced Research Projects Agency Network), einem Netzwerk der US-Army, das schon in den späten 1960er-Jahren entstanden war. Lange Zeit lief es über Modems, auf welche Telefonhörer gelegt wurden. Es knarzte dementsprechend und war sehr langsam. Suchmaschinen im heutigen Sinne gab es noch nicht, Google entstand erst 1998. Man könnte diese Phase als Übergang zum Web 2.0 bezeichnen, die aber auch durch entscheidende technologische Veränderungen geprägt war, nämlich vor allem den Aufbau von viel mehr Internetknoten auf der Welt und der redundanten Datenvorhaltung auf verschiedenen Servern.

Erst mit dem Web 2.0 entstand ein Zustand, in welchem einmal ins Netz eingespeiste (und nicht vorsätzlich und total gelöschte) Informationen praktisch nicht mehr verloren gehen können. Im Web1 lagen sie vielfach nur auf einem Server, auf den zwar theoretisch (bei entsprechender Freigabe) die ganze Welt zugreifen konnte, dessen Daten aber auch physisch vernichtet werden konnten. Zwar gab es Backups, aber nicht wie im späteren Web 2.0 etwa ab den 2010er-Jahren in einer Cloud und im Sekundentakt. Der größte Unterschied zwischen dem Web1 und dem Web 2.0 besteht sicherlich in der sicheren Datenspeicherung durch Redundanz und permanente Cloudspeicherung. Dies bedeutet: Wer etwa ab 2000 etwas ins Netz gestellt hat, hat sich damit verewigt, wenn nicht eine gigantische Katastrophe die Menschheit bzw. ihre komplette Technologie auslöscht.

Das Web3 nun wird wieder zu einem revolutionären Schritt führen, wenn auch gänzlich anderer Art. Es wird die Dominanz von Internetkonzernen überwinden und damit eine grenzenlose Netzdemokratie zulassen, außerdem wird es unsere Informationsverarbeitung durch Semantik völlig neu organisieren. Beides ist nötig. Dass uns Google- und Facebookalgorithmen unser Informationsstreben und Kommunikationsleben diktieren und dabei nicht einmal durchschaubar sind, ist ein unhaltbarer Zustand. Die Auswirkungen sind sichtbar: Es entwickeln sich weltweit extremistische Bewegungen, weil die Menschen im Netz finden, was sie finden wollen (via Googlealgorithmus), und weil Hasstiraden durch Facebookalgorithmen unterschwellig gefördert werden. Abweichende Meinungen und Intentionen (auch harmlose wie alternative Kaufangebote) erscheinen gar nicht mehr. Wir müssten zu lange danach suchen, das schaffen wir nicht. Diesen Zustand soll das Web3 überwinden.

Was kostet eine Elektroheizung? Erklärung, Informationen


Dieses Jahr hatten wir in Deutschland leider mit einem viel zu kühlen Sommer zu kämpfen. Daher steht den meisten der Sinn eher nach Wärme als nach Erfrischung. Bei Temperaturen deutlich unter 20 Grad sogar mittags vergeht vielen die Lust auf ein Eis im Freien. Dagegen freuen wir uns auf ein warmes Getränk oder ein geschütztes Plätzchen in der Sonne. Zuhause versuchen wir, noch ohne Heizung auszukommen, zumal ein Öl- oder Gaskessel in der Übergangszeit extrem unwirtschaftlich arbeitet. Für einige wenige Stunden Heizwärme in den kühlen Morgen- und Abendstunden muss der Kessel bereits auf Temperatur gebracht werden, um danach wieder in den Ruhezustand zu gehen. Das verbraucht viel Energie, um das gesamte Heizwassersystem aufzuwärmen, während danach in der langen Stillstandzeit Versottung des Kessels droht. Öl- und Gasheizungen sind eben normalerweise für den Dauerbetrieb im Winter gedacht.

Was sind Elektroheizungen und wie war der Anfang?

Eine mittlerweile sehr wirtschaftliche Alternative sind Heizsysteme, die mit Strom betrieben werden. Den Ursprung haben strombetriebene Heizungen in den Nachtspeicheröfen, die ihre Blütezeit in den siebziger Jahren hatten. Damals boten die Stromerzeuger spezielle Tarifmodelle mit sehr günstigen Nachttarifen an, welche diese Form der Beheizung günstig machte. Heutzutage ist diese Methode sowohl von den Verbrauchskosten als auch vom Bedienkomfort völlig veraltet und daher nicht mehr zu empfehlen.

Was kostet eine Elektroheizung?

An die Stelle dieser „Stromfresser“ sind heute hochmoderne, wirtschaftliche Elektroheizungen getreten, die alle aktuellen Forderungen an Energieersparnis und Umweltfreundlichkeit erfüllen und zudem noch günstig im Verbrauch sind. Tatsächlich gibt es heute eine breitgefächerte Auswahl verschiedener Systeme der Elektroheizung. Einen ersten Überblick können Sie sich hier verschaffen. Alle Systeme werden detailliert mit ihren jeweiligen Vor- und Nachteilen beschrieben. Längst sind Elektroheizungen dank moderner Technik und erheblich gestiegener Öl- und Erdgaspreise wirtschaftlich geworden und im direkten Kostenvergleich durchaus nicht teurer als andere Systeme, wenn man die ersparten Wartungs- und Installationskosten mit einberechnet.

Welche Arten von Elektroheizung gibt es?

Fest steht: eine perfekte Lösung für alle Einsatzorte gibt es nicht. Je nach Verwendungszweck kann die eine oder andere Lösung sinnvoller sein. Grundsätzlich muss entschieden werden zwischen Elektroheizungen für Wohnbereiche, Nutzflächen und Außenbereiche. Danach richtet sich, welches System am besten geeignet ist. Es gibt Ölradiatoren und Heizlüfter, die aufgrund Ihrer Bauart eher indirekt arbeiten. Das bedeutet, dass die Wärme erst über „Umwege“ und mit Verzögerung zur Verfügung steht. Gleiches gilt auch für die Fußbodenheizung. Direkte, schnelle Wärme erreichen Sie dagegen mit der Infrarotheizung.

Was ist eine Infrarot-Elektroheizung? Wie funktioniert sie?

Was unterscheidet nun eine Infrarotheizung von den weiteren Elektroheizungen? Der wesentliche Unterschied ist, wie die Wärme produziert wird. Der Infrarotstab erzeugt langwellige Wärmestrahlen, die direkt jeden Körper in der Nähe aufwärmen, unabhängig, ob Wind weht oder Sie innen oder außen sind. Anders als bei Heizlüftern müssen Sie nicht die Tür schließen. Die Wärmestrahlung wärmt an jedem Ort, sofort beim Einschalten.

Allen strombetriebenen Heizungen gemeinsam ist die einfache Installation, der extrem hohe Strahlungswärmeanteil, die schnelle Wärme und Kosten nur im Moment der Nutzung.

Ab wann sind Elektroheizungen sinnvoll?

Immer mehr Haus- und Wohnungsbesitzer installieren heutzutage auch als Zentralheizung ein elektrisches System. Das hat einen einfachen Grund: Moderne, erneuerbare Energiequellen produzieren Strom, der anschließend umweltfreundlich für die Beheizung des Gebäudes genutzt werden kann. Aber auch die Tatsache, kein Brennstofflager zu benötigen und einen wasserfreien Heizkreislauf zu haben, sind gute Argumente. Davon abgesehen gibt es natürlich andere Orte, bei denen es gar keine Alternative zu Heizstrahlern gibt. Gelegentlich genutzte Räume, Terrassen und Gartenbereiche sind der klassische Einsatzort für Infrarotstrahler.

Ausspannen bei einer Pause im Warmen

(Nicht nur) der Herbst lädt zu einer gemütlichen Pause in einem warmen, einladenden Raum ein. Egal, ob Sie einen stärkenden Snack in einem Bistro zu sich nehmen, ein leckeres Dessert probieren oder sich einfach nur bei einem Slow Coffee entspannen – diese Verschnaufpause ist nicht nur wichtig für Ihren Körper, sondern belebt auch Ihren Geist.

Was bedeuten eigentlich die vielen Wortkombinationen mit „Slow“, die in den letzten Jahren immer mehr die Runde machen? Begonnen hat alles mit der Slow Food Bewegung aus Italien. Einige Aktivisten um den italienischen Publizisten Carlo Petrini gründeten Mitte der achtziger Jahre eine Protestbewegung, die ihren Keim in der Ablehnung der Eröffnung eines bekannten Fast Food Restaurants am Fuß der berühmten Spanischen Treppe in Rom hatte. Man wollte der „architektonischen Verschandelung“ entgegentreten und ein Zeichen setzen. Daraus entstand die Slow Food Bewegung mit dem Ziel, die lokale, ländlich geprägte Küche zu fördern. Mittlerweile hat die Bewegung auf der ganzen Welt unzählige Anhänger. Allein in Deutschland hat Slow Food im Moment über aktive 13000 Mitglieder.

Dabei geht es nicht nur um langsames Essen, sondern vor allen Dingen auch um die Langsamkeit in der Produktion und Zubereitung der Nahrungsmittel. Dabei stehen bevorzugt regionale, typische Lebensmittel im Mittelpunkt. Insbesondere sollen vergessene oder vom Aussterben bedrohte Pflanzen oder Tierarten promoviert werden. Die Bewegung Slow Food will den Konsumenten sensibilisieren, statt industrieller Fertiggerichte wieder natürliche, regionale Lebensmittel für die Ernährung einzusetzen.

Zuhause eine warme Oase schaffen

Wenn wir an kalte Winterabende denken, kommt uns zuerst ein knisterndes Kaminfeuer in den Sinn. Sicherlich geht nichts über einen gemütlichen Sonntagabend am Kamin, aber nicht jeder hat ein Haus, geschweige denn jeden Abend Zeit, Holzscheite zu bereiten und hinterher die Asche zu entfernen. Aber es gibt zum Glück viele andere Möglichkeiten, das eigene Heim behaglich warm zu haben.

Falls Sie im Eigentum wohnen, können Sie über den Einbau einer elektrischen Fußbodenheizung nachdenken. Diese Flächenheizung sorgt für ein fußwarmes Zuhause, auch wenn Sie Stein- oder Keramikböden haben, und erspart Ihnen die Installation und Wartung eines Heizkessels und der wassergefüllten Heizungsrohre, die nach Jahren auch einmal undicht werden können. Ideal ist diese Heizung auch in nur temporär genutzten Ferienwohnungen.

Sowohl im Eigentum als auch in einer Mietwohnung können Sie dagegen problemlos eine Infrarot Elektroheizung installieren. Es gibt sie zum Beispiel in Form von kleinen und großen Panels oder in Kombination mit Handtuchradiatoren. Genau wie die elektrische Wand- oder Fußbodenheizung sorgt sie für ein gesundes Raumklima ohne Zugerscheinungen oder Staubaufwirbelungen, im Gegensatz zu dem auch gebräuchlichen elektrischen Heizlüfter, der außer eines sehr geringen Wirkungsgrades viel Schmutz aufwirbelt.

In nur gelegentlich genutzten Räumen kann dagegen ein Infrarot Heizstrahler die beste Lösung sein. Dieser erzeugt in Sekundenschnelle Wärme und ist sofort nach dem Ausschalten wieder kalt, im Gegensatz zu den vorgenannten Heizsystemen, die immer eine gewisse Vor- und Nachlaufzeit haben. Das macht ihn ideal in Freizeit- oder Arbeitsräumen, die dann im Moment des Betretens sofort erwärmt werden. Die luftbewegungsunabhängige Strahlungswärme erlaubt einen effektiven Einsatz sogar im Außenbereich. Terrassen können ebenso kurzfristig beheizt werden wie ein Gartenbereich.

Weiterhin gibt es noch die seit Jahrzehnten bekannten Öl Radiatoren. Diese mögen gelegentlich in einem kleinen Raum oder als schnell transportable Lösung noch ihre Funktion erfüllen, allerdings sprechen der relativ hohe Stromverbrauch, die lange Vorwärmzeit und die erzeugte Konvektion gegen dieses Heizsystem.

Zusammenfassend lässt sich sagen, dass die gesündeste und effektivste Form der Raumerwärmung immer die Strahlungswärme ist, die wesentlich niedrigere Heiztemperaturen erlaubt als die Konvektion. Durch moderne Technik und die Verbreitung der erneuerbaren Energiequellen sind heute strombetriebene Heizsysteme wirtschaftlich und umweltfreundlich.

Was bedeutet „Deep Dive“? Bedeutung, Definition, Erklärung


Einen „Deep Dive“ vorzunehmen bedeutet, dass man eine umfangreiche Untersuchung oder Analyse eines bestimmen Themas oder eines Sachverhalts durchführt.

Was bedeutet „Deep Dive“? Bedeutung, Definition, Erklärung

Der Begriff „deep dive“ bezog sich früher auf eine Art des Brainstormings, aber in den letzten Jahrzehnten wurde er auf eine aussagekräftige Untersuchung oder Analyse einer Sache ausgeweitet.

Dieser Begriff muss sich auch nicht unbedingt auf die Geschäftswelt beziehen – man kann in so ziemlich alles (tief) eintauchen, was eine Entscheidung erfordert.

„Deep dive“ bedeutet auf deutsch „tiefer Tauchgang“. Der Ausdruck ist ein Gleichnis für das Vorgehen bei einer Analyse. Um im Gleichnis zu bleiben: Man bearbeitet bei einem „Deep Dive“ ein Thema nicht oberflächlich, also nicht so als ob man Brust schwimmen oder schnorcheln würde. Bei einem „Deep Dive“ geht man in die Tiefe, man erforscht Details und will richtig tief in die Materie eintauchen. (Hier hilft z.B. die „5 Why Methode„.)

Eine wichtige Anmerkung

Mann sollte darauf achten, dass man sich auf das Wesentliche konzentriert. Was würde der eigenen Meinung nach den Prozess wirklich verbessern und hat einen Geldwert?

Man muss sicherstellen, dass die eigenen Deep Dives Signale und kein Rauschen erzeugen.

Deep Dive: Signale versus Rauschen

  • Deep-Dives können leicht zu einem Daten-Overload werden. Unabhängig davon, ob man Deep-Dives für den eigenen Chef, die Teamkollegen oder den Untergebenen durchführt, müssen man sich an einige Regeln halten.
  • Man sollte die Deep Dives nicht zu einer Ablenkung werden lassen.
  • Man sollte dem Vorgesetzten keine Deep-Dive-Daten mitteilen, die weniger als 1 % des Jahresumsatzes ausmachen.
  • Man sollte den eigenen Kollegen keine Deep-Dive-Daten mitteilen, die weniger als 0,5 % Ihres Jahresumsatzes wert sind.
  • Man sollte den Untergebenen keine Deep-Dive-Daten mitteilen, die weniger als 0,25 % Ihres Jahresumsatzes wert sind.

„Deep Dive“: Beispiel

Man kann sich vorstellen, dass man jedes Jahr in die Türkei fliegt, um Urlaub zu machen und weil man das Speerfischen lieben. Auch wenn man ein miserabler Schwimmer ist, versucht man es jedes Jahr aufs neue. Das „Deep Diving“ ist eine perfekte Analogie zum Geschäftsleben, denn:

  • Genau wie die eigene Luft beim Speerfischen, ist auch die eigene Zeit begrenzt. Das ist die ultimative, endliche Ressource.
  • Man sollte eine grundlegende Vorstellung davon haben, wonach man sucht: einen Fisch!
  • Man muss irgendwann wieder auf das hohe Niveau zurückkehren; die Lunge reicht einer durchschnittlichen Person nur für etwa 3 Minuten
  • Der Wasserdruck macht das Leben schwerer, je tiefer man kommt, und die
  • Datenkomplexität wirkt sich auf dieselbe Weise aus. Die Lösung? Bessere Normalisierung, Formatierung, Gruppierung und Visualisierung von Daten.

Beispiel 1 – Heatmaps und bessere Nutzung des Splash-Screens für Webseiten

1-Satz-Lernen: Nachdem die Verhaltensdaten für einer kritischen Webseite gesammelt worden sind, konnte festgestellt werden, dass die Seitenhöhe auf der Grundlage von Page-Scroll-Daten auf Hotjar nicht effektiv genutzt wird.

Maßnahme: Die Inhalte werden vom Verantwortlichen der Website neu priorisiert und die geschäftskritischen Inhalte in den oberen Teil der Seiten verschoben. Außerdem wurden zwei A/B-Experimente mit den Landing Pages durchgeführt; es wird gleichzeitig eine inhaltslastige und eine übermäßig vereinfachte Version der Website getestet.

Beispiel 2 – Testimonials & Konversion

1-Satz-Lernen: Es wurden Testimonial-Inhalte auf der Grundlage von Hypothesen erstellt und durch die Nutzung von Analytics-Daten konnten die Verhaltensunterschiede der potenziellen Kunden vor und nach der Beschäftigung mit den Testimonial-Inhalten verstanden werden.

Maßnahme: Es wird ein automatisiertes Dashboard erstellt, um Verhaltensunterschiede und die Leistung der Testimonial-Inhalte zu verfolgen.

Beispiel 3 – Vergleich der Kanäle

2-Satz-Lernen: Ein Unternehmen erhält beispielsweise mehr als 20.000 Bewerbungen pro Woche, weshalb es notwendig ist, einen Deep Dive durchzuführen, um die Leistung von bezahlten und organischen Kanälen mit einer funktionalen Aufschlüsselung der Bereiche zu vergleichen. Dieser Deep-Dive ergab, dass die organischen Kanäle genauso gut abschneiden, wie die bezahlten Kanäle.

Aktion: Durchführung eines Deep-Dives in organische Kanäle, um den durch Marketinginhalte, soziale Medien und organischen Suchverkehr erzielten Dollarwert zu ermitteln.

Beispiel 4 – Der Mehrwert eines zufälligen Unternehmens in den Schwellenländern

3-Satz-Lernen: Als großer Verfechter von Remote-Software-Talenten bietet das Beispielunternehmen Fachkräften aus Schwellenländern einen enormen Mehrwert. Das Unternehmen möchte genau wissen, wie viel. Hierzu wurde mit vier verschiedenen Modellen gearbeitet, um den Mehrwert des Unternehmens in jedem Markt zu verstehen.

Handeln: Jetzt, da das Unternehmen die Arbitragemöglichkeiten der eigenen Investitionen kennt und daher diese Daten nutzen kann, um die Märkte und Marketinginvestitionen zu priorisieren.

Beispiel 5 – Testen der Erfolgsquote von Inhalten

3-Satz-Lernen: Das Beispielunternehmen evaluiert wöchentlich über 20.000 Kandidaten, und das dazugehörige Testverfahren besteht aus vier Hauptteilen: Grundlegende Eignungsfragen, kognitiver Eignungstest, fachliche Fragen und freie Fragen. Nach einer eingehenden Untersuchung der Bewerberdaten konnte festgestellt werden, dass einige der Pipelines gute Kandidaten ausschließen und andere schlechte Kandidaten durchlassen. In Anbetracht der enormen Summen, die das Unternehmen jedes Jahr in die Lead-Generierung investiert, haben diese Fehler Auswirkungen auf den Geldwert.

Maßnahme: Erstellung eines anpassbaren Berichts für die internen Teams, der Zugriff auf alle Bewerberdaten bietet und alarmierende Erfolgsquoten für jeden Testschritt anzeigt, mit der Möglichkeit, bei Bedarf pipeline-spezifische Deep Dives durchzuführen. Das Ergebnis war, dass die fehlerhaften Pipelines repariert werden konnten.

Man sollte immer daran denken, dass Deep Dives eine der wirkungsvollsten Aktivitäten sind, die man für das eigene Unternehmen durchführen kann:

  • Nur wenn man Deep-Dives durchführt, kann man andere dazu inspirieren, Deep-Dives mit den Daten durchzuführen, die sie haben
  • Verbesserungen auf der Grundlage der gewonnenen Erkenntnisse umsetzen, was zu Prozessverbesserungen über Tage, Wochen, Monate und in manchen Fällen sogar Jahre führt.
  • Ein besseres Verständnis über die eigenen Daten erlangen, was dazu führt, dass man bessere Fragen stellen kann.
Warum wird ein kalter Entzug auch „Cold Turkey“ genannt? Erklärung, Bedeutung, Definition


Der Begriff Cold Turkey ist gleichzusetzen mit einem kalten Drogenentzug. Wortwörtlich bedeutet Cold Turkey so viel wie kalter Truthahn. Der Ursprung dieser Redewendung liegt darin begründet, dass die entsprechende Person massive Entzugserscheinungen aufweist. Diese beginnen in einer ersten Phase mit einer auffallend kalten Hautoberfläche und Gänsehaut, welche an die eines kalten Truthahns erinnern.

Welche Arten von Entzügen gibt es?

Bei der Abhängigkeit von einer oder mehreren Substanzen existieren verschiedene Möglichkeiten des Drogenentzugs:

  • die langsame Verringerung der Dosis bis zur Abstinenz (Aversionstherapie)
  • das sofortige und vollkommene Absetzen der Droge
  • das Absetzen unter vorübergehender Anwendung von Ersatzdrogen
  • der Turbo-Entzug unter Narkose in besonders schweren Fällen und sekundären Erkrankungen

Welche Drogen verursachen einen Cold Turkey?

Der Cold Turkey tritt beim plötzlichen Absetzen einer Substanz auf, von der eine körperliche Abhängigkeit besteht. Oftmals sind – gerade nach lange andauerndem Konsum – körperliche sowie psychosomatische Symptome nicht klar voneinander abgrenzbar und beeinflussen sich wechselseitig.

Klassischerweise assoziiert man Alkohol, Opiate und Barbiturate mit schweren körperlichen Entzugserscheinungen. Das ist jedoch nur teilweise richtig. Auch als softe Drogen bekannte Stoffe wie Cannabis können nach jahrelangem und täglichem Gebrauch zu einem Cold Turkey führen. Ausschlaggebend sind die Dauer, Intensität und Regelmäßigkeit des vorigen Konsums.

Warum entstehen Entzugserscheinungen?

Entzugserscheinungen entstehen bei manchen Drogen bereits nach einmaligem oder seltener Gebrauch; beispielsweise bei Heroin oder Crack. Bei anderen substanzgebundenen Abhängigkeiten ist die Entwicklung von Entzugserscheinungen bei Abstinenz ein mittel- bis langfristiger Prozess.

Entzugserscheinungen treten auf, wenn dem Körper sich an die Zufuhr der Droge gewöhnt hat. Das erkennt man unter anderem daran, dass immer höhere Dosen in zunehmender Häufigkeit konsumiert werden müssen. Zunächst, um überhaupt noch das Gefühl des Highseins zu erreichen. In einem späteren Stadium lässt die Wirkung jedoch erheblich nach und reicht nur noch, um das Aufkommen eines Cold Turkeys zu verhindern. Der Teufelskreis der Sucht ist entstanden.

Was sind die Symptome eines kalten Entzugs?

Je mehr der Körper die Reste der Substanz abbaut, desto mehr Symptome treten auf. Zu Beginn bemerkt man Unwohlsein, Appetitlosigkeit, ein flaues Gefühl, Angespanntheit und Nervosität, eventuell Kopfschmerzen und Mundtrockenheit.

Die zu Anfang eher diffusen Anzeichen steigern sich im Verlauf. Hinzu kommen dann vegetative Symptome wie Zittern, Schweißausbrüche, Kreislaufprobleme sowie krampfartiges und nicht enden wollendes Erbrechen. Der Körper hat Schwierigkeiten, Blutdruck und Körpertemperatur zu regulieren. Extremes Frieren und Hitzewallungen wechseln sich ab, weil das Nervensystem außer Kontrolle gerät. Auf psychischer Ebene kann es zu einer Einengung des Bewusstseins bis hin zum Delirium kommen.

Was hilft bei einem kalten Entzug?

Einige Medikamente können die Symptome des kalten Entzugs deutlich reduzieren. Dazu werden – meist im stationären Setting – Clomethiazol und Benzodiazepine verwendet. Sie wirken angstlösend, beruhigend und verhindern Krampfanfälle. Alternative Heilmethoden wie Shiatsu und Akupressur zeigen im Rahmen ganzheitlicher Therapien vor allem auf psychischer Ebene gute Effekte, indem sie die Selbstregulation des Körpers unterstützen.

Die Entgiftung sollte man zudem mit ausreichend Bewegung an der frischen Luft fördern. Sie bringt Kreislauf und Stoffwechsel in Schwung. Über die Atmung und Transpiration werden Schadstoffe ausgeschieden. Tee aus Mariendistel, Löwenzahn und Artischocke sowie Cranberry-Saft unterstützen die Ausscheidung von Stoffwechselprodukten.

Wie gefährlich ist ein Cold Turkey bei schwerer Abhängigkeit?

Gerade bei schwerer körperlicher Abhängigkeit können außer Kontrolle geratene Entzugssymptomatiken in ein Delirium tremens münden, welches tödlich enden kann. Man unterscheidet unterschiedliche Schweregrade dieses Deliriums: die Vorphase, das voll ausgeprägte Delirium und den intensivmedizinischen Notfall.

Neben Halluzinationen, starkem Zittern, Schweißausbrüchen und Angstzuständen ist die Störung des Bewusstseins ein zentrales Kriterium des organischen Psychosyndroms. Kennzeichnend sind Störungen von Aufmerksamkeit, Denken, Gedächtnis, Psychomotorik, Wahrnehmung und Schlaf-Wach-Rhythmus. Je nach Schweregrad des Deliriums, Alter und Gesamtkonstitution der Person sowie Komorbiditäten kann das Delirium leicht bis tödlich verlaufen. Insbesondere bei schweren, seit Jahren bestehenden Suchterkrankungen sollte deshalb genau abgewägt werden, ob der kalte Entzug stationär erfolgen sollte, da die Sterblichkeitsrate unbehandelt bei etwa 25 % liegt.

Wo finde ich Unterstützung für einen kalten Entzug?

Ein kalter Entzug ist eine Mammutaufgabe. Zwar erfolgt die Entgiftung zunächst nur auf körperlicher Ebene, jedoch ist die Psyche untrennbar in den Prozess involviert. Zum Einen, weil körperliche und psychische Symptome sich gegenseitig beeinflussen, zum Anderen, weil psychische Vorgänge ursächlich an der Entstehung der Sucht beteiligt waren. Daher sollte man Körper und Psyche gleichermaßen in den kalten Entzug involvieren.

Der erste Schritt zu medizinischer Hilfe kann über den Hausarzt erfolgen. Er kann die Überweisung und ambulante oder stationäre Weiterbehandlung durch einen Facharzt veranlassen. Die Drogenberatung sozialer Träger wie der Caritas vermittelt sozialtherapeutische Angebote, welche den Entzug psychologisch und sozial begleiten. Zudem hilft der Austausch mit anderen Betroffenen, Scham, Schuld und soziale Phobien zu überwinden.

Warum sollte man einen kalten Entzug machen?

Wer über einen kalten Entzug nachdenkt, hat den ersten Schritt bereits unternommen. Betroffenen sind die mit ihrer Sucht eingehenden Nachteile bewusst; sie wünschen sich ein Leben, welches frei von Abhängigkeiten und selbst auferlegten Einschränkungen ist.

Meist sind es Ängste, unverarbeitete Konflikte und Traumata, welche den eigenen Bewegungsradius Stück für Stück eingeschränkt haben. Mit dem richtigen Werkzeug an der Hand ist es ein wunderbares Gefühl, sich den persönlichen Lebensraum wieder langsam und durch eigene Kraft zurückzuerobern sowie Perspektiven und Handlungsalternativen zu entwickeln, die einem die Freiheit verschaffen, nach der man durch den Konsum ursprünglich auf der Suche war.

Warum altern wir? Was passiert beim altern? Erklärung, Wissenschaft


Das Altern beim Menschen und bei den Tieren ist ein natürlicher Ablauf, der zum Leben dazu gehört. Doch viele stellen sich die bestimmt Frage, was während des Alterns eigentlich geschieht oder mit welchen Erscheinungen man rechnen muss. Im folgenden Ratgeber erfahren Sie alles rund um das Thema Veränderungen beim Altern.

Warum altert der Körper?

Diese Frage konnte bis heute nicht genau geklärt werden. Fakt jedoch ist, dass das Altern mit dem Verschleiß des Körpersystems zusammenhängt. Der Organismus eines Menschen ist zwar in der Lage, gewisse Beschädigungen wieder zu richten (Immunsystem, Zellerneuerung). Doch je älter man wird, desto weniger schafft der Körper die Bewältigung von Störungen.

Wie machen sich Alterserscheinungen bemerkbar?

Einige Merkmale des Alterns lassen sich sehr leicht erkennen. Die Haut wird faltig, die Haare werden grau und es sind Altersflecken zu sehen. Der Körper kann im Alter nicht mehr so viel Wasser speichern, was beispielsweise das Schrumpfen der Bandscheiben zur Folge hat und sie dadurch an Flexibilität verlieren. Deshalb wird man im Alter auch kleiner.

Wenn man älter wird, fallen verschiedene Dinge immer schwerer. Die Reaktionstüchtigkeit lässt nach, ebenso das Denkvermögen. Das hat den Grund, dass Impulse nur noch langsam an das Gehirn weitergeleitet werden und deshalb Informationen nicht mehr so einwandfrei verarbeitet werden können. Nach und nach lassen außerdem die Sinnesorgane nach. Mit dem Alter sieht man schlechter und hört schwerer. Auch besteht die Möglichkeit, dass das Empfinden für den Geschmack und den Geruch schwächer wird.

Wie kann man dem Altern entgegenwirken?

Außer das Beste aus dem Altern zu machen, kann man gegen das älter werden selbst nichts tun. Alt zu werden bedeutet gleichzeitig aber auch, ein langes und glückliches Leben führen zu können. In einer langen Lebenszeit ist es außerdem möglich, wertvolle Erfahrungen zu sammeln und weiterzugeben. Dafür ist allerdings wichtig, die Gesundheit bestmöglich zu erhalten, sodass man auch lange körperlich aktiv sein kann.

Zum Teil hängt das Altern sicherlich auch mit der Genetik zusammen, trotzdem kann man einiges dafür tun, die Gesundheit so lange wie möglich zu erhalten. Dabei spielt genügend Bewegung sowie eine ausgewogene Ernährung eine maßgebliche Rolle. Betreibt man regelmäßig angemessenen Sport, verhilft dies dazu, Stress abzubauen und Übergewicht entgegenzuwirken. Das Immunsystem wird aktiviert und der Alterungsprozess erfolgreich verlangsamt. Zudem wird das Risiko für Bluthochdruck, Krebs und Schlaganfall gesenkt.

Durch sportliche Aktivitäten wird die Muskulatur gestärkt, außerdem erhält die Haut bedeutende Nährstoffe. Sowohl geistige als auch körperliche Alterserscheinungen können durch regelmäßigen Sport im Alter hinausgezögert werden.

Was genau passiert, wenn man älter wird?

Es kommen verschiedene Arten von Gewebe im Körper vor. Einige davon wie beispielsweise die Haut, müssen fortwährend erneuert werden. Da mit der Zeit immer weniger Zellen der Haut die Möglichkeit haben, sich zu teilen, tritt die Erneuerung der Haut stetig langsamer auf. Anders sieht es beim Gehirn aus. Hier können sich die Nervenzellen generell nicht teilen. Sie haben zwar eine lange Überlebenszeit, wenn sie aber einmal abgestorben sind, sind sie nicht ersetzbar.

Dies hat zur Folge, dass die Leistung der Organe langsam abnimmt. Beim Altern wird auch die Masse einiger Organe weniger. Organe verfügen jedoch über ausreichend Reserven, welche mit Belastungen umzugehen wissen. Im alltäglichen Leben bemerkt man lange nicht, wenn die Reserven nachlassen.

Erst wenn die Reserven deutlich weniger geworden sind, treten die klassischen Erscheinungen des Alterns auf. Da dies aber nicht mit Erkrankungen zusammenhängt, kann man diesem Prozess lange entgegenwirken. Werden beispielsweise Muskeln schwächer, können sie lebenslang durchtrainiert werden. Viel Bewegung ist generell sehr von Vorteil, denn so kann das Herz-Kreislauf-System fit gehalten werden. Zudem ist Sport auch ideal für die Gesundheit der Organe.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung


Der Trickle-down-Effekt („Durchsickereffekt)“ besagt, dass wohlhabende Bevölkerungsschichten durch ihren Konsum und ihre wirtschaftlichen Investitionen ihren Reichtum nach unten an die mittleren und ärmeren Schichten durchreichen.

Als Trickle-down-Effekt wird dieses Phänomen aufgrund einer Metapher bezeichnet: Der US-Komiker Will Rogers verglich den Effekt mit dem von Pferdeäpfeln, die den Boden düngen und in denen sogar die Spatzen Nahrung finden. Daher gibt es auch die deutsche Bezeichnung als Pferdeapfel-Spatz-Theorie. Dieser Effekt ist umstritten.

Empirische Befunde scheinen nahezulegen, dass eine Einkommenskonzentration in wenigen Händen eher das gesamtwirtschaftliche Wachstum beeinträchtigt, während eine Einkommenssteigerung der untersten Bevölkerungsschichten, wie sie von eher linken Parteien zum Beispiel über einen höheren Mindestlohn gefordert wird, das BIP der Nation eher steigert.

Was ist der Trickle Down Effekt? Bedeutung, Definition, Erklärung

Erste Ansätze zu dieser Theorie finden sich schon in Werken des Ökonomen Adam Smith. Dieser postulierte im letzten Drittel des 18. Jahrhunderts, dass in gut geführten Staaten mit diverser Produktion ein universeller Reichtum entsteht, von dem letzten Endes auch niedrigste Bevölkerungsstände profitieren („Wohlstand der Nationen“).

Smith plädierte für eher freie Märkte mit der Möglichkeit, durch Unternehmertum sehr reich zu werden, und gleichzeitig für eine reduzierte staatliche Lenkung, weil dies den gesamtgesellschaftlichen Wohlstand erhöhe. Diese Grundannahme vertreten heute hauptsächlich liberale Parteien. Die Vorstellung hielt sich und führte immer wieder zu Wirtschaftsreformen, die den Märkten ein deutlich freieres Spiel einräumten.

In den USA war in den 1920er-Jahren der Autounternehmer Henry Ford ein Vertreter dieser Theorie, der seinerseits in der Tat viele gut bezahlte Arbeitsplätze schuf. Allerdings setzte 1929 eine Weltwirtschaftskrise ein, für die Wirtschaftshistoriker gerade diesen sehr wirtschaftsliberalen Ansatz verantwortlich machen. Dennoch hielt er sich und fand in den USA zu neuer Blüte ab den 1980er-Jahren unter Ronald Reagan (sogenannte Reaganomics).

In Großbritannien regierte Margret Thatcher zur selben Zeit unter dieser Prämisse. Diese hat ein breites theoretisches Fundament. Neben Adam Smith vertraten unter anderem auch die Ökonomen J. A. Hobson ab 1889, Waddill Catchings und William Trufant Foster ab 1928 sowie John Maynard Keynes ab 1936 die These, dass Wirtschaftskrisen vorrangig durch einen Mangel an Nachfrage ausgelöst werden und dass Reichtum an der Spitze immer auch zu Wohlstand in der Gesamtgesellschaft führt, der wiederum die Binnennachfrage ankurbelt.

Es gab aber auch intellektuelle Gegenbewegungen spätestens ab den 1950er-Jahren, die genau das Gegenteil behaupten und ihren Ansatz dementsprechend als Trickle-up-Theorie bezeichnen. Sie plädieren zwar ebenso für einen freien Markt und eine dezentralisierte Wirtschaft, fordern aber eine Wohlstandsverteilung in die Hände breiter Bevölkerungsschichten, weil gerade dies die Nachfrage ankurbeln könne. Barack Obama griff dieses Konzept in seiner Regierungszeit von 2009 bis 2017 auf, Donald Trump wandte sich dagegen, Joe Biden versucht es wieder umzusetzen.

Anwendung der Trickle-down-Theorie in der Regierungszeit von Ronald Reagan

Die Reaganomics ab 1981 waren ein tiefster Ausdruck des Umsetzungsversuchs von Trickle-down-Effekten. Allerdings war der Begriff damals schon negativ besetzt, weshalb die Reagan-Regierung lieber von angebotsorientierter Wirtschaftspolitik sprach. Umgesetzt wird eine Trickle-down-Politik immer über Steuern. Sie sieht Steuersenkungen für hohe Einkommen vor, wie sie beispielsweise im Bundestagswahlkampf 2021 die deutsche CDU gefordert hat.

Während der Reagan-Regierung war der Ansatz ein Kern der gesamten Wirtschaftspolitik, der weltweit diskutiert wurde. Reagan konnte während seiner zwei Amtszeiten ein Gesamtwachstum des US-BIP um 31 % erreichen, mithin 3,875 % pro Jahr, was beachtlich ist. Flankiert wurde sein Steuersenkungsprogramm von staatlicher Deregulierung. Allerdings verweisen Experten darauf, dass es für einen Wirtschaftsaufschwung immer auch andere Gründe gibt, so etwa die Weltkonjunktur oder die Entwicklung von Rohstoffpreisen. Dennoch ist zu konstatieren, dass die US-Wirtschaft sehr stark von der Binnennachfrage lebt und daher Trickle-down in gewissem Umfang funktioniert haben könnte.

Trickle-down-Ansatz in Deutschland

Die Steuerreform des Jahres 2000 führte in Deutschland zur Entlastung sehr hoher Einkommen und Vermögen. Das DIW analysierte, dass der abgesenkte Spitzeneinkommensteuersatz und die geringere Unternehmensbesteuerung 10 % der reichsten Haushalte um 2,3 % sowie 1 % der reichsten Haushalte um 4,8 % entlasteten. Da gleichzeitig indirekte Steuern leicht erhöht wurden, stieg die Steuerbelastung für alle Einkommensgruppen um 0,1 %.

Das BIP reagierte offenkundig nicht auf den Trickle-down-Ansatz, es schwankte in den Folgejahren heftig. Dazu trug allerdings auch die Finanzkrise 2008/2009 bei. Die genauen Zahlen zeigt statista.de/deutsches BIP 1992 bis 2020. In Deutschland vertreten unter anderem Friedrich Merz und weitere CDU-Politiker offensiv einen Trickle-down-Ansatz, während die FDP ihre Ambitionen in dieser Hinsicht nur latent andeutet. In den laufenden Koalitionsverhandlungen mit den Grünen und der SPD konnte sie sich bislang mit Steuersenkungen für obere Einkommen nicht durchsetzen (Stand: Ende Oktober 2021).

Kritik an der Trickle-down-Theorie

Wirtschaftswissenschaftler wie Paul Krugman, Joseph Stiglitz, Achim Truger und Marcel Fratzscher bezweifeln den Trickle-down-Effekt und sehen hierfür keine Belege. Marcel Fratzscher positionierte sich zuletzt 2021 dagegen. Er versuchte zu belegen, dass Trickle-down höhere Staatsschulden bei weniger gesamtgesellschaftlichem Wohlstand verursache. Sein Kollege Achim Truger differenzierte stärker: Nach seiner Auffassung funktioniert Trickle-down in Deutschland nicht, jedenfalls nicht mit der seit 2000 praktizierten Steuerpolitik. In den USA führte der Congressional Research Service bis 2012 eine Untersuchung zur Thematik durch und stellte fest, dass ein signifikanter Zusammenhang zwischen einem geringeren Spitzensteuersatz und Wirtschaftswachstum inklusive Arbeitsplatzschaffung nicht nachweisbar sei. Dieser Bericht wurde nach einer Meldung der New York Times von November 2012 auf Druck von Abgeordneten der Republikaner nicht veröffentlicht.

Die Senatoren hatten Bedenken zur Methodik und den daraus abgeleiteten Erkenntnissen angemeldet. Dies stieß auf demokratischer Seite auf starke Kritik unter anderem vom Senator Charles Schumer, der das Vorgehen der Republikaner als „Methoden einer Bananenrepublik“ kritisierte. Unabhängige Ökonomen und Berater des Kongresses merkten an, dass das Vorgehen der Republikaner gegen einen Bericht des wissenschaftlichen Kongressdienstes einmalig sei.

Papst Franziskus positionierte sich 2013 in einem apostolischen Brief gegen die Trickle-down-Theorie. Nach seinen Worten basiere diese auf einem undifferenzierten, naiven Vertrauen in die Güte der Reichen und wirtschaftlich Mächtigen. Der Wirtschaftsjournalist Mark Schieritz kritisiert die Vorstellung, dass Reiche durch Konsumption oder Investition ihr Geld in die Gesellschaft transferieren würden. Vielmehr würden sie es sparen oder an der Börse anlegen, so der Fachmann. Auch den verklärenden Ansatz der Trickle-down-Theorie greift er an. Das Anhäufen von Reichtümern sei beleibe keine gute Tat, welche der Gesellschaft etwa nütze. Vielmehr diene die Trickle-down-Theorie lediglich der moralischen Absicherung für bloße Gier nach Reichtum.

Ähnlich positioniert sich das Center for American Progress. Nach der Auffassung der dort tätigen Wissenschaftler haben Trickle-down-Maßnahmen eher kontraproduktive Effekte, weil die Reichen die durch Steuersenkungen erhaltenen Geldgeschenke seltener verkonsumieren oder in die Produktion investieren und häufiger an der Börse anlegen oder sparen. Auch würden sie ihre Mittel gern in Steuerparadiese transferieren. Insgesamt mache Trickle-down die Gesellschaft ungleicher und führe zu geringeren finanziellen Mitteln in der Mittel- und Unterschicht. Die Nachfrage sinke dadurch, was das BIP mittelfristig schwäche.

Fazit: Was ist der Trickle Down Effekt? 

Die Trickle-down-Theorie wird in der Öffentlichkeit regelmäßig zu plakativ dargestellt. In dieser Darstellung sind Belege für ihre Wirksamkeit oder das Gegenteil davon nicht plausibel zu kommunizieren. Zweifellos konsumieren Reiche mehr, wenn sie mehr Geld zur Verfügung haben. Dieser Konsum kann punktuell Arbeitsplätze schaffen und das Wirtschaftswachstum insgesamt fördern, doch der Effekt dürfte bei Weitem nicht so hoch ausfallen wie eine stärkere Nachfrage durch die breite Bevölkerung, wenn diese etwa durch höhere Mindestlöhne mehr Geld in der Tasche hat.

Wenn sich Reiche Luxusgüter kaufen, hat das auf die Beschäftigungsquote nur einen sehr kleinen Effekt, denn in der Luxusgüterindustrie sind nicht sehr viele Arbeitnehmer*innen beschäftigt. Deutlich höher dürfte der Effekt ausfallen, wenn Unternehmenssteuern gesenkt werden und Mittelständler dadurch ihre Betriebe ausbauen, weil sie über mehr Liquidität verfügen. Diese Effekte müssten aber genauer untersucht werden.

Wer hat Mathe erfunden? Geschichte der Mathematik


Die Mathematik beginnt mit dem Zählen, das der Homo sapiens wahrscheinlich schon sehr lange beherrscht – nachweislich seit rund 50.000 Jahren, aber vermutlich auch noch länger. Für die Zahlen bis 10 oder 20 nutzten die frühen Menschen ihre Finger und Zehen als Vergleichsmaßstäbe.

Wer hat Mathe erfunden? Geschichte der Mathematik

In den modernen Sprachen ist feststellbar, ob sie eine Reihe bis 10 nur mit den Fingern oder eine Reihe bis 20 mit Fingern und Zehen bildeten: Im Deutschen, Englischen und vielen weiteren Sprachen setzen die Zahlwörter ab 11 auf denen ab 1 auf, im Französischen hingegen nicht. Dort gibt es bis 20 völlig eigene Zahlwörter. Die frühen Franzosen vor 50.000 Jahren zählten also Finger und Zehen ab, um eine Reihe bis 20 zu bilden.

Das Zählen entwickelte sich wie die Sprache beim Übergang vom Tierreich zum Menschen. Auch Tiere können zählen. Die Bienen etwa zählen für ihre Orientierung Wegmarken ab, Pferde erkennen die ihnen angebotene Futtermenge, Schimpansen zählen an Geräuschen die Zahl ihrer Artgenossen in der Nähe ab. Einige Tiere scheinen sogar rechnen zu können, wie aufwendige Experimente offenkundig nachweisen konnten.

Als schließlich die alten Ägypter vor rund 4.500 Jahren ihre ersten Pyramiden bauten, war die Mathematik schon relativ weit entwickelt: Ohne sie wären diese Bauwerke nicht möglich gewesen.

Was weiß man über die Mathematik vor rund 5.000 Jahren?

Die Ägypter berechneten die Formen ihrer Pyramiden und deren Tunnelgänge und Kammern sehr exakt. Allerdings hielten sie ihre Aufzeichnungen auf Papyros fest, der die Zeiten kaum überdauert, weshalb von ihrer Mathematik nur spärliche Fragmente überliefert sind. Die zeitgleich zur kulturellen Blüte aufsteigenden Babylonier hingegen ritzten ihre Mathematik in Tontafeln, von denen viele erhalten blieben. Die babylonische und ägyptische Mathematik unterschieden sich zwar, jedoch kannten beide Kulturen die vier Grundrechenarten und auch schon Annäherungen an die Kreiszahl π (Pi). Die Belege für die chinesische, indische und islamische Mathematik sind jünger, was wiederum daran liegt, dass Aufzeichnungen leider nicht erhalten blieben. Wichtig zu wissen: Die frühe Mathematik nutzte in verschiedenen Kulturen unterschiedliche Zahlsysteme, die auf 6, 10, 12 oder 60 basieren konnten.

Die Entwicklung einzelner mathematischer Teilgebiete

Die alten Ägypter, die Babylonier und nach ihnen die Griechen und Römer widmeten sich sehr intensiv der Geometrie, weil sie diese für ihre Bauwerke benötigten. Sie konnten aber auch gut Löhne oder Getreidemengen berechnen. Die persischen und arabischen Mathematiker ab der Zeitenwende begründeten die Algebra, die sich nach ihren europäischen Eroberungsfeldzügen in den ersten christlichen Jahrhunderten über Spanien nach Europa verbreitete. Dort wurde sie an Universitäten und Klosterschulen gelehrt. Die höhere Algebra, die analytische Geometrie, die Wahrscheinlichkeitstheorie und die Analysis entwickelten europäische Mathematiker ab der Renaissance. Bis zum 19. Jahrhundert blieb fortan Europa das Zentrum der mathematischen Forschung, bis im 20. Jahrhundert US-Mathematiker die führende Rolle übernahmen.

Erste Blüte der griechischen Mathematik

Den Griechen verdanken wir viele mathematische Erkenntnisse. Ihre wissenschaftlichen Entdeckungen fanden in vier Hauptperioden statt:

  • Ionische Periode (600 – 400 v. Chr.)
  • Athenische Periode (400 – 300 v. Chr.)
  • Alexandrinische Periode (300 – 200 v. Chr.)
  • Spätzeit (200 v. Chr. – 300 n. Chr.)

Pythagoras, von dem wir alle den berühmten Flächenberechnungssatz a² = b² + c² kennen, wird der Ionischen Periode zugerechnet und soll quasi der Stammvater der antiken griechischen Mathematik sein. Er erhob sie zur Wissenschaft und Philosophie, während die Babylonier und Ägypter 2.000 Jahre zuvor eher aus rein praktischen Gründen gerechnet hatten.

Die nach Pythagoras benannte mathematische Schule der Pythagoreer entdeckte unter anderem irrationale Zahlen anhand geometrischer Streckenverhältnisse. Diese Forschungen setzten später Platon, Aristoteles und Archimedes fort. Letzterer konnte die Kreiszahl π schon wesentlich genauer als vor ihm die Ägypter und Babylonier berechnen. Eine Zusammenfassung der griechischen Mathematik stammt schließlich von Euklid, der unter anderem die unendliche Reihe der Primzahlen darstellte und dies mit einer strengen, bis dahin beispiellosen Beweisführung belegte.

Die zeitgleich wirkenden römischen Mathematiker wiederum wandten sich wie vor ihnen die Ägypter und Babylonier sehr praktischen Anwendungen zu. Von ihnen stammen Methoden für die Vermessung und das Ingenieurswesen. Ein Zentrum der antiken Mathematik blieb auch nach der Alexandrinischen Periode Alexandria. Dort wirkte die Mathematikerin Hypatia, die im Jahr 415 ein christlicher Mob tötete.

Mathematik in Asien

In anderen Weltgegenden entwickelte sich die Mathematik in etwa zeitgleich zu den Forschungen in Nordafrika und Südeuropa. Die chinesische Mathematik lässt sich bis ins 18. Jahrhundert v. Chr. belegen. Erhalten ist das Lehrbuch Zhoubi suanjing, das vermutlich im vierten bis dritten vorchristlichen Jahrhundert entstand und während der Han-Dynastie (206 v. Chr. – 220 n. Chr.) ergänzt wurde. Auch chinesische Mathematiker kannten schon einen Näherungswert für π.

Im 13. Jahrhundert n. Chr. erreichte ihre Mathematik eine hohe Blüte mit algebraischen Gleichungssystemen. Danach stockte die Forschung. Nach 1600 griffen die Japaner die chinesischen Kenntnisse auf und führten sie fort. In Indien gab es offenkundig schon in vorchristlicher Zeit eine gut entwickelte Geometrie, nur fehlen hierfür fast sämtliche Belege.

Aus dem 6. nachchristlichen Jahrhundert sind astronomische Berechnungen überliefert. In Asien rechnete man übrigens mit einem Dezimalsystem. Unsere Zahlzeichen (1, 2, 3 usw.) leiten sich eigentlich von indischen Symbolen ab, jedoch wurden sie uneinheitlich benannt: Die Araber nannten sie „indische Zahlen“, während sie die Europäer dann von den Arabern als „arabische Zahlen“ übernahmen. Die Japaner wiederum übernahmen sie als „römische Zahlen“, unter denen die Europäer aber die Darstellung von Zahlen mit Buchstaben verstehen (XX = 20, MMXXI = 2021 usw.).

Mathematik in Persien

In Persien und der gesamten islamischen Welt war Bagdad ein wissenschaftliches Zentrum. Die muslimischen Mathematiker hatten Kontakt zur indischen Kultur und übernahmen von ihr die Positionsarithmetik und Sinusberechnungen. Die indische und griechische Trigonometrie sowie die griechische, ägyptische und römische Geometrie entwickelten sie weiter. Die Algebra entwickelten sie selbstständig, die Europäer profitierten davon (siehe oben). Frühe islamische Schriften zur Mathematik sind ab dem 9. Jahrhundert überliefert. Um das Jahr 1000 erreichte die persische Mathematik ihre Hochblüte.

Mathematik der Maya

Die Maya, deren Hochkultur etwa 400 – 900 n. Chr. existierte, wandten sich in ihren mathematischen Forschungen sehr stark der Astronomie zu, konnten sehr gut Kalender berechnen und nutzten als Zahlenbasis wie die frühen Franzosen die 20, weil sie ebenso Finger und Zehen abzählten. Ihre Mathematik soll höher als die im Orient entwickelt gewesen sein. Ihr Kalender war in dieser Epoche der weltweit genaueste.

Europäische Mathematik ab dem Mittelalter

Die Europäer konnten auf dem Import der arabischen Mathematik aufsetzen, auch griechische und römische Schriften studierten sie intensiv. Der Mittelmeerraum wurde zu einem wichtigen Zentrum der mittelalterlichen europäischen Mathematik, ein wichtiger Vertreter war Leonardo da Pisa (1170 – 1240), von dem die Fibonacci-Zahlenreihe stammt. Mathematik wurde in den Klosterschulen und an den damals gegründeten Universitäten gelehrt.

Die mathematischen Teilgebiete waren die Arithmetik, die euklidische Geometrie, die Astronomie und die musikalische Harmonielehre, welche die Gelehrten unter mathematischen Gesichtspunkten betrachteten, was grundsätzlich nicht falsch ist. Mit Kalenderberechnungen mussten sich mittelalterlichen europäischen Mathematiker noch intensiv beschäftigen. Unter anderem ging es darum, das Datum für das Osterfest exakt zu berechnen.

An den mittelalterlichen Universitäten und Klosterschulen wurden Werke der antiken griechischen Mathematik abgeschrieben und ins Lateinische übersetzt. Ab dem 13. Jahrhundert führten die Europäer neue Methoden ein, entwickelten Experimente und die sichere Beweisführung, stießen in unendliche Zahlenreihen vor und befassten sich im Zuge der großen Kirchenbauten auch intensiv mit praktischer Mathematik.

Auch die sich rasant entwickelnde Geldwirtschaft erforderte neue mathematische Methoden. Der Deutsche Adam Ries(e) übertrug das Rechnen ins Deutsche, auch wurden im 15. bis 16. Jahrhundert die vorher geltenden römischen durch arabische (eigentlich: indische, siehe oben) Ziffern ersetzt. Es folgten die Wahrscheinlichkeitsrechnung, die Kombinatorik nach Blaise Pascal, die Variationsrechnung nach Pierre de Fermat, dessen Annahmen erst 1995 mathematisch bewiesen werden konnten, die Differential- und Integralrechnung ab dem 17. Jahrhundert sowie die Infinitesimalrechnung nach Newton und Leibniz.

Ab dem 18. und 19. Jahrhundert stieß die Mathematik in höhere Sphären vor, auf denen später komplexe technische Leistungen wie die Raumfahrt aufsetzten. Die mathematische Forschung ist keinesfalls an ihrem Ende: Mathematiker entdecken immer wieder neue spannende Probleme und suchen nach Lösungen dafür.

Was ist ein Exploit? Bedeutung, Definition, Erklärung


Ein Exploit nutzt Schwachstellen bei der Softwareprogrammierung für Hackerangriffe oder auch für die Überprüfung des Programms aus. Das Wort kommt vom Englischen to exploit = ausnutzen. Ein Zero-Day-Exploit nutzt solche Sicherheitslücken gleich nach dem Start des Programms aus, wenn es für dieses noch keinen Patch des Herstellers gibt.

Wie kann ein Exploit funktionieren?

Es gibt in Programmen a) Schwachstellen bei der Neuprogrammierung und b) systemische Schwachstellen. Letztere existieren beispielsweise bei den gängigen Home- und Officerechnern, deren sogenannte Von-Neumann-Architektur nicht zwischen den Nutzdaten und dem Programmcode unterscheidet. Diese Architektur schreibt unter anderem bei einem Pufferüberlauf den Angreifercode in dafür nicht gedachte Speicherbereiche. Das erleichtert den Manipulationsversuch. Es gibt noch weitere Möglichkeiten wie Formatstringangriffe. In so einem Fall übergibt das Programm Benutzereingaben ungefiltert an Formatierungsfunktionen. Auch können Hacker oft eigenes Codes ausführen lassen, die ihm Privilegien des angegriffenen Programms via Shell liefern. Exploits lassen sich wie folgt klassifizieren:

  • Remote-Exploits
  • lokale Exploits
  • DoS-Exploits
  • SQL-Injection-Exploits
  • Command-Execution-Exploits
  • Zero-Day-Exploits

Lokale Exploits werden beim Öffnen von scheinbar völlig harmlosen Dateien wie etwa Officedokumenten aktiviert, wenn die Anwendung für diesen Dateityp durch eine unsaubere Verarbeitung eine Sicherheitslücke aufweist. Der Exploit kann sich in einer Excel- oder Worddatei und auch in einem PDF-Dokument verbergen. Er nutzt die Sicherheitslücken im betreffenden Programm aus und erhält damit eine höhere Privilegienstufe. Mit dieser kann er schädlichen Code ins Betriebssystem laden. Die gesamte Aktion heißt Payload (Nutzlast).

Es gibt etliche Exploit-Frameworks wie Metasploit, die ein separates Konfigurieren der Payload ermöglichen, doch sie kann auch im Exploit fest verankert sein. Remote-Exploits werden aus dem Netz mit manipulierten Datenpaketen eingespielt. Sie zielen auf Schwachstellen der Netzwerksoftware. DoS-Exploits lösen einen Denial-of-Service-Angriff aus, überlasten also das System, führen aber keinen fremden Programmcode aus und beinhalten auch keine Privilegieneskalation. Command-Execution-Exploits erlauben dem Angreifer, die Ausführung des Programmcodes auf dem angegriffenen Rechner zu steuern. Diese Exploits gelten als sehr gefährlich, weil sich damit das angegriffene System komplett übernehmen lässt. SQL-Injection-Exploits zielen speziell auf SQL-Datenbanken.

Beispiele für Hackerangriffe mit Exploits

2012 schaltete ein Exploit den Securitymanager von Java ab und konnte danach auf den betroffenen Rechnern beliebige Programme starten. 2014 trat eine Zero-Day-Lücke in MS-Office-Dokumenten nahezu aller Windowsversionen auf. Ebenfalls im Jahr 2014 griffen Hacker mit einem SQL-Injection-Exploit Kundendaten aus dem Playstationnetzwerk von Sony ab. Ebenfalls mit einem SQL-Injection-Exploit wurde das beliebte CMS WordPress im Jahr 2015 angegriffen. Die Sicherheitslücke befand sich im Analytics-Plug-in Slimstat. Rund eine Million Websites weltweit hätten damit von Hackern übernommen werden können. Der tatsächliche Schaden war weitaus geringer. Hacker testen vielfach nur Exploits, um sie gegebenenfalls zu einem späteren Zeitpunkt zu verwenden.

Gefahren durch Zero-Day-Exploits

Zero-Day-Exploits geben den Entwicklern null Tage (zero days) Zeit für einen Sicherheitspatch. Hacker wissen, dass neue Programme anfällig für Schwachstellen sind, weshalb sie gezielt auf Zero-Day-Exploits setzen. Die Gefahr besteht darin, dass die Schwachstelle manchmal erst lange nach diesem ersten Angriff aufgedeckt wird. Die Hacker selbst halten die Zero-Day-Exploits geheim, damit sie lange mit ihnen operieren können. Sie handeln auch untereinander damit oder bieten sie den Softwareentwicklern für hohe Summen an, was praktisch eine Erpressung darstellt.

Mit der zunehmenden Digitalisierung und damit der steigenden Programmvielfalt werden auch Zero-Day-Exploits immer interessanter: Die Preise hierfür haben sich im letzten Jahrzehnt in etwa verzehnfacht. Allerdings nutzt der Staat der Exploits ebenfalls. Der BND kauft offenbar Zero-Day-Exploits an und hört damit SSL-Verschlüsselungen ab. Solche Exploits kosten teilweise 100.000 Dollar. Die Bundesregierung soll dem BND für eine entsprechende Aktion (Codename „Swop“) allein 2015 rund 4,5 Millionen Euro zur Verfügung gestellt haben.

Gegenreaktion der Softwareentwickler

Private Entwicklerfirmen und staatliche Organe suchen seit etwa 2015 sehr gezielt und intensiv selbst nach möglichen Exploits, um die Sicherheitslücken schneller schließen zu können. Sobald sie diese erkannt haben, veröffentlichen die Hersteller Patches, mit denen die eigenen Systeme abgesichert, aber auch die Hackersysteme angegriffen werden. Das ist schon praktischer Cyberwar. Dieser dürfte sich künftig verschärften, weil heute alle modernen Systeme digitalisiert sind und durch Exploits große Gefahren für die Infrastruktur bestehen. Schon 2014 wurde nachgewiesen, dass sich sogar die digitale Steuerung moderner Autos per Exploit übernehmen und sich die Fahrzeuge damit fernsteuern lassen. Schwachstellen für Hackerangriffe fanden sich unter anderem in Infotainmentsystemen.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung


Soft Robotics, also „weiche Roboter“, imitieren Bewegungsabläufe aus der Natur. Statt starrer Materialien werden weiche, organische Strukturen in der Robotik eingesetzt.

Was ist Soft Robotics? Bedeutung, Definition, Erklärung

Roboter, die sich unmenschlich und abgehakt bewegen, gehören der Vergangenheit an. Soft Robotics imitieren Bewegungen aus der belebten Natur. Das ermöglicht neue Einsätze in der Industrie, denn die Technologie lässt sich von der Biologie inspirieren.

Roboter sollen auf diese Weise intuitiv und einfühlsam agieren können. Neben weichen Strukturen erreichen das Sensoren oder Algorithmen. Forschende arbeiten an der Weiterentwicklung, darunter Material- und Biomechanikforscher. Softwareentwickler machen das Team komplett.

Hauptanwendungsfelder finden sich in der Industrie. Aktuell werden immer noch sehr viele Roboter eingesetzt, die zwar smart agieren können, dafür aber nicht nachgiebig sind. Roboter sollen Menschen unterstützen und Hand in Hand mit ihnen arbeiten. Das ist auch das Ziel von Soft Robotics. Sie können vor allem im Bereich der Pflege, zum Beispiel als Serviceroboter, eingesetzt werden. Auch als Assistenzroboter in der Medizintechnik sind sie denkbar.

Warum sind harte Roboter ein Nachteil?

Industrieroboter sind aus der Produktion nicht mehr wegzudenken. Sei es bei der Produktion von Autos oder dem Zusammensetzen von Smartphones: Robotics ist Teil unseres Lebens. Doch sie haben einen entscheidenden Nachteil: Bei dem direkten Austausch mit Menschen sind sie zu hart und können sogar Verletzungen hervorrufen. Softe Roboter sind so weich, dass in der Pflege oder als Servierer in einem Restaurant keine unangenehmen Aufeinandertreffen geschehen können. Die neuartige Struktur macht es möglich.

Wie weit ist der Forschungsstand von Soft Robotics?

Soft Robots befinden sich in stetiger Entwicklung, werden heute aber schon eingesetzt. Das Fraunhofer-Institut und Vertreter aus der Industrie forschen beispielsweise an der Entwicklung. Zu Demonstrationsobjekte zählen unter anderem X‑förmige Kriechroboter und fisch- sowie rochenartige Roboter. Der Bau ist angelehnt an die Natur.

Außerdem gibt es Soft Roboter, die Händen ähneln und greifen können. Das Potenzial für Wissenschaft und Industrie ist groß.

Wie werden Soft Robots hergestellt?

Ein Soft Roboter benötigt neben dem Material eine intelligente Software. Algorithmen paaren sich mit naturnahen Formen. Funktion und Design sollen möglichst naturtreu sein oder gar an ein Tier erinnern. Komplexere Roboter werden aus CAD-Dateien in generativen Fertigungsverfahren erstellt.

Die verwendeten Materialien bestehen in der Regel aus:

  • natürlichem Gewebe wie Muskeln, Haut, Knorpel
  • Elastischen Materialien
  • Hydrogele

Damit sich der weiche Roboter auch geschmeidig bewegen kann, wird eine Aktorik benötigt. Diese lässt die einzelnen Komponenten bewegen. Hier kommen entweder Spanndrähte, elektroaktive Polymere oder Formgedächtnismaterialien zum Einsatz. Das können Silicone sein. Über Reize wie Licht, Temperatur oder Strom werden Kräfte gezielt in die Struktur des Roboters geleitet. Dieser Prozess kann auch mechanisch verlaufen.

Auf jeden Fall bedarf es ausreichender elektronischer Komponenten, um den Roboter zu steuern.

Welche Herausforderungen bestehen?

Beim Betrieb von Soft Robotics gibt es eine zentrale Herausforderung: die Energieversorgung. Im besten Fall gibt es tragbare Energiequellen, die ebenfalls klein und weich sind. Das können zum Beispiel Miniatur-Kompressoren sein. Aktuell wird an Batterie-Systemen gearbeitet.

Die Sensoren von weichen Robotern

Ohne Sensoren kommen softe Roboter nicht aus. Da an den speziellen Robotern alles weich ist, sind es die Sensoren im besten Fall auch. Sie messen Verformungen und können unter anderem Rückschlüsse auf die Steifigkeit des Roboters ziehen.

Softsensoren sind:

  • Softe Dehnungssensoren
  • Weiche Biegesensoren
  • Drucksensoren
  • Kraftsensoren

Softe Roboter als Exoanzüge

Exoanzüge kommen bei der Rehabilitation von Patienten zum Einsatz. Sie helfen Senioren und kräftigen den Körperaufbau. Soft Robotics kann auch hier genutzt werden. Forschende aus Harvard haben aus den Materialien einen Exoanzug entwickelt, der nicht mehr steif sich an den Bewegungsapparat des Menschen anpasst. Dabei handelt es sich um Metallgerüste, die mit motorisierten Muskeln ausgestattet sind. Die weicheren Roboteranzüge spiegeln die innere Skelettstruktur des Trägers wider. Angehobene Gegenstände fühlen sich in einem Exoanzug viel leichter – fast schwerelos – an. Verletzungen auf der Arbeit werden verhindert.

Was bedeutet „false balance“? Bedeutung, Definition, Erklärung


Die „false balance“ ist eine falsche Ausgewogenheit oder Gleichgewichtung von Argumenten zu einem Thema. Sie spielt vornehmlich im Wissenschaftsjournalismus eine Rolle, der auch politisch stark beachtet wird und daher auf eine ausgewogene Berichterstattung achten sollte.

Ein Beispiel wäre die unangemessen starke Darstellung von Argumenten der Leugner eines menschengemachten Klimawandels. Es gibt solche Argumente, doch sie werden von einer absoluten Minderheit (weniger als ein Prozent aller Wissenschaftler) vertreten. Ihnen also in der medialen Berichterstattung einen Raum von deutlich mehr als einem Prozent einzuräumen wäre eine „false balance“.

Effekte der „false balance“

Der wichtigste Effekt der unausgewogenen, nämlich nahezu gleichwertigen Darstellung von Minderheiten- und Konsensmeinung ist der öffentliche Eindruck, die Argumente beider Lager seien gleichwertig. Das sind sie nicht, wenn eine teilweise überwältigende Mehrheit aller Forscher zu einem einheitlichen Ergebnis kommt, das der Minderheitenmeinung widerspricht. Allerdings müssen Minderheitenmeinungen zugelassen und auch publiziert werden. Das gibt es nicht nur in der Wissenschaft, sondern beispielsweise auch vor Gericht: Hier würdigt der Richter vom Grundsatz her zunächst vier Meinungen: die beiden Meinungen der Kontrahenten, eine Mehrheitsmeinung unter den Juristen und eine Minderheitenposition.

Manchmal setzt sich auch Letztere durch, wenn sie deckungsgleich mit der Meinung eines der Kontrahenten ist, der sie sehr gut mit Argumenten unterfüttert. Das bedeutet: Minderheitenmeinungen können manchmal richtig sein, auch wenn daran momentan nur sehr wenige Menschen glauben. In der Wissenschaft verhält es sich genauso. Das von Nikolaus Kopernikus (1473 – 1543) vertretene heliozentrische Weltbild, an das übrigens vor ihm schon andere Astronomen geglaubt hatten, war damals eine Minderheitenmeinung, denn nach christlicher Auffassung stand die Erde im Mittelpunkt der Welt. Dieser Meinung schlossen sich diverse Astronomen und die breite Mehrheit der Bevölkerung an, weil ja auch der Augenschein zu belegen scheint, dass sich die Sonne und andere Himmelskörper um die Erde drehen.

Die Minderheitenmeinung wurde dementsprechend unterdrückt, Giordano Bruno (1548 – 1600) landete für diese Position auf dem Scheiterhaufen (und wurde übrigens erst im Jahr 2000 durch Papst Johannes Paul II. rehabilitiert). Daraus schließen wir, dass Minderheitenmeinungen durchaus gehört werden sollen und es sträflich wäre, ihre Anhänger zu diskriminieren oder gar auf den Scheiterhaufen zu schicken – selbst wenn sie den menschengemachten Klimawandel leugnen. Nur muss die Berichterstattung zu ihren Argumenten ausgewogen ausfallen, damit keine false balance entsteht. Diese kann durchaus gefährlich sein. Menschen schätzen dann aufgrund einer verzerrten Wahrnehmung Risiken falsch ein. Dies war zum Beispiel zu Beginn der Coronapandemie der Fall. Es wurde im ersten Halbjahr 2020 noch übermäßig stark darüber diskutiert und publiziert, welchen Sinn eine Maskenpflicht hat. Die Mehrheit der Wissenschaftler war sich zwar längst darüber einig, dass besonders FFP2-Masken sehr effektiv schützen können, doch die false balance in der Berichterstattung führte bei vielen Menschen zur Maskenverweigerung wegen vermeintlicher Risiken des Maskentragens bei vermeintlicher Nutzlosigkeit der Masken.

Wie kann der Wissenschaftsjournalismus eine false balance unterbinden?

Wissenschaftsjournalisten sollten die Belege für eine Theorie genau überprüfen. Wenn diese fehlen oder sehr schwach sind, könnte die Theorie schwach sein. Des Weiteren können sie evaluieren, wer unter den anerkannten Wissenschaftlern sich welcher Meinung anschließt. Auch sind Argumentationsketten von Vertretern einer Meinung interessant.

Wer eine Position als „wissenschaftlich“ darstellt, aber wenig bis keine wissenschaftlichen Nachweise vorweisen kann und sogar Informationen unberücksichtigt lässt, die seine Meinung widerlegen, ist offenkundig auf dem Holzweg. Diese Evaluation von Wissenschaftsjournalisten ist vor allem dann wichtig, wenn eine Meinung neu auftaucht und sich die Wissenschaftswelt bislang wenig dazu positioniert hat. Es ist dann noch nicht feststellbar, dass es sich um eine Minderheitenmeinung handelt. Da bislang wenig dazu publiziert wurde, ist auch noch keine false balance festzustellen.

Die Journalist*innen können sich also noch nicht an mehrheitlichen Meinungen orientieren. Beim Klimawandel ist das mit Stand 2021 sehr viel einfacher: Nach einschlägigen Untersuchungen (Sichtung von Publikationen zum Thema) glauben ~99 % aller Wissenschaftler, dass die Industrialisierung seit dem 19. Jahrhundert unseren gegenwärtigen Klimawandel verursacht hat und noch verursacht. Wer also eine haltlose Gegenthese als plausibel präsentiert, muss mit viel Gegenwind rechnen. Sollte aber dieser These zu viel Raum in der öffentlichen Berichterstattung gegeben werden, wäre dies eine false balance. Es genügt für die ausgewogene Darstellung, die These als „Gut-zu-wissen-Information“ am Rande zu erwähnen. Dass es zu einer false balance im Wissenschaftsjournalismus kommt, hat zwei Gründe:

  • #1 Die Journalisten kennen natürlich das oben zitierte Beispiel von Kopernikus und Giordano Bruno. Es gibt diverse weitere solcher Geschichten aus der Wissenschaftsgeschichte. Sie möchten daher nicht als Unterdrücker einer Minderheitenposition dastehen, die sich möglicherweise irgendwann einmal als richtig erweist.
  • #2 Manche Minderheitenpositionen sind auf den ersten Blick so spannend, dass sie auch von seriösen Journalisten gern zitiert werden – vor allem dann, wenn diese Berichterstattung eigentlich keinen Schaden anrichtet, sondern eher dem Infotainment dient. Berichte über UFO-Sichtungen fallen möglicherweise in diese Kategorie. Die Allgemeinheit findet es sehr interessant, dass vielleicht Aliens unter uns wandeln oder uns von einem benachbarten Sonnensystem aus beobachten. Die seriöse Wissenschaft hält das für extrem unwahrscheinlich, doch was macht es schon, darüber zu berichten?

Gibt es eine false balance auch bei anderen Themen?

Der Begriff wird nur für Fachthemen und speziell für den Wissenschaftsjournalismus verwendet. Bei der politischen Berichtserstattung ist es hingegen sinnvoll, gegensätzliche Meinungen durchaus gleichwertig darzustellen. Das wird auch so praktiziert, wie wir aus diversen Talkshows wissen. Dort wird sogar penibel darauf geachtet, den Kontrahenten die annähernd gleiche Redezeit einzuräumen, selbst wenn einer von ihnen eine (absolute) Minderheitenposition vertritt. Die Öffentlichkeit muss das aushalten, auch wenn dadurch Vertreter extremer Positionen zu Wort kommen. Solange diese Vertreter legal handeln und sogar in den Bundestag gewählt wurden, haben sie ein Anrecht darauf, gehört zu werden. In der Wissenschaftswelt hingegen, die mit Studien und handfesten Nachweisen operiert, ist es legitim, der Mehrheitsposition auch mehr Platz für die Darstellung zu geben, damit keine false balance entsteht.

Beispiele für false balance und ihre Folgen

Die Tabakindustrie leugnete bis ins letzte Drittel des 20. Jahrhunderts die gesundheitlichen Gefahren des Rauchens. Es gab zwar schon vor mindestens 100 Jahren Studien, die solche Gefahren aufzeigten, doch es gab auch immer Gegenstudien. Die Lobbyisten der Tabakindustrie schafften es, Gegenargumente („Rauchen ist nicht oder nur sehr wenig schädlich“) so aufzubauschen, dass in der Öffentlichkeit ein verzerrtes Bild von den Gesundheitsgefahren entstand und bis heute Tabakrauchen erlaubt ist.

Eigentlich müsste es wie viele andere Drogen verboten werden. Die Tabaklobbyisten nutzten den Wunsch der Wissenschaftsjournalisten nach einer ausgewogenen Berichterstattung aus und ließen dadurch eine gefährliche false balance entstehen. Auch dass Journalisten gern Kontroversen aufgreifen, spielte dieser false balance in die Hände. Im Jahr 2021 gibt es im Grunde keine Kontroverse mehr dazu: Tabakrauchen ist schädlich und Punkt, niemand widerspricht mehr. Bis zu dieser Einsicht vergingen viele Jahrhunderte mit vielen Millionen Tabaktoten.

Ein jüngeres Beispiel für false balance liefern die Kontroversen um den menschengemachten Klimawandel. Diese false balance ist gut untersucht. So berichteten zwischen den 1980er-bis frühen 2000er-Jahren zumindest US-Medien so „ausgewogen“ zum Thema, dass die Öffentlichkeit zweifeln musste, ob nun der Mensch oder andere Einflüsse den Klimawandel auslösen. Rund 53 % aller Zeitungsartikel jener Zeit gaben beiden Meinungen in etwa gleich viel Raum: Menschen verursachen den Klimawandel, oder sie tun es nicht. Das wirkte bis zur Präsidentschaft von Donald Trump ab 2016 nach, der sich immer noch auf Argumente der Leugner eines menschengemachten Klimawandels stützte, um die einheimische Kohleindustrie nicht zu gefährden.

Bis in die frühen 2000er-Jahre betonten 35 % aller Artikel in US-Medien, dass die Erderwärmung eindeutig vom Menschen kommt, ließen aber die Gegenthese von den natürlichen Ursachen ebenso gelten, wenn auch mit weniger Raum. Lediglich 6 % der Artikel publizierten den schon damals vorherrschenden wissenschaftlichen Konsens, dass wir Menschen unser Klima beschädigen. Die false balance zu diesem Thema nahm übrigens zwischen den frühen 1980er- und den späten 1990er-Jahren nicht ab, sondern zu: Es setzten gezielte Desinformationskampagnen einer organisierten Klimaleugnerszene ein, die vermutlich durch die Kohle- und Autolobby gesponsort wurde. Also stellten die Wissenschaftsjournalisten vermehrt die Argumente beider Seiten dar, was zu jener Zeit schon eine extreme false balance bedeutete.

Was sind Trap Streets und Paper Towns? Bedeutung, Definition, Erklärung


Immer dann, wenn von sogenannten Trap Streets und Paper Towns die Rede ist, handelt es sich um Fälschungen. Eine Vielzahl dieser Fälschungen beziehen sich auf Karten, die bei Google Maps veröffentlicht worden sind.

Kuriose Straßennamen und Ortsbezeichnungen

Der Bonner Galgenpfad oder Vordery in Hamburg sind nur einige von vielen dieser Beispiele. Im Falle dieser beiden Straßenbezeichnungen wird dem Nutzer einer Karte unter Umständen nicht im ersten Momenten ersichtlich werden, dass es sich hierbei um Fake-Bezeichnungen handelt, denn Straßen dieser Art gab es nie und wird es unter Umständen auch nie geben.

Doch was ist der Sinn einer solchen irreführenden Bezeichnung? Warum werden diese falschen Straßennamen oder in einigen Fällen sogar ganze Landschaftszüge, die so nicht existieren, hier vermerkt? Im Prinzip ist es ganz einfach. Jeder Kartenhersteller, der diese Bezeichnungen in einer neu veröffentlichten Karte einsehen kann, hat nun die Möglichkeit ein Plagiat aufzudecken. Der Diebstahl geistigen Eigentums und auch die Kopie von Karten sind keine Bagatellen. In nicht wenigen Fällen landen Vorgänge dieser Art vor dem Gericht und werden hart bestraft.

Was sind Trap Streets? Bedeutung, Definition, Erklärung

Bei den sogenannten Trap Streets handelt es sich, wie bereits angedeutet, um falsche Straßen, die in der Realität nicht existent sind. Die Kopie des jeweiligen Kartenwerks soll somit um ein Vielfaches erschwert werden. Man könnte hier auch sagen, dass eine Trap Street eine gute Alternative zu einem klassischen Wasserzeichen darstellen kann.

Besonders oberflächliche und wenig gewissenhafte Kartendiebe und Fälscher werden die fehlerhaften Einträge nicht bemerken und somit auch in die Raubkopie übernehmen. Mitunter werden Trap Streets allerdings auch verwendet, um andere Nutzer ganz bewusst in die Falle zu locken oder zumindest zu täuschen. Dies war bereits im Zweiten Weltkrieg üblich. Hier hatte die Sowjetunion den gegnerischen Truppen ganz bewusst falsche Karten zukommen lassen, damit diese in Schwierigkeiten gerieten.

Was konkret sind Paper Towns? Bedeutung, Definition, Erklärung

Bei den sogenannten Paper Towns handelt es sich schlichtweg um frei erfundene Städte. Auch hier wurde in der Vergangenheit versucht andere Nutzer zu täuschen. Im Falle eines Plagiats wird der Fälscher wohl auch in diesem Fall die falschen Städte übernehmen.

Vielen Menschen ist der Begriff Paper Towns allerdings auch noch in einem komplett anderem Zusammenhang geläufig. Hierbei handelt es sich um einen Film aus dem Jahre 2015, der eine Romanverfilmung von John Green ist und insbesondere bei allen Liebhabern romantischer Mysterien-Verfilmungen sehr beliebt sein dürfte.

Die Liste von Fake-Orten ist unendlich lang

Eine ganz besonders berühmte Paper Town ist Argleton. Diese Stadt wurde im Nordosten von England verortet. Es handelte sich um eine lebhafte Stadt mit bedeutenden Hotels und Geschäften, zumindest in der Fantasie des Verfassers, denn Argleton ist ein mehr oder minder unbedeutendes Feld. Vom bunten Treiben einer nordenglischen Stadt kann hier also tatsächlich keineswegs die Rede sein.

Die benannten Häuser, Geschäfte und Hotels gab es allerdings in der Realität tatsächlich. Jedoch befanden sich diese einige Kilometer weit entfernt. Als es zu diesem Eintrag kam, hatte Google Maps noch nicht alle Straße und Orte selbst abgefahren. Als der Schwindel im Jahre 2009 aufflog, wurde dieser Eintrag dann jedoch ordnungsgemäß entfernt.

Eine überaus berühmte Trap Street ist die Moat Lane im Norden von London. Sie gilt bzw. galt bis zu ihrer Löschung seitens Google Maps als überaus reich an Kurven. Sie befand sich über mehrere Jahre vollkommen zu Unrecht als Eintrag auf Google Maps.

Kartenfälschungen sind ein lukratives Geschäft

Wer hochwertige Karten (heute vor allem digitale Karten) in den Umlauf bringt, kann damit durchaus sehr viel Geld verdienen. Diese selbst zu erstellen und ausreichend Recherche zu betreiben ist jedoch sehr aufwendig. Um die Arbeit entsprechend zu erleichtern versuchen Betrüger durch Fälschungen schneller ans Ziel zu kommen. Wer dabei erwischt wird, muss allerdings mit empfindlichen Geldstrafen rechnen. Trap Streets und Paper Towns sind in diesem Zusammenhang eine wirklich sehr gute Möglichkeit eine solche Fälschung zielgerichtet aufzudecken und nachzuweisen.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung


Immer dann, wenn von einem sogenannten Reply Deboosting die Rede ist, geht es um den bekannten und weltweit genutzten Nachrichtendienst Twitter. Konkret geht es hier um Antworten bei Twitter, die auf einen bestimmten Kommentar oder Beitrag erfolgen. Die jeweiligen Antworten sollen dann durch eine spezielle interne Funktion ausgeblendet werden.

Was ist Reply Deboosting? Bedeutung, Definition, Erklärung

Sieht man sich mit einem unbekannten aus der englischen Sprache stammenden Begriff konfrontiert, wird es zunächst sinnvoll sein, eine wörtliche Übersetzung herauszufinden. In diesem Fall ist dies jedoch leider wirklich alles andere als sinnvoll, denn der Begriff Reply Deboosting kann praktisch nicht einfach wörtlich übersetzt werden. Wer wirklich wissen möchte, was sich hinter dieser Begrifflichkeit verbirgt, sollte sich vorzugsweise mit den Funktionen des Nachrichtendienstes Twitters befassen.

Wie bereits angedeutet werden beim sogenannten Reply Deboosting Antworten auf einen Beitrag oder Kommentar per Standard ausgeblendet. Wer dennoch mehr erfahren möchte, muss nun einen zusätzlichen Klick vornehmen. Hierfür gibt es die Funktion „Weitere Antworten anzeigen“. Ist dieser Vorgang ausgeführt erscheinen nun alle verdeckten Antworten.

Unterschiede zwischen Followern und weiteren Mitgliedern auf Twitter

Datenschutz und Anonymität sind wichtige Werte in den sozialen Netzwerken und bei sämtlichen Nachrichtendiensten. Dies hat sich auch bei Twitter verstetigt. Die sogenannte Funktion „Weitere Antworten anzeigen“ ist aus diesem Grund nicht unabhängig vom Status nutzbar. Ist man kein Follower des betreffenden Accounts, erhält man keinen Zugriff auf die zusätzlichen Antworten.

Ausblenden negativer Inhalte

Das sogenannte Reply Deboosting ist jedoch nicht nur unbedingt im Sinne des Datenschutzes und der Privatsphäre erfunden worden. Man kann sich als User regelrecht für ein Reply Deboosting qualifizieren.

Es liegt hier vollkommen in der Macht des Nachrichtendienstes Twitters einzelne Nutzer mit dem Reply Deboosting zu belegen. Hier können dann standardmäßig die Antworten einer bestimmten Person ausgeblendet werden. Dies ist natürlich insbesondere immer dann der Fall, wenn sich ein ganz bestimmter User durch beleidigende oder herabwürdigende Bemerkungen im großen Umfang hervorgetan hat.

Wurde man von Twitter mit einer solchen Funktion belegt, gibt es praktisch keinen realistischen Ausweg mehr. Man kann hier auch nicht zurückrudern, Kommentare richtig stellen oder gar ständig liebevolle Tweets veröffentlichen. Zwar sind diese Dinge aus technischer Sicht durchaus umsetzbar, allerdings erlangt man den alten Standard nicht wieder zurück. Es bleibt auf Dauer bei dieser durchaus sehr unbeliebten Funktion.

Reply Deboosting: Eine neue Form der Sicherheit

Das Internet ist kein rechtsfreier Raum und somit gelten auch auf Twitter überaus strenge Regeln der Kommunikation. In der digitalen Welt ist es besonders leicht bestimmte Leute zu beleidigen oder in die Ecke zu drängen, weil man diesen nicht direkt in die Augen schauen muss. Genau dies weiß auch Twitter und hat mittels Reply Deboosting eine einfache und vor allem auch sehr effektive Funktion geschaffen, die vorbeugt und zudem auch jeder Person einleuchtet.

Ist man mit dieser Funktion belegt, hat man natürlich erhebliche Nachteile und kann Twitter nur noch recht eingeschränkt nutzen. Wer sich jedoch auf Dauer an alle geltenden Regeln hält, wird in diesem Bereich überhaupt keine Probleme bekommen.

Durch die Funktion Reply Deboosting werden Nutzer nicht einseitig eingeschränkt, sondern bestimmte Nutzer vor Beleidigungen und Nachteilen beschützt. Dieses Vorgehen durch den Nachrichtendienst Twitter ist im besonderen Maße vorbildlich und kann außerdem in jedem Fall als sehr fortschrittlich erachtet werden.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung


Das sogenannte Subtweeting wird insbesondere auf dem berühmten und sehr erfolgreichen Nachrichtendienst Twitter zum Einsatz gebracht. Die sogenannten Subtweets nehmen dabei Stellung zu bereits gemachten Kommentaren. Allerdings haben diese immer auch einen ganz bestimmten Bezug zu den Äußerungen einer Person. Subtweets sind dabei nicht selten herablassend, hinterhältig oder zumindest sehr stark kritisierender Natur.

Was sind Subtweets? Was ist Subtweeting? Bedeutung, Definition, Erklärung

Jeder kennt es, wenn man hinter dem Rücken einer anderen Person redet. Unter Umständen ist man selbst auch schon Opfer einer solchen Diffamierung geworden und hat es dann später durch Zufall erfahren müssen.

Beim Subtweeting handelt es sich demnach um das Äquivalent zur realen Welt. Doch warum spricht man hier nun davon, dass etwas hinter dem Rücken einer Person geschieht? Dies ist deswegen der Fall, weil die genannte Person nicht direkt angesprochen wird. Darüber hinaus erfolgt auch innerhalb des Subtweets keine direkte Nennung der Person. Hierbei ist für andere jedoch oft ersichtlich, dass es sich um eine ganz bestimmte Person handelt und dieser kritisiert oder gar herabgelassen werden soll.

Verdeckte und offene Subtweets

Wie das jeweilige Subtweeting genau ausgestaltet wird, hängt immer auch vom jeweiligen Autor des Subtweets und den damit verbundenen technischen Möglichkeiten zusammen. So kann es durchaus sein, dass ein Kommentar für die jeweils angesprochene Person nicht sichtbar ist. Andere Personen können jedoch dieses Subtweet sehen und sich darüber auslassen.

In anderen Fällen kann das Subtweeting jedoch auch vollkommen offen erfolgen. Die gemeinte Person nimmt dann auch alle weiteren Einträge wahr und hat zudem selbst die Möglichkeit darauf zu reagieren.

Eine Kette, die endlos sein kann

Ein Subtweet muss nicht unkommentiert bleiben. Aus einem einzigen Subtweet kann eine durchaus sehr aufgeheizte digitale Unterhaltung entstehen. Dabei muss es außerdem nicht immer sachlich bleiben. Letzteres hängt vor allem auch von der Brisanz des jeweiligen Themas ab. Je brisanter das Thema, desto heftiger ist am Ende oft auch die Konversation. Diese Unterhaltung kann lange und zähe Ausmaße annehmen und somit unendlich wirken.

Mitunter am Rande der Legalität

Im Netz kann man, wie im öffentlichen Leben auch, seine Meinung frei äußern und zur Geltung bringen. Dies sollte jedoch dort enden, wo andere User offen beleidigt, in die Ecke gedrängt oder Umständen sogar bedroht werden. Die Meinungsfreiheit darf nun einmal nicht dazu genutzt werden, um Straftaten zu begehen.

Wird man im Netz offen angegriffen, kann man sich im schlimmsten Fall auch juristisch dagegen wehren. Zudem drohen den Verfassern eventueller Hasskommentare auch Nachteile und Sanktionen seitens der Plattform. So könnte ein Nachrichtendienst, wie zum Beispiel Twitter Subtweets entsprechend löschen. Darüber hinaus können Nutzer, die mehrfach gegen die Richtlinien verstoßen, von der Plattform entfernt und somit gelöscht werden.

Subtweeting ist nicht immer unbedingt nur negativ

Subtweets haben tendenziell einen eher schlechten Ruf. Doch genau dies ist mehr oder weniger unnötig, denn Subtweeting pauschal zu verurteilen ist im Prinzip vollkommen falsch.

Im Netz gibt es immer wieder User, die besonders gern auf einen Kommentar antworten und aus diesem Grund sich voll und ganz dem Subtweeting hingeben. Dies muss absolut nicht verwerflich sein und entspricht in vielen Fällen den geltenden Normen und Regeln.

Besonders ist beim Subtweeting jedoch nur, dass bestimmte Personen nicht direkt genannt oder offen angesprochen werden. Man agiert sozusagen gegenüber einer anderen Person anonym. Dies kann durchaus eine Reihe von Ursachen haben. Mitunter möchten, die Leute, die einen Subtweet verfassen, andere Menschen nicht in Verlegenheit bringen. In einem anderen Fall möchte man sich vielleicht auch selbst einfach nicht in Verlegenheit bringen und handelt daher verdeckt.

Was ist „Petrichor“? Bedeutung, Definition, Erklärung


Unter „Petrichor“ wird der typische und unverwechselbare Geruch verstanden, der bei Regen aufkommt. Genauer gesagt: wenn der Regen zu Beginn eines Schauers auf die zunächst noch trockene Erde fällt.

Was ist „Petrichor“? Bedeutung, Definition, Erklärung

Bei dem Begriff handelt es sich um eine Zusammensetzung zweier Wörter aus dem Altgrichischen, nämlich einerseits „Petros“ für Stein und andererseits „Ichor“, das die Flüssigkeit bezeichnet, das anstelle von Blut in den Adern der klassischen griechischen Götter geflossen sein soll.

Und obwohl es sich bei Petrichor um ein natürliches Phänomen handelt, das den Menschen folglich seit tausenden von Jahren bekannt ist, wurde der Begriff erst 1964 erstmals verwendet, und zwar von den australischen Chemikern Isabel J. Bear und Richard G. Thomas in einem Artikel für das britische Fachmagazin „Nature“. In ihrem Beitrag lieferten die Forscher erstmals eine wissenschaftliche Erklärung für das Zustandekommen des typischen Geruchs.

Die Wissenschaft hinter dem Petrichor

Bear und Thomas beschreiben in ihrem Artikel, dass bestimmte Pflanzen während trockener Perioden ein gelbliches, ätherisches Öl mit komplexer Zusammensetzung – mehr als 50 Stoffe sind beteiligt – freisetzen, das anschließend von Gesteinen und tonhaltigen Böden aufgenommen und gespeichert wird. Beginnt es nun zu regnen, dann gelangt dieses Öl in die Luft, und zwar gemeinsam mit einer anderen Substanz, dem Geosmin. Dies ist ein von im Boden lebenden Mikroorganismen produzierter Alkohol, der einen stark muffigen Geruch besitzt und generell für den typischen Geruch von Erde – und auch von Schimmelpilzen – verantwortlich ist. Die menschliche Nase ist aus bislang nicht geklärten Gründen äußerst empfindlich für Geosmin, sie kann es schon bei einer geringen Konzentration von nur 0,1 Teilen pro Milliarde wahrnehmen.

Wenn nun das Öl und das Geosmin bei einsetzendem Regen gemeinsam an die Luft gelangen, dann vermischen sie sich dort und erzeugen zusammen den unverkennbaren „Regengeruch“, den Petrichor.

Etwas später konnten Bear und Thomas auch erklären, was die eigentliche Funktion des von den Pflanzen abgesonderten Öls ist. Im Jahr 1965 veröffentlichten sie, wiederum in der „Nature“, einen weiteren Artikel, in dem sie darlegten, dass das Öl dazu dient, die Keimung von Pflanzensamen und das frühe Pflanzenwachstum in der Trockenzeit zu verzögern.

Im Jahr 2015 schließlich konnten Wissenschaftler des Massachusetts Institute Of Technology mithilfe von Hochgeschwindigkeitskameras auch den genauen physikalischen Prozess der Freisetzung von Petrichor beobachten und entschlüsseln. Hierzu führten sie insgesamt etwa 600 Experimente mit 28 Bodenoberflächen und verschiedenen Arten von Regen durch. So stellten die MIT-Forscher fest, dass ein Regentropfen, der auf eine poröse Oberfläche fällt, dazu führt, dass die Luft in der Pore winzige Bläschen bildet. Diese steigen an die Oberfläche des Tropfens, wo sie platzen und dabei Aerosole freisetzen. Diese Aerosole tragen die Duftstoffe, aber auch Bakterien und Viren in die Luft. Tendenziell scheinen langsam fallende Regentropfen eine größere Menge an Aerosolen freizusetzen. Es wird angenommen, dass dies der Grund dafür ist, dass Petrichor besonders bei leichtem Regen auftritt. Wenn es zu lang oder zu stark regnet, bildet das Wasser gar eine undurchlässige Schicht auf dem Erdboden. Aerosole können dann nicht mehr freigesetzt werden, und der Petrichor verschwindet.

Die Aerosole, die sich beim Regen bilden, sind so klein, dass sie schon vom leisesten Lufthauch weggeweht werden. Deshalb ist es möglich, Regen schon zu riechen, wenn er noch kilometerweit entfernt ist.

Petrichor in der weiteren Forschung

Da Petrichor zuerst in Australien wissenschaftlich untersucht wurde, verwundert es nicht, dass besonders dort auch weiter an dem Thema geforscht wurde. So geht der Biologe Hugh Tyndale-Biscoe in seinem Buch über das Leben der Beuteltiere davon aus, dass der markante Geruch bei weiblichen Kängurus die Paarungsbereitschaft auslöst. Und wenn der Duftstoff ins Wasser gelangt, dann signalisiert er offenbar den dort lebenden Fischen und Wirbellosen, dass das Wetter nun feucht genug ist, um mit der Paarung zu beginnen. Diese vermuteten Zusammenhänge müssen allerdings noch eingehender erforscht werden, bevor sie als gesichert gelten können.

Kurioses zu / über Petrichor

Da Petrichor von den meisten Menschen als angenehm empfunden wird, auch wenn einige ihn nicht ausstehen können, gibt es das Aroma längst auch künstlich zu kaufen. So werden etwa Duftkerzen oder Räucherstäbchen mit Petrichor-Geruch angeboten, und als Zusatz in Raumluft-Befeuchtern soll er für eine gute Atmosphäre daheim sorgen.

Was ist Threat Intelligence? Bedeutung, Definition, Erklärung


Threat Intelligence oder auch der Threat Intelligence Service ist für die Lieferung von aktuellen Informationen in Bezug auf die Bedrohungslage in Form von Cyberangriffen oder andere Gefahren auf die IT bzw. Netzwerke. Um die Bedrohungslage zu analysieren werden die Informationen durch den Service aufbereitet, aus unterschiedlichen Quellen zusammengestellt und dem Unternehmen bzw. dem Auftraggeber zur Verfügung gestellt.

Welche Arten von Threat Intelligence sind existent?

Threat Intelligence kann von allgemeinen, nicht-technischen Informationen bis hin zu technischen Details über bestimmte Angriffe reichen. Folgend werden die möglichen Arten von Threat Intelligence:

Die strategische Threat Intelligence: Strategische Threat Intelligence sind allgemeine Informationen, welche die etwaigen Bedrohungen in einen Kontext stellen. Die Informationen, welche den jeweiligen Unternehmen nachgewiesen werden können, sind nicht technisch. Ein mögliches Beispiel diese Art von Threat Intelligence ist bspw. eine Risiko-Analyse, welche die Entscheidung für ein Business hinsichtlich der Gefahr für Cyberangriffe untersucht und detailliert wiedergibt.

Die taktische Threat Intelligence: Bei der taktischen Threat Intelligence sind Details in Bezug auf die Ausführung und Abwehr von potenziellen Bedrohungen enthalten. Darin integriert sind unter anderem Angriffsvektoren, Infrastrukturen oder Tools, welche durch die Angreifer genutzt werden. Ergänzend dazu werden die Unternehmensarten und Technologien berücksichtigt, auf die Angriff gerichtet sine könnten sowie die dahingehend möglichen Strategien zur Vermeidung dieser Gefahren. Mit den vielfältigen Informationen können potenzielle Gefahren für Unternehmen in Bezug auf die Angriffswahrscheinlichkeit verschiedener Bedrohungen abgeleitet werden. Bei der taktischen Threat Intelligence können Expertinnen und Experten der Cyber-Sicherheit auf Basis taktischer Informationen fundierte Entscheidungen treffen können, um eine bestmögliche Sicherheitskontrolle und Verteidigungsstrategie implementieren zu können.

Die operative Threat Intelligence: Bei dieser Form werden Informationen in Verbindung mit einem aktiven Bedrohungsmanagement durch die eigenen IT-Abteilungen genutzt, damit Maßnahmen gegen einen bestimmten Angriff genutzt werden können. Dabei geht es um konkrete Informationen, welche für das Angriffsszenario genutzt werden konnten, um die Angriffsabsicht, die Angriffsart sowie den Zeitpunkt zu fixieren. Bestenfalls können diese Informationen umgehend von den Angreifern erfasst werden, um die Beschaffung zu erschweren.

Die technische Threat Intelligence: Bei dieser Art geht es um die Lieferung von konkreten Beweisen, dass derzeit ein Angriff stattfindet bzw. Indicators of Compromise (IoCs) vorliegen. Dabei handelt es sich bspw. um außergewöhnliche Netzaktivitäten, besondere Dateien, Eintragungen in Logfiles oder ungewohnte gestartete Prozesse, welche auf eine Kompromittierung eines Computersystems oder Netzwerks hindeuten.
Es gibt Tools für Threat Intelligence, welche mit Unterstützung von künstlicher Intelligenz diese Indikatoren untersucht. Dabei können bspw. Inhalte aus Phishing-Kampagnen, IP-Adressen von C2-Infrastrukturen bzw. Artefakte mit bekannten Mustern von Malware in den Mailadresse analysiert werden.

Die Umsetzungsmöglichkeiten von Threat Intelligence:

Realisierungsmöglichkeiten eines Threat Intelligence Service

Die Realisierung von Threat Intelligence Service kann sich stark unterscheiden und variieren. Bei einfachen Systemen werden aus verschiedenen Quellen Data-Feeds gesammelt. Diese Informationen wurden mit Hilfe von Positiv- oder Negativ-Listen bereinigt und individuell auf das Unternehmen bezogen. Alternative Systeme können ergänzend dazu über aktive und konkret laufende Bedrohungslagen zu informieren. In dieser Konstellation können die akuten Bedrohungen bspw. durch individuelle Meldungen in Form von Warnungen oder als proaktiver Alarm angezeigt werden.

Je nach der Leistungsfähigkeit der Threat Intelligence Services können die Informationen so aggregiert und korreliert werden, dass die gesammelten Informationen direkt an die entsprechenden Firewalls weitergegeben werden können und somit die Gefahr potenzieller Angriffe deutlich reduziert werden können. Mit Hilfe dieser Informationen kann die Firewall aus den gelieferten Informationen automatische Filter automatisch setzen und vorher fixierten Traffic eigenständig blockieren. Der Service von Threat Intelligence kann auf Basis eines Cloud-Dienstes bzw. in Form einer On-Premise-Lösung realisiert werden. Die meisten Anbieter bieten die Dienstleistungen als Abonnement mit zeitlichen Befristungen und fixierten Funktionsumfängen an.

Was sind die Vorteile von Threat Intelligence?

Durch die Nutzung von Tools für Threat Intelligence können Bedrohungen durch Cyberangriffe frühzeitig erkannt und präventiv abgesichert werden. Damit sind Unternehmen in der Lage, die stetig wachsenden Bedrohungen und Angriffsrisiken besser verstanden und frühzeitig erkannt werden. Durch die Nutzung von Threat Intelligence können Angriffe abgemildert werden, welche gegenwärtig stattfinden. Dabei gibt es verschiedene Optionen. Eine Möglichkeit ist die eigenständige Erfassung der Daten durch die firmeneigene IT-Abteilung innerhalb des jeweiligen Unternehmens. Alternativ kann ein Threat Intelligence-Service in Anspruch genommen werden. In dieser Konstellation werden Informationen gesammelt. Dabei können verschiedene Sicherheitspraktiken empfohlen werden und je nach Bedarf und Expertise angeboten werden. Dabei können bspw. Software-Defined Networking (SDN) eingesetzt werden, sodass mit Hilfe moderner Threat Intelligence Optionen die Netzwerke neu konfiguriert werden, um sich gegen diverse Optionen von Cyberangriffen zu verteidigen.

Welche konkreten Threat Intelligence-Tools sind am Markt existent?

Parallel zu kostenpflichtigen Tools im Bereich der Threat Intelligence gibt es auch kostenfreie Optionen im Bereich von Open Source-Tools angeboten. Bei der Erfassung von Informationen in Bezug auf Threat Intelligence gibt es verschiedene mögliche Herangehensweisen:

Der Malware-Disassembler: Mit diesen Tools wird durch Reverse-Engineering versucht, weitere Informationen über die Funktionalitäten von Malware in Erfahrung zu bringen. Dabei werden Sicherheitsingenieure bei relevanten Entscheidungen in Bezug auf die Abwehr von ähnlichen Angriffen in der Zukunft unterstützt.

Die Sicherheitsinformations- sowie Ereignismanagement(SIEM)-Tools: Mit den sogenannten SIEM-Tools erfolgt die Überwachung des Netzwerkes durch Teams mit dem Fokus auf die Sicherheit in Realzeit. Dabei erfolgt die Erfassung der relevanten Informationen über ungewöhnliche Verhaltensmuster sowie verdächtigen Datenverkehr.

Die weiteren Analysetools für den Verkehr im Netzwerk: Die analytischen Tools für den Traffic im Netzwerk sorgen für die Erfassung von Informationen im Bereich der Netzwerke. Ergänzend dazu werden die Aktivitäten des Netzwerkes aufgezeichnet. Mit diesen Informationen konnten Versuche von nicht gerechtfertigten Angriffen erleichtert werden.

Threat Intelligence-Communitys und Sammlungen von Ressourcen: Als wertvolle Informationsquelle in Bezug auf Bedrohungen liefern frei zugängliche Internetseiten, auf welche Indicators of Compromise bzw. generierte Daten über Bedrohungen gesammelt werden, vielfältige wichtige und relevante Informationen. Diese Communitys sind für die Unterstützung von kollaborativen Forschungen bekannt und bieten ergänzend dazu Hinweise für umsetzbare Verhinderungsmethoden oder Bekämpfungsmöglichkeiten von Bedrohungen.