Übersicht aller Beiträge in der Kategorie: Wissenschaft und Technik.

Warum heißt das Mittelalter eigentlich „Mittelalter“? Bedeutung, Definition, Erklärung


Der Begriff „Mittelalter“ bezieht sich auf die Epoche zwischen der Antike und der Neuzeit, beginnend mit der Renaissance, in der europäischen Geschichte. Die Bezeichnung „Mittelalter“ selbst wurde aber erst wesentlich später geprägt. Denn grundsätzlich sah man diese Epoche als eine Art Zwischenperiode zwischen der Klassik, der Antike und der Renaissance an. Dabei wurde die Antike als das „goldene Zeitalter“ angesehen und die Renaissance als Wiedererweckung antiker Ideale.

Das „Mittelalter“ gilt als mystisch, dunkel und erbarmungslos. Heute wird das „Mittelalter“ daher als eine äußerst komplexe Epoche betrachtet, die viele unterschiedliche kulturelle, politische, wirtschaftliche und soziale Entwicklungen umfasste, einschließlich der Feudalherrschaft, der Christianisierung Europas, der Kreuzzüge und der Blütezeit der mittelalterlichen Kunst und Literatur.

Der folgende Artikel soll sich daher einmal der Begriffsdefinition des Ausdrucks „Mittelalter“ widmen und diese Epoche umfassend und detailliert erklären. Weiterhin soll sich kritisch mit der Epoche des „Mittelalters“ auseinandergesetzt werden.

Begriffsdefinition „Mittelalter“

Der Name „Mittelalter“ stammt aus der deutschen Sprache und deutet darauf hin, dass diese Periode als eine Art Zwischenzeit zwischen verschiedenen Zeitepochen betrachtet wird. In anderen Sprachen wird das „Mittelalter“ unterschiedlich bezeichnet. Zum Beispiel wird es im Englischen als „Medieval“, im Französischen als „Moyen Âge“, im Spanischen als „Edad Media“ und im Italienischen als „Medioevo“ bezeichnet. Trotz der verschiedenen Namen bleibt der Begriff „Mittelalter“ im deutschen Sprachraum die einzig anerkannte Bezeichnung, um diese historische Periode zu beschreiben.

Nicht zu verwechseln ist das „Mittelalter“ als Zeitepoche mit einer Lebensphase, die das mittlere Alter eines Menschen meint. Der Begriff „Mittelalter“ ist überdies neutral, bis leicht negativ konnotiert, da dieser auf eine düstere und stellenweise brutale Epoche verweist, aber stellenweise auch romantisiert wird.

Wer prägte den Ausdruck „Mittelalter“?

Der Ausdruck „Mittelalter“ wurde erst im 15. Jahrhundert von Renaissance-Gelehrten geprägt. Einer der ersten bekannten Verwender war der italienische Humanist und Geschichtsschreiber Leonardo Bruni (der von 1370 bis 1444 lebte). Er benutzte den Ausdruck „medium aevum“ (zu Deutsch: „Mittelalter“) in seinen Schriften, um die Periode zwischen der Antike und seiner eigenen Zeit zu beschreiben. Die Verwendung des Begriffs wurde auch von anderen Renaissance-Gelehrten, wie beispielsweise Petrarch (der von 1304 bis 1374 lebte) sowie von Lorenzo Valla (der wiederum von 1407 bis 1457 lebte) populär gemacht. Gelehrte betrachteten das „Mittelalter“ oft als eine dunkle Zeit im Vergleich zur glänzenden Kultur der Antike und der beginnenden Renaissance, was den Begriff als Beschreibung dieser Epoche festigte.

Historie des „Mittelalters“

Das „Mittelalter“ begann in Europa nach dem Zusammenbruch des Weströmischen Reiches im 5. Jahrhundert. Einige wichtige Orte, an denen das Mittelalter begann, waren vor allem die Gebiete des ehemaligen Weströmischen Reiches, insbesondere in Italien, Spanien, Frankreich, Deutschland und dem heutigen Großbritannien. In diesen Regionen entstanden nach dem Zusammenbruch des Römischen Reiches neue politische, wirtschaftliche und soziale Strukturen, die charakteristisch für das „Mittelalter“ waren. Die Hochzeit des Mittelalters brachte Städte, wie beispielsweise Rom, Konstantinopel, Paris, London, Florenz und andere große Zentren hervor, wo Kunst, Kultur und Handel florieren konnten. Das „Mittelalter“ endete ungefähr im 15. Jahrhundert.

Merkmale des „Mittelalters“

Das „Mittelalter“ gilt als eine der bekanntesten Epochen der Weltgeschichte und wird entsprechend häufig als Motiv in Film und Fernsehen eingesetzt. Bedeutende Errungenschaften sowie Merkmale des „Mittelalters“ sind zum Beispiel die Folgenden:

  • Feudalismus (ein hierarchisches System der Lehnsherrschaft, das politische und wirtschaftliche Beziehungen regelte)
  • Rittertum (adlige Krieger, die oft in Rüstung und auf Pferden kämpften und eine zentrale Rolle in der mittelalterlichen Gesellschaft spielten)
  • Burgen und Festungen (Verteidigungsbauten, die von Adligen als Wohnstätten und zur Sicherung ihres Landes errichtet wurden)
  • Kirche und Religion (die dominante Rolle der katholischen Kirche im Alltagsleben und in der Politik, einschließlich der Macht der Geistlichkeit)
  • Kathedralen und Klöster (monumentale religiöse Gebäude, die das Zentrum des spirituellen Lebens waren und oft beeindruckende architektonische Meisterwerke darstellten)
  • Handwerk und Handel (die Entwicklung von Gilden und Handelsrouten förderte die wirtschaftliche Entwicklung)
  • technologische Innovationen (trotz des verbreiteten Mythos eines dunklen Zeitalters gab es bedeutende Fortschritte in Bereichen wie Landwirtschaft, Architektur und Medizin)

Trotz seiner recht düsteren Retrospektive kann das „Mittelalter“ insgesamt als eine Epoche großen Umschwungs betrachtet werden, in der viele Neuerungen stattfanden und sich allmählich staatsähnliche Bünde (vor allem in Europa) formierten.

Welche düsteren Ereignisse geschahen im „Mittelalter“?

Die Epoche des „Mittelalters“ war geprägt von düsteren Ereignissen und Zuständen. Dazu gehörten Epidemien, wie beispielsweise die Pest, die im 14. Jahrhundert Abermillionen von Menschenleben forderte und ganze Regionen entvölkerte. Außerdem waren das „Mittelalter“ und insbesondere das „Hochmittelalter“ von gewaltsamen Konflikten, wie beispielsweise den Kreuzzügen und zahlreichen Kriegen gekennzeichnet, die zu massiven Zerstörungen und Verlusten führten. Die Inquisition, eine Institution zur Bekämpfung von Häresie und Ketzerei, führte zu Folterungen und Hinrichtungen von Andersdenkenden. Auch Hexenverfolgungen, Aberglaube und soziale Ungerechtigkeiten waren charakteristisch für diese Zeit. Trotz der kulturellen und technologischen Fortschritte gab es also viele düstere Aspekte, die das Leben im Mittelalter prägten.

Kritiken am „Mittelalter“

Kritiker des „Mittelalters“ argumentieren vor allem, dass der Begriff „Mittelalter“ eine voreingenommene Sichtweise auf diese Epoche widerspiegelt, die als dunkle Periode zwischen der Antike und der Renaissance betrachtet wird. Kritiker weisen darauf hin, dass die Bezeichnung eine Vereinfachung einer äußerst vielfältigen Zeit darstellt und komplexe kulturelle und intellektuelle Entwicklungen unterschätzt. Zudem wird oft darauf hingewiesen, dass der Begriff „Mittelalter“ in erster Linie von Renaissance-Humanisten geprägt wurde, deren Ansichten stark von antiken Idealen beeinflusst waren. In der modernen Geschichtsschreibung wird daher vermehrt dazu aufgerufen, das Mittelalter differenzierter und aus verschiedenen Perspektiven zu betrachten, um ein umfassenderes Verständnis dieser Epoche zu erlangen.

Fazit zum Thema „Mittelalter“ und weitere Epochen

Insgesamt stellt das „Mittelalter“ eine Zeitepoche in Europa, zwischen dem 5. und 15. Jahrhundert nach Christi Geburt dar. Sie brachte vor allem gesellschaftliche Neuerungen hervor, gilt aber bis heute als eine der dunkelsten Kapitel der Menschheitsgeschichte, die in den Augen von Kritikern häufig zu Unrecht romantisiert wird.

Neben dem „Mittelalter“ existieren beispielsweise noch die Epochen „Renaissance“ sowie „Aufklärung“. Die „Renaissance“ war das Zeitalter der Wiedergeburt von Kunst, Wissenschaft und Humanismus im 14. bis 17. Jahrhundert in Europa, gekennzeichnet durch eine Wiederbelebung des Interesses an antiker Kultur und dem Streben nach menschlicher Perfektion. Die „Aufklärung“ war wiederum eine geistige Bewegung des 17. und 18. Jahrhunderts, die die Vernunft, Wissenschaft und Individualität betonte und zu politischen, sozialen und intellektuellen Reformen führte.

Was ist „Juice Jacking“? iPhone, Bedeutung, Erklärung, Definition


In unserer zunehmend vernetzten Welt ist es wichtiger denn je, sich der potenziellen Risiken bewusst zu sein, die mit der Nutzung öffentlicher Ladevorrichtungen für unsere elektronischen Geräte verbunden sind. Eines dieser Risiken ist „Juice Jacking“, eine raffinierte Methode, bei der Kriminelle öffentliche USB-Ladeanschlüsse manipulieren, um sensible Daten von Smartphones und anderen Geräten abzugreifen oder Malware zu installieren. Diese Bedrohung ist nicht nur eine theoretische Möglichkeit, sondern wurde bereits in verschiedenen Teilen der Welt dokumentiert. Es ist daher entscheidend, dass Nutzer verstehen, was „Juice Jacking“ ist, wie es funktioniert und welche Schritte sie unternehmen können, um sich davor zu schützen.

Dieser Artikel wird die Bedeutung, Eigenschaften sowie Erklärung und Definition von „Juice Jacking“ ausführlich untersuchen und dem Leser dabei helfen, sich vor dieser zunehmenden Gefahr zu schützen.

Begriffserläuterung von „Juice Jacking“

Der Begriff „Juice Jacking“ setzt sich aus den beiden englischen Wörtern „juice“ (zu Deutsch: „Saft“ oder „Strom“) und „jacking“ (zu Deutsch: „kapern“ oder „entführen“) zusammen. Kombiniert könnte „Juice Jacking“ also mit „an der Stromquelle kapern“ oder „beim Aufladen entführen“ übersetzt werden.

Gemeint ist damit der Umstand, dass beim „Juice Jacking“ verschiedene Malware auf mobile Endgeräte (wie beispielsweise iPhones) geladen wird. Es handelt sich dabei um schädliche Virenprogramme, die von Hackern entworfen wurden und unterschiedliche Prozesse in Gang setzen. Meist handelt es sich dabei um kriminelle Handlungen, wie beispielsweise Datenklau oder Einkäufe im Namen des Opfers.

„Juice Jacking“ ist eine ernstzunehmende Bedrohung in der heutigen IT-Welt. Der Ausdruck bezieht sich auf eine Art von Cyberangriff, bei dem Kriminelle öffentliche USB-Ladeanschlüsse manipulieren, um Daten von angeschlossenen Geräten zu stehlen oder Malware darauf zu installieren.

Ursprung und Bedeutung von „Juice Jacking“

„Juice Jacking“ ist ein Begriff, der erstmals im Jahr 2011 geprägt wurde.

Der Begriff „Juice Jacking“ wurde erstmals von Sicherheitsforschern im Jahr 2011 geprägt, als sie eine neue Form von Angriff auf mobile Geräte entdeckten. Die Forscher demonstrierten dabei, wie einfach es für Angreifer wäre, manipulierte USB-Ladeanschlüsse zu verwenden, um Malware auf angeschlossene Geräte zu übertragen oder sensible Daten zu stehlen.

Später wurde die Vorgehensweise von „Juice Jacking“ als Warnung für die Öffentlichkeit eingeführt, um auf die potenziellen Gefahren hinzuweisen, die mit dem Aufladen von Geräten an öffentlichen Orten verbunden sind. Seitdem hat sich „Juice Jacking“ zu einem bekannten und ernsthaften Sicherheitsrisiko entwickelt, das sowohl von Sicherheitsexperten als auch von der breiten Öffentlichkeit ernst genommen wird.

Wie kann man sich gegen „Juice Jacking“ schützen?

Um sich gegen „Juice Jacking“ zu schützen, sollten die folgenden Maßnahmen ergriffen werden:

1. Ausschließlich eigene Ladegeräte und Netzteile verwenden (anstatt öffentliche USB-Ladeanschlüsse)
2. In tragbare USB-Ladegeräte oder Powerbanks investieren (um Geräte unterwegs autark aufladen zu können)
3. Datenübertragungsfunktionen auf dem Gerät stets deaktivieren (wenn es zum Aufladen an einem unbekannten Anschluss angeschlossen werden muss)
4. Adapter verwenden (die nur die Stromversorgung erlauben und keine Datenübertragung zulassen)
5. Sicherheits-Software auf dem mobilen Endgerät installieren (um das Gerät vor Malware und unautorisierten Zugriffen zu schützen)
6. Aufmerksam bleiben und sich über die neuesten Entwicklungen und Risiken im Bereich der Cyber-Sicherheit informieren (um Geräte und Daten zu schützen)

Es kann jedoch auch hilfreich sein, sich professionelle Unterstützung bei einem IT-Security-Experten einzuholen, um wirklich komplett gegen die Risiken von „Juice Jacking“ oder anderen Methoden geschützt zu sein.

In welchen Kontexten kann „Juice Jacking“ oft beobachtet werden?

Der Begriff „Juice Jacking“ lässt sich vor allem in die folgenden Kontexte einordnen:

  • iPhone & Smartphones
  • Hackerangriffe
  • IT-Security

Die nachstehenden Unterabschnitte sollen sich daher einmal detailliert den oben genannten Haupteinsatzbereichen des Ausdrucks „Juice Jacking“ widmen.

iPhone & Smartphones

„Juice Jacking“ ist besonders relevant für Besitzer von iPhones und anderen Smartphones, da diese Geräte häufig zum Aufladen an öffentlichen USB-Ladeanschlüssen angeschlossen werden. Durch die Verwendung manipulierter Anschlüsse können Angreifer sensible Daten von diesen Geräten stehlen oder Malware darauf installieren.

Hackerangriffe

Die Methode „Juice Jacking“ wird oft von Hackern eingesetzt, um Zugang zu sensiblen Informationen zu erhalten oder Schaden anzurichten. Durch das Manipulieren öffentlicher USB-Ladeanschlüsse können sie Geräte infiltrieren und auf persönliche Daten zugreifen oder Malware einschleusen, um weitergehende Angriffe durchzuführen.

IT-Security

Gerade im Bereich IT-Sicherheit ist „Juice Jacking“ ist ein wichtiges Thema, da es eine reale Bedrohung für die Privatsphäre und Sicherheit von Nutzern darstellt. IT-Sicherheitsexperten arbeiten daran, die Öffentlichkeit über diese Gefahr aufzuklären und Lösungen zu entwickeln, um sich dagegen zu schützen, sei es durch technologische Maßnahmen oder Sensibilisierungskampagnen.

Gesellschaftliche Einordnung von „Juice Jacking“

Das „Juice Jacking“ betrifft typischerweise Personen, die öffentliche Ladestationen verwenden (beispielsweise Reisende an Flughäfen, Bahnhöfen oder Cafés). Die „Juice Jacking“-Opfer sind oft unachtsam und nutzen aus Bequemlichkeit öffentliche USB-Ladeanschlüsse, ohne sich der potenziellen Risiken bewusst zu sein. Typische Täter sind Cyberkriminelle oder Hacker, die darauf abzielen, sensible Informationen wie persönliche Daten, Passwörter oder finanzielle Informationen zu stehlen oder Malware auf die Geräte der Opfer zu übertragen. Die Täter nutzen die Unachtsamkeit der Opfer aus, um ihre böswilligen Absichten zu verwirklichen.

Kritiken am „Juice Jacking“

Kritiker von „Juice Jacking“ weisen darauf hin, dass es eine eher theoretische als praktische Bedrohung darstellt, da solche Angriffe selten vorkommen. Einige argumentieren, dass die Medien die Gefahr übertreiben, was zu einer unnötigen Panik führt. Andere bemängeln, dass die Verantwortung oft auf die Opfer abgewälzt wird, anstatt die Hersteller von Geräten und öffentlichen Ladestationen zur Verantwortung zu ziehen, um sicherere Lösungen bereitzustellen. Trotzdem bleibt die Sensibilisierung für potenzielle Sicherheitsrisiken wichtig, um das Bewusstsein der Öffentlichkeit zu schärfen.

Fazit zum Thema „Juice Jacking“ und ähnliche Phänomene

Unterm Strich kann das „Juice Jacking“ als kriminelle Methode von Hackern verstanden werden, bei der USB-Ladestellen schädliche Malware auf mobile Endgeräte (vornehmlich iPhones) übertragen. Dort angekommen, richten diese vielseitige Schäden an und stellen eine große Bedrohung für die Sicherheit der eigenen Daten dar.

Neben dem „Juice Jacking“ existieren übrigens auch noch die Methoden „Phishing“ und „Ransomware“. Das „Phishing“ ist eine gängige Bedrohung, bei der Betrüger gefälschte E-Mails, Nachrichten oder Websites verwenden, um persönliche Daten, wie beispielsweise Passwörter, Kreditkarteninformationen oder vertrauliche Informationen zu stehlen, indem sie sich als vertrauenswürdige Organisationen oder Personen ausgeben. Bei der „Ransomware“ handelt es sich hingegen um eine spezielle Form von Malware, die die Dateien eines Opfers verschlüsselt und Lösegeld verlangt, um die Dateien wieder freizugeben. Diese Bedrohung kann enorme Schäden anrichten, indem sie den Zugang zu wichtigen Informationen blockiert und Unternehmen oder Einzelpersonen finanziell erpresst.

Lichtstrom, Halbleiter, Wirkungsgrad – Begriffe rund um die LED


Im Alltagsgebrauch finden technische Begriffe nur selten Platz. Oft sind sie nicht nur zu unbekannt, die sprachliche Präzision ist in der Regel auch gar nicht nötig, um sich verständlich auszudrücken. Erst mit der tiefergehenden Beschäftigung treten Fachbegriffe in den Vordergrund. Dann, wenn Experten nicht mehr alles umschreiben wollen, sondern für komplexe Themen spezifische Wörter brauchen, kommen sie zum Einsatz. Das kommt auch im Zusammenhang mit der lichtemittierenden Diode vor; der LED. Während das Licht uns helle Momente beschert, stecken allerlei technische und physikalische Details in dem Leuchtmittel, die mit entsprechenden Begriffen eine Erläuterung finden.

Was ist eine LED? Erklärung

Die lichtemittierende Diode, ursprünglich aus dem Englischen als light-emitting diode bekannt, ist in der Alltagssprache unter der Abkürzung LED bekannt. Damit ist eine ganz spezielle Technik gemeint. Dabei beschreibt das Wort Diode explizit ein elektrisches Bauteil, dessen Halbleiter den Strom nur in eine Richtung durchlässt (Durchlassrichtung). In die andere Richtung wiederum sperrt das Bauelement den Stromfluss. Emission wiederum meint im Fachjargon der Physik das Aussenden von Strahlung durch Moleküle und Atome. Bei der LED handelt es sich demnach um das beschriebene Bauelement, das Licht aussendet. Aufgrund der überlegenen Technik sind fast ausschließlich LED-Lampen, wie sie bei Ledkia zu finden sind, im Einsatz. LEDs eignen sich nicht nur für die Beleuchtung einer Wohnung, sondern auch für Garagen, Außenbereiche oder sogar als Fluchtlicht in großen Stadien.

Was sind Halbleiter? Erklärung

Um die Funktionsweise einer LED überhaupt nachvollziehen zu können, ist es notwendig, sich mit dem Halbleiter auseinanderzusetzen. Wie der Name bereits suggeriert, handelt es sich dabei um ein Material, das sowohl leitet, als auch nicht leitet. In diesem Sinne liegt der Halbleiter bezüglich der elektrischen Leitfähigkeit zwischen einem Isolator und einem Leiter. Genauer gesagt besitzt der Halbleiter Eigenschaften sowohl eines Isolators als auch eines Leiters.

Die Grenzen zwischen Leiter und Isolator sind fließend. Leiter sind Materialien mit freien Elektronen, in denen beim Anlegen einer Spannung Strom fließt. Dazu zählen etwa Metalle, die freie Elektronen und einen geringen spezifischen Widerstand besitzen und somit in der Regel hervorragende Leiter sind. Isolatoren besitzen dagegen keine freien Elektronen und einen hohen spezifischen Widerstand.

Bei Halbleitern dagegen liegen die Elektronen auf dem Valenzband (das ist auch bei Isolatoren und Leitern der Fall) und können unter zwei Bedingungen auf das Leitungsband springen (das ist bei Isolatoren nicht möglich). Entweder springen die Elektronen durch Zufuhr thermischer Energie in das Leitungsband oder erhalten durch Photonen, also durch Licht (einer bestimmten Wellenlänge), die dazu notwendige Energie. Im Leitungsband können sich die Elektronen frei bewegen. Dadurch fließt bei einer angelegten Spannung Strom. Die energetische Lücke, die dem Elektron fehlt, um vom Valenzband auf das Leitungsband zu springen, nennt sich Bandlücke.

Halbleiter, die bei höheren Temperaturen an Leitfähigkeit hinzugewinnen, nennen sich thermische Halbleiter. Licht entsteht bei Halbleitern dann, wenn Elektronen Energie in Form von Photonen (also Licht) abgeben. Das geschieht, wenn Elektronen vom Leitungsband in das Valenzband fallen.

Halbleiter mit p-Dotierung und n-Dotierung

Um die Leitfähigkeit eines Halbleiters zu verbessern, können die Materialien mit Fremdatomen versetzt werden. Dieser Vorgang nennt sich ”Dotierung”. Die wohl bekannteste und am häufigsten angewandte Dotierung ist die des Halbmetalls Silizium, in das meist das 3-wertige Element Bor oder das 5-wertige Element Phosphor eingebracht wird.

Silizium hat 4 Außenelektronen und ist damit 4-wertig. Durch das Einbringen eines 5-wertigen Atoms steigt die Leitfähigkeit des Siliziums an. Da sich Elektronen gegenseitig abstoßen, nimmt die Größe der Bandlücke ab und es ist weniger Energie nötig, um Elektronen in das Leitungsband zu befördern. Es entsteht ein freies Elektron im Material, und die Leitfähigkeit steigt. Diese Dotierung nennt sich n-Dotierung (n für negativ). Durch das Einbringen eines 3-wertigen Fremdatoms entsteht dagegen ein Mangel an Elektronen. Das fehlende Elektron erzeugt ein Loch im Valenzband des Siliziums, indem das Silizium sein Elektron abgibt. Diese Vorgehensweise nennt sich p-Dotierung (p für positiv).

LEDs gehören zu den III/V-Halbleitern, also zu denen, die mit 3- und 5-wertigen Fremdatomen versetzt sind. Durch die hohe Leitfähigkeit entsteht trotz niedriger Spannung (und damit wenig Energie) häufig die Situation, dass Elektronen vom Leitungsband in das Valenzband fallen. Dies geschieht in der sogenannten Sperrschicht, die zwischen p-dotierten und n-dotierten Material liegt. Das zusätzliche Elektron aus der n-Schicht fällt in das Loch der p-Schicht.

Wirkungsgrad

Eine der wesentlichen Merkmale technischer Bauteile ist der Wirkungsgrad. Er bestimmt etwa, wie effektiv ein Auto den Kraftstoff in Leistung umwandelt. Hinter dem Begriff verbirgt sich eine physikalische Berechnung, wobei der Wirkungsgrad mit dem griechischen Buchstaben η (Eta) beschrieben wird. Er beschreibt das Verhältnis von zugeführter Energie und genutzter Energie, bzw. von zugeführter Leistung und Nutzleistung. Als Ergebnis kommt immer eine Zahl zwischen 0 und 1 heraus. Der Wirkungsgrad beträgt der Umrechnung zufolge 0 bis 100 %. LEDs zeichnen sich vor allem gegenüber anderen Leuchtmitteln durch ihre hohe Effizienz aus.

Wellenlänge

LEDs senden im Gegensatz zu anderen Leuchtmitteln verschiedene Farben aus. Welche Farbe Licht besitzt, bestimmt dabei die sogenannte Wellenlänge. Trifft zum Beispiel Licht mit einer Wellenlänge von 700 nm (Nanometer) auf die Netzhaut, interpretiert das Gehirn das Licht als rote Farbe, bei 550 nm hingegen als grüne. Die Wellenlänge ist dabei der Abstand zweier Punkte der gleichen Phase. Bei einer Sinuskurve etwa der Abstand zweier aufeinanderfolgender Hochpunkte. Die Wellenlänge ist bei LEDs wichtig, um genau zu wissen, welche Farbe sie ausstrahlt. Mit verschiedenen Techniken erreichen die Hersteller des Leuchtmittels ganz unterschiedliche Farben, was auf diese Weise vorher nicht möglich war.

Monochromatisches Licht

Monochromatisches Licht bedeutet, dass das sichtbare Licht einfarbig ist, also etwa nur rot oder blau. Das Wort kommt aus dem Griechischen, wobei „mono“ allein oder einzig bedeutet und „chromo“ Farbe. Der Begriff spielt bei der Technik insofern eine wesentliche Rolle, als  Leuchtdioden nur monochromatisches Licht erzeugen können. Das Problem: Weißes Licht entsteht, wenn das gesamte Wellenspektrum auf das Auge trifft.

Leuchtdioden können also kein weißes Licht aussenden. Dafür bedienen sich die Hersteller anderer Mittel, um das Licht der Lampen weiß erscheinen zu lassen. Dazu werden etwa verschiedenfarbige LEDs zusammen genutzt oder ein spezieller Farbstoff mit blauen oder ultravioletten Dioden kombiniert.

In einen Solarpark investieren: Definition, Arten, Chancen und Risiken


Eine Investition in erneuerbare Energien ist nicht nur ethisch korrekt, sondern ebenso zukunftsweisend wie nachhaltig. Schließlich geht es um die Zukunft unseres Planeten Erde. Viele Unternehmen und Großinvestoren entscheiden sich daher für sogenannte Green Investments, indem sie einen Solarpark kaufen. Diese Art der Geldanlage ist aber nicht lediglich gewerblichen Kunden vorbehalten. Auch Privatpersonen können in einen Solarpark investieren.

Solaranlage vs. Solarpark: Das ist der Unterschied

Die meisten Solaranlagen in Deutschland sind auf Haus- oder Hallendächern montiert. Wie das Statistische Bundesamt (Destatis) im Juni 2023 berichtet, existieren derzeit rund 2,6 Millionen Photovoltaikanlagen. Hierzu zählen alle stromproduzierenden Solaranlagen, die Elektrizität in das öffentliche Stromnetz einspeisen.

Darunter gehören vor allem Photovoltaikanlagen, die nicht auf Gebäuden, sondern auf Grundstücken angebracht sind, deren Strom direkt in das öffentliche Stromnetz eingespeist wird. Freiflächenanlagen, auf denen zahlreiche Solarmodule angebracht sind, werden Solarparks genannt. Von ihnen gibt es bereits Tausende in Deutschland. Das Potenzial zum weiteren Ausbau der ökologischen Stromerzeugungsart und somit die Möglichkeit, in einen Solarpark zu investieren, ist dennoch immer noch riesig.

Solarpark kaufen und in Solarpark investieren: Welche Flächen noch genutzt werden können

Kunden und Kundinnen, die in einen Solarpark investieren oder einen ganzen Solarpark kaufen wollen, werden sich zunächst immer die zugehörigen, für die Stromproduktion genutzten Flächen ansehen. Dabei ist es wichtig zu wissen, dass für die Errichtung von großen Photovoltaikfeldern nicht nur Grundstücke als Freifläche dienen können. Nein, es gibt sogar eine schwimmende Variante, die auf ungenutzten Wasserflächen, beispielsweise auf Baggerseen, gebaut werden kann. Die Photovoltaikmodule werden hierzu auf Pontons angebracht und am Ufer oder am Grund fest verankert. Um den Lichteinfall in das Gewässer nicht zu behindern, wird mit transparenten Materialien gearbeitet.

Schwimmende Solarparks haben in bestimmten Gebieten große zusätzliche Vorteile. In sehr warmen Regionen werden die Solarmodule durch das Wasser automatisch gekühlt und können deswegen nicht überhitzen. Wenn Solarzellen nämlich zu heiß werden, droht ein Leistungsabfall. Weiterhin wird ein Teil der Wasseroberfläche bedeckt und reduziert die Verdunstung des wertvollen Gutes Wasser.

Zerstören Solarparks eigentlich Lebensräume von Tieren und Pflanzen?

In einen Solarpark investieren oder einen Solarpark kaufen bedeutet nicht allein, Geld in grüne Stromerzeugung zu stecken, sondern Verantwortung für die Zukunft des Planeten Erde zu übernehmen. Und dazu gehört für Investoren und Investorinnen auch, sich Gedanken über die Erhaltung der Lebensräume von Flora und Fauna zu machen.

Wer bei einem Solarpark an kahle, eng bebaute und vielleicht sogar versiegelte Flächen denkt, liegt aber falsch, wie eine Studie des Bundesverbandes Neue Energiewirtschaft (BNE) aus dem Jahr 2019 zeigt. Korrekt und sinnvoll geplante Solarparks können den Studienergebnissen zufolge sogar ein Gewinn für Tiere und Pflanzen sein. Kurz und exemplarisch zusammengefasst kommen die Wissenschaftler zu folgenden Ergebnissen:

  • Korrekt ausgestaltete Solarparks sind aus Klimaschutzgründen (ökologische Stromerzeugung) grundsätzlich zu befürworten. Die Nutzungsfläche kann sich im Optimalfall tatsächlich besser entwickeln.
  • Werden Solarparks naturverträglich gestaltet, zeigt dies positive Auswirkungen auf die Artenvielfalt. Als Belege listen die Forschenden ihre Ergebnisse bei Brutvögeln, Tagfaltern und Heuschrecken auf.
  • Auch breite Abstände zwischen den Photovoltaikmodul-Reihen fördern die Besiedelung mit Insekten, Brutvögeln und Reptilien.

Einen Solarpark kaufen und in einen Solarpark investieren bedeutet also mehr, als reine, grüne Elektrizität zu produzieren. Vielmehr geht es vielen Geldgebern und Geldgeberinnen um den Wiederaufbau zerstörter oder stark geschädigter Ökosysteme. Große und kleine Solarflächen fördern die Biodiversität und davon wiederum profitiert die Landwirtschaft. Beispielsweise durch vermehrte Insektenansiedlungen, die die Bestäubung der Blühpflanzen sicherstellen. Überdies hinaus dienen diese Insekten anderen Tierarten als wichtige Nahrungsquelle.

Solarpark kaufen und in einen Solarpark investieren beeinflusst das Landschaftsbild: Wo darf eigentlich gebaut werden?

Investoren und Investorinnen, die einen Solarpark kaufen oder in einen Solarpark investieren, haben nicht ausschließlich die Rendite im Blick. Ihnen geht es vor allem auch darum, die Energiewende voranzubringen und Klimaschutz zu betreiben. Große Solarparks beeinflussen das Landschaftsbild zwar, dürfen aber trotzdem nicht auf jedem beliebigen Grundstück errichtet werden. Die Vorschriften können sich je nach Bundesland unterscheiden. Photovoltaik-Parks sind genehmigungspflichtig, wie alle anderen Bauvorhaben auch. Die Vorgehensweise dürfte vielerorts die Gleiche sein:

Zunächst muss der Flächennutzungsplan der Kommune entsprechend geändert werden und als Sondernutzungsgebiet ausgewiesen werden. Eine Baugenehmigung erteilt das örtliche Bauamt dann, wenn dem Vorhaben keine öffentlichen Belange entgegenstehen, die Naturverträglichkeit geprüft worden ist und Vertreter und Vertreterinnen aus der Bürgerschaft angehört worden sind. Sodann erfolgt die Erstellung des Bebauungsplanes.

Wie kann man einen Solarpark kaufen oder in einen Solarpark investieren?

Gewerblichen und privaten Anlegern und Anlegerinnen stehen beim Solarpark Kaufen eine Vielzahl von Möglichkeiten offen. Wie bei jeder anderen Geldanlage ist es äußerst wichtig, sich ausführlich über Gebühren, Chancen und Risiken (besonders über die Gefahr eines Totalverlustes) zu informieren. Um unseriöse Anbieter und Anbieterinnen zu filtern, hilft ein Vergleich mehrerer Angebote. Diese Investments gibt es:

Einen Solarpark kaufen (Direktinvestment)

Bei Investoren und Investorinnen, die einen ganzen Solarpark kaufen, handelt es sich meist um Unternehmen oder Großkunden, denn hier wird viel Kapital benötigt. Sowohl die Neuerrichtung einer Solarfläche als auch der Erwerb eines bereits bestehenden Solarparks sind möglich. Die Käufer und Käuferinnen müssen sich sodann um den Verkauf des erzeugten Stroms kümmern oder schalten hierfür ein Unternehmen ein, dass sie mit der Rundumbetreuung des Solarparks beauftragen. Ein geeigneter Anbieter, der Photovoltaik Investments und deren Wartung und Monitoring anbietet, stellt die Solar Direktinvest GmbH dar. Regelmäßige Erträge werden aus den Einspeisevergütungen generiert. Weiterhin können Steuervorteile durch Abschreibungen entstehen.

Für kleinere Anlagesummen bietet sich der Erwerb einer Beteiligung an. Anleger und Anlegerinnen, die in einen Teil eines Solarparks investieren, sollten sich direkt an die entsprechenden Anbieter wenden und ihr persönliches Angebot einholen. Auch hier fließen die Erträge aus Einspeisevergütungen und Steuervorteile können die Rendite erhöhen.

Wer lieber bei einem Solarpark-Eigentümer direkt kaufen möchte, kann sich auf dem etablierten Vermittlungsportal für Solar Investments der Milk the Sun GmbH umsehen. Dort können Eigentümer und Eigentümerinnen von PV-Anlagen und Solarparks ihre Anlagen inserieren und interessierte Investoren und Investorinnen werden sogar vom Team von Milk the Sun zu den verfügbaren Anlagen und Solarparks beraten.

Crowdfunding

Crowdfunding funktioniert für viele Projektarten und so auch für den Bau von Solarparks. Es wird so lange Geld von Privatpersonen eingesammelt, bis die Errichtungskosten angespart sind. Im Anschluss kann das Vorhaben verwirklicht werden. Beim Crowdfunding geht es nicht um Rendite, vielmehr hat die Geldanlage einen Spendencharakter. Rückt der Ertrag etwas mehr in den Vordergrund, handelt es sich um das sogenannte „Crowdinvesting”.

Bei beiden Anlageformen, deren Bezeichnungen häufig synonym verwendet werden, ist es wichtig, sich die Vertragsbedingungen genau anzusehen und abzuklären, was mit der Geldanlage passiert, wenn das Projekt scheitert und ob den Anlegern und Anlegerinnen ein Mitspracherecht eingeräumt wird.

Mit Fonds in Solarparks investieren

Einen Solarpark kaufen ist nicht jedermanns Geschmack. Viele Investoren und Investorinnen schätzen weiterhin die klassische Geldanlage in Fonds.

Sogenannte geschlossene Fonds, wie wir sie auch aus dem Immobilienbereich kennen, gibt es auch für Photovoltaikprojekte. Geschlossene Fonds verdanken ihren Namen der Vorgehensweise. Das emittierende Unternehmen legt den Fonds auf und Anteile können gezeichnet (gekauft) werden. Im Anschluss an die Zeichnungsphase wird der Fonds tatsächlich geschlossen, das bedeutet, dass keine weiteren Kunden und Kundinnen mehr einsteigen können. Auch ein Verkauf der bereits erworbenen Anteile ist ab jetzt auf dem Erstmarkt nicht mehr möglich. (Meist existiert ein Zweitmarkt, auf dem aber sehr schlechte Verkaufspreise erzielt werden.) Mit dem Geld der Anleger und Anlegerinnen wird ab nun gearbeitet, der Fonds hält dazu eine oder mehrere Beteiligungen an Solarparks. Werden Gewinne erzielt, erhalten Kunden und Kundinnen ihre Erträge – bei langfristiger Kapitalbindung – im Rahmen regelmäßiger Ausschüttungen.

Offene Solarfonds stehen, wie der Name schon sagt, allen Anlegern und Anlegerinnen offen. Anteile können jederzeit erworben und wieder verkauft werden. Die Fondsgesellschaften investieren in Aktien von Unternehmen, die in der Photovoltaik-Branche tätig sind. Die Zusammensetzung des Fondsvermögens wird aktiv von den sogenannten Fondsmanagern gesteuert, weshalb der Erwerb eines offenen Solarfonds auch mit Gebühren verbunden ist. Erträge werden entweder an die Anteilsinhaber und Anteilsinhaberinnen ausgeschüttet oder thesauriert (wieder angelegt). Solar-ETFs (Exchange Traded Funds) hingegen verursachen keine oder nur sehr geringe Gebühren, obwohl es sich auch um offene Aktienfonds handelt. Die Aktienzusammenstellung im Fonds wird nämlich nicht gemanagt, sondern bildet einen zugrundeliegenden Aktienindex ab. Als Beispiel ist hier der RENIXX (weltweiter Index für erneuerbare Energien) anzuführen.

Gibt es auch Anleihen für erneuerbare Energien?

Ja, auch der Erwerb von Anleihen ist möglich. Bei dieser Form der Geldanlage wird der Kapitalgeber gleichzeitig zum Darlehensgeber. Anleger und Anlegerinnen geben dem Unternehmen ihres Vertrauens also einen Kredit. Für diesen Kredit erhalten sie vom Darlehensnehmer eine (in der Regel jährliche) Zinszahlung und die Rückzahlung des zur Verfügung gestellten Kapitals am Laufzeitende.

Diese Vorteile hat es, einen Solarpark zu kaufen oder in einen Solarpark zu investieren

Grundsätzlich kann durch Photovoltaikanlagen auf Grundstücken und Freiflächen mehr Energie erwirtschaftet werden, als durch Module, die auf Haus- und Hallendächern angebracht werden, da eine perfekte Ausrichtung der Solarzellen möglich ist. Im Umkehrschluss bedeutet dies für Investoren und Investorinnen, dass auch ihre Ertragschancen steigen. Schließlich werden sie mit dem Erwerb eines Parks oder eines Teils der Anlage selbst zum Unternehmer oder zur Unternehmerin, sind zuständig für die Vermarktung des produzierten Stroms und tragen auch das volle wirtschaftliche Risiko.

Die Erträge aus dem Verkauf: So funktioniert es

Die von der Bundesnetzagentur festgelegte Einspeisevergütung erhalten meist Betreiber von Photovoltaikanlagen, deren maximale Leistung kleiner als 100 Kilowatt-Peak (kWp) ist. Dies ist im Gesetz für den Ausbau erneuerbarer Energien (EEG) geregelt. Kleine Anlagen dienen vorwiegend der Selbstversorgung und lediglich PV-Überschüsse werden ins Netz eingespeist. Die Maßeinheit Kilowatt-Peak drückt im Übrigen die Spitzenleistung aus, die eine Solaranlage erzielen kann.

Solarpark kaufen und in Solarpark investieren: Renditeerhöhung durch Steuervorteile

Zu den generierten Erträgen gesellen sich durch Investitionsabzüge und Abschreibungen Steuervorteile für Kunden, die einen Solarpark kaufen und für solche, die in einen Solarpark investieren. Steuervorteile sind jedoch eine höchst individuelle Angelegenheit, weswegen wir uns an dieser Stelle den Hinweis erlauben, dass dieser Abschnitt lediglich der allgemeinen Information dient und keine Garantie auf Richtigkeit und Vollständigkeit ausgesprochen werden kann. Nur ein Steuerexperte kann dies abschließend und unter Berücksichtigung aller persönlichen Gegebenheiten beurteilen.

Hingegen sind Anlagenbetreiber und Anlagenbetreiberinnen, deren Module höhere Leistungen erbringen können, verpflichtet, die produzierte Elektrizität am Markt zu verkaufen. Für sie ist die Direktvermarktung eine gewinnbringende Variante des Stromvertriebs. Diese Form des Elektrizitätshandels gibt es in Deutschland seit 2012 und seit 2016 ist sie für Anlagen ab 100 kWp sogar vorgeschrieben.

Direktvermarktung bedeutet, dass die produzierte Energie entweder mit dem Marktprämienmodell an den Netzbetreiber verkauft oder an der Strombörse EEX (European Energy Exchange) gehandelt wird. Das können die Inhaber und Inhaberinnen in aller Regel nicht selbst tun, da sie nicht über die entsprechende Zulassung verfügen. Sie müssen also einen Direktvermarkter mit dem Verkauf beauftragen.

Investitionsrisiken

Wie bereits weiter oben angemerkt, ist es unerlässlich, sich vor einer langfristigen Geldanlage nicht nur über die Renditechancen, sondern auch über mögliche Risiken Gedanken zu machen. Als absolut risikolos gelten gemeinhin nur Sparbuch und Festgeld. Investoren und Investorinnen, die in einen Solarpark investieren oder einen Solarpark kaufen, sollten sich daher bei Fachbetrieben, Steuerberatern und Banken umfassend beraten lassen. Mögliche Risiken im Überblick:

  • Preisschwankungen: Die Strompreise können schwanken, wie alle Preise auf freien Märkten. Der Preis reguliert sich immer durch Angebot und Nachfrage. Bei einem Photovoltaik Investment in Deutschland allerdings ist dieses Risiko durch die gesetzlich festgelegte Mindest-Einspeisevergütung gut kalkulierbar. Bei ausländischen Investments gilt es zu prüfen, ob dort ähnliche Regelungen existieren.
  • Schäden an der PV-Anlage: Solarmodule können durch äußere Einflüsse beschädigt werden oder Qualitätsmängel aufweisen. Dieses Risiko kann nicht komplett ausgeschaltet werden, durch Versicherungen und Herstellergarantien jedoch minimiert werden.
  • Witterung: Die Leistung eines Solarparks kann beispielsweise durch starken Schneefall oder dauerhaft schlechte Witterungsbedingungen gemindert werden.
  • Politische Risiken: Gesetzliche Änderungen während der Anlagedauer können nicht ausgeschlossen werden. Das EEG und die Steuergesetzgebung sind gegebenenfalls Änderungen und Anpassungen unterworfen, die die Rendite schmälern können.
  • Nichterfüllung von Verträgen: Werden Dritte beauftragt, so können zusätzliche Kosten entstehen, wenn sich Subunternehmer nicht an ihre Vertragspflichten halten. Daher sollte man beim Solarpark Kaufen auf einen geeigneten und etablierten Anbieter, wie zum Beispiel die Solar Direktinvest oder das Photovoltaik Vermittlungsportal Milk the Sun, setzen.
  • Auflagen: Werden Solarparks neu errichtet, können auch nicht vorhersehbare behördliche Auflagen eine Kostenerhöhung verursachen.

Sollte man nun in einen Solarpark investieren?

Wer sein Portfolio diversifizieren und von langfristigen Erträgen und Steuervorteilen profitieren möchte, sollte es in Erwägung ziehen, einen Solarpark zu kaufen. Green Investments sind sinnvoll und zukunftsweisend. Sie bergen gute Renditechancen, jedoch ebenso Risiken. Anleger und Anlegerinnen brauchen einen langen Atem und viel Geduld, um sich ausreichend zu informieren und beraten zu lassen. Doch letztlich wird sich der Aufwand hoffentlich doppelt lohnen, denn neben finanziellen Erträgen rücken klimapolitische Ziele näher, Biodiversität wird gefördert und Innovation für alle Menschen zugänglich gemacht.

PV-Stromspeicher – Das bedeutet die Speicherkapazität


In den vergangenen Jahren wurde deutlich mehr als die Hälfte der neu gebauten Solaranlagen mit einem Stromspeicher ausgestattet. Für Betreiber handelt es sich um einen Weg, die Anlage deutlich rentabler zu betreiben. Wichtig ist, dass sich alle Kosten die Waage halten und die richtige Kapazität für das Projekt eingeplant wird. Welche Kenngrößen dabei wichtig sind und wie der Kauf am besten gelingt, sehen wir uns in diesem Artikel an.

Der große Mehrwert des Eigenverbrauchs

Der mit der PV-Anlage selbst erzeugte Strom kann auf zwei unterschiedliche Arten eingesetzt werden. Zum einen ist es möglich, ihn selbst zu verbrauchen. Dabei gilt der Grundsatz, dass der selbst erzeugte Strom nicht mehr teuer bei einem Versorger eingekauft werden muss. Bei Strompreisen von derzeit im Schnitt 37 Cent pro Kilowattstunde bedeutet dies eine zügige Amortisierung der PV-Anlage. Es handelt sich hierbei um die effektivste Nutzung der Anlage.

Nun wird in vielen Haushalten tagsüber weniger Strom verbraucht als die PV-Anlage eigentlich produziert. Das gilt ganz besonders für die Haushalte von Berufstätigen, welche ihren Arbeitstag anderswo verbringen. In diesem Fall wird der überschüssige Strom ins Netz eingespeist. Ein für diesen Zweck verbauter Zähler nimmt wahr, wie viele Kilowattstunden ins öffentliche Netz eingespeist wurden. Anschließend werden diese mit rund 7 Cent pro kWh vergütet.

Nach Betrachtung dieser beiden Wege lässt sich eine klare Antwort auf die Frage nach der Rentabilität der Anlage geben. Die Ersparnis bei jeder selbst verbrauchten Kilowattstunde beträgt, nach Abzug der Anschaffungskosten, 37 Cent. Bei einer eingespeisten kWh fließen hingegen nur 7 Cent auf das Konto. Um die Investition möglichst rentabel zu gestalten, ist es aus dem Grund ratsam, den Anteil des Eigenverbrauchs zu erhöhen.

Stromspeicher sorgt für Rentabilität

Vorteile haben in diesem Fall die Besitzer eines E-Autos inklusive Ladebox. Ist das tagsüber Auto in der Garage angeschlossen, so wird es mit dem von der PV-Anlage erzeugten Strom geladen. Aufgrund des hohen Strombedarfs des Autos kann auf diese Weise der selbst erzeugte Strom effektiv genutzt werden. Das E-Auto fungiert in diesem Fall als eine Art Stromspeicher, der die Gelegenheit bietet, den Ertrag der Anlage perfekt zu nutzen.

Auf die gleiche Art und Weise kann ein Batteriespeicher sinnvoll für das Projekt sein. Er wird mit dem tagsüber produzierten PV-Strom gespeist. Am Abend, wenn der Verbrauch höher ist, aber kein neuer Strom erzeugt wird, kann die Energie aus dem Batteriespeicher selbst verbraucht werden. Das verringert die nötigen Zukäufe bei den Versorgern und macht das Vorhaben insgesamt deutlich günstiger.

Insgesamt kann der Speicher die Rentabilität der gesamten Anlage deutlich erhöhen. Das macht auch ein Blick auf den PV-Rechner deutlich. Der Photovoltaikrechner bietet die Möglichkeit, die eigene Anlage mithilfe verschiedener Daten zu beschreiben. Neben der Größe der Solarfläche, der Ausrichtung und der Neigung des Daches wird dabei auch das Vorhandensein eines E-Autos oder eines Batteriespeichers betrachtet. Innerhalb weniger Minuten kann der Ertrag der geplanten PV-Anlage dadurch gut überblickt werden. So erkennen Privatanleger, wie hoch die effektive Rendite ihres Investments in den nächsten Jahren sein wird und wann die vollständige Amortisierung erreicht ist.

Die richtige Kapazität auswählen

In den letzten Jahren haben sich rund 60 Prozent der privaten Haushalte, die eine PV-Anlage kauften, für die Anschaffung eines Batteriespeichers entschieden. So nützlich dieser ist: Die Kosten des Speichers sind derzeit noch vergleichsweise hoch. Je größer dessen Kapazität sein soll, desto höher werden die fälligen Ausgaben. Um das optimale Verhältnis von Preis und Leistung zu erreichen, ist es wichtig, dass der Batteriespeicher weder zu groß noch zu klein ist. Experten weisen auf die drei Kriterien hin, die für diese Einschätzung von Relevanz sind:

  • Der Jahresverbrauch in kWh des gesamten Haushalts
  • Der tägliche Stromverbrauch im Laufe von 24 Stunden
  • Die Gesamtleistung der PV-Anlage in kWp

An einem Beispiel lässt sich gut verdeutlichen, wie sich diese Kenngrößen auf den Speicher auswirken. Die PV-Anlage eines Eigenheims verfügt über eine Leistung in Höhe von 10 kWp. Der Stromverbrauch des vierköpfigen Haushalts liegt im Durchschnitt bei 4.200 kWh pro Jahr. Auf der Basis der vielen Erfahrungswerte, die in den letzten Jahren gesammelt werden konnten und den aktuellen Berechnungen empfiehlt sich in dem Fall eine Kapazität des Speichers von 7,7 kWh.

Die große Bedeutung des Ladestands

Bei den derzeit eingesetzten Speichern handelt es sich um eine große Lithium-Ionen-Batterie. Wie hoch deren Kapazität ist und wie viele Ladezyklen sie übersteht, hängt stark von der Art der Entladung ab. Experten raten dazu, die Batterie nie unter die Marke von fünf Prozent zu entladen, da sie dies mittelfristig entladen kann. Auch der vollständig geladene Zustand wird zum Risiko, wenn er über einen längeren Zeitraum ungenutzt anhält. Eine fachkundige Beratung hilft dabei, all diese Faktoren mit einzubeziehen, wenn es um die Auswahl des passenden Speichers geht. Denn die tatsächliche Nutzkapazität liegt nach diesen Prämissen unterhalb der angegebenen Gesamtkapazität des Speichers.

Etwas Puffer ist einzuplanen

In der Tendenz ist es ratsam, den eigenen Speicher lieber etwas zu groß als zu klein zu planen. Denn Entwicklungen wie das Smart Home können den Bedarf auf mittel- und langfristige Sicht noch steigern. Noch mehr Puffer sollten diejenigen einplanen, die aktuell noch mit fossiler Energie heizen, sich in Zukunft aber vorstellen können, auf eine mit Strom betriebene Wärmepumpe umzusteigen. Gleiches gilt für diejenigen, die aktuell einen Verbrenner in der Garage stehen haben, aber über kurz oder lang doch auf ein E-Auto umsteigen möchten. In dem Fall kommt ein bedeutender zusätzlicher Verbraucher ins Haus, der sich in den Rechnungen niederschlagen wird.

All diese Szenarien würden zu einer deutlichen Erhöhung des eigenen Stromverbrauchs führen. Daher ist es wichtig, diesen Mehrverbrauch direkt einzuberechnen. Ein etwas zu groß geplanter Speicher hat den Vorteil, dass er über einige Jahre unverändert im Einsatz bleiben kann und nicht direkt die nächsten Kosten entstehen.

Sollte die Kapazität des Speichers trotzdem nicht mehr angemessen sein, bedeutet das keineswegs das Aus für das bisherige Produkt. Denn in der Regel ist es möglich, den bisherigen Speicher mit einem zweiten Speicher zu verbinden, sodass sich die Kapazitäten addieren. Sofern der nötige Platz im Haus für die Installation des zweiten Speichers vorhanden ist, spricht nichts gegen diese Maßnahme. Anschließend kann der Ertrag der PV-Anlage weiterhin mit möglichst hoher Effizienz genutzt werden.

Was ist Impfstoff-Shedding? Bedeutung, Erklärung, Definition


In vielen sozialen Netzwerken wurden schon einige abstruse Theorien über die Corona-Pandemie hervorgebracht. Die neueste Verschwörungstheorie nennt sich Impfstoff-Shedding. Ausgebreitet hat sich dieser Begriff zunächst auf den Telegram-Kanälen unter Impfgegnern. Hierbei befürchten nämlich Ungeimpfte, dass geimpfte Personen, die sich mit einem Spike-Protein gegen das Coronavirus impfen lassen haben, durch Husten oder Körperkontakt dieses Spike-Protein weitergeben können. In einigen Foren wird von Ungeimpften berichtet, dass sie nach dem Kontakt zu Geimpften mit verschiedenen Symptomen behaftet waren. Diese nunmehr entstandene Angst, Geimpfte zu treffen, wird rege diskutiert.

Impfstoff-Shedding wird auf zahlreichen Foren heiß diskutiert. Im Grunde geht es darum, dass geimpfte Personen die Spike-Proteine wieder ausscheiden können, etwa durch Hautkontakt oder durch Husten. Somit würden sie Ungeimpfte „anstecken“. Schenkt man der Diskussion Glauben, können insbesondere Frauen nach dem „Anstecken“ Fehlgeburten erleiden oder auch Periodenblutungen, die unregelmäßig auftreten. Zudem seien Kopfschmerzen und Übelkeit nach einem Shedding nicht ausgeschlossen.

Eine Virologin der Med-Uni Wien hat jedoch gesagt, dass dies völliger Humbug ist. Das Spike-Protein wird nämlich in einen Muskel gespritzt. Dieses kann von dort aus nicht in einzelnen Bestandteilen wieder ausgeschieden werden. Würde man also davon ausgehen, dass die Spike-Proteine, wie von den Kritiken behauptet, bis in den Speichel vordringen, wäre spätestens hier Endstation für die Proteine. Der Speichel würde die Proteine nämlich aufspalten.

Wie das Impfstoff-Shedding entsteht

In einigen Telegram-Gruppen wird davon berichtet, dass bei Ungeimpften, die sich mit Geimpften getroffen haben, sie umarmt oder sogar sexuellen Kontakt hatten, danach Krankheitssymptome aufgetreten sind. Dieses Phänomen bezeichnen sie mit Shedding. Das von den Ungeimpften gefürchtete Shedding gibt es allerdings so nicht. Würde man den Falschbehauptungen glauben, würden frisch Geimpfte nach einigen Wochen virale Spike-Proteine bilden, die sie dann über Hautkontakt oder Ausatmen weitergeben können. So wird es zumindest auf den Telegram-Kanälen erklärt. Der Urheber des Posts bezieht sich dabei auf Berichte von Testpersonen. Außerdem betont er explizit, dass diese Beobachtungen nicht in Stein gemeißelt seien, sondern eher auf medizinischen und wissenschaftlichen Artikeln beruhe. Des Weiteren gibt er an, dass der Impfstoff von verschiedenen Herstellern zu einem Shedding führen würde.

Diejenigen, die Angst vor einem Shedding haben, haben nicht generell Angst davor, sich mit Corona anzustecken, sondern fürchten vielmehr andere Folgen. Zum Beispiel könnten Frauen unfruchtbar werden. Jedoch gibt es keine Hinweise darauf, dass Frauen nach einer Corona-Impfung unfruchtbar werden könnten.

In den verschiedenen Telegram-Kanälen vermischen sich einige Falschbehauptungen. So wird zum Beispiel auch diskutiert, dass von Geimpften eine elektromagnetische Strahlung ausgehe. Die Behauptungen rund um das Impfstoff-Shedding werden eher als Verschwörungstheorien eingestuft.

Ist Impfstoff-Shedding tatsächlich möglich?

Hier kann Entwarnung gegeben werden – allein durch den bloßen Kontakt mit Geimpften können keine Krankheitssymptome entstehen. Die hier zugelassenen Impfstoffe enthalten keinen Lebendvirus des Covid-19. Auch das befürchtete Spike-Protein ist nicht enthalten. Über den mRNA-Impfstoff wird lediglich der Bauplan für das Immunsystem zusammengestellt.

Auch ist es völlig abwegig, dass sich Personen, die sich gegen Covid-19 impfen lassen, infolgedessen an dem Virus erkranken. Durch den Impfstoff wird lediglich das Immunsystem aktiviert, um im Falle einer Infizierung, das Virus bekämpfen zu können. Natürlich kann es nach einer Impfung vorkommen, dass die Menschen später Müdigkeit empfinden oder es zu Fieber kommt. Dies ist aber ein ganz normaler Schutzmechanismus des Körpers, welcher bedeutet, dass nunmehr ein Schutz gegen das Virus aufgebaut wird. Jedoch können diese Symptome wie Müdigkeit oder Fieber nicht auf Ungeimpfte übertragen werden. Generell scheiden Geimpfte nichts aus, womit sich andere Menschen anstecken und folglich Krankheitssymptome entstehen könnten.

Vermehrungsfähige Krankheitserreger findet man nur in Lebendimpfstoffen. Diese sind allerdings noch nicht gegen Covid-19 auf dem Markt. Doch auch in diesen Stoffen ist der Virus so abgeschwächt, dass die Krankheit dadurch nicht ausgelöst werden kann. Zu diesen Impfungen mit Lebendimpfstoffen zählen beispielsweise Impfungen gegen Röteln, Masern oder Mumps. Ausgeschlossen ist jedoch auch hierbei nicht, dass es zu verschiedenen Impfreaktionen kommen kann.

Was bedeutet „Disease X“? Bedeutung, Erklärung, Definition


Nach dem ersten Corona-Ausbruch im Winter 2019/2020 tauchte 2020 in englischsprachigen Medien der Begriff Disease X (= Krankheit X) erstmals auf. Der Buchstabe X ist ein Platzhalter für einen noch unbekannten Virus, dessen Erscheinungsbild und Auswirkungen man nicht beschreiben kann. Die genaue Definition stammt von der Weltgesundheitsorganisation (WHO) und lautet folgendermaßen:

„Krankheit X steht für die Einsicht, dass eine schwerwiegende internationale Epidemie durch einen Krankheitserreger verursacht werden könnte, von dem derzeit nicht bekannt ist, dass er Krankheiten des Menschen verursacht. Daher versucht das Forschungs- und Entwicklungskonzept ausdrücklich, so weit wie möglich eine übergreifende Forschungs- und Entwicklungsvorbereitung zu ermöglichen, die für eine bisher unbekannte ‚Krankheit X‘ relevant ist.“

Disease X: Kann man die nächste Pandemie vorhersagen?

Immer wieder sprechen Forscher davon, dass sie die unbekannte nächste Krankheit erforschen wollen, eben die Disease X. Viele Labore arbeiten hierfür mit gezielten Mutationen vorhandener Viren. Dadurch erhoffen sie sich, eine geeignete Therapie gegen den Mutanten entwickeln zu können.

Doch das „erfindungsreiche“ Coronavirus hat uns gezeigt, dass es extrem schwierig ist, für eine neue Variante Vorhersagen zu treffen. Das liegt hauptsächlich daran, dass man in der Seuchenprävention mit Modellen arbeitet. Erst durch das Zusammenwirken vieler kleiner Puzzleteile können entsprechende Schlüsse gezogen werden. Diese Arbeit ist extrem wichtig und zugleich aufwändig.

Teilweise arbeiten die Forscher Jahrzehnte daran, wenn es geht darum, Gesellschaften vor möglichen Epidemien zu schützen. Aus vorausgegangenen Epidemien konnte man bereits viel lernen. Diese und weitere Ergebnisse fließen in die Modellrechnungen mit ein. Da wir in einem Computerzeitalter leben und weltweit vernetzt sind, ist es heute deutlich leichter als vor 20 Jahren, an Informationen zu gelangen. So werden die Modellrechnungen und daraus resultierende Vorhersagen viel präziser, sodass die einzelnen Länder schneller reagieren können. Trotzdem sind konkrete Vorhersagen so gut wie unmöglich.

Wie kommt die Weltgesundheitsorganisation zu ihren Vorhersagen?

Aufgabe der Weltgesundheitsorganisation (WHO) ist unter anderem die Prävention vor Krankheiten und Seuchen und deren Kontrolle. Die Erfahrungen mit dem Sars-CoV2-Virus, das die Coronaerkrankung hervorruft, veranlassen Mediziner und Gesundheitsorganisationen weltweit, ihr Augenmerk stärker auf etwaige künftige Infektionskrankheiten bzw. ihre Erreger zu richten.

Infektionskrankheiten, die noch nicht real sind, aber in der Zukunft auftreten könnten, werden als Disease X bezeichnet. Da noch nicht bekannt ist, in welcher Form sie sich darstellen, können jedoch keine vorbeugenden Maßnahmen ergriffen werden. Noch unbekannte Krankheitserreger werden als potenzielle Bedrohung trotzdem sehr ernst genommen. Auch über die bisher aufgetretenen Viren gibt es umfangreiche und öffentliche Datensammlungen, auf die jeder zugreifen kann.

Darüber hinaus haben Forscher dank des Preprint-Systems heute die Möglichkeit, ihre Arbeiten früher zu veröffentlichen. Was einst Wochen oder Monate dauerte, kann heute innerhalb weniger Tage, manchmal sogar eines Tages bereitgestellt werden. Je nach Dringlichkeit der Bedrohung veröffentlichen auch traditionelle Fachzeitschriften wichtige Informationen wesentlich früher als sonst üblich.

Allerdings sind die zu diesem Zeitpunkt veröffentlichen Studien nicht endgültig geprüft, befinden sich noch im sogenannten Peer-Review-Verfahren. Erst wenn dieses Verfahren abgeschlossen ist, kann man von einer glaubwürdigen Information ausgehen. Wenn nicht, besteht die Möglichkeit der Desinformation und es ist ratsam, eine solche Studie sehr kritisch zu lesen.

Diease X: Erlaubt Künstliche Intelligenz präzisere Epidemie-Vorhersagen?

Immer wieder beschäftigen sich Mediziner mit der Frage, ob man die Corona-Pandemie hätte voraussehen können. Heute erhoffen sich Forscher, mithilfe künstlicher Intelligenz (KI) bessere Vorhersagen treffen zu können. KI-Verfechter sind davon überzeugt, dass sich das Risiko von Epidemien dank Algorithmen noch vor dem Ausbruch abschätzen lässt. Das sei möglich, indem die KI Daten über Viren in bestimmten Tierarten sammelt und daraus Schlüsse auf die Übertragbarkeit auf den Menschen zieht. Auch die Internet-Giganten Google und Facebook arbeiten daran, Vorhersagen für die nächste Disease X zu treffen. Andere Experten sind in diesem Punkt sehr skeptisch und halten KI in Bezug auf Epidemie-Voraussagen für nutzlos. Aktuell (August 2023) sind Pandemien kein Anwendungsfall für KI-gesteuerte Modelle.

Wie man sicherstellen kann, immer Strom zu Hause zu haben?


Die vielen Fortschritte in der Welt haben es fast unmöglich gemacht, ohne elektrische Energie zu leben. Diese Energie dient nicht nur zur Beleuchtung unserer Gebäude, sondern auch zum Betrieb verschiedener elektrischer und elektronischer Geräte, die wir besitzen. Ein Stromausfall kann daher erhebliche Schäden verursachen, insbesondere wenn er längere Zeit andauert. Hier sind einige Methoden, die Sie verwenden können, um Stromausfälle zu verhindern und jederzeit Strom zu haben.

Verwendung von Notstromaggregaten

Notstromaggregate sind Vorrichtungen, die Ihnen ermöglichen, bei einem Stromausfall Strom zu haben. Es handelt sich um Notstromquellen, die auf verschiedene Arten betrieben werden können. Sie können Notstromaggregate verwenden, die mit Propan, Diesel, Benzin oder Solarenergie betrieben werden. Angesichts der aktuellen wirtschaftlichen und ökologischen Herausforderungen ist es jedoch am besten, sich für Solar-Notstromaggregate zu entscheiden. Entdecken Sie die Produkte hier und wählen Sie einen Generator entsprechend Ihrem Energiebedarf, um Stromausfälle zu bekämpfen.

Wie wählt man ein Notstromaggregat aus?

Bevor Sie ein Notstromaggregat auswählen, sollten Sie sich gründlich informieren und mehrere Faktoren berücksichtigen. Die Leistung ist der erste Faktor, den Sie berücksichtigen sollten, da sie bestimmt, wie viele Geräte Sie betreiben können. Sie sollten also zunächst die erforderliche Leistung für jedes Gerät identifizieren, das Sie in Ihrem Haus haben. Addieren Sie dann alle diese Leistungen, um die minimale Leistung zu bestimmen, die Ihr Generator haben muss. Sie müssen nicht alle Geräte betreiben, wenn Sie auf das Notstromaggregat umschalten, also identifizieren Sie die Geräte, die Sie unbedingt benötigen. Stellen Sie sicher, dass Sie Ihre Berechnungen sorgfältig durchführen, um zu vermeiden, dass Sie einen Generator wählen, dessen Leistung für Ihre elektrische Installation nicht ausreicht. Neben der Leistung müssen Sie die Autonomie des Generators und die Zubehörteile, die für seinen Betrieb erforderlich sind, berücksichtigen. Ein Solar-Notstromaggregat muss mit Solarmodulen verbunden werden, damit es aufgeladen werden kann und jederzeit einsatzbereit ist. Diese Solarmodule müssen ebenfalls gekauft werden, was bedeutet, dass Sie sie in Ihr Budget einbeziehen müssen. Was die Autonomie des Generators betrifft, so bestimmt sie die Zeitdauer, in der der Generator vor einer erneuten Aufladung betrieben werden kann. Die Autonomie hängt von Ihren Bedürfnissen, Ihren täglichen Gewohnheiten und der Art der Nutzung des Generators ab. Wenn Sie zum Beispiel tagsüber nicht zu Hause sind, können Sie mit einem Generator mit einer Autonomie von einigen Stunden zufrieden sein. So wird er tagsüber aufgeladen, um Ihren Bedarf am Abend zu decken. Wenn Sie jedoch zum Beispiel von zu Hause aus arbeiten, benötigen Sie möglicherweise eine Autonomie von mehreren Tagen.

Lärm, Zuverlässigkeit und Tragbarkeit des Generators sind weitere Faktoren, die die Wahl Ihres Generators beeinflussen können. Suchen Sie nach leisen Modellen für eine zufriedenstellende Nutzung ohne Lärmbelastung. Was die Zuverlässigkeit betrifft, sollten Sie nach Qualität suchen, indem Sie die Bewertungen der Benutzer über die verschiedenen verfügbaren Marken lesen. Die Portabilität des Generators hängt von Ihren Bedürfnissen ab, ob Sie den Generator je nach Bedarf transportieren möchten oder nicht.

Wie benutzt man ein Notstromaggregat?

Überprüfen Sie vor der Verwendung eines Notstromaggregats zunächst, ob Sie die Installation richtig durchgeführt haben. Zögern Sie nicht, alles ein zweites Mal zu überprüfen und sicherzustellen, dass die elektrischen Verbindungen sicher sind. Überprüfen Sie dann, ob der Generator aufgeladen ist und ordnungsgemäß funktioniert. Schalten Sie vor dem Start des Generators alle elektrischen Geräte aus und lassen Sie ihn einige Minuten lang leer laufen. Wenn der Generator seine normale Betriebstemperatur erreicht hat, können Sie nun Ihre Geräte mit dem Generator verbinden. Schalten Sie sie nacheinander ein, um Überlastungen zu vermeiden, und stellen Sie sicher, dass Sie die Leistung des Generators nicht überschreiten. Denken Sie an die Geräte, die Sie bei der Auswahl der Leistung des Generators berücksichtigt haben. Vermeiden Sie auch weitgehend die Verbindung von Geräten, die Sie nicht verwenden werden, oder von Geräten mit hohem Energieverbrauch. Dadurch können Sie Ihren Generator optimal nutzen und seine Autonomie optimal nutzen. Schalten Sie alle elektrischen Geräte aus, wenn Sie sie nicht mehr verwenden, ziehen Sie den Stecker heraus und schalten Sie den Generator aus.

Verwendung von Notstrombatterien und wiederaufladbaren Lampen

Eine andere Lösung, um Strom zu haben, auch bei Stromausfällen, ist die Verwendung von Notstrombatterien und wiederaufladbaren Lampen. Wiederaufladbare Lampen können Energie speichern und ohne Stromversorgung betrieben werden. Je nach Autonomie dieser Lampen können Sie über viele Stunden hinweg problemlos beleuchtet werden. Darüber hinaus sind diese Lampen umweltfreundlich und ermöglichen es Ihnen, trotz Stromausfällen Licht zu haben. Sie müssen sie jedoch im Voraus aufladen, damit sie bei Stromausfällen einsatzbereit sind.

Notstrombatterien ermöglichen es Ihnen, Geräte wie Mobiltelefone, Computer und auch Lampen aufzuladen. Sie sind eine echte Lösung, wenn Sie keine effektive Notstromversorgung für Ihre Bedürfnisse installieren können. Mit diesen Batterien können Sie Ihre Grundgeräte betreiben und die Auswirkungen von Stromausfällen in Ihrem Zuhause reduzieren. Sie können mehrere Notstrombatterien erwerben und aufladen, um sie bei Stromausfällen zu verwenden.

Einige Maßnahmen zur Reduzierung von Stromausfällen

Um immer Strom zu haben, können Sie auch Maßnah en ergreifen, um das Risiko von Stromausfällen zu verringern oder ihre Auswirkungen zu minimieren. Beachten Sie beim Umgang mit Strom die richtigen Verhaltensweisen, um Überlastungen und übermäßige Verwendung von Verlängerungskabeln zu vermeiden. Inspektieren Sie regelmäßig Ihre elektrische Installation, um Probleme zu erkennen und frühzeitig zu beheben. Installieren Sie die richtige Ausrüstung, um zu verhindern, dass Überspannungen und Überlastungen Ihre elektrische Installation und Ihre Geräte beschädigen. Verwenden Sie auch keine defekten oder minderwertigen elektrischen Geräte, die Ihre elektrische Installation beschädigen können. Defekte oder minderwertige Geräte können zu erheblichen Schäden führen, von Stromausfällen bis hin zu Bränden. Aus diesem Grund sollten Sie bei der Auswahl Ihrer Geräte sorgfältig vorgehen, um das Risiko von Stromausfällen zu reduzieren. Dies gilt auch für alle Zubehörteile, Kabel und Geräte, die Teil Ihrer elektrischen Installation sind. Die Wahl hochwertiger Geräte hilft Ihnen, das Risiko von Stromausfällen zu reduzieren.

Die Position von Bäumen bei schlechtem Wetter kann ebenfalls zu Stromausfällen führen und Sie daran hindern, Strom zu haben. Um Stromausfälle aufgrund von schlechtem Wetter zu vermeiden und das Risiko zu verringern, schneiden Sie die Äste von Bäumen zurück, die die Kabel Ihrer Außeninstallation berühren. Die Äste von Bäumen in der Nähe Ihres Hauses können bei starkem Regen oder starkem Wind herunterfallen. Dadurch können die Stromkabel beschädigt werden und es kommt zu Stromausfällen. Daher sollten Sie sie regelmäßig zurückschneiden und sicherstellen, dass sie bei schlechtem Wetter keine Probleme für Ihre Installation verursachen.

Was ist ein „Hitzedom“? Bedeutung, Erklärung, Definition


Der Begriff „Hitzedom“ beschreibt ein Wetterphänomen, bei dem sich die Hitze wie eine Kuppel über ein ganzes Gebiet legt und nicht entweichen kann. Der Hitzedom ist ein kräftiges, sehr stabiles Hochdruckgebiet, bei dem sich eine Kuppel ausbildet. Das geschieht, weil die Temperaturen in einem riesigen Gebiet der Troposphäre höher sind als in den umliegenden Gebieten.

Aus meteorologischer Sicht sind die unterschiedlichen Luftmassen keine geschlossenen Systeme, doch ein richtiger Luftaustausch findet trotzdem nicht statt. Nicht nur die Temperaturen sind ja sehr hoch, zu ihnen gesellt sich auch eine ungünstige, kaum vorhandene Luftzirkulation in der Atmosphäre. So kommt es zu der dauerhaften Hitze mit sehr hohen Temperaturen. Solche blockierenden Hochdruckgebiete nennt man Omegalagen. Weil es keine Bewegung in westliche oder östliche Richtung gibt, sinkt permanent Luft von oben nach unten und erwärmt sich. Gepaart mit der dauerhaften Sonneneinstrahlung an Hochsommertagen entsteht die unangenehme, für Menschen und Tiere gefährliche Hitze, die sich immer weiter aufstaut. Eine solche Wetterlage kann mehrere Wochen dauern. In Städten ist das Phänomen besonders drastisch und führt zu einem Anstieg von Kreislauferkrankungen bis hin zu Hitzetoten.

Der Begriff Hitzedom entstand während einer großen Hitzewelle Juni 2021 in Nordamerika. Hier wurden Temperaturen in Rekordhöhe gemessen, darüber hinaus dauerte der Hitzedom mehrere Wochen lang an.

Der bedrohliche Hitzedom aller Zeiten

Die Gemeinde Lytton in British Columbia (Kanada) verzeichnete in der letzten Juniwoche 2021 Temperaturen von 49,6 °C, ein noch nie dagewesener Wert. Es dauerte nicht lange, bis die Hitze einen riesigen Flächenbrand entfachte, der die gesamte Ortsmitte von Lytton zerstörte und Menschen in die Flucht trieb. Ähnlich hohe Werte wurden auch in den Städten Seattle und Portland gemessen. Klimaanalysten gehen davon aus, dass dieser Hitzedom ohne den menschlich gemachten Klimawandels nicht möglich gewesen wäre. Sie sind sich sicher, dass Extremtemperaturen, wie sie beim letzten Hitzedom in Nordamerika gemessen wurden, durch den Klimawandel verursacht werden und weltweit zu einer vermehrten Anzahl an Hitzetoten führen werden. Die globale, menschengemachte Erwärmung erhöht die Wahrscheinlichkeit für Hitzewellen um das 150-fache. Für ihre Beurteilung zogen sie Klima-Modelldaten ohne Treibhausgas-Effekt heran. Die Studie war eine Gemeinschaftsarbeit von Forschern aus den USA und Kanada, aus Deutschland, den Niederlanden, Frankreich, Großbritannien und der Schweiz. Für sie gab es hierfür nur zwei mögliche Begründungen:

1. Erklärung:

In Variante 1 wäre die Hitzewelle in Kanada nach wie vor ein extrem ungewöhnliches Ereignis, das durch den Klimawandel wahrscheinlicher wurde. Zusammen mit großer Trockenheit und besonderen atmosphärischen Zirkulationen hätte sich aus der Hitzewelle ein Hitzedom mit ungewöhnlich hohen Temperaturen entwickelt.

2. Erklärung (Wissenschaftler tendieren mehr zu dieser):

In Variante 2 hätte die Klimakrise bereits eine kritische Schwelle überschritten, mit der Folge, dass schon sehr geringe Erhöhungen der globalen Mitteltemperatur einen schnellen Anstieg von Extremtemperaturen verursachen würden. Das macht Rekordhitzewellen wie die beschriebene viel wahrscheinlicher. Auch könnten sie durch aktuelle Klimamodelle nicht mehr vorhergesagt werden. Die Wissenschaftler sehen das Hitzeereignis von Lytton als Warnung für die gesamten USA sowie Frankreich, Deutschland, China und Japan an. Sie sind sich einig, dass es beispiellos ist. Selbst auf Basis ähnliche Erfahrungen kann man es nicht als normal betrachten, wenn bisherige Temperaturrekorde in kürzester Zeit um vier oder fünf Grad Celsius eingestellt werden. Wenn die Erderwärmung weiter voranschreitet, erwarten sie noch viel häufiger Hitzeextreme mit Temperaturen an die 50 °C.

Die Folgen von extremer Hitze auf Mensch und Tier

Hitze wirkt sich auf vielfältige Weise auf den Organismus aus und birgt große Gesundheitsrisiken. Hitze führt bei vielen Menschen zu Kreislaufproblemen, Schwindel, Muskelkrämpfen, Kopfschmerzen, niedrigem Blutdruck, Hitzeerschöpfung und zu Wasseransammlungen in den Extremitäten. Ferner können Infektionskrankheiten auftreten, die bisher unbekannt waren, da sich bisher ungefährliche Erreger bei hohen Temperaturen stark vermehren und ihr Verhalten ändern können.

Das Schwitzen verursacht Hautausschläge, außerdem besteht das Risiko eines Hitzeschlags. Atemwegserkrankungen verschlimmern sich und der Schlaf ist stark beeinträchtigt, da auch nachts immer noch tropische Temperaturen herrschen. Für Risikogruppen sind die Folgen besonders gravierend: Dazu zählen chronisch Kranke, Schwangere, Säuglinge und Kleinkinder, ältere Menschen, Personen, die auf Medikamente angewiesen sind und solche, die im Freien arbeiten müssen. Sie alle sollten körperliche Anstrengung vermeiden. Tiere leiden ähnlich wie Menschen, und wer kann, zieht sich an einen schattigen Ort zurück.

Kann uns das Trinkwasser ausgehen? Erklärung, Gründe, Bedeutung


Häufig werden Rohstoffe, wie Erdöl oder Gas, thematisiert, weil sie von wirtschaftlicher Bedeutung sind. Dennoch wird ein Thema vernachlässigt, nämlich die Bedeutung des Trinkwassers, welches die Lebensgrundlage der Menschen bildet. Das Wasser wird zunehmend zu einem knappen und wichtigen Gut, das im schlimmsten Fall zu Konflikten führen kann. Der aktuelle Klimawandel und die steigende Dürre sorgen für Wasserknappheit, und zwar nicht nur in tropischen Gebieten der Welt. Mittlerweile gibt es in Deutschland Gemeinden, die von Wasserknappheit betroffen sind.

In diesem Beitrag geht es um die Bedeutung des Trinkwassers und um die Frage, ob es uns ausgehen kann. Es werden die Gefahren erläutert und die möglichen Lösungen, die dazu beitragen können, Trinkwasser einzusparen. Aufgrund der existenziellen Bedeutung des Trinkwassers ist es wichtig, sich in naher Zukunft vermehrt mit der Thematik zu befassen.

Wasser, ein unverzichtbares Gut für den Menschen

Laut aktuellen Erkenntnissen können Menschen bis zu drei Monate ohne Nahrungsaufnahme überleben. Im Gegensatz dazu sieht die Lage gänzlich anders aus, wenn es um das Trinkwasser geht. Diesbezüglich sind Menschen in der Lage, lediglich drei Tage zu überleben, wenn sie kein Wasser zu sich nehmen. Dennoch kommt es bereits nach 24 Stunden zu erheblichen Problemen, wenn dem menschlichen Organismus kein Wasser zugeführt werden. Folglich ist bereits ein kurzzeitiger Verzicht auf Wasser mit gesundheitsgefährdenden bis hin lebensbedrohlichen Szenarien verbunden.

Der menschliche Organismus besteht aus ca. 60 % Wasser, sodass Wasser die Lebensgrundlage des menschlichen Lebens ist. Es ist ein Gut, das von elementarer Bedeutung für das Zusammenleben der Menschen ist. Denn ein Wassermangel führt nicht nur zu gesundheitlichen Risiken. Auch der soziale Frieden kann ins Wanken kommen, wie die Vergangenheit gezeigt hat. In einigen Regionen dieser Welt mangelt es an sauberem Trinkwasser und damit einhergehend kommt es immer wieder zu Auseinandersetzungen um Wasser.

Deshalb spielt Trinkwasser auf vielen Ebenen eine bedeutende Rolle. Zum einen ist Trinkwasser unverzichtbar, wenn es um die Gesundheit des Menschen geht. Auf der anderen Seite spielt das Wasser auf politisch, gesellschaftlicher Ebene eine zentrale Rolle. Der Zugang zu sauberem Trinkwasser stellt die Stabilität einer Gesellschaft sicher und beugt Konflikte vor. Es liegt in der Verantwortung des Einzelnen und der Politik, dafür Sorge zu tragen, dass die Trinkwasserknappheit eingedämmt wird. Anderenfalls drohen regionale Konflikte, auch innerhalb von Europa.

Die Gefahren von Wasserknappheit für Gesellschaft und Wirtschaft

Bei einem genaueren Hinsehen offenbaren sich zahlreiche Gefahren, die auf Wasserknappheit zurückzuführen sind. Unter anderem sind ganze Gemeinden, die vom Tourismus leben, stark betroffen. Langanhaltende Dürreperioden, die mit Wassermangel einhergehen, können ganze Landschaften austrocknen lassen. Zusätzlich erhöht sich die Brandgefahr, die in den vergangenen Jahren signifikant zugenommen hat. Durch Wassermangel und Waldbrände kann es zu einem Totalausfall der Einkünfte kommen, weil keine Touristen mehr kommen. Somit steht das wirtschaftliche Leben teilweise in Abhängigkeit zum Trinkwasser.

Des Weiteren kann es zu einer Lebensmittelknappheit kommen, wenn es an Trinkwasser fehlt. Europaweit beklagen sich die Bauern über die zunehmende Dürre und den Wassermangel, sodass es zu Ernteausfällen kommt. Dies wiederum führt zu einer Preissteigerung für Getreideprodukte und mehr. Es bedroht die wirtschaftliche Existenz von Bauern und führt dazu, dass die Kosten für Grundnahrungsmittel für immer mehr Menschen teurer werden. Es ist bisher kein Trendbruch in Sicht, denn Experten prognostizieren eine Verschlimmerung der Lage.

Die Politik steht ebenfalls vor großen Herausforderungen, die auf die Wasserknappheit zurückzuführen sind. Es wird in Zukunft neue Migrationswellen geben, weil es zu unbewohnbaren Gebieten kommen wird. Durch langanhaltende Trockenperioden und extremer Hitze werden ganze Landschaften nicht mehr dazu geeignet sein, um dort zu leben. Bereits heute schon kommt es zu gesellschaftlichen Spaltungen in Hinblick auf die Flüchtlingskrisen der jüngsten Vergangenheit.

Neben der politischen Herausforderung, die Flüchtlingswelle zu verwalten, entstehen innergesellschaftliche Konflikte, die sich verschärfen werden. Es entstehen exorbitante Kosten, die durch die Steuerzahler getragen werden. Zusätzlich kann sich die Lage am Wohnungsmarkt verschlechtern, wobei es in Deutschland bereits heute schon Probleme in den Ballungsgebieten gibt.

Kann das Trinkwasser ausgehen?

Es ist nicht möglich, dass das Trinkwasser komplett ausgeht. Gleichzeitig ist dies kein Grund zum Aufatmen, weil es weltweit Probleme gibt, genügend Trinkwasser sicherzustellen. Des Weiteren gilt es, zu unterscheiden, und zwar zwischen dem trinkbarem und nicht trinkbarem Wasser. Nur 0,6 % des weltweiten Wasserbestands eignet sich als Trinkwasser. Es handelt sich um Süßwasser, welches im Gegensatz zum Salzwasser trinkbar ist. In Anbetracht dessen ist nur ein kleiner Teil des Wassers dazu geeignet, es als Trinkwasser zu nutzen.

Letztlich kann es zeitweise zu einem Ausfall kommen, sodass es keinen Zugang zu Trinkwasser gibt. Auch in Deutschland können extreme Wetterbedingungen dazu führen, dass es zu einem enormen Wassermangel kommt. Dies hat zur Folge, dass Grünanlagen nicht bewässert werden können. Noch schlimmer wird es, wenn Landwirte nicht in der Lage sind, ihre Ernte zu bewässern. Die Temperaturen und Hitzewellen nehmen fortwährend in Deutschland und ganz Europa zu. Es wird in zahlreichen Regionen zu einem merklichen Mangel kommen, aber es wird gleichzeitig nicht dazu kommen, dass es gar kein Trinkwasser mehr geben wird.

Vorsorgemaßnahmen: das Trinkwasser schützen und nutzen

Letztlich ist es wichtig, heute schon Maßnahmen einzuleiten, um das Trinkwasser zu schützen. Der Wasserverbrauch ist heutzutage immer noch zu hoch, obwohl es überall auf der Welt an Wasser mangelt. Sowohl auf wirtschaftlicher als auch privater Ebene herrscht eine Wasserverschwendung. Während es zu extremen Hitzewellen kommt, nutzen zahlreiche Bürger in Deutschland das Wasser dazu, um das Fahrzeug zu waschen oder den Rasen zu bewässern. Auch das Nutzen des Wassers für einen Swimmingpool ist ein Negativpunkt.

Zudem gibt es eine Wasserverschwendung vonseiten der Konzerne, die eine Mitschuld tragen. In jüngster Vergangenheit haben Großkonzerne Wasser privatisiert und aufgekauft, um es für die Herstellung ihrer Produkte zu nutzen. Dies hat wiederum zur Folge, dass weniger Wasser für Privatbürger zur Verfügung steht. Unternehmen sind ebenfalls in der Pflicht, einen wichtigen Beitrag zu leisten, um die Folgen des Wassermangels abzufedern.

Fazit zum Thema Wasserknappheit

Letztlich wird das Trinkwasser kontinuierlich erhalten bleiben, auch im Zuge der Klimakrise. Es geht vielmehr darum, das Wasser fair zu verteilen, damit vor allem Benachteiligte Zugriff haben. Die Politik und Gesellschaft ist als Ganzes gefordert, um für faire Bedingungen zu sorgen. Hiermit wird sichergestellt, dass das gesellschaftliche Zusammenleben in Frieden gewährleistet bleibt, ungeachtet der zukünftigen Krisen.

Die schwersten Steine, die Menschen jemals bewegt haben


In den letzten 5000 tausend Jahren haben Menschen bewiesen, dass sie mit Muskelkraft, Köpfchen, Koordination und Technik unglaublich schwere Steine bewegen können. Aus heutiger moderner Sicht erscheint es erstaunlich und unglaublich. Denn die bewegten Steine sind viele viele Tonnen schwer. Früher hatten die Menschen keine Kräne und Bagger, die ihnen die Arbeit abnahmen. Sie hatten „nur“ Baumstämme, Seile, Schlitten, sowie ihre Technik und Koordination.

In diesem Beitrag werden die schwersten Steine, die Menschen jemals bewegt haben aufgelistet:

Stonehenge: Schwerster Stein: 50 Tonnen

Die schwersten Steine in Stonehenge wiegen 50 Tonnen. Menschen haben die Steine vor mehr als 4000 Jahren aus einem 30 Kilometer entfernten Steinbruch in Marlborough, England, geholt. Sie haben die Steine transportiert und am Zielort aufgerichtet.

Cheops-Pyramide: Dach der Königskammer: 70 Tonnen

In der Cheops-Pyramide befindet sich die Königskammer. (Errichtet wurde die Cheops-Pyramide zwischen den Jahren 2620 und 2500 vor Christus.) Für die Königskammer verwendeten die alten Ägypter Rosengranit-Blöcke, die zwischen 40 und 70 Tonnen schwer waren. Das besondere an diesen Blöcken ist, dass die Ägypter sie auf eine Höhe von rund 70 Meter gehoben haben.

Die Ägypter brauchten also nicht nur potentielle, sondern auch kinetische Energie. Es erforderte unglaublich viel Kraft, die Blöcke auf eine Höhe von 70 Metern zu ziehen.

Die Wissenschaft geht heute davon aus, dass die alten Ägypter die Blöcke auf Schlitten transportiert haben. Diese Schlitten zogen sie über Rampen auf die Pyramide. Es wird vermutet, dass mehrere hundert Menschen einen Schlitten zogen.

Osterinseln: Moai-Statuen: 85 Tonnen

Die schwersten Statuen auf den Osterinseln wiegen rund 85 Tonnen und sind bis zu 10 Meter hoch.

Die Menschen, die damals diese Steine abgebaut und behauen haben, haben dies in einem Krater im Südosten der Insel getan. Die fertigen Steine haben sie dann wenige Kilometer transportiert.

Die Technik für das Aufstellen der Steine war vermutlich folgende: die Stein-Statue wurde liegend transportiert. Am Zielort wurde ein mehrere Meter tiefes Loch gegraben. In dieses wurde die Steinstatue reingehieft.

Dolmenstätten von Gochang, Hwasun und Ganghwa: Südkorea: bis zu 200 Tonnen

Für die Dolmen wurden Steine bewegt, die bis zu 200 Tonnen schwer sind.

Inka: Sacsayhuamán: 200 Tonnen

Sacsayhuamán war eine Festung der Inka. Sacsayhuamán befindet sich bei der Stadt Cusco in Peru.

Für die Festung Sacsayhuamán verwendeten die Inkas viele Steine. Der größte wiegt rund 200 Tonnen. Er ist 9 Meter hoch, 5 Meter breit und 4 Meter dick. Errichtet wurde die Festung im 15. Jahrhundert.

Alexandria: Pompeiussäule: 285 Tonnen

Im Jahr 297 nach Christus errichteten die Römer die Pompeiussäule in Alexandria. Sie ist 28,8 Meter hoch und wiegt 285 Tonnen.

Grand Menhir: 330 Tonnen

Der größte Menhir (auch Hinkelstein genannt) wiegt rund 330 Tonnen und ist 20 Meter groß. Er stand in der Bretagne in Frankreich, ist aber im Lauf der Geschichte irgendwann umgefallen.

Aufgestellt wurde der Grand Menhir geschätzt in den Jahren um 4500 vor Christus.

Jupitertempels in Baalbek: Bausteine 350 Tonnen

Die Bausteine des Jupitertempels in Baalbek wiegen rund 350 Tonnen.

Zwischen dem 1. und 3. Jahrhundert nach Christus errichteten die Römer den Jupitertempel.

Vatikanischer Obelisk: 320 Tonnen

Der Vatikan-Obelisk wurde im Jahr 1586 aufgestellt. Er wiegt rund 320 Tonnen und ist 33,3 Meter hoch.

Klagemauer: Schwerster Stein: 500 Tonnen

Der schwerste Stein der Klagemauer wird auf 500 Tonnen Gewicht geschätzt.

Aksum: Große Stele: 517 Tonnen

Die größte und schwerste Stele von Aksum wiegt 517 Tonnen. Sie war 33 Meter hoch.

Alexandersäule: 600 Tonnen

Die Alexandersäule in Sankt Petersburg wurde zwischen 1830 und 1834 errichtet. Sie wiegt rund 600 Tonnen und ist 47,5 Meter hoch.

Für die Aufstellung wurden moderne Kräne verwendet und 3000 Männer. Es dauerte zwei Stunden bis die Säule stand.

Memnonkolosse: 700 Tonnen

Die „Memnonkolosse“ sind zwei rund 700 Tonnen schwere sitzende Statuen. Sie wurden im 14. Jahrhundert vor Christus von den alten Ägyptern aufgestellt.

Es wird angenommen, dass beide Kolosse aus einem Stein gehauen wurden.

Jupitertempels in Baalbek: Trilith: 800 Tonnen

Das Podium des Jupitertempels in Baalbek (im heutigen Libanon) besteht aus drei Steinen, die im Durchschnitt rund 800 Tonnen schwer sind.

Ramesseum: Statue: 1.000 Tonnen

Im Jahr 1260 vor Christus haben die alten Ägypter eine rund tausend Tonnen schwere und rund 19 Meter hohe Statue nach Theben transportiert. Sie haben die Statue vom Steinbruch bis nach Theben über rund 270 Kilometer gezogen. Sie war für den Tempel „Ramesseum“ gedacht.

Der eherne Reiter: Donnerstein: 1.250 Tonnen

„Der eherne Reiter“ ist ein Denkmal und Reiterstandbild von Peter dem Großen. „Der eherne Reiter“ steht in Sankt Petersburg.

„Der eherne Reiter“ steht auf einem Monolithen, der rund 1250 Tonnen Tonnen schwer ist.

Die Menschen haben das Reiter-Denkmal nicht einfach auf den Stein gesetzt, sondern haben den Stein im Jahr 1768 aus 22 Kilometer Entfernung nach Sankt Petersburg gezogen. Hierfür errichteten die Russen Zugvorrichtungen, Kugellager und Winden, um den Stein zu bewegen. Das dauerte ganze neun Monate, fand im Winter (auf gefrorenem Boden) statt und rund 400 Mann zogen gleichzeitig an dem Stein.

Fazit: Die schwersten Steine, die Menschen jemals bewegt haben

Die Liste der schwersten Steine, die Menschen jemals bewegt haben, ist lang. Eines zeigt sich: Wenn Menschen zusammenarbeiten, können sie auch schwerste Gegenstände bewegen. Dafür brauchte es mehrere hundert Menschen, die einen Stein ziehen. Sie zusammen konnten die Kraft aufbringen, den Stein zu bewegen. Was sie dafür brauchten? Seile! Die Seile wurden an den Steinen festgebunden. Um die Reibung auf dem Boden zu verringern, wurden (vermutlich) Schlitten und Baumstämme verwendet. Auf diesen rutschten die Steine dann.

Es zeigt sich auch: Sobald Menschen verstanden hatten, dass selbst die schwersten Steine bewegt werden können, wenn viel hundert Menschen dran ziehen, gab es keine Grenzen mehr.

Eines muss noch gesagt werden: In der Antike war menschliche Arbeitskraft billig. Es wurden (so wird vermutet) Sklaven verwendet, deren Aufgabe es war Steine zu ziehen.

Wer war der kopflose Hahn Mike? Geschichte, Erklärung


Der Farmer Lloyd Olsen wollte damals im Jahr 1945 eigentlich nur einen seiner Hähne für ein Festmahl schlachten. Doch dass er dadurch vom Schlachttisch auf die Showbühne gelangte, hätte er sich wohl nicht träumen lassen. Den Hahn, den er köpfte, lebte noch 18 Monate weiter. In den USA wurde der geköpfte Hahn namens Mike zum Superstar und war schlussendlich sogar populärer als ein US-Präsident.

Dem kleinen Örtchen Fruita sieht man seine blutige Vergangenheit auf den ersten Blick nicht an. Wer das 11.000 Seelen-Dorf mitten in der Wüste von Colorado besucht, wird zum Anfang von riesigen Plakaten begrüßt, auf denen mit Rafting-Ausflügen, Mountainbike-Touren, Dinosaurier-Ausstellung und Rodeos geworben wird. Doch das sind noch lange nicht alle Attraktionen, die das Dorf zu bieten hat. Die Hauptattraktion fehlt. Sie zieht jedes Jahr am dritten Wochenende des Mais tausende Besucher an: der Hahn namens Mike.

Ohne große Umschweife kann festgehalten werden, dass der Hahn Mike wohl der berühmteste Sohn dieser Stadt ist. Zwar dauerte seine Karriere nur von 1945 bis 1947 an, doch schaffte er es in dieser kurzen Zeit ins Radio, Fernsehen und sogar in das „Life“- und „Time“-Magazin. Durch Mike wurde der Ort international bekannt. Weshalb der Ort nicht mit einem großen Schild am Ortseingang mit dem berühmten Hahn wirbt, hängt wohl damit zusammen, dass man mit diesem Star nicht besonders liebevoll umgegangen ist. Die Karriere von Mike begann nämlich ab dem Zeitpunkt, an dem er geköpft wurde. Zahlreiche Köpfe anderer Hühner folgten darauf.

Die Geschichte vom kopflosen Hahn Mike

Der Farmer Lloyd Olsen erwartete seine Schwiegermutter zum Abendessen für den nächsten Tag. Wie schon so oft wollte der Bauer am 10.09.1945 ein paar Hähne für das Festmahl schlachten. Dies war der Beginn einer der größten Karrieren, die ein Hahn überhaupt erreichen konnte. Sie hielt genau 18 Monate an.

Olsen griff – wie immer – zum großen Messer und nahm sich den ersten Gockel vor, der fünf Jahre alt war. Nachdem er geköpft war, flatterte er noch ein wenig. Der Bauer fand das nicht sonderlich unnormal, schließlich war es bisher immer so. Nach wenigen Sekunden ist das vorbei, dachte er sich. Olsen machte sich sodann an den anderen Hähnen zu schaffen. Nach einer halben Stunde jedoch ist der erste geköpfte Hahn noch immer nicht zur Ruhe gekommen. Besonders eigenartig fand er, dass er auch ohne Kopf und Schnabel Anstalten machte, auf dem Boden herumzupicken. Am nächsten Morgen war seine Verwunderung noch größer: Der Hahn hatte seine Schlafposition eingenommen, den Phantomkopf unter den Flügel geklemmt, atmete und schlief ruhig.

Da beschloss der Bauer, seinem Hahn den Namen „Mike“ zu geben. Er gab ihm eine Chance und fing an, ihn zu füttern. Dazu nutzte er eine Pipette, mit der er Mike ein paar Körner sowie Wasser in die Speiseröhre schob. Er setzte nun darauf, dass der Magen von Mike die Körner kleinbekommen würde. Mike hatte dies alles ohne Probleme über sich ergehen lassen und mischte sich unter seine Kameraden und lebte, als ob nichts gewesen wäre. Auch der Stoffwechsel von Mike schien zu funktionieren.

Dem Bauer wurde der Hahn nach ein paar Tagen etwas unheimlich, also beschloss er, eine ärztliche Untersuchung durchführen zu lassen. Er fuhr mit Mike nach Salt Lake City in eine Universität mit dem Fachbereich Veterinärmedizin. Dort kam dann zum einen die Anatomie von Hühnervögeln ins Spiel sowie – erneut – seine Schwiegermutter.

Mike schaffte es bis ins „Guinness“-Buch

Wieso kam also die Schwiegermutter wieder ins Spiel? Ganz einfach: Olsen wusste von ihrer Vorliebe für gebratenen Hühnerkragen. Deshalb setzte Olsen am besagten Abend das Messer besonders hoch unter dem Kopf an, damit er noch viel Hals retten konnte. Bei einem Gallus gallus domesticus sitzt das Großhirn allerdings äußerst weit unten. Auf dem OP-Tisch stellte sich letztlich heraus, dass noch ein Teil des Großhirns am Körper drangeblieben war. Mittlerweile war es jedoch ziemlich unkenntlich nach unten zwischen Luft- und Speiseröhre gesackt. Die Mediziner fanden dort sogar noch ein Ohr, welches ebenfalls noch intakt war.

Somit war der Hype um Mike nun nicht mehr zu halten. Sämtliche Reportagen feierten ihn als Star und auch das „Guinness“-Buch der Rekorde kürte ihn zum offiziellen Champion. Von da an setzte Mike seinen Fuß ins Showbusiness. Zunächst fing es mit kleineren Auftritten auf Jahrmärkten an. Hierfür zahlten die Besucher 25 Cent für einmal Mike anschauen. Als Nächstes folgten Auftritte auf verschiedenen Varieté-Bühnen zwischen Los Angeles und New York. Olsen kassierte Gagen von über 4.500 Dollar im Monat.

Der Hahn Mike hatte selbst wenig von seinem Ruhm. Zumindest konnte er etwas mehr Gewicht erlangen. Äußerst lästig war allerdings das gelegentliche Gurgeln. Mit einer Pipette saugte Olsen dem Hahn Flüssigkeit aus der Luftröhre. Eines Abends allerdings, als Olsen und Mike in einem Motel übernachteten, war die Pipette verloren gegangen. Der Bauer konnte seinem Hahn dann nicht mehr helfen und Mike starb seinen zweiten Tod. Er wurde sieben Jahre alt; mit Kopf hätte er dieses Alter wohl kaum erreicht.

Welche Nachteile hat Pflanzenkohle? Erklärung, Bedeutung, Definition


Pflanzenkohle wird aus pflanzlichen Rohstoffen gewonnen und ist sehr porös. Grundlage für die Herstellung können Zweige und Äste von Hecken-, Baum- oder Grasschnitt sein. Andererseits können für die Herstellung auch andere pflanzliche Rohstoffe wie beispielsweise Getreidespelzen und Zellulosefasern verwendet werden.

Die Pflanzenkohle entsteht durch die sogenannte Pyrolyse. Hierzu werden die organischen Rohstoffe bei einer Temperatur zwischen 500 und 600° Celsius erhitzt und unter Sauerstoffentzug in ihre festen und gasförmigen Bestandteile zerlegt. Entweder wendet man dieses Verfahren in einem eigens dafür ausgekleideten Erdloch an oder in einem speziellen Ofen, der sich „Kon-Tiki“ nennt. Erfolgt die Herstellung professionell, geschieht das in speziellen industriellen Anlagen.

Das Prinzip der Herstellung ist aber in allen Fällen gleich. Durch den Entzug des Sauerstoffs und der hohen Temperatur werden die organischen Stoffe langsam verkohlt. Das kann man sich so ähnlich wie Grillkohle vorstellen, sollte aber keinesfalls vertauscht oder verwechselt werden. Beides kann nicht im rohen Zustand als Dünger verwendet werden. Wenn Holz verkohlt, können sogar giftige Kohlenstoffverbindungen sowie Dioxine freigesetzt werden.

Welche Nachteile hat Pflanzenkohle? Erklärung, Bedeutung, Definition

Vor allem bei unsachgemäßem Gebrauch können die Nachteile von Pflanzenkohle besonders zum Tragen kommen. Fatal kann es auch sein, von Anfang an mit schlechter Kohle zu arbeiten. Pflanzenkohle funktioniert in etwa so, wie ein Akku. In ihr werden Nährstoffe aufgenommen und festgehalten. Pflanzen können sich dann daran bei Bedarf bedienen. Wird die Pflanzenkohle vor Gebrauch mit Nährstoffen angereichert, wird sozusagen der Akku aufgeladen.

Wer Pflanzenkohle einfach so in den Boden bringt, ohne sie vorher mit Nährstoffen anzureichern, der riskiert fatale Folgen für den Boden. Dann nimmt die Pflanzenkohle ihre Nährstoffe nämlich aus dem Boden. Der eigentlichen Pflanze stehen diese Nährstoffe dann nur noch zweitrangig zur Verfügung. Zwar wird sich aller Voraussicht nach die Pflanze in der nächsten Saison davon erholen, allerdings hat man auf kurze Sicht erst einmal einen Nachteil. Um diesem Nachteil aus dem Weg zu gehen, kann die Pflanzenkohle vor Einsatz im heimischen Garten mit einem bestimmten Dünger versehen werden, damit sie genügend Nährstoffe erhält.

Ein weiterer Nachteil von Pflanzenkohle kann sein, wenn man zu Hause einen sehr guten und nährstoffreichen Boden besitzt. So kann es passieren, dass die Pflanzenkohle überhaupt keinen Effekt zeigt, sondern eher wie Humus wirkt. Zwar ist dies kein großer Nachteil, jedoch wird man auch keine sonderlichen Veränderungen wahrnehmen.

Da die Pflanzenkohle sehr stabil ist, verbleibt sie auch lange im Boden. Wer jedoch auf minderwertige oder gar belastete Kohle zurückgreift, riskiert damit schwerwiegende Probleme für seine Pflanzen. Da die Pflanzenkohle überwiegend aus Rohstoffen hergestellt wird, kann sie auch mit einigen Schadstoffen belastet sein. Diese können wiederum beim Verzehr einiger Pflanzen Probleme machen. In einigen Fällen kann die Pflanzenkohle diese Stoffe auch selbst binden, wodurch sich das Problem manchmal auch von allein lösen kann. Wer die Pflanzenkohle selbst herstellt, dem kann es passieren, dass der Ascheanteil zu hoch ausfällt. Die Asche besitzt einen sehr hohen pH-Wert, welcher für einige Pflanzen schädlich sein kann.

Möchte man mit Pflanzenkohle experimentieren, ist es also entscheidend, die Kohle vor dem Einsatz mit Mikroorganismen und Nährstoffen anzureichern. Unterlässt man dies, erleben Landwirte und Gärtner genau den Umkehreffekt. Die Pflanzenkohle wird alle um sie herumliegenden Nährstoffe aus dem Boden entnehmen und speichern. Deshalb sollte reine Pflanzenkohle nicht direkt auf dem Feld oder im Garten ausgebracht werden. Selbst geringe Mengen Pflanzenkohle können schon genau den gegenteiligen Effekt herbeiführen.

Wann wurde der Airbag erfunden? Erklärung, Geschichte


Am 06.10.1951 war es Walter Lindner aus Deutschland, der seine Erfindung zum Patent anmeldete. Dabei handelte es sich um einen aufblasbaren Behälter, der sich im Falle von Gefahr automatisch aufbläst. Der aus München stammende Lindner betitelte seine Erfindung allerdings als Einrichtung zum Schutz vor Insassen in Fahrzeugen bei Zusammenstößen. Die Ähnlichkeit der Beschreibungen ähneln noch immer den späteren Airbags; dennoch erwies sich zur damaligen Zeit die Umsetzung von der Idee in die Praxis als ziemlich kompliziert. Noch immer gibt es gewisse Defizite, wie zum Beispiel:

  • bei der erforderlichen Reißfestigkeit der Hülle,
  • bei der Sensorik zum Auslösen und
  • bei der Druckerzeugung zum blitzschnellen Befüllen des Airbags.

Schon seit dem Jahr 1966 beschäftigte sich die heutige Mercedes-Benz AG mit dem Airbag. Im Jahr 1980 wurde die erste Limousine der S-Klasse mit einem kombinierten System von Gurtstraffer und Fahrerairbag preisgegeben. Auf der IAMS (Amsterdam International Motor Show) erfolgte dann im Februar 1981 die öffentliche Weltpremiere dieses Systems. Erfunden hat Mercedes den Airbag zwar nicht, dennoch legten sie den serientauglichen Grundstein für die heutigen Airbags.

Erstes Modell mit Airbag erschien in den USA

Aufgrund der hohen Anzahl an Todesfälle Anfang der 1970er Jahre in den USA führten diese zu mehr Insassenschutz in Autos. Eine erste Antwort darauf lieferte General Motors: das „Air Cushion Restraint System“, kurz ACRS. GM bot diese Variante ab dem Modelljahr 1974 in einigen Marken wie beispielsweise Buick oder Cadillac an. Natürlich nur gegen einen Aufpreis.

Vor allem ging es auch dabei darum, den sogenannten Dreipunktgurt entbehrlich zu machen, der von Autofahrern oftmals als sehr unangenehm und unbequem empfunden wurde. Zum System gehörten damals nur ein Kniepolster sowie ein Beckengurt. Hierin liegt der entscheidende Unterschied zu dem Prinzip von Daimler, welches heute noch gültig ist. Der Airbag ist eine Ergänzung zum Dreipunktgurt.

Schon nach zwei Jahren verschwand das Serienauto mit dem ersten Airbag wieder aus dem Programm von General Motors. Dies lag nicht zuletzt an der sehr kostspieligen und aufwendigen Wartung. Viele Besitzer solcher Autos ließen später sogar das System deaktivieren und Dreipunktgurte einbauen. Für General Motors hat es sich zudem sowieso wirtschaftlich nicht rentiert, da keine hohen Bestellzahlen dieser Modelle bekannt sind.

Der Luftsack darf nicht platzen

Trotz allem gab es immer noch einige Probleme, wie beispielsweise das extrem schnelle Aufblasen eines Airbags, was innerhalb von 30 Millisekunden passieren sollte. Der Durchbruch der schnellen Gaserzeugung stammte dann letztlich aus dem System von Raketenantrieben, die einen Feststoff-Treibsatz verwenden. Der Treibstoff des Airbags fußte also auf einer Mischung aus Natriumazid. Die Firma Bayer-Chemie entwickelte dann einen Airbag-Gasgenerator. Dieser erzeugte nach der Zündung reinen Stickstoff und war somit unschädlich für den Insassen.

Ziel war es, den Luftsack so öffnen zu lassen, dass er bei einem Aufprall nicht platzt. Die Lösung war dabei Polyamid, welches heute wesentlich dünner und leichter war als noch vor 40 Jahren. Außerdem musste der Luftsack auch in einem sich drehenden Lenkrad sicher verstaut werden, ohne dass dies die Funktionalität des Airbags beeinflusst. Sensoren waren dazu da, um zu unterscheiden, ob es sich um einen Aufprall ab 20 km/h oder nur einen leichten Parkrempler handelt. Die Firma Bosch war an der Entwicklung ebenfalls beteiligt und die erste weltweit elektronische Airbag-Steuerung konnte in Serie gehen. Bis zur optimalen Lösung vergingen seit Forschungsbeginn gut 15 Jahre.

Was ist eine KI-Apokalypse? Erklärung, Bedeutung, Definition


Immer mehr Lebensbereiche des Menschen werden durch Künstliche-Intelligenz-Anwendungen (KI) beeinflusst und reguliert. Weltweit findet ein regelrechtes Wettrüsten im Bereich KI statt. Viele Wissenschaftler sind sich darüber einig, dass unregulierte KI große Gefahren für die Menschheit birgt. Die Rufe nach Regulierung von KI-Anwendungen werden daher immer lauter.

Szenarieren einer KI-Apokalypse:

Um eine solche Katastrophe zu beschreiben, fehlt den meisten noch die Vorstellungskraft. Wer Wissenschaftler zu diesem Thema befragt, erhält nur vage Antworten. Sie sprechen von drei möglichen Szenarien:

1. KI-Systeme erlangen eines Tages ein Bewusstsein, ähnlich dem menschlichen Bewusstsein. Zu diesem Zeitpunkt wären sie den Menschen schon weit überlegen, sodass es für sie ein leichtes wäre, die Intelligenz des Menschen zu überlisten. Sie würden Abschaltungsversuch von vorne herein unterbinden.

2. In einem zweiten Szenario würden computergesteuerte KI-Waffen dazu genutzt, systemrelevante Infrastrukturen ganzer Kontinente zu zerstören. Es käme zu einem Cyber-War, in dem KI-Systeme problemlos biologische und synthetische Kampfstoffe entwickeln könnten. Die Auswirkungen wären wesentlich schlimmer als die von Atomwaffen.

3. Auch das dritte Weltuntergangs-Szenario ist wenig beruhigend. Demnach würden KI- gesteuerte Systeme Fake-Nachrichten, falsche Videos und Fotos verbreiten und damit in den Gesellschaften extrem viel Hass und Unruhe erzeugen. Es käme zu bürgerkriegsähnlichen Zuständen, die letztendlich auch die Zivilisation zerstören würden. Ausgelöst durch KI würde sich der Mensch selbst vernichten.

Egal, ob man daran glaubt, dass eines dieser Szenarien eintreten wird, oder nicht, beängstigend ist auf jeden Fall, in welcher Geschwindigkeit sich die KI-Technologie entwickelt. Die bereits im Sommer 2023 frei verfügbaren KI-Anwendungen sind fähig, sich selbst zu trainieren und können miteinander kommunizieren. Sie lernen voneinander und werden der menschlichen Intelligenz bald deutlich überlegen sein. KI-Systeme zu stoppen, ist nur möglich, wenn weltweite Einigkeit über eine Regulierung und Ächtung von KI-Waffensystemen besteht. Alle Nationen müssten sich zur gegenseitigen Kontrolle bereit erklären.

Was ist eine KI-Apokalypse? Erklärung, Bedeutung, Definition

Die KI-Apocalypse ist ein Zukunftsszenario, in dem der Mensch durch künstliche Intelligenzen abgelöst wird und seinen Einfluss auf der Erde verliert. Über die Wahrscheinlichkeit, ob und wann dieses Szenario eintreten wird, besteht jedoch große Uneinigkeit. Zudem gibt es kaum Modelle darüber, wie man künstliche Intelligenz regulieren könnte. Längst sprechen auch Sicherheitsunternehmen davon, dass ein hohes Risiko für die Vernichtung der Menschheit durch KI besteht und die Politik sofort handeln müsse. Dieses Thema solle gegenüber Szenarien eines möglichen Atomkrieges oder von neuen Pandemien Priorität haben.

Derartige Warnungen und Appelle an die Politik gab es in den vergangenen Jahren vermehrt. Während anfänglich eher unbedeutende Persönlichkeiten der Gesellschaft dazu Stellung bezogen, sind es mittlerweile führende Köpfe in Unternehmen, die KI-Systeme entwickeln. Es ist sogar so weit gekommen, dass Fachleute vor ihren eigenen Entwicklungen warnen. Einer der Skeptiker, die großes Gehör finden, ist Sam Altman, Chef des Unternehmens Open AI.

In einem Statement von 2022 spricht er davon, dass die Software Chat GPT, die gerade Furore macht, zu einem Wettrüsten geführt hat, das seinesgleichen sucht. Etwas derartiges habe es im Silicon Valley niemals zuvor gegeben. Schon 2015 warnte Elon Musk, Chef der Unternehmen Tesla und Space X, davor, dass KI das Potenzial habe, gefährlicher als Atombomben zu werden. Was man damals weniger ernst nahm, wird heute auch von führenden Wissenschaftlern als sehr realistisch eingestuft. Sie sehen die größte Gefahr darin, das KI nicht mehr zu kontrollieren ist und die Menschheit auslöschen könnte. Einige sprechen davon, dass die Gefahr der Auslöschung der Menschheit durch fehlgeleitete KI-Systeme eine Million mal größer ist als sechs Richtige im Lotto. Deshalb drängen sie auf eine rasche Regulierung von KI-Systemen seitens der Politik.

Warum war 536 das schlimmste Jahr der Geschichte? Erklärung, Bedeutung, Definition


Geschichtswissenschaftler sind sich heute einig, dass es im Jahr 536 eine Reihe von Naturkatastrophen gab und es deshalb ohne Bedenken als das schlimmste Jahr der Geschichte bezeichnet werden kann. Auslöser ist ein Naturereignis, das zu einer Kettenreaktion führte und in ganz Mitteleuropa für Jahrzehnte dramatische Folgen hatte.

Warum war 536 das schlimmste Jahr der Geschichte? Erklärung, Bedeutung, Definition

Im frühen Mittelalter hatten die Menschen noch nicht das Wissen und das Verständnis für naturwissenschaftliche Phänomene, sondern erklärten sich vor allem ungewöhnliche Wetterphänomene mit dem Wirken göttlicher Mächte. Auf mittelalterlichen Gemälden vom Ende des 16. Jahrhunderts, beispielsweise dem Gemälde „Triumph des Todes“ von Pieter Brueghel d. Ä., sind apokalyptische Zustände dargestellt, die von dem riesigen Ausmaß und der großen Angst der Bevölkerung vor Naturgewalten zeugen.

Es gibt noch weitere Ereignisse in der Geschichte, von denen jedes einzelne als das schlimmste auf Erden angesehen werden könnte. Nicht zuletzt sind es der Beginn des ersten und zweiten Weltkrieges, die die Welt auf den Kopf stellten. Auch die Pest im Jahr 1349, der gut die Hälfte der europäischen Bevölkerung zum Opfer fiel, ist zweifellos ein ähnlich dramatisches Ereignis. DAie Pest hatte ebenso verheerende Folgen wie die Spanische Grippe im Jahr 1918. Man geht davon aus, dass die Seuche 100 Millionen Menschen tötete.

Dennoch gilt das Jahr 536 für viele Historiker als das schlimmste aller Zeiten, denn hier kumulierten sich verschiedene Ereignisse, so dass die Menschen jahrzehntelang unter den Folgen leiden mussten. Hinzu kommt, dass mehrere Zeitzeugen und Geschichtsschreiber das Jahr 536 als den Beginn des kältesten und dunkelsten Jahrzehnts der letzten 2.300 Jahre auf der Nordhalbkugel beschreiben. Das sind einmal der Geschichtsschreiber Prokopios, außerdem der Römer Flavius Cassiodor und Michael der Syrer.

Sie berichten übereinstimmend von einer dramatischen Zeit mit sehr niedrigen Temperaturen, Schneefall im Sommer und von vielen Jahren großer Missernten. Die Sonne hatte keinerlei Strahlkraft und wirkte verfinstert. Man sah darin ein Vorzeichen eines großen Übels, das den Menschen den Tod bringt. Die Vorahnung bestätigte sich. Mittlerweile kann man die Ursachen der Ereignisse, die ungefähr die Hälfte der Bevölkerung des oströmischen Reiches tötete, wissenschaftlich erklären, wenn auch nicht zu 100% belegen.

Vulkanausbrüche als Ursache Nr. 1

Den Beginn des katastrophenreichen Jahrzehnts bezeichnen Klimahistoriker und Geschichtswissenschaftler heute als die „Wetterannomalie von 535/36“. Anhand untersuchter Baumringe konnten sie 1990 belegen, dass der Sommer des Jahres 536 (und noch viele Jahre danach) etwa 2,5 °C kälter war als sonst üblich. Als Ursache der anhaltenden Verdunklung des Himmels und der damit zusammenhängenden Kälteperiode sah man bis vor wenigen Jahren eine Reihe von Asteroidenenschlägen in Australien und mehrere Vulkanausbrüche an, wobei nicht klar war, wo diese stattgefunden haben könnten. Doch 2018 kam es zu bahnbrechenden Erkenntnissen, die deutlich mehr Aufschluss über die Ereignisse gaben und sich auch geografisch eingrenzen lassen.

Jahr 536: Neueste Erkenntnisse im Jahr 2018

Einen neuen Versuch zur Klärung der Ursachen der Verdunklung von 536 und der damit zusammenhängenden Missernten unternahm ein Team um den Glaziologen Paul Mayewski von der Universität Maine (USA). Sie gehen davon aus, dass der Vulkanausbruch in Island am Jahresanfang 36 stattfand und ungeheure Aschemengen über die nördliche Hemisphäre verteilt haben muss. Kurz darauf, nämlich in den Jahren 540 und 547, fanden weitere heftige Vulkanausbrüche auf Island statt.

Die These der Wissenschaftler wurde durch Untersuchungen von polaren Eiskernen aus der Antarktis und aus Grönland untermauert. Diese Eiskerne enthielten Spuren von Schwefel und weiteren Substanzen, die man mit den Baumringen abglich. Forscher der Universität Bern wiederum bestätigten, dass jeder außergewöhnlich kalte Sommer der letzten zweieinhalb Jahrtausende mit einem Vulkanausbruch einher ging.

Spuren aus dem ewigen Eis als wissenschaftlicher Beleg

Für ihre neuesten Forschungen suchten Mayewski und sein Team nach Eruptionsspuren am Gletscher des 4453 m hohen Colle Gnifetti (Schweizer Alpen). Aus einem 72 m langen Eiskern, der 2013 aus dem Gletscher entnommen worden war, konnten sie wertvolle Klimainformationen ablesen.

Neueste Bildgebungsverfahren machten es möglich, winzig kleine Partikel vulkanischen Glases zu identifizieren und sie dem Jahr 536 zuzuschreiben. Die chemische Zusammensetzung der Substanzen ist so eindeutig wie ein Fingerabdruck. So liegt die Vermutung mehr als nahe, dass die Teilchen in diesem Eiskern vom einem isländischen Vulkan stammen uns sich in ganz Mitteleuropa verbreitet haben. Diese Untersuchungsmethode wurde mittlerweile auch von Wissenschaftlern der Universität Nottingham angewendet und als wirksam bestätigt.

Welche Vorteile hat Pflanzenkohle? Erklärung, Bedeutung, Definition


Die hervorragenden Eigenschaften von Kohle aus Pflanzen waren schon im Altertum bekannt. Selbst die Inkas nutzten Pflanzenkohle, um einen besonders nährstoffreichen Mutterboden (Schwarzerde) herzustellen. Pflanzenkohle ist ein absolut natürliches Produkt und eine sehr gute Möglichkeit zur Bodenverbesserung. Sie besteht aus verkohlter Biomasse, die zum größten Teil von Pflanzenresten stammt. Der Vorgang nennt sich Pyrolyse. Viele professionelle wie Hobbygärtner schwören auf Pflanzenkohle, da sie sich sehr vielseitig verwenden lässt. Optisch unterscheidet sich Pflanzenkohle kaum von anderer Kohle, aber sie ist, sofern sie ein anerkanntes Biosiegel trägt, gänzlich schadstofffrei und unterstützt bei der Schaffung und Erhaltung einer gesünderen Umwelt.

Pflanzenkohle lockert den Boden auf und sorgt für eine gute Belüftung mit Sauerstoff. In Kombination mit Kompost wird die Bildung von Mikroorganismen gefördert, sodass ein nährstoffreicher Humus entsteht. So macht Pflanzenkohle aus einem einfachen Boden ein fruchtbares Substrat.

Die besten Eigenschaften von Pflanzenkohle: Vorteile

  • dauerhafte Nährstoffspeicherung
  • starke Bindung von CO₂
  • kaum Nährstoffverlust
  • Bodenstruktur-Verbesserung
  • hohe Wasserhaltefähigkeit
  • Anreicherung von Humus
  • Aktivierung von Kleinsttieren im Boden
  • Steigerung der Biodiversität
  • höhere Erträge in der Landwirtschaft

Pflanzenkohle als Futtermittel

In der EU darf Pflanzenkohle Pferden, Rindern, Schweinen und Geflügel als Futter angeboten werden. Dieses alte Hausmittel reguliert die Verdauung der Tiere, denn es kann Durchfälle lindern und bei Verstopfung anregen. Pflanzenkohle stärkt das Immunsystem und die Gesundheit der Tiere, indem sie Schadstoffe im Verdauungstrakt an sich bindet. Außerdem erhöht sie die Hygiene im Stall.

Großer Nutzen von Pflanzenkohle in der Landwirtschaft

Pflanzenkohle hat ungeheures Potenzial für die Landwirtschaft. Die veränderten technischen Bedingungen in der Landwirtschaft, aber vor allem die folgenreichen Wetterphänomene durch den Klimawandel machen auch unseren Böden zu schaffen. Anhaltende Trockenheit ist ein ebenso großer Stressfaktor wie Dauerniederschläge und Überschwemmungen. Infolge dieser Veränderungen steigen auch die Ansprüche an unsere Böden. Pflanzenkohle kann hier echte Hilfe leisten. Sie hat die Fähigkeit, den Geruch von Gülle zu neutralisieren. Damit verbessert sich das Stallklima. Auch das Leben der Tiere im Stall wird erleichtert, denn Pflanzenkohle wertet den Mist auf, der später wiederum als optimierter Dünger eingesetzt werden kann. Tonreiche, sehr verdichtete Böden erfahren durch Pflanzenkohle eine wunderbare Auflockerung, sodass sich ein größeres Spektrum an Pflanzen anbauen lässt. Auch sandige Böden profitieren, denn werden sie mit Pflanzenkohle angereichert, speichern sie mehr Wasser.

Pflanzenkohle als Mittel gegen den Treibhauseffekt

Wissenschaftler versprechen sich aber noch mehr: Pflanzenkohle soll der Entstehung von Treibhausgasen entgegenwirken und damit die globale Erwärmung reduzieren können. Das liegt daran, dass Pflanzenkohle der Atmosphäre CO₂ entziehen kann – und zwar dauerhaft. 20-60 % des der Luft entzogene Kohlendioxid können dank Pflanzenkohle dauerhaft im Boden (als reiner Kohlenstoff) gebunden werden. Dagegen wird beim Verrotten von Grünschnitt, Laub und anderen Gartenabfällen erneut Kohlendioxid freigesetzt. Die Umwelt profitiert also nicht.

Wie erklären Wissenschaftler die Abschwächung des Treibhauseffektes durch Pflanzenkohle?

Das ist nur möglich, weil Pflanzenkohle extrem viele Poren besitzt, die eine sehr große spezifische Oberfläche erzeugen (die spezifische Oberfläche von einem Gramm Pflanzenkohle kann bis zu 300 m² betragen). Die Poren sorgen dafür, dass der biologische Rohstoff das Fünffache seines Eigengewichtes an Wasser, einschließlich der darin enthaltenen Nährstoffe, speichern kann. Die enorme Wasserspeicher-Fähigkeit sorgt für eine Steigerung der Erträge, was sich vor allem in trockenen Regionen positiv bemerkbar macht. Außerdem ist Pflanzenkohle in der Lage, Schadstoffe zu binden. Das wiederum ermöglicht die Sanierung von belasteten Böden. Zudem erhöht Pflanzenkohle die Biodervisität und ermöglicht Nützlingen die Ansiedlung.

Für den heimischen Gebrauch kann Pflanzenkohle auch selbst hergestellt werden. Man benötigt dafür lediglich einen speziellen Kocher. Der ist trichterförmig konstruiert und hat Ähnlichkeit mit einem Campingkocher.

Wie lange dauert eine Rezession? Erklärung, Bedeutung, Definition


Rezessionen sind ein unvermeidbarer Teil des Wirtschaftszyklus und haben trotzdem immer wieder einen erheblichen Einfluss auf Volkswirtschaften. Ganz grob gesagt handelt es sich bei einer Rezession um einen wirtschaftlichen Abschwung, der von Massenarbeitslosigkeit, Pleitewellen und niedriger, technologischer Innovation und geringer Investitionsfreude (privat oder öffentlich) geprägt ist. In Zeiten von Rezessionen beschäftigen sich daher viele Menschen mit der Frage, wann die jeweilige Rezession denn endet? Doch auch außerhalb von Wirtschaftskrisen beschäftigt man sich immer wieder mit den Auswirkungen und zeitlichen Aspekten von Rezessionen.

Der nun folgende Artikel soll sich daher einmal mit den Thematiken Rezession und der Dauer ebendieser beschäftigen. Dabei soll zunächst eine detaillierte Begriffsdefinition, inklusive Merkmale einer Rezession angeführt werden, bevor Beispiele, Gegenmaßnahmen und Prognosen für Rezessionen aufgezeigt werden.

Definition und Merkmale einer Rezession

Der Begriff „Rezession“ stammt vom lateinischen Wort „recessio“ (zu Deutsch: „Rückgang“ oder „Rückzug“) ab. Gemeint ist damit der wirtschaftliche Rückgang in einer bestimmten Phase. Eine Rezession ist Teil eines Wirtschaftszyklus, bei dem sich Rezession und Expansion (wirtschaftlicher Aufschwung) abwechseln. Eine Rezession tritt immer dann ein, wenn sich die Wirtschaft, ausgehend von einer Hochkonjunktur (auch „Boom“ genannt) in einem Abschwung in Richtung Tiefphase (auch „Depression“ genannt) bewegt.

Eine Rezession markiert daher eine wirtschaftliche Abschwächung, die von einer rückläufigen wirtschaftlichen Aktivität geprägt ist. Sie kann sowohl auf nationaler, als auch auf internationaler Ebene verzeichnet werden. Ganz konkret bezieht sich eine Rezession jedoch immer auf einen signifikanten Rückgang des Bruttoinlandsprodukts (auch „BIP“ genannt). Weitere Merkmale einer Rezession sind steigende Arbeitslosenzahlen, sinkende Unternehmensgewinne sowie Nachlasse in Nachfrage und Investitionen. Folglich sinken in einer Rezession auch die staatlichen Steuereinnahmen. Ganz allgemein kann bei einer Rezession also von einer Phase der Unsicherheit, des Produktionsrückgangs und damit des Lebensstandards einer Volkswirtschaft gesprochen werden.

Welche Faktoren beeinflussen die Dauer einer Rezession?

Wie lang eine Rezession im konkreten Fall dauert, das hängt von einer Vielzahl an Faktoren ab. Wirtschaftliche Ursachen sind die häufigsten Gründe für das Auftreten von Rezessionen. Handelt es sich jedoch um strukturelle Probleme, so kann die Erholung von einer Rezession gegebenenfalls länger dauern. Wirtschaftliche Reformen und Anpassungen von politischer Seite sind dann meist das Mittel der Wahl. Ebenfalls haben geld- und fiskalpolitische Maßnahmen einen großen Einfluss darauf, wie lang eine Rezession dauern kann. Eine lockere Geldpolitik (zum Beispiel in Form niedriger Leitzinsen) kann einer Rezession entgegenwirken, da tendenziell wieder mehr in die Wirtschaft investiert wird.

Nicht immer muss es sich jedoch um wirtschaftliche Gründe handeln, die eine Rezession verursachen. Auch Naturkatastrophen, geopolitische Spannungen oder internationale Krisen können eine Rezession (als externe Faktoren) befeuern. Schlussendlich ist die Wirkweise der Mechanismen, die für eine Rezession sorgen können, überaus komplex und unterscheidet sich von Fall zu Fall.

Historische Beispiele für Rezessionen

Betrachtet man die letzten 150 Jahre der Weltwirtschaft, so kam es im Schnitt alle 7 bis 10 Jahre zu einer Rezession. Somit stellt eine Rezession an sich nichts Ungewöhnliches dar und ist Teil des wirtschaftlichen Lebens. Jedoch gleicht keine Rezession der anderen und stellenweise können die Ausmaße einer Rezession von Fall zu Fall stark variieren. In den nun folgenden Unterabschnitten soll daher einmal auf die schlimmsten Rezessionen der letzten 100 Jahre und deren Auswirkungen eingegangen werden.

Große Depression der 1930er-Jahre

Die „Große Depression“ gilt als eine der schwersten Wirtschafts- und Finanzkrisen der Neuzeit. Sie begann am „Schwarzen Freitag“, der sich am 25. Oktober 1929 ereignete. An diesem Tag brach die Weltwirtschaft zusammen – einige Aktien erlitten bis zu 99 Prozent Verluste. Es kam infolgedessen zum Zusammenbruch der Industrieproduktion und des internationalen Handels. Die Auswirkungen zeigten sich aber erst in den Monaten und Jahren danach. Massenarbeitslosigkeit, Bankenpleiten sowie eine drastische Reduzierung des Bruttoinlandsprodukts sämtlicher Industrienationen waren die Folge. Die „Große Depression“ stellt gleichzeitig den Wendepunkt für die Neubewertung der Rolle des Staates zur Wirtschaftsstabilisierung dar.

Finanzkrise von 2008

Von nicht ganz so großer Tragweite wie die „Große Depression“, aber dennoch als schwerste Wirtschaftskrise des bisherigen, 21. Jahrhunderts kann die „Finanzkrise von 2008“ als weiteres Beispiel angeführt werden. Sie wurde durch riskante Kreditpraktiken namhafter Banken, durch übermäßige Verschuldung und dem Zusammenbruch des US-Immobilienmarkts verursacht. Nebst eines massiven Börsenrückgangs waren zahlreiche Bankenpleiten und der Verlust des Vertrauens des Durchschnittsbürgers in die Bankenwelt die Folge. Durch die „Finanzkrise von 2008“ kam es zu weitreichenden Reformen im Finanzsektor.

Maßnahmen zur Bewältigung von Rezessionen

Zur Bewältigung von wirtschaftlichen Rezessionen gibt es eine Fülle an Gegenmaßnahmen, die an dieser Stelle einmal aufgelistet werden sollen:

  • Geldpolitische Maßnahmen (wie zum Beispiel Leitzinssenkungen)
  • Fiskalpolitische Maßnahmen (wie zum Beispiel Steuersenkungen)
  • Förderung von Investitionsbereitschaft
  • Ausweitung sozialer Sicherungssysteme (wie zum Beispiel Arbeitslosengeld oder Sozialhilfe)
  • Förderung des internationalen Handels
  • Förderung von Innovation und Forschung (um neue Wirtschaftszweige zu erschließen)
  • Strukturreformen (für mehr Wettbewerbsfähigkeit der eigenen Wirtschaft)
  • Stärkung des Vertrauens in die Wirtschaft (durch gezielte Kommunikationskampagnen der Regierungen)

Zwar gibt es eine Vielzahl an Gegenmaßnahmen im Falle einer Rezession, dennoch ist eine Rezession an sich früher oder später unvermeidbar.

Prognosen für zukünftige Rezessionen

Da wirtschaftliche Vorhersagen auf komplexen Modellen und Analysen basieren sowie auf historische Daten und Indikatoren zurückgreifen, lassen sich zukünftige Rezessionen nicht vorhersagen. Wäre dies der Fall, so würde das Wissen um eine bevorstehende Rezession als solches bereits eine weitere Rezession auslösen. Das genaue Timing und die Schwere von zukünftiger Rezession ist damit unbekannt und hängt von einer Vielzahl wirtschaftlicher Faktoren ab, die sich ebenfalls ändern. Grundsätzlich wird es in Zukunft jedoch Auslöser für Rezessionen geben, die es bislang vielleicht noch nicht gab.

Fazit zum Thema „Rezession“

Bei Rezessionen handelt es sich also um unvermeidliche Phasen im Verlauf eines Wirtschaftszyklus, die den wirtschaftlichen Abschwung markieren. Sie haben erhebliche Auswirkungen auf die Wirtschaft und den Einzelnen, lassen sich aber nicht vorhersagen oder quantifizieren. Die Dauer einer Rezession ist daher immer fallspezifisch und kann durch diverse Gegenmechanismen verkürzt werden. Im Schnitt kommt es alle 7 bis 10 Jahre zu einer Rezession, die dann für sich gesehen durchschnittlich zwischen 2 und 5 Jahren andauern kann.

Mit dem Begriff „Rezession“ sind zum Beispiel die Begrifflichkeiten „Expansion“, „Boom“ und „Depression“ verwandt, die ebenso Teil eines Wirtschaftszyklus sind. Während die „Expansion“ den wirtschaftlichen Aufschwung bezeichnet, so stellt der „Boom“ die wirtschaftliche Hochphase und die „Depression“ die wirtschaftliche Tiefphase dar.

Was sind Neophyten? Bedeutung, Eigenschaften, Erklärung, Definition


Als Neophyten werden pflanzliche Einwanderer bezeichnet. Sie breiten sich dort aus, wo sie sonst nicht heimisch waren und etablieren sich an ihrem neuen Standort. Die Verbreitung der Neophyten passiert oftmals unabsichtlich durch den Mensch. Als blinde Passagiere kommen Neophyten aufgrund des weltweiten Warenverkehrs in fremde Gebiete.

Was sind Neophyten? Bedeutung, Eigenschaften, Erklärung, Definition

Schon längere Zeit bei uns heimische Pflanzen, die aber dennoch in der Jungsteinzeit oder durch den Handel der Römer zu uns kamen, nennt man Archäophyten. Hierunter fällt beispielsweise die Esskastanie.

Neue Pflanzenarten sind dabei in unserer Pflanzenwelt gar nicht so ungewöhnlich. Die meisten unserer Pflanzenarten sind schon nach der Eiszeit nach Mitteleuropa gekommen. Neben der Esskastanie brachten die Menschen bezüglich des Ackerbaus und dem Getreide auch viele Ackerwildkräuter zu uns, wovon noch heute einige auf der Roten Liste stehen. Das mitteleuropäische Pflanzenreich ist von nicht einheimischen Pflanzenarten geprägt.

Dadurch, dass der internationale Personen- und Warenverkehr immer mehr zunahm und vor allem auch nach der Entdeckung Amerikas, haben sich hier viele fremde Pflanzenarten breit gemacht. Nur die Hälfte der Neophyten, die bei uns leben, wurden absichtlich eingeführt. Dabei handelt es sich bei circa 30 % der Neophyten um reine Zierpflanzen und die restlichen 20 % existieren als forst- und landwirtschaftliche Nutzpflanzen, wie beispielsweise der Mais, die Kartoffel oder die Tomate. Die andere Hälfte der eingeschleppten Neophyten gelang unbeabsichtigt und war in den meisten Fällen eine unerwünschte Beimischung des Saatguts.

Gehen Gefahren von den Neophyten aus?

Mit nur 0,2 % ist der Anteil der gebietsfremden Neophyten relativ klein. Als ökologisch bedenklich werden Arten, wie beispielsweise der Japanische Knöterich und das Indische Springkraut eingestuft. Diese Pflanzen können einen sehr dichten Bestand bilden und drängen heimische Pflanzenarten ab. Für den Menschen stellen zudem Arten wie Riesenbärenklau oder das Beifußblättrige Taubenkraut gesundheitliche Gefahren dar. Insbesondere das Taubenkraut kann für Allergiker plagend sein, da es aggressive Pollen bildet. Sogar Menschen, die bisher noch nicht auf Blütenpollen reagiert haben, können dadurch allergische Reaktionen entwickeln. Symptome wie Schnupfen, Asthma, Atemnot oder Augenbrennen sind dann keine Seltenheit mehr.

Kommt man mit dem Pflanzensaft des Riesenbärenklau in Berührung, kann dieser die Lichtempfindlichkeit der Haut erhöhen. So können schon bei einer nur schwachen Sonneneinstrahlung schmerzende Brandblasen und Rötungen auf der Haut entstehen. Gegen ein solches Gefahrenpotenzial vorzugehen, stellt eine schwierige Aufgabe dar. Bereits etablierte Neophyten lassen sich nur schwer wieder beseitigen. Dennoch bemühen sich lokale Naturschutzvereine mit diversen regelmäßigen Aktionen, diese Schädlinge entweder durch Ausgraben oder Abmähen zu beseitigen. Sollte man im eigenen Umfeld Taubenkraut oder Riesenbärenklau ausfindig machen, sollten diese beseitigt werden. Am besten werden diese mit einem tiefen Spatenstich inklusive Wurzel ausgehoben, noch bevor sie beginnen zu blühen. Da Verbrennungsgefahr besteht, sollte niemals ohne langärmelige Kleidung oder Handschuhe gearbeitet werden.

Auch beim Spaziergang kann man mit Taubenkraut konfrontiert werden. Die Pflanze sollte dann am besten sofort herausgerissen werden. Hierbei sollte ebenfalls der direkte Hautkontakt gemieden werden. Entdeckt man größere Bestände, informiert man am besten die zuständige Gemeinde, so dass diese weitergehende Maßnahmen in die Wege leiten kann.

Wer in einem fremden Land Urlaub macht, sollte niemals Samen oder Pflanzen mitnehmen, die man nicht kennt. Zudem ist in den meisten Ländern die Ausfuhr von Pflanzen ohnehin verboten. Außerdem können die Auswirkungen fremder Arten auf die heimischen Arten nicht weit genug abgeschätzt werden.

Eine Pflanzenart, die insbesondere über Vogelfutter verbreitet wird, ist die Beifuß-Ambrosie. Ihre Pollen können bei Menschen heftige Allergien auslösen. Aktuell befindet sich in Bayern eine recht starke Ausbreitung dieser Neophyte. Damit dieser Pflanzenart Einhalt geboten werden kann, hat das Bayerische Umweltministerium die Aktion „Ambrosiabekämpfung in Bayern“ initiiert.

Vorteile: Welche positiven Auswirkungen können Neophyten haben?

Einige Neophyten können aber auch für ein bestehendes Ökosystem von Vorteil sein. Beispielsweise können so neue Nahrungsnetze zwischen neu angesiedelten und heimischen Pflanzenarten entstehen. Im Sommerflieder aus China sind beispielsweise circa 11 Raupenarten und 43 Tagfalter zu Hause. Der Sommerflieder kann zudem primär im Sommer eine gute Nahrungsquelle für Insekten darstellen. Auch im Spätjahr, wenn die heimische Flora fast keine Blüten mehr zur Verfügung stellt, stellt die Riesenstaude noch eine üppige Nahrungsquelle dar. Die eingewanderte Rosskastanie sowie die einhergehenden Larven der Rosskastanienminiermotte können für die heimischen Kohl- oder Blaumeisen eine wichtige Nahrungsquelle für ihre Jungvögel darstellen.

Was geht noch mit den invasiven Neophyten einher?

Von invasiven Neophyten wird gesprochen, wenn sich Pflanzenarten in Gebieten ansiedeln, in denen sie vorher nicht heimisch waren und dort zu Problemen führen. So können gebietsfremde Pflanzen folgende Probleme mit sich bringen:

  • Die Unterhaltungskosten von Gewässern und Straßen können höher ausfallen.
  • Die Biodiversität nimmt aufgrund der Verdrängung der heimischen Fauna und Flora ab.
  • Es können gesundheitliche Beeinträchtigungen entstehen.
  • Die Forst- und Landwirtschaft erleidet einen finanziellen Ausfall.
  • Bauwerke können beschädigt werden.
  • Wertzerfall, zum Beispiel bei Grundstückspreisen.

Fazit: Nicht alle Neophyten sind schlecht

Man sollte sich stets den Aspekt vor Augen halten, dass nur wenige nicht einheimische Pflanzen das heimische Ökosystem stören. Und noch weniger dieser Arten sind gesundheitsgefährdend. Während in der Eiszeit viele einheimische Arten ausgestorben sind, gibt es noch viel ökologischen Raum für neue Arten. Die Widerstandsfähigkeit des mitteleuropäischen Ökosystems ist im Laufe der Eiszeiten sehr robust gegenüber Einwanderern in der Pflanzen- und Tierwelt geworden. Neue Arten können sich oftmals ohne weitere negative Folgen in unserem Ökosystem etablieren. Schon vor circa 10.000 Jahren wanderten neue Arten nach Mitteleuropa ein. Auch durch den Klimawandel wird dieses Phänomen zusätzlich verstärkt. Schon aufgrund der Erderwärmung kann davon ausgegangen werden, dass sich die Verbreitungsgebiete vieler Arten ausschlaggebend verlagern kann. Deshalb muss sich der Naturschutz in Zukunft vermehrt um die zahlreichen Einwanderer kümmern. Solche Arten, die schon während der Eiszeiten in Mitteleuropa heimisch waren, sollten auch heute von uns toleriert werden.

Was sind Neozoen? Bedeutung, Eigenschaften, Erklärung, Definition


Die Globalisierung und der menschliche Einfluss haben teilweise erschreckenden Einfluss auf die natürlichen Lebensräume von Pflanzen und Tieren. Neozoen stellen diesbezüglich eine besorgniserregende Entwicklung dar, bei der nicht heimische Arten oder Tiere schädliche Auswirkungen auf heimische Ökosysteme haben können. Neozoen werden gebietsfremde, beziehungsweise invasive Arten genannt, die einen negativen Einfluss auf heimische Ökosysteme haben. Dabei handelt es sich beispielsweise um Organismen, die durch menschliche Aktivitäten in fremde Gebiete gelangen, in denen diese ursprünglich nicht beheimatet waren.

Neozoen werden damit als die Eindringlinge im Pflanzen- und Tierreich bezeichnet. Absichtliche Freisetzung, globaler Handel und der Tourismus bringen immer wieder fremde Arten in Gebiete, die diesen dann schutzlos ausgeliefert sind. Das kann mitunter drastische Folgen haben – zum Beispiel die Verdrängung einheimischer Arten.

Vielen Menschen sind Neozoen jedoch nicht bekannt. Der nun folgende Artikel soll sich daher einmal einer detaillierten Begriffsdefinition von „Neozoen“ widmen. Weiterhin sollen die verschiedenen Ursachen, Auswirkungen und Gegenmaßnahmen für Neozoen aufgezeigt werden.

Begriffsdefinition von „Neozoen“

Der Begriff „Neozoen“ stammt aus dem Griechischen und setzt sich aus dem Adjektiv „neo“ (zu Deutsch: „neu“) und dem Substantiv „zoon“ (zu Deutsch: „Tier“ oder „Lebewesen“) zusammen. Kombiniert bedeutet „Neozoen“ also in etwa so viel wie „neues Lebewesen“. Die an sich recht harmlose Übersetzung wird jedoch für Pflanzen oder Tiere verwendet, die in fremde Ökosysteme gebracht werden und dort potenziell großen Schaden anrichten. Sie werden daher auch als gebietsfremde und invasive Arten bezeichnet. Invasiv bedeutet in diesem Zusammenhang, dass diese in fremden Gebieten einheimische Arten verdrängen oder gar aktiv bekämpfen. Das kann zum Beispiel dahingehend geschehen, dass die Nahrungsmittelgrundlage für heimische Arten entzogen wird oder diese Arten gar selbst gejagt werden.

Ideen zum Konzept der „Neozoen“ gehen auf die 1950er-Jahre zurück. Zu diesem Zeitpunkt wurde sich erstmalig mit der Thematik Auswirkungen nicht einheimischer Arten auf die Umwelt beschäftigt. Der Begriff selbst bezieht sich nicht nur auf Tiere, sondern vor allem auch auf Pflanzen. Neozoen können durch Globalisierung, Welthandel, Waren- oder Personentransport begünstigt werden. Sie haben stark negative Auswirkungen auf die vorherrschende Biodiversität.

Ursachen für das Auftreten von „Neozoen“

Neozoen werden durch unterschiedliche Faktoren begünstigt. Die meisten stehen jedoch in direktem Zusammenhang mit menschlichen Aktivitäten. Zu den Hauptursachen von Neozoen zählen daher die Folgenden:

  • Globalisierung (weltweiter Warentransport, Handel und Personenverkehr begünstigen „blinde Passagiere“ in Form von nicht einheimischen Pflanzen oder Tieren)
  • Pflanzen, Tiere und deren Produkte werden heute weltweit transportiert (zum Beispiel via Schiff, Flugzeug, Eisenbahn oder Fahrzeug)
  • Absichtliche Freisetzungen (zum Beispiel aus ökologischen Gründen)
  • Wirtschaftliche Interessen (zum Beispiel hinsichtlich der Etablierung neuer Jagd- und Fischarten)
  • Umweltveränderungen (zum Beispiel durch Klimawandel oder sich verändernde Lebensräume)

Beispiele von „Neozoen“

Die Verbreitung von Neozoen stellt ein globales Phänomen dar, welches weitreichende Konsequenzen für die Umwelt hat. Gebietsfremde, invasive Arten gibt es zu Wasser, zu Land und in urbanen Gebieten. Innerhalb der nun folgenden Unterabschnitte sollen daher einmal ein paar interessante Beispiele in puncto Neozoen genannt werden.

Neozoen in Gewässern

In Gewässern, wie zum Beispiel in Seen, Flüssen oder Meeren kommen Neozoen recht häufig vor. Gerade hier sorgen Schiffe für eine gute Konnektivität des Menschen und ermöglichen eine Übersiedlung verschiedensten Arten in für diese fremden Ökosysteme. Ein Beispiel für Neozoen in Gewässern stellt die Wandermuschel (lateinisch: „Dreissena polymorpha“) dar. Diese stammt ursprünglich aus Osteuropa, hat sich aufgrund ihrer überaus guten Anpassungsfähigkeit mittlerweile jedoch weltweit ausgebreitet. Sie bedroht gleichzeitig die Nahrungsmittelverfügbarkeit für einheimische Arten. Damit beeinflusst sie die weltweiten Wasserversorgungssysteme teilweise stark negativ.

Neozoen an Land

Neozoen können natürlich auch auf dem Land auftreten und dort ebenso großen Schaden anrichten. Ein bekanntes Beispiel für Neozoen auf dem Land stellen Grauhörnchen (lateinisch: „Sciurus carolinensis“) dar. Dieses stammt ursprünglich aus Nordamerika und verbreitet sich seit seiner absichtlichen Freisetzung in Europa unkontrolliert. Es stellt eine ernste Bedrohung für einheimische Eichhörnchenarten dar. Auch die Rote Feuerameise (lateinisch: „Solenopsis invicta“) fällt unter diese Kategorie. Diese stammt wiederum aus Südamerika und verdrängt mehr und mehr einheimische Ameisenarten sowie beeinträchtigt die Rote Feuerameise landwirtschaftliche Nutzflächen.

Noezoen in urbanen Gebieten

Beispiele für Neozoen in urbanen Gebieten stellen zum Beispiel Stadttauben (lateinisch: „Columba livia domestica“) dar. Diese stammen von domestizierten Taubenarten ab und haben sich hervorragend an den menschlichen Lebensraum angepasst. Die größten Herausforderungen, die Stadttauben als Neozoen mit sich bringen, sind Überpopulation, Verunreinigungen von Fassaden und Dächern sowie die Verbreitung von Krankheitserregern.

Auswirkungen von „Neozoen“ auf Ökosysteme

Neozoen haben negative Auswirkungen auf Ökosysteme. Durch nicht einheimische Tier- oder Pflanzenarten kann eine gewisse Konkurrenz in puncto Ressourcen, Nahrung sowie Lebensraum oder Brutplätzen entstehen. Diese Konkurrenzen können schrittweise zur Verdrängung einheimischer Arten führen und damit der Biodiversität schaden. Gleichzeitig können die Struktur und die Funktion ganzer Ökosysteme zerstört werden. Am Beispiel der Honigbiene, die hierzulande von verschiedenen Wespenarten verdrängt wird, leitet sich die Gefahr ab, dass Pflanzen und Bäume so weniger Bestäubung erhalten werden und damit die einheimische Pflanzenwelt erheblich darunter leiden kann. Neozoen stellen damit eine große Gefahr für die Stabilität und Resilienz von Ökosystemen dar.

Maßnahmen zur Eindämmung und Bekämpfung von Neozoen

Aus den genannten Gründen müssen Neozoen idealerweise verhindert, eingedämmt und bekämpft werden. Hierfür stehen unter anderem die folgenden Maßnahmen zur Verfügung:

  1. Überwachung und frühzeitige Erkennung von Neozoen
  2. Entwicklung von Bekämpfungsstrategien für Neozoen
  3. Weltweite Aufklärungskampagnen und Bildungsprogramme sensibilisieren die Öffentlichkeit
  4. Regulierung internationaler Handels- und Transportwege
  5. Gesetzliche Verbote für den Transport von Tier- und Pflanzenarten
  6. Politische Zusammenarbeit auf internationaler Ebene
  7. Fortlaufende Forschung

Fazit zum Thema „Neozoen“

Unterm Strich stellen Neozoen eine ernsthafte Bedrohung für die natürlichen Ökosysteme der Welt dar. Es handelt sich dabei um invasive, gebietsfremde Pflanzen oder Tiere, die in fremde Ökosysteme eingebracht werden. Sie begünstigen die Verdrängung von einheimischen Arten bis hin zu deren Ausrottung. Es ist daher entscheidend, Maßnahmen zur Eindämmung von Neozoen umzusetzen, um so die weltweite Biodiversität zu bewahren. Nur so können die Integrität, Stabilität und Einzigartigkeit der Umwelt geschützt werden.

Mit dem Begriff „Neozoen“ sind unter anderem die Begrifflichkeiten „Neophyten“ sowie „Neobiota“ verwandt. Unter „Neophyten“ versteht man invasive Pflanzenarten. Hingegen beschreibt der Begriff „Neobiota“ nicht einheimische Organismen – zum Beispiel Bakterien, Ein- oder Mehrzeller. Schlussendlich können Neophyten und Neobiota gleichsam als Neozoen betitelt werden. Es handelt sich dabei nur um spezifische Fachtermini für den Ausdruck „Neozoen“.

Was ist GriefTech / DeathTech? Bedeutung, Erklärung, Definition


Eine bemerkenswerte, atemberaubende, für manche auch beängstigende Neuerung im Bereich Künstliche Intelligenz ist die Grief-Technologie, kurz Grief-Tech genannt. (Auf deutsch: Trauer-Technologie) Sie erzeugt digitale Klone von lieben Menschen, die bereits verstorben sind, und ermöglicht es uns, mit ihnen zu sprechen.

Was ist GriefTech / DeathTech? Bedeutung, Erklärung, Definition

Damit kann KI auch Beerdigungsrituale beeinflussen. Diese innovative Technologie hat das Potenzial, die Art, wie wir trauern, dauerhaft auf den Kopf zu stellen. Mit Toten sprechen können – viele von uns haben sich schon einmal ausgemalt, wie es wäre, mit den verstorbenen Eltern, Geschwistern oder anderen lieben Menschen zu sprechen und sie in den aktuellen Alltag integrieren zu können.

Der Wunsch, mit Personen, die uns einmal viel bedeutet haben, etwas zu teilen, ist besonders ausgeprägt, wenn wir starke emotionale Erlebnisse teilen möchten. Künstliche Intelligenz (KI) hat uns schon in kürzester Zeit gezeigt, welche gravierenden Veränderungen mit der innovativen Technologie möglich sind.

Aktuell stehen wir erst am Anfang einer Entwicklung, deren Ende nicht abzusehen ist. Dass sich Algorithmen so steuern lassen, dass sie auch zu schwierigeren Themen komplexe Texte kreieren können, hat uns der Bot ChatGPT bereits gezeigt. Mittlerweile sprießen KI-Tools wie Pilze aus dem Boden und versuchen, sich gegenseitig den Rang abzulaufen. Grief-Tech greift jedoch in einen Lebensbereich ein, der vielen von uns heilig ist. Das wirft Fragen auf.

Verändert KI den Trauerprozess?

Beim Einsatz von Grief-Technologie wird KI auf Bilder, Tonaufnahmen und andere Aufzeichnungen trainiert, sodass Trauernde mit dem oder der Verstorbenen kommunizieren können. Die KI nimmt erheblichen Einfluss auf die Erinnerung der Hinterbliebenen und bringt sprechende und agierende Avatare, die den Verstorbenen täuschend ähnlich sehen, ob die Bildschirme von Smartphone oder Tablet.

Zwar erlaubt sie keine echte Interaktion, aber Grief-Tech-Unternehmen arbeiten intensiv an dem, was aktuell noch Zukunftsmusik ist. Sie möchten das Unmögliche möglich machen und träumen davon, Verstorbene und ihre lebende Verwandtschaft interaktiv zusammenzubringen. Die KI wird dafür intensiv trainiert. Es ist möglich, dass diese Technologie Trauerarbeit vollständig transformiert. Doch wie weit geht diese Transformation? Ist es am Ende etwa so, dass die Hinterbliebenen keine Trauer mehr fühlen, weil sie den Verstorbenen immer in ihrer Nähe wähnen? Noch ist Grief-Tech zu neu, um hierauf eine befriedigende Antwort geben zu können.

Trauer bleibt Trauer – oder nicht?

„Sinnvolle Erinnerungen im Leben bewahren und sie mit den Menschen teilen, die Sie lieben“ – mit solchen und ähnlichen Slogans werben Grief-Tech-Startups wie zum Beispiel Hereafter. In Tests mit noch lebenden Verwandten wurden bemerkenswerte Ergebnisse erzielt: Die virtuellen Klone gaben lebensnahe Tipps für den Alltag und berichteten von lange zurückliegenden Ereignissen aus ihrer eigenen Kindheit und der von lebenden Verwandten.

Grief-Tech bewahrt also Erinnerungen in Form von Bildern, Sprach- und Videoaufzeichnungen und komplettiert den Trauerprozess um eine sehr spannende, interaktive Komponente. Die emotionale Beteiligung der Trauernden, also die echte, in Phasen ablaufende Trauerarbeit, wird sie aller Wahrscheinlichkeit nicht grundlegend verändern, da diese in den menschlichen Genen festgeschrieben ist.

Grief-Tech bricht ein Tabu

„Wann ist der Mensch ein Mensch?“– was Herbert Grönemeyer einmal in einem seiner populärsten Songs sang, ist heute so aktuell wie nie. Die Möglichkeit, extrem realistische Avatare zu erzeugen, macht einmal mehr deutlich, dass wir im Umgang mit Technik unseren Augen nicht immer trauen können und dürfen.

Die künstlichen Videos und Bilder, die sich uns in Echtzeit zeigen, sind manipuliert und gaukeln uns eine Realität vor, die es so nicht gibt. Dass viele der Entwickler ursprünglich nur Spezialeffekte für die Filmindustrie erzeugen wollten, zeigt unter anderem auch, dass sich die Technologie so schnell weiterentwickelt, dass der Mensch Probleme hat, damit Schritt zu halten. Ob er sie irgendwann überhaupt noch im Griff hat, ist die nächste große Frage, die sich kleine wie große Tech-Unternehmen auch aus ethischen Gründen stellen müssen.

Fazit: GriefTech / DeathTech

Ist es wirklich wünschenswert, das neu zum Leben erweckte Bild eines oder einer Verstorbenen jederzeit abrufen zu können? Grief-Tech führt möglicherweise dazu, dass Realität und Fiktion miteinander verschwimmen und Trauernde niemals richtig Abschied nehmen können. Ferner ist zu überlegen, ob der menschliche Geist überhaupt in der Lage ist, diesen Wandel zu vollziehen.

Dass KI unsere Stimmen und Sprechweisen imitiert, ist schon länger möglich. Doch einen Toten quasi auferstehen zu lassen – das heißt gerade für spirituelle und gläubige Menschen, Gott zu spielen. Dieser Schritt ist für sie, aber auch für viele andere Menschen undenkbar. Welche Auswirkungen Grief-Tech auf die Psyche hat, ist noch nicht erforscht. Auch in diesem Bereich steckt die neue KI gänzlich noch in den Kinderschuhen. Die technologische Entwicklung darf nicht dahin führen, dass medizinische, ethische und theologische Aspekte völlig außer Acht gelassen werden.

Warum hat man zwei Nieren? Wozu braucht der Mensch sie? Erklärung


Menschen haben zwei Nieren, damit der Körper auch bei Ausfall einer der beiden Nieren noch in der Lage ist, die grundlegenden Funktionen aufrechtzuerhalten. Diese Redundanz einer der beiden Nieren ermöglicht es, dass eine Niere die Funktion der anderen übernehmen kann, falls diese beschädigt oder erkrankt ist oder aus anderen Gründen nicht mehr funktioniert.

Welche Funktion haben die Nieren im Körper?

Die Nieren sind Filterorgane und dafür zuständig, kontinuierlich unser Blut zu filtern und von Abfallstoffen und überschüssiger Flüssigkeit zu befreien.
Die eigentliche Filterung findet in den Nephronen, den funktionellen Bereichen der Nieren, statt. Jede Niere besteht aus ungefähr einer Million Nephronen. Bei der Filterung des Blutes entsteht als Abfallprodukt Harn, auch bekannt als Urin, der über die Harnleiter in die Harnblase transportiert und über die Harnröhre anschließend ausgeschieden wird. Aufgrund ihrer Filterfunktion sind die Nieren auch maßgeblich an der Regulation von Elektrolyten wie Natrium, Kalzium und Kalium, sowie an der Regulation des Säure-Basen-Haushalts, des Blutdrucks und des Blutvolumens beteiligt.

Wo im Körper liegen die Nieren und wie sind sie aufgebaut?

Fast alle Menschen besitzen zwei Nieren, die paarartig angelegt sind und sich auf beiden Seiten der Wirbelsäule im hinteren Bereich des Bauchraums knapp unterhalb der Rippen befinden. Bei erwachsenen Menschen sind die Nieren zwischen 10 und 12 cm lang, 5 bis 5 cm breit und etwa 3 cm dick. In der Regel sind die Nieren bohnenartig geformt. Sie sind von einer bindegewebeartigen Kapsel umgeben, und zusätzlich von einer Fettschicht sowie der Nierenfaszie gegen Verletzungen geschützt.

Was passiert, wenn eine Niere kaputtgeht?

Dass fast alle Menschen zwei Nieren besitzen, ist eine Sicherheitsmaßnahme der Evolution. So wird sichergestellt, dass der Körper auch nur mit einer funktionierenden Niere überleben kann und diese die grundlegenden Funktionen aufrechterhalten kann. Das bedeutet, dass eine Niere theoretisch in der Lage ist, alle Aufgaben der anderen Niere zu übernehmen und der Körper wenig bis gar nicht durch das Fehlen einer der beiden Nieren beeinträchtigt wird.

Können sich die Nieren selbst regenerieren?

Bis zu einem gewissen Grad sind die Nieren in der Lage, sich zu regenerieren und sogar ihre Funktion an veränderte Bedingungen anzupassen. Zum Beispiel bei einem Verlust oder einer Schädigung eines Teils einer Niere können die übrig bleibenden Nephronen dieser Niere hypertrophieren – sich als vergrößern – und ihre Funktion erhöhen, um die verlorenen Nephronen auszugleichen. Eine vollständige Regeneration ist nicht möglich und der Ausgleich kann nur bis zu einem gewissen Grad stattfinden.

In welchen Fällen haben Menschen nur eine Niere?

Es gibt unterschiedlichste Gründe, warum Menschen nur eine Niere haben. Dazu gehören angeborene Fehlbildungen, Verletzungen, Erkrankungen oder Lebendspenden. Einige Menschen werden mit nur einer Niere geboren. Diese angeborene Anomalie nennt man Nierenagenesie und in den meisten Fällen kann die verbleibende Niere das Fehlen ausgleichen. In anderen Fällen muss Menschen aufgrund von Erkrankungen oder Verletzungen eine Niere operativ entfernt werden. Diese Operation wird als Nephrektomie bezeichnet. Gründe für eine Nephrektomie können zum Beispiel Nierenkrebs, schwere Niereninfektionen, Nierensteine oder Trauma, also Verletzungen, sein. Ein weiterer Grund, warum manche Menschen nur eine Niere haben, ist die freiwillige Spende einer Niere an eine andere Person, die an komplettem Nierenversagen leidet.

Freiwillige Nierenspenden

Wenn eine Person mit zwei gesunden Nieren sich dazu entschließt, eine davon an einen anderen Menschen zu spenden, ist dies aufgrund der Ausgleichsfähigkeit der Nieren möglich. Eine solche Lebendspende kann bei Personen mit Nierenversagen lebensrettend sein oder verbessert in jedem Fall die Lebensqualität des Empfängers oder der Empfängerin deutlich, da er oder sie dann nicht mehr auf Dialyse und Medikamente angewiesen ist.

Was ist eine Dialyse?

Eine Dialyse ist eine medizinische Behandlung, die die Arbeit der Nieren entsetzt. Dabei wird in regelmäßigen Abständen das Blut der Patientin oder des Patienten gereinigt. Wenn eine Transplantation nicht möglich ist, kann eine Dialysebehandlung als Ersatztherapie dienen, um die Funktion der Nieren teilweise zu übernehmen. Durch die Entfernung von Abfallstoffen, überschüssigen Flüssigkeiten und Elektrolyten aus dem Blut, sorgt die Dialyse dafür, dass das innere Gleichgewicht des Körpers aufrechterhalten wird. Es gibt zwei Haupttypen von Dialyse: die Hämodialyse, bei der das Blut des Patienten oder der Patientin durch ein künstliches Nieren- oder Dialysegerät gefiltert wird, und die Peritonealdialyse, bei der die körpereigene Bauchhöhle und das Peritoneum als Filtermembran genutzt werden.

Wie kann man Nierenerkrankungen vorbeugen?

Um Risikofaktoren für Nierenerkrankungen zu minimieren, ist besonders die Ernährung ein wichtiger Faktor. Gesunde Lebensmittel mit wenig Fett und Salz sowie eine ausreichende Flüssigkeitszufuhr spielen eine zentrale Rolle bei der Erhaltung der Nierengesundheit.

Auch eine regelmäßige Blutdruckkontrolle sowie das Vorbeugen von Diabetes sind wichtig.

Nicht zuletzt tragen auch Alkohol und Nikotin dazu bei, die Nieren zu schädigen, genauso wie die übermäßige Einnahme von Medikamenten oder Drogen.

Warum hat ein Kühlschrank drei (3) Fächer und ein Gemüsefach? Bedeutung, Erklärung, Definition


Kühlschränke haben in der Regel drei Fächer und ein Gemüsefach, da innerhalb des Kühlschranks unterschiedliche Temperaturen herrschen. Die drei Fächer und das Gemüsefach können auch als unterschiedliche Temperaturzonen angesehen werden, die besonders geeignet für unterschiedliche Arten von Lebensmitteln sind. Verschiedene Lebensmittel halten sich am besten bei verschiedenen Temperaturen. Durch eine korrekte Lagerung können Lebensmittel länger frisch bleiben und ihre Haltbarkeit verlängert werden.

Warum herrscht nicht im ganzen Kühlschrank die gleiche Temperatur?

Die Temperaturverteilung im Inneren eines Kühlschranks ist aufgrund von verschiedenen physikalischen Faktoren und aufgrund der Bauweise des Kühlschranks nicht gleichmäßig.

Das liegt zum einen am sogenannten Kältemittelkreislauf: Kühlschränke sind aufgrund eines Kältemittelkreislaufs kalt. Bei einem solchen Kältemittelkreislauf zirkuliert Kältemittel durch das Kühlsystem des Kühlschranks und entzieht dabei der Umgebung Wärme, wodurch die Temperatur im Inneren des Kühlschranks gesenkt wird. Bei den meisten Kühlschrankmodellen befindet sich dieses System an der Rückwand des Kühlschranks, wodurch diese auch im Inneren des Kühlschranks meist kälter ist als der Rest des Innenraums. Dies wird dadurch verstärkt, dass die Umgebung, in der sich der Kühlschrank befindet, in aller Regel wärmer ist als die Innentemperatur des Kühlschranks. So dringt, trotz bestmöglicher Isolation des Kühlschranks, ständig Wärme von außen in den Kühlschrank ein, wodurch die Innentemperatur an den Seitenwänden und direkt hinter der Tür größtenteils höher ist.

Ein weiterer Faktor, der zur ungleichmäßigen Temperaturverteilung im Kühlschrank beiträgt, ist die sogenannte Konvektion. Konvektion beschreibt die Übertragung von Wärme durch das Fließen von Flüssigkeiten oder Gasen – im Falle eines Kühlschranks durch die Luft, die sich im Inneren befindet. Kalte Luft hat eine höhere Dichte als warme Luft, wodurch kalte Luft absinkt und warme Luft aufsteigt. Dies bedingt, dass es im oberen Teil des Kühlschranks wärmer ist als im unteren Teil.

Nicht zuletzt beeinflusst auch das Öffnen und Schließen der Kühlschranktür die Temperaturverteilung im Inneren. Jedes Mal, wenn die Kühlschranktür geöffnet wird, dringt warme Luft von außen ein und kalte Luft entweicht aus dem Kühlschrank. Dies beeinflusst die Temperatur, speziell in Türnähe.

Welche Fächer haben welche Temperaturzonen?

Das oberste Fach in einem Kühlschrank ist in der Regel das wärmste Fach, da warme Luft nach oben steigt. Die Temperatur im obersten Fach liegt in der Regel bei etwa 5 bis 7 °C. Diese Temperatur ist optimal für die Lagerung von Lebensmitteln, die keine große Kälte benötigen, um frisch und genießbar zu bleiben oder deren Geschmack oder Konsistenz von zu großer Kälte negativ beeinflusst werden kann.

Das mittlere Fach im Kühlschrank ist etwas kälter als das oberste Fach und hat eine Temperatur von etwa 4 bis 5 °C. Es eignet sich daher für die Lagerung von Lebensmitteln, die eine etwas kühlere Umgebung benötigen, jedoch nicht zu kalt gelagert werden sollten, um sie nicht zu beschädigen.

Das unterste Fach, in der Regel das Fach direkt über dem Gemüsefach, ist meistens das kälteste Fach im Kühlschrank. Dort herrscht eine Temperatur von etwa 2 bis 4 °C. Hier sollten Lebensmittel gelagert werden, die bei höheren Temperaturen leicht verderben oder anderweitig empfindlich auf höhere Temperaturen reagieren.

Das Gemüsefach, auch als Frischhaltefach bekannt, befindet sich in der Regel ganz unten im Kühlschrank. Hier sind in der Regel relativ konstante Temperaturen von 4 bis 6 °C, wobei einige Kühlschrankmodelle auch eine Möglichkeit am Gemüsefach haben, mit der die Feuchtigkeit in seinem Inneren reguliert werden kann. Dies Feuchtigkeitsregulation ermöglicht ideale Bedingungen für die Lagerung verschiedener Gemüse- und Obstsorten, da die Luftfeuchtigkeit auf die Bedürfnisse der Lebensmittel abgestimmt werden kann.

Welche Lebensmittel sollten in welchem Fach gelagert werden?

Aufgrund der unterschiedlichen Temperaturbereiche im Kühlschrank ist es ratsam, unterschiedliche Lebensmittel entsprechend ihren Eigenschaften bezüglich Haltbarkeit und Frische zu lagern.

Im obersten Fach sollten daher zum Beispiel Käsesorten gelagert werden, da die meisten Käsesorten bei einer Temperatur außerhalb von 4 bis 8 °C ihren Geschmack und ihre Textur verändern. Auch Joghurt, Quark und andere Kuhmilchprodukte sollten im obersten Fach gelagert werden, da sie bei zu großer Kälte ausflocken oder ihre Konsistenz verlieren könnten. Nicht zuletzt gehören auch Eier ins oberste Fach, da ihre ideale Lagerungstemperatur bei etwa 5 °C liegt. Im obersten Fach sind Eier daher vor Temperaturschwankungen geschützt und behalten ihre Frische möglichst lang. Auch eingekochte Marmeladen und Gelees sowie andere eingelegte Lebensmittel wie saure Gurken sollten nach dem Öffnen im obersten Kühlschrankfach aufbewahrt werden. Aufgrund des hohen Zucker- oder Säuregehalts dieser Lebensmittel benötigen sie keine besonders niedrigen Temperaturen, um vor dem Verderben geschützt zu sein.

Das mittlere Fach ist am besten geeignet für Lebensmittel wie Wurst und Wurstwaren sowie andere, bereits verarbeitete Speisen wie zum Beispiel Fertiggerichte oder Reste. Die etwas kühleren Bedingungen sorgen dafür, dass sich die Lebensmittel länger frisch halten, ohne ihren Geschmack durch zu hohe Kälte einzubüßen. Im untersten Fach des Kühlschranks sollten frisches Fleisch, frisches Geflügel oder frische Meeresfrüchte und andere, sehr leicht verderbliche Lebensmittel wie Desserts mit rohen Eiern oder ähnliches gelagert werden. Durch die niedrige Temperatur im untersten Fach wird das Wachstum von Bakterien auf diesen Lebensmitteln minimiert, wodurch sie länger ohne gesundheitliche Risiken genießbar bleiben. Nichtsdestotrotz sollten diese Lebensmittel immer möglichst zeitnah verarbeitet und verzehrt werden.

Wie der Name schon vermuten lässt, sollte Gemüse im Gemüsefach gelagert werden. Doch auch einige Obstsorten wie zum Beispiel Weintrauben oder Beeren gehören ins Gemüsefach. Die höhere Feuchtigkeit und moderate Kälte im Gemüsefach hilft bei frischem Obst und Gemüse dabei, es möglichst lange frisch und knackig zu halten. Es sollte allerdings immer darauf geachtet werden, ethylenproduzierendes Obst wie Äpfel und Birnen von empfindlichem Gemüse wie Tomaten getrennt zu, da Ethylen die Reifung von empfindlichem Gemüse beschleunigt.

Warum hat ein Kühlschrank 3 Fächer Witz

Im März und April 2023 verbreitete sich folgender Witz:

„Warum hat ein Kühlschrank 3 Fächer?“

Antwort: Michael Jackson!

Was es damit auf sich hat, erfährst du hier: Was ist ein Michael Jackson Witz?

Leitungswasser – Definition, Verwendungszweck, Nutzen, Bedeutung


Die Bezeichnung Leitungswasser ist ein Sammelbegriff. Sie bezieht sich auf das Wasser, das über Wasserleitungen zugeführt wird. Obwohl Leitungswasser meistens mit Trinkwasser gleichgesetzt wird, ist das aus einer Leitung strömende Wasser nicht automatisch trinkbar.

Was ist Leitungswasser?

Per Definition handelt es sich bei Leitungswasser um Wasser in Rohrleitungen, das aus dem Wasserhahn kommt. Da die Wasserqualität in Deutschland überwiegend als gut eingeschätzt wird, bezeichnet man Leitungswasser auch als Trinkwasser.

Mithilfe strikter gesetzlicher Vorgaben soll sichergestellt werden, dass das Wasser klar und der Geschmack neutral ist und die Grenzwerte für Mikroorganismen und Schadstoffe eingehalten werden. Leitungswasser besteht zu etwa 60 Prozent aus Grundwasser, zu 30 Prozent aus Oberflächenwasser sowie zu 10 Prozent aus Quellwasser. Von den Wasserversorgern wird dafür Grundwasser aus regionalen Wasserschutzgebieten entnommen. Diese Bereiche machen circa 10 Prozent der Fläche Deutschlands aus. Die erforderliche Reinheit des Wassers wird während der Aufbereitung im Wasserwerk durch das Vermischen mit Sauerstoff und durch diverse Filterungen erreicht.

Je nach Region schwankt der Gehalt an Mineralstoffen. Hauptsächlich enthält Leitungswasser Kalium, Natrium, Calcium und Magnesium. Vom Calcium- und Magnesiumgehalt hängen die Wasserhärte und der Geschmack ab. Hartes Wasser kann leicht salzig schmecken, weiches hingegen neutral.

Kann Leitungswasser bedenkenlos konsumiert werden?

Grundsätzlich kann Leitungswasser in Deutschland bedenkenlos konsumiert werden. Obwohl Wasser eines der am meisten kontrollierten Lebensmittel ist, kann die aus dem Wasserhahn strömende Flüssigkeit jedoch vereinzelt Verunreinigungen aufweisen. So dürfen zwar keine krankheitserregenden Mikroorganismen darin enthalten sein, dennoch werden beim gezielten Testen von Leitungswasser regelmäßig Nitrat und Pestizide, Medikamentenreste, Schwermetalle sowie andere schädliche Stoffe entdeckt.

Falls das Leitungswasser trüb ist, einen unangenehmen Geruch aufweist oder als Auslöser für gesundheitliche Beschwerden vermutet wird, sollte es getestet werden. Oftmals wird ein Wassertest durchgeführt, wenn das Leitungswasser für die Zubereitung von Babynahrung verwendet wird. Werden die in der „Allgemeinen Verordnung für die Versorgung mit Wasser“ (AVBWasserV) und in der Trinkwasserverordnung (TrinkwV) festgelegten Grenzwerte überschritten, fällt das beim Wassertrinken nicht sofort auf. Es ist möglich, dass Leitungswasser im hauseigenen Wassersystem verunreinigt wird, beispielsweise durch veraltete Bleirohre. In den Sommermonaten besteht zudem ein gewisses Risiko, dass sich Legionellen in den Wasserleitungen vermehren.

Ursachen für unreines Leitungswasser

Verunreinigungen im Leitungswasser können verschiedene Ursachen haben. Der häufigste Grund sind veraltete Wasserleitungen, die häufig aus Blei, Zink und anderen Schwermetallen oder aus schädlichen Stoffen wie Aluminium bestehen. Mit der Zeit lösen sich diese Substanzen und verunreinigen das Trinkwasser. Bei den oft an warmen Sommertagen auftretenden Legionellen im Leitungswasser handelt es sich um Bakterien, die in stehenden Gewässern leben und sich bei warmen Temperaturen vermehren. Diese Bakterien stehen im Verdacht, verschiedene Krankheiten zu begünstigen.

Über das Grundwasser gelangen Pestizide und Nitrat aus der Landwirtschaft in den Wasserkreislauf und somit in das Leitungswasser. Medikamentenreste können oft nicht effizient aus dem Wasser gefiltert werden. Deshalb dürfen Arzneimittel nicht in der Toilette entsorgt werden. Die jeweils geltenden Grenzwerte sind in der Trinkwasserverordnung ersichtlich. Weitere Einflussfaktoren wie mangelhafte oder fehlende Rohrisolierungen, Biofilme und Kalkablagerungen oder eine Stagnation des Wasserdurchflusses durch Wassersparen können ebenfalls Verunreinigungen im Trinkwasser verursachen.

Unterschiede zwischen Leitungswasser und Mineralwasser

Leitungswasser, Quellwasser und Mineralwasser werden oft gleichgesetzt, dabei bestehen zwischen den verschiedenen Arten von Trinkwasser einige Unterschiede. Bei Leitungswasser handelt es sich um das aus der Leitung strömende Wasser, das durch unterschiedliche Arten der Wassergewinnung entsteht. Um die gleichbleibende Qualität des Leitungswassers sicherzustellen, wird das Wasser behandelt und teilweise chemisch aufbereitet. Es ist daher möglich, dass Leitungswasser auch Chlor enthält. Bei Bedarf wird das Trinkwasser durch sterile Filtration gereinigt. Natürliches Mineralwasser stammt aus unterirdischen Wasservorkommen, die vor Verunreinigung geschützt und frei von Krankheitserregern sind.

Mineralwasser ist amtlich anerkannt, enthält Mineralstoffe, Spurenelemente oder Kohlensäure in bestimmter Konzentration. Die natürliche Zusammensetzung der Mineralien ist auf dem Flaschen-Etikett nachzulesen. Der Mineralienanteil darf nicht verändert werden. Ebenso wie das Mineralwasser stammt auch Quellwasser aus unterirdischen Quellen.

Der Unterschied besteht jedoch darin, dass diese nicht amtlich anerkannt sein müssen. Quellwasser enthält deshalb keine gleichbleibende Menge an Mineralstoffen. Tafelwasser ist Trinkwasser, dem verschieden Substanzen wie Kohlensäure oder Mineralstoffe hinzugefügt werden. Ähnlich wie das Leitungswasser wird Tafelwasser ebenfalls aus verschiedenen Wässern gewonnen, unter anderem auch aus Meerwasser.

Von Leitungswasser unterscheidet sich das Heilwasser dadurch, dass es nicht als Lebensmittel gilt, sondern als Arzneimittel. Wie alle Medikamente unterliegt das Heilwasser dem Arzneimittelgesetz. Aufgrund ihrer spezifischen Inhaltsstoffe sollen die verschiedenen Heilwasser eine gesundheitsfördernde, vorbeugende Wirkung haben, die anhand wissenschaftlicher Studien nachweisbar ist.

Wofür wird Leitungswasser verwendet?

Wasser aus der Wasserleitung wird für unterschiedliche Zwecke verwendet. Im Privathaushalt werden circa zwei Drittel des Trinkwassers für die Körperpflege und die Toilettenspülung verbraucht. Statistiken weisen darauf hin, dass der durchschnittliche Wasserbrauch auf häufiges Wäschewaschen und Geschirrspülen zurückzuführen ist. Da Hygiene in der modernen Gesellschaft einen hohen Stellenwert besitzt, wird die täglich genutzte Trinkwassermenge zu einem großen Teil beim Baden, Duschen, Händewaschen und Haarewaschen verbraucht.

Die anderen Lebensbereiche folgen erst mit deutlichem Abstand. Für die Lebensmittelzubereitung sowie zum Trinken wird lediglich ein geringer Anteil des Leitungswassers genutzt. Trinkwasser aus der Wasserleitung ist kalorienfrei und deshalb ein geeigneter Durstlöscher. Leitungswasser wird zudem für die Zubereitung von Kaffee und anderen Heißgetränken, wie beispielsweise Tee, verwendet. Als kostengünstiges Lebensmittel ist Leitungswasser wesentlich preiswerter als Mineralwasser aus Flaschen.

Direkter und indirekter Leitungswasserverbrauch

Man unterscheidet zwischen direktem und indirektem Leitungswasserverbrauch. Beim Wassertrinken, Kochen oder Waschen wird unmittelbar Wasser verbraucht. In diesem Zusammenhang wird von direkter Wassernutzung gesprochen. Indirekt wird Leitungswasser für eine Vielzahl von Aufgaben verwendet. Leitungswasser kommt bei der Herstellung von Lebensmitteln und Mobiltelefonen zum Einsatz. Dies wird als indirekter Wasserverbrauch bezeichnet. Häufig wird die in diversen Produkten enthaltene versteckte Wassermenge als virtuelles Wasser beschrieben. Die Bezeichnung „virtuelles Wasser“ weist auf die Wassermenge, die in einem Produkt steckt oder dessen Herstellung verbraucht wurde, hin.

Im Handlungsprinzip der Nachhaltigkeit gilt der Wasser-Fußabdruck als Indikator für die Wassernutzung. Der individuelle Wasser-Fußabdruck schließt die gesamte Wassermenge, die verbraucht wurde, ein. Ein enormer Wasserverbrauch entfällt auf die Herstellung von Produkten des täglichen Bedarfs sowie auf die Papierherstellung. Bei der Anfertigung von Textilien sind große Wassermengen notwendig. So werden zum Beispiel für die Herstellung einer einzigen Jeans circa 11.000 Liter Wasser je Kilogramm benötigt.

Was ist Schellack? Was macht man damit? Erklärung, Definition


Er ist ein natürlicher Rohstoff und kommt mittlerweile in vielen Bereichen des täglichen Lebens zum Einsatz – die Rede ist vom Schellack. Vielen Menschen ist der Name „Schellack“ jedoch nicht geläufig. Vereinfacht gesagt handelt es sich beim Schellack um eine harzige Substanz, die aus den Ausscheidungen der Lackschildlaus gewonnen wird. Letztere ernährt sich von verschiedenen Baumsäften. In einem komplizierten, biologischen Verfahren wird daraus dann der Schellack, den die Lackschildlaus für den Nestbau verwendet.

Schellack hat sich innerhalb der vergangenen Jahre zu einem wichtigen und vor allem nachhaltigen Rohstoff in der Musik-, Lebensmittel- und Holzverarbeitungsindustrie entwickelt. Er gilt als zuverlässig, günstig und umweltfreundlich. Der nun folgende Artikel soll sich daher einmal mit dem Rohstoff Schellack befassen und wie dieser gewonnen wird. Außerdem sollen dessen Verwendung, Nachhaltigkeit sowie Vor- und Nachteile detaillierter aufgezeigt werden.

Was ist Schellack? Erklärung, Definition

Das Wort „Schellack“ ist ein Kunstwort, welches sich aus den niederländischen Begriffen „schel“ (zu Deutsch: „Schale“) und „lak“ (zu Deutsch: „Lack“) zusammensetzt. Der Begriff geht auf das 17. Jahrhundert zurück, in dem die damalige „East India Company“ aus den Niederlanden bereits so gennanten „Lac Dye“ (einen Farbstoff namens „Laccainsäure“ zum Färben von Holz) aus Indien nach Europa exportierte. Wenig später wurde dann auch der für den „Lac Dye“ ursprüngliche Rohstoff namens „Schellack“ nach Europa exportiert.

Obwohl der Name „Schellack“ im Deutschen mit einem Lack in Verbindung gebracht wird, so handelt es sich doch um eine harzige Substanz, welches als Überzugsmaterial verwendet wird. Auch gibt es im Deutschen keine vom Wort „Schellack“ abweichenden Bezeichnungen für diesen Rohstoff. Der Name „Schellack“ wurde demnach direkt aus dem Niederländischen übernommen und ist heute ein fester Bestandteil des deutschen Wortschatzes.

Herstellung: So wird Schellack hergestellt

Der Schellack wird aus den Ausscheidungen der in Indien sowie in anderen asiatischen Ländern heimischen Lackschildlaus gewonnen. Die Lackschildlaus ernährt sich in der Regel von verschiedenen Baumsäften und scheidet eine harzige Substanz aus, die auch als Lackschildlaussekret bekannt ist. Im Zuge der Gewinnung von Schellack wird das Harz dann von den Bäumen abgekratzt und gesiebt. Auf diese Weise sollen Verunreinigungen zuverlässig entfernt werden. Im Anschluss wird das gereinigte Sekret in großen Kesseln erhitzt, bis dieses zu schmelzen anfängt.

Den nächsten Schritt in der Herstellung von Schellack markiert dann das Abkühlen des Sekrets, welches hierfür im heißen Zustand zunächst auf dünne Stäbe gegossen wird. Indem die mit dem Harz übergossenen Stäbe dann in kaltes Wasser getaucht werden, kühlen diese ab und verhärten sich. Die Stäbe mit dem Harz werden dann zerkleinert und zu einem feinen Pulver zermahlen. Bei der Weiterverarbeitung wird der Schellack dann meist noch mit weiteren Farbpigmenten oder anderweitigen Substanzen vermengt.

Insgesamt ist die Herstellung von Schellack also ein aufwändiger Prozess, der traditionell komplett von Hand durchgeführt wird. Jedoch gibt es zunehmend hochmoderne Produktionsmethoden, die die Herstellung von Schellack beschleunigen und damit schlussendlich auch günstiger machen.

Verwendung: Hierfür wird Schellack benötigt

Schellack wird heute in verschiedensten Bereichen verwendet. Darunter stechen vor allem die Verwendung in der Musikindustrie, der Lebensmittelindustrie sowie der Holzverarbeitungsindustrie hervor. In den nun folgenden Unterabschnitten sollen diese drei Hauptverwendungsbereiche des Schellack daher einmal näher erklärt werden.

Verwendung in der Musikindustrie

In der Musikindustrie wurde und wird Schellack vor allem als Überzugsmaterial zur Herstellung von Schallplatten und Vinyl verwendet. Die mit Schellack überzogenen Schall- oder Vinylplatten werden so vor Beschädigungen geschützt und verleihen dem Ton eine deutlich bessere Qualität. Gleichzeitig wird der Schellack oft zum Überziehen von Musikinstrumenten wie zum Beispiel Gitarren oder anderen Saiteninstrumenten eingesetzt. Dies dient auch hier dem Zweck, dass die Instrumente besser vor Kratzern oder anderweitigen Schäden geschützt sind. Insgesamt steigt der Bedarf an Schellack in der Musikindustrie aktuell, da es sich um ein alternatives und nachhaltig herzustellendes Material handelt.

Verwendung in der Lebensmittelindustrie

In der Lebensmittelindustrie wird Schellack heute oft als Überzugsmittel für Süßigkeiten, Früchte sowie Kaffeebohnen eingesetzt. Der Überzug verleiht den genannten Produkten mehr Glanz und Haltbarkeit. Da Schellack gesundheitlich unbedenklich ist, ist dieser auch zur Herstellung von Lebensmitteln freigegeben. Damit stellt der Schellack eine beliebte Alternative zu pflanzlichen Wachsen oder Gummis wie beispielsweise Arabicum dar. Anzumerken sei jedoch, dass Lebensmittel, die Schellack enthalten, sich nicht für Vegetarier oder Veganer eignen. Denn Schellack ist ein rein tierisches Produkt.

Verwendung in der Holzverarbeitung

In der Holzverarbeitung wird Schellack vor allem als natürliches Bindemittel für Holzlacke, Polituren oder Wachse eingesetzt. Mit Schellack versehener Holzlack verleiht Holzoberflächen insgesamt eine glatte Oberfläche. Gleichzeitig schützt Schellack Holzoberflächen vor Feuchtigkeit oder Abnutzung. Ebenfalls beliebt ist aber auch die Verwendung von Schellack als Füllstoff für Holzrisse oder Holzlöscher. Aufgrund seiner schnellen Trocknungszeit und seiner unkomplizierten Verarbeitung sowie Haltbarkeit ist der Schellack in der Holzverarbeitungsindustrie mittlerweile unverzichtbar geworden. Anzumerken ist jedoch, dass Schellack aufgrund seines immer noch recht hohen Preises immer häufiger auch durch synthetische Bindemittel ersetzt wird.

Chemische und physikalische Eigenschaften von Schellack

Beim Schellack handelt es sich um ein natürliches Polymer, welches in den Ausscheidungen der weiblichen Lackschildlaus vorhanden ist. Es besteht vorrangig aus Polyhydroxyalkanoat. Optisch handelt es sich beim Schellack um ein recht sprödes und gleichzeitig transparentes Material, welches in vielen verschiedenen Farben erhältlich ist. Schellack ist beständig gegen Wasser, Alkohol sowie Säuren und Laugen. Jedoch ist Schellack empfindlich gegenüber Hitze und UV-Strahlen. In seiner Zusammensetzung besteht Schellack aus einem hohen Anteil an Kohlenstoffen, weshalb dieser auch recht leicht entflammbar ist. Ebenfalls besitzt Schellack eine hohe elektrische Isolationsfähigkeit. Aus letzterem Grund ist Schellack besonders auch für die Elektronikindustrie interessant. Schellack besitzt also insgesamt eine Vielzahl an nützlichen, physikalischen Eigenschaften, die diesen Rohstoff so universell einsetzbar machen.

Wie nachhaltig ist Schellack?

Schellack gilt heute als natürliches Produkt und damit als eine echte Alternative zu synthetischen Materialien. Häufig wird aber die Produktion von Schellack kritisiert, da diese recht ressourcenintensiv erscheint und eine hohe Menge an Lackschildläusen erfordert werden. Zwar setzen die Hersteller von Schellack auf nachhaltige Anbaumethoden und hohe Tierwohlstandards, jedoch hängt die Nachhaltigkeit der Schellack-Produktion oftmals davon ab, wie viele Lackschildläuse gezüchtet und schlussendlich geerntet werden können. Die Nutzung von pflanzlichen Wachsen wird daher zunehmend als ethischer und noch nachhaltiger angesehen.

Vor- und Nachteile von Schellack:

Der Rohstoff Schellack bietet eine Fülle an Vor- und Nachteilen, die im Folgenden allesamt einmal aufgelistet werden sollen:

Vorteile:

  • Beim Schellack handelt es sich um ein natürliches Produkt.
  • Schellack ist ungiftig und auch zur Herstellung von Lebensmitteln geeignet.
  • Schellack ist beständig gegenüber Wasser, Alkohol, Säuren und Laugen.
  • Schellack ist biologisch abbaubar

Nachteile:

  • Für die Produktion von Schellack werden große Mengen an Lackschildläusen benötigt (was teuer und unethisch ist).
  • Schellack kann bei manchen Menschen zu allergischen Reaktionen führen.
  • Schellack ist empfindlich gegenüber Hitze und UV-Strahlen.
  • Schellack ist teurer als synthetische Mittel

Fazit: Schellack

Zusammenfassend lässt sich also sagen, dass es sich beim Schellack um ein recht vielseitig einsetzbares Produkt handelt. Schellack wird aus den Ausscheidungen der Lackschildlaus gewonnen und durchläuft einen arbeits- und kostenintensiven Prozess, bevor dieser beispielsweise in der Musik-, Lebensmittel- oder Holzverarbeitungsindustrie zum Einsatz kommen kann. Da die Lackschildlaus in Europa nicht heimisch ist, muss der Rohstoff Schellack größtenteils aus Indien importiert werden.

Mit dem Wort „Schellack“ sind zum Beispiel die Begriffe „Pflanzenwachse“, „Polymere“ sowie „Pflanzenharze“ verwandt. Im Gegensatz zu den „Pflanzenwachsen“ oder „Pflanzenharzen“ handelt es sich beim Schellack jedoch um ein rein tierisches Produkt. Unter „Polymere“ ist hingegen die chemische Struktur von Schellack zu verstehen.

Was ist Prompt Engineering? Erklärung, Bedeutung, Definition


„Prompt Engineering“ ist eine Technik, um aus einer generativen KI das Maximale herauszuholen. Der „Prompt Engineer“ ist eine Person, die genau weiß, was sie einer KI sagen muss und wie sie eine KI bedienen muss, um ein optimales Ergebnis zu erzielen.

Was ist Prompt Engineering? Erklärung, Bedeutung, Definition

Nutzer können mithilfe von Prompt Engineering die Ergebnisse, die eine KI liefert, verbessern. Denn wenn man verstanden hat, auf welche Befehle die KI am besten reagiert und welche Informationen eine KI braucht, um optimal zu arbeiten, kann das Ausgabeergebnis (der KI) stark verbessert werden.

Was ist ein „Prompt“? Das Wort „Prompt“ bedeutet im Kontext von generativer KI, ChatGPT und Prompt Engineering soviel wie „Befehl“ oder „Auftrag“. Der „Prompt“ ist die Arbeitsgrundlage, die eine KI erhält, um ein Ergebnis zu liefern. Die Qualität der Antwort einer KI ist stark abhängig vom Prompt. Je besser der Prompt, umso besser ist das Arbeitsergebnis.

Prompt Engineering fängt z.B. dann an, wenn man wählt wie allgemein oder spezifisch die gestellte Aufgabe an eine KI sein soll. Der Prompt Engineer entscheidet, welcher Kontext der KI verraten werden soll und welche Details, die KI wissen soll.

Beispiele für Prompt Engineering / Prompting:

Prompt Engineering beginnt schon damit, dass man unterscheidet zwischen der Aufgabe „Schreibe eine Produktbeschreibung von Produkt X“ oder „Schreibe eine Produktbeschreibung von Produkt X wie bei Produkt Y.“ (Beim zweiten Prompt weiß die KI, woran sie sich orientieren soll und sie ist weniger frei in ihrer Arbeit. Das erzeugt bessere Ergebnisse.)

Die Verben in einer Arbeitsanweisungen (Prompt) sind entscheidend. Hier kann der Prompt Engineer seine Ziele und Absichten mitteilen. Eine KI kann z.B. einen Text umschreiben, sie kann ihn aber auch umformulieren oder kürzen. „Kürze diesen Text“ ist z.B. ein Prompt bei dem eine KI weiß, dass sie den Text kürzen soll.

Der Prompt Engineer kann einer KI aber auch eine Rolle und Haltung zu weisen. Er kann z.B. der KI sagen: „Du bist ein Übersetzer für die englische Sprache. Schreibe mir folgenden Text …“ Oder: „Du Marketing-Mitarbeiter und schreibst einen Verkaufstext für Produkt X. Der Verkaufstext soll auf Plattform Y erscheinen. Die Zielgruppe ist Generation Z.“

Der Prompt Engineer teilt einer KI meist den Kontext und das Ziel eines Prompts mit. Damit weiß die KI in welche Richtung es geht und kann das Ergebnis anpassen.

Die Aufforderung: „Was ist letztens passiert?“ ist z.B. ein schlechter Prompt. Denn die Frage ist viel zu unspezifisch. Ein besserer Prompt wäre: „Was ist im März 2023 in Deutschland im Bereich Technologie passiert?“

Der Prompt: „Schreibe mir eine Motivationsrede“ ist ein schwacher Prompt, denn es ist viel zu unspezifisch für wen diese Rede ist und was der Anlass ist. Ein besserer Prompt ist: „Ich will meine Verkaufsmitarbeiter motivieren, so dass sie sich mehr anstrengen. Wir sind in Branche XY aktiv. Schreibe mir eine Motivationsrede für meine Mitarbeiter.“

Kurzzusammenfassung:

Für gute Prompts und damit gute Ergebnisse sollte einer generativen KI folgendes mitgeteilt werden:

  • Ziel / Zielgruppe des Prompts
  • Absicht / Intention des Prompt Engineers
  • Kontext des Prompts
  • Anlass des Prompts
  • Details: wer, was, wo, wann und warum

Aufgabenbereiche vom Prompt Engineer

Die KI kann innerhalb kürzester Zeit Texte erstellen. Doch bei komplexen Sachverhalten stößt die Technik schnell an ihre Grenzen. Zudem ist die KI nicht immer in der Lage, die Inhalte in einen passenden Kontext zu setzen. Genau hier kommt der Prompt Engineer ins Spiel. Seine Aufgabe ist es, dafür Sorge zu tragen, dass die KI effizient arbeiten kann. Ein Prompt Engineer ist mit dem jeweiligen System vertraut. Er prüft die Ergebnisse der KI und gibt Befehle ein.

Eine wesentliche Aufgabe vom Prompt Engineer ist es, der KI Befehle zu erteilen. Er kennt den Algorithmus eines Systems. Hiermit ist es ihm möglich, Befehle einzugeben, die bestmögliche Ergebnisse liefern. Gleichzeitig ist er mit den Schwächen und Grenzen der KI vertraut, die er bei seiner Arbeit berücksichtigt. Aufgrund der Automatisierung, die in zahlreichen Bereichen erfolgt, steigt die Nachfrage für das Berufsbild. Es ist davon auszugehen, dass der Bedarf in Zukunft exorbitant ansteigen wird, weil die KI eine immer wichtigere Rolle einnimmt.

Die Fähigkeiten der KI haben sich in den letzten Jahren enorm verbessert. Ob Texte, Kompositionen oder Bilder, die KI ist teilweise besser als ein Mensch. In einigen Fällen ist es nur schwer, zu unterscheiden, ob es sich um menschliche Werke handelt oder nicht. Diesbezüglich hat die KI bereits Malwettbewerbe für sich gewonnen. Gleichzeitig kommt es immer wieder zu Fehlern, denn es fehlt der KI an Intuition und gesundem Menschenverstand. Deshalb kommt dem Prompt Engineering eine wichtige Rolle zu.

Der technische Fortschritt – Risiken und Chancen

Die Digitalisierung hat heute schon zahlreiche Arbeitsstellen gekostet. Durch die Automatisierung stehen ganze Fabrikhallen leer. Seit Jahren gewinnt die KI an Bedeutung. Schon in den 1990er-Jahren hat ein Computer den Schachweltmeister Garri Kasparow besiegt. Im gleichen Zuge gibt es die Sorge, in Hinblick auf die Arbeitswelt. Diesbezüglich lassen sich nur schwer Aussagen treffen, weil die Langzeitfolgen auf den Arbeitsmarkt unerforscht sind. Die neue Technologie wird sowohl Positives als auch Negatives mit sich bringen.

Zum einen wird der technische Fortschritt einige Jobs gefährden. Durch die Automatisierung können Aufgaben durch die KI durchgeführt werden. Die KI hat Zugang zu einer großen Datenbank. Sie kann Informationen aufrufen und in einen Zusammenhang bringen. Dabei muss die KI nicht lange lernen, wie es bei Menschen der Fall ist. In den nächsten Jahren ist davon auszugehen, dass die Künstliche Intelligenz immer autonomer wird, wenn es um das maschinelle Lernen geht. Im gleichen Zuge erhöht sich das Risiko, dass es zu einem Stellenabbau kommt. Ein Beispiel ist der Handelsriese Amazon, der einen Großteil der Lagerlogistik automatisiert hat.

Auf der anderen Seite werden neue Jobs hinzukommen, wie es die Vergangenheit gezeigt hat. Durch den technischen Fortschritt werden neue Fachkräfte in der IT benötigt. Damit einhergehend gibt es auch die Berufsbezeichnung „Prompt Engineer“. Auf diese Weise kann der Stellenabbau durch neue Arbeitsstellen teilweise ausgeglichen werden. Abseits davon stellt die KI eine gesellschaftliche Bereicherung dar. Dank der KI ist es möglich, gänzlich neue Wege zu gehen. Die KI ist in der Lage, musikalische Werke zu kreieren und vieles mehr. Es können neue Akzente gesetzt werden, in Hinblick auf das kulturelle Leben. Zudem kann die KI dabei helfen, die Notwendigkeit für menschliche Arbeit zu verringern. Diesbezüglich gibt es bereits Diskussionen, ob es nicht sinnvoll wäre, ein bedingungsloses Grundeinkommen zu etablieren.

Zukünftige Entwicklung der KI

Die Möglichkeiten werden sich in Zukunft fortwährend erweitern. Bereits heute schon setzen zahlreiche Unternehmen auf die Technologie. Großbanken setzen Chatbots ein, um in Kontakt mit Kunden zu treten. In einigen Fällen ist es nur bedingt möglich, den Chatbot von einem echten Mitarbeiter zu unterscheiden. Programme, wie GPT-4 oder ChatGPT, sind in der Lage Texte zu erstellen. Deshalb rücken die Programme in den Fokus von Werbeagenturen und anderen Unternehmen.

Aber die Programme können weit mehr. Sie übernehmen zu einem gewissen Teil die Arbeit von Programmierern. In Zukunft wird die Technologie den Menschen in zahlreichen Lebensbereichen begegnen. Ob auf der Arbeit, Zuhause oder in der Freizeit, die KI hat ein großes Potenzial. Es ist möglich, dass die Autos der Zukunft per Sprachbefehl gesteuert werden. Die menschliche Leistung rückt zunehmend in den Hintergrund, weil die KI die Fähigkeiten des Menschen um ein Vielfaches übertrifft – zumindest in einigen Bereichen. Es ist nur eine Frage der Zeit, bis die KI den Menschen in anderen Bereichen schlägt und nicht mehr auf die Hilfe eines Prompt Engineers angewiesen ist.

Fazit: Was ist Prompt Engineering?

Prompt Engineering steht für Effizienz und Fortschritt. Der technische Fortschritt wird unaufhörlich voranschreiten, ungeachtet der möglichen Risiken. Bereits heute schon sind zahlreiche Abläufe im Privat- und Arbeitsleben digitalisiert. Somit wird die KI zu einem festen Begleiter des gesellschaftlichen Lebens. Deshalb ist es unumgänglich, sich mit dem Thema proaktiv auseinanderzusetzen. Hiermit ist es möglich, das Potenzial der Software auszuschöpfen. Dank Prompt Engineering ist sichergestellt, dass das Potenzial der KI ausgeschöpft wird. Prompt Engineers leisten einen wichtigen Beitrag, wenn es um die Kontrolle von KI-basierten Prozessen geht.

Was ist AGI (Artificial General Intelligence)? Bedeutung, Erklärung, Definition


AGI steht für „Artifical General Intelligence“ und heißt übersetzt „Allgemeine Künstliche Intelligenz“. Im deutschen Sprachraum wird deshalb auch das Kürzel AKI verwendet. Es geht dabei um eine besondere Form der künstlichen Intelligenz, die bisher noch nicht erreicht worden ist. Bei AGI soll die künstliche Intelligenz nicht nur vorgeschriebene Aufgaben lösen, wie es bisher der Fall ist. Künstliche Intelligenz soll stattdessen in der Lage sein, intellektuelle Fähigkeiten zu entwickeln, die dem menschlichen Gehirn nahekommen.

Was ist AGI (Artificial General Intelligence)? Bedeutung, Erklärung, Definition

Forscher möchten somit eine Intelligenz schaffen, die autonom handeln kann. Diesbezüglich gibt es erste Ansätze, um die künstliche Intelligenz voranzubringen, und zwar in Richtung Autonomie. Deep Learning orientiert sich etwa am menschlichen Gehirn. Das Programm nutzt neuronale Netze, um Informationen zu verarbeiten. Ein wesentlicher Unterschied zu herkömmlichen Programmen ist, dass Deep Learning in der Lage ist, selbst zu lernen. Gleichzeitig bleibt es beim Ansatz, AGI zu realisieren. Aktuell kann die Künstliche Intelligenz nicht einmal mit kleinen Kindern mithalten, wenn es um neue Aufgabenumgebungen geht.

Im weiteren Textverlauf folgen weitere Informationen zum aktuellen Forschungsstand und den Vor- und Nachteilen, die mit AGI einhergehen.

Verschiedene Formen der Künstlichen Intelligenz

Im Verlauf der Entwicklungsgeschichte haben sich verschiedene Formen der Künstlichen Intelligenz etabliert. Allgemein hin spricht man auch von verschiedenen Ebenen, die eine Künstliche Intelligenz erreichen kann.

Zum einen gibt es die Künstliche Intelligenz mit reaktiven Maschinen. Es ist die erste Ebene der KI. Wie der Wortlaut andeutet, kann die KI ausschließlich auf festgeschriebene Situationen reagieren. Die KI kann weder lernen noch Sachverhalte verstehen, die neu hinzukommen. Bekanntheit erlangte die KI aus diesem Spektrum mit dem Schachcomputer Deep Blue. Feng-hsiung Hsu hatte 1985 mit dem Projekt angefangen. 1996 hatte Deep Blue Geschichte geschrieben, als der Computer den Schachweltmeister Garri Kasparow geschlagen hat.

Auf der anderen Seite gibt es die Limited Memory KI. Die Künstliche Intelligenz hat ein eigenes „Gedächtnis“, nämlich den Speicherplatz. Dabei handelt es sich um die zweite Ebene der KI. Hiermit ist es der KI möglich, größere Datenmengen zu verarbeiten und entsprechende Rückschlüsse zu ziehen. Unter anderem ist diese Form der KI in selbstfahrenden Autos präsent. Die KI kann anhand der eingespeisten Daten auf bestimmte Situationen adäquat reagieren.

Schließlich gibt es die dritte Ebene, die heute noch zu dem Bereich der Science-Fiction gehört. Roboter aus dieser KI-Stufe sollten in der Lage sein, die Emotionen der Menschen zu deuten. Im gleichen Zuge soll es Maschinen möglich sein, auf bestimmte Emotionsregungen zu reagieren. Hiermit werden Roboter in der Lage sein, in Interaktion mit ihrem Umfeld zu treten – zumindest der Theorie nach.

Die vierte Ebene ist die AGI und somit die fortschrittlichste Form der KI. In dieser Phase werden Roboter in der Lage sein, dieselben Dinge zu tun wie Menschen. Maschinen werden ein künstliches Bewusstsein haben, sodass es einen erheblichen Meilenstein in der KI darstellen wird. Diesbezüglich gibt es bereits jetzt schon Diskussionen, inwieweit Roboter das Recht darauf haben, als vollwertige Mitglieder der Gesellschaft akzeptiert zu werden. Damit einhergehend wird besprochen, ob man Robotern Menschenrechte zusprechen sollte.

AGI: Aktueller Entwicklungsstand der KI

Auch wenn die Digitalisierung unermüdlich voranschreitet, gibt es aktuell nur mäßigen Erfolg in puncto AGI. Laut aktuellen Forschern ist es noch ein weiter Weg, bis die Künstliche Intelligenz die vierte Ebene erreicht. Folglich kann es noch Jahre bzw. Jahrzehnte dauern, bis die KI die letzte Ebene erreicht. Aktuelle KI-Systeme können zwar lernen und Zusammenhänge erkennen. Dennoch sind sie nicht in der Lage, zu experimentieren, um gänzlich neue Lösungsansätze zu konzipieren, ohne Hilfe von außen zu bekommen.

Aktuell ist die KI in neuen Lernumgebungen überfordert. Die KI muss mit Informationen eingespeist werden, bevor es Neues lernen kann. Genau hierin unterscheidet sich die maschinelle Intelligenz von der menschlichen Intelligenz. Menschen sind in der Lage, in neuen Umgebungen zurechtzukommen. Die KI ist noch weit davon entfernt, diese Stufe der Intelligenz zu erreichen. Dennoch bleibt es das primäre Ziel der Forschung, die vierte Ebene zu erreichen. Es würde den Handlungsspielraum der Robotik revolutionieren.

AGI als Chance – die Vorteile im Blick

Die KI birgt viele Chancen für Gesellschaft und Politik. Hiermit können Roboter unter anderem gefährliche Aufgaben übernehmen, die sonst Menschen übernehmen müssten. Vor allem in Japan und anderen asiatischen Ländern wird die KI genutzt, um den Alltag der Menschen zu erleichtern. Diesbezüglich wird die KI genutzt, um Menschen bei der Trauerbewältigung zu unterstützen.

In Südkorea hat ein Fernsehunternehmen gezeigt, welches Potenzial hinter der KI steckt. Ein Forschungsteam hat die digitale Identität eines verstorbenen Mädchens rekonstruiert. Die Mutter konnte mithilfe einer VR-Brille die Tochter wiedersehen. Das Team hat sowohl die Stimme als auch das äußere Aussehen der Tochter imitiert. In naher Zukunft kann die KI dabei helfen, mit verstorbenen Angehörigen zu kommunizieren.

Roboter können zudem mühsame Arbeit übernehmen, wie etwa in der Pflege. In Japan kommen bereits heute Roboter in der Pflege zum Einsatz. Das Land hat mit einer Überalterung der Gesellschaft zu kämpfen. Kaum ein Land hat so sehr mit der Problematik zu kämpfen wie Japan. Die Technik stellt einen Teil der Lösung dar. Hiermit ist es möglich, den Pflegenotstand zu bekämpfen. Roboter können etwa Rundgänge unternehmen oder dabei helfen, Patienten vom Bett zu heben.

Darüber hinaus bietet die KI einmalige Chancen in der Medizin. Sie kann dazu beitragen, lebensgefährliche Krankheiten noch früher zu diagnostizieren. Der Vorteil der KI ist das grenzenlose Wissen, das der Künstlichen Intelligenz zur Verfügung steht. Roboter müssen keine Fortbildungen machen. Sie können mit Millionen von Datensätzen versorgt werden, die von der KI verarbeitet werden. Diesbezüglich kann die KI bereits jetzt schon Krebs auf medizinischen Bildern erkennen kann, und zwar ebenso gut wie Ärzte.

Doch die Visionen gehen noch viel weiter, in Hinblick auf AGI. In Zukunft wäre es möglich, dass Roboter lästige Hausarbeiten erledigen. Damit einhergehend wäre es vorstellbar, dass sie den Einkauf erledigen und vieles mehr. Es würde das Leben, so wie es die Menschen jetzt kennen, gänzlich verändern. Aber es bleibt eine Fiktion, zumindest laut aktuellem Forschungsstand. In den nächsten Jahren ist damit zu rechnen, dass es neue Meilensteine in diesem Bereich geben wird.

AGI als Gefahr – Nachteile im Fokus

Filme aus Hollywood nutzen gerne die KI als mögliche Gefahr für die Existenz der Menschheit. Doch wie realistisch sind diese Szenarien? Kann die KI zum Feind der Menschen werden? Welche Gefahren ergeben sich aus der Weiterentwicklung der KI? Es folgen einige Erläuterungen, die Aufschluss geben.

Eine stille Gefahr ist der Stellenabbau, der durch die KI verursacht wird. Mit dem Zeitalter der Digitalisierung und Automatisierung kam es zu leer stehenden Lagerhallen. Wo sonst hunderte Angestellte gearbeitet haben, gibt es nur eine Handvoll Mitarbeiter. Ein Großteil der logistischen Arbeit kann durch Roboter erledigt werden. Der Handelsriese Amazon hat das Potenzial von Robotern erkannt, zum Nachteil seiner Mitarbeiter. Anfang 2023 kam es zu einer Entlassungswelle. Ein Sprecher verlautbarte, dass bis zu 18.000 Stellen gestrichen werden sollen.

Doch gibt es auch potenzielle Gefahren, die gerne in Filmszenen dargestellt werden? Tatsächlich stellen Roboter auch eine Gefahr für Menschen dar, und zwar seit vielen Jahren schon. Diesbezüglich kommt es immer wieder zu Drohnenangriffen. Auf diese Weise können Menschen an allen Orten der Welt getötet werden. Rein theoretisch ist es möglich, die Drohnen autonom handeln zu lassen. Hiermit können bestimmte Menschengruppen automatisch beschossen werden. Folglich kann die KI in Zukunft dazu beitragen, dass sich Konflikte verschärfen.

Des Weiteren stellt die KI, insbesondere AGI, eine Gefahr dar, wenn es um staatliche Überwachung geht. China ist ein Negativbeispiel, das aufzeigt, wie die KI für die Überwachung genutzt werden kann. Es können Bewegungsprotokolle erstellt und Gesichter auf öffentlichen Plätzen erfasst werden. Die KI bietet zahlreiche Möglichkeiten, Menschen zu kontrollieren. In der Volksrepublik China ist es heute schon Alltag, überall überwacht zu werden. Jährlich investiert die Regierung Millionensummen, um den Überwachungsapparat auszubauen.

Abseits davon sind die Risiken auf die menschliche Psyche noch unerforscht. Diesbezüglich steht noch nicht fest, ob digitale Kopien von Verstorbenen den Trauerprozess unterstützen oder hemmen. Kritiker äußern, dass es im schlimmsten Fall, die Trauer verschlimmern kann. Zudem kann nicht ergründet werden, inwieweit die Gesellschaft bereit ist, humanoide Roboter als Teil der Gesellschaft zu akzeptieren. Es kann zu gesellschaftlichen Konflikten führen, deren Ausgang ungewiss ist.

Fazit: Was ist AGI (Artificial General Intelligence)?

Es lässt sich nicht abschließend sagen, wann die KI die vierte Stufe erreichen wird. Damit einhergehend lassen sich die Folgen für die Gesellschaft nur schwer abschätzen. Dennoch ist es wichtig, die Themen heute schon anzusprechen. Auf diese Weise kann ein Großteil der Bevölkerung auf das Thema sensibilisiert werden. Der technische Fortschritt macht fortwährend große Sprünge. Folgerichtig ist es bedeutsam, sich auf die Zukunft vorzubereiten.

Grundsätzlich bietet die KI positive Veränderungen. Die KI wird in Zukunft dazu beitragen, dass das Leben der Menschen einfacher wird. Gleichzeitig braucht es wichtige Gesetzesänderungen, um einen Missbrauch durch KI zu unterbinden. Unter anderem haben staatliche Institutionen die Möglichkeit, die Bevölkerung mithilfe der KI zu überwachen. Deshalb sind Datenschutzgesetze von elementarer Bedeutung, um einen Machtmissbrauch zu unterbinden.

Letztlich wird die KI das Leben der Menschen bereichern. Die Entwicklung der KI kann nicht gestoppt werden, ungeachtet der potenziell möglichen Risiken. Viel wichtiger ist es deshalb, nach Lösungen zu suchen, um die KI in das gesellschaftliche Leben zu integrieren.

Was ist Kriegsbegeisterung / Kriegseuphorie? Bedeutung, Erklärung, Definition


Von Kriegsbegeisterung spricht man, wenn sich größere Bevölkerungsgruppen oder ganze Völker für Krieg oder kriegerische Auseinandersetzungen begeistern, sowie diese befürworten.

Kriegsbegeisterung im Ersten Weltkrieg: Wie kam es dazu? Erklärung

Aufgrund der die militärischen Interventionen im Irak und in Afghanistan konnte man in den letzten Jahrzehnten feststellen, dass die Mehrheit der deutschen Bevölkerung Kriegen skeptisch gegenübersteht. Historisch betrachtet ist diese Haltung keineswegs selbstverständlich. Deutschland erlebte beim Ausbruch des Ersten Weltkrieges im August 1914 eine nie da gewesene Kriegsbegeisterung, die sich schon im Vorfeld abzeichnete.

Historiker nennen dieses Ereignis das „August-Erlebnis“. Die Begeisterung zeigte sich durch Fahnen schwenkende Menschen auf den Straßen, Männer, die jubelnd ihre Hüte in die Luft warfen und um Gottes Beistand für den Gang zu den Waffen baten. Man versammelte sich auf den Straßen, um den Soldaten zuzujubeln. Die Kriegsbegeisterung 1914 erfasste nicht nur Deutschland, sondern ganz Europa.

Kriegseuphorie: überhöhte Vorstellungen der eigenen Macht und viel Unwissenheit

Das Attentat auf Erzherzog Franz Ferdinand in Sarajevo war quasi die Initialzündung, wurde als Vorwand eingesetzt. Die eigentliche Triebkraft für den Ersten Weltkrieg waren jedoch der übersteigerten Nationalismus und ein starkes Überlegenheitsgefühl des Deutschen Reiches. Nach dem Attentat in Sarajevo erklärten Österreich-Ungarn und das Deutsche Reich Russland und anderen Nationen zuerst den Krieg. Der hatte sich durch wiederkehrende Krisen schon vorher angebahnt, konnte bis dahin noch abgewendet werden. Infolge der Propaganda durch Kaiser Wilhelm II. sah die Bevölkerung Krieg als eine gerechte Sache an. Obwohl das Land gar nicht angegriffen worden war, schien die militärische Verteidigung in den Augen aller unbedingt notwendig.

Der Glaube der militärischen und politischen Führung, den Krieg in wenigen Monaten mit einem Sieg Deutschlands beenden zu können, heizte die Euphorie weiter an. Der letzte zurückliegende Krieg war der deutsch-französische Krieg von 1870/71, der recht schnell gewonnen wurde. Man war davon überzeugt, auch jetzt andere Völker mit Leichtigkeit besiegen zu können. In der Zwischenzeit hatte man die Waffenindustrie erheblich weiterentwickelt und auch die Größe der Heere war rasant gewachsen. Da Deutschland auch eine leistungsfähige Kriegsmarine aufbaute, konnte sich bald ein unrealistisches Überlegenheitsgefühl etablieren. Selbst die Militärs waren ahnungslos darüber, was im Falle eines Krieges auf sie zukommen würde. Zum unrealistischen Bild eines schnellen Sieges gesellte sich große Unwissenheit. So war die Bevölkerung leicht zu manipulieren.

Die Kriegsbegeisterung zeigte sich hauptsächlich in den Städten. Auf dem Land schätzte man die Situation realistischer ein. Hier lebten alle von der Landwirtschaft. Man wusste, dass die Männer einberufen und die Ernte damit ausfallen würden. Somit war die ländliche Bevölkerung Kriegshandlungen viel kritischer gegenüber eingestellt.

Entstehung von Kriegsbegeisterung aus Sicht von Historikern (bezogen auf den Ersten Weltkrieg):

1. These: Die Wehrpflicht für zur Kriegsbegeisterung

Die Begeisterungswellen befeuerten einen Krieg der Völker. Bis zum 19. Jahrhundert führte man Kriege mit Berufsheeren, was sich erst mit der Einführung der allgemeinen Wehrpflicht änderte. Frankreich, Deutschland, Russland und das ganze Habsburger Reich verankerten diese in ihren Gesetzgebungen. Das führte auch zu einer Veränderung des Kriegsführungsprinzips. Nun kämpften nicht mehr einzelne Heere, sondern ganze Völker gegeneinander. Es gab keine Trennung mehr zwischen Volk und Armee, mit der Folge, dass auch die normale Bevölkerung in den Krieg hineingezogen wurde.

Man kann dies als eine Form der Radikalisierung betrachten. Die Regierung konnte die nationalistischen Leidenschaften, die durch den Kriegsausbruch hervorgerufen wurden, von jetzt an nicht mehr kontrollieren. Das wiederum machte einen Friedenskompromiss unmöglich.

2. These: Krieg hat eine soziale Verwurzelung

Eine Armee aus wehrpflichtigen Soldaten ist nur dann motiviert, wenn die Bevölkerung hinter ihr steht und in Kriegshandlungen eine Notwendigkeit sieht. Damit das eintritt, muss das Volk von einem gerechten Krieg ausgehen, der der Verteidigung des Landes dient und gewonnen werden kann. Genau das war im Deutschen Reich vor Ausbruch des Ersten Weltkrieges der Fall. Man hatte das Gefühl, im Recht zu sein und speiste daraus den Kriegsenthusiasmus.

Die stärksten Ideologien im Kaiserreich waren Militarismus und Nationalismus. Ohne diese Ideologien ist Kriegsbegeisterung nicht denkbar. Im Deutschen Reich etablierte sich ein regelrechtes Kriegsvereinswesen, aus dem sich dann eine ganze Volksbewegung entwickelte. In den Kriegsvereinen pflegte man gezielt die Erinnerung an Einigungskriege und verbreitet sie propagandistisch in Vereinszeitschriften. So konnten sich auch in der Bevölkerung nationalistische Gedanken festsetzen. Die Kriegsvereine waren mächtig, hatten ca. drei Millionen Mitglieder. Die patriotischen Gedanken von Kaiser Wilhelm II. stießen hier auf sehr fruchtbaren Boden. Mitglieder dieser Vereine waren meist einfache Arbeiter und Kleinbürger, die leicht manipuliert werden konnten. Historiker sprechen von einem Gesinnungsmilitarismus der einfachen Leute.

Kann man im Weltall den Helm abnehmen? Warum tragen Astronauten Helme? Erklärung


Warum tragen Astronautinnen und Astronauten Helme? Und was würde passieren, wenn sie den Helm im Weltall abnehmen?

Astronautinnen und Astronauten tragen im Weltall Helme, da sie sonst nicht überleben könnten. Das liegt daran, dass es im Weltall keinen Luftdruck und keinen Sauerstoff gibt. Beide sind für das Überleben des menschlichen Körpers unabdingbar.

Wenn ein Astronaut oder eine Astronautin im Weltall – also außerhalb einer Raumstation oder -kapsel – den Helm abnehmen würde, würde er oder sie innerhalb weniger Sekunden das Bewusstsein verlieren und kurz darauf sterben. Das liegt daran, dass im Weltraum ein Vakuum herrscht und daher dort keinen Luftdruck gibt.

Warum ist Luftdruck für unseren Körper so wichtig?

Ähnlich wie bei Tiefseefischen der Wasserdruck lebensnotwendig ist, benötigen Menschen Luftdruck, um zu überleben. Der Organismus eines Tiefseefisches ist darauf ausgerichtet, unter hohem Wasserdruck zu funktionieren – wenn man ihn an die Oberfläche holt, stirbt er und verwandelt sich in einen nicht wieder zu erkennenden Haufen. Das liegt daran, dass sich seine Zellen aufgrund des fehlenden Drucks ausdehnen und platzen.

Das Gleiche passiert bei Menschen, wenn plötzlich der Luftdruck fehlt – was der Fall ist, wenn ein Astronaut oder eine Astronautin außerhalb einer Weltraumstation den Helm abnehmen würde. Denn der Luftdruck sorgt nämlich dafür, dass ausreichende Mengen an Sauerstoff in der Luft vorhanden sind, um unseren Körper und unser Gehirn gut zu versorgen. Deshalb benötigen Bergsteigerinnen und Bergsteiger in großen Höhen auch oft Sauerstoffflaschen: Denn durch den geringeren Luftdruck in diesen großen Höhen ist auch weniger Sauerstoff in der Luft verfügbar, was zu einer schlechteren Versorgung von Gehirn und Muskulatur führt und im schlimmsten Fall eine Bewusstlosigkeit verursacht.

Gleichzeitig sorgt der Luftdruck dafür, dass das Gas in unserem Körper, unseren Lungen und unseren Blutgefäßen genau die Größe hat, die wir zum Überleben benötigen.

Wenn nun – wie bei Astronautinnen oder Astronauten, die plötzlich ihren Helm abnehmen – der Luftdruck rasant abfallen würde, würde das dazu führen, dass sich alle im Körper vorhandenen Gase auf einen Schlag ausdehnen. Dies geschieht natürlich auch mit allen Gasen in der Lunge und in den Lungenbläschen, wodurch sowohl die Lungenbläschen als auch die Lungen selbst platzen würden. Das ist nicht nur extrem schmerzhaft, sondern auch akut lebensbedrohlich, da der Körper nun keinen Sauerstoff mehr aufnehmen kann.

Gleichzeitig dehnt sich auch der im Blut vorhandene Sauerstoff aus, wodurch die Blutgefäße platzen und es zu schweren inneren Blutungen kommt. Auch das ist ohne sofortige medizinische Hilfe tödlich.

Gibt es einen Weg, ohne Helm und Anzug im Weltall zu überleben?

Außerhalb einer Raumstation, Raumkapsel oder Rakete nicht.
Selbst wenn es irgendwie gelingen könnte, das Vakuum im Weltall und die dadurch ausgelösten Folgen durch fehlenden Luftdruck für den Körper zu überleben, würde man entweder aufgrund des Sauerstoffmangels im Weltall ersticken oder durch die extremen Temperaturen im Weltall sterben.

Denn je nach der Entfernung zur Sonne herrschen im Weltall extrem hohe oder extrem niedrige Temperaturen, die einen Astronauten oder eine Astronautin ohne die nötige Schutzausrüstung entweder erfrieren oder verglühen lassen würden. Gerade die extrem hohen Temperaturen sind sogar für Astronautinnen und Astronauten mit Anzug ein Problem und der Grund dafür, weshalb bisher noch kein Mensch auf der Venus oder in der Nähe der Sonne war.

Nicht zuletzt wäre man ohne Anzug und Helm der oft radioaktiven Strahlung im Weltall schutzlos ausgeliefert, was ebenfalls früher oder später zum Tod führen würde.

Ein weiterer Grund, warum ein Überleben ohne Schutzausrüstung im Weltall nicht möglich wäre, ist, dass Flüssigkeiten rasant verdampfen oder verdunsten würden. Dadurch würden die menschlichen Schleimhäute austrocknen, was zunächst die Augen, die Nase und den Mund zerstören würde. Durch die dadurch freiliegenden Schleimhäute im Rachen würden auch Luft- und Speiseröhre austrocknen und damit zerstört werden. Ein Atmen wäre nun also selbst dann nicht mehr möglich, wenn man dem Astronauten oder der Astronautin den Helm wieder aufsetzen würde.

Was ist Dogfooding? Bedeutung, Definition, Erklärung


Im Bereich der Softwareentwicklung ist der Begriff „Dogfooding“ besonders bekannt. Dies bedeutet nichts anderes, als dass ein Unternehmen seine eigenen Produkte zunächst komplett selbst testet, bevor die Produkte in den Verkauf gehen. Die Mitarbeiter werden also angehalten, ihre eigenen Produkte zu nutzen und zu testen. Kurzum kann also gesagt werden, dass das Unternehmen „sein eigenes Hundefutter frisst“.

In Deutschland ist der Spruch „Eat your own dog food“ bisher nicht besonders bekannt und würde übersetzt so viel heißen wie „Friss dein eigenes Hundefutter“. Das mag sich für manch einen hemmungslos anhören, jedoch ist es im englischsprachigen Raum ein sehr geläufiges Sprichwort. Wenn ein Unternehmen Dogfooding vollzieht, bedeutet dies schlichtweg, dass die Mitarbeiter des Unternehmens die eigens hergestellten Produkte auf Qualität testen, um so Verbesserungen herausarbeiten zu können. Zum Beispiel trinkt ein Coca Cola-Mitarbeiter keine Pepsi, genauso wie die Mitarbeiter von Microsoft zur Protokollierung ihrer Arbeitsstunden ausschließlich Excel verwenden.

Ursprung von Dogfooding

Bezüglich des Ursprungs des Begriffs Dogfooding existieren zwei Mythen. Eine Variante der Mythen ist jene, die sich aus einer Werbung aus den 1970er-Jahren herleiten lässt. Hier behauptet der Schauspieler Lorne Greene, dass das Hundefutter der Marke Alpo so gut sei, dass er selbst seinen eigenen Hunden anbieten würde. Der zweite Mythos geht dahin, dass ein Vorstandsvorsitzender mit dem Namen Karl Ken Pet Food während einer Aktionärsversammlung absichtlich Hundefutter gegessen haben soll.

Wozu dient Dogfooding? Sinn, Zweck, Nutzen

Dogfooding wird hauptsächlich als effektives Werkzeug für die Qualitätssicherung eingesetzt. Denn nur, wenn man mit dem selbst hergestellten Produkt nicht gänzlich zufrieden ist, hat es Potenzial zur Verbesserung. Schließlich fährt niemand gerne mit einem PKW umher, der alle 20 Kilometer stehen bleibt. Allerdings kann man es mit dem Dogfooding auch übertreiben. Selten haben Programmierer Ahnung von Buchhaltung, um ein Buchhaltungsprogramm auf Herz und Nieren zu prüfen. Genauso wenig möchte ein Maschinenbauer im Schichtbetrieb ganze drei Monate vor seiner Industriemaschine stehen, um sie zu testen.

Manchmal erfordert Dogfooding aber auch jede Menge Mut. So wurde beispielsweise ein Produkt für Kreissägen erfunden, welches schwere Unfälle verhindern soll. Hierzu wird am Sägeblatt gemessen, welche Kapazität das zu schneidende Material besitzt, damit verhindert wird, dass „Fleisch“ dazwischen gerät. Wird „Fleisch“ erkannt, kann die Maschine innerhalb 1/100 Sekunden anhalten. Der Erfinder dieses Produkts war dermaßen davon überzeugt, dass er sogar selbst seine Finger in die laufende Kreissäge hielt.

Wo ist Dogfooding noch zu finden?

Natürlich hat Meta-Chef Mark Zuckerberg seinen Mitarbeitern ebenfalls Dogfooding verordnet. Zuckerberg träumt von einer virtuellen Welt, in der Avatare nicht nur arbeiten, sondern auch ihre Freizeit verbringen.

Die wichtigste Anwendung zurzeit (2022/2023) nennt sich „Horizon Worlds“, ist jedoch unter den Mitarbeitern von Meta so unbeliebt, dass sich kaum jemand dort aufhält. Daraufhin hat der Vizepräsident des Konzerns verordnet, dass jeder, der dort arbeitet, sich in Horizon Worlds verlieben soll. Dies geht schließlich nicht, ohne es zu nutzen. Insbesondere passt dieses Vorgehen hervorragend in die staatlich beeinflussende EU. Nicht zuletzt, da die Europäische Kommission selbst eine virtuelle Party im Metaverse von Zuckerberg veranstaltet hatte.

Hierbei konnte jeder EU-Bürger zwischen 18 und 35 Jahren teilnehmen und beispielsweise mit ihren Avataren an unterschiedlichen Stränden tanzen. Ziel des Ganzen war es, das Interesse für die Tätigkeiten der EU sowie das Metaverse zu wecken. Leider war die Veranstaltung nicht wirklich erfolgreich. Nur insgesamt sechs Personen trafen sich im Metaverse. Einer von ihnen war Journalist, weshalb diese Veranstaltung auch in die Presse fand. Es dauerte aber nicht lange, da waren alle anderen 5 übrig gebliebenen Teilnehmer verschwunden und der Journalist blieb alleine zurück.

Wie nutzt Apple Dogfooding?

Meistens ist es keine gute Idee, Berufliches und Privates miteinander zu vermischen. Wer irgendwann sein Unternehmen verlässt, kommt womöglich nicht mehr an seine persönlichen Daten heran, da er sämtliche Accounts und Geräte abgeben muss. Deshalb fordern immer mehr Betriebe eine strikte Trennung, auch wenn Mitarbeiter ihre eigenen Geräte für berufliche Zwecke nutzen. Ausnahme bildet hier der Konzern Apple. Aufgrund des Dogfooding müssen die Mitarbeiter ihre privaten Accounts nutzen. So soll noch während der Entwicklungsphase festgestellt werden, welche neue Software noch Verbesserungsbedarf benötigt.

Zudem untersagt es Apple, dass sich Mitarbeiter neue IDs mit den Arbeitsaccounts generieren, um sich so beispielsweise bei der App-Store-Plattform anzumelden. Vielmehr hat Apple erwartet, dass sie ihre eigenen, persönlichen Accounts nutzen. Insbesondere auch deshalb, da iPads, Macs oder iPhones sowieso nur einen Haupt-Account für iCloud akzeptieren. Nur für Medienangebote können weitere Apple-IDs angelegt werden.

Zudem kam durch die Presse ans Licht, dass es beim Dogfooding, also beim frühen Testen von neuer Software, zu wesentlich mehr Datenerfassung kommt, als beim Endkunden. Hauptsächlich trifft dies auf die Gesichtserkennung zu, welche bei jedem Öffnen eines Gerätes, ein Foto vom Nutzer macht. Wäre dies bei den letztendlichen Kunden der Fall, würden diese vermutlich durchdrehen. Der Konzern hat sich bisher zu diesen Vorfällen nicht geäußert.

Was bedeutet Reinraum / Reinraumlabor in der Datenrettung? Erklärung


In vielen Branchen und auch im privaten Bereich spielt die Datenrettung eine wichtige Rolle. In einem Zeitalter, in dem immer mehr Prozesse digitalisiert sind, wächst sogleich die Ansammlung an wichtigen Daten. Müssen diese über die Datenrettung wieder gewonnen werden, fällt häufig der Begriff des Reinraums. Was genau sich dahinter verbirgt und wo die große Bedeutung für die Branche liegt, klärt dieser Artikel.

Was ist ein Reinraum? Erklärung

Was sich hinter dem Begriff verbirgt, lässt sich schon auf Basis seiner Komponenten sehr gut einschätzen. Das Wort „Reinraum“ bezeichnet einen Raum, in dem eine sehr geringe Konzentration an luftgetragenen Teilchen vorzufinden ist. Als luftgetragene Teilchen werden in dem Fall alle Stoffe und Partikel bezeichnet, die zwar nicht mit dem bloßen Auge sichtbar sind, aber in der Luft schweben.

Der klassische Reinraum hat durch diese besondere Eigenschaft eine große Bedeutung in verschiedenen Branchen. Dies gilt neben der Datenrettung zum Beispiel für den Bereich der Medizintechnik. Aber auch im Bereich der Lasertechnologie, der Luft- und Raumfahrt und bei der medizinischen Forschung sind Reinräume sehr gefragt.

Genauer wird zwischen unterschiedlichen Stufen der Reinheit unterschieden, die bei unterschiedlichen Arbeiten gefragt sind. Ein Reinraum der Klasse D zeichnet sich gemäß des GMP Leitfadens dadurch aus, dass darin im Ruhezustand 3.520.000 Partikel zu finden sind, die größer oder gleich 0,5 µm sind. Zusätzlich dürfen sich dort 29.000 Partikel größer oder gleich 5 µm befinden. Dass diese Grenzwerte noch deutlich strenger sein können, das zeigt der Blick auf die Klasse A. In einem solchen Reinraum, der besonders hohen Anforderungen gerecht werden soll, dürfen sich maximal 3.520 Partikel befinden, die größer oder gleich 0,5 µm sind. Zusätzlich sind maximal 20 Partikel größer oder gleich 5 µm zulässig.

Warum ist der Reinraum für die Datenrettung essentiell?

Ein temporärer Verlust von Daten kann bei der Wiederherstellung in einem Reinraum besonders effektiv behoben werden. Hierbei handelt es sich um Reinräume der gehobenen Kategorie, in denen höchstens 100 Partikel von einem Durchmesser kleiner als 0,5 µm pro Kubikmeter Luft vorhanden sein dürfen. Diese Umgebung ist bei den Arbeiten notwendig, um so weitere Verluste von Daten verhindern zu können. Wer selbst vom Problem des Datenverlusts betroffen ist, kann deshalb mit gutem Gewissen die Dienste von einem Datenrettungslabor in Anspruch nehmen.

Dies liegt daran, dass Datenverluste, die durch Schäden an der Hardware verursacht wurden, meist physikalische Gründe haben. Auf der sehr empfindlichen Magnetschicht des Datenträgers setzen sich winzige Staubpartikel ab. Bei der Rotation der Festplatte bahnen sie sich ihren Weg bis zum Lesekopf und können dort erhebliche Schäden nach sich ziehen. Ein Öffnen der Festplatte zur Reparatur und der Rettung der Daten ist deshalb nur möglich, wenn ein Schutz der Magnetplatte im Rahmen eines Reinraumes zu jeder Zeit gewährleistet werden kann. So stehen bei der Reparatur der Festplatten die gleichen geschützten Bedingungen zur Verfügung, wie sie auch bei der Herstellung notwendig sind.

Im Anschluss der Reparatur besteht die Möglichkeit, den Zustand der dort gespeicherten Dateien zu bewerten. Auf dieser Grundlage kann dann eine exakte Kopie der Rohdaten erstellt werden. Im nächsten Schritt werden nun die Daten aus dem Speichergerät extrahiert, damit sie wieder problemlos abgerufen werden können. Diese Dienste müssen nicht besonders teuer sein. Geht es beispielsweise um die Wiederherstellung von bereits gelöschten Daten, kann Datenrettung im Reinraumlabor bereits ab rund 100 Euro über die Bühne gehen. Da viele Privatpersonen und auch Firmen die Kosten jedoch deutlich höher einschätzen, unterbleibt der oftmals doch vielversprechende Versuch, noch einmal an die Daten zu kommen.

So funktioniert der Reinraum

Wie die Definition des Reinraums zeigt, müssen diese Räumlichkeiten besonders strengen Anforderungen gerecht werden. Deshalb sind die Räume so konstruiert, dass die Anzahl der luftgetragenen Teilchen so niedrig wie möglich ist. Auch Luftfeuchtigkeit, Luftdruck und Temperatur müssen stets konstant bleiben, um den Raum möglichst rein zu halten.

Ein besonderes Risiko für Verschmutzungen stellen natürlich Menschen dar, die in einem solchen Raum arbeiten. Deshalb müssen sie unter allen Umständen spezielle geeignete Arbeitskleidung tragen – die sogenannte Reinraumkleidung. Auch Kopfhauben und Überzieher für die Schuhe sind für die Arbeit in solchen Räumen zentral. Auch die Arbeitsmittel, die innerhalb des Raumes verwendet werden dürfen und sogar die Arbeitstechniken sind genau geregelt. In den besonders strengen Klassen kann der Zugang in den Raum nur über spezielle Schleusen erfolgen. In diesen Schleusen ist über Filter und starke Luftströme dafür gesorgt, dass möglichst viele Partikel erst aufgewirbelt und in einem zweiten Schritt abgesaugt werden. Erst unter diesen sehr strengen Voraussetzungen ist es möglich, die Anforderungen gemäß des GMP Leitfadens zu erfüllen.

Auch die Oberflächen, die sich im Reinraum befinden, müssen speziellen Anforderungen gerecht werden. Sie sind allesamt abriebfest, damit sich auch unter den Einwirkungen des Luftstroms dort keine weiteren Partikel lösen können. An diesen Punkten zeigt sich, dass das integrierte Luftsystem so etwas wie das Herzstück des Reinraums ist. Dieses muss dazu in der Lage sein, die Konzentration von Partikeln in der Luft derart stark zu reduzieren, dass die strengen Normen der unterschiedlichen Klassen erfüllt sind. Selbst das Verhalten der Menschen im Raum kann die Menge der Partikel stark beeinflussen. So sind zum Beispiel hektische Bewegungen unbedingt zu vermeiden, da durch sie deutlich mehr Partikel in die Luft abgegeben werden. Anders gestaltet sich die Situation bei sehr gleichmäßigen Bewegungen, die für eine deutlich geringere Belastung verantwortlich sind. Auch die Anzahl der Mitarbeiterinnen und Mitarbeiter im Reinraum ist so niedrig wie möglich zu halten. Je weniger Menschen neue Partikel in die Luft schleudern, desto geringer ist folglich die Belastung.

Ein einfaches Beispiel der Datenrettung zeigt, weshalb diese Arbeit nur in solchen speziellen Räumlichkeiten über die Bühne gehen kann. Soll beispielsweise eine Festplatte geöffnet und repariert werden, wird bei diesem Arbeitsschritt notwendigerweise das sensible Innere der Festplatte der Raumluft preisgegeben. In normalen Räumlichkeiten hätten die Ingenieure zwar ebenfalls die Möglichkeit, Hand an der Festplatte anzulegen und das vorliegende Problem zu reparieren. Der wesentliche Unterschied bestünde jedoch darin, dass sich in diesem Arbeitsschritt unmittelbar viele neue Partikel auf der Magnetscheibe der Festplatte absetzen würden. Trotz aller Anstrengungen würde der Schaden am Speichermedium deshalb noch größer werden und die verloren gegangenen Daten wären nicht mehr zu retten.

Was ist das “Shifting Baseline Syndrome”? Bedeutung, Definition, Erklärung


Beim „Shifting Baseline Syndrom“ handelt es sich um ein Phänomen der Umweltforschung, welches in der Wissenschaft sowie Gesellschaft eine zunehmende Rolle spielt. Ganz grundsätzlich beschreibt es die Tendenz, dass sich die Vorstellungen und Erwartungen einer Gemeinschaft in Bezug auf die Natur und Umwelt beständig wandeln. Was heute als normal und akzeptabel betrachtet wird, kann schon morgen in einem gänzlich anderen Kontext gesehen werden. Dabei kann es sich sowohl um Umweltschutz, Ressourcenverwendung sowie Nachhaltigkeit handeln. Mutmaßlich betrachtet das Shifting Baseline Syndrom dabei eine Veränderung der zugrundeliegenden Baseline, die eine Art Referenzpunkt darstellt, an dem Veränderungen gemessen werden können.

Veränderungen der Referenzpunkte geschehen graduell – sie passieren also nur schrittweise und bleiben daher oftmals unbemerkt. Dies führt zum einen dazu, dass der Mensch sich den Tragweiten seiner Handlungen oftmals nicht so sehr bewusst ist. Schädliche Auswirkungen in Bezug auf Natur und Umwelt machen sich zudem oft zeitversetzt bemerkbar. Die tatsächlichen Auswirkungen bekommen demnach erst zukünftige Generationen zu spüren.

Der nun folgende Artikel soll sich daher einmal detailliert mit dem Sachverhalt des Shifting Baseline Syndroms in Bezug auf die Themen Natur, Umwelt und Nachhaltigkeit beschäftigen. Dabei soll es sowohl um eine Sinn- und Wortdefinition, als auch um Auswirkungen, Ansätze zur Bekämpfung sowie um die gesellschaftliche Relevanz des Shifting Baseline Syndroms gehen.

Was ist das “Shifting Baseline Syndrome”? Bedeutung, Definition, Erklärung

Der Begriff „Shifting Baseline Syndrom“ setzt sich aus den englischen Worten „shifiting“ (deutsch: sich verändernd), „Baseline“ (deutsch: „Basislinie“ oder „Referenzpunkt“) sowie „syndrome“ (deutsch: „Syndrom“ oder „Krankheit“) zusammen. Es handelt sich also um ein Phänomen im negativen Kontext, welches eine sich verändernde Basislinie nach sich zieht. Als Basislinie oder Referenzpunkt können verschiedenste Dinge gemeint sein. Im Natur- und Umweltkontext handelt es sich dabei jedoch vornehmlich um die Punkte Umweltschutz, Nachhaltigkeit sowie Ressourcenschonung.

Das hinter dem Shifting Baseline Syndrom stehende Konzept beschäftigt sich daher mit der Veränderung der subjektiven Wahrnehmung von Natur und Umwelt. Ganz konkret beschreibt das Konzept, inwieweit sich unsere Vorstellungen sowie Erwartungen im Laufe der Zeit ändern. Als Gründe für Veränderungen können verschiedene Umweltprobleme angeführt werden. Dabei kann es sich zum Beispiel um den unwiederbringlichen Verlust von biologischer Vielfalt oder Ökosystemen handeln.

Die Folge des Shifting Baseline Syndroms kann abnehmende Qualität der Umwelt und damit der individuellen Lebensumstände bedeuten. Indem wir sich verschlechternde Zustände akzeptieren und irgendwann gar nicht mehr wahrnehmen, verlieren wir den Blick für das große Ganze. Damit beschreibt das Shifting Baseline Syndrom ganz klar eine Verschiebung der individuellen Referenzpunkte zur Beurteilung bestehender Zustände.

Auswirkungen des Shifting Baseline Syndroms auf die Natur und Umwelt

Das Shifting Baseline Syndrom hat große Auswirkungen auf die Natur und die Umwelt. Denn es bedingt, dass der Mensch diese anders wahrnimmt, beziehungsweise beeinflusst. Das Konzept hinter dem Shifting Baseline Syndrom deutet nämlich an, dass dieses das Verständnis von normal und akzeptabel ändert. Somit hat das Shifting Baseline Syndrom verschiedene Auswirkungen auf die Natur und die Umwelt. Dabei gibt es sowohl kurzfristige als auch langfristige Auswirkungen.

Ganz konkret handelt es sich dabei um den Rückgang oder den Verlust von Ökosystemen. Dieser kann mit einem Verlust von Arten, Gattungen sowie der zugrundeliegenden Vielfalt einhergehen. Weitere Auswirkungen können in Form von Wetter- oder Umweltereignissen wie zum Beispiel Klimaerwärmung, verstärktes Aufkommen von Umweltkatastrophen sowie eine sich verschlechternde Lebensgrundlage einhergehen.

Das Shifting Baseline Syndrom ist damit ein Konzept, welches sich mit negativen Aspekten der menschlichen Sicht- und Denkweise beschäftigt. Es gilt als maßgebliches Hindernis für den Schutz sowie die Erhaltung der Natur und Umwelt und wird von Wissenschaft und Gesellschaft aktuell heiß diskutiert.

Ansätze zur Bekämpfung des Shifting Baseline Syndroms

Um effektiv gegen die Auswirkungen des Shifting Baseline Syndroms vorgehen zu können, ist es extrem wichtig, die verschiedenen Wirkmechanismen zu verstehen. Aus diesen können dann Ansätze entwickelt werden, die eine Bekämpfung ermöglichen. Das Shifting Baseline Syndrom ist im Grunde genommen ein Wahrnehmungsfehler, der aufgrund von graduellen Ereignissen geschieht. Diese sorgen beim Empfänger von Informationen für weniger Relevanz, als beispielsweise akute, schwerwiegende Ereignisse.

Als Beispiel hierfür wird oftmals der Frosch im Kochtopf ins Feld geführt. Wird dieser direkt in heißes Wasser geschmissen, wird dieser die Gefahr erkennen und so schnell wie möglich aus dem heißen Wasser zu fliehen versuchen. Wird das Wasser jedoch – gemeinsam mit dem Frosch – graduell erwärmt, so bekommt dieser den schleichenden Temperaturanstieg (und damit die Gefahr für ihn) nicht mit und verstirbt schlussendlich daran.

Ansätze zur Bekämpfung des Shifting Baseline Syndroms basieren daher vor allem auf Bildung, Sensibilisierung sowie Wiederherstellung. Um ein tiefgehendes Verständnis über potenzielle Bekämpfungsansätze des Shifting Baseline Syndroms zu liefern, sollen die nun folgenden Unterabsätze die drei populärsten Möglichkeiten aufzeigen.

1. Ansatz: Bildung und Sensibilisierung

Bildung und Sensibilisierung kann unter anderem dafür eingesetzt werden, um den Menschen über den Wert und die Bedeutung der Natur und Umwelt aufzuklären. Auch können Bildung und Sensibilisierung dazu genutzt werden, um ein besseres Verständnis über Normalität und Akzeptabilität zu schaffen. Hierbei ist es ebenso bedeutsam, dass der Mensch über die Auswirkungen seines Handelns (auch in Bezug auf Auswirkungen auf ihn selbst) aufgeklärt wird.

Derartige Schulungs- und Sensibilisierungsmaßnahmen können unter anderem in Schulen und Gemeinden, Unternehmen sowie in Organisationen durchgeführt werden. Informationsveranstaltungen, Umweltbildungsprogramme, Exkursionen und Aktivitäten eignen sich hier insgesamt am besten, um die notwendigen Informationen bestmöglich zu übermitteln.

2. Ansatz: Erhaltung und Schutz verschiedenster Ökosysteme

Die Erhaltung und der Schutz verschiedenster Ökosysteme stellt ein weiterer Bekämpfungsmechanismus gegen die Auswirkungen des Shifting Baseline Syndroms dar. Dabei geht es vor allem darum, den Verlust der biologischen Vielfalt zu begrenzen, verlangsamen oder ganz zum Stillstand zu bringen. Konkrete Handlungsmaßnahmen können in der Ausweitung von bestehenden Schutzgebieten bestehen. Aber auch die Wiederherstellung von beschädigten Ökosystemen durch regenerative Maßnahmen oder Überflutungsregulierungen sowie der Rückwandlung von landwirtschaftlich oder industriell genutzten Flächen kann dabei im Vordergrund stehen.

3. Ansatz: Beteiligung und Engagement der Bevölkerung

Zu guter Letzt setzt die Bekämpfung des Shifting Baseline Syndroms auch auf die Beteiligung und das Engagement der gesamten Bevölkerung. Besonders wichtig sind dabei die Schärfung des Umweltbewusstseins sowie individueller Verhaltensweisen. Um dies zu erreichen, kann zum Beispiel auf Informationskampagnen gesetzt werden. Workshops zur praktischen Umweltbewahrung kommen hier ebenso infrage.

Ganz konkret sind hierfür Gemeinschaftsprojekte besonders wertvoll. Denn diese sorgen dafür, dass die Bevölkerung gemeinsam an der Umsetzung von Projekten zur Bekämpfung des Shifting Baseline Syndroms beteiligt ist. Dies kann sich zum Beispiel im Pflanzen von Bäumen, im Reinigen von Naturschutzgebieten sowie in weiteren Aktivitäten darstellen.

Nur wenn es gelingt, auch weitere Teile der Bevölkerung in Kampagnen zur Bekämpfung des Shifting Baseline Syndroms miteinzubeziehen, kann von einem wirklich nachhaltigen Effekt gesprochen werden.

Relevanz des Shifting Baseline Syndroms in der heutigen Gesellschaft

Das Shifting Baseline Syndrom wird in der heutigen Gesellschaft ein immer wichtigerer Faktor. Es drückt aus, dass jede Generation seine eigene Referenzlinie besitzt und Dinge, die mit der Umwelt geschehen, anders normal oder akzeptabel einschätzt.

Das Konzept hinter dem Shifting Baseline Syndrom besitzt heute vor allem Relevanz in puncto Klimawandel, wo dieses Phänomen die allmählich sichtbar werdenden Schäden, verursacht durch vergangene Generationen, thematisiert. Umweltbewahrung und das Stoppen des Klimawandels sind große Ziele der heutigen Gesellschaft, die sich natürlich grundsätzlich auch damit beschäftigt, inwieweit der Mensch es eigentlich so weit hat kommen lassen.

Gleichzeitig stellt das Shifting Baseline Syndrom eine Warnung für die Gesellschaft dar, die schleichende Prozesse und graduelle Veränderungen mittlerweile immer besser wahrnimmt. Nur durch die Erkennung des Shifting Baseline Syndroms können auch tatsächlich Abwehrmechanismen in Gang setzt werden, weshalb aktuell vor allem jüngeren Generation sowie die Wissenschaft um die Gefahren des Shifting Baseline Syndroms informiert sind und dieses als ernstzunehmendes Risiko für Natur und Umwelt einstufen.

Perspektive des Shifting Baseline Syndroms in verschiedenen Szenarien

Das Shifting Baseline Syndrom gilt als eine vergleichsweise neuartige Entdeckung, die neben dem Umweltkontext mittlerweile auch in den Sozialwissenschaften beobachtet wird. Hier führt eine Abstumpfung gegenüber arbeitstechnischen Veränderungen ebenso zu besorgniserregenden Verschiebungen von Referenzpunkten.

Perspektivisch wird das Shifting Baseline Syndrom wohl auch noch in weiteren Wissenschaftsbereichen neue Erkenntnisse liefern und stellt damit eine wichtige Entdeckung der neuen Zeit dar. Denn Shifting Baseline führt über kurz oder lang dazu, dass sich Überzeugungen, Verhaltensweisen sowie Akzeptanzkriterien quasi unbemerkt ändern – oftmals zum Schlechten! Nur wer ein kontinuierliches Verständnis einer Baseline verinnerlicht, kann negativen Prozessen gegensteuern und seien sie auch noch so klein und (vermeintlich) unbedeutend.

Fazit zum Thema Shifting Baseline Syndrom

Zusammenfassend lässt sich also sagen, dass das Shifting Baseline Syndrom eine negative Tendenz in der Denkweise den Menschen beschreibt. Es wird mittlerweile als einer der bedeutsamsten Gründe für sich zum Negativen entwickelnde Umwelt- und Sozialbedingungen gehandelt. Die Ursache für das Shifiting Baseline Syndrom kann in der schlecht funktionierenden Wahrnehmung gradueller Veränderungen des Menschen gefunden werden. Wenn sich Dinge nur sehr langsam und in kleinen Schritten ändern, so werden diese vom Menschen häufig nicht wahrgenommen oder es wird den Änderungen keine große Bedeutsamkeit beigemessen. Das kann sowohl im positiven sowie negativen Kontext geschehen. Das Shifting Baseline Syndrom beschreibt damit ein aktuelles Trendthema der Verhaltenspsychologie sowie der Wissenschaft.

Die Bezeichnung „Shifting Baseline Syndrom“ ist unter anderem mit der Begrifflichkeit der „Kultur der Normalität“ verwandt. Auch diese thematisiert eine sich verschiebende Referenzlinie. Ein ähnlich verwandter Begriff stellt aber auch der „Kreislauf der Veränderung“ dar. Diese deutet aber weniger graduelle Veränderungen, sondern vielmehr wiederkehrende Veränderungsprozesse an.

Was ist Nagware? Bedeutung, Definition, Erklärung


Der Begriff „Nagware“ stammt aus dem englischsprachigen Raum und bedeutet ins Deutsche übersetzt so viel wie „unerwünschte Software“. Meist versorgt Nagware seine unfreiwilligen Besitzer nämlich mit „gezwungener Werbung“ und wird daher oftmals als störend empfunden. Nagware an sich stellt damit ein Konzept aus dem Bereich Softwareentwicklung dar, bei dem die Software – oftmals ungewünscht – beim jeweiligen Konsumenten installiert wird und diesen dort dann mit verschiedensten Inhalten versorgt. Gleichzeitig kann es sich aber auch um eine Art Software handeln, die zunächst als kostenlose Version offeriert wird und nach Ablauf der kostenfreien Nutzungsdauer dann mit wiederholten Werbeangeboten auf sich aufmerksam macht.

Die Nagware macht dann in Form von Pop-ups, Hinweisen oder Buttons auf sich aufmerksam und zwingt den Nutzer dann, entsprechend zu reagieren. Das Konstrukt Nagware wird daher vielerorts als unethisch angesehen, obwohl es sich dabei grundsätzlich nicht um Schadsoftware handelt. Wer eine Nagware einmal bei sich installiert hat, kann diese auch ohne weiteres wieder löschen – der Besitz von Nagware verpflichtet zu keinerlei Handlungen. Viele Unternehmen nutzen Nagware daher zur Steigerung ihrer direkten oder indirekten Einnahmen. Der nun folgende Artikel soll daher einmal der Begriffsdefinition von Nagware dienen sowie verschiedene Arten von Nagware und deren Vermeidung aufzeigen.

Was ist Nagware? Bedeutung, Definition, Erklärung

Bei Nagware handelt es sich um eine Software, die Funktionalitäten wie zum Beispiel ständige Benachrichtigungen und Kaufanregungen inkludiert. Das Wort „Nagware“ ist dabei ein Kunstwort und besteht aus den beiden Begriffen „to nag“ (deutsch: „nörgeln“ oder „meckern“) und „ware“ (deutsch: „Ware“). Der Begriff Nagware bezeichnet damit eine Software, die durch ständiges, sinnbildliches Meckern oder Nörgeln auf sich aufmerksam macht.

In der Software-Welt gibt es häufig derartige Wortschöpfungen, bei denen dem Wort „ware“ eine grundsätzliche Eigenschaft der jeweiligen Art von Software angehangen wird – zum Beispiel ist dies auch bei „Ransomeware“ der Fall. In der Praxis landet Nagware oftmals unfreiwillig auf dem PC oder dem mobilen Endgerät des Konsumenten. Sie wird meist verschleiert mitinstalliert oder gar mit einer kostenlosen Version mitgeliefert. Nach Ablauf der kostenlosen Nutzungsdauer macht diese dann wiederholt auf sich aufmerksam, indem diese verschiedene Erinnerungsfunktionen beinhaltet. Das wird vom Empfänger sehr oft als störend empfunden, kann unter Umständen sogar einschüchtern und tatsächlich zum Kauf überreden.

Geschichte von Nagware

Die Geschichte der Nagware geht auf die frühen Tage der Softwareentwicklung, insbesondere auf das Aufkommen des Internets zurück. Geschäftsmodell, die auf Nagware basieren, gab es bereits in den 1980er- und 1990er-Jahren. In diesen frühen Zeiten des Internets wurden Software-Applikationen oftmals als sogenannte Shareware vertrieben – also durch kostenlosen Vertrieb und Verteilung durch die User selbst. Diese konnten die Shareware dann zunächst kostenlos und unverbindlich testen.

Um die potenziellen Nutzer jedoch zum Kauf der bezahlten Versionen zu überzeugen, bauten Softwareentwickler verschiedenste Programme ein, die diese schlussendlich doch noch überzeugen sollten. Dies gilt bis heute als der Ursprung von Nagware. Im Laufe der Jahre wurden die Mechanismen von Nagware noch weiterentwickelt, sodass sich Nagware heute vorrangig selbst verbreitet und oftmals auch nicht so leicht zu erkennen, beziehungsweise zu entfernen ist.

Arten von Nagware

Nagware an sich unterteilt sich noch in verschiedene Arten wie zum Beispiel Pop-up-Werbung, bei der Benutzer durch häufige Pop-up-Meldungen konfrontiert werden und aufgefordert werden, kostenpflichtige Softwareprodukte zu erwerben. Weiterhin existieren auch zeitbegrenzte oder nutzungseingeschränkte Softwareprodukte, die durch Nagware ergänzt werden und auch hier den potenziellen Nutzer dazu überreden sollen, kostenpflichtige Versionen zu erwerben. Zu guter Letzt stellt die sogenannte Spyware eine Art der Nagware dar, die Informationen über das Konsumentenverhalten des Nutzers sammelt. Die Installation sowie Spionage geschehen gleichfalls heimlich, sodass der unfreiwillige Nutzer der Spyware hiervon in der Regel nichts mitbekommt. Nagware und insbesondere Spyware sind jedoch unethisch und stellenweise sogar verboten. Viele Benutzer leisten den ständigen Aufforderungen sogar Folge, um lästige Pop-ups oder Hinweise schnellstmöglich loszuwerden.

Auswirkungen von Nagware

Die Auswirkungen auf die Benutzer von Nagware können sowohl positiver als auch negativer Natur sein. Am häufigsten kommt es beim Benutzer jedoch zu Unannehmlichkeiten, da dieser die ständigen Pop-ups sowie Hinweise als störend empfindet und wegklickt. Dies führt dann fast zwangsläufig zu einer Herabsetzung der Nutzerproduktivität, da diesem weniger Zeit für seine eigentlichen Tätigkeiten bleibt. Auch geschieht gewissermaßen eine Verletzung der Privatsphäre, was speziell bei Spyware der Fall ist.

Auf der anderen Seite kann sich Nagware vor allem für Softwareentwickler als positiv erweisen, da diese potenziellen Nutzer tatsächlich gehäuft zum Kauf animiert. Oftmals erwerben diese nämlich bezahlte Versionen, wo vorher kostenfreie Versionen genutzt wurden. Damit kann Nagware für Softwareentwickler eine lukrative, zusätzliche Einnahmequelle darstellen. Auf der anderen Seite kann Nagware jedoch das Image des jeweiligen Softwareherstellers beträchtlich schädigen.

Vermeidung von Nagware

Vor dem Befall mit Nagware kann sich in jedem Fall weitreichend geschützt werden. Unter anderem sollten vermeintlich kostenlose Softwareprodukte oder Demoversionen grundsätzlich vermieden werden. Außerdem sollten die jeweiligen Lizenzvereinbarungen gelesen werden, die Aufschluss über die Beschaffenheit des Zahlungsmodells (und das potenzielle Vorhandensein von Nagware) liefern.

Weiterhin kann auch spezielle Anti-Virus-Software hilfreich sein, die auf Nagware aufmerksam macht und die Installation dann verhindert. Ist Nagware einmal auf dem System vorhanden, so können zudem Ad-Blocker helfen, um ständige Pop-ups sowie Hinweise zu verhindern. In puncto Anti-Virus-Software sowie Ad-Blocker sollte der eigene Computer oder das eigene, mobile Endgerät jedoch beständig auf dem aktuellen Stand gehalten und entsprechend mit Updates versorgt werden. Zu guter Letzt sollten unsichere Webseite vermieden werden, um das Risiko für das Herunterladen von Nagware zu minimieren.

Fazit zum Thema Nagware

Zusammenfassend lässt sich also sagen, dass Nagware eine spezielle Art Software ist, deren Hauptfunktionalitäten aus der ständigen Mitteilung von Informationen oder Kaufanforderungen sowie Spionage empfindlicher Nutzerdaten bestehen. Sie wird in den meisten Fällen als störend und lästig empfunden, ist aber grundsätzlich nicht gesetzlich verboten. Es sei denn, es handelt sich dabei tatsächlich um Spyware.

Dem Begriff Nagware verwandte Begrifflichkeiten sind zum Beispiel Adware, Shareware sowie Trialware. Während Adware eine spezielle Werbesoftware darstellt, die ähnlich wie Nagware arbeitet, handelt es sich bei Shareware um kostenlose und frei verfügbare Software, die durch die Nutzer selbst verbreitet wird. Hingegen ist Trialware eine kostenlose Versuchsversion einer Software, die nach Ablauf der kostenlosen Nutzungsdauer dann kostenpflichtig wird – dabei kann es sich auch um Demoversionen handeln.

Wie, wo, wann und warum starb Stalin? Erklärung, Geschichte


Der Machthaber Stalin starb offiziell am 05. März 1953 in seiner Datscha in Kunzewo. Sein richtiger Name war Josef Wissarionowitsch Dschugaschwilli und er wurde in der georgischen Stadt Gori am 21. Dezember 1879 geboren. In der Laufzeit seines Lebens wurde er zu einer der politisch mächtigsten Personen auf der ganzen Welt.

Er galt als „stählerner Diktator“ und seine Herrschaft bestand überwiegend aus Terror und Gewalt. Bis zu seinem letzten Atemzug blieb es sehr spannend um ihn. Am 28.Feruar 1953 erlitt er nach einem nächtlichen Trinkgelage einen Schlaganfall. Ärzte rangen um sein Leben und gleichzeitig brach unter seinen Höflingen schon das Gerangel um seine Nachfolge aus.

Irgendwann zwischen dem 01. und 05. März 1953 ist der sowjetische Diktator Stalin nach seinem Hirnschlag gestorben. Dabei unternahmen die Mitglieder des Politbüros der KP stundenlang erst einmal nichts. Dafür hatten sie aber auch ihre Gründe.

Hintergründe zu Stalins Tod

Erst am 04. März 1953 informierte die Regierung über die staatliche Nachrichtenagentur die Welt darüber, dass der Kreml-Chef erkrankt sei. Sie sprachen von einem Unglück, welches die Partei und das Volk getroffen hat. Sie erwähnten eine schwere Erkrankung des Genossen Stalin. Nach dieser Aussage erlitt Stalin in der Nacht vom 01.03. auf den 02.03.1953 einen Schlaganfall in seiner Wohnung. Des Weiteren wird berichtet, dass er unter Herz- und Atmungsstörungen leidet. An dieser Aussage war sowohl die Zeit als auch der Ort fehlerhaft. Dann hieß es, dass zur Behandlung Stalins nur die besten Ärzte herangezogen wurden. Auch diese Aussage ist fehlerhaft, denn zu dieser Zeit saßen die besten Ärzte bereits in den Folterkammern der Geheimdienste. Einen Tag später, also am 05. März 1953, war Stalin tot.

In Wirklichkeit hat es sich jedoch folgendermaßen zugetragen: In der Nacht zum 01. März 1953 war nach dem Schlaganfall von Stalin kein Arzt in der näheren Umgebung. Der Geheimdienstchef wird erst zwölf Stunden nach dem Hirnschlag informiert. Dieser erwidert die Aussage damit, dass man doch keine Panik machen solle. Man würde doch sehen, dass Stalin schläft und man solle ihn nicht stören.

Erst nach weiteren 24 Stunden wird ein Arzt gerufen, der dann seine Hirnblutungen diagnostiziert. Da jedoch jeder Angst vor Fehlern hinsichtlich der Medikamentengabe hatte, wurde er nicht medikamentös behandelt. Nachdem sich dann am 05.03.1953 Stalins Zustand rapide verschlechtert hatte, starb er um 21:50 Uhr. Unter den sowjetischen Bürgern löste die Nachricht des Todes von Stalin Entsetzen und Verzweiflung aus. Auf der Beerdigung des Führers waren enorm viele Menschen anwesend. Aufgrund des riesigen Andrangs wurden dabei einige Menschen totgetrampelt und erdrückt.

Was ist Minting / Minten bei NFTs und Krypto? Bedeutung, Definition, Erklärung


Das Minting spielt in Bezug auf Kryptowährungen eine Rolle, indem eine Person selbst einen neuen Token generieren kann, ohne dass dafür eine Behörde oder Bank involviert sein muss. Hierbei handelt es sich entweder um Krypto-Coins oder um einen Non-Fungibility Token. Übrigens unterscheidet sich die Prägung der Münzen in zwei Arten, wobei das Endergebnis, also die Herstellung neuer Münzen, immer dasselbe ist. Einziger Unterschied liegt im Verfahren, wie diese hergestellt werden.

Die verschiedenen Prägungsarten: Krypto

Bei den beiden Prägungsarten benötigt die eine Münze das sogenannte Mining (Proof of Work-Verfahren) und eine andere Münze benötigt das sogenannte Staking (Proof of Stake-Verfahren). Beim Mining handelt es sich um die Erzeugung von Kryptowährung. Diese entsteht durch das Validieren und Speichern mit dem Handel in einer Blockchain. Üblicherweise erfolgt dies von öffentlichen Geräten aus, was bedeutet, dass jeder Rechner daran teilnehmen kann. Um die komplizierten, mathematischen Probleme zu lösen, werden leistungsstarke Prozessoren erforderlich. Als Dank für das Lösen kryptografischer Gleichungen wird der Miner dann für seine Arbeit in Form von Kryptowährung bezahlt. So kommen neuen Münzen in den Umlauf.

Das andere Verfahren, also das Staking, gilt als die bessere Art des Minting. Von Staking wird gesprochen, wenn ein Nutzer eine Transaktion gegen Kryptowährung prüfen möchte, dieser zunächst aber erst einmal einen hohen Betrag einsetzen muss. Diesen Betrag bezeichnet man dann als Stake. Die zuständigen Stakeholder (Gruppe von Menschen oder eine einzelne Person) werden per Zufallsprinzip ausgewählt. Diese geben dann die gewünschten Transaktionen auf einer Blockchain frei. Dabei gilt, wer mehr Coins einsetzt, umso höher ist die Wahrscheinlichkeit, ausgewählt zu werden. Dabei dürfen Stakeholder den gesetzten Wettbetrag nicht ausgeben. Werden sie beim Aufzeichnen ungenauer Daten oder bei Regelverstößen erwischt, müssen sie damit rechnen, ihren gesamten Einsatz zu verlieren.

Bei beiden Verfahren (Mining und Staking) werden neue Münzen geprägt. Der Begriff „Minting“ wird jedoch häufig in Verbindung mit Staking verwendet. Sowohl bei Mining als auch bei Minting werden neue Blöcke generiert und zu einer bereits vorhandenen Blockchain hinzugefügt. Begriffe wie Staking und Mining werden in Bezug auf das Minting von Kryptowährung angewandt. Dies ist aber nicht gleichzusetzen mit dem Minting eines NFT. Hierbei handelt es sich um einen anderen Vorgang.

Die NFTs finden Eingang im Ethereum Blockchain, wo sie von Urhebern genutzt werden, um Videos, Fotos oder digitale 3D-Objekte zu verkaufen. Um das Minting eines NFTs durchführen zu können, wird zunächst ein Wallet mit Ethereum benötigt. Mit dieser Wallet können sich die Benutzer dann auf einem sogenannten NFT-Marktplatz anmelden (beispielsweise OpenSea). Hier erstellen sie dann ihr NFT, auf dieses sie ihr gewünschtes Objekt hochladen. Für die Erstellung des NFT wird in ETH bezahlt. Ist eine Transaktion bestätigt, wird die nächste NFT gemint. Das Minting kann jedoch auch unterschiedliche Verfahren zur Herstellung verschiedener Token bezeichnen. Der Begriff Minting ist dabei der bekannteste Begriff für die Herstellung neuer Kryptowährungsmünzen mit der sogenannten Proof of Stake-Methode.

Was ist der Unterschied zwischen Minting und Mining?

Bei beiden Verfahren, also beim Mining und beim Minting, werden neue Blöcke an eine Blockchain hinzugefügt beziehungsweise neue Token generiert. Der Unterschied beim Minting besteht darin, dass hierbei bereits vorhandene Token eingesetzt werden. Beim Mining müssen schwere, komplexe und kryptografische Rechenaufgaben gelöst werden, die eine hohe Rechnerleistung benötigen. Bei beiden Verfahren existieren Benutzer, die ausgewählt werden, um eine solche Transaktion zu überprüfen. Hierfür erhalten sie dann eine Gegenleistung (Rewards).

Um was handelt es sich bei NFTs?

NFTs werden als sogenannte „Non-fungible Token“ bezeichnet. Dies bedeutet übersetzt, dass es sich um „nicht tauschbare Wertmarken“ handelt. Ein NFT ist also eine virtuelle Wertmarke, die ein bestimmtes digitales Objekt schützt. Dieses digitale Objekt wird vom NFT als einzigartiges Unikat gekennzeichnet und anschließend einer bestimmten Person zugeordnet.

Bedeutung von NFTs Minten

Grundsätzlich heißt Minten nichts anderes als Prägen. Beim Minten wird dementsprechend ein digitales Objekt in eine Krypto-Sammeldatei umgewandelt. Sobald dieses Objekt erst einmal auf der Blockchain abgespeichert ist, ist auch keine Löschung oder Umwandlung mehr möglich. Bei der umgewandelten Datei handelt es sich dann um einen digitalen Vermögenswert. Dieser wird direkt auf dem Marktplatz mittels Kryptowährung gekauft oder gehandelt.

Unterschieden wird in zwei Arten des NFT Minting:

  • Der NFT wird direkt auf einer Website eines Projekts erstellt.
  • Der NFT kann selbst erzeugt und hochgeladen werden.

Entscheidet man sich für die erste Variante, so können entweder ein NFT oder auch mehrere auf einer Website erstellt werden. Jedoch werden keine schon vorher bekannten NFTs gemintet. Vielmehr wird, wie bei allen erzeugten Kunstwerken, zufällig generiert. Sobald ein Projekt zum Erfolg wird, wird auch das NFT immer beliebter und somit über einen Marktplatz Gewinne erzielen.

Wie, wo, wann und warum starb Sissi? Erklärung, Geschichte


Elisabeth Amalie Eugenie von Wittelsbach (genannt „Sissi“) wurde am 24.12.1837 als eines von acht Kindern in München geboren. Die bayerische Prinzessin wurde erst durch die Heirat mit Franz Josef I. zur Kaiserin von Österreich und späteren Königin von Ungarn. Durch den Historienfilm „Sissi“ (1955) mit Romy Schneider in der Hauptrolle wurde die Figur weltberühmt. Das hier gezeichnete Bild ist allerdings verfälscht und kitschig verklärt.

Wie lebte Sissi?

Die junge Elisabeth liebte ihren Ehemann, der sich aufgrund politisch unruhiger Zeiten wenig um sie kümmern konnte. Von ihrer Schwiegermutter wurde Elisabeth nur widerwillig akzeptiert. Da sich Sissi nicht an die strenge Hofetikette in Wien gewöhnen konnte, mied sie den Hof so gut es ging. Ihr Leben war von zahlreichen Schicksalsschlägen geprägt. Der erste traf sie mit dem Tod ihrer zweijährigen Tochter Sophie. Eine ihrer Schwestern starb später bei einem Großbrand. Sissis Lebensmut schwand endgültig, nachdem sich ihr Sohn Kronprinz Rudolf das Leben genommen hatte. Von nun an wurde Elisabeths Leben noch rastloser, bestimmt von Einsamkeit und Schönheitswahn. Sie unternahm lange Reisen und verbrachte auf Korfu, Madeira und in Venedig viele Wochen. In ihren letzten Lebensjahren bestimmten Trostlosigkeit und Depressionen ihren Alltag. Sie reiste nun fast ohne Unterbrechung quer durch Europa.

Sissi: Umstände des Attentats

Im Jahr 1898 reiste Elisabeth mehrmals in die Schweiz. Dabei lehnte sie stets Personenschutz ab. Gerade in der Schweiz waren zur damaligen Zeit viele Anarchisten aktiv und ein Aufenthalt für eine hochgestellte Persönlichkeit immer gefährlich. Sissi verdrängte das Risiko. Da man ihr zudem eine allgemeine Todessehnsucht nachsagt, ist es durchaus möglich, dass sie das Risiko bewusst eingegangen war.

Am 9. September unternahm sie mit ihrer Hofdame Irma Gräfin Sztáray inkognito eine Schifffahrt. Ihr Ziel war das Hotel „Beau Rivage“ in Genf. Als beide am folgenden Tag das Schiff zur Rückfahrt besteigen wollten, näherte sich ihnen unweit des Hotels ein Mann. Es war der Anarchist Luigi Lucheni. Er stolperte auf die beiden Frauen zu und stieß Sissi mit einer dünn geschliffenen Feile in die Brust. Sissi fiel rückwärts zu Boden und bemerkte die Verletzung zunächst nicht. Sie ging davon aus, dass der Mann sie bestehlen wollte. Als Passanten zu Hilfe eilten, wiegelte sie ab und sagte: „Es ist nichts geschehen.“

Elisabeth und Gräfin Sztáray betraten das Schiff, wo sich ihr Zustand rapide verschlechterte. Sie rang nach Luft und wurde ohnmächtig. Noch einmal soll sie sich aufgerichtet und ihre Begleiterin gefragt haben: „Was ist denn mit mir geschehen?“ Als Sztáray Sissis Kleidung öffnete, um ihr das Atmen zu erleichtern, entdeckte sie einen Blutfleck auf Höhe des Herzens. Da Elisabeth nach dem Attentat noch eine Weile handlungsfähig war, wurde die Verletzung zu spät entdeckt.

Man brachte die Kaiserin zurück ans Ufer und in ihr Hotel. Irma Sztáray schickte ein Telegramm mit den Worten „Ihre Majestät die Kaiserin schwer verwundet“ nach Wien. Um 14:40 Uhr stellte ein Arzt Elisabeths Tod fest. Daraufhin wurde ein zweites Telegramm mit der Todesnachricht nach Wien geschickt.

Nach dem Attentat

Der Obduktionsbefund spricht von einem langen, spitzen Gegenstand, der sich 85 mm tief in die Brust gebohrt und eine Rippe verletzt hat, außerdem einen Lungenflügel, die linke Herzkammer und den Herzbeutel durchgeschnitten hat.

Am 13. September wurde der Leichnam Elisabeths in Genf eingesegnet und am 14. September in einem Sonderzug nach Wien gebracht. Unter den Augen einer riesigen Menschenmenge überführte man den Sarg in die Burgkapelle, wo am 16. September eine Messe stattfand. Abertausende Menschen nahmen von ihrer Kaiserin Abschied. Am 17. September überführte man den Sarg in die Kapuzinergruft, die Grabstätte der Habsburger. Hier liegt Elisabeth von Österreich neben Ehemann und Sohn, Kaiser Franz Joseph und Kronprinz Rudolf.

Was man über den Mörder von Sissi weiß

Ihr Mörder war der damals 25 jährige Luigi Lucheni, ein italienischer Hilfsarbeiter. Er hatte aus der Zeitung vom kaiserlichen Besuch in Genf erfahren. Nach seinem Angriff flüchtete Lucheni in die Rue des Alpes, wo Passanten ihn überwältigten. Die Polizei verhaftete ihn. Auf dem Revier gab er zu Protokoll, dass er eigentlich Prinz Heinrich von Orléans hatte töten wollen. Sollte das nicht gelingen, stand König Umberto von Italien auf seiner Todesliste. Da beide gar nicht in Genf anwesend waren, suchte sich Lucheni offensichtlich ein Ventil für seine Frustration und erstach Sissi aus reiner Mordlust.

Von seiner Verhaftung existiert ein Foto, auf dem Lucheni zufrieden grinst. Entgegen der Theorie vom Zufallsopfer ging die Polizei sofort von einem gezielten Mordkomplott aus, da sich Luigi zusammen mit einer Gruppe Anarchisten schon längere Zeit in der Schweiz aufgehalten hatte. Öffentlich bereute Lucheni seine Tat niemals. Im Gegenteil, er prahlte: „Ich würde die Tat noch einmal begehen“. 1910 erhängte er sich in seiner Zelle.

Antibaby-Pille: Vorteile und Nachteile erklärt


Die Anti-Baby-Pille, umgangssprachlich „Pille“ genannt, ist eine hormonelle Verhütungsmethode, die erstmals 1960 in den USA auf den Markt kam. Ein Jahr später war sie auch in Deutschland erhältlich. Bei korrekter Anwendung verhindert die Pille mit sehr hoher Wahrscheinlichkeit eine Schwangerschaft. Die Pille schenkte Frauen eine nie dagewesene Freiheit und Selbstbestimmtheit über ihren Körper. Dadurch prägte sie die Gesellschaft von Industrieländern maßgeblich. Heute verhüten weltweit ca. 200 Millionen Frauen mit der Anti-Baby-Pille. In Deutschland ist die Pille mit 34 % ähnlich beliebt wie das Kondom mit 38 %.

Vorteile der Anti-Baby-Pille

(Nachteile der Antibaby-Pille folgen weiter unten)

– Die Verhütung mit der Pille ist komfortabel und leicht. Sie gilt außerdem als sehr sicher, deutlich sicherer als beispielsweise natürliche Empfängnisverhütungs-Methoden.

– Die Einnahme der Anti-Baby-Pille erlaubt eine optimale Zykluskontrolle. Die Frau weiß genau, wann sie ihre Periode bekommt und kann diese bei Bedarf einige Tage verschieben. (Davon machen Leistungssportlerinnen gerne Gebrauch).

– Die Pille hat keinerlei Einfluss auf die Fruchtbarkeit. Nach Absetzen werden die meisten Frauen nach einem Zyklus schwanger, egal wie lange sie die Präparate vorher eingenommen haben.

– Durch die Einnahme reduzieren sich Dauer und Stärke der Menstruation, was in der Regel mit weniger Schmerzen verbunden ist. Die Einnahme der Pille kann die Symptome einer Endometriose deutlich lindern.

– Einige Präparate können Akne reduzieren, so dass diese bevorzugt jungen Frauen mit Hautproblemen verschrieben werden. Die positiven Effekte auf die Haut resultieren aus der Tatsache, dass die Einnahme der Pille die Konzentration männlicher Geschlechtshormone im Blut reduziert. Allerdings ist die Wirkung gegen Akne keine zugelassene medizinische Indikation der Pille.

– Ferner ist nachgewiesen, dass Kombinationspräparate das Risiko senken, an Eierstockkrebs und Gebärmutterkörper-Krebs erkranken. Das ist bis 30 Jahre nach Absetzen der Pille der Fall. In Bezug auf andere Krebserkrankung gibt es zwar positive Studiendaten, die sind aber noch nicht gesichert.

– Die Minipille enthält eine Wirkstoffmischung mit extrem wenig Östrogen. Sie eignet sich für Frauen, die eine Hormonbehandlung mit Östrogen nicht vertragen.

Die Antibaby-Pille und ihre Nebenwirkungen: Nachteile

Heute bietet der Markt mehr als 50 verschiedene hormonelle Verhütungsmittel. Sie sind zwar praktisch, aber nicht nebenwirkungsfrei. Insbesondere die Langzeitfolgen haben dazu geführt, dass die Pille an Beliebtheit etwas eingebüßt hat. Manchmal können sich die Symptome bei längerer Einnahme jedoch abschwächen. Ob Mikropille, Minipille oder „normale“ Anti-Baby-Pille, alle Präparate beeinflussen den Hormonhaushalt der Frau.

Da jede Frau anders auf Hormone reagiert, können die Nebenwirkungen sehr unterschiedlich sein. Wird die Pille abgesetzt, kann es mehrere Monate dauern, bis sich der normale Zyklus wieder einstellt. Genauso ist es möglich, dass die Frau nach sehr kurzer Zeit schwanger wird. Gerade Minipillen haben den Nachteil, unregelmäßige Zyklen und Zwischenblutungen hervorzurufen. Diese Präparate können auch während der Stillzeit eingenommen werden, da sie weder die Milchbildung noch die Milchqualität beeinflussen. Stillende Frauen, die trotzdem Bedenken haben, dass ihr Baby mit der Muttermilch Hormone aufnimmt, müssen eine andere Verhütungsmethode wählen.

Die häufigsten Nebenwirkungen sind:

  • Kopfschmerzen
  • Übelkeit und Erbrechen
  • Zwischenblutungen
  • Wassereinlagerungen
  • Stimmungsschwankungen
  • depressive Verstimmungen
  • Gewichtszunahme
  • Nachlassen der Libido
  • Blutgerinnsel, Thrombosen und Embolien

Krebsrisiko durch die Pille – ja oder nein?

Die Einnahme muss immer nach individueller Risiko-Nutzen-Abwägung erfolgen. Bei langer Einnahmedauer (25 bis 35 Jahre) gehen Mediziner von einem marginal erhöhten Risiko (0,1 %) für Gebärmutterhalskrebs und Brustkrebs aus. Frauen, die die Pille einnehmen, haben jedoch ein geringeres Risiko für Eierstockkrebs.

Die Pille erhöht das Risiko für Thrombosen

Eine der wichtigsten und zugleich schwerwiegendsten Komplikationen sind Thrombosen. Frauen mit weiteren Risikofaktoren sind besonders gefährdet. Diese Risikofaktoren sind Rauchen, Übergewicht, Diabetes mellitus, Bluthochdruck und familiäre Vorbelastung. Ein erhöhtes Thromboserisiko kann durch eine Blutuntersuchung festgestellt werden.

Schlechtere Körperwahrnehmung

Es ist unbestritten, dass die Pille stark in den Hormonhaushalt eingreift. Viele Frauen wünschen sich mehr Natürlichkeit und möchten Ihren Körper besser wahrnehmen. Sie haben das Gefühl, die Wahrnehmung wird durch die Pille gedämpft.

Schwächere Libido

Die Pille kann die Libido abschwächen, was selten erwünscht ist und zu Konflikten in der Partnerschaft führen kann.

Feste Einnahmezeiten

Die Minipille muss jeden Tag konsequent zur gleichen Uhrzeit eingenommen werden. Sie eignet sich daher nur für Frauen, die gut strukturiert sind. Sie toleriert nur geringe Abweichungen beim Zeitpunkt der Einnahme.

Störfaktoren für die Wirksamkeit der Pille

Der Empfängnisschutz der Minipille ist nicht mehr gewährleistet, wenn sich die Einnahme um mehr als 12 Stunden verschoben hat oder sie mehr als einmal vergessen wurde. Auch Durchfall und Erbrechen haben Einfluss auf ihre empfängnisverhütende Wirkung. Antibiotika, aber auch pflanzliche Medikamente wie beispielsweise Nahrungsergänzungsmittel mit Johanniskraut, beeinträchtigen die Sicherheit der Anti-Baby-Pille. Wer verreist, muss Zeitverschiebungen berücksichtigen. Bei Zeitverschiebungen bis maximal 12 h (in der Regel alle Reiseziele innerhalb Deutschlands) können Frauen die Pille am Urlaubsort wie gewohnt einnehmen. Bei Flügen in westlicher Richtung vergrößert sich der Einnahmeabstand. Information im Beipackzettel und Gynäkolog:innen geben darüber genaue Auskunft.

Kurze Entwicklungsgeschichte der Antibaby-Pille

Die Idee, Hormone zur Empfängnisverhütung einzusetzen, verfolgten Ärzte schon ab 1919. Margaret Sanger und Katharine McCormick, beides Frauenrechtlerinnen und im medizinischen Bereich tätig, gaben den entscheidenden Anstoß hierzu.

Die Krankenschwester Margaret Sanger sah in ihrem Arbeitsumfeld täglich Frauen, die an den Folgen ungewollter Schwangerschaften litten und nach dilettantisch durchgeführten Schwangerschaftsabbrüchen starben. Beide Frauen waren engagierte Frauenrechtlerinnen und strebten eine großflächige Aufklärung über Verhütung an. 1921 gründeten sie die „Amerikanische Liga für Geburtenkontrolle“.

1951 lernte Sander den Endokrinologen Gregory Pincus kennen und fragte ihn, wie viel Geld er für die Entwicklung eines hormonellen Verhütungsmittels bräuchte. Er veranschlagte weitaus weniger, als letztendlich benötigt wurde, erhielt es aber von der vermögenden Katharine McCormick, einer Freundin Sanders. Sie unterstützte das Vorhaben mit insgesamt 2 Millionen US-Dollar.

Zusammen mit anderen Wissenschaftlern gelang es Pincus, die Hormone Progesteron und Östrogen künstlich herzustellen. Ihre Erfolge sind nicht ohne die Arbeit des Deutschen Chemikers Adolf Butenandt denkbar. Ihm gelang es nach jahrelangen Versuchen, Hormone zu isolieren. Damit schaffte er die chemische Grundlage zur Herstellung der Anti-Baby-Pille. 1939 erhielt Butenandt für seine Forschungen zu Sexualhormonen den Nobelpreis für Chemie.

Als die Pille 1961 auch in Deutschland verfügbar war, gab es seitens der Kirchen erheblichen Widerstand. Man befürchtete einen Verfall der Moral. Zunächst war die Pille auch nicht zur Empfängnisverhütung, sondern als Medikament gegen Menstruationsbeschwerden gedacht. Ärzte verschrieben sie nur verheirateten Frauen mit Kindern. Die empfängnisverhütende Wirkung erwähnte der Hersteller Schering lediglich als Nebenwirkung im Beipackzettel, doch sie kam einer Revolution gleich.

Eine neue Zeit bricht an: die sexuelle Revolution

Erst die Pille machte die sexuelle Revolution der 1960er Jahre möglich, doch das innovative Verhütungsmittel setzte sich nicht von Anfang an durch. Das lag nicht nur daran, dass die katholische Kirche dagegen protestierte, auch die Frauen selbst (50 %) waren der Pille gegenüber skeptisch eingestellt. Das zeigen Umfragen des Allesbach-Institutes von 1963. Sie plädierten sogar dafür, die Pille in Deutschland zu verbieten. Mehr als 60 % der Befragten schlossen sich der Auffassung der Kirchen an, dass die Pille einen negativen Einfluss auf die Moral habe. Obwohl Papst Paul VI. in seiner Enzyklika die Pille sogar mit einem Bann belegte, konnte er letztendlich nicht viel ausrichten. Zu groß war die Freude der Frauen, endlich von der Angst vor einer ungewollten Schwangerschaft befreit zu sein. Von nun an waren Fruchtbarkeit und Sexualität getrennte Lebensbereiche.

Wie funktioniert die Anti-Baby-Pille? Funktionsweise

Die in der Pille enthaltenen Hormone Östrogen und Gestagen unterdrücken die Reifung des weiblichen Eis im Eierstock und verhindern damit den Eisprung. Die Hormone beeinflussen auch die Schleimhaut des Gebärmutterhalses, denn während des gesamten Zyklus bleibt der Muttermund mit einem Schleimpfropfen verschlossen. Dadurch wird das Eindringen von Spermien in die Gebärmutter verhindert. Die Hormone schwächen außerdem den Aufbau der Gebärmutterschleimhaut deutlich ab. Würde wider Erwarten ein Eisprung stattfinden, könnte sich eine befruchtete Eizelle hier nicht einnisten.

Wie wird die Antibaby-Pille eingenommen?

Die einzelnen Einnahme-Anleitungen variieren von Präparat zu Präparat. Frauen nehmen die Tabletten durchgehend ein, sie basieren auf einem Zyklus von 28 Tagen. Die erste Tablette wird bei allen Präparaten am ersten Tag der Regelblutung eingenommen. Nach 21 Tagen folgt eine siebentägige Einnahmepause. In dieser Zeit sinken die Hormonspiegel und eine schwache Regelblutung setzt ein. An Tag acht wird wieder mit einer neuen Packung begonnen. Es gibt auch Präparat die eine durchgehende Tabletteneinnahme vorsehen. Dann enthalten die Tabletten, die in der Zeit der Periode genommen werden, keine Wirkstoffe.

Warum und wann wurden Kettensägen erfunden? Erklärung, Bedeutung, Definition


Die Kettensäge wurde im 18. Jahrhundert von zwei schottischen Ärzten – John Aitken und James Jeffray – erfunden, um gebärenden Frauen die Beckenknochen durchzusägen, um dem Kind auf die Welt zu helfen. Das war nötig, wenn ein Kind beispielsweise zu groß für den Geburtskanal war oder nicht richtig für eine Geburt positioniert war. Mit der Säge wurde damals der Beckenknochen (die Symphyse) durchgesägt oder entfernt – eine sogenannte Symphysiotomie – um mehr Platz für das Kind im Geburtskanal zu schaffen.

Wie sah die erste Kettensäge aus?

Die Kettensäge von John Aitken und James Jeffray erinnerte nur grob an das, was wir heute als Kettensäge kennen. Die ursprünglich als Knochensäge entwickelte Kettensäge bestand aus zwei Handgriffen, zwischen denen eine Kette hindurchgeführt wurde. Diese Kette bestand aus beweglichen, gezahnten Gliedern. Durch ein Hin- und Herziehen dieser Kette mit den Handgriffen konnten Knochen zersägt werden.

Welche Folgen hatte der Einsatz einer solchen Kettensäge bei Geburten?

Da die medizinischen Entwicklungen im 18. Jahrhundert noch nicht annähernd so gut waren wie heute, war der Einsatz einer Kettensäge und das Zersägen von Beckenknochen tatsächlich eine valide Notfallmaßnahme unter der Geburt. Aufgrund des mangelnden Wissens zu Hygiene und Sterilität war ein Kaiserschnitt zu dieser Zeit noch viel riskanter als die Symphysiotomie und endete fast immer mit dem Tod der Mutter durch Verbluten oder Infektionen. Ein Kaiserschnitt hatte zur damaligen Zeit eine Sterblichkeitsrate für die Mutter von fast 100 %.

Doch auch der Einsatz der Kettensäge bedeutete für die Mutter monatelange Schmerzen und barg ein hohes Infektionsrisiko. Auch für das Kind war der Eingriff höchst riskant, da es verletzt werden konnte.

Die Alternative war jedoch, nichts zu tun, was bei einer stagnierten Geburt für Mutter und Kind mit an Sicherheit grenzender Wahrscheinlichkeit zum Tod führt.

Wie entstand die heutige Kettensäge mit rotierender Kette?

Die erste Kettensäge von Aitkins und Jeffray war eine Kette, die man über zwei Handgriffe hin- und herbewegen konnte. Bis auf die gezahnten Kettenglieder gab es also kaum Ähnlichkeit zur heutigen Kettensäge mit rotierendem Sägeblatt und Motor. Doch auch diese moderne Version der Kettensäge ist eine Erfindung der Medizin.

1830 präsentierte der Instrumentenbauer und Orthopäde Bernhard Heine seine neuste Erfindung: das Osteotom. Der Begriff stammt aus dem Altgriechischen. „Osteo“ bedeutet Knochen und „Tomia“ bedeutet Schnitt.

Bernhard Heine hatte damals eine Knochensäge zum Öffnen von Schädeln entwickelt, von der er sich eine deutlich exaktere Schnittführung versprach als damals möglich. Zu der Zeit wurden Schädelöffnungen mit Hammer und Meißel oder einem Bohrer durchgeführt. Mit diesem Osteotom hatte Bernhard Heine das grundlegende Prinzip entwickelt, das auch heute noch modernen Kettensägen mit Motor zugrunde liegt.

Seit wann gibt es die heutige Kettensäge?

Obwohl das Prinzip für die rotierende Kettensäge schon 1830 geboren war, dauerte es bis in die Mitte des 19. Jahrhunderts, bis die erste elektrische Kettensäge auf den Markt kam. Zuvor hatte es Versuche mit dampfbetriebenen oder mechanischen Kettensägen mit rotierendem Sägeblatt gegeben, die sich allerdings aufgrund von Unhandlichkeit oder Fehleranfälligkeit nicht durchgesetzt hatten. Ein Jahr nach der elektrischen Kettensäge kam auch die benzinbetriebene Motorsäge auf den Markt. Diese Sägen mussten zunächst von zwei Personen bedient werden, da sie sehr schwer waren.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen


Die Substanz, mit der Raucher immer wieder dazu verleitet werden zu rauchen, nennt sich Nikotin. Diese ist im Tabak enthalten. Menschen rauchen, obwohl sie wissen, dass es ungesund ist. Doch was steckt hinter dem Verlangen immer wieder eine rauchen zu müssen? Tatsächlich gehört die Sucht des Rauchens zu der am schwersten zu besiegenden Gewohnheit.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Für Menschen gibt es viele verschiedene Gründe, mit dem Rauchen anzufangen. Abgesehen davon ist es umso schwerer, mit dem Rauchen wieder aufzuhören. Nikotin wirkt sehr stark als Suchtmittel und übernimmt schnell die Kontrolle im Leben eines Menschen. Obwohl viele Raucher mit dem Rauchen aufhören möchten, haben oftmals nur weniger als 10 % Erfolg damit.

Mittlerweile gibt es verdichtende Hinweise dafür, dass im Gehirn das sogenannte endogene Opioidsystem mit der Sucht nach Nikotin zusammenhängt. Verschiedene Studien haben gezeigt, dass der Konsum von Nikotin sogar Endorphine im Gehirn freisetzt. Diese Endorphine wiederum setzen im endogenen Opioidsystem positive Gefühle frei und bewirken so bei den meisten Rauchern eine angenehme Wirkung.

Man kann sich vorstellen, dass das endogene Opioidsystem wie ein Informationsnetz funktioniert. Sämtliche Informationen werden dann über verschiedene Botenstoffe – wie beispielsweise Endorphine – weitergegeben. An speziellen Rezeptoren bleiben diese Botenstoffe dann haften. Konsumiert man eine große Menge an Drogen, vergrößert sich auch die Menge an Botenstoffen und kann so das ganze Informationsnetz im Gehirn durcheinander bringen.

Gründe für das Rauchen

Viele Raucher haben Angst, mit dem Rauchen aufzuhören, weil sie eventuell an Gewicht zunehmen könnten. Ganz unbegründet ist dies nicht, denn Nikotin hemmt nachweislich den Appetit. Menschen, die aufgehört haben zu rauchen, essen dann vermehrt statt zu rauchen. Hinzu kommt, dass Nikotin den Stoffwechsel ankurbelt und folglich ein Raucher auch mehr Kalorien verbraucht. Dennoch ist dies der völlig falsche Grund, mit dem Rauchen anzufangen, denn die wenigsten Menschen haben wegen Gewichtsproblemen angefangen zu rauchen.

Wer mit dem Rauchen aufhören möchte, sollte intensiver darauf achten, nicht den Ersatz im Essen zu suchen, denn dann bestehen gute Chancen, auch ein schlanker Nichtraucher zu bleiben. Eine zusätzliche, ausreichende Bewegung kann diesen Prozess unterstützen.

Andere Raucher berichten, dass sie durch eine Zigarette entspannter werden. Insbesondere, wenn man gestresst und nervös ist, greifen die Menschen am häufigsten zur Zigarette. Sie erhoffen sich dadurch einen beruhigenden Effekt. Es dauert nicht lange, bis der eingeatmete Rauch im Gehirn ankommt und das Verlangen befriedigt. Allerdings ist es umgekehrt: Nicht das Nikotin beruhigt den Raucher, sondern das Ausbleiben des Nikotins löst Anspannung aus. Im Prinzip ist dies nichts anderes, als eine Art Entzugserscheinung, die entsteht, wenn das Zuführen von Nikotin eine längere Zeit ausbleibt. Da bei vielen Rauchern der Eindruck erweckt wird, das Rauchen könnte entspannend wirken, wird oftmals zur Zigarette gegriffen, was einen wahren Teufelskreis bildet.

Werden Raucher befragt, weshalb sie eigentlich Zigaretten konsumieren, ist der häufigste genannte Grund die Geselligkeit. Als Raucher findet man schnell Anschluss – so der Gedankengang. Dennoch hat das eine mit dem anderen überhaupt nichts zu tun. Es gibt immerhin genauso viele Nichtraucher, die die Gesellschaft von anderen Menschen genießen und sich mit ihnen gerne unterhalten. Wer einfach einmal vor die Tür möchte, um frische Luft zu schnappen oder mit anderen Menschen zusammenzustehen, muss sich dafür nicht gleich eine Zigarette anzünden. Wer die Meinung vertritt, dass das Rauchen die Menschen verbindet, der kann genauso gut sagen, dass das Nichtrauchen verbindet. Der Vorteil bei Nichtrauchern ist zudem, dass eine gesellige Runde sich nicht nur auf einen abgegrenzten Raucherbereich konzentrieren muss.

Siehe auch: Synonyme für Zigaretten und Rauchen

Weshalb fällt es schwer, mit dem Rauchen aufzuhören? Erklärung

Grundsätzlich sind dafür zwei Komponenten verantwortlich: die Gewohnheit sowie das Nikotin. Auf natürliche Art und Weise kommt es in der Tabakpflanze vor und gilt als stark süchtig machende Substanz. Wird Nikotin konsumiert, setzt es im Gehirn das Belohnungshormon Dopamin frei.

Des Weiteren fällt es Rauchern schwer, mit dem Rauchen aufzuhören, da sie gewisse Rituale, also Gewohnheiten, mit der Zigarette verbinden. Das kann entweder die Zigarette nach einem guten Essen oder auch die Zigarette zum Kaffee sein. Eigentlich immer dann, wenn der Mensch sich entspannen möchte. Diese Gewohnheiten zu durchbrechen, erfordert einiges an Disziplin und ist nicht immer ganz einfach. Genauso herausfordernd ist da natürlich auch die körperliche Abhängigkeit.

Fazit: Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Die Beliebtheit des Rauchens hat global gesehen in den letzten Jahren abgenommen. Nicht zuletzt haben die Gesundheitsbedenken einen großen Anteil dazu beigetragen. Trotzdem gibt es immer noch viele Menschen, die regelmäßig rauchen. Es lohnt sich – einfach gesagt – gar nicht erst mit dem Rauchen anzufangen. Wer schon zu den starken Rauchern gehört, für den kann unter Umständen eine Raucherentwöhnung in Betracht kommen.

Wer sich als Raucher entschieden hat, mit dem Qualmen aufzuhören, probiert meistens erst einmal einen kalten Entzug, welcher jedoch auch einige Gefahren mit sich bringen kann. Als Raucher sollte man sich bewusst machen, dass man nicht allein ist und es auch nicht unmöglich ist, mit dem Rauchen aufzuhören. In der heutigen Zeit gibt es viele Methoden, um endlich rauchfrei zu werden. Hierzu gehören Praktiken wie beispielsweise Hypnose, eine Spritze ins Ohr oder auch eine Nikotinersatztherapie.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition


Factfulness ist eine Wortneuschöpfung, die eine faktenbasierte Weltsicht beschreibt. Anders formuliert: Factfulness bedeutet, dass man seine Meinung auf starken und eindeutigen Fakten aufbaut.

Bekanntheit erreichte der Begriff durch das gleichnamige Buch von Hans Rosling aus dem Jahr 2018. Rosling spricht darin von einer verzerrten Darstellung der Welt durch Medien, Meinungsführer und Politiker. Er stellt fest, dass Medienberichte häufig nicht mit den tatsächlichen Fakten übereinstimmen und appelliert an uns, nicht alle Informationen der Medien ungeprüft zu übernehmen.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition

Die Welt in zwei Hälften zu teilen ist einfach, aber auch für die seelische Gesundheit des Menschen enorm wichtig. Osten und Westen, reiche Länder und Entwicklungsländer, Islam und Christentum – Schubladen machen die komplizierte Welt etwas einfacher. (Siehe: Was ist schwarz-weiß-Denken?)

Für Rosling geschieht dies nicht in schlechter Absicht oder aufgrund schlechter Recherche. Es ein typisch menschliches Phänomen, Fakten zu verleugnen. Das menschliche Gehirn tendiert dazu, die Welt in zwei Pole zu zerlegen, in gebildet und ungebildet, männlich und weiblich, Arme und Reiche usw. Werden durchschnittliche Unterschiede gefunden, bauschen Medien diese gerne zu einer ganz großen Sache auf. Betrachtet man die Fakten genauer, stellt sich heraus, dass es sehr große Überschneidungen zwischen beiden Gruppen gibt, die Unterschiede zwischen den Mittelwerten für die meisten Menschen also bedeutungslos sind.

Doch das menschliche Gehirn fixiert sich bevorzugt auf die Unterschiede. Wir haben die Tendenz, Schreckensszenarien in den Vordergrund zu stellen. Für uns ist die Information, dass 8 % der Jugendlichen in Deutschland keinen Schulabschluss haben, viel spannender, als die Tatsache, dass 92 % einen besitzen. Genauso wird eine Arbeitslosenquote von 6 % deutlich spannender wahrgenommen als eine Quote von 94 % Beschäftigten – obwohl die Beschäftigtenzahl eigentlich überzeugen muss. Denn eine Gesellschaft wird nicht durch die Arbeitslosenzahl charakterisiert, sondern durch die überwiegende Zahl Beschäftigter, die zum Bruttosozialprodukt beitragen.

Ähnlich verhält es sich mit Zahlen über Bildung und sozialer Herkunft. Seit langem lassen Politik und Medien verlauten, dass die soziale Herkunft über den Bildungserfolg entscheidet. Statistiken zufolge sind es aber nur zwischen 10 und 20 % der Unterschiede beim Bildungserfolg, die sich auf die soziale Herkunft zurückführen lassen. Auch die Intelligenz ist ein wesentlicher Faktor, scheint aber weniger interessant zu sein, weil sie keine Skandale erzeugen kann.

Factfulness: Skandalisierung von Bagatellen in den Medien

Der Mensch ist von Skandalen fasziniert und neigt zu schnellen Urteilen, ohne die Fakten zu berücksichtigen. Die Medien machen sich das zu Nutze, was sich auch bei Nachrichtensendungen zeigt. Zugunsten des Skandals lassen deren Redakteure häufig wesentliche Fakten unerwähnt. Wird beispielsweise über Terroranschläge berichtet, zeigt man die Opfer. Verschwiegen wird die Tatsache, dass die Zahl der Terroropfer in Deutschland seit Jahren zurückgeht. Oft hält man an Überzeugungen und Bildern fest, die vor Jahrzehnten galten, aber mittlerweile überholt sind.

Rosling behauptet in seinem Buch, dass man von den freien Medien keine faktenbasierte Weltsicht erwarten kann. Sie seien auch nicht die richtigen Quellen, um etwas über umwälzende kulturelle Veränderungen zu erfahren.

Um weiterhin alte Stereotype zu bedienen, nutzten westliche Medien häufig veraltete Quellen. Damit trügen sie nicht wirklich zu einem realistischen Bild anderer Länder bei. Hierfür nennt er zahlreiche Beispiele, unter anderem den Iran: In diesem Land geht die Zahl der Kinder pro Frau, seit es Statistiken darüber gibt, weltweit am schnellsten zurück. (Heute sind es statistisch 1,6 Kindern, 1984 waren es noch über 6 Kinder).

Obwohl der Iran häufig Thema in den freien Medien war, wurde über diesen Umstand nie berichtet. Stattdessen stellte man einen spekulativen Zusammenhang zwischen Kinderzahl und Religion her. Entscheidend für die veränderte Geburtenzahl im Iran sind aber Einkommen und Kindersterblichkeit. Fakten wurden verschwiegen und die Meldung so formuliert, dass man zwangsläufig falsche Schlüsse daraus zieht.

Factfulness: Faktenbasierter Journalismus darf keine Ängste schüren

Roslings Buch kann man als Appell verstehen, die Menschen hin zu mehr Factfulness zu bewegen. Er möchte uns dazu ermutigen, auch bei Meldungen, die zunächst sehr dramatisch erscheinen, nicht sofort in Panik zu verfallen.

Stattdessen sollen wir als Medienkonsumenten Fakten und Daten sammeln und uns genau über den Sachverhalt informieren. Denn die meisten Probleme, die in den Medien dargestellt werden, können nicht auf die Schnelle gelöst werden. Wie die Corona-Pandemie gezeigt hat, ist es selbst bei einer Epidemie besser, zunächst Daten zu sammeln und dann Entscheidungen zu treffen, die auf Fakten beruhen. Besonders wichtig ist das bei den aktuellen und künftigen Herausforderungen des Klimawandels.

Die alten Ängste sorgen nur dafür, dass wir im Nichtstun verhaftet bleiben.
Rosling rät zur Politik der kleinen Schritte. Die Geschichte zeigt, dass viele der so genannten Dritte-Welt-Länder schon aus der schlimmsten Armut herausgekommen und eine Stufe höher geklettert sind. Es sind die Menschen und nicht die Politiker, die für bessere Bildung, bessere Gesundheit und sauberes Trinkwasser kämpfen. Noch vor 150 Jahren war auch Deutschland ein armes Land voller Hungersnöte und Seuchen. Es gilt also, die Bevölkerung in den südlichen Teilen der Welt nicht als anonyme Arme zu sehen, sondern als Menschen, deren Leben dem unseren sehr ähnlich ist. Wir alle streben nach einem gesünderen und glücklicheren Leben.

Rosling möchte uns mit seinem Buch zeigen, dass die Welt reicher und bunter ist, als es uns die Medien weismachen möchten. Er appelliert an unseren Verstand und betont immer wieder, dass es sich lohnt, nicht jede reißerische Information ungeprüft zu übernehmen, sondern sie stets zu hinterfragen.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte


Der französische Kaiser und Feldherr Napoleon Bonaparte starb am 5. Mai 1821 auf der Insel St. Helena im Südatlantik. Die Schlacht bei Waterloo 1815 war Napoleons letzte große Schlacht. Da die Engländer siegreich aus ihr hervorgingen, schickten sie Napoleon auf die Insel St. Helena in die Verbannung. Hier verbrachte er seine letzten sechs Lebensjahre. Der Leichnam Napoleons wurde im Invalidendom in Paris beigesetzt.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte

Dass Napoleon an den Folgen eines Magenkarzinoms starb, wurde von seinem letzten Leibarzt Francesco Antommarchi diagnostiziert. Er obduzierte den französischen Kaiser und stellte eine Reihe von Krebsgeschwüren an der Magenwand fest.

Bei der Autopsie waren acht Ärzte anwesend, doch von Anfang an gab es Ungereimtheiten. Antommarchi sah zwar die Karzinome und ein verfettetes Herz, befand aber, dass die Todesursache das Klima auf St. Helena sei. Daraufhin kam es zu einem heftigen Streit unter den anwesenden Ärzten. (Quelle: das Standardwerk „Sankt Helena. Der Tod des Kaisers“ von Octave Aubry).

Der Historiker hat sich hierfür eingehend mit Augenzeugenberichten der Autopsie beschäftigt. Einen Zusammenhang zwischen dem Klima auf St. Helena und den Tod Napoleons herzustellen, hatte der Inselgouverneur bei Strafe verboten. Er befürchtete, dass die Engländer verantwortlich gemacht werden könnten.

Obwohl Antommarchi den englischen Autopsie-Bericht nicht unterschrieben hatte, gegen die meisten Forscher schon damals vor der Todesursache Krebs aus. Die war auch aufgrund der familiären Häufigkeit sehr wahrscheinlich. Zwei Schwestern Napoleons und sein Vater waren ebenfalls am Magenkrebs verstorben. Trotzdem gab es in der Vergangenheit immer wieder Zweifel am Krebstod Napoleons.

Die Gegner argumentieren, dass Magenkarzinome in der Regel mit starker Auszehrung einhergehen. Davon war bei Napoleon jedoch kaum etwas zu bemerken. In seinen letzten Lebensjahren hatte er stark zugenommen, so dass man ihn als fettleibig bezeichnen kann. Zeitzeugen sprachen von einer zeitgleichen Verweiblichung. Das lässt den Schluss auf eine endokrine Störung (Hormon- und Stoffwechselerkrankungen) zu. Erst 2021 (siehe unten) konnte die Magenkrebs-Diagnose untermauert und bewiesen werden, dass Napoleon innerhalb weniger Monate mehr als 10 kg Gewicht verloren hat.

Napoleons Tod

Menschen lieben dramatische Geschichten, deshalb hielt sich auch die Giftmordtheorie hartnäckig. Sollte ihm das Gift (vermutlich Arsen) schleichend verabreicht worden sein, dann passt diese Theorie zu seinem Übergewicht.

Außerdem soll Napoleon in seinen letzten Lebensjahren über Lichtempfindlichkeit und Schwerhörigkeit geklagt haben. Vergiftungen gehen häufig mit einer Schwächung der Sinnesorgane einher. Erst vor wenigen Jahren wurden Haare Napoleons noch einmal untersucht und das Ergebnis stützt die Arsen-Theorie. Man fand nicht nur auf der Haaroberfläche Spuren des Giftes, sondern auch im Inneren des Haares.

Sollte das zutreffen, kann Napoleon nur von seinen Wachleuten vergiftet worden sein. Gegen die Theorie spricht die Tatsache, dass Krankheiten vor 200 Jahren häufig mit giftigen Substanzen behandelt wurden. Man war sich der toxischen Wirkung dieser Stoffe nicht bewusst. Ein Beispiel hierfür ist Kalomel, das hochgiftiges Quecksilber enthält.

Von Napoleon ist bekannt, dass er dieses Mittel regelmäßig gegen die unterschiedlichsten Beschwerden einnahm. Eine Überdosis kann tödliche Folgen haben. Der Schweizer Arzt Théodor Turquet de Mayerne nahm Kalomel im 17. Jahrhundert in das allgemeingültige Arzneibuch auf. Fortan gehörte Kalomel in jeden Arztkoffer.

Napoleon: Starb er wegen seiner Tapete?

Einen ähnlichen Ansatz verfolgt die Tapetentheorie. Auch hier war die angenommene Todesursache eine schleichende Vergiftung. Vor 200 Jahren waren Gifte im Alltag allgegenwärtig. Auch die grünen Tapeten (Schweinfurter Grün) in Napoleons Exil enthielte Arsen.

Aufgrund der hohen Luftfeuchtigkeit befanden sich höchstwahrscheinlich viele Schimmelpilz-Sporen in der Raumluft, die mit dem Arsen chemisch reagierten. Demnach muss Napoleon ständig Gifte eingeatmet haben. Gegen die Theorie spricht, dass es aufgrund der Beliebtheit von Schweinfurter Grün deutlich mehr Todesfälle hätte geben müssen. Bekannt ist allerdings, dass damals viele Menschen über Übelkeit, Schwindel und Kopfschmerzen klagten, man aber kein Zusammenhang zu Umweltgiften herstellen konnte, da man ihre toxische Wirkung gar nicht kannte.

Napoleon-Spezialist Lugli untermauert Krebs als Todesursache

Erst 2021 konnte der Pathologe Alessandro Lugli, der mehr als 1.000 Bücher über Napoleon besitzt und sich intensiv mit dem Thema beschäftigt hat, Magenkrebs als Todesursache bestätigen. Seither ist seine Expertise international gefragt.

Obwohl Napoleons Leibarzt Antommarchi einen offiziellen Obduktionsbericht vorgelegt hatte, hielt sich die Vergiftungstheorie noch bis 2008. Die meisten Wissenschaftler gingen zwar von Anfang an von einer Krebserkrankung als Todesursache aus, doch es fehlte der richtige Beweis.

Lugli zweifelte die Vergiftungstheorie vor allem deshalb an, weil Napoleon extrem vorsichtig und darauf bedacht war, Vergiftungsszenarien aus dem Weg zu gehen. Wäre er vergiftet worden, dann nicht schleichend, sondern akut. Zum anderen war es damals üblich, Haare in Arsen zu konservieren, um sie als Andenken aufzubewahren (beispielsweise in einem Amulett). Es war also mehr als wahrscheinlich, dass man auch in Napoleons Haaren Arsen nachweisen konnte.

Anhand von BMI-Messungen (Body- Mass-Index) und Vergleichen mit Hosen Napoleons konnte Lugli beweisen, dass Napoleon in den letzten sechs Monaten seines Lebens 10-14 kg an Gewicht verloren haben muss. Er hatte kein Übergewicht mehr. Das wiederum bestätigt den Obduktionsbefund des Leibarztes: Napoleon muss am Magenkrebs verstorben sein.

Was ist ein Pheromon-Parfum? Wie ist die Wirkung? Erklärung


Menschen fühlen sich von den unterschiedlichsten Düften angezogen und reagieren sehr individuell darauf. Eine Ausnahme hiervon bilden die so genannten Pheromone, die als Lockstoffe fungieren. Tiere und Menschen sondern die Duftstoffe ab, um potentielle Geschlechtspartner anzulocken.

Das Lebewesen, das Lockstoffe produziert, sendet eindeutige Reize aus, die von einem anderen als solche wahrgenommen werden. Die Duftsignale werden von speziellen Riechzellen im Inneren der Nase erkannt und zum Gehirn weitergeleitet. Sie liefern Informationen über Kompatibilität und sexuelle Verfügbarkeit des potentiellen Geschlechtspartners, sodass der Fortbestand der Spezies sichergestellt werden kann.

Was sind Pheromone? Erklärung, Bedeutung, Definition

Der Informationsaustausch mithilfe dieser Botenstoffe, die eigentlich Hormone sind, geschieht unbewusst. Pheromone sind zum Beispiel in Schweiß, Urin, Speichel und Sekreten der Geschlechtsorgane enthalten und senden ihre Signale bei engem Körperkontakt. Sie werden von einem Lebewesen gebildet und rufen in einem anderen Lebewesen eine bestimmte Reaktion hervor. Wie das geschieht, ist noch nicht genau erforscht.

Ferner ist auch nicht bekannt, ob es körpereigene Pheromone gibt. Eigentlich sind diese chemischen Substanzen geruchlos, doch wenn sie an das Jacobson-Organ in der Nase andocken, werden die ausgelösten Reize zum Hypothalamus geleitet, dem ältesten Teil unseres Gehirns. Der steuert unter anderem Appetit, Aggressionen, geschlechtliches Verlangen und die Hormonbildung. Der Volksmund ist sich jedenfalls sicher, dass bestimmte Gerüche unwiderstehlich machen. So nutzt auch die Parfümindustrie Pheromone, um ihre Duftkreationen besser verkaufen zu können.

Pheromone – schon in der Antike bekannt und beliebt

Dass Frauen die Aufmerksamkeit von Männern mithilfe erotischer Düfte auf sich ziehen möchten, ist vermutlich so alt wie die Menschheit selbst. Die tierischen Duftstoffe Moschus, Zibet und Ambra sind schon sehr lange für ihre aphrodisierende Wirkung bekannt und werden nach wie vor in großen Mengen eingesetzt.

Als die Florentinerin Katharina von Medici 1533 Heinrich II. heiratete, brachte sie nicht nur die Kunst des Parfümierens mit an den Hof, sie führte auch mit Zibet, Moschus und Ambra imprägnierte Lederhandschuhe ein. Bis heute ist Moschus einer der beliebtesten Ausgangsstoffe für die Herstellung herber, animalisch riechender Parfüms. Die alten Ägypter wussten auch von der aphrodisierenden Wirkung von Schweiß und sammelten diesen gezielt von jungen, kräftigen Männern ein. Sie verwendeten ihn zur Herstellung von Parfüms und mischten ihn mit anderen Duftstoffen.

Im antiken Rom waren es die Gladiatoren, auf deren Schweiß gutsituierte Römerinnen nicht verzichten wollten. Was die Ägypter vor tausenden Jahren praktizierten, haben europäische Wissenschaftler in der Neuzeit ebenfalls erprobt. Peter Karlson und Martin Lüscher extrahierten aus Körperflüssigkeiten und Achselschweiß ein Duftgemisch zum Aufsprühen. Sie erfanden den Begriff Pheromone.

Pheromone in Parfüms; Wirkung

Bei der Herstellung von Parfüms spielen Pheromone bis heute eine wichtige Rolle. Parfüms mit Pheromonen werden auch als Moleküldüfte bezeichnet. Copulin, Estratetraenol und Androstadienon sind die meistverwendeten Pheromone in der Parfümherstellung. Estratetraenol und Copulin sollen Frauen attraktiver für Männer machen, Androstadienon sorgen dafür, dass Männer für Frauen attraktiver werden.

Parfümhersteller halten die Rezepturen ihrer Pheromon-Parfüms genauso streng geheim wie die Rezepturen ihrer besten Marken. Sie riechen bei jedem Menschen anders, da sie den individuellen Eigengeruch der Person unterstreichen. Deshalb verwendet man Parfüms mit Pheromonen als Layer-Parfüms. Sie werden mit dem Parfüm kombiniert, das man üblicherweise trägt. Zusammen mit weiteren Duftstoffen entfaltet sich die verführerische Wirkung der Pheromone am besten.

KI generierte Texte erkennen: 5 Tools, die dir helfen


ChatGPT hat eine Goldgräber und „Wild West“-Stimmung hervorgebracht, was das Erzeugen von Texten angeht. Auf einmal – so scheint es – kann es jeder. Man muss nur die richtige Aufforderung bei ChatGPT eingeben und bekommt einen Text. So spart man sich stundenlange Recherche und Arbeit. Aber, dass ist zu kurz gedacht, denn man kann KI-Texte von menschlichen Texten unterscheiden und damit den Betrug erkennen. Dabei helfen diese Tools:

Tools zum Erkennen von KI generierten Texten / Content

Anwendungshinweis: Diese Tools funktionieren nur mit englischsprachigen Texten. Wenn du einen deutschen Text überprüfen willst, so musst du diesen erst per Übersetzer (z.B. DeepL) ins englische übersetzen lassen und dann den englischen Text in das Tool einfügen.

1. AI Content Detector von Writer.com

Ein feines Tool zum Erkennen von KI geschriebenen Texten.

2. „GPT-2 Output Detector Demo“

Füg deinen englischen Text ein. Das Tool sagt dir zuviel Prozent er fake oder real ist. (Fake = von einer KI geschrieben; Real = von einem Menschen geschrieben)

3. „roberta-base-openai-detector“

Das zweite Tool ist das gleiche wie das erste. Ich verwende es nur, falls das erste Tool mal laggt oder nicht erreichbar ist. (Dies geschah im Januar 2023 leider öfters.)

roberta base openai detector

Füge deinen Text auf der rechten Seite in dem Feld ein. Sobald du „Compute“ drückst, spuckt dir das Tool seine Einschätzung aus.

„Fake“ bedeutet eine KI hat den Text geschrieben. „Real“ bedeutet ein Mensch hat den Text geschrieben.

4. Grover

Das nächste Tool ist Grover.

Hier fügst du deinen Text bei „Detect“ ein und das Tool bewertet den Text. Grover gibt leider nur ein Ergebnis raus und keine prozentuale Verteilung.

5. GPTZero

Die Version von GPTZero auf Streamlit funktioniert derzeit und ist erreichbar. Link: hier. Die Homepage von GPTZero.me ist gerade nur zur Information da und leitet (bei Klick) auf die Version auf Streamlit weiter.

Hinweis: Diese Tools sind nicht perfekt. Auch sie können Fehler machen.

Über KI generierte Texte

Übrigens: Wer glaubt KI generierte Texte sind nicht unterscheidbar von Texten, die ein Mensch geschrieben hat, der irrt. KI Texte haben ein Muster und das macht sie erkennbar. Wer also meint, den Lehrer oder Dozenten bei der Hausarbeit zubetrügen oder mit KI-Texten bei Google nach vorne möchte, sollte vorsichtig sein.

Was ist mein Problem mit KI generierten Texten? Mein Problem ist die Qualität. Die KI erzeugt (derzeit; Januar 2023) mittelmäßige bis schlechte lange(!) Texte. Sie sind schlecht geschrieben, unkonkret, aber wortreich. Jedoch teils komplett sinnlos. Das erkennen Leser, das erkennen Dozenten / Lehrer und das erkennen Suchmaschinen. (Ja, ChatGPT arbeitet an einem Wasserzeichen für KI generierte Texte, damit die KI „KI generierte Texte“ nicht als Quelle nimmt und KI generierte Texte erkennbar bleiben bzw. sind. Das hat zwei Gründe: die Qualität und Missbrauch vermeiden.)

Für kurze Texte, private Botschaften, E-Mails und Social-Media-Posting eignet sich eine KI. Doch sobald es darum geht einen längeren Text zu schreiben, versagt die KI. Ihre Texte haben keinen roten Faden und man kann der KI nicht blind vertrauen.

Die KI kann (derzeit) selbst ihre eigenen Matheformeln nicht richtig ausrechnen und Programmiercode den sie ausspuckt, ist falsch. Wie soll ich den Inhalten und Fakten dann vertrauen? Auf Stackoverflow wurden Texte und Content, die mit ChatGPT erzeugt wurden, im Dezember 2022 gebannt. Der Grund dafür: Die Qualität ist zu schlecht!

Was sind Frühlingsgefühle? Wie entstehen sie? Was passiert im Körper? Erklärung


Frühlingsgefühle sind kein erfundenes Phänomen, diese Gefühle gibt es wirklich. Viele Menschen spüren, schon bevor der Frühling kalendarisch einsetzt, angenehme Gefühle des Aufbruchs, sind besonders motiviert, unternehmungslustig und gut gelaunt.

Genau wie die Natur, die aus dem Winterschlaf erwacht, machen auch wir Menschen mit beginnendem Frühling aus unserem unserer winterlichen Trägheit auf. Alle Zeichen stehen auf Aufbruch. Es lockt uns in die Natur, für deren vielfältige Erscheinungsformen wir nun besonders empfänglich sind. Es scheint so, als ob Körper und Geist ein neues Energieniveau erreicht haben.

Das lang ersehnte Grün zeigt sich an den unterschiedlichsten Orten und wir reagieren intensiv auf sämtliche Grünnuancen. Die Farben der Natur nehmen wir jetzt genauso intensiv wahr wie ihre Düfte und Geräusche. Egal ob Moos, Gras, das Holz, das sich im Sonnenlicht zu öffnen scheint oder das Plätschern eines Bächleins, die Natur offenbar sich neu, inspiriert uns und weckt buchstäblich die Lebensgeister.

Was bei Frühlingsgefühlen im Körper geschieht: Erklärung

Wenn wir Frühlingsgefühle spüren, sind wir keineswegs hoffnungslos romantisch, sondern haben es mit organischen und psychischen Veränderungen zu tun. Wir gehen den Alltag beschwingter und glücklicher an, werden unternehmungslustiger und fühlen uns vitaler. Frühlingsgefühle regen uns zu Aktivitäten an. Das hängt direkt mit der UVA-Strahlung, also dem Sonnenlicht, zusammen.

Damit Frühlingsgefühle entstehen, wirken zwar verschiedene Komponenten zusammenwirken, doch Licht ist der Hauptauslöser für die nun stattfindenden Veränderungen in Körper und Psyche. Das Licht dringt durch die Augen zu einem Bereich des Gehirns vor, den wir als „ unsere innere Uhr“ kennen. Hier werden Informationen an die Zirbeldrüse weitergeleitet. Die wiederum ist für die Ausschüttung des Hormons Melatonin verantwortlich. Sind die Tage kurz und die Nächte lang, herrscht also viel Dunkelheit, wird viel Melatonin ausgeschüttet. Wie fühlen und schläfrig. An hellen Tagen ist die Melatonin-Ausschüttung deutlich geringer, so dass wir uns wacher fühlen und energiegeladener sind.

Während im Winter verstärkt das Schlafhormon Melatonin produziert wird, schüttet unser Körper im Frühling verstärkt die Hormone Dopamin, Serotonin und Noradrenalin aus. Das Glückshormon Serotonin wirkt fast wie eine Droge und erzeugt ein Hochgefühl, das sich durchaus mit durchaus mit Verliebtheit vergleichen lässt. Bei Männern steigt außerdem der Testosteronspiegel, was zusätzlich das Gefühl von Kraft und Stärke intensiviert. Dank der Hormone fühlen uns lebendiger und streben ins Freie. Wir möchten den Ballast des Winters abwerfen, freuen uns auf längere helle Tage und sind voller Tatendrang. Die Wirkung dieser Hormone ist sehr intensiv. Mediziner konnten sogar nachweisen, dass die Zahl der Winterdepressionen mit beginnendem Frühling abnimmt.

Das bewirken die Glückshormone:

1. Dopamin sorgt dafür, dass unsere Empfindungen und Gefühle weitergeleitet werden. Außerdem hat es eine stark motivierende Kraft, die uns dazu bringt, Angefangenes endlich zu beenden oder Neues zu wagen.

2. Noradrenalin wird als Stresshormon bezeichnet. Seine wichtigste Aufgabe ist die Weiterleitung von Signalen an das zentrale Nervensystem. Der Körper schüttet es sowohl bei physischem als auch psychischem Stress aus. Noradrenalin steuert unsere Aufmerksamkeit und hat Einfluss auf den Schlaf-Wach-Rhythmus. Das Hormon bewirkt eine Kontraktion der Blutgefäße, senkt dadurch die Pulsfrequenz und erhöht den Blutdruck. In der Folge fühlen wir uns leistungsfähiger und motivierter.

3. Serotonin ist als Glückshormon bekannt. Das Hormon wird vom Körper produziert, wenn wir etwas tun, auf das wir stolz sind, beispielsweise dann, wenn wir Angst überwunden oder eine besondere Leistung erbracht haben. Produziert der Körper nicht genug Serotonin, können sich Schlaflosigkeit, Angstzustände und Depressionen einstellen. Serotonin hat die Fähigkeit, die Stimmung zu heben und wird daher zur Behandlung von Depressionen genutzt. Generell ist Serotonin ein wichtiger Neurotransmitter und an vielen Vorgängen im Körper beteiligt. Es beeinflusst den Appetit genauso wie Bewegung, Schlaf und Sexualität.

Frühlingsgefühle: Die Natur inspiriert uns zu Neuem

Auch die optischen Reize des Frühlings sind nicht zu unterschätzen. Da ist zum einen die nackte Haut, die erotische Signale aussendet, aber auch das frische Grün, das an allen Ecken und Enden hervorsprießt. Wer da keine gute Laune bekommt, muss schon sehr ignorant oder aber krank im Sinne von depressiv sein. Alles schreit nach Veränderung, auch unser eigenes Innenleben. Beinahe logisch, dass wir nun auch eher zum Flirten aufgelegt sind.

Der Frühling kann sogar Probleme verursachen

Trotz der angenehmen Seiten des Frühlingserwachens haben viele Menschen mit dem Übergang vom Winter zum Frühling Schwierigkeiten und fühlen sich noch längere Zeit müde und erschöpft. Sie leiden unter Frühjahrsmüdigkeit. Eigentlich müssten sie jetzt putzmunter sein, doch das Gegenteil ist der Fall. Der Körper muss sich erst an die veränderte Hormonsituation gewöhnen.

Verlieben wir uns im Frühling häufiger als im Winter?

Von Frühlingsgefühlen spricht man aber auch, wenn wir uns verlieben. Lange Zeit nahm man an, dass sich Menschen im Frühling häufiger verlieben als zu den übrigen Jahreszeiten. Das ist aber längst widerlegt. Tatsächlich sind es weder die Jahreszeit noch die Hormone, die Verliebtheit erzeugen. Das Gefühl entsteht nur deshalb, weil im Frühling alles leichter erscheint. So hat sich auch der Eindruck verfestigt, dass sich Verlieben im Frühling leichter fällt.

Frühlingsgefühle können uns durchaus in eine chaotische Gefühlslage versetzen. Denn wenn wir in dieser Stimmung sind, haben unsere Antennen ganz anders ausgerichtet und sehen alles viel positiver. Wir spüren die sprichwörtlichen Schmetterlinge im Bauch, die mit einem angenehmen Kribbeln verbunden sind.

Frühlingsgefühle hängen sie in erster Linie mit der höheren Lichtintensität im Frühling zusammen. Das Licht steuert unsere innere Uhr. Bekommen wir viel Licht, dann sind wir besser gelaunt und fühlen uns fitter. Im Frühling sind sie keineswegs chaotischer als im Herbst oder Winter. Der menschliche Organismus wird seit Millionen Jahren von Hormonen gesteuert, sodass man mit Fug und Recht behaupten kann, dass die Geschlechtshormone keinen Einfluss darauf haben, ob wir uns verlieben oder nicht. Vielmehr sind es die optischen Reize (wir zeigen zum Beispiel mehr nackte Haut), die den Eindruck erzeugen, wir würden uns schneller verlieben.

Frühlingsgefühle sind nicht auf der ganzen Welt bekannt

Frühlingsgefühle gehen mit einer Mischung aus psychologischen und körperlich messbaren Veränderungen einher. Amerikaner sprechen vom „spring fever“, also Fieber, was eine deutlich höhere Intensität der Gefühle beschreibt.

In den südlichen Ländern Europas dagegen ist das Phänomen unbekannt. Auch in den Ländern am Äquator kennt man keine Frühlingsgefühle. Die sind typisch für Länder, die ein Jahreszeitenklima haben. Denn wo kaum Unterschiede zwischen winterlichen und sommerlichen Sonnenstunden bestehen, kann es auch kein typisches Frühlingserwachen geben. Hier wird der Rhythmus der Menschen von der Tageszeit bestimmt.

Was ist Lensa? Bedeutung, Definition, Erklärung


Lensa ist eine Foto-App für Smartphones und vergleichbare Geräte, die im Winter 2022 in den verstärkten Fokus der Öffentlichkeit rückte. Die App enthält klassische Funktionen, um Portraits und Selfies zu bearbeiten, zu verschönern und zu transformieren.

Kernstück der App ist jedoch eine AI, welche die Bilder der Nutzer in digitalisierte Kunstwerke verwandeln kann. Genannt werden diese kunstvollen Abbilder Magic Avatars. Der Nutzer lädt für diese Funktion mehrere Bilder von sich in die App und erhält schließlich jene beliebten Bilder der AI, welche in dieser Form jedoch nicht kostenlos sind.

Lensa entwickelte sich zu einer Trend-App, die zwischenzeitlich zu den am meisten heruntergeladenen Apps im Apple App-Store und im Google Play Store für Android heranwuchs. Die gestiegene Popularität der Software blieb jedoch nicht ohne Kritiker, so gab es kritische Kommentare über teils idealisiert und sexualisiert angehauchte Darstellungen und Zweifel gegenüber der Privatsphäre, die in verschienenen Zeitungen und Online-Redaktionen thematisiert wurden.

Wie funktioniert Lensa? Erklärung

Im Prinzip ist Lensa eine klassische Foto-App, die es erlaubt, Selfies und Portraits nach eigenen Wünschen digital zu bearbeiten. Dazu gehört ein zugänglicher One-tap-Editor, digitale Retuschierungs-Funktionen, das glätten von Falten und Bearbeitungsmöglichkeiten für Augenringe und Co. Kurz: Wer sein Portrait für die Außendarstellung überarbeiten möchte, kann per Smartphone oder Tablet auf Lensa zurückgreifen. Dabei läuft die App in vielen App-Stores als kostenlose App, was genaugenommen jedoch nur für einige Funktionen gilt.

Von anderen Foto-Apps setzt sich Lensa durch die Magic Avatars ab: Stilisierte Bilder von Nutzern, die an Kunstwerke, teils in Comic- und Illustrationsästhetik erinnern. Das meist in hervorstechenden Farben stilisierte Portrait erinnert in seinen Konturen meist auffällig ähnlich an das Gesicht der Person. Doch hinter den Magic Avatars steckt eine AI, welche die Bilder kunstvoll bearbeitet.

Lensa greift so auf den Trend von AI bzw. KI-basierten Funktionen zurück, die sich bei digitalen Bildgeneratoren vermehrter Popularität erfreuen. Lensa gehört zu den ersten Apps, welche diese Technologie so umfänglich in das Designtool einbindet. Wer einen hochstilisierten Avatar von sich erstellen lassen möchte, hat also Gründe, zu den Funktionen von Lensa zu greifen.

Der Erfolg on Lensa – Popularität und Kritik gegenüber der App

Lensa stammt von einem Unternehmen namens Prisma Labs aus Sunnyvale, Kalifornien. Von Prisma Labs und den Gründern sowie zugleich russischen Entwicklern Andrey Usoltsev und Alexey Moiseenkov stammt auch die AI-Fotosoftware Prisma. Nach dem Launch der Magic Avatars im November 2022, stieg die App in vielen App-Stores zu der beliebtesten kostenlosen App auf. Lensa wurde ein Highlight für Nutzer, die nach kunstvollen Avataren suchten oder auf einer Party für Erheiterung und Begeisterung sorgen wollten.

Der Erfolg von Lensa wurde jedoch auch von Kritik durch etablierte Zeitungen und Medien begleitet. Von Zeitungen wie Die Zeit oder der Süddeutschen Zeitung über Fachmagazine wie t3n oder Mashable bis zu etablierten Fernsehkanälen wie der Bayerische Rundfunk oder das US-amerikanische ABC News – über die App sprach nach ihrem Release einfach jeder. Das lag unter anderem natürlich an den untypischen und beliebten Funktionen der App. Aber auch an journalistischer Kuriosität gegenüber dem Background hinter dem Phänomen.

Ein weitverbreiteter Kritikpunkt an der App waren nach Release die Kosten: Denn obwohl Lensa in vielen App-Stores ursprünglich als kostenlose App firmierte, präsentierten sich zuweilen nicht alle Funktionen als kostenlos. Wer auf die Ästhetik des beliebten Magic Avatars zurückgreifen wollte, musste nicht nur mehrere Bilder von sich machen, sondern auch einen Betrag zahlen. Das führte zur Kritik an dem Bezahlmodell sowie am Datenschutz inklusive der Frage nach dem Urheberrecht. Das Unternehmen hinter Lensa unterstrich jedoch, dass die Bilder kurz nach der Erstellung aus den Servern gelöscht werden würden. Eine verbreitete Kritik an der App bezog sich zudem auf dem Fakt, dass die App Durchschnittsmenschen in makellose und ästhetisch hochpolierte Avatare verwandelt, woran manche Kommentatoren sexualisierte oder sexistische Züge festmachten. Allerdings ließe sich letztere Kritik auf viele der Bildgeneratoren dieser Art ausbreiten.

Überblick – Welche Bedeutung hat Lensa?

Ob man die Kritik an der App annehmen möchte – oder nicht – der Erfolg von Lensa läutet fraglos eine neue Epoche der Bildgeneratoren für Smartphones und Co. ein. Die Verwendung moderner AI und die Erkenntnis, dass die Nutzer für solche Bilder zu zahlen bereit sind, wird in Zukunft sicherlich die ein oder andere Nachfolgeapp inspirieren. Lensa verhilft mit dieser Popularität den Bildbearbeitungsprogrammen und digitalen Portraitgeneratoren zu vermehrter Aufmerksamkeit.

Um zusammenzufassen: Lensa ist eine moderne Foto-App, mit leistungsfähigen AI-Funktionen, die kunstvolle Magic Avatars erschafft. Die Trendsoftware hat so im November und im Dezember 2022 die App-Stores für Smartphones und Co. im Sturm erobert. Die App ist sowohl eine Ursache für Begeisterung wie für Kritik – vom Datenschutz über Kosten bis zur idealisierten Bilddarstellung – geworden. Das ändert allerdings nichts daran, dass Lensa zu den Hit-Apps des Winters 2022 gehört.

Was ist Nation Building? Bedeutung, Definition, Erklärung


Im Nation Building geht es darum, die nationale Einheit und die Integration der Bevölkerung zu stärken, um eine stabile und umfassende Nation zu schaffen. Dies kann durch verschiedene Maßnahmen erreicht werden, wie zum Beispiel die Schaffung gemeinsamer Strukturen und Institutionen, die Förderung von Bildung und Kultur, die Unterstützung der wirtschaftlichen Entwicklung und die Verbesserung der Lebensbedingungen der Bevölkerung.

Was ist Nation Building? Bedeutung, Definition, Erklärung

Nation Building bedeutet die Entstehung einer eigenständigen Nation mit eigener sprachlicher, religiöser, kultureller, ethnischer, sozialer, wirtschaftlicher und sozialer Identität und Denkweise. Die Tatsache, dass die Mitglieder dieser Staatengemeinschaft all diese Elemente gemeinsam haben, ist jedoch nicht entscheidend für die Bildung einer Nation.

Weltweit ist zu beobachten, dass sich Gruppen innerhalb von Ländern in verschiedenen Faktoren grundlegend unterscheiden, aber dennoch ein gemeinsames Identitätsgefühl haben. Tatsächlich sind regionale Unterschiede in ethnischen, kulturellen oder religiösen Aspekten innerhalb eines Landes eher die Regel als die Ausnahme. Nicht die Homogenität und Unverschiedenheit eines Volkes, sondern das homogene Zugehörigkeitsgefühl der nationalen Gemeinschaften ist der grundlegende Faktor für erfolgreiches Nation Building.

Nation Building: Wie eine Nation entsteht

Nation Building ist keine logische Wissenschaft und jeder Einzelfall muss gesondert bewertet werden. Die Prämissen, Prozesse und Ergebnisse der erfolgreichen oder erfolglosen Bildung einer Nation können auch teilweise fehlen. Darüber hinaus können einige Faktoren bei der Bildung einer Nation wichtiger sein als andere.

Nation Building wurde historisch nach bestimmten Mustern betrachtet, die sich in unterschiedlichen Formen manifestiert haben. Auch die Bestimmung des Einflusses anderer Länder und ihrer Vertreter hat einen großen Einfluss, daher ist auch zu berücksichtigen, ob die Entstehung der Nation auf eigene innere Stärke oder auf fremden Einfluss zurückzuführen ist.

Was passiert beim Nation Building?

Nation Building ist ein komplexer Prozess, der von vielen Faktoren beeinflusst wird. Einige der Gründe, warum Nationenbildung oft mit Massengewalt und Vertreibungen einhergeht, sind:

Machtstreben:
Die Gründung einer Nation kann oft von einer Gruppe von Menschen angestrebt werden, die politische oder wirtschaftliche Macht anstreben und bereit sind, Gewalt einzusetzen, um ihre Ziele zu erreichen.

Ethnische oder nationale Konflikte:
Oft gibt es tief verwurzelte ethnische oder nationale Spannungen zwischen den Menschen, die sich einer Nation anschließen wollen. Diese Spannungen können sich in Gewalt entladen, wenn die Menschen versuchen, ihre eigene Identität und ihre Interessen zu verteidigen.

Religiöse oder ideologische Unterschiede:
Nationenbildung kann auch von religiösen oder ideologischen Unterschieden angetrieben werden, die zu Konflikten und Gewalt führen können.

Kolonialismus und Unterdrückung:
In vielen Teilen der Welt ging die Nationenbildung einher mit der Unterdrückung von Völkern durch koloniale Mächte. Dies kann zu Widerstand und Gewalt führen, wenn schwache Völker um ihre Unabhängigkeit und Selbstbestimmung kämpfen.

Nationenbildung muss nicht immer von Gewalt und Konflikten begleitet sein. In einigen Fällen kann die Gründung einer Nation friedlich und kooperativ verlaufen, wenn es den Erfolg bringt, ihre Unterschiede zu überbrücken und gemeinsame Ziele zu verfolgen.

Ziele des Nation Buildings

Der Aufbau von Institutionen, die für die Regierungsführung, die Verwaltung von Ressourcen und die Einhaltung von Gesetzen verantwortlich sind. Dazu gehören zum Beispiel Parlamente, Gerichte und Verwaltungsbehörden.

Verbesserung der sozialen Dienste:
Nation Building kann auch darauf abzielen, die sozialen Dienste in einem Land zu verbessern, indem zum Beispiel Schulen und Krankenhäuser gebaut werden.

Förderung der wirtschaftlichen Entwicklung:
Ein weiteres Ziel von Nation Building kann sein, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastrukturprojekte realisiert werden.

Förderung von Einheit und Solidarität:
Nation Building kann auch dazu beitragen, die Einheit und Solidarität der Bevölkerung einer Nation zu stärken, indem zum Beispiel gemeinsame Werte und Ziele vermittelt werden.
Nation Building kann von Regierungen, internationalen Organisationen oder Nichtregierungsorganisationen durchgeführt werden.
Nation Building hat viele Bedeutungen und Auswirkungen, die je nach den Umständen und Zielen des Prozesses variieren können.

Bedeutungen von Nation Building

Stabilisierung und Frieden:
In einigen Fällen kann Nation Building dazu beitragen, ein Land zu stabilisieren und Konflikte friedlich zu lösen, indem zum Beispiel institutionelle Strukturen aufgebaut werden, die Regierungsführung und die Verwaltung von Ressourcen sicherstellen.

Wirtschaftliche Entwicklung:
Nation Building kann auch dazu beitragen, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastruktur gebaut werden und die wirtschaftlichen Rahmenbedingungen verbessert werden.

Einige Beispiele für Nation Building

Nation Building: Deutschland

Die Wiedervereinigung Deutschlands nach dem Fall der Mauer:
Die Wiedervereinigung Deutschlands fand am 3. Oktober 1990 statt, als der Einigungsvertrag in Kraft trat und die DDR offiziell ein Teil der BRD wurde. Die Wiedervereinigung war ein historisches Ereignis, das die deutsche Geschichte nachhaltig verändert hat und das auch Auswirkungen auf Europa und die ganze Welt hatte. Es gab jedoch auch Herausforderungen und Probleme, die im Zusammenhang mit der Wiedervereinigung auftraten, wie zum Beispiel wirtschaftliche Schwierigkeiten in den neuen Bundesländern und die Integration von Migranten aus der DDR.

Nation Building: Nordirland

Er begann Ende der 1980er Jahre und setzte sich in den 1990er Jahren fort. Er umfasste verschiedene Verhandlungen und Vereinbarungen, die darauf abzielten, den Konflikt friedlich zu lösen und eine stabile und inklusive Regierung in Nordirland aufzubauen. Ein wichtiger Meilenstein war der „Good Friday Agreement“ von 1998, der eine Zusammenarbeit zwischen den beiden Gemeinschaften in Nordirland vorsah und die Gründung einer gemeinsamen Regierung ermöglichte.

Er ist bis heute ein laufender Prozess und es gibt immer noch Herausforderungen und Spannungen. Trotzdem hat der Friedensprozess zu einer deutlichen Verbesserung der Sicherheitslage in Nordirland beigetragen und zu einem Rückgang der Gewalt. Der Friedensprozess ist auch ein Beispiel dafür, wie komplexe und langanhaltende Konflikte friedlich gelöst werden können, wenn alle Beteiligten bereit sind, Kompromisse einzugehen und miteinander zu arbeiten.

Nation Building: Afghanistan

Nach dem Fall des Taliban-Regimes wurde im Rahmen von Nation Building in Afghanistan ein neues politisches System aufgebaut und Institutionen wie die Polizei und die Armee.

Die Förderung von Bildung und Kultur in Entwicklungsländern:
In vielen Entwicklungsländern wird Nation Building genutzt, um die Bildungs- und Kulturinfrastruktur zu verbessern und damit die nationale Identität und Solidarität zu stärken.

Der Aufbau von Gemeinden in Katastrophengebieten:
Nach Naturkatastrophen oder Kriegen kann Nation Building dazu beitragen, die betroffene Bevölkerung zu unterstützen und ihnen dabei zu helfen, ihre Gemeinden wieder aufzubauen und neu zu integrieren.

Was ist ChatGPT? Bedeutung, Definition, Erklärung


ChatGPT ist ein KI-Chatbot, der auf Nutzer Aufforderungen und Anfragen mit selbst erstellten Antworten reagiert. Das Besondere an ChatGPT ist, dass der KI-Chatbot auf Folgefragen reagieren kann und so eine Art „Gespräch“ möglich ist. Das Besondere an ChatGPT ist, dass der KI-Chatbot neues Wissen erstellt, wozu Vorgänger nicht fähig waren.

Was ist ChatGPT? Einfach erklärt

ChatGPT ist ein Werkzeug, das Texte schreibt. Außerdem kann ChatGPT auch Programmiercode schreiben.

Mit ChatGPT kann man effizienter Texte schreiben, da ChatGPT den Text erstellt bzw. schreibt und dieser nur noch korrigiert und redigiert werden muss. Hier ist die Krux! ChatGPT liefert Textentwürfe, keine fertigen Texte. Ein Mensch muss den Text noch einmal Korrektur lesen und etwaige Fehler entfernen. Denn ChatGPT arbeitet nicht zu hundert Prozent faktentreu, sondern arbeitet mit Wahrscheinlichkeiten. Im Algorithmus von ChatGPT sind Wahrscheinlichkeiten enthalten, welches Wort und welcher Satz wohl als nächstes folgen soll, als nächstes Sinn ergibt und auch als nächstes vom Leser erwartet wird. ChatGPT rät also immer ein bisschen und das führt dazu, dass ChatGPT eben auch falsch raten kann.

Jeder kann ChatGPT benutzen. Die Qualität des gelieferten Textes hängt von der Arbeitsanweisung an ChatGPT ab. Je besser diese ist, umso besser ist der Text.

Ein Fakt spricht für ChatGPT. Die KI schreibt schneller als Journalisten, Programmierer und Texter. Wer also meint, schneller, also effizienter, als ChatGPT zu sein, irrt.

ChatGPT ist auch als Chat-Bot gedacht. Das bedeutet, ChatGPT kann auf Webseiten integriert werden und soll dort auf Besucher-Anfragen reagieren. Aber dieser Zweck steht beim aktuellen Hype im Hintergrund.

Wie wird sich ChatGPT weiterentwickeln?

Je mehr Daten ChatGPT verarbeiten wird, umso umfangreichere und bessere Texte wird die KI schreiben können. “Besser” bedeutet, dass die KI weniger rät, sich besser ausdrückt und allgemein besser schreibt.

ChatGPT schreibt heute (2023) noch kurze Texte. Die Redaktion vermutet, dass ChatGPT in den folgenden Jahren nach einer Anweisung ein ganzes Buch schreiben kann.

Die Krux an und Grenzen von ChatGPT

1. ChatGPT hat keine Sinne.

ChatGPT hat keine Primärerfahrungen, keine Sinneswahrnehmungen und keine Sinneseindrücke. (Primärerfahrungen = was ich beobachte, sehe, fühle, wahrnehme, was meine Sinne wahrnehmen) ChatGPT hat keinen Geschmack, keine Haltung und keine Vorlieben. ChatGPT hat keine Persönlichkeit. ChatGPT verwendet Texte als Grundlage und erstellt aus Millionen Texten neue Texte, aber nur Remixe.

Damit hat ChatGPT ein Limit. Die KI kann zwar Remixe erstellen, aber nie in die Texterstellung Primärerfahrungen und Persönlichkeit einfließen lassen.

2. ChatGPT hilft nur Leuten, die schon Fähigkeiten und Wissen haben.

Die Texte von ChatGPT kann redigieren, wer schreiben kann und Ahnung von Texten hat.

Die Fakten, die ChatGPT in seinen Texten erwähnt, kann nur bestätigten oder korrigieren, wer schon Erfahrung in dem Bereich hat. (Wenn ChatGPT z.B.: ein Keto-Kochbuch schreibt, dann sollten die dadrin erwähnten Fakten stimmen. Das kann aber nur jemand überprüfen, der oder die schon Ahnung von Keto-Ernährung hat.)

ChatGPT kann auch Programmieren. Aber das hilft mir nur, wenn ich auch Programmieren kann. Ich muss nämlich das Ergebnis sichten und verstehen, was ChatGPT vorschlägt.

Damit – so möchte ich schlußfolgern – verschiebt ChatGPT die Aufgaben. Journalisten, Texter und Programmierer werden vielmehr sichten, korrigieren und redigieren, und weniger selbst schreiben.

Fazit: Wer vor KI Content produziert hat, wird es auch nach KI tun. Nur das nun eine KI hilft bzw. mithilft. Wer vor KI nur im Internet gelesen, geschaut und kommentiert hat, der wird – so vermutet die Redaktion – jetzt nicht zum Content-Produzenten werden.

(Hier erinnere ich, Autor dieses Textes, an die 90-9-Regel. Sie besagt, dass 90 Prozent aller Internetnutzer nur gucken, neun Prozent kommentieren und ein Prozent produziert Inhalte.)

Siehe auch:

Was ist ChatGPT? Bedeutung, Definition, Erklärung

ChatGPT ist auch ein KI-basierter Chatbot-Entwicklungsdienst, der es Entwicklern ermöglicht, Chatbot-Anwendungen durch maschinelles Lernen zu erstellen. ChatGPT basiert auf einem modularen Ansatz, bei dem Entwickler die Komponenten für ihren Bot auswählen können. Das Werkzeug verwendet maschinelles Lernen, um die Eingaben des Benutzers zu verarbeiten und ihm passende Antworten zu liefern. Darüber hinaus bietet ChatGPT eine einzigartige Funktion zur Erstellung von Dialogflüssen, bei der die Antworten des Benutzers in die nächste Frage übergehen. Dies ermöglicht es Entwicklern, eine reibungslose, natürliche Konversation zu schaffen. ChatGPT bietet außerdem eine einfache und benutzerfreundliche Drag-and-Drop-Oberfläche, die das Erstellen von Chatbots vereinfacht und beschleunigt.

Wie funktioniert Chat GPT?

ChatGPT ist eine Technologie, die es Computern ermöglicht, natürliche und angemessene Konversationen mit Menschen zu führen. Sie wurde von Open AI entwickelt, einer KI-Forschungsorganisation, die von Elon Musk, Sam Altman und anderen gegründet wurde.

ChatGPT basiert auf Deep Learning, einer KI-Technologie, die es Computern ermöglicht, auf natürliche Sprache zu reagieren. Es verwendet ein Generative Pre-trained Transformer-Netzwerk, das sogenannte GPT-3. Mit GPT-3 kann ein Computer in der Lage sein, eine kohärente Konversation zu führen, indem er natürliche Sprache versteht und auf Fragen und Anweisungen angemessen antwortet.

ChatGPT ist in der Lage, eine Konversation in Echtzeit zu führen, indem es sich an die Kontextinformationen erinnert, die in den vorhergehenden Sätzen enthalten sind. Auf diese Weise kann es einige Anweisungen und Fragen beantworten, ohne erneut nach Informationen gefragt zu werden. Es kann auch kreative Konversationen führen, indem es neue Ideen vorschlägt und interessante Fragen stellt.

Darüber hinaus können Entwickler ChatGPT anpassen, um spezifische Konversationen für bestimmte Anwendungsfälle zu ermöglichen. Sie können beispielsweise dem Chatbot beibringen, Fragen zu einem bestimmten Thema zu stellen oder bestimmte Befehle auszuführen.
Die Hauptidee hinter ChatGPT ist es, den Menschen ein natürliches und angenehmes Konversationserlebnis zu bieten, indem sie Computern beibringen, wie man sich menschlich verhält. Es kann sowohl für private als auch für geschäftliche Zwecke verwendet werden, um Kundenunterstützung zu bieten, E-Commerce-Transaktionen abzuschließen und vieles mehr.

Was kann man mit ChatGPT machen?

ChatGPT ist eine KI-basierte Chatbot-Software, die es Nutzern ermöglicht, natürliche Spracheingaben zu verarbeiten und auf sie zu antworten. Es kann in einer Vielzahl von Anwendungen eingesetzt werden, von Kundendienst bis hin zu interaktiven Fiktionen.

ChatGPT kann ganz allgemein Text bzw. Textantworten schreiben. ChatGPT kann Anleitungen schreiben, aber auch Erklärung. ChatGPT kann auch Rezeptideen und Urlaubsziele vorschlagen. Die Antwort von ChatGPT ist abhängig von der Qualität der Aufforderung.

ChatGPT kann sowohl auf Text- als auch auf Stimmeingaben reagieren und bietet eine Reihe von Funktionen, einschließlich der Verarbeitung natürlicher Sprache, der Erkennung von Anfragen, der Erstellung von Antworten, der Erstellung von Konversationssträngen, der Erkennung von Entitäten und der Erkennung von Intents. ChatGPT verfügt auch über eine Reihe von Funktionen wie eine integrierte Entwickler-API, eine Sprachmodellierung und ein leistungsstarkes Machine Learning-Tool. Mit ChatGPT kann man die Konversation zwischen Menschen und Maschinen verbessern, indem man eine Vielzahl von natürlichen Spracheingaben verarbeitet, die alle möglichen Eingaben und Anfragen verstehen können. Es kann auch dazu beitragen, die Nutzererfahrung bei der Interaktion mit Chatbots zu verbessern, indem es eine natürliche und lebendige Konversation ermöglicht.

ChatGPT kann auch in der Entwicklung von Chatbots für virtuelle Assistenten verwendet werden, um eine reibungslose und intuitiv zu bedienende Benutzererfahrung zu ermöglichen. Darüber hinaus kann ChatGPT auch bei der Entwicklung von Anwendungen wie automatisierten Chatbots, interaktiven Fiktionen, Sprachassistenten und anderen AI-basierten Anwendungen helfen.

ABER ChatGPT macht nicht alles. Schon jetzt ist Ethtik im Tool integriert. ChatGPT gibt keine Anleitungen, um Menschen zu schaden oder ihnen weh zutun. ChatGPT erklärt auch nicht, wie man sich selber weh tut oder wie man Substanzen hergestellt, die gesetzlich verboten sind.

Welche Bedeutung hat ChatGPT und warum ist es besonders?

ChatGPT ist eine KI-basierte Chatbot-Technologie, die es Entwicklern ermöglicht, natürliche Gesprächsfähigkeiten in ihre Anwendungen zu integrieren. Es wurde von OpenAI entwickelt und verwendet maschinelles Lernen, um auf Benutzereingaben zu reagieren, indem es eine Reihe von Antworten generiert, die dem Kontext entsprechen. ChatGPT kann so programmiert werden, dass es auf verschiedene Arten interagiert, wie z.B. einfache Antworten, wissensbasierte Antworten, Dialogmanagement und natürliche Spracheingabe.

ChatGPT ist ein Textgenerator, der auf der GPT-3-Technologie (Generative Pre-trained Transformer) basiert. Es ist eine KI-basierte Software, die es Menschen ermöglicht, natürliche Konversationen zu führen. ChatGPT ist besonders, da es einen Dialog in Echtzeit erstellen kann, der der natürlichen Sprache eines Menschen ähnelt. Die Technologie ermöglicht es ChatGPT, auf Fragen und Befehle zu reagieren, indem sie eine passende Antwort generiert. Die Technologie ist so konzipiert, dass sie immer lernt und sich verbessert. Dadurch kann ChatGPT auf unregelmäßige Eingaben reagieren und den Dialog anpassen, was eine echte Konversation sehr natürlich erscheinen lässt. ChatGPT wird hauptsächlich für Chatbots, virtuelle Assistenten und Dialogsysteme verwendet, was es zu einem wertvollen Werkzeug für Unternehmen macht, die ihren Kunden eine bessere Interaktion mit ihren Produkten und Dienstleistungen bieten möchten.

Was ist die Keimtheorie? Bedeutung, Definition, Erklärung


Gemäß der Keimtheorie werden diverse Krankheiten durch Mikroorganismen ausgelöstet und verbreitet. Durch zum Beispiel Husten oder Niesen von erkrankten Personen gelangen Mikroorganismen in die Umwelt und können so von anderen Menschen aufgenommen werden, die dann ihrerseits erkranken.

Die Keimtheorie bezieht sich dabei nicht nur auf Atemwegserkrankungen, sondern auf alle Erkrankungen, die durch Mikroorganismen ausgelöst werden.

Die Keimtheorie wird heute nicht mehr als Theorie bezeichnet, da ihre Inhalte belegt sind und heute eine medizinische Selbstverständlichkeit darstellen.

Ursprung der Keimtheorie

Ihren Ursprung hat die Keimtheorie in der zweiten Hälfte des 19. Jahrhunderts. In Südfrankreich kam es im Jahr 1865 zu einem Massensterben der Seidenraupe, was zu finanziellen Problemen der dort angesiedelten Textilindustrie führte.

Der Chemiker Louis Pasteur wurde damit beauftragt, die Gründe für das Sterben der Raupen zu ermitteln. Im Rahmen seiner Untersuchungen entdeckte er unter dem Mikroskop kleine Parasiten und er konnte nachweisen, dass diese zunächst die Nahrung der Raupen befielen und über diese in die Tiere selbst gelangten.

Durch die Vernichtung der vom Parasiten befallenen Raupen konnte die Krankheit eingedämmt und schließlich besiegt werden.
Unabhängig davon hatte der ungarische Arzt Ignaz Semmelweis ebenfalls in der zweiten Hälfte des 19. Jahrhunderts festgestellt, dass in den Wiener Krankenhäusern viele Frauen dem Kindbettfieber erlagen. Brachten Frauen hingegen ihr Kind mithilfe einer Hebamme zur Welt, lag die Zahl der Todesfälle infolge des Kindbettfiebers weitaus niedriger. Semmelweis schlussfolgerte daraus, dass die Ursache des Kindbettfiebers von den Ärzten auf die Schwangeren übertragen wurde. Er ordnete darauf eine gründliche Desinfektion der Hände vor jeder medizinischen Maßnahme an. Die Sterberate infolge von Kindbettfieber in den Krankenhäusern sank daraufhin drastisch.

Folgen der Keimtheorie

Das veränderte Bewusstsein über die Ursachen von bestimmten Erkrankungen veränderte sowohl einerseits das bisherige Verständnis von bestimmten Erkrankungen, ebnete aber vor allem den Weg zu neuartigen Behandlungs- und Präventionsmethoden.

Der deutsche Mediziner Robert Koch griff den Ansatz auf und wurde der Erste, der Mikroorganismen systematisch auf ihre Pathogenität, also auf ihre krankmachende Wirkung, hin untersuchte. Der Nachweis des Zusammenhangs gelang ihm mit der Entdeckung des damals gefürchteten Erregers der Tuberkulose. Die damals auch unter dem Namen „Schwindsucht“ bekannte und berüchtigte Krankheit verursachte im 19. Jahrhundert eine große Krankheitslast in so gut wie allen europäischen Ländern.

Ebenso entstand ein verändertes Bewusstsein über die ärztlichen Tätigkeiten. Es stellte sich nun heraus, dass das Risiko von postoperativen Entzündungen, die nicht selten zum Tod der Patienten führten, deutlich reduziert werden konnte, wenn Operationsbesteck vor einem Eingriff gründlich desinfiziert wurde.

Die neuen Erkenntnisse fanden rasch auf den Schlachtfeldern der Welt Anwendung: Die Überlebenschancen von verwundeten Soldaten erhöhten sich erheblich, wenn bei einer Behandlung durch den Feldarzt sowohl die medizinischen Instrumente als auch die Wunden desinfiziert wurden.

Die Keimtheorie als Wurzel der öffentlichen Gesundheitsvorsorge

Das Bewusstsein über die Übertragungswege bestimmter Krankheiten eröffnete vielerlei Möglichkeiten, die Entstehung von Krankheiten schon im Vorfeld zu vermeiden und so die Krankheitslast in der Bevölkerung zu reduzieren.

So führte die Keimtheorie zu der Erkenntnis, dass sauberes Wasser Durchfallerkrankungen wie Typhus und Cholera verhindern konnte. Als es im Jahr 1892 in Hamburg zum letzten schweren Ausbruch von Cholera in Deutschland kam, verteilte die Medizinalbehörde Handschriften mit Verhaltensmaßregeln und Wagen verteilten abgekochtes Wasser. Im Verlauf der Epidemie wurden Häuser und ganze Straßenzüge mit verschiedenen Chemikalien behandelt, die die in der Umwelt verbliebenen Cholera-Erreger abtöten sollten.

Auf der Keimtheorie basierte auch die zunehmende Entwicklung und Verbreitung von Impfstoffen.

Einschränkungen und Kritik an der Keimtheorie

Wenngleich die Keimtheorie heute keine Theorie mehr ist, sondern die Tatsache, dass verschiedene Krankheiten von Mikroorganismen verursacht werden, wissenschaftlicher Konsens ist, ist sie nicht gänzlich unwidersprochen.

Teilweise wurde behauptet, dass zu große Hygiene die Ursache für die Vielzahl an Allergien ist, unter denen viele Menschen in den Industrienationen leiden. Diese Hygienehypothese besagte, dass Erkrankungen wie Asthma und Heuschnupfen seltener bei Kindern auftreten, die auf einem Bauernhof groß geworden sind als bei solchen Kindern, die in der Stadt aufgewachsen sind. Diese Hypothese konnte inzwischen durch Studien belegt werden; so stellten Forscher fest, dass Kinder seltener an Allergien leiden, wenn sie häufig rohe Kuhmilch trinken oder sich in Ställen mit lebendem Vieh aufhalten.

Verschiedene Forscher gehen deshalb davon aus, dass Kinder Kontakt zu Schmutz und Keimen benötigen, um ein funktionierendes Immunsystem zu entwickeln.

Neuere Erkenntnisse zeigen allerdings, dass nicht nur ein zu hohes Maß an Hygiene Allergien verursachen kann, sondern auch die genetische Veranlagung, Luftschadstoffe und Tabakrauch die Entwicklung des kindlichen Immunsystems negativ beeinflussen können. Auch verschiedene Infektionen im Kindesalter, psychische Faktoren und der persönliche beziehungsweise familiäre Ernährungsstil sind möglicherweise Auslöser für Allergien.

Vereinzelte Stimmen lehnen die heute wissenschaftlich anerkannte Tatsache, dass bestimmte Krankheiten durch Mikroorganismen übertragen werden, vollkommen ab. Diesen Ansichten nach zielten derartige Behauptungen lediglich darauf ab, sich durch die Entwicklung eigentlich unnötiger Medikamente finanziell zu bereichern.

Dabei handelt es sich jedoch um vereinzelte Aussagen, die nicht dem wissenschaftlichen Konsens entsprechen. In zahlreichen Studien konnte im Verlauf der letzten 120 Jahre nachgewiesen werden, dass bestimmte Mikroorganismen bestimmte Krankheiten verursachen. Dank moderner hochauflösender Mikroskope ist heute auch der optische Nachweis kleinster Viruspartikel in der Größenordnung von Nanometern möglich.

Chancen und Herausforderungen bei der Digitalisierung


Wer sich mit dem Thema Digitalisierung intensiv beschäftigt, der befindet sich nicht nur voll im Trend der Zeit. Stattdessen setzt er sich auch mit einem Bereich auseinander, in welchem sowohl Chancen, als auch Herausforderungen vorhanden sind, welche von den Menschen zu bewältigen sind.

Vor allem die riesige Menge an Daten, die von uns allen heute verfügbar ist, erfordert einen verantwortungsbewussten Umgang der Gesamtgesellschaft mit der Thematik. Insgesamt gilt es dann wieder die Blicke zu schärfen und sich zu verinnerlichen, dass es die Chancen sind, welche hier eindeutig überwiegen und dass es sich somit in jedem Fall lohnt, für die Probleme und Herausforderungen adäquate Lösungen zu finden.

Chancen zu sehen, das ist nicht nur in diesem Fall eine große Aufgabe, sondern wird auch in Zukunft für diejenigen wichtig sein, die das Leben selbst anpacken möchten und auf der Gewinnerseite stehen wollen. Schließlich gibt es in nahezu jedem Feld ebenso Herausforderungen und auch Gefahren, wie es auch Chancen sind, die sich uns erschließen. Der positive Blick auf die Dinge, die auf uns warten, ist von so großer Bedeutung, dass ohne ihn vielleicht keine Möglichkeit besteht, erfolgreich mit den großen Aufgaben umzugehen, welche auf uns zukommen.

Neue Herausforderungen in puncto Datensicherheit bedürfen der intensiven Auseinandersetzung

Neue Aufgaben finden sich in vielen Lebensfeldern und gerade in Zeiten, die sich so schnell und rasant entwickeln sowie verändern wie es unsere tun, ist dies der Fall. Oftmals suchen wir auch bewusst eine Herausforderung und haben somit die Gelegenheit, auch die persönliche Entwicklung voranzutreiben.

Eben jene Entwicklung kann dann wiederum auf verschiedensten Ebenen helfen, mit den Dingen des Lebens umzugehen. Auch im Rahmen der Digitalisierung sind wir mit zahlreichen neuen Aufgaben und Herausforderungen konfrontiert, die es auf dem Weg in die Zukunft zu bewältigen gilt. So stellen Datenrettung und Datensicherheit Kernelemente dar, die es unbedingt umzusetzen gilt, um den neuen Zeiten gerecht werden zu können. Neben Unternehmen sind es auch Privatpersonen, welche von dieser Notwendigkeit betroffen sind. Schließlich tummelt sich nahezu jeder von uns im World Wide Web und da ist es wichtig, dass mit sensiblen Inhalten und Informationen nur auf adäquate Art und Weise umgegangen werden kann. Das Tempo der Entwicklung, welches hier bei den Methoden und Möglichkeiten vorhanden ist, ist so groß wie es in Wissenschaft und Technik der Fall ist.

Wissenschaft und Technik haben ein hohes Maß an Begeisterungsfähigkeit in sich, welches sie auf die Menschen übertragen, die sich mit den einzelnen Feldern auseinandersetzen. Tun wir genau dies, so wird für nahezu jeden klar, dass da auch das eine oder andere Interessensfeld von uns betroffen ist, welches sich hier in rasanter Geschwindigkeit entwickelt. Diese Geschwindgkeit könnte im Rahmen der Digitalisierung noch weiter zunehmen, auch wenn die letzten Jahre und Jahrzehnte die Latte bereits recht hoch gelegt haben.

Wer sich intensiv mit dem Gedanken beschäftigt, in welchen Bereichen es überall möglich ist, dank modernster Technik Prozesse zu erleichtern und so noch schneller zum gewünschten Ziel zu kommen, der wird kaum einen Part finden, in dem hier nicht noch Entwicklungspotenzial besteht. Somit dürfen wir uns auf eine Zeit freuen, in der einiges an Bürokratie und Aufwand abgebaut werden kann, während die effektive Entwicklung, welche am Ende dem Menschen zukommt, in den Vordergrund aller Überlegungen gerückt wird. Gelingt dies nachhaltig und wir finden einen Konsens darüber, welche Rolle der Mensch bei dieser Entwicklung spielen soll und wie wir die Zukunft gestalten, so ist der Chancenreichtum so groß, wie vielleicht niemals zuvor in der Geschichte der Menschheit.

Mehr Chancen als Probleme oder Risiken

Wie bereits in der Einleitung erwähnt sind es vor allem die Chancen, die im Mittelpunkt unserer Betrachtung stehen sollten. Schließlich liefert die Digitalisierung auf mannigfaltige Weise Vereinfachungen in Abläufen und Verwaltung. Denken wir nur daran, wie wir Behörden digitalisieren könnten, so kann jede Menge effektive Zeitersparnis auf dem Zettel stehen. Diese Zeit für andere Dinge nutzen zu können, ist gleichzeitig mit der Gelegenheit verbunden, uns auf anderen Gebieten auszuprobieren und die Fähigkeiten zu testen, die wir hier nutzen können.

Weiterhin kann es im stressigen Alltag auch einfach mal erlaubt sein und gut tun, Zeit für Freizeit und Dinge wie Serien oder Filme zu haben, welche uns für einen gewissen Zeitraum in eine andere Welt zu entführen verstehen. Probleme und Herausforderungen gilt es ernst zu nehmen. Dies ist im Zusammenhang mit unserer modernen Zeit ebenso der Fall, wie es in allen anderen Zeiten war, als man sich damit auseinandersetzte, wie die jeweilige Zukunft gestaltet werden soll. Unwidersprochen ist auch die derzeitige Phase in der Geschichte der Menschheit ob der offensichtlichen Fragen und Konflikte mit zahllosen Aufgaben versehen. Auch das Zusammenleben der Menschen muss auf eine neue Art und Weise gelingen.

Doch die technischen Möglichkeiten und Mittel, die hierfür zur Verfügung stehen, sollten eigentlich Mut machen und dazu führen, dass der Blick der Menschheit mit mehr Optimismus in die Zukunft geht, als es allenthalben der Fall zu sein scheint. Am Ende liegt es schließlich an der Menschheit selbst, wie wir diese Möglichkeiten nutzen und in welche speziellen Bereiche wir diesbezüglich investieren werden.

Dank der Digitalisierung wird Teilhabe in vielen Lebensbereichen niedrigschwelliger möglich

Ein großer Teil des Lebens findet heute digital statt und wo früher teilweise weite Wege zurückzulegen waren, kann heute die Teilhabe mit wenigen Klicks gesichert werden. Nehmen wir den Besuch einer Veranstaltung als Beispiel, bei der die Karten regelmäßig bereits im Vorverkauf vergriffen sind. Heute ist es fast ausnahmslos so, dass online die entsprechenden Tickets mit wenigen Klicks im Einkaufswagen landen. Nicht einmal der Druck ist mehr notwendig, sondern lediglich das Vorzeigen des sogenannten E-Tickets.

Die mannigfaltigen Vorteile, welche hiermit verbunden sind, befinden sich vor allem auf den Gebieten Aufwands- und Zeitersparnis. Gerade für berufstätige Menschen ergeben sich so große Vorteile. Teilhabe ist für viele Menschen einer der wesentlichsten Faktoren, wenn es darum geht, ein erfülltes und möglichst glückliches Leben zu führen. Hier kann es heute deutlich effizienter gelingen, Aufwand zu vermeiden und dabei Teilhabe in verschiedenen Bereichen adäquat zu sichern. So profitieren diejenigen, die im Vorfeld den Aufwand gescheut hätten oder auch einfach nicht die Zeit aufbringen konnten, eben jenen für sich in Anspruch zu nehmen.

Was ist Cunningham’s Gesetz? Wer war Cunningham? Bedeutung, Definition, Erklärung


Cunningham’s Gesetz lautet: „The best way to get the right answer on the Internet is not to ask a question, it’s to post the wrong answer.“

Auf deutsch übersetzt:
„Der beste Weg, eine korrekte Antwort im Internet zu bekommen, ist nicht eine Frage zu stellen, sondern eine falsche Antwort auf die Frage zu stellen.“

Was sagt Cunninghams Gesetz aus? Bedeutung, Definition, Erklärung

Das Zitat klingt paradox, da ja keine falsche Antwort gesucht wird, wenn jemand eine Frage stellt, aber es funktioniert tatsächlich. Bezogen ist diese Aussage oder dieses „Gesetz“ darauf, dass Menschen eine falsche Antwort auf eine Frage im Internet schneller korrigieren, als eine Frage zu beantworten. Es genügt, eine Falschaussage in einem sozialen Netzwerk zu posten.

In der Regel lässt eine Korrektur von einem sich auskennenden Mitnutzer nicht lange auf sich warten. In kürzester Zeit wird die gepostete Falschaussage richtig gestellt. Die Eingabe einer Frage in eine Suchmaschine führt dagegen oft zu ungenauen Ergebnissen und wenn die Frage in einem Forum gestellt wird, wartet man länger auf eine Antwort.

Wer ist Cunningham?

Ward Cunningham, der am 26. Mai 1949 in den USA geboren wurde, ist ein US-amerikanischer Programmierer, der in Beaverton, Oregon lebt und arbeitet. Er erschuf am 25. März 1995 mit dem Wiki Wiki Web das erste Wiki. Damit legte er den Grundstein für Wikipedia und die Möglichkeit für jeden Internetnutzer, sein Wissen über ein bestimmtes Thema in einem Online-Lexikon zu verewigen. Er ist auch einer der Autoren und Erstunterzeichner des Agilen Manifests, ein wichtiger Werte-Kodex für die Softwareentwicklung.

Von Dezember 2003 bis Oktober 2005 arbeitete Ward Cunningham für Microsoft. Direkt im Anschluss wechselte er zu der Firma Eclipse Foundation und ab Mai 2007 war er technischer Leiter des Internetverzeichnisses AboutUs.org.

Seine bekannte Aussage hat er bereits in den 1980ern getroffen. Sein Kollege Steve Mc Geady nahm das Zitat auf und formte es zu „Cunninghams Gesetz“. Damals bezog sich das Gesagte noch auf die Vorläufer des Internets, es gab erste Foren im „Usenet“, in dem sich die Nutzer schon ähnlich verhielten, wie heute. Durch die Entwicklung des Internets und die Vernetzung, wie wir sie heute kennen, ist Cunninghams Gesetz so passend wie nie. Jeder Mensch in den Industrienationen ist mit dem Internet verbunden und kann seine Meinung und sein Wissen kundtun und überall mitdiskutieren.

Sonstiges in Bezug auf Cunninghams Gesetz

Es existiert ein kurzes You-Tube-Video, in dem Cunningham selbst auftritt und seine vor vierzig Jahren getroffene Aussage selbst widerlegt.
Dort nennt er sein Gesetz ein „falsches Zitat, das sich selbst widerlegt, indem es über das Internet verbreitet wird“.

Es gibt das französische Sprichwort „Prêcher le faux pour savoir le vrai“. Das bedeutet übersetzt soviel wie: „Predige das Falsche, um die Wahrheit zu kennen“. Dieser Hang dazu, andere Menschen zu korrigieren, war also schon immer da, wo öffentlich diskutiert wurde. In der heutigen Zeit, wo der Kontakt zu Anderen und das öffentliche Kundtun einer Meinung oder das Verbreiten von Informationen besonders einfach ist, sind sowohl dieses Sprichwort, als auch Cunninghams auf die Onlinewelt bezogene Aussage aktuell wie noch nie.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung


Ein Teelichtofen besteht aus zwei unterschiedlich großen Tontöpfen und einem Teller. Dazu kommen noch diverse Schrauben und Unterlegscheiben und eine Metallstange. Aus diesen Einzelteilen wird der Teelichtofen zusammen gebaut und mit der passenden Menge an Teelichtern versehen. Die Anzahl an Kerzen richtet sich nach der Größe des Tellers. Werden die Lichter zu eng platziert, besteht die Gefahr, dass sich die einzelnen Flammen zu einer großen zusammenschließen. Es gibt inzwischen diverse Bauanleitungen und Sets, nach denen ein Teelichtofen hergestellt werden kann.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung

Werden die Kerzen angezündet, entwickeln die Flammen Hitze. Diese steigt mit der Luft nach oben. Der kleinere Tontopf nimmt die Wärme auf. An dieser Stelle ist die größte Wärmeentwicklung spürbar. Der zweite Tontopf wird durch die Luft nur langsam aufgewärmt. Daher kann dieser äußere Bereich auch berührt werden. Der Luftspeicher zwischen den beiden Tontöpfen bewirkt, dass die warme Luft nicht ungehindert in den Raum entweichen kann.

Teelichtofen: Konvektionswärme und Strahlungswärme

Durch das Anzünden der Kerzen erwärmt sich die Oberfläche der Tontöpfe. Die Konvektionswärme sorgt dafür, dass die angenehme Temperatur langsam an die Umgebung abgegeben wird. Warme Luft ist leichter als kalte Luft. Daher steigt sie langsam auf. Der kühlere Luftstrom fließt nach. So entsteht ein Kreislauf. Dieser bewirkt, dass der Raum langsam wärmer wird.

Teelichter brauchen Sauerstoff, damit sie brennen können. Deshalb muss zwischen dem Teller ein Spalt offen stehen. Diesen Bereich nutzen die Flammen, um Frischluft anzusaugen. Gleichzeitig wird durch diesen Spalt Wärme direkt an die Umgebung abgestrahlt. Die kühlere Frischluft wird durch die Teelichter angesaugt. Die warme Luft wird gleichzeitig abgestrahlt. So wird mit den Teelichtern zusätzlich Strahlungswärme erzeugt.

Teelichtofen: Wärmeleistung

Ein gewöhnliches Teelicht kann zwischen drei und vier Stunden brennen. Während dieser Zeit entwickelt jedes Licht eine Leistung von 40 Watt. Werden vier Teelichter aufgestellt, haben sie eine Gesamtleistung von 160 Watt. Verglichen mit einer herkömmlichen Heizung ist diese Leistung sehr gering. Neben der messbaren Wärme wird aber auch Strahlungswärme angegeben. Nach etwa 20 Minuten ist diese für die Personen in der Nähe des Teelichtofens deutlich spürbar. Sie sorgt dafür, dass sich die subjektive Empfindung ändert. Die Einstellung der regulären Heizung wird reduziert. Dadurch kann Energie eingespart werden. Werden mehrere Teelichtöfen aufgestellt, können sie auf diese Weise in der Übergangszeit für die gewünschte Wärme sorgen.

Siehe: Wie gefährlich ist ein Teelichtofen? Risiken, Gefahr

Sauerstoffzufuhr:

Jedes Feuer verbrennt Sauerstoff. Der CO² Gehalt in dem Raum wird dadurch langsam höher. Wenn mehrere Teelichter oder andere Kerzen angezündet werden, ist daher immer auf eine ausreichende Sauerstoffzufuhr im Wohnbereich zu sorgen. Ähnlich wie beim offenen Holzofen oder Kamin ziehen die Flammen diesen Anteil der Luft zu sich. Eine zu geringe Menge an Frischluft kann dazu führen, dass die anwesenden Personen langsam eindämmern und dann ganz einschlafen. Dies kann im schlimmste Fall den Erstickungstod verursachen. Wo immer ein Teelichtofen betrieben wird, sollte stets ausreichend für Frischluft gesorgt werden. Ist dieser vollständig aufgebraucht, erlöschen die Kerzen.

Die unterschiedlichen Modelle von Teelichtöfen sorgen dafür, dass die Wärme an verschiedenen Stellen genutzt werden kann. Die Temperatur kann in der Nähe bis zu 50 °C betragen. Kleine Räume oder der Platz rund um einen Tisch können auf diese Weise für ein paar Stunden beheizt werden.

Ist ein Teelichtofen gefährlich? Risiken, Gefahr, Erklärung


Teelichtöfen können bei einer falschen Konstruktion und einer falschen Verwendung gefährlich sein. Die Verwendung von offenem Feuer bringt Risiken mit sich, die leicht unterschätzt werden können. Teelichtöfen können Haus- bzw. Wohnungsbrände verursachen, wenn gewisse Sicherheitsmaßnahmen nicht berücksichtigt werden.

Bei einem verantwortungsvollen Umgang mit Teelichtöfen ist das Risiko einer Brandentwicklung gering. Sonstige Gesundheits- oder Sicherheitsrisiken sind eher gering.

Wie kann es durch Teelichtöfen zu Bränden kommen?

Es gibt zwei grundlegende Mechanismen, wie es zu Bränden durch Teelichtöfen kommen kann. Die Teelichter können umliegende Materialien entfachen, wenn die Konstruktion zu dicht an brennbaren Gegenständen steht. Ein typischer Fall wäre es, wenn das Feuer bei einem Teelichtofen auf dem Fensterbrett auf die Gardinen überspringt und einen unkontrollierbaren Brand verursacht. Das Feuer kann dabei durch direkten Kontakt der Flamme oder indirekt durch die Hitzeentwicklung am Teelichtofen entstehen. Dieser Gefahr kann vorgebeugt werden, indem der Teelichtofen korrekt aufgestellt wird. Dabei ist ein Sicherheitsabstand zu allen brennbaren Materialien notwendig. Außerdem sollte ein Teelichtofen, wie alle Kerzen, niemals unbeaufsichtigt gelassen werden. Bevor das Zimmer oder sogar die Wohnung verlassen werden, sind alle Teelichter zu löschen.

Die zweite, unbekanntere Gefahr droht das Phänomen des Wachsbrandes.

Siehe: Wie funktioniert ein Teelichtofen? Was passiert physikalisch?

Was ist ein Wachsbrand?

Kerzenwachs kann sich ab bestimmten Temperaturen selbst entzünden. Dabei brennt das Teelicht nicht mehr über den Docht ab, sondern steht plötzlich komplett in Flammen. Dabei entsteht eine beeindruckende Stichflamme, die wiederum zu Brandschäden in der Wohnung, Verletzungen oder zu einem sich ausbreitenden Wohnungsbrand führen kann.

Wachs ist chemisch mit Fetten und Ölen verwandt. Ein Wachsbrand kann, genau wie ein Fettbrand in der Küche, nicht mit Wasser gelöscht werden. Für das Löschen eines Wachsbrandes ist ein Feuerlöscher (Klasse F) oder eine geeignete Löschdecke erforderlich.

Die Temperatur, ab der sich das Wachs entzündet, hängt von der chemischen Zusammensetzung des spezifischen Teelichts ab. Bio-Teelichter auf Rapsöl-Basis sind ab etwa 300 °C entzündlich.

Wie kann ein Wachsbrand verhindert werden?

Um Wachsbrände auszuschließen, darf die Temperatur im Teelichtofen nicht zu hoch steigen. Deswegen ist es empfehlenswert, einen ausreichenden Abstand zwischen den Teelichtern und dem darüberliegenden Blumentopf einzuhalten. Bei der Konstruktion von Teelichtöfen sollte auf erprobte, sichere Baupläne zurückgegriffen werden.
Um die Hitzeentwicklung zusätzlich zu begrenzen, sollte ein Teelichtofen nicht mit zu vielen Teelichtern betrieben werden. Die genau Maximal-Anzahl ist von der Größe des Teelichtsofens abhängig, aber ein ausreichender Abstand zwischen den Teelichtern muss gewährleistet sein.

Gefahren für Kinder und Haustiere

Bei der Anwesenheit von Kindern und Haustieren gelten für Teelichtöfen dieselben Gefahren wie bei normalen Kerzen oder Holzöfen. Kinder und Haustiere dürfen niemals unbeaufsichtigt mit einem Teelichtofen zurückgelassen werden. Mögliche Gefahren sind etwa Verbrennungen und Brände durch ungewolltes Umwerfen des Teelichofens.

Der Teelichtofen sollte nicht an Orten aufgestellt werden, die für Kinder erreichbar sind. Einige beliebte Orte für Teelichtöfen, etwa Fensterbänke, sind zudem bevorzugte Aufenthaltsorte von Katzen.

Es ist zu beachten, dass nicht nur von den Teelichtern selbst eine Verbrennungsgefahr ausgeht. Auch am Ton des Blumentopfs entstehen Temperaturen, die zu Verletzungen führen können.

Kann es durch Teelichtöfen zu Kohlenstoffmonoxid-Vergiftungen kommen?

Bei allen Verbrennungsreaktionen entsteht Kohlenstoffmonoxid als Nebenprodukt. Kohlenstoffmonoxid wird nach dem Einatmen anstelle von Sauerstoff an die roten Blutkörperchen gebunden und führt zu einer inneren Erstickung. Das Gas ist geruchlos und kann nicht erkannt werden. Deswegen ist bei Holzöfen eine Wartung durch den Schornsteinfeger vorgeschrieben.

Auch bei Teelichtöfen wird Kohlenstoffmonoxid produziert. Normalerweise ist dies aber unbedenklich, da die Menge nur sehr klein ist. Durch reguläres Lüften und etwas Durchzug in der Wohnungsluft wird das Kohlenstoffmonoxid zerstreut und kann keine Schäden verursachen.
Trotzdem sollte die Gefahr nicht vernachlässigt werden. Wenn ein Teelichtofen betrieben wird, muss die Wohnung regelmäßig gelüftet werden. Dabei ist eine Stoßlüftung mit der Öffnung mehrerer Fenster empfehlenswert. Es dürfen zudem nicht zu viele Teelichtöfen gleichzeitig betrieben werden. Dies gilt besonders für kleinere, gut isolierte Räume.

Wie gefährlich sind Teelichtöfen also allgemein?

Teelichtöfen bringen einige Gefahren mit sich. Unfälle entstehen aber nur bei der Missachtung von einfachen Sicherheitsmaßnahmen. Bei einem verantwortungs- und maßvollen Umgang mit Teelichtöfen sind die Gefahren gering.

Warum hat der Kochlöffel ein Loch? Erklärung


Auch wenn dies längst nicht bei jedem Kochlöffel der Fall ist, werden heutzutage die meisten Kochlöffel serienmäßig mit einem Loch in der Mitte, der Laffe (korrekter Ausdruck für die Rührfläche), hergestellt.

Fachlich richtig wird diese Art von Löffel auch Rührlöffel oder Lochkelle genannt. In Italien wird ein Kochlöffel mit einem solchen Loch als Risottorührer bezeichnet und wird dementsprechend für das Rühren von Risottogerichten genutzt. Es ist nicht zu hundert Prozent bewiesen, doch mit hoher Wahrscheinlichkeit wurde der Kochlöffel mit dem Loch so, wie er heute ist, in Italien erfunden.

Loch als Aussparung für einen geringeren Widerstand beim Rühren

Gerade bei Reisgerichten wie Risotto ist das regelmäßige Rühren anstrengender mit einem Löffel ohne Aussparung. Es erfordert viel Kraft, je dicker oder zäher ein Gericht oder eine Masse ist. Durch das Loch in der Laffe entsteht ein geringerer physischer Widerstand bei gleichem Effekt, was das Umrühren vereinfacht und auch einen gewissen Klebeeffekt der Speisen am Löffel reduziert. Auch bei manchen Eintöpfen oder besonders zähen Massen wie Teig oder Kartoffelpüree erfordert das permanente Rühren viel physische Energie, die durch das Loch in der Laffe eingespart wird. Es wird davon ausgegangen, dass dies der Hauptgrund für das Produktdesign einer Lochkelle ist. Es gibt jedoch einige weitere Vorteile der Aussparung.

Nebeneffekte des Loches

Komfortableres Herausnehmen von größeren Stücken:

Ein weiterer Vorteil einer Lochkelle bzw. eines Löffels mit Loch in der Laffe ist, dass das Herausnehmen größerer Stücke besser funktioniert. Wenn jemand zum Beispiel ein Stück Kartoffel oder Zwiebel aus einem Eintopf herausnimmt, bleibt dieses Stück besser auf dem Loch liegen, als auf einem normal geformten Kochlöffel. Bei Letzterem neigt das betroffene Stück Inhalt eher dazu, abzurutschen und es ist schlechter greifbar.

Flüssigkeit kann leichter abfließen:

Ein Nebeneffekt, und auch der Grund, warum es den mit der Lochkelle verwandten Schlitzlöffel gibt, ist folgender: Flüssigkeiten in Speisen, die mit dem Rührlöffel herausgenommen werden, fließen ab.

Der soeben genannte Schlitzlöffel hat sogar allein diesen Zweck. Es ist ein Löffel mit länglicherer, nicht ganz runder Laffe, die mehrere Schlitze in der Mitte aufweist. Dies ist bei vielen Nudel- oder Fleischgerichten praktisch. Der Schlitzlöffel ist größer als ein üblicher Rührlöffel, was sowohl die Laffe, als auch den Stiel betrifft.

Spaghetti-Löffel

Eng verwandt mit der Lochkelle ist der Spaghetti-Löffel, der ebenfalls ein Loch in der Mitte hat. Hierbei lassen sich die Spaghetti nach dem Kochen leichter mit einer dicken Soße verrühren.

Beim Herausnehmen der Spaghetti aus dem Kochtopf wird durch die kellenartige Form vereinfacht und das Wasser fließt durch das Loch leichter ab.

Zu guter Letzt sind die Löcher in Spaghetti-Löffeln so genormt, dass der Durchmesser einer Portion getrockneter Spaghetti genau hindurchpasst. So lassen sich die Nudeln im Voraus leicht portionieren.

Spitz zulaufende Ecke

Der Kochlöffel mit Loch oder die Lochkelle hat in den meisten Fällen zusätzlich eine einzelne spitz zulaufende Ecke. Diese ist dazu da, durch den entstandenen rechten Winkel mit dem Löffel besser an den Topfboden heranzukommen. So ist es einfacher, auch den unten liegenden Inhalt leichter aus dem Topf kratzen zu können.

Was ist ein „Luser“? Bedeutung, Definition, Erklärung


Luser ist ein englischer Begriff, der einen laienhaften Computerbenutzer bezeichnet. Dabei handelt es sich um ein Schachtelwort, welches sich aus den beiden englischen Wörtern „Loser“ (Verlierer) und „User“ (Benutzer) zusammensetzt.

Die Entstehung des Begriffs Luser

Das Wort Luser trat erstmals Ende der 60er-Jahre in Verbindung mit einem CTSS-Quellcode in Erscheinung. Richtig Fahrt auf nahm das englische Kofferwort am MIT (Massachusetts Institute of Technology) Mitte der 70er-Jahre.

Ein Nutzer lies sich damals unter ITS mittels der Tastenkombination Control-Z detaillierte Informationen ausdrucken. Darunter war die Zahl der Nutzer, welche den Computer benutzten, zu sehen. Aus Spaß wurde ein Patch geschrieben, welches die Bezeichnung „User“ auf „Loser“ abänderte. Wurden nun die Statusinformationen eines Computers von einer Person ausgedruckt, bekam diese beispielsweise 8 Verlierer statt 8 Benutzer zu sehen.

Die Bezeichnung Loser (Verlierer) stieß jedoch auf Widerstand und war nicht von jedem gern gesehen, wodurch der Begriff Luser entstand.

Von wem heute der Begriff Luser hauptsächlich genutzt wird

Vielfach verwendet wird Luser von Hackern. Für Hacker ist ein jeder „normale“ Computerbenutzer ein Luser. Dabei spielt es keine Rolle, ob es sich um einen Neuling handelt oder um jemanden, der zwar im Umgang mit Windows oder anderen Betriebssystemen geübt ist, allerdings keine oder kaum Erfahrung mit den verschiedenen Programmiersprachen hat.

Auch von Systemadministratoren werden Personen mit normalen Benutzerkonten mitunter als Luser bezeichnet. Dies gilt für jede Person, die keinen Zugriff auf die Systemverwaltung hat und aufgrund mangelnder Erfahrung auch nicht haben sollte. Unerfahrene Kunden werden daher von technischen Supportmitarbeitern oft als Luser bezeichnet.

Häufig verwendet wird der Begriff Luser auch bei Personen, die stetig dieselben Fragen in Bezug auf Computer-Befehle stellen. Wenn eine Person trotz mehrmaliger Hilfestellung nicht mit seinem Computer zurechtkommt, dann wird diese gerne als Luser bezeichnet.

Beispiele für einen Luser

Eine Person, die sich mit einem Programm oder einem System nicht zurechtfindet und auch nicht geschult ist. Beispielsweise werden Computerbenutzer als Luser bezeichnet, welche sich beschweren, dass die eingegebenen Daten bei einem System nicht gespeichert wurden. Gleichzeitig hat sich der Computerbenutzer nicht beim Support informiert oder es auch nach einer Anfrage beim Support nicht verstanden, dass es einen Button zum Abspeichern der Daten gibt.

Als Luser können jedoch auch Personen bezeichnet werden, die eine eigenwillige oder spezielle Einstellung zum Internet haben. Verwendet wird der englischsprachige Begriff auch, wenn ein Betriebssystem wie Windows genutzt wird.

Windows 95 sorgte für starken Aufschwung des Begriffs Luser

In den 80er-Jahren konnten Computer nur von jenen richtig bedient werden, die eine Schulung absolviert oder sich das Hintergrundwissen selbst mühsam angeeignet haben. Erst mit Windows 95 kam die Zeit, als auch völlig unerfahrene Benutzer einen Computer bedienen konnten. Dadurch stieg die Zahl unqualifizierter Anwender, wodurch der Begriff Luser von qualifizierten Nutzern noch häufiger verwendet wurde.

Luser – Wörter mit ähnlicher Bedeutung

Oft wird als Synonym für Luser auch DAU verwendet. DAU steht für „dümmste anzunehmende User“.

Teilweise wird auch da Kürzel LART genutzt. LART ist die Abkürzung für „Luser Attitude Readjustment Tool“. Hierbei handelt es sich um ein Werkzeug, durch das die Luser-Einstellung neu ausgerichtet wird. Das kann ein Programm sein, mit dem zuvor falsche Einstellungen des Lusers wieder rückgängig gemacht und richtige Einstellungen vorgenommen werden.

Weitere Wörter für Luser sind zudem Luzer oder Luzzer.

Was ist Stacking Sats? Bedeutung, Definition, Erklärung


Was bedeutet der Begriff Stacking Sats? Oft findet man den Begriff Stacking Sats in den Bitcoin Foren. Auch bei Twitter wird der Hashtag #StackingSats oft verwendet. Viele Menschen, die Bitcoin nicht kennen oder Bitcoin Anfänger sind, können mit dem Begriff aber nichts anfangen.

Stacking Sats: Definition, Bedeutung, Erklärung

Die Nutzer von Bitcoin bezeichnen mit Stacking Sats eine Anhäufung (Akkumulation) von Bitcoin (BTC). Diese Anhäufung entsteht, indem der Nutzer BTC kauft und so Geld verdient.
Das Wort Sats steht für Satoshis. Dies ist die kleinste Einheit des Bitcoins.

Angeblich wurde der Begriff Stacking Stats erstmalig auf Twitter benutzt. Damals verwendete der User @CryptoGod112358 diesen Hashtag. Diese Bezeichnung wurde dann von anderen einflussreichen Influencern wie Jack Dorsey adaptiert. Dorsey ist ein bekannter Twitter-CEO.

Er postete einen Screenshot von seinem Bitcoinkauf und setzte unter das Foto den Hashtag #stackingsats. Im Urban Dictionary ist der Begriff mittlerweile auch zu finden. Im Laufe der Zeit lohnt sich das Anhäufen von Satoshis (Sats) auch. Selbst kleine Ansammlungen können aufgrund des zukünftigen Wertes später einmal sehr nützlich sein.

Wann kann der Begriff Stacking Sats verwendet werden?

Der Begriff kann immer verwendet werden, wenn ein Käufer neue Satoshi kauft, tauscht oder einen Gewinn erzielt. Jede kleine Anhäufung und jede kleine Steigerung des Bestandes kann mit dem Begriff beschrieben werden.

Was ist Sats? Wieviel Bitcoin ist ein Satoshi?

Sats ist die Abkürzung von Satoshi. Satoshi ist die kleinste Einheit von Bitcoin. Satoshi Nakamoto erfand Bitcoin im Jahre 2008. Damals veröffentlichte er das Bitcoin-White-Paper. 2009 erschien die erste Version der Referenzimplementierung Bitcoin Core.

Der Name Satoshi Nakamoto ist ein Pseudonym. Seit 2008 wurden verschiedene Personen für Satoshi gehalten. Satoshi Nakamoto legte folgenden Wert fest: 1 Satoshi sind 0.00000001 BTC. Also besteht 1 Bitcoin aus 100 Millionen Satoshis.

Seitdem es Käufern schwerer fällt, einen ganzen Bitcoin zu kaufen, gewinnen die Satoshis zunehmend an Relevanz. Die Preise für den Bitcoin steigen und daher sind Bitcoins nicht mehr so einfach erhältlich.

Satoshi und Euro

Satsoshi können auch in Euro umgerechnet werden. Bei einem Preis von 8000 Euro pro Bitcoin wäre 1 Satoshi (bzw. 0.00000001 BTC) ungefähr 0,008 Cent wert. Der aktuelle Preis des Bitcoins muss durch 100 Millionen dividiert werden. So wird der Preis pro Satoshi in Euro berechnet.

Experten vermuten, dass in der Zukunft der BTC eine Million Euro wert sein könnte, dann würden auch die Satoshis teurer werden. Falls der BTC einmal wirklich eine Million Euro wert sein sollte, dann wird ein Satoshi den Wert von 0,1 Cent haben. Der Bitcoin Preis lag am 06.11.2022 bei 21370,09 Euro.

Bitcoin und Sats kaufen

Viele Menschen glauben inzwischen an den Wertzuwachs von Sats und versuchen daher, Sats anzuhäufen. Bitcoins oder Sats sind auf Bitcoin Plattformen erhältlich. Anleger und Bitcoin Interessierte können sich über die besten Plattformen und Wallets informieren. Es gibt verschiedene Möglichkeiten, Sats günstig zu erwerben und sicher zu verwahren.

Das Wiener Unternehmen Bitpanda ist inzwischen eine der führenden Kryptobörsen in ganz Europa. Die Zahlen sind erstaunlich. Inzwischen wird der Wert des Unternehmens auf über 4 Billionen Dollar geschätzt. Auf Bitpanda sind mehr über 3 Millionen Anleger und Kryptoinvestoren angemeldet. Die weltweit größte Plattform für Krypto ist aber eToro. Auch Coinbase ist eine riesige Plattform mit vielen Millionen von Anlegern.

Was ist Dark Data? Bedeutung, Definition, Erklärung


Unter Dark Data versteht man Datenmengen und Datenflüsse, die in der täglichen Kommunikation zwischen Unternehmern und Endbenutzern zwar abgefragt und gespeichert werden, tatsächlich aber niemals von den Systemen dahinter verwertet werden. Es ist eine Art von blinder Masse, die bei der Datenverarbeitung anfällt und auf den Systemen bleibt, aber aus unterschiedlichsten Gründen nicht in die nachfolgenden Prozesse eingebunden wird. Schuld daran ist in der Regel die schiere Menge an Daten, die derzeit bei digitalen Prozessen erhoben wird. Technische Aspekte machen es zwar notwendig, dass auch die Dark Data erfasst wird, verarbeitet wird sie aber nicht und nur die wenigsten Unternehmen und Behörden sind sich der Existenz der Dark Data überhaupt im größeren Maße bewusst.

Unterschiedliche Szenarien für die Existenz von Dark Data

Generell kann Dark Data in ganz unterschiedlichen Formen auf Systemen vorliegen und auch aus ganz verschiedenen Gründen überhaupt erzeugt werden. Mit der Zunahme von Digitalisierungsprozessen und der allgemeinen digitalen Kommunikation begann auch die umfassende Speicherung eben dieser Daten und Dateien. Dabei geht es sowohl um die Interaktion zwischen Endbenutzer und System – in diesem Fall beispielsweise ein Kunde und das Unternehmen dahinter – aber auch um die Daten, die durch automatisierte Prozesse anfallen und im Hintergrund gespeichert werden. Alleine das Prinzip Big Data sorgt heute dafür, dass jedes Unternehmen Gigabytes bis Terrabytes an Daten jeden Tag auf den eigenen Systemen speichert. Während manche weiterverwendet und andere nach kurzer Zeit gelöscht werden, gibt es durchaus die sogenannte Dark Data, die vollkommen ungenutzt weiterhin auf dem System verbleibt.

Wann genau nun Dark Data entsteht ist in der Regel von der Infrastruktur des Systems abhängig. Es gibt Dark Data, die beispielsweise dadurch entstanden ist, dass sie einfach auf dem System vergessen wurde. Das kann durch inkorrekte Auswertungsprozesse passiert sein oder weil sich zu diesem Zeitpunkt noch kein tieferer Zweck für genau diesen Datensatz ergeben hat. Es gibt darüber hinaus Informationen, die einfach nicht brauchbar sind. Sie sind beispielsweise beschädigt oder liegen in einem Format vor, das für die eigenen internen Prozesse nicht brauchbar ist. Auch veraltete Daten sind nicht selten noch lange auf den Systemen zu finden und fallen irgendwann in die Kategorie von Dark Data, da sie in Vergessenheit geraten und nicht in die Prozesse eingebunden werden.

Die möglichen Folgen und Potentiale von Dark Data

Dass Daten im Zeitalter des Internets zu einer der wichtigen Währungen überhaupt geworden sind, beweisen nicht nur die sozialen Netzwerke und Advertiser Tag für Tag. Eine intelligente und vor allem zielgeführte Auswertung von allen Daten auf dem eigenen System ist wichtig – nicht nur um Prozesse zu optimieren, sondern auch um möglichst viel von den Menschen zu erfahren, mit denen das eigene System interagiert. Nun können Daten im Laufe der Zeit wieder interessanter werden. Vielleicht entwickelt man einen Prozess, mit den die bisherigen Datenreste oder falschen Formate doch noch ausgewertet und in die Datenbasis überführt werden können. Oder es entsteht ein neuer Trend, für den man eine ganz bestimmte Form von Daten benötigt, die bisher nicht genutzt wurde, aber in umfassender Form auf den Systemen vorhanden ist.

Gleichzeitig entstehen natürlich auch sicherheitsrelevante und nicht zuletzt datenschutzrechtliche Probleme mit Dark Data. In Europa sind Unternehmen generell zur Datensparsamkeit angehalten. Sie sollen nur Daten von Kunden und Nutzern speichern, die direkt weiterverarbeitet und für eigene Prozesse genutzt werden können. Liegen nun größere Mengen an Dark Data auf dem System, bei dem man nicht einmal genau weiß, was sie eigentlich beinhaltet, könnte das bei einem Sicherheitsleck zu einem Problem werden. Dazu kommen die Kosten für die Speicherung, die bei einer beständigen Zunahme der Datenmenge auch mittelfristig zu einem Problem werden können. Unternehmen müssen sich daher damit beschäftigen, was sie mit dieser dunklen Masse an Daten in ihrem eigenen System machen wollen.

Was bedeutet „Fediverse“? Was ist das? Bedeutung, Definition, Erklärung


Im Zeitalter der sozialen Vernetzung hat sich das „Fediverse“ als spannendes, innovatives Konzept etabliert, das die Art und Weise, wie wir online interagieren, sich gerade grundlegend verändert. Das „Fediverse“ ist weit mehr als nur ein neuer Trend. Es repräsentiert eine dezentrale und offene Welt des sozialen Netzwerkens. Anders als herkömmliche Plattformen ermöglicht das „Fediverse“ die Interaktion über verschiedene soziale Netzwerke hinweg, während es gleichzeitig die Kontrolle über persönliche Daten in die Hände der Nutzer legt.

Die Idee hinter dem „Fediverse“ ist es nun, dass Nutzer nur noch ein einziges Nutzerkonto benötigen, um im Internet verschiedenste Dienste in Anspruch nehmen zu können. Hierfür agiert das „Fediverse“ als eine Art dezentrale Plattformen, die die Informationen an zentrale Plattformen weiterleitet (der Nutzer kann jedoch jederzeit entscheiden, für welche Plattformen er dies wünscht und in welchem Umfang überhaupt). Damit stellt das „Fediverse“ ein faszinierendes, neues Internetkonzept dar. Doch, was genau verbirgt sich eigentlich hinter dem Namen und woher stammt dieses neuartige Konzept? Darüber erfährt der Leser im nachfolgenden Artikel nun weitere, interessante Informationen.

Begriffsdefinition von „Fediverse“

Bei „Fediverse“ handelt es sich um ein Kofferwort, dass aus der englischen Sprache abstammt. Es setzt sich aus den Wörtern „federation“ (zu Deutsch: „Förderation“ oder „Vereinigung“) und „universe“ (zu Deutsch: „Universum“ oder „Plattform“) zusammen. Gemeint ist damit eine (konzeptionelle) Internetplattform, die dezentralisiert ist und die auf die gesamte Welt des Internets zugreifen kann.

Im Fokus stehen beim „Fediverse“ bisweilen soziale Netzwerke, Mikroblogging-Dienste sowie Webseite für Online-Publikationen – die Möglichkeiten für den Einsatz von „Fediverse“ sind aber nahezu unbegrenzt. In dieser offenen Welt können verschiedene soziale Netzwerke miteinander interagieren und Nutzer haben die Kontrolle über ihre Daten. Eine bedeutende Innovation, die die Online-Kommunikation neugestaltet und fördert.

Menschen, die das „Fediverse“ nutzen, werden auch als „Fedinauten“ bezeichnet. Dies stellt eine Abwandlung zum Begriff „Astronauten“ dar. Im Gegensatz zum Astronauten stellt für den „Fedinauten“ das dezentrale Internet stellvertretend für das unendliche Universum.

Woher stammt der Begriff „Fediverse“?

Der Begriff „Fediverse“ entstand durch die Kombination der Wörter „federation“ und „universe“ und ist daher als Kunstwort zu verstehen. Die Idee dazu entwickelte sich im Kontext der Entstehung des sogenannten „ActivityPub“-Protokolls im Jahre 2010, welches die Grundlage für die dezentrale Kommunikation im „Fediverse“ bildet. Evan Prodromou, ein Mitbegründer des sozialen Netzwerks „identi.ca“, spielte eine maßgebliche Rolle bei der Schaffung von „OStatus“, einem frühen Vorläufer von „ActivityPub“. „OStatus“ ist daher als eigentlicher Ursprung für die Entstehung des „Fediverse“ zu verstehen. Beim „Fediverse“ selbst handelt es sich um eine diverse und föderierte, soziale Plattform. Diese ermöglicht es Nutzern, über verschiedene Plattformen hinweg miteinander zu interagieren. Seit seiner Entstehung hat das „Fediverse“ als Konzept stark an Bedeutung gewonnen. Es treibt die Vision einer offenen und vernetzten, sozialen Online-Welt weiter voran.

Wie funktioniert „Fediverse“?

Das „Fediverse“ basiert auf föderierten sozialen Netzwerken, die miteinander kommunizieren können. Im Folgenden eine kurze Erklärung, wie das genau funktioniert:

  • dezentrale Server (jede Plattform im „Fediverse“ betreibt eigene Server)
  • austausch von Informationen über ein zentrales Protokoll (das „ActivityPub“)
  • Nutzer verschiedenster Plattformen interagieren miteinander (kommentieren Beiträge, teilen Inhalte usw.)
  • „Fedinauten“ haben im „Fediverse“ jederzeit die komplette Kontrolle über ihre Daten
  • offene Standards ermöglichen mehr Kooperation, Interaktion und Interoperabilität

Beispiele für „Fediverse“

Obwohl das Konzept des „Fediverse“ noch relativ neu ist, so gibt es bereits eine Vielzahl von Anwendungsbereichen, in denen die dahinterstehende Funktionsweise schon heute beobachtet werden kann:

  • dezentrale Netzwerke
  • Social Media
  • Online-Verkaufsplattformen

In den folgenden Unterabschnitten soll noch genauer auf die oben genannten Verwendungsbereiche des „Fediverse“ eingegangen werden.

Dezentrale Netzwerke

Im Bereich dezentraler Netzwerke ermöglicht das „Fediverse“ innovative soziale Plattformen, wie beispielsweise „Mastodon“. Hier können Nutzer über verschiedene Server hinweg miteinander interagieren und ihre eigene Instanz erstellen. Dies fördert die Vielfalt und eröffnet Möglichkeiten für individuelle, auf bestimmte Interessen ausgerichtete Netzwerke.

Social Media

Auf Social Media bietet das „Fediverse“ Plattformen, wie beispielsweise „Pleroma“ (als Alternative zu zentralisierten, sozialen Netzwerken). Nutzer können Inhalte teilen, diskutieren und sich vernetzen, während sie die Kontrolle über ihre Daten behalten. Dies ist bei herkömmlichen, sozialen Netzwerken nicht der Fall (die Daten geraten hier in die Hände der Plattformbetreiber). Derartige, dezentralisierte Plattformen ermöglichen eine freiere, offenere und sicherere Kommunikation.

Online-Verkaufsplattformen

Das „Fediverse“ findet mittlerweile auch Anwendung im Bereich der Online-Verkaufsplattformen, wo dezentrale Lösungen immer öfter zu beobachten sind. Durch die föderierte Struktur können Händler und Käufer auf verschiedenen Plattformen agieren und dennoch miteinander interagieren. Dies bietet Potenzial für eine vielfältige, dezentralisierte E-Commerce-Landschaft.

Gesellschaftliche Einordnung von „Fediverse“

Das „Fediverse“ repräsentiert einen wichtigen Schritt in Richtung dezentralisierter, nutzerzentrierter sozialer Medien. In einer Zeit, in der zentralisierte Plattformen oft mit Datenschutzbedenken und Monopolmacht konfrontiert sind, ermöglicht das „Fediverse“ eine alternative Vision. Zur Hauptzielgruppe des „Fediverse“ zählen daher junge, aufgeschlossene Menschen mit dem gewissen Interesse für IT und Technik, aber auch Menschen in politisch unterdrückten Regionen der Welt.

Denn beim „Fediverse“ steht die Benutzerfreundlichkeit im Einklang mit dem Schutz der Privatsphäre. Diese föderierte Struktur betont die Verantwortung der Nutzer über die persönlichen Daten und fördert die Meinungsfreiheit. Durch die Vielfalt der Plattformen im „Fediverse“ wird die Möglichkeit geschaffen, soziale Netzwerke und Online-Interaktionen an die individuellen Bedürfnisse und Werte der Benutzer anzupassen. Es symbolisiert somit einen demokratischeren Ansatz für die digitale Kommunikation.

Kritische Betrachtung des Konzepts „Fediverse“

Trotz der vielversprechenden Idee des „Fediverse“ gibt es auch kritische Stimmen. Die Dezentralisierung könnte zu fragmentierten Benutzererfahrungen führen, da verschiedene Server unterschiedliche Regeln haben. Zudem argumentieren Kritiker, dass die Qualitäts- und Sicherheitsstandards zu stark variieren. Die Offenheit des Systems kann auch Anfälligkeit für Missbrauch mit sich bringen. Einige Kritiker befürchten, dass die Vielzahl von Servern zu Problemen führen könnte. Die Frage der Nutzerakzeptanz und die Bewältigung von Herausforderungen, wie beispielsweise Spam bleiben ebenfalls entscheidende Aspekte für die langfristige Tragfähigkeit des „Fediverse“-Konzepts.

Fazit zum Thema „Fediverse“ und ähnliche Begrifflichkeiten

Zusammenfassend kann das „Fediverse“ als ein neuartiges Internetkonzept verstanden werden, bei dem Nutzer nur noch ein Benutzerkonto für eine Vielzahl an Plattformen und Diensten im Internet benötigen. Gleichzeitig haben diese mehr Kontrolle über ihre persönlichen Daten und ein gewisser Aufwand bleibt diesen erspart (zum Beispiel Anmelde- und Registrierungsprozesse).

Neben dem „Fediverse“ existieren noch weitere, innovative Konzepte, wie beispielsweise das „IndieWeb“ oder das „Diaspora“. Das „IndieWeb“ strebt ebenfalls nach einer dezentralisierten Struktur des Internets, in der Nutzer ihre eigenen Inhalte besitzen und kontrollieren können. Wohingegen das „Diaspora“ ein soziales Netzwerk ist, welches auf dezentralen „Pods“ basiert und Benutzern die Kontrolle über ihre Daten verbessert.

Unterschiede zwischen Zwetschgen und Pflaumen: Erklärung


Die Pflaume, Prunus domestica, ist eine Pflanzenart aus der Familie der Rosengewächse, die Zwetschge, Prunus domestica subsp. domestica, ist eine Unterart der Pflaumen. Das bedeutet, dass jede Zwetschge zwar eine Pflaume, aber nicht jede Pflaume eine Zwetschge ist.

Die Pflaume wird als die Mutter aller Sorten der Pflanzenart Prunus domestica bezeichnet und ist eine Kulturpflanze aus Asien. Der Übergang zwischen Pflaumen und Zwetschgen ist fließend, und zwar deshalb, weil die Früchte gekreuzt werden. Dennoch gibt es feine Unterschiede zwischen Pflaumen und Zwetschgen.

Vegetative Unterschiede zwischen Zwetschgen und Pflaumen

Pflaumenbäume erreichen eine Wuchshöhe von sechs bis zehn Metern. Es gibt selbstfruchtbare sowie selbstunfruchtbare Sorten. Fremdbestäubte Bäume erzielen einen höheren Ertrag. Pflaumenbäume blühen von März bis Mai und die Früchte reifen je nach Sorte von Juli bis Oktober.

Zwetschgenbäume erreichen eine Wuchshöhe von sechs Metern und werden selten höher. Der Zwetschgenbaum hat kleine grünlich-weiße Blüten, die zugleich mit den Blättern, meistens im April, erscheinen.

Früchte der Zwetschgen und Pflaumen

Pflaumen sind rundlicher und größer als Zwetschgen. Pflaumen haben eine grüne, gelbe oder rote Farbe, während die kleineren sowie schmäleren Zwetschgen blau- beziehungsweise violett sind. Pflaumen schmecken süß, nur selten leicht säuerlich und das Fruchtfleisch lässt sich schwer vom Stein lösen. Eine Ausnahme bildet die meist gelbe Pflaume, die Mirabelle. Bei dieser Pflaumensorte lässt sich der Stein genauso leicht wie bei der Zwetschge entfernen. Pflaumen sind saftiger als Zwetschgen.

Die eher ovalen Zwetschgen haben ein festes bis weiches, gelbliches Fruchtfleisch, das sich leicht vom Stein lösen lässt. Wie die Pflaume schmeckt auch die Zwetschge süß, jedoch häufiger leicht säuerlich und ist von August bis Oktober genussreif. Zwetschgen dürfen nicht grün gepflückt werden, weil sie nicht nachreifen.

Das Fruchtfleisch der Pflaumen ist fester als das der Zwetschgen. Dennoch zerfällt es beim Kochen, weshalb Pflaumen für die Herstellung von Konfitüre, Mus, Chutney, Crumble oder Saft bestens geeignet sind. Zwetschgen behalten hingegen bei der Verarbeitung größtenteils ihre Form und werden deshalb hauptsächlich zum Backen von Torten, Kuchen und Strudeln verwendet.

Markante Unterschiede und Gemeinsamkeiten: Zwetschgen und Pflaumen

Neben Form und Farbe lassen sich Pflaumen und Zwetschgen an der Bauchnaht unterscheiden. Pflaumen haben eine ausgeprägte Bauchnaht, Zwetschgen verfügen über keine Bauchnaht. Das gemeinsame Prunus-Qualitätsmerkmal ist der Duftfilm. Es handelt sich um einen feinen, weißen Überzug, der auch bei Weintrauben zu sehen ist. Fälschlicherweise wird oft angenommen, dass es sich bei diesem Überzug um Pestizide handelt, doch der Überzug schützt die Früchte vor Austrocknung und entsteht durch Kondenswasser.

Deshalb sollte der Duftfilm erst kurz vor dem Verzehr oder der Verarbeitung der Früchte entfernt werden. In der Regel reicht es aus, die Früchte mit einem Küchentuch zu polieren. Nur wenn sich der Überzug nicht entfernen lässt, werden die Zwetschgen oder Pflaumen mit einem feuchten Tuch gereinigt. Entfernt werden sollte der Duftfilm auf jeden Fall, er könnte durch die Luft oder den Regen verunreinigt sein.

Gesunde Inhaltsstoffe von Zwetschgen und Pflaumen

Sowohl die Pflaumen als auch die Zwetschgen enthalten wertvolle Inhaltsstoffe. Die Früchte sind reich an Vitaminen, vor allem Vitamin A, C, K und E. Außerdem enthalten die Früchte Spurenelemente, wie Kupfer und Zink und Ballaststoffe. 100 Gramm Pflaumen haben 47 Kalorien, bei den Zwetschgen sind es 43 Kalorien.

Was ist ökologische Amnesie (Generationsamnesie, Umweltamnesie)? Bedeutung, Definition, Erklärung


Ökologische Amnesie (Generationsamnesie, Umweltamnesie) einfach erklärt:

Als „ökologische Amnesie“ wird der Umstand bezeichnet, dass man die Natur, die man in seiner Kindheit erlebt hat, als Norm empfindet. Mit dieser Norm wird die Natur, die man im späteren Leben erlebt, verglichen. Jedoch ist dies eine zu kurzfristige und eingeschränkte Beobachtung für eine gute Aussage über den Zustand der Natur.

Wer z.B. in seiner Kindheit viel Großstadtsmog und „blaue Wolken“ aus Autos erlebt hat, wird sagen, dass es der Natur heute besser geht. Denn der Großstadtsmog ist an den meisten Orten weg und verbleites Benzin ist verboten. Doch zu meinen, dass es der Natur deswegen besser geht, ist ein Fehlschluss. Und dieser Fehlschluss wird Umweltamnesie, Generationsamnesie oder Ökologische Amnesie genannt.

Ein anderes Beispiel: Menschen, die noch nie einen wilden Fluß gesehen haben, werden meinen, dass es den geraden Flüssen, die sie kennen, gut geht und dass diese normal sind. Jedoch sind begradigte Flüsse eben nicht die Norm. Sie sind künstlich und von Menschen gemacht.

Weiter:

Der Verlust des Gedächtnisses, vorübergehend oder dauerhaft, ist als Amnesie bekannt. Tritt dieser Umstand in Kombination mit der anthropisierten Natur und Umwelt auf, nennt sie sich ökologische Amnesie. Alternative Bezeichnungen sind die Generationenamnesie und Umweltamnesie. Das Konzept stammt aus der Naturschutzbiologie. Sie ist gekennzeichnet durch künstliche Naturerlebnisse anstatt realer Erfahrungen in der Natur. Das führt zu einer Vergessenheit, die sich von einer Generation auf die nächste weiter verstärkt.

Technologischer Fortschritt als Ursprung der Generationsamnesie

Die generationsbedingte Umweltamnesie ist gekennzeichnet durch den Einfluss der Hochtechnologie in der heutigen Zeit. Die Moderne ist von dem technischen Fortschritt geprägt. Das beeinflusst den menschlichen Umgang mit der Natur und die Wahrnehmung selbiger. Die ursprüngliche Umgebung dient generell als Vorbild für die weiterentwickelte Technologie des digitalen Zeitalters. Was das bei dem Menschen, speziell der neuen Generation, bewirkt, konnten Wissenschaftler inzwischen genauer erforschen.

Ökologische Amnesie – Auswirkungen der realen Natur auf die Psyche

Die originale Umwelt, einen echten Sonnenuntergang sehen oder lebende Haustiere versorgen, sorgt für eine Reduktion von Stress. Der Mensch beruhigt sich durch wahrhafte Naturerlebnisse. Dadurch hat die natürliche Umgebung einen signifikanten Effekt auf das Wohlbefinden und die Gesundheit des Homo sapiens.

Dagegen steht der neuzeitliche Fortschritt mit einer Künstlichen Intelligenz und nachgebildeten Natürlichkeit hinter einem Display. Wer mit Hightech aufwächst, erfährt eher einen Abbau von Stress und eine beruhigende Wirkung durch die nachgeahmte Umwelt als jene Personen, die die reale Tier- und Pflanzenwelt kennen. Das bewirkt letztlich einen immensen Unterschied zwischen den Generationen – und hat eine sogenannte generationsbedingte Umweltamnesie zur Folge.

Abgestumpfte Generation – Auswirkungen der nachgebildeten Umwelt

Die technologisierte Flora und Fauna spielt insbesondere bei Kindern eine immense Rolle. Die neue Generation wächst mit Robotern und der Künstlichen Intelligenz auf. Das geht zugleich mit einer abnehmenden echten Naturerfahrung einher. Da die technologische Natur lediglich ein Abbild der Realität ist, bewirkt dies eine veränderte Wahrnehmung der Umwelt.

Ein Beispiel für diese Veränderung ist der Einsatz von Roboterhunden. Kinder betrachten die künstlichen Tiere längst als wirkliche Lebewesen. Sie interagieren zunehmend intuitiv miteinander – denn die KI macht es möglich. Auf die Art geraten ursprüngliche Geschöpfe, reale Haustiere und deren Interaktion immer mehr in Vergessenheit. Damit ist der Grundstein der ökologischen Amnesie gelegt: Die jüngere Generation stumpft ab – und das hat Konsequenzen für das echte Umwelterleben.

Folgen für die Natur durch generationsbedingte Amnesien

Tierhaltung ist ein Lebensbereich, der durch die Technologie unweigerlich verändert wird. Daneben spielen Flussbegradigungen oder die Verschmutzung der Luft bedeutsame Rollen. Wissenschaftler gehen davon aus, dass die künstliche Natur die Wahrnehmung derart modifiziert, dass die reale Naturerfahrung zunehmend in Vergessenheit gerät.

Der moderne Mensch hält sich vermehrt in der virtuellen Realität hinter einem Bildschirm auf als in der echten Tier- und Pflanzenwelt. Das verstärkt die gefühlsmäßige Distanz zur Umwelt. Ein Beispiel ist der begradigte Flusslauf. Bei einer Flussbegradigung wird der ursprüngliche Lauf des Fließgewässers begrenzt und in geordnete Bahnen gelenkt. Das hat Auswirkungen auf die Flora und Fauna des Flusses. Die gesteigerte Unempfindlichkeit gegenüber der realen Ökosysteme aufgrund der Bevorzugung von künstlicher Naturreiche erhöht den Raubbau.

Die Menschheit verliert demnach ihre Empathie gegenüber Tieren und Natur, weil die originale Unberührtheit der Welt zunehmend in Vergessenheit gerät. Auf die Art empören sich immer weniger Personen über den voranschreitenden Raubbau in der Umwelt. Das zieht unweigerlich ein rasches Fortschreiten dieser Entwicklung nach sich, sodass letztlich die Generationsamnesie oder Umweltamnesie zum Tragen kommt. Der Mensch vergisst von einer Generation zur nachfolgenden immer mehr von der originalen Umwelt. Dadurch befeuert er den technologischen Fortschritt, der nichts weiter als ein künstliches Abbild der echten Natur darstellt.

Zusammenfassung – ökologische Amnesie durch Fortschritt

Greift der Mensch verändernd auf die Ökosysteme ein, erfolgt eine Anthroposierung selbiger. Das Vorgehen reduziert die biologische Vielfalt des Planeten und die originale Flora und Fauna verliert zunehmend ihre Ursprünglichkeit. Zugleich verstärkt sich der technologische Fortschritt zusammen mit künstlichen Naturerfahrungen. Dadurch stumpft die neue Generation ab. Sie büßt ihre Feinfühligkeit gegenüber dem Verlust der Natürlichkeit in der Umwelt ein.

Mit jedem weiteren Geburtsjahrgang wird auf diesen Zustand des Raubbaus aufgebaut. Die neue Generation vergisst zunehmend mehr von der ursprünglichen Natur. Denn der Fortschritt orientiert sich vor allem an der gegenwärtigen, anthropisierten Landschaft. Das führt schlussendlich zur ökologischen Amnesie oder generationsbedingten Umweltamnesie.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung


Autark bedeutet in seiner griechischen Übersetzung so viel wie „unabhängig“ und „auf niemanden angewiesen“ sein. In Verbindung mit einem Kochfeld steht der Begriff für dessen selbstständigen Betrieb. Davon abzugrenzen sind die klassischen Herdplatten, die nur in Verbindung mit einem darunter befindlichen Herd funktionieren und sich über diesen bedienen lassen.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung

Ein autarkes Kochfeld kann vollkommen unabhängig vom Herd im Raum platziert werden. Gängig ist beispielsweise die Integration in eine Kochinsel. In diesen Kochfeldern ist hinreichend Technik verbaut, denn die Steuerung der Herdplatten muss über das Kochfeld selbst erfolgen.

Der flexible Einbau in der Küche macht autarke Kochfelder zu einem stark nachgefragten Produkt. Der hohen Flexibilität autarker Kochstellen steht die separate Anschaffung eines Backofens gegenüber.

Autarke Kochfelder gelten nicht als Erfindung der Neuzeit. Bereits bei alten Gusseisenöfen waren mobile Versionen für kleine Küchen erhältlich.

Aufbau: autarkes Kochfeld

Autarke Kochfelder stellen eine Alternative zum klassischen Herd dar. Herde besitzen ein Kochfeld und einen entsprechenden Unterbau. Der Unterbau integriert die Bauteile, welche für die Steuerung des Kochfeldes notwendig sind. Meist finden sich zudem Kombinationen zwischen Herd und Backofen im Handel.

Ein autarkes Kochfeld kommt ohne Unterbau aus. Der Aufbau bringt Vor- und Nachteile mit sich. Während der herkömmliche Herd als platzsparende Version überzeugt, bietet eine autarke Kochstelle mehr Flexibilität und eignet sich bevorzugt für die Gestaltung weitläufiger und offener Küchen, die in ihrem Zentrum eine Kochinsel besitzen.

Arten: autarkes Kochfeld

Unterschiede ergeben sich in der Steuerung der autarken Kochfelder. Die Bedienung kann über einzelne Drehknöpfe erfolgen. Im Handel sind auch Kochfelder, die über ein praktisches Touch-Bedienfeld verfügen.

Auch die Heiztechnologie stellt ein Unterscheidungsmerkmal dar. Häufig handelt es sich um autarke Ceran-Kochfelder. Daneben können auch Gas- oder Induktionskochfelder angeschafft und frei in der Küche installiert werden.

Einsatzmöglichkeiten: Autarkes Kochfeld

Die Einsatzmöglichkeiten von autarken Kochfeldern unterscheiden sich in der Regel nicht von dem Gebrauch der klassischen Kochplatten. Der größte Unterschied bleiben die eigenen Bedienelemente und der fehlende Backofen.

Autarke Kochfelder finden in kleinen Küchen Platz, wenn es keine Möglichkeiten gibt, einen Einbauherd unterzubringen. Beliebt sind mobile Kochfelder für den Einbau in weitläufigen Kücheninseln, die in großen und modernen Küchen ihren Platz finden.

Da autarke Kochfelder nicht an die Standard-Maße von Einbauherden gebunden sind, ist auch ein entsprechende höherer oder niedriger Einbau in Küchenfronten möglich.

Vor- und Nachteile: Autarkes Kochfeld

Durch die freie Installation verschaffen autarke Kochfelder ein Höchstmaß an Flexibilität. Die mobilen Kochfelder bringen ihre eigene Stromversorgung mit und sind nicht an einen Herd mit Unterbau gebunden. Bei Defekten muss nicht der komplette Herd ersetzt werden. Autarke Kochfelder lassen sich ohne großen Aufwand austauschen und entsprechend ersetzen.

Preislich liegen autarke Kochfelder häufig über den Kosten für einen herkömmlichen Herd. Für die getrennte Aufstellung von Herd und Kochfeld machen sich oft mehrere Stromanschlüsse notwendig.

Anschluss

Für den Anschluss von autarken Kochfeldern sollte ein Fachmann bestellt werden. Zunächst sind die Sicherungen herauszudrehen. Durch den Einsatz eines Spannungsprüfers kann festgestellt werden, ob sich auf der Streckdose noch Strom befindet.

In der Regel werden autarke Kochfelder an Herdanschlussdosen angeschlossen. Bei der Installation sollte den Hinweisen der Hersteller Folge geleistet werden. Mobile Kochplatten sind mit einer fünfadrigen Anschlussleitung versehen und der Querschnitt der Adern beträgt mindestens 1,5 Quadratmillimeter.

Wichtig beim Anschluss von autarken Kochfeldern sind die Farben der einzelnen Kabel. Zunächst wird die braune L1-Ader an die Herd-Klemme L1 angeschlossen. Die Verbindung für die Herd-Klemme L2 ist schwarz. Die graue L3-Ader ist für die Herd-Klemme L3 bestimmt. Die blaue N-Ader wird mit der Herd-Klemme N gekoppelt und die Herd-Klemme PE ist für die gelbgrüne PE-Ader vorgesehen.

Warum schwimmen Eiswürfel oben? Erklärung


Eiswürfel bestehen aus Wasser, genauer gesagt aus vielen Wassermolekülen. Ein Wassermolekül setzt sich aus zwei Wasserstoffatomen und einem Sauerstoffatom zusammen. Diese sind über eine polare, kovalente Bindung miteinander verbunden.

Der chemische Aufbau von Wasser

Die Elektronegativität beschreibt die relative Stärke eines Atoms, die Bindungselektronen in einer chemischen Bindung an sich zu ziehen. Je höher der Elektronegativitätswert ist, umso stärker zieht ein Atom die Elektronen an sich. Sauerstoff hat einen Elektronegativitätswert nach Pauling von 3,5 und der von Wasserstoff beträgt 2,1. Somit zieht das Sauerstoffatom das Bindungselektronenpaar stärker an sich heran, wodurch Ladungsschwerpunkte, sogenannte Dipole, entstehen. Dadurch sind die Wasserstoffatome partiell positiv geladen und das Sauerstoffatom ist partiell negativ geladen. Überdies beträgt der Bindungswinkel, der zwischen den beiden kovalenten Bindungen besteht, 104,45°, was dazu führt, dass das Molekül einen gewinkelten Aufbau besitzt.

Wasserstoffbrückenbindungen

Durch die bestehenden Ladungsschwerpunkten in den Wassermolekülen kommt es zu Wechselwirkungen zwischen den Molekülen. Gleiche Ladungen stoßen sich ab und unterschiedliche Ladungen ziehen sich an. Es kommt zur Ausbildung von Wasserstoffbrückenbindungen zwischen den Molekülen, wodurch sich Cluster bilden. Diese Cluster sind aber nicht starr, sondern variabel. Da die Wasserstoffbrückenbindungen immer nur kurzzeitig bestehen, können immer wieder Moleküle aus einem Cluster herausfallen und sich an anderer Stelle wieder neu verbinden. Dieser Vorgang findet ununterbrochen statt. Es bilden sich unendliche große Wassermoleküle, da ein Wassermolekül theoretisch mit vier weiteren über Wasserstoffbrücken verbunden sein kann. Die Wasserstoffbrückenbindungen sind der Grund, warum das Wasser seine ganz speziellen Eigenschaften besitzt.

Die Dichteanomalie des Wassers

Im Normalfall nimmt das Volumen beim Wechsel vom festen in den flüssigen Aggregatzustand zu und die Dichte somit ab. Anders verhält sich dies beim Wasser, das bei exakt 3,98° Celsius die höchste Dichte hat. Dieses Phänomen wird als die Dichteanomalie des Wassers bezeichnet. Bei 3,98° Celsius nehmen die Cluster das geringste Volumen ein. Bei höheren Temperaturen sind die Moleküle beweglicher, wodurch sich ihre Dichte verringert, und das Volumen erhöht.

Unter dieser Temperatur nimmt die Bewegungsenergie der Wassermoleküle immer weiter ab. Aus den zuvor variablen Clustern bilden sich mehr und mehr starre hexagonale Cluster. Es kommt final zur Bildung eines starren Kristallgitters. Bei diesem ist jedes Sauerstoffatom tetraedrisch von vier Wasserstoffatomen umgeben. Zwischen den Wassermolekülen haben sich Hohlräume gebildet, welche natürlich mehr Platz benötigen. Somit hat Eis ein höheres Volumen als Wasser. Genau gesagt hat Eis ein zehnmal höheres Volumen als Wasser, aber dafür eine zehnmal geringere Dichte, da die Wassermoleküle durch die entstandenen starren Hohlräume nicht mehr so eng gepackt sind. Aus diesem Grund schwimmen Eiswürfel auf der Oberfläche.

Dadurch, dass Wasser bei 4° Celsius die geringste Dichte hat, wird ein Durchfrieren von Gewässern verhindert. Oberflächenwasser mit einer Temperatur von unter 4° Celsius kann nicht nach unten sinken, was ein Abkühlen tieferer Gewässerschichten verhindert und ein Überleben der Lebewesen im Wasser ermöglicht.

Weitere besondere Eigenschaften des Wassers

Wasser ist zwischen 0° und 100° Celsius flüssig, darüber gasförmig und darunter fest. Durch die bestehenden Wasserstoffbrückenbindungen wird mehr Energie benötigt, um die Aggregatzustände zu wechseln, weswegen der Schmelz- und Siedepunkt von Wasser höher liegt als erwartet. Theoretisch wäre Wasser bei 25° Celsius ein Gas und das Leben auf der Erde wäre in dieser Form wahrscheinlich gar nicht möglich. So ist Wasser aber der einzige Stoff auf der Erde, der in nennenswerten Mengen in allen drei Aggregatzuständen vorliegt.

Wasser hat mit Ausnahme von Quecksilber die größte Oberflächenspannung unten allen Flüssigkeiten. Diese machen sich zum Beispiel einige Insekten wie der Wasserläufer zu nutzen, weswegen dieser über das Wasser laufen kann. Wir Menschen sind dafür zu schwer. Aber dafür nutzen wir bei der Tränenbildung die Oberflächenspannung aus, wodurch Verunreinigungen aus dem Auge befördert werden.

Wasser hat zudem unter allen Flüssigkeiten die größte Verdampfungsenthalpie, was sich in einem kühlenden Effekt beim Schwitzen bemerkbar macht. Als Mpemba-Effekt wird eine weitere spezielle Eigenschaft des Wassers bezeichnet. Unter bestimmten Bedingungen gefriert nämlich heißes Wasser schneller als kaltes.

Obendrein ist die Wärmekapazität die höchste unter allen Flüssigkeiten. Diese spiegelt sich darin wider, dass beispielsweise Ozeane ausgezeichnete Wärmespeicher sind. Zudem ist die Schmelzenthalpie und die Wärmeleitfähigkeit hoch, sofern man nur Flüssigkeiten betrachtet. Überdies ist Wasser ein hervorragendes Lösungsmittel, was an seiner hohen Dielektrizitätskonstante liegt.

Was ist Brackwasser? Bedeutung, Definition, Erklärung


Brackwasser ist Wasser mit einem gewissen Gehalt von gelösten Salzen. Es handelt sich dabei weder um Süß- noch um Meerwasser, sondern es ist eine Vermischung aus beiden Arten von Wasser. Brackwasser enthält somit mehr Salz als Süßwasser, aber nicht so viel Salz wie Meerwasser. Der Salzgehalt des Brackwassers liegt dabei zwischen Süß- und Meerwasser. Das Wort Brackwasser leitet sich ursprünglich von der niederländischen Wurzel „Brak“ ab, was so viel wie „salzig“ bedeutet.

Was ist Brackwasser? Bedeutung, Definition, Erklärung

Allgemein wird der Begriff Brackwasser für Wasser verwendet, das eine nicht unerhebliche Menge an gelösten Salzen enthält. Die Salzkonzentration ist die Menge an Salz im Wasser nach Gewicht, gemessen in „Teilen pro Million“ (ppm). Die vom US Geological Survey verwendete Einteilung der Salzkonzentration stuft Brackwasser in drei Kategorien ein:

  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm
  • Mittelstark salzhaltiges Wasser mit einer Salzkonzentration von etwa 3.000 bis 10.000 ppm
  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm

Das Vorhandensein von Brackwasser kann daher durch die Messung der Salzkonzentration eines salzhaltigen Wassers festgestellt werden. Technisch gesehen enthält Brackwasser somit zwischen 0,5 und 30 Gramm Salz pro Liter, häufiger ausgedrückt als 0,5 bis 30 Teile pro Tausend (Einheitenzeichen: ‰), was einem spezifischen Gewicht zwischen 1,005 und 1,010 entspricht. Der Begriff Brackwasser umfasst also eine große Bandbreite an Salzgehalten und wird nicht als genau definierter Zustand angesehen. Charakteristisch für viele brackige Oberflächengewässer ist, dass ihr Salzgehalt räumlich und zeitlich stark schwanken kann.

Was ist der Salzgehalt?

Die durchschnittliche Salzkonzentration im Meer beträgt etwa 35 ‰. Dies wird genauer durch den Salzgehalt ausgedrückt. Der Salzgehalt ‰ ist definiert als die Masse der gelösten anorganischen Stoffe in 1 kg Meerwasser in Gramm, nachdem alle Br- und I- durch die entsprechende Menge Cl- ersetzt und alle HCO3- und CO32- in Oxide umgewandelt wurden. Im Allgemeinen liegt der Salzgehalt des Meerwassers zwischen 33 und 37 ‰.

Der Salzgehalt ist ein wichtiger Faktor, der viele Aspekte der Chemie natürlicher Gewässer und der biologischen Prozesse in diesen Gewässern bestimmt. Neben Temperatur und Druck bestimmt der Salzgehalt physikalische Eigenschaften wie die Dichte und Wärmekapazität des Wassers.

Brackwasser und Salzgehalt

Brackwasser ist ein weit gefasster Begriff für Wasser, das salzhaltiger als Süßwasser, aber weniger salzhaltig als echte Meeresgebiete ist. Oft handelt es sich um Übergangsgebiete zwischen Süß- und Meerwasser. Ein Ästuar, d. h. der Teil eines Flusses, der ins Meer mündet, ist das bekannteste Beispiel für Brackwasser. Ästuare sind äußerst variable Umgebungen, da sich der Salzgehalt über eine kurze Strecke drastisch ändern kann. Dramatische Veränderungen können auch an einem bestimmten Punkt des Ästuars in Abhängigkeit von der Tages- oder Jahreszeit auftreten. Bei Hochwasser beispielsweise steigt der Salzgehalt an einer bestimmten Stelle des Ästuars, da Meerwasser in das Gebiet eindringt. Im Gegensatz dazu sinkt der Salzgehalt an einer bestimmten Stelle des Ästuars, wenn das Süßwasser aufgrund von Regenfällen oder Schneeschmelze saisonal zunimmt. Die Schwankungen des Salzgehalts können zwischen 10 und 32 ‰ liegen, wobei der durchschnittliche Salzgehalt des Süßwassers 0,5 ‰ beträgt.

Der saisonale Anstieg des Süßwassers aufgrund von Regenfällen oder Schneeschmelze senkt den Salzgehalt an einem bestimmten Punkt des Ästuars. Um hier überleben zu können, müssen die ansässigen Mikroben an diese starken Schwankungen des Salzgehalts angepasst sein. Trotz dieser Herausforderung sind Ästuare ein sehr produktives Milieu. Im Allgemeinen ist die Primärproduktion der Ästuare gering, da das Sonnenlicht aufgrund der hohen Trübung, die durch organische Schwebstoffe aus dem Flusszufluss und der Gezeitenvermischung entsteht, schlecht eindringt.

Brackwasser und Mensch

Wie Meerwasser kann Brackwasser vom Menschen nicht getrunken werden, es sei denn, es wird einem Entsalzungsprozess unterzogen. Wenn Brackwasser in landwirtschaftliche Flächen eindringt, spricht man von Versalzung. Brackwasser tötet die meisten Kulturpflanzen. Brackwasser ist für Süßwasser- und Meereslebewesen nicht optimal, so dass die Lebensmöglichkeiten in Brackwasser begrenzt sind.

Wie entsteht Brackwasser?

Brackwasser entsteht in der Regel dann, wenn Süßwasser auf Meerwasser trifft. Brackwasser tritt somit an den Orten auf, an denen sich Meer- und Süßwasser vermischen können. Dies ist vor allem in Gezeitenzonen, Flussmündungen und Mangrovensümpfen der Fall. Brackwasser kann auch in fossilen Brackwasser-Grundwasserleitern vorkommen.

Auch menschliche Aktivitäten können dazu führen, dass frische Oberflächengewässer und Grundwasserressourcen durch Verbrauch und erhöhte Salzbelastung brackig werden. So kann z. B. das übermäßige Abpumpen von Grundwasser aus küstennahen Aquiferen ein Eindringen von Salzwasser verursachen, das die Brackwasserzone der Durchmischung landeinwärts ausdehnt, während salzhaltige Rückflüsse aus bewässerten landwirtschaftlichen Flächen die Salzbelastung von Oberflächengewässern erhöhen können. Einige landwirtschaftliche Bewässerungsmethoden, wie z. B. die unterirdische Entwässerung mit Ziegeln, führen häufig zu stark brackigem Wasser. Auch der Bergbau kann zu brackigen und mit Schwermetallen belasteten Abwässern führen.

Wo findet sich Brackwasser?

Auf natürliche Weise kann Brackwasser in unterirdischen salzhaltigen Grundwasserleitern, als Oberflächenwasser infolge natürlicher Erosion oder als Ergebnis der Vermischung von Meerwasser mit Flusswasser (in Flussmündungen) oder Grundwasser (in Küstengrundwasserleitern) auftreten. Natürliches Brackwasser, insbesondere Brackwasser-Grundwasser, kommt auf den meisten Kontinenten in Mengen vor, die fast so groß oder größer sind als Süßwasser-Grundwasser und Oberflächenwasser zusammen.

Die weltweit am weitesten verbreiteten Brackwasserlebensräume sind Ästuare, also das Gebiet, in dem ein Fluss auf das Meer trifft. Daneben kommt Brackwasser in Brunnen, Binnenseen, Bohrlöchern und sogar in Meeren vor. Die Ostsee ist beispielsweise ein Brackwassermeer.

Brackwasser und Ästuare

Um in dieser Umgebung überleben zu können, müssen die Mikroben und Pflanzen in einem Ästuar an die Schwankungen des Salzgehalts angepasst sein. Trotzdem sind Ästuare sehr produktive Lebensräume.

Besondere Beispiele für hochproduktive Brackwasserumgebungen sind Mangrovensümpfe, wie sie in den Everglades von Florida zu finden sind. Der Salzgehalt in diesen Sümpfen ist in der Regel sehr ähnlich dem von Meerwasser. Mangrovensümpfe sind nach den charakteristischen Bäumen benannt, die in den gesättigten Böden des Sumpfes wachsen. Diese Bäume haben speziell angepasste Wurzeln, die aus dem Wasser herauswachsen, um den Gasaustausch über dem Wasser zu ermöglichen, so dass die Bäume weiterhin Sauerstoff erhalten und „atmen“ können.

Eine zweite wichtige Anpassung ist, dass Mangrovenbäume den Salztransport in die Wurzeln verhindern, um Salzstress zu vermeiden. Mangrovensümpfe sind eine wichtige Übergangsgemeinschaft, da sie dazu beitragen, Schadstoffe und Nährstoffe aus dem Wasser zu filtern, Sedimente zu stabilisieren und die Küstenlinie vor Erosion zu schützen. Außerdem bieten sie einen aktiven Lebensraum für mehr als 250 Tier- und 180 Vogelarten.

Brackwasser und Ästuare als Lebensraum

Im Allgemeinen reicht die Primärproduktion der Ästuare (10 bis 45 mg Kohlenstoff/m3/Tag) nicht immer aus, um die Sekundärpopulationen zu unterstützen. Ästuare neigen dazu, trübe zu sein, weil die Flüsse große Mengen an organischem Material einbringen und die Gezeiten für eine Durchmischung sorgen. Infolgedessen ist die Lichtdurchlässigkeit gering. Die Anzahl der Primärproduzenten schwankt zwischen 100 und 107 Organismen/ml, und diese Populationen variieren auch erheblich in Abhängigkeit von der Tiefe und der Nähe zu den bestehenden Litoralzonen. Trotz der geringen Primärproduktivität ist die heterotrophe Aktivität mit 150 bis 230 mg Kohlenstoff/m3/Tag hoch, da die Verfügbarkeit von Substrat nicht eingeschränkt ist.

Lokale Abflüsse und organischer Kohlenstoff werden von den Flüssen, die in die Ästuare fließen, reichlich eingebracht. Die Nährstoffzufuhr kann sogar so groß sein, dass Ästuare in vielen Fällen ganze Jahreszeiten lang frei von Sauerstoff werden können. Infolge der ständigen und reichlichen Kohlenstoffzufuhr fällt die Zahl der Sekundärproduzenten in einen viel engeren Bereich von 106 bis 108 Organismen/ml. Das gemessene Verhältnis von Viren zu Bakterien reicht von 0,4 bis 50.

Was lebt im oder am Brackwasser?

Zu den Tier- und Pflanzenarten, die in Brackwasser überleben können, gehören Dreistachliger Stichling, Flunder, Gebogene Schwebegarnele, Europäischer Queller und Strand-Aster. Da der Salzgehalt für ein vielfältiges und natürliches Nahrungsangebot sorgt, finden im Brackwasser insbesondere Raubfische wie Barsch, Dorsch und Hecht günstige Lebensbedingungen.

Erschließung von Brackwasservorkommen

Das Ausmaß der Erschließung von Brackwasser hängt von der Suche nach geeigneten Verwendungszwecken ab, wobei zu berücksichtigen ist, dass Brackwasser nicht immer dort vorhanden ist, wo es nutzbringend verwendet werden kann. Die häufigste Verwendung von Brackwasser findet sich im landwirtschaftlichen Bereich. Dies gilt sowohl für die Fisch- und Garnelenzucht als auch für die Bewässerung von Pflanzen, die eine hohe Salztoleranz aufweisen. Baumwolle und Gerste zum Beispiel werden durch den für Brackwasser typischen Salzgehalt nicht beeinträchtigt.

Behandlung von Brackwasser zur Trinkwasseraufbereitung

Brackwasser kann mit einem Wasserreinigungssystem zu Trinkwasser aufbereitet werden. In dem als Umkehrosmose bezeichneten Verfahren wird das Brackwasser durch eine Membran gepresst, die die im Brauchwasser gelösten Salze zurückhält. Die Entsalzung von Brackwasser erfolgt dabei bei niedrigerem Druck als die Meerwasserentsalzung und ist wirtschaftlicher, energiesparender und kostengünstiger.

Die Qualität des Speisewassers spielt sowohl bei der Auslegung als auch beim Betrieb von Brackwasserentsalzungsanlagen eine wichtige Rolle. Die Ionenzusammensetzung und der Ionengehalt von Brackwasser variieren sowohl zeitlich als auch geografisch stark, abhängig von den hydrogeologischen Bedingungen und den damit verbundenen menschlichen Aktivitäten (z. B. Industrie oder Landwirtschaft). Im kalifornischen San Joaquin Valley zum Beispiel, einer der produktivsten landwirtschaftlichen Regionen der USA, entsteht durch die Entwässerung bewässerter landwirtschaftlicher Flächen Brackwasser mit unterschiedlichem Salzgehalt.

Brackwasser im US-Sedimentbecken

In den USA wurde in einer umfangreichen Studie untersucht, ab welcher Tiefe das Grundwasser in Brackwasser und schließlich in salziges Tiefenwasser übergeht. Im Schnitt trifft man in den US-Sedimentbecken schon ab 550 Metern Tiefe auf Brackwasser.

Was bedeutet DYOR? Bedeutung, Definition, Erklärung


DYOR steht für „Do Your Own Research“. Jedermann sollte nicht blindlings glauben, was irgendwo publiziert wird, sondern sich selbst über die Hintergründe zu einem Thema informieren.

Der Begriff wird in der Kryptoszene besonders häufig verwendet, einige Publizisten nutzen ihn sogar als Haftungsausschluss. Er ist aber in der Online-Ära mit ihren überbordenden Informationen, von denen 99 % halbgar oder falsch sind, für jedes Thema wichtig.

DYOR bei Geldanlagen / Kryptowährungen

Dass über Geldanlagen viele Informationen verbreitet werden, ist seit jeher gängige Praxis. Es gibt hierzu sogar einige Reglements. Wenn ein Publizist etwas über ein Asset schreibt, das er selbst als Anleger im Portfolio hält, ist er gesetzlich dazu verpflichtet, dies anzugeben. Doch beileibe nicht alle Publizisten sind selbst Anleger. Dennoch können sie ein Interesse daran haben, ein Asset zu zu „pushen“, also mit subtil positiven Informationen die Anleger zum Kauf zu animieren. Häufig kommen solche Publikationen von freien Autoren, die sie im Auftrag von Affiliates (Werbepartnern) von Investmentfonds verfassen.

Der Autor hält das Asset selbst nicht, auch der Affiliate nicht. Beide sind aber an einer positiven Darstellung interessiert: der Autor, weil er dafür bezahlt wird, der Affiliate, weil er weiß, dass das Fondsmanagement dies wünscht. Diesen verschlungenen Weg der Interessenverknüpfung erkennt der Leser nicht. Das ist ein Fall, der zu verzerrten oder gar falschen Informationen führen kann, wobei der Leser auf keinerlei Weise informiert wird, dass hier ein Interessenkonflikt bestehen könnte. Ein anderer Fall ist die Begeisterung von Autoren, die über ein Asset schreiben, das sie wiederum selbst nicht halten (und daher auch zu keinerlei „Warnhinweis“ verpflichtet sind), von dem sie aber selbst höchst begeistert sind. Sie schreiben also dessen Möglichkeiten hoch, liegen damit aber häufig stark daneben.

Grundsätzlich sollten interessierte Anleger wissen, dass kein Mensch wissen kann, wie sich der Kurs eines Assets entwickelt. Sie sollten also allen allzu eindeutigen, apodiktisch und ohne jeden Konjunktiv vorgetragenen Aussagen zum Thema misstrauen. Wie ist das gemeint? Nun, wenn jemand behauptet, der Goldpreis müsse noch in diesem Jahr diese und jene Preismarke knacken, dann ist diese Aussage praktisch gar nichts wert. Selbst wenn der Goldpreis zufällig dieses Jahr diese Preismarke wirklich knackt, war die Aussage nichts wert. Seriöse Publizisten schreiben so etwas auch nicht, sondern bestenfalls, dass der Goldpreis, wenn er demnächst diese und jene Schwelle überwindet, möglicherweise auch die nächste Marke von XY knacken könnte. Wann? Das weiß niemand, denn gerade zeitliche Aussagen sind an der Börse überhaupt nicht möglich. Die Zeit ist an der Börse gedehnt oder gestaucht (vgl. Benoît B. Mandelbrot „Fraktale und Finanzen“).

Halbwegs seriöse Aussagen werden stets im Konjunktiv vorgetragen und taugen auch dann übrigens nicht viel, denn börsliche Entwicklungen sind in Wahrheit gar nicht zu prognostizieren, vgl. nochmals Benoît B. Mandelbrot. Der Jahrhundertmathematiker hat es 30 Jahre lang mit fraktaler Geometrie versucht und dann aufgegeben. So viel zu apodiktischen Aussagen. Es gibt aber noch schlimmere Publikationen.

DYOR als Sicherheit gegen Betrugsversuche

Einige Publikationen laufen auf handfesten Betrug hinaus. In der noch jungen Kryptoszene beispielsweise werden manche Assets als „der kommende Bitcoin“ (mit unglaublichem Kurspotenzial) angepriesen. Sie sollen zudem schneller und einfacher zu handhaben sein als der Bitcoin. Diese Praxis der Publikationen heißt Shilling von shill = Lockvogel. Die betreffenden Beiträge kommen oft ohne die oben beschriebene Kennzeichnung von Personen, die selbst die beworbene Kryptowährung halten. Rein juristisch sind sie sogar nicht einmal zur strikten Kennzeichnung ihres Interessenkonflikts verpflichtet, weil Kryptowährungen nicht offiziell börslich gehandelt werden.

Die Publizisten hoffen, dass sie mit ihren Aussagen andere Anleger zum Kauf der Kryptos motivieren können, was deren Preis in die Höhe treiben würde. Daher gilt DYOR ganz besonders bei Anlagen in Kryptowährungen. Wer diese kaufen will, muss unbedingt eigene Recherchen durchführen. Shilling ist auf-Social-Media-Portalen wie Facebook, Reddit und Twitter sehr verbreitet.

Angepriesen werden vor allem bislang unbekannte Kryptowährungen (von denen es mit Stand 2022 rund 10.000 geben könnte). Sie sollen den Käufern traumhafte Renditen und somit schnellen Reichtum einbringen. Wer solchen Empfehlungen folgt, verliert nach einschlägigen Erfahrungen in 99 % aller Fälle sein Geld. Bekannt sind auch Sybil-Konten in sozialen Medien, die in betrügerischer Absicht eine Kryptowährung pushen. Dabei erstellt eine Person mehrere Konten unter verschiedenen Namen, wobei ein positiver Beitrag zur betreffenden Kryptowährung auf einem dieser Accounts gepostet und von den anderen Accounts geteilt wird. Dies erweckt den Anschein, als ginge die Nachricht viral und müsse wichtig sein.

Haftungsausschluss via DYOR

Dass DYOR als Haftungsausschluss verwendet wird, ist zwar juristisch kaum belastbar, geht aber völlig in Ordnung. Sollten Händler oder Enthusiasten öffentliche Beiträge zu Kryptowährungen verfassen und am Ende mit DYOR auf die Notwendigkeit eigener Recherchen hinweisen, handeln sie prinzipiell seriös. Es genügt auch der obligatorische Hinweis, dass die publizierte Marktanalyse eine subjektive Einschätzung des Autors ist.

Wo sind seriöse Recherchen zu Kryptowährungen möglich?

Es gibt einige vertrauenswürdige Quellen, die neutral zu Kryptowährungen publizieren. Dazu gehören unter anderem:

Dies sind natürlich nicht die einzigen Quellen. Wichtig ist für Interessenten, dass sie auf den Duktus einer Publikation achten: Dieser muss grundsätzlich neutral bleiben und darf in keinem Fall Gewinnversprechen beinhalten, schon gar keine überzogenen. Häufig heißt es in entsprechenden manipulativen Advertorials, dass die neue Kryptowährung ein Gewinnpotenzial von mehreren 1.000 % in den nächsten Wochen und Monaten aufweise. Dazu ist so viel zu sagen:

  • Es gab tatsächlich Kryptowährungen, die in relativ kurzer Zeit (aber nicht in wenigen Wochen) um mehrere 1.000 % zulegten. Der Bitcoin selbst ist das beste Beispiel dafür.
  • Dieses Kurswachstum konnte aber nicht prognostiziert werden.
  • Die Zahl der Kryptowährungen ist seit etwa 2018 explodiert. Sie kann mit Stand 2022 nur noch geschätzt werden, so etwa sehr grob auf ~10.000. Von diesen Kryptos haben nur sehr wenige nennenswerte Kurssprünge vollzogen. Zudem folgten nach Kurssprüngen praktisch immer auch drastische Kursrückgänge – auch beim Bitcoin.

Das bedeutet: Jedes Advertorial, das irgendwelche Gewinnversprechen enthält, ist inhaltlich wertlos. So unbequem es sein mag: Anleger müssen ihre Informationen aus verschiedenen Quellen zusammentragen und sich dann eine eigene Meinung bilden. Das war auch schon immer so. „Do Your Own Research“ ist daher im Grunde nichts Neues.

Was ist die Spätmoderne? Bedeutung, Definition, Erklärung


Bei der „Spätmoderne“ handelt es sich um einen Epochenbegriff, der zur Kategorisierung gesellschaftlicher Lebensbedingungen eingesetzt wird. Er stellt eine Abwandlung der „Moderne“ dar und geht davon aus, dass die Gegenwart der „Spätmoderne“ als eine direkte Konsequenz der „Moderne“ zu verstehen ist. In der „Spätmoderne“ wirken daher andere, soziale und wirtschaftliche Kräfte, als dies noch in der „Moderne“ der Fall war. Sie gilt als Erweiterung und Weiterentwicklung der modernen Gesellschaften.

Der Begriff „Spätmoderne“ ist noch vergleichsweise jung, tritt aber immer häufiger in Erscheinung. Experten gehen davon aus, dass wir aktuell einen Epochenwechsel erleben – nämlich von der „Moderne“ zur „Spätmoderne“. Dieser wirft ganz eigene Herausforderungen auf. Während sich die „Moderne“ vorrangig mit neuen Technologien auseinandersetzte, so geht die „Spätmoderne“ mehr auf den humanistischen und nachhaltigen Kontext ein. Was genau die „Spätmoderne“ jedoch ist und woher der Begriff eigentlich stammt, darüber erfährt der Leser im nachstehenden Text weitere, interessante Informationen.

Begriffserklärung von „Spätmoderne“

Der Ausdruck „Spätmoderne“ stammt aus der deutschen Sprache und setzt sich aus dem Adjektiv „spät“ und dem Substantiv „Moderne“ zusammen. Bei der „Moderne“ handelt es sich – ähnlich, wie beispielsweise das Altertum oder die Renaissance – um eine zeitliche Epoche. Die Epoche der „Moderne“ ist auf den Zeitraum zwischen 1880 und 1920 datiert. Man spricht hier auch von der „Frühen Neuzeit“. Die „Spätmoderne“ hingegen dauert seit etwa 1980 an. Sie ist gekennzeichnet durch einen Paradigmenwechsel von Technik zu Information, beziehungsweise Humanismus.

Die „Spätmoderne“ gilt als gängiger und geläufiger Epochenbegriff, der abseits dieses Forschungsfelds jedoch relativ selten zum Einsatz kommt. Den meisten Menschen ist der Begriff „Moderne“ durchaus bekannt – der Ausdruck „Spätmoderne“ jedoch weniger. Stellvertretend für die „Spätmoderne“ steht oft auch das Wort „Informationszeitalter“. Denn die Informationstechnologie stellt das maßgebliche Paradigma dieser zeitlichen und wirtschaftlichen Epoche dar.

Woher stammt der Begriff „Spätmoderne“?

Der Begriff „Spätmoderne“ wird in der Soziologie und Kulturwissenschaft verwendet, um eine Phase in der Entwicklung moderner Gesellschaften zu beschreiben. Er tauchte erstmals in den späten 1970er-Jahren auf und bezieht sich auf eine spätere Phase der „Moderne“, die durch komplexe soziale, kulturelle und wirtschaftliche Veränderungen gekennzeichnet ist. In dieser Zeit treten oft postindustrielle Merkmale, wie zum Beispiel eine zunehmende Bedeutung von Dienstleistungen, Wissensarbeit und globalen Kommunikationsnetzwerken, in den Vordergrund. Der Übergang von der Hoch- zur Spätmoderne wird als eine Art Reflexion der fortschreitenden Entwicklung und Veränderung in modernen Gesellschaften betrachtet.

Was bedeutet „Spätmoderne“ im Vergleich zur „Moderne“?

Während sich die „Moderne“ eher auf den Zeitraum der „Industrialisierung“ (Ende 19. und Anfang 20. Jahrhundert) bezieht, so meint die „Spätmoderne“ das Zeitalter der „Informationstechnologie“ (Mitte 20. Jahrhundert bis heute). In der „Spätmoderne“ traten somit erstmals Entwicklungen in Erscheinung, die die der „Moderne“ transformierten. Der Übergang von der „Moderne“ zur „Spätmoderne“ spiegelt also eine fortschreitende Entwicklung und Anpassung an neue soziale, kulturelle und wirtschaftliche Herausforderungen wider.

Verwendung des Ausdrucks „Spätmoderne“ in unterschiedlichen Kontexten

Der Ausdruck „Spätmoderne“ wird heute in vielen verschiedenen Kontexten eingesetzt. Besonders häufig ist der Einsatz von „Spätmoderne“ in den folgenden Bereichen:

  • Wissenschaft
  • Wirtschaft
  • Alltagssprache

Die folgenden Unterabschnitte werden daher einmal dafür verwendet, die oben genannten Einsatzbereiche des Ausdrucks „Spätmoderne“ detaillierter zu erklären.

Wissenschaft

In wissenschaftlichen Diskursen wird der Begriff „Spätmoderne“ oft genutzt, um komplexe soziale und kulturelle Veränderungen zu analysieren. Soziologen und Kulturwissenschaftler verwenden ihn, um den Übergang von der „Moderne“ zur gegenwärtigen Phase zu beschreiben. Hier steht die „Spätmoderne“ für den Wandel in sozialen Strukturen, Technologien und individuellem Verhalten, der sich seit den 1980er-Jahren entfaltet.

Wirtschaft

Im wirtschaftlichen Kontext bezieht sich der Ausdruck „Spätmoderne“ vor allem auf die Transformation von einer Industrie- zu einer Wissens- und Dienstleistungsgesellschaft. Begriffe, wie zum Beispiel Globalisierung, digitale Technologien und flexible Arbeitsmodelle sind wirtschaftliche Kernthematiken der „Spätmoderne“. Unternehmen passen sich den neuen Herausforderungen an, während die Wirtschaftslandschaft durch Innovationen und Vernetzung geprägt ist.

Alltagssprache

Auch in der gesprochenen Alltagssprache kommt der Ausdruck „Spätmoderne“ hier und da zum Einsatz. Dies geschieht vor allem dann, wenn über aktuelle, gesellschaftliche Entwicklungen gesprochen werden. „Spätmoderne“ drückt im Unterton den Einfluss von Technologie und globalen Trends auf unsere individuelle Lebensweise aus. In Gesprächen über moderne Phänomene, wie zum Beispiel soziale Medien, kulturelle Vielfalt und veränderte Arbeitsstrukturen ist die Verwendung dieses Begriffs ebenfalls weitverbreitet.

Kritische Betrachtung der „Spätmoderne“

Obwohl der Begriff „Spätmoderne“ mittlerweile als anerkannt und im wissenschaftlichen Kontext als etabliert gilt, so zweifeln Kritiker dennoch die Existenz einer „Spätmoderne“ an. Für diese gab es nie einen nachvollziehbaren Übergang. Kritiker meinen hauptsächlich, dass wir noch immer im Zeitalter der „Moderne“ leben, welches nicht durch die „Spätmoderne“ abgelöst werden wird, sondern durch eine gänzlich neue Epoche mit schärferem Trennschnitt. Ebenfalls bemängelt werden die neuen Paradigmen der „Spätmoderne“. Die Betonung persönlicher Freiheit kann zu einem Spannungsverhältnis zwischen Gemeinschaft und Individualismus führen. Zudem prägen in den Augen der Kritiker wirtschaftliche Ungleichheiten und die Globalisierung die „Spätmoderne“, was zu Herausforderungen, wie zum Beispiel sozialer Ungerechtigkeit und ökologischen Problemen führt.

Die Technologie ein weiteres, kritisches Element, weswegen die „Spätmoderne“ an sich häufig angefeindet wird. Einerseits ermöglicht der Fortschritt einen besseren Lebensstil, dieser geht aber oft auch zulasten ethischer Grundsätze. Ein Beispiel hierfür sind der Datenschutz und das Recht auf Anonymität. Die Reflexion über diese Aspekte ist entscheidend, um eine ausgewogene Bewertung der „Spätmoderne“ vorzunehmen und Wege zu finden, wie positive Entwicklungen verstärkt und negative Entwicklungen abgemildert werden können, um eine nachhaltige und gerechte Zukunft zu gestalten.

Fazit zum Thema „Spätmoderne“ und ähnliche Begrifflichkeiten

Zusammenfassend kann die „Spätmoderne“ als Nachfolger der „Moderne“ bezeichnet werden – bei beiden Begriff handelt es sich um zeitliche und wirtschaftliche Epochen. Die „Spätmoderne“ steht stellvertretend für das „Informationszeitalter“ und ist geprägt von Informationstechnologie, Wissensarbeit sowie ökologisch nachhaltigen Konzepten. Sie existiert in etwa seit Anfang 1980 und hält bis heute an.

Neben dem Begriff „Spätmoderne“ gibt es noch eine Reihe weiterer Epochenbegriffe, wie beispielsweise „Frühe Neuzeit“ und „Moderne“. Während sich die „Frühe Neuzeit“ vom 15. bis zum 19. Jahrhundert erstreckte, so fand die „Moderne“ in einem relativ kurzen Zeitraum zwischen 1880 und 1920 statt. Der Zeitraum zwischen der „Moderne“ und der „Spätmoderne“ wird auch als Übergangszeitraum bezeichnet. Wissenschaftler sind sich nicht komplett einig darüber, wann genau die „Spätmoderne“ anfing (hier schwanken die Meinungen zwischen 1950 und 1980).

Warum ist der Name Glühwürmchen streng genommen falsch? Erklärung


Wenn man von Glühwürmchen hört, könnte man schnell denken, dass sie zu einer Wurm-Art gehören. Doch das ist nicht richtig. Sie sind Leuchtkäfer und gehören zu einer bestimmten Käferfamilie. Die Bezeichnung Glühen stimmt in diesem Fall auch nicht ganz. Zu sagen, dass sie leuchten, wäre eine Beschreibung, die besser für sie passen würde.

Was für Käfer sind Glühwürmchen? Erklärung

Glühwürmchen oder wissenschaftlich Lampyridae genannt, gehören zur Familie der Leuchtkäfer. Es gibt auf der gesamten Welt etwa 2000 Arten. Sie gehören zu der Überfamilie mit dem Namen Weichkäferartige oder auch Elateroidea. Nicht alle Käfer dieser Art sind in der Lage, Lichtsignale zur Kommunikation zu benutzen.

Das Leben der Glühwürmchen

Ende Juli, nachdem die Paarungszeit vorbei ist, legen die Weibchen der Leuchtkäfer 100 – 200 Eier. Aus diesen schlüpfen nach ungefähr 4 Wochen die Larven, die eine Größe von 0.25 Zentimeter haben. Das Männchen stirbt bereits kurz nach der Paarung, während das Weibchen noch am Leben bleibt, bis sie die Eier ausgetragen hat und dann stirbt sie kurz nach der Ablage.

Glühwürmchen verbringen die meiste Zeit ihres Lebens als Larve. Sie leben auf dem Boden und ernähren sich von Schnecken. Sie können ihre Opfer anhand der zurückgelassenen Schleimspur finden und durch ein Gift, welches sie den Schnecken injizieren, werden diese gelähmt. Trotz des enormen Größenunterschiedes kann eine ausgewachsene Leuchtkäfer-Larve eine Schnecke innerhalb von 30 Stunden verspeisen.

Die Larven benötigen 3 bis 4 Jahre, bis sie vollständig ausgewachsen sind. In dieser Zeit müssen sie sich mehrfach häuten. Haben sie ihr Endstadium erreicht, verpuppen sie sich in einer kleinen Höhle im Boden und nach ungefähr 2 Wochen schlüpft dann ein Glühwürmchen.

Ihre Zeit als Leuchtkäfer ist nicht sehr lang. Sie fressen in diesem Abschnitt ihres Lebens sehr viel weniger als im Larvenstadium und sind auf der Suche nach einem Partner für die Fortpflanzung.

Worin unterscheiden sich weibliche und männliche Glühwürmchen?

Die Männchen sind zwischen 12 und 16 mm groß und können fliegen. Die Weibchen dagegen werden zwischen 15 und 25 mm groß und bleiben auf dem Boden. Sie sind nicht in der Lage zu fliegen, da ihnen die Flügel fehlen. Größere Exemplare können mehr Eier legen als kleinere. Die weiblichen Leuchtkäfer haben einen stärkeren Leuchtstoff als die männlichen Glühwürmchen, damit sie auf dem Boden für die Paarung gefunden werden können.

Warum und wie leuchten Glühwürmchen? Erklärung

Wenn Lebewesen Licht erzeugen, wird dieser Prozess Biolumineszenz genannt. Sie erzeugen ihr Licht mithilfe ihres Leuchtorganes. Bei Leuchtkäfern reagieren dabei unterschiedliche Naturstoffe, auch Luciferin genannt, mit dem Enzym Luciferase zusammen mit ATP und Sauerstoff. Dabei wird Energie in Form von Licht freigesetzt. Auf der unteren Seite des Hinterleibes ist der Käferpanzer rau und lässt Licht hindurch. Die innere Schicht im Panzer ist weiß und kann das Licht somit reflektieren.

Sie senden diese Lichtsignale zur Kommunikation mit gleichgeschlechtlichen Partnern. Die Glühwürmchen benutzen das Leuchten ausschließlich, um einen Partner zur Paarung zu finden.

Wann und wo kann man Glühwürmchen beobachten?

Im mitteleuropäischen Bereich liegt die Lichtperiode der Glühwürmchen zwischen Juni und Juli. Durch unterschiedliche Witterung kann dieser Zeitraum minimal variieren.

Sie benutzen diese Art der Signale nur in der Nacht zwischen 22 und 24 Uhr, da ihre Leuchtkraft nicht stark genug ist, um im Hellen zu leuchten. Man kann sie in trockenen Nächten an Wiesen, Hecken oder an Gewässern beobachten.

Fakten über Hunde: interessant, kurios, lustig

Fakt 1: Hunde können Haarausfall haben

Vor allem Hunderassen mit längerem Fell neigen zu Haarausfall. Die Hundehaare setzen sich meist auf Teppichen und Möbelstücken ab. Hierfür ist die ständige Bewegung und teilweise auch Verspieltheit vieler Hunde verantwortlich. Wie beim Menschen, fallen natürlicherweise auch beim Hund täglich eine gewisse Anzahl an Haaren aus. Da Hunde wilder sind als Menschen und viel herumtoben, verlieren sie in der Regel mehr Haare. Öfters bleiben sie zum Beispiel zwischen den Textilien am Sofa hängen oder aber in einem Spalt.

Fakt 2: Hunde-Fell riecht beim Waschen

Da der Hundekörper bei Nässe automatisch ein Talgsekret produziert, wird der stechende Hundegeruch erzeugt. Bei diesem Eigengeruch handelt es sich um eine Mischung verschiedenster Hormone und Körperausdünstungen. Für einen Hund dürften wir demnach höchstwahrscheinlich ebenso recht unangenehm riechen.

Fakt 3: Exzellenter Geruchssinn

Der Hund hat einen ausgezeichneten Geruchssinn, welcher unseren bei Weitem schlägt. Mit nur fünf Millionen verfügbaren Riechzellen, hinken wir den insgesamt 200 Millionen Riechzellen eines Hundes ganz schön hinterher. Demnach ist der Hund in der Lage, wie ein genialer Kommissar verschiedene Geruchsmischungen wahrzunehmen, die im Zusammenhang stehen und sich folglich ein Bild der vergangenen Geschehnisse machen.

Fakt 4: Hunde sind gute Wächter

Ein weiteres Faktum ist die Tatsache, dass es sich beim Hund um einen exzellenten Wächter handelt. Hunde müssen lediglich gefüttert, jedoch nicht bezahlt werden. Demnach kann der Hund einen menschlichen Security Dienst beim reinen Bewachen locker in die Tasche stecken. Ebenso ist ein Hund in den meisten Fällen sogar zuverlässiger, als etwa eine Alarmanlage. Hunde spüren nämlich sehr gut, wenn Gefahr droht und fangen rechtzeitig an uns zu warnen, ehe Unbekannte sich unserem Grundstück nähern.

Fakt 5: Wertvoller sozialer Kontakt

Da Hunde vom Wolf abstammen, handelt es sich um Rudeltiere, die eine äußerst strenge Hierarchie innerhalb der Gruppe wahren. Ein Hund ist daher tatsächlich der beste Freund des Menschen, denn bei richtigem Training und der nötigen Fürsorge würde er sein Leben für sein Herrchen geben. Das spüren die meisten Besitzer und da der Hund auch angefasst werden kann, spendet diese tiefe Freundschaft beiden Lebewesen eine Menge Lebenskraft.

Das Streicheln von Hunden soll übrigens sogar den Blutdruck senken, da der Kontakt uns beruhigt. Wenn Hunde und Menschen sich begegnen, schütten beide Lebewesen das Hormon Oxytocin aus. Dieses weckt im Hund und Menschen gleichermaßen ein Gefühl des Wohlbefindens.

Fakt 6: Straßenhunde wissen, wie man Bahn fährt

Da der Hund schon ewig vom Menschen gezüchtet wird, ist er uns mittlerweile recht ähnlich. Selbst sein Verhalten passt der Hund über Generationen immer mehr seinem Menschenfreund an.

Straßenhunde sind zum Beispiel in der Lage, mit der Straßenbahn zu fahren. Wenn etwa am Feierabend alle von der Arbeit kommen und in die Bahn steigen, schleichen sich clevere Straßenhunde rein. Diese Ereignisse sind vor allem in Internetvideos zahlreich dokumentiert worden. Das bedeutet, dass der Hund mittlerweile sehr intelligent geworden ist und sich uns noch mehr anpassen kann, als wir es jemals für möglich halten würden.

Fakt 7: Die feuchte Nase gibt Wärme ab

Warum die Hundeschnauze feucht ist? Über Schweiß und andere Sekrete, geben Hunde Wärme nach außen ab. Ungefähr dasselbe passiert auch an den Fußballen eines Hundes.

Wie die Haut eines Menschen an den Achselhöhlen, hat der Hund an der Schnauze und Füßen spezielle Poren entwickelt. Interessanterweise wachsen dem Hund an diesen Stellen keine Haare, während es sich beim Menschen umgekehrt verhält.

Fakt 8: Einige Hunde können nicht bellen

Der Basenji kann nicht bellen. Diese Hunderasse wurde vermutlich im alten Ägypten gezüchtet und unter anderem als Wachhund gehalten. Da er nicht bellen kann, durfte er auch in der Nähe der oberen Schicht Wache halten. Auf diese Weise wurde niemand unnötig geweckt.

Der Basenji gibt jedoch (zum Beispiel bei Gefahr) einen sehr eigenen Laut von sich, welcher nichts mehr mit dem eigentlichen Bellen zu tun hat. Somit konnte die Oberschicht damals noch immer recht gut feststellen, wo ihr Kleiner gerade ist. Das Bellen des Basenji gleicht nämlich eher einem Jaulen und unterscheidet sich demnach vom gewöhnlichen Bellen der Kläffer in der Umgebung.

Wenn ein Basenji zum Beispiel sehr aufgeregt ist, fängt er an zu heulen wie ein Wolf. Dies trifft jedoch nicht auf jeden einzelnen Basenji zu.

Fakt 9: Hunde können Linkshänder oder Rechtshänder sein

Auch bei Hunden gibt es tatsächlich Hunde, welche die linke oder aber rechte Pfote bevorzugen. Beim Pfötchen geben stützen sich (bei der Entscheidung welche Seite man nimmt) Hunde genauso wie der Mensch auf das, was sie als Jungspund gelernt haben. Manchmal haben sich Hundebesitzer nicht mit dem Hund beschäftigt und er hat eine eigene Vorliebe entwickelt. Dabei hat sich im Laufe der Jahre bewährt, dass Linkspfoter kreativer sind und Recchtspfoter einen guten Assistenzhund abgeben.

Fakt 10: Das Hundegehör ist besser ausgeprägt als das menschliche

Zwar ist bekannt, dass Hunde besser riechen können als die meisten Säugetiere, vom Hören, hören einige nun aber sicher zum ersten Mal. Hunde können nämlich nicht nur bis zu 50.000 Hz wahrnehmen, sondern auch selektiv hören. Wenn zum Beispiel sehr laute Musik spielt, können Hunde dieses Hintergrundgeräusch besser ausblenden, als wir Menschen. Öffnet sich dann selbst bei lauter Musik der Kühlschrank, hören Hunde es in den meisten Fällen trotzdem noch.

Fakt 11: Die Vorstellungskraft von Hunden

Der Hund lernt in seinem Leben recht schnell, wie etwas riecht. Aus diesem Grund kann er (wie wir auch) ungefähr einschätzen, wie etwas aussieht, das er gerade riecht. Somit weiß der Hund sehr wohl, dass es sich bei dem leckeren Geruch nach dem Einkauf beim Metzger in der verschlossenen Tüte um Gulasch und eine Edelsalami handelt. Gepaart mit dem fantastischen Geruchssinn, bereichert die Vorstellungskraft eines Hundes seine Wahrnehmung ungemein.

Fakt 12: Dalmatiner ohne Punkte

Vor allem nach den vielen Dalmatiner Disney Filmen und anderen Fernsehauftritten, hat die Beliebtheit dieser Rasse zugenommen. Doch wer wusste, dass Dalmatinerwelpen gar keine Punkte haben? Erst ungefähr zwei Wochen nach der Geburt werden die Punkte sichtbar und zieren das Fell der kleinen Dalmatiner Hündchen. In einigen Fällen kommt es auch vor, dass sich selbst noch viele Monate nach der Geburt neue Punkte bilden können.

Fakt 13: Farben sehen für Hunde anders aus

Lila sieht für Hunde aus wie Grau und die Farbe Rot wie Gelb. Das liegt vor allem an den verschiedenen Zapfenarten im Auge des Tiers. Ein Vorteil, den Hunde uns gegenüber visuell haben ist, dass ihre spezielle Netzhaut vor allem rotes Licht während der Dämmerung besser einfangen kann. Aus diesem Grund sehen nicht nur Katzen, sondern auch Hunde in der Nacht besser als der Mensch.

Fakt 14: Hunde erkennen Größe am Knurren

Wenn ein Kleinkind laut aufschreit, können die meisten Erwachsenen erkennen, dass es sich um den Schrei eines kleinen Kindes handelt. Ungefähr in diesem Zusammenhang können auch Hunde die Größe (bzw. das Alter) eines anderen Hundes einschätzen, ohne ihn gesehen zu haben. Lediglich am Knurren kann ein Hund einen anderen bereits erkennen und visualisieren, ohne ihn gesehen zu haben.

Fakt 15: Hundehalter haben ein starkes Immunsystem

Da Hundebesitzer regelmäßig mit dem Hund Gassi gehen müssen und das jeden Tag, haben sie im Durchschnitt ein besseres Immunsystem, als Menschen ohne einen Hund. Weiterhin gehen Menschen, die einen Hund besitzen, seltener zum Arzt, als Menschen, die keinen Hund haben. Dies ist vor allem mit der Tatsache zu begründen, dass man zusammen mit dem Hund öfter in der Natur ist.

Fakt 16: Es existieren 246 anerkannte Hunderassen

Im Jahre 2021 hat der FCI offiziell bekannt gegeben, dass es bisher 246 Hunderassen auf dem Planeten Erde gibt. Zu den begehrtesten Hunderassen gehören unter anderem:

  • Chihuahua
  • Mops
  • Dackel
  • Terrier
  • Golden Retriever
  • Spitz
  • Bulldogge

Fakt 17: Es gibt einen Beatles Song, der auch für Hunde geschrieben wurde

Im Song „A Day in the Life“ von den Beatles, wurde am Ende des Lieds eine Hundepfeife benutzt. Das haben die Musiker ganz gezielt inszeniert, da sie sich selbst für Hunde begeistern. Wenn dieses Lied läuft, sollte man auf seinen Vierbeiner achten, denn die Ohren wird er bei dem Geräusch mindestens anheben.

Fakt 18: Einige Hunde haben die Titanic überlebt

Im Jahre 1909 ging die Titanic unter und mit ihr eine Menge Menschen. 700 Passagiere und sogar 3 Hunde konnten es jedoch in die Rettungsboote schaffen und überlebten den schrecklichen Vorfall. Bei den Hunderassen handelte es sich um einen Pekinesen und zwei Spitzwelpen. Die Hunde wurden höchstwahrscheinlich in die Rettungsboote reingeschmuggelt, da sie recht klein sind und leicht in einen Koffer passen.

Fakt 19: Hunde waren schon im Weltall

Der russische Hund namens Laika wurde im Jahre 1957 ins Weltall geschossen und umkreiste die Erde in seiner Kapsel im Alleingang. Bei dem Experiment wurde der Straßenhund in die Sputnik 2 gesteckt und durfte dann als Testobjekt einmal um den Globus reisen.

Fakt 20: Auch Hundezähne sollten geputzt werden

Während Welpen meist um die 28 Zähne haben, knurren erwachsene Tiere mit etwa 42 Zähnen. Wer seinen Hund pflegt, sollte sich eventuell überlegen, ob er ihm nicht auch die Zähne putzen sollte. Zwar kann ein Knochen bereits für gute Dienste sorgen, jedoch kann nur mit unserem Zutun eine ansprechendere Mundhygiene erreicht werden.

Fakt 21: Riechversagen bei Überhitzung

Wenn der Hund an einem sehr warmen Tag nur wenig trinkt, kann er leicht überhitzen. In solch einem Zustand ist er unter anderem nicht mehr richtig fähig zu riechen. Der Körper stellt nämlich alle Funktionen in den Alarmzustand und versucht dadurch lebenserhaltende Maßnahmen einzuleiten. Der Geruchssinn eines überhitzten Hundes schwindet dabei um ganze 60 %.

Was ist ein Brownout? Erklärung, Bedeutung, Definition


Ein Brownout ist ein anhaltender Niederspannungszustand in einem elektrischen Stromnetz. Die Bundesnetzagenturen bezeichnen Brownouts häufig als „Gebietsabschaltungen“. Spannungsabfälle können wiederum zu Stromausfällen und Abschaltungen führen. Das Prinzip von Brownouts besteht darin, dass durch die Verringerung der Spannung in einem Gebiet die Abdeckung dieses Gebiets erhöht werden kann. Dies geschieht, indem einige Teile des Stromnetzes abgeschaltet werden, um andere am Netz zu halten. Stromausfälle dauern in der Regel vier Stunden oder weniger, können aber gelegentlich auch länger andauern.

Brownout bei Angebot und Nachfrage

Ein Brownout ist ein Stromausfall, der auftritt, wenn die Nachfrage nach Strom das Angebot übersteigt. Das kann passieren, wenn das Stromnetz überlastet ist oder wenn es ein Problem mit dem Kraftwerk gibt. Stromausfälle können gezielt sein, d. h. nur bestimmte Gebiete sind betroffen, oder sie können weit verbreitet sein.

Unkontrollierter Spannungsabfall beim Brownout

Ein Brownout ist ein unkontrollierter Spannungsabfall, der mehrere Minuten dauern kann. Brownouts werden durch ein überlastetes Stromnetz oder eine Störung in der Stromversorgung verursacht. Bei Spannungsabfällen kann es in Unternehmen und Haushalten zu Stromausfällen kommen.

Im Falle eines Stromausfalls können Geräte flackern oder weniger Strom verbrauchen. Stromausfälle können bei einem Spannungsabfall in einer elektrischen Stromversorgung auftreten.

Siehe: Unterschied: Blackout – Stromausfall

Wie oft kommen Brownouts vor?

Stromausfälle kommen häufiger vor, als man denkt. Sie treten auf, wenn die vom Kraftwerk gelieferte Spannung abfällt. Dafür kann es verschiedene Gründe geben, z. B. eine instabile Verbindung oder eine zu große Nachfrage seitens der Verbraucher. Stromausfälle dauern in der Regel nicht lange, aber sie können lästig sein und zu Störungen führen.

Wie hoch ist die Gefahr eines Brownouts?

Im kommenden Winter besteht die Gefahr von Stromausfällen, da es zu unkontrollierbaren Lastabschaltungen kommen kann. Das Stromnetz ist nicht in der Lage, die zusätzliche Nachfrage von Gasheizungen und anderen Geräten, die Strom verbrauchen, zu bewältigen. Dies kann zu Stromausfällen führen, d. h. zu Zeiträumen, in denen die Leistung gering ist. Die Bundesnetzagentur arbeitet an der Verbesserung des Stromnetzes, aber es ist immer noch anfällig für Stromausfälle in Zeiten hoher Nachfrage.

Gibt es im Strom eine Abschaltreihenfolge?

Ja, es gibt eine Abschaltreihenfolge im Strom. Die Abschaltreihenfolge ist wie folgt: Stromversorger, Übertragungsnetzbetreiber, Netzbetreiber, Bundesnetzagentur. Diese werden nacheinander abgeschaltet und der ihnen zur Verfügung stehende Stromverbrauch wird reduziert. Diese Abschaltung zielt darauf ab, die Stromzufuhr für das Prinzip zu reduzieren, und es ist unwahrscheinlich, dass andere Verbraucher davon betroffen sind.

Wie wahrscheinlich sind Lastabschaltungen im Strom?

Lastabschaltungen sind im Falle einer Unterbrechung der Stromversorgung eine sehr reale Möglichkeit. Nach Angaben der Bundesnetzagentur „müssen die Netzbetreiber die Wahrscheinlichkeit von Lastabschaltungen so gering wie möglich halten“. Denn Lastabschaltungen können einen Engpass im Stromnetz verursachen, der zu Stromausfällen führen kann.

Im kommenden Winter werden die Lastabschaltungen aufgrund der gestiegenen Stromnachfrage wahrscheinlich zunehmen. Dies liegt daran, dass in den Wintermonaten weniger Stromerzeugungskapazität zur Verfügung steht. Die Kraftwerke gehen in dieser Zeit in der Regel wegen Wartungsarbeiten oder aus anderen Gründen vom Netz. Infolgedessen ist der Strommarkt angespannter und die Preise sind höher.

Trotz der erhöhten Wahrscheinlichkeit von Lastabschaltungen im Winter sind die Netzbetreiber in der Regel in der Lage, diese unter Kontrolle zu halten und großflächige Ausfälle zu verhindern. Das liegt daran, dass sie über Notfallpläne verfügen und den Strom notfalls umleiten können. Darüber hinaus können sie andere Maßnahmen wie Lastabwürfe einsetzen, um die Nachfrage im Netz zu verringern.

Wie oft kommen Stromausfälle in Deutschland vor?

In Deutschland kommt es relativ häufig zu Stromausfällen. Nach Angaben der Bundesnetzagentur gab es allein im Jahr 2018 rund 1.200 Stromausfälle. Das liegt daran, dass die Stromnetze in Deutschland nicht immer auf der Höhe der Zeit sind. Meistens dauern die Ausfälle nur ein oder zwei Minuten, es gab aber auch schon welche, die viel länger dauerten.

Warum ist das Kolosseum kaputt? Erklärung


Das Kolosseum ist eines der wichtigsten und beeindruckendsten Wahrzeichen Roms. Scharen von Touristen aus aller Welt besichtigen täglich die fotogene Ruine, die früher ein Amphitheater war. Schon Jahrhunderte lang ist das Kolosseum eine Ruine. Es lohnt sich, die Geschichte des Bauwerks und seiner Zerstörung näher anzuschauen – und auch die Frage zu klären: „Was ist eigentlich ein Amphitheater?“

Die Geschichte des Kolosseums bis zum Beginn seiner Zerstörung

In Rom existierten schon Vorgängerbauten des Kolosseums, teils aus Holz, teils aus Stein, aber sie hielten alle nicht lang. Das Kolosseum wurde ganz aus Stein errichtet, und zwar in den Jahren 72 – 80 n. Chr. Bauherr war der römische Kaiser Vespasian, der von 9 – 79 n. Chr. lebte und von 69 – 79 Kaiser war. Er erlebte die Einweihung seines Prestige-Projekts „Kolosseum“ nicht. Die Einweihung konnte dann sein Sohn, Kaiser Titus (39 – 81, Kaiser von 79 – 81) feiern. Das Kolosseum wurde damals übrigens „Flavisches Amphitheater“ genannt, da Vespasian und Titus der Dynastie der Flavier angehörten.

Die Arena des Kolosseums ist oval und ca. 156 x 188 m groß. Bis zu 50.000 Zuschauer konnten rund um die Arena Platz nehmen, und zwar auf 4 Geschossen. Die drei unteren Geschosse hatten Arkaden, die oberste Etage war massiv gebaut. Interessant ist die Tatsache, dass die Arena 80 Eingänge hatte! Die 80 Arkaden im Erdgeschss dienten als Eingänge, so konnten die Besucher rasch an ihre Plätze gelangen und nach der Vorstellung das Kolosseum auch schnell wieder verlassen, ohne dass sich lange Warteschlangen bildeten. Im Jahr 80 fand die Einweihung statt, mit Gladiatorenkämpfen, Tierjagden und Seeschlachten. Für die Seeschlachten wurde die Arena geflutet.

Die Zerstörung des Kolosseums

Im Jahr 217 traf ein Blitzschlag das Kolosseum und richtete große Schäden am Bauwerk an. Das bedeutete aber nicht das Ende der Vorstellungen. Das Bauwerk wurde renoviert, und ab 238 fanden wieder Gladiatorenkämpfe und Tierjagden statt. Die Verbreitung des Christentums bedeutete jedoch eine Zäsur für die Amphitheater. Den Anhängern der neuen Religion waren sowohl die Gladiatorenkämpfe als auch die Tierhetzen ein Gräuel – zumal ja auch Christen im Kolosseum getötet worden waren. Um das Jahr 435 fanden die letzten Gladiatorenkämpfe im Kolosseum statt, um 523 die letzten Tierhetzen. Im Jahr 520 beschädigte ein Erdbeben das Kolosseum. Die Römer reparierten das Bauwerk nochmals, aber seine Zeit war vorbei. In der Spätantike diente das Areal zeitweise als Wohngebiet. Im Mittelalter richteten weitere Erdbeben (in den Jahren 847 und 1349) erhebliche Schäden an. Nachdem das Bauwerk schon stark beschädigt war, nutzten die Römer es im Mittelalter als Steinbruch. So entstand der heutige Zustand des Kolosseums – es ist auch als Ruine noch immer beeindruckend!

Die weitere Geschichte der Ruine: eine Attraktion für Archäologie und Tourismus

Papst Benedikt XIV., der von 1740 bis 1758 amtierte, erklärte die Ruine des Kolosseums als Märtyrerstätte, in Erinnerung an die Christen, die dort wegen ihres Glaubens getötet worden waren. Der Papst ließ auch eine Steintafel als Erinnerung an die Märtyrer anbringen und innerhalb des Kolosseums einen Kreuzweg mit Kapellen errichten. Im 19. Jahrhundert wurde das Kolosseum zu dem, was es noch heute ist: eine Touristenattraktion. Auch die Archäologen begannen nun, die Stätte zu erforschen. Seit 1964 findet jedes Jahr an Karfreitag eine Andacht mit dem Papst im Kolosseum statt. Touristen können die Sehenswürdigkeit jederzeit besuchen, es kostet aber Eintritt. Führungen werden u.a. auf Deutsch und auf Englisch angeboten.

Amphitheater – schöne Bauwerke für grausame Zwecke

Amphitheater sind Entwicklungen der antiken Römerzeit. Ein Amphitheater ist eine nach oben offene Arena mit rundem oder ovalem Grundriss, d vieon Zuschauerrängen umgeben ist. Die Zuschauerränge können mehrere Etagen umfassen – so wie ein Fußballstadion der modernen Zeit. Das Kolosseum ist das größte Amphitheater, das je gebaut wurde. In Ländern, die sie eroberten, haben die Römer auch Amphitheater konstruiert, so etwa im germanischen Trier.

Die Amphitheater dienten der Belustigung der Zuschauer. Es wurden Gladiatorenkämpfe und Tierkämpfe veranstaltet. Bei den Gladiatorenkämpfen gingen bewaffnete Männer aufeinander los, solche Kämpfe endeten sehr oft mit Todesfällen. Die Tierkämpfe waren für die menschlichen Teilnehmer auch nicht ganz ungefährlich, aber in der Regel endeten sie mit dem Tod von vielen Tieren. Löwen, Tiger und Bären waren bei den Zuschauern besonders beliebt. Gladiatorenkämpfe veranstalteten die Römer vom 3. vorchristlichen Jahrhundert bis in das 5. nachchristliche Jahrhundert, die Tierkämpfe sind für die Zeit zwischen dem 2. vorchristlichen Jahrhundert bis zum Anfang des 6. nachchristlichen Jahrhunderts belegt. Nachdem sich das Christentum im römischen Reich durchgesetzt hatte, ging die Zeit der Gladiatoren- und Tierkämpfe zu Ende. Schon der christliche Kaiser Konstantin hatte um das Jahr 300 n. Chr. ein Edikt gegen die „Tierhetzen“ erlassen. Aber es dauerte dann noch einige Zeit, bis sie endgültig abgeschafft wurden.

Sind Spatzen wichtig? Erklärung, Bedeutung


Der zierliche Hausspatz begleitet den Menschen seit Tausenden von Jahren. Dabei ist sein Einfluss auf die Umwelt keineswegs zu unterschätzen. Denn der Haussperling frisst weit mehr als Körnerfutter. Die Singvögel dienen als sichere Indikatoren für die Gesundheit in städtischen Regionen. Damit sind Spatzen für das Ökosystem unerlässlich.

Spatz, Hausspatz oder Haussperling – dem Menschen wohlvertraut

Passer domesticus folgt seit über 10.000 Jahren dem Menschen. Dort, wo der Homo sapiens dauerhaft siedelt, sind die Sperlingsvögel ebenfalls anzutreffen. Heutzutage finden sich in Großstädten jedoch immer weniger geeignete Nistplätze für den zierlichen Singvogel. Dabei ist der Hausspatz vor allem durch charakteristische Tschilp-Laute und das Auftauchen in Gruppen bekannt. Mit bis zu 16 Zentimetern Länge und einem Gewicht von etwa 30 Gramm ist der Spatz sowohl von geringer Größe als auch unauffällig. Sein üblicherweise unscheinbares, braunes Gefieder unterstreicht diesen Eindruck.

Futter für den Spatz – Körner, Insekten, Wirbellose

Der Haussperling findet sich in Trupps zusammen. In solchen Verbänden erfolgt praktisch alles gemeinsam: schlafen, jagen, baden, brüten und die Futtersuche. In urbanen Gegenden fallen die kleinen Vögel auf, sobald sie im Café auf dem Nachbartisch landen und Reste stibitzen. Dadurch entsteht vornehmlich der Eindruck, dass die Singvögel hauptsächlich Körner fressen. Dabei wählen die Sperlingsvögel ebenfalls Insekten und Wirbellose als Nahrungsquelle. Deshalb finden sich Spatzen oftmals in der Nähe von Büschen, Blumen und Wiesen mit Wildblumen. Die Lebensräume von Krabbeltieren ziehen unweigerlich den Hausspatz an. Der Vogel bedient sich gern und hält dementsprechend die Population der Insekten in Grenzen.

Das zeigt sich ebenfalls in der Vergangenheit: Im 18. Jahrhundert wurde der Spatz auf königlicher Anordnung hin bekämpft. Denn die landwirtschaftlichen Felder sollten geschützt werden. Das Resultat war jedoch ein Übermaß an Insekten, sodass der Sperling schnell wieder willkommen war. In der modernen Welt zählt der Vogel zu den Allesfressern. Neben der Auswahl an Insekten, Wirbellosen, Körnern und Sämereien, bedient sich das Tier gleichfalls bei Imbissständen, Restaurants oder Cafés. Aufgrund der Nähe zu Supermärkten und gewerblichen Küchen wird der Singvogel oftmals als Schädling betrachtet. Dabei ist seine Existenz für die Natur von enormer Bedeutung.

Der Haussperling und die Umwelt: Wie wichtig sind Spatzen?

Der Singvogel ist nahe dem Lebensraum von Menschen heimisch. Allerdings verursachen aufgeräumte Städte und nischenfreie Häuser zunehmend eine Abnahme der Möglichkeiten für Nester und Bruthöhlen. Das erschwert das Leben des Vogels. Zusätzlich sorgen Katzen, selten Hunde, Turmfalken und andere Greifvögel neben Steinmardern für gefährliche Lebensräume. Damit gelten Spatzen als wertvolle Beutetiere innerhalb der natürlichen Nahrungskette. Ihr Beitrag zur Regulierung der Krabbeltiere ist nicht zu unterschätzen. Die Haussperlinge vertilgen als ausgewachsene Vögel die zahlreichen Insekten ebenso wie deren Larvenstadien in der Zeit der Brutpflege.

Demzufolge tragen sie zu einem ökologischen Gleichgewicht bei – speziell innerhalb urbaner Gegenden. Ohne die Singvögel gäbe es für Insekten keine natürlichen Fressfeinde. Das zöge einen verstärkten Anstieg der Insektenpopulation nach sich. Letztlich müsste sich der Mensch der Probleme durch Schädlinge annehmen. Denn zerstörte Ernten auf den Feldern wäre eine Schwierigkeit, die ein Schwund an Spatzen zur Folge hätte. Ein weiterer Aspekt betrifft die Verbreitung der Gewächse im Lebensraum. Der Hausspatz verzehrt Körner und Sämereien. Dadurch trägt er wesentlich zur Fortpflanzung von Pflanzen bei. Denn der Vogel frisst die Früchte und scheidet sie schließlich woanders aus, sodass die Pflanzen neu wachsen können.

Zusätzlich zählen Hausspatzen zu den sogenannten Biomarkern für Städte. Sie liefern Erkenntnisse über die Luftverschmutzung innerhalb urbaner Zonen. Das bedeutet, die Verschmutzung ist umso stärker, je weniger der Tiere dort existieren. Ein wichtiger Aspekt ist deshalb besonders erwähnenswert: Spatzen gelten als bedrohte Tierart, speziell in Städten. Durch die moderne Lebensweise der Menschen finden die Vögel immer weniger Nistplätze. Sie sind verstärkt auf die menschliche Unterstützung angewiesen. Nistkästen, Wildblumen, Kletterpflanzen und Hecken helfen, Insekten anzulocken und schlussendlich Haussperlinge zu beheimaten.

Zusammenfassung: Spatzen als wichtige Säule im Ökosystem

Vögel gehören zu den bedeutsamen Kriterien, sobald es um den Schutz der Umwelt geht. Das natürliche Gleichgewicht beinhaltet ebenso Insekten und Wirbellose (beispielsweise Würmer und Raupen). Sind die Krabbeltiere in ausreichender Zahl vorhanden, finden sich an Gebäuden genügend Nischen zum Nisten, werden die zierlichen Spatzen gerne heimisch. Da sie Insekten fressen, helfen sie effizient, potentielles Ungeziefer auf natürliche Weise unter Kontrolle zu halten.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung


Quastenflosser gelten als das fehlende Bindeglied zwischen Fischen und Landwirbeltieren. Aufgrund ihrer besonderen Merkmale zeigen diese ursprünglichen Fische Anzeichen für den Übergang zu Landlebewesen. Quastenflosser galten als prähistorische Fische, die seit langem ausgestorben sind. Doch erst vor weniger als einem Jahrhundert wurde klar, dass dies doch nicht der Fall ist. Es war eine Sensation: Für die Wissenschaftler kam die Entdeckung eines Quastenflossers der Entdeckung eines lebenden Dinosauriers gleich.

Ein lebendiges Stück der Evolution

Es war Charles Darwin, der darauf hinwies, dass sich die Arten der verschiedenen Gattungen und Klassen im Laufe der Zeit nicht in gleichem Maße verändert haben. Charles Darwin prägte für dieses Phänomen auch den Begriff „lebende Fossilien“. Mit diesem Begriff definierte er Abstammungslinien, innerhalb derer sich neue Formen langsamer bilden und alte Formen langsamer aussterben, wobei entwicklungsgeschichtlich ursprüngliche Merkmale erhalten bleiben. Dieser Begriff ist populär geworden, wird aber manchmal missverstanden, da er bedeutet, dass sich manche Organismen nicht weiterentwickeln. Paläontologen und Evolutionsbiologen verwenden den Begriff jedoch häufig. Hier wird der Begriff „lebendes Fossil“ verwendet, um einen Stillstand bei der Veränderung der Körperstruktur in einigen Abstammungslinien zu beschreiben.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung

Die ältesten bekannten Quastenflosser-Fossilien stammen aus der Zeit vor über 400 Millionen Jahren. Der Fossilbericht der Quastenflosser endet mit der späten Kreidezeit. Es lag die Vermutung nahe, dass die mit dem Massenaussterben vor 66 Millionen Jahren auch die Quastenflosser ausgelöscht worden sind.

Der Quastenflosser und seine Wiederentdeckung

Man ging davon aus, dass der Quastenflosser vor über 60 Millionen Jahren ausgestorben war, doch seine Wiederentdeckung 1938 vor der Küste Südafrikas schockierte die wissenschaftliche Welt. Marjorie Courtenay-Latimer war gerade 24 Jahre alt, als sie die Entdeckung ihres Lebens machte. Einer der weniger aufregenden Teile ihres Jobs als Kuratorin des East London Museum in Südafrika bestand darin, auf Anrufe von Fischern zu reagieren, die etwas gefangen hatten, das sie für ungewöhnlich hielten, und dann zu den Docks zu fahren und es zu untersuchen.

Für Marjorie Courtenay-Latimer war die Entdeckung dieses vermeintlich ausgestorbenen Tieres, das schon existierte, als die Tyrannosaurier noch auf der Erde lebten, ein Triumph. Sie beschrieb ihn als den schönsten Fisch, den sie je gesehen hatte.

Der Fang von Quastenflossern war in der Folgezeit äußerst selten. Erst im Jahr 1952 wurde ein zweites Exemplar gefangen. Der Fangplatz vor den Komoren war 3000 km von dem des ersten Exemplars entfernt. Diese Fische werden als Komoren-Quastenflosser (wissenschaftlich: Latimeria chalumnae) bezeichnet. Als weitere Art wurde 1997 der kleiner bleibende Manado-Quastenflosser Latimeria menadoensis entdeckt.

Die Wiederentdeckung des Quastenflossers, des 400 Millionen Jahre alten prähistorischen Fisches, der lange als ausgestorben galt, zeigt, dass diese Fische über einen längeren Zeitraum existieren als die Dinosaurier. Kein Wunder, dass der Fisch nach Courtenay-Latimers verblüffender Entdeckung im Jahr 1938 als lebendes Fossil bezeichnet wurde und seine Identifizierung als das wichtigste Ereignis in der Erforschung der Naturgeschichte im 20. Jahrhundert dargestellt wird.

Die besonderen Merkmale der Quastenflosser

Abgesehen von der Tatsache, dass er seit Jahrtausenden als ausgestorben galt, ist der Quastenflosser auch aus mehreren anderen Gründen einzigartig. Die vier gliedmaßartigen Flossen, die Courtenay-Latimer feststellte, sind eigentlich Lappenflossen, die fast wie Beine für den Fisch wirken und sich in einem abwechselnden Muster bewegen, wie ein trabendes Pferd. Damit ergibt sich der Anlass für die Vermutung, dass der Quastenflosser ein wichtiges Bindeglied zwischen herkömmlichen Fischen und den ersten Lebewesen ist, die sich zu vierbeinigen, land- und meeresbewohnenden Amphibien entwickelten.

Der Quastenflosser wird also deshalb als lebendes Fossil betrachtet, da Wissenschaftler davon ausgingen, dass er das einzige verbliebene Mitglied einer Abstammungslinie ist, die sonst nur aus Fossilien bekannt ist und keine nahen Verwandten hat und dass er sich vor etwa 400 Millionen Jahren zu seiner heutigen Form entwickelt hat. Mehrere neuere Studien haben jedoch gezeigt, dass die Körperformen von Quastenflossern weit vielfältiger sind als bisher angenommen.

Der Quastenflosser kann über zu zwei Meter lang werden und bis zu 100 kg wiegen. Wissenschaftler schätzen, dass der Fisch über 60 Jahre alt werden kann, was ihn noch geheimnisvoller macht. Die Weibchen sind im Allgemeinen größer als die Männchen, und obwohl sie in größeren Gruppen friedlich sind, mögen Quastenflosser keinen Körperkontakt. Quastenflosser sind nachtaktive Tiere, die sich tagsüber in Höhlen oder tiefe Gewässer zurückziehen und dann in die untersten Ebenen des Ozeans aufsteigen, um am Meeresboden zu fressen.

Geschwindigkeit der Evolution

Die niedrige Evolutionsrate auf der Grundlage eines dauerhaften generalistischen morphologischen Bauplans wurde von den meisten nachfolgenden Autoren, die sich mit der Gruppe beschäftigt haben, bestätigt, wohl wissend, dass es auch Ausnahmen von diesem allgemeinen Bauplan gibt. Ein Teil der Forschergemeinschaft, die sich mit fossilen und lebenden Quastenflossern beschäftigt, vermeidet es jedoch, diesen Ausdruck zu verwenden.

Warum sind Quastenflosser fast „lebende Fossilien“?

Darwins Definition des Begriffs war ungenau, und er vertrat die Auffassung, dass „Arten und Gruppen von Arten, die man abweichend nennt und die man fantasievoll als lebende Fossilien bezeichnen kann, uns helfen werden, uns ein Bild von den alten Formen des Lebens zu machen“. Seit mehr als 200 Jahren wird jedoch über die Definition des Konzepts und ganz allgemein über die Vorzüge seiner Verwendung in den Biowissenschaften debattiert. Obwohl Darwin (1859) mehrere Fischtaxa als Beispiele für „lebende Fossilien“ anführte, erwähnte er die Quastenflosser nicht, die zu seiner Zeit nur als Fossilien bekannt waren. Huxley bemerkte jedoch bald darauf die geringe anatomische Vielfalt der Quastenflosser im Laufe ihrer Geschichte.

Seit dieser Zeit und insbesondere nach der Entdeckung der lebenden Latimeria im Jahr 1938 ist der Quastenflosser aufgrund der langsamen morphologischen Entwicklung, die durch die Fossilienaufzeichnungen der Gattung veranschaulicht wird, und seiner angeblichen Verwandtschaft mit den Tetrapoden zu einem ikonischen Symbol des „lebenden Fossils“ geworden. Hier geht es nur um die Frage der Evolutionsgeschwindigkeit, nicht um die Frage der Abstammung oder anderer Merkmale, die Quastenflossern als „lebende Fossilien“ zugeschrieben werden. Zuvor war man davon ausgegangen, dass es sich um ein lebendes Fossil handelte, da die Wissenschaftler davon überzeugt waren, dass es sich bei dem Exemplar von 1938 um den letzten verbliebenen Quastenflosser handelte, doch spätere Studien zeigten, dass die Art weitaus vielfältiger ist.

Warum sind Meere salzig? Erklärung


Salz ist für das Leben unerlässlich. Salz ist ein natürliches Mineral, das aus dem Boden gewonnen wird. Es ist ein wesentlicher Nährstoff für die meisten Lebewesen und hilft, den Körper hydriert zu halten. Salz entsteht, wenn sich Gesteinsmassen auflösen oder durch Erosion abgetragen werden. Aber Salz ist auch ein wesentlicher Bestandteil von Meeren und Ozeanen. Die Frage, warum Meere salzig sind, ist eine der am häufigsten gestellten Fragen über Ozeane. Die Antwort ist relativ einfach und liegt in der Herkunft des Wassers.

Das Urmeer

Das Salz in unseren Meeren stammt ursprünglich aus dem Urmeer, einem riesigen Meer, das vor etwa 500 Millionen Jahren existierte. Dieses Meer war so groß, dass es alle Kontinente bedeckte und sich über die ganze Erde erstreckte. Im Laufe der Zeit verdunstete das Wasser des Urmeers und hinterließ eine dichte Salzlösung. Diese Salzlösung wurde immer konzentrierter, bis sie schließlich zu einer festen Masse erstarrte und zu dem Salzberg wurde, den wir heute als Salzsee bezeichnen.Das Salz in unseren Meeren ist also vor allem aufgrund der Verdunstung des Wassers im Urmeer entstanden. Aber es gibt noch eine andere Quelle für das Salz in unseren Meeren.

Salz durch Flüsse und Regenwasser

Salz kommt in die Meere durch Flüsse, die ins Meer münden. Diese Flüsse transportieren das Salz, das sich in den Gesteinen des Ufers angesammelt hat, ins Meer. Auch Regenwasser enthält geringe Mengen an Salzen, da es sich beim Kontakt mit dem Boden verdünnt und so auch Salze aus dem Boden löst. Das Wasser der Meere stammt daher auch aus dem Regen, der auf die Erde fällt. Und weil das Salz aus dem Boden und den Gesteinen langsam in das Regenwasser gelangt, ist auch das Meerwasser salzig. Diese beiden Prozesse tragen dazu bei, dass sich im Laufe der Zeit immer mehr Salz in den Meeren anreichert.

Aber das ist noch nicht alles: Auch die Tiere und Pflanzen, die im Meer leben, tragen zur Salzigkeit bei. Denn ihre Körper enthalten ebenfalls Salz, das ins Wasser abgegeben wird, wenn sie sterben. So gelangt immer mehr Salz ins Meerwasser – und es wird immer salzhaltiger.

Ein weiterer Faktor, der die Salzigkeit der Meere beeinflusst, ist die Verdunstung. Wasser verdunstet ständig von der Oberfläche der Meere und Ozeane und nimmt dabei auch einige der Salze mit. Dieser Prozess findet jedoch nicht überall gleich schnell statt. In Bereichen mit hoher Verdunstungsrate, wie zum Beispiel an den Küsten trockener Länder oder in der Nähe von Gebirgen, verdunstet mehr Wasser und es bleiben entsprechend mehr Salze zurück. So tragen auch die unterschiedlichen Klimazonen dazu bei, dass sich die Meere unterschiedlich salzig verhalten.

Herstellung von Meeressalz

Die Herstellung von Kochsalz ist relativ einfach und erfordert lediglich einige chemische Verfahren sowie eine Verdampfung des Meerwassers. In erster Linie wird jedoch Steinsalz verwendet, da es einen höheren Reinheitsgrad aufweist und daher für die Herstellung von Lebensmitteln besser geeignet ist.

Fazit

Insgesamt ist die Zusammensetzung des Meereswassers sehr komplex und wird von vielen verschiedenen Faktoren beeinflusst. Die genaue Zusammensetzung variiert jedoch nur geringfügig von Ort zu Ort und hat im Wesentlichen einen natürlichen Ursprung. Grundsätzlich kann gesagt werden, dass Meere salzig sind, weil sie aus dem Salz der Erde bestehen. Das Salz der Erde stammt aus dem Gestein der Kontinente und wird durch Erosion in die Meere gespült.

Warum Casinobegriffe einheitlich verwendet werden? Erklärung, Bedeutung


Mit komplexen Regeln und verschiedenen Strategien setzen manche Casinospiele viel Konzentration und Vorkenntnisse voraus. Schon die Begrifflichkeiten sorgen bei Einsteigern für Schweißperlen auf der Stirn. Allerdings bringt das Vokabular einen großen Vorteil mit sich: Viele Begriffe sind in allen Sprachen gleich. Eine Erleichterung, die das internationale Spiel weltweit so beliebt macht.

Sprache ist eine faszinierende Sache. Mehr als 700 verschiedene Arten existieren laut Experten auf der Welt, die eine gemeinsame Kommunikation in vielen Fällen erschweren. Schon die Frage nach dem Weg kann zur Herausforderung werden, wenn sich Sender und Empfänger nicht auf einer Ebene verständigen können. Was bleibt, ist eine Erklärung, die nur mit Händen und Füßen übermittelt werden kann.

Umso erstaunlicher ist es, dass durchaus komplexere Themen dennoch eine Community verschiedener Sprachen vereinen können. Casinospiele zählen in diese Kategorie, die Spieler weltweit an einen Tisch holen und aufgrund einheitlicher Begrifflichkeiten für einen reibungslosen Ablauf sorgen. Online Casinos haben ihren Teil dazu beigetragen, dass diese Entwicklung so rasch vorangeschritten ist. In Ländern wie der Schweiz, in der Italienisch, Deutsch und Französisch als gängige Sprachen gesprochen werden, bieten die Online Casinos der Schweiz eine perfekte Anlaufstelle für Interessierte. Der Blick auf einige wichtige Begrifflichkeiten zeigt, warum.

Wort für Wort

Wer sich zum ersten Mal an Casino- oder Tischspielen versuchen möchte, dem sei ans Herz gelegt, die ersten Runden in der jeweiligen Muttersprache zu spielen. Das Regelwerk kann Anfänger überfordern und erschwert das Verständnis unnötig, wenn es in einer Fremdsprache vorliegt. Von selbsterklärenden Zügen oder nächsten Schritten kann bei Poker, Baccarat oder Blackjack kaum die Rede sein. Im Zuge der Einführung wird jedoch deutlich, dass es viele Begriffe und Schlagwörter gibt, die als einheitliche Umschreibung international gelten.

Bankroll, Bet Fold oder La Grande sind nur eine Auswahl an unzähligen Beispielen. Dennoch stehen sie für eine verständliche Themensprache, die Deutsche, Amerikaner oder Franzosen gleichermaßen verstehen. Die Vereinheitlichung gestaltet das gemeinsame Spiel deutlich flüssiger und umgeht auch bei Turnieren unnötige Barrikaden. Alle Teilnehmer, aus welchen Ländern sie auch stammen mögen, haben somit die gleichen Chancen auf den Sieg.

Grundlagen schaffen

Internationale Spiele oder sportliche Turniere kommen ohne eine gemeinsame Basis kaum aus. Events wie die Fußballweltmeisterschaft in Katar wären kaum denkbar, wenn sich bestimmte Begriffe im Spiel nicht einfach vermitteln ließen. Die Faktoren von Zeit, Stress, Druck und Kombinationsgabe verlangen einfache Ansagen, die keine Übersetzung benötigen. Auf Basis dieser Grundlagenverständigung sind Spiele über sämtliche Kontinente hinweg erst möglich und durchführbar.

Die Gaming-Community bietet ein weiteres passendes Beispiel für Sprache auf einer Ebene. Auch wenn sich typische Begriffe wie Score, Hub, Cheat oder Bug fast ausschließlich der englischen Sprache bedienen, wissen Gamer sofort, um was es sich dabei handelt. Die Wissenschaft hat diese Ebene schon lange für sich entdeckt: Seit Jahrhunderten werden wissenschaftliche Entdeckungen aus dem Pflanzen- oder Tierreich mit lateinischen Namen versehen, damit internationale Forschungen einen gemeinsamen Nenner besitzen.

Die Welt rückt zusammen

Dank der Digitalisierung rückt die Welt ein kleines bisschen enger zusammen. Kommunikationsweisen, die früher nur über langwierige Wege funktionierten, sind heute mit WhatsApp, E-Mail oder Messenger innerhalb von Sekunden möglich. Grenzen verschwimmen und machen besonders das Internet zu einem Ort, an dem Verständigung über eine eigene Sprache funktioniert.

Online Casinos nehmen dabei einen Raum ein, indem sie durch Live- oder Online-Spiele unterschiedliche Nationen an einen Tisch holen. Wer sich mit den Grundlagen auseinandersetzt und die wichtigsten Begriffe zuzuordnen weiß, der wird selbst bei Spielen mit fremdsprachigen Mitspielern keine Probleme haben, sich zurechtzufinden. Statt langen Erklärungen gibt es präzise Ansagen, die keine Fragen offenlassen. Vielleicht ist dies ein wichtiger Grund, weshalb sich Poker oder Blackjack im digitalen Raum großer Beliebtheit erfreuen. Zudem teilt die Community eine Sprache, die Abgrenzungen schafft und den Kreis des Besonderen umschließt.

Warum ist Pluto kein Planet mehr? Erklärung


Pluto war jahrelang als der neunte Planet unseres Sonnensystems bekannt. Mittlerweile zählt er aber laut Astronomen nicht mehr dazu und wird als Zwergplanet klassifiziert. Er liegt im sogenannten Kuipergürtel, einem großen Feld an Asteroiden und Kometen. Viele, die in der Schule noch den alten Fakt gelernt haben, sind immer wieder überrascht zu erfahren, dass Pluto nicht mehr zu den großen Planeten unseres Sonnensystems zählt. Wie ist diese Klassifizierung zugeordnet und warum zählt Pluto heutzutage nicht mehr als Planet?

Fakten zu Pluto

Der Zwergplanet liegt im Kuipergürtel, etwa 7,5 Milliarden Kilometer von der Erde entfernt. Diese Zahl schwankt aber je nach Orbit der beiden Himmelskörper. Sonnenlicht braucht rund sechs Stunden, bis es Pluto erreicht hat. Er hat einen Durchmesser von etwas mehr als 2300 Kilometer und ist somit etwas kleiner als unser Mond. Für eine Umrundung der Sonne braucht Pluto ganze 247,94 Erdjahre.

Seine Atmosphäre besteht zu 99 Prozent aus Stickstoff, mit Anteilen von Methan und Kohlenmonoxid. Die Oberfläche ist ca. -240 Grad kalt. Er besteht aus einer Schicht von Stickstoffeis, darunter Wassereis und der Kern aus Gestein. Die bisher besten Bilder wurden 2015 von der Raumsonde „New Horizons“ aufgenommen. Dabei zeigt sich Pluto in einem rot-weiß-blauen Ton. Der Zwergplanet hat aktuell fünf bekannte Monde: Charon, Nix, Hydra, Kerberos und Styx.

Die Entdeckung von Pluto

Offiziell wurde Pluto am 18. Februar 1930 entdeckt und damals als neunter Planet bezeichnet. Forscher haben bereits vermutet, dass sich nach Neptun noch ein weiterer Planet befinden muss, der die Umlaufbahnen der anderen vorherigen Planeten beeinflusst. Gefunden wurde er von Clyde W. Tombaugh, einem jungen Astronomen im Lowell-Observatorium. Wie auch alle anderen Planetennamen bezieht sich dieser auf die römische und griechische Mythologie. Pluto ist dabei der Herrscher der Unterwelt.

Pluto: Klassifizierung als Planet

Pluto wurde in den folgenden Jahrzehnten weiter erforscht. Es gab jedoch schon damals Diskussionen, ob Pluto jemals als Planet zählen sollte. Immerhin ist er kleiner als unser Mond. Die Unterhaltungen darüber fanden bereits Anfang der 1990er Jahre statt, da man die Größe und die stark elliptische Umlaufbahn des Planeten nicht ganz mit den anderen acht kategorisieren konnte. Man hatte zuerst nicht erwartet, dass Pluto in Wirklichkeit so klein ist.

In den Jahren danach wurden immer mehr solcher vermeintlichen Planeten gefunden, diese wurden „Plutinos“ genannt. Der Begriff umfasst alle Objekte aus dem Kuipergürtel, die dem Pluto ähneln. Es war also schon abzusehen, dass Pluto vielleicht nicht mehr lange den Status als neunten Planeten behalten konnte. Ansonsten hätten Astronomen die Klassifikation ändern müssen.

Pluto als Zwergplanet

Am 24. August 2006 wurde schließlich eine neue Klasse von Planeten eingeführt, die sogenannten Zwergplaneten. Pluto, mitsamt anderen Himmelskörpern, wurde in diese Klassifizierung gesteckt. Seitdem gilt Pluto nicht mehr als neunter Planet, da er dafür nicht die neu definierten Anforderungen erfüllt.

Die neue Definition für Planeten lautet:

  • 1. Objekt muss um die Sonne rotieren.
  • 2. Objekt muss genügend Masse und Rotation haben, um eine fast runde Form anzunehmen.
  • 3. Objekt muss frei von umliegenden kleineren Objekten sein, die diese durch die dominante Anziehungskraft in sich aufgenommen hat.

Laut dieser Definition fällt Pluto im dritten Punkt raus, da es andere Himmelskörper in der unmittelbaren Umgebung gibt. Dementsprechend mussten auch Schulbücher und Lehrpläne angepasst werden, da viele Pluto weiterhin als Planet sahen. Auch unter Astronomen gibt es weiterhin Streitigkeiten, ob Pluto nicht wieder als normaler Planet eingestuft werden soll. Bisher gibt es jedoch keine offiziellen Versuche, ihn wieder als neunten Planeten ins Sonnensystem aufzunehmen.

Woher kommt das ganze Salz im Meer? Erklärung


Im Laufe der Zeit entstanden Gebirge und sind wieder zerbrochen, woraufhin abgefallenes Gestein mithilfe des Wetters zersetzt werden konnte. Bei diesem Prozess werden die Salze mithilfe von Regen aus den Steinen gespült und anschließend durch Bäche und Flüsse ins oder ans Meer befördert.

Woher kommt das ganze Salz im Meer? Erklärung

Diese Erklärung findet sich im gesamten Internet und in nahezu jedem themenverwandten Buch, jedoch handelt es sich hierbei nur um eine Seite der Münze, die in den meisten Lexika präsentiert wird. Folgt man dieser Logik, so müsste doch nachweislich immer mehr Salz im Meer landen?

In der Realität verhält es sich jedoch anders als man meist annimmt, denn die meisten Salze setzen sich irgendwann am Meeresboden ab und versickern. Somit kann eine wirklich enorm große Menge Salz im Meer gespeichert werden.

Einigen speziellen Salzen, wie etwa dem Kalzium, gelingt das sogar ganz gut. Immerhin existiert es unter Wasser vor allem als Kalkschale, welche unter anderem für Korallen und Muscheln essenziell ist.

Irgendwann sind die Salzablagerungen an einer Stelle des Meeres derart hoch, als dass sich im Laufe von Millionen von Jahren ein Gebirge daraus auffaltet. Sobald dieses dann anfängt zu bröckeln, schließt sich der Salzkreislauf wieder.

Ein weiterer Faktor sind die vielen vom Mensch geschaffenen Dämme, Landhebungen und Senkungen. Diese kappen die Verbindung zwischen dem Meer und den Flüssen, sodass sich an den entsprechenden Stellen ein großer Teil der Salze in den Flüssen absetzt. Verdunstet nun ein Teil oder der gesamte Fluss während eines sehr heißen Sommers, bleibt eine Menge Salz zurück.

Diese ausgetrockneten Salzseen hinterlassen gigantische Salzblöcke, die meterhoch in die Luft ragen. Besonders bekannt sind in diesem Zusammenhang deutschlandweit etwa das Kavernengelände in Wilhelmshaven oder aber die Salzstöcke in Gorleben.

Bald gibt es keine Salzmeere mehr

Wissenschaftler aus aller Welt sind sich mittlerweile einig: In etwa 100 Millionen Jahren wird das Mittelmeer nur noch Geschichte sein, denn die Menge an Salz wird irgendwann auch Gebirge im Meer produzieren und das Wasser in riesige Seen umschichten.

Ein äußerst interessantes Phänomen ist unter anderem, dass Meerwasser erst bei -2°C gefriert. Dies hat vor allem mit dem erhöhten Salzgehalt zu tun, welcher dem Wasser eine hohe Stabilität verleiht.

Auch unsere Körperflüssigkeiten sind voller verschiedener Salzverbindungen, die denen im Meer gleichen. Tränen oder Schweiß sind hierbei sehr gute Beispiele, denn jeder weiß, dass diese Flüssigkeiten salzig schmecken. Somit ist im menschlichen Körper nachweislich eine Menge Salz vorhanden. Im Prinzip tragen wir das Weltmeer in einer verkleinerten Form ständig mit uns herum.

Vor allem Nationalparks brüsten sich des Öfteren mit ihren salzigen Attraktionen. Diese sind in einigen Teilen Deutschlands recht nah ans Meer gebaut worden und daher direkt vom Salz betroffen. Den erhöhten Salzgehalt in der Luft schmeckt man zum Beispiel am Wattenmeer.

Hier kann die salzige Seeluft die Gesundheit fördern und die inneren Abwehrkräfte aktivieren. Besonders salzhaltige Gewässer hinterlassen meist eine Salzkruste auf den Badesachen. Somit weiß man in einem solchen Fall direkt, dass es sich um eine hohe Konzentration handelt.

Die Pflanzen und Tiere, die in solch salzigen Gegenden überleben möchten, müssen sich sehr kreative Wege einfallen lassen, wie sie regelmäßig an Süßwasser (bzw. Frischwasser) kommen. Das frische Salzwasser bahnt sich nämlich zunehmend neue Wege in Richtung Meer.

Warum ist der Uluru heilig? Erklärung


863 Meter über dem Meersspiegel thront der Uluru, zwischenzeitlich auch als Ayers Rock bekannt, über das australische Outback. Der im Sonnenuntergang rot leuchtende Berg gehört zu den heiligen Stätten der Anangu. Denn der Berg hat mythologisch eine enge Verknüpfung zur sogenannten Traumzeit, dem Entstehungsmythos der Anangu. Lange vernachlässigt, kristallisierte sich über die letzten Jahrzehnte in Australien und westlichen Ländern das Verständnis für die heilige Bedeutung des Berges heraus.

Der Uluru gehört zu den imposanten Landmarken mitten in der zentralen Wüste Australiens, des Outbacks. Auf einer Länge von drei Kilometern streckt sich das Paradebeispiel eines sogenannten Inselbergs aus: Ein einsamer Berg, der kein Teil einer Gebirgskette ist. Nicht umsonst gehört der Berg als Teil des Uluru-Kata Tjuta National Parks heute zum UNESCO-Weltkulturerbe.

Doch seit der Etablierung des Nationalparks hat sich vor Ort ein problematisches Phänomen entwickelt: Touristische Besucher bestiegen den Berg in Scharen. Das Verhalten der Reisenden führte schon in den 90ern zu Schildern mit der Aufforderung, den Berg nicht zu besteigen. Doch noch 2010 erstieg laut statistischer Forschung etwa ein Drittel der Besucher, darunter viele Familien mit Kindern, den heiligen Berg. Seit 2019 ist die Besteigung des Uluru offiziell verboten. Denn der Uluru ist ein heiliger Berg der Anangu.

Entstehung und Kulturgeschichte des Uluru

Nach wissenschaftlichem Verständnis entstand der Uluru in einem frühen Meer der Erde, das sich im sogenannten Amadeus-Becken Australiens entfaltete. Dort wurden schon vor hunderten Millionen Jahren neue geologische Formationen als Grundlage der heutigen Region erschaffen. Der Uluru selbst soll vor etwa 65 Millionen Jahren beim Übergang von der Kreidezeit ins Tertiär entstanden sein, – etwa zu jener Zeit, als die Dinosaurier ihrem Ende entgegensahen. Dabei setzt sich der Uluru aus der Gesteinsart Arkose zusammen, die für ihre auffälligen Mineralien bekannt ist.

Weit vor der westlichen Kolonialisierung Australiens existierte hier das Volk der Anangu, die den Aborigines zugeordnet werden. Seit mehr als 10.000 Jahren leben diese Ureinwohner Australiens in der Region. Die Anangu betrachten sich auch dank ihrer langen Geschichte vor Ort als rechtmäßige Besitzer des Landes, auf dem der Uluru steht. Der Name Anangu bedeutet übersetzt etwas wie menschliches Wesen, menschlicher Körper oder Person. Die heimischen Anwohner verehrten den Uluru seit jeher als heiligen Berg.

Doch vieles änderte sich mit der Entdeckung und Kolonialisierung Australiens durch europäische Einwanderer – ausgelöst von Seefahrern und Entdeckern wie Willem Jansz und James Cook. Der britisch-australische Entdecker William Gosse sah den Berg 1873 als erster Europäer und taufte ihn mit dem Titel Ayers Rock, ein Kolonialname, der sich lange als offizielle Bezeichnung hielt. Das Gebiet wurde um 1920 erst zu einem Reservat für die Ureinwohner, in den 50er-Jahren schließlich entstand der heutige Nationalpark. Es kam zu einer schleichenden Enteignung, deren man sich in den 70er- und 80er-Jahren gewahr wurde. 1976 wurden der Aboriginal Land Rights Act verabschiedet, 1985 folgte die Rückkehr des Eigentums in die Hand der Anangu. Doch bald stellte sich für die Ureinwohner ein weiteres Problem ein: der Tourismus.

Warum ist der Uluru heilig? Erklärung

Die Anangu kannten den roten Berg im Outback schon lange unter dem Namen Uluru – international hat sich erst in den letzten Jahren der ursprüngliche Name gegenüber dem lange geläufigen Ayers Rock durchgesetzt. Das hat gute Gründe: Denn die Geschichte des Uluru ist eng mit der Historie der Anangu verwoben. Der Uluru spielt eine wichtige Rolle im Entstehungsmythos der Anangu, der sogenannten Traumzeit. Während der Traumzeit wurde alles Lebende auf der Erde erschaffen, so der Mythos. Die Geister der Vorväter kamen auf die Erde hinab und erschufen Landschaft und Leben. In dieser Geschichte spielt der Uluru eine spirituelle und ritualistische Rolle.

Die schöpferischen Geister aus dem Traumzeit-Mythos der Anangu sollen auch heute noch auf dem Grund ihres Landes wandeln. Nach einer populären Überlieferung sollen zwei sagenumwobene Stämme vor Ort in einen kriegerischen Konflikt verfallen sein – und aus dem Leid und ihren Geistern erhob sich der Uluru als Antwort aus der Erde. Überliefert sind verschiedene Varianten des Mythos, doch einen Zweifel an der Bedeutung des Uluru für die Anangu gibt es nicht.

An den Wänden und Höhlen des Uluru lassen sich bis heute zahlreiche Wandgemälde und Felszeichnungen entdecken, welche die lange und eindrucksvolle Geschichte des heiligen Bergs unterstreichen. Noch immer besitzt der Uluru spirituelle und rituelle Bedeutung für die Anangu. Daher gehört es zu der logischen Konsequenz, die Stätte des Uluru in die Hände der urprünglichen Landbesitzer zurückzuführen, und den Namen Ayers Rock in Uluru abzuändern.

Tourismus und der Uluru

Der Status als Nationalpark und die Anerkennung des Uluru als UNESCO-Weltkulturerbe bescherte dem Naturwunder große touristische Aufmerksamkeit. Von der europäischen Entdeckung des Bergs durch William Gosse und die folgende Umbenennung in Ayers Rock im 18. Jahrhundert über die Einrichtung eines Reservats auf dem Grund des heutigen Nationalparks in den 20er-Jahren des 20. Jahrhunderts bis zur touristischen Flut ab der Ernennung zum Nationalpark in den 50ern umweht die heilige Landschaft des Uluru eine fragwürdige Kolonialgeschichte.

Wie bereits angedeutet, konnten es sich viele Touristen nicht nehmen lassen, den Berg zu besteigen. „Please Don’t Climb“ – Schilder mit dieser Aufforderung tauchten ab den 90er-Jahren vor Ort auf. Doch es nützte nichts, um 2010 bestieg noch immer etwa ein Drittel der Besucher den heiligen Berg. Die Besucher trampelten so wortwörtlich nicht nur auf dem spirituellen Erbe der Anangu herum, auch wurden teilweise Felszeichnungen beschädigt und verstärkte Spuren hinterlassen. Seit 2019 ist das Besteigen des Uluru verboten.

Seit dem ersten Tiefpunkt Mitte des 20. Jahrhunderts hat sich der Umgang mit dem kulturellen Erbe der Anangu sichtbar verändert. Nicht nur ist das Besteigen des Uluru mittlerweile verboten, ausgewählte heilige Stätten dürfen nicht fotografiert oder auf Video festgehalten werden. Auch kommt es zur Schließung der Parkregion, wenn die Anangu eines ihrer heiligen Rituale am Berg abhalten. Auf diesem Weg versucht man mittlerweile, die Bedürfnisse der Anangu und ihr Heiliges Erbe zu schützen – und dennoch Touristen die Möglichkeit zu geben, den Berg auf ausgewählten Routen ohne Besteigung zu sehen. Dass der Uluru mehr als irgendein schön aussehender Berg ist, ist mittlerweile innerhalb Australiens aber auch international anerkannt. Er ist seit Tausenden von Jahren eine heilige Stätte der Anangu.

Warum hassen Katzen Wasser? Erklärung


Katzen stehen mit Wasser auf Kriegsfuß. Wasserpistolen oder Pflanzensprüher werden bevorzugt verwendet, um die Tiere zu bestrafen und zu maßregeln. Tatsächlich schrecken die meisten Katzen vor Wasser zurück. Dieser Umstand erstaunt und überrascht, denn Großkatzen wie Leopard, Tiger oder Luchs scheuen das nasse Element nicht und nutzen es als Abkühlung und Jagdrevier. Nun stellt sich die Frage, warum meiden Stubentiger das kühle Nass und sind Katzen wirklich wasserscheu?

Warum hassen Katzen Wasser? Erklärung

Katzen pflegen akribisch ihr Fell. Mehrere Stunden täglich werden mit Fellpflege verbracht. Die Vermeidungshaltung gegenüber dem Kontakt mit Wasser steht in direktem Zusammenhang mit der Beschaffenheit des Fells.

Wasser verändert die Fellstruktur. Das Haarkleid nimmt an Gewicht zu und verklebt. Katzen vermeiden daher jeden Kontakt mit Wasser. Ein nasses und verklebtes Katzenfell ist auf Beutezügen hinderlich und erschwert das Klettern und Balancieren. Außerdem benötigt das recht dicke Haarkleid längere Zeit zum Trocknen. Katzen fühlen sich mit einem nassen Fell buchstäblich nicht wohl in ihrer Haut und schützen ihre Haarpracht daher vor dem Kontakt mit Feuchtigkeit.

Katzen putzen sich nicht nur ausgiebig, damit das Fell glänzt und gut gepflegt erscheint. Die Kommunikation unter Artgenossen konzentriert sich auf Gerüche. Am Maul und Schwanz der Tiere befinden sich die Pheromondrüsen. Diese geben einen individuellen Duftstoff ab. Damit verständigen sich die Tiere untereinander und markieren ihr Revier.

Beim Putzen werden die Pheromone über die Katzenzunge im Fell verteilt. Der Kontakt mit Wasser würde die Duftmarker wieder entfernen. Daher ist das Verlieren ihres spezifischen Duftes ein weiterer Grund, warum Katzen Wasser meiden.

Katzen und Wasser: Ausnahmeregelung

Bei näherer Beobachtung zeigt sich, dass Katzen Wasser nicht komplett ablehnen, sondern sogar eine ausgesprochene Faszination dafür entwickeln können. So mancher Stubentiger verbringt Stunden vor dem Wasserhahn und zeigt Interesse an Katzenbrunnen, Dusche oder Klospülung.

Tierärzte sehen den Grund in der Begeisterung für fließendes Wasser in der Bewegung an sich, dem damit verbundenen Geräusch und den entstehenden Lichtspielen. Dadurch kann der Beutetrieb der Tiere stimuliert werden.

Wissenschaftler ziehen auch die Möglichkeit in Betracht, dass Katzen einer Weiterentwicklung folgen und sauberes Leitungswasser den stehenden Gewässern in der freien Natur vorziehen. Dies sind jedoch nur Spekulationen.

Geschichte: Warum hassen Katzen Wasser?

Die Abneigung für Wasser lässt sich auch mit der Geschichte der Spezies begründen. Unsere Hauskatzen sind direkte Nachfahren der Felis silvestris lybica. Diese kleine Wildkatze lebte im Nahen Osten, in trockenen Wüstenlandschaften. In der Heimat der kätzischen Vorfahren herrschte Wasserknappheit.

Die Wildkatzen nahmen lieber Sonnenbäder, anstatt im Wasser zu planschen. Die Angewohnheit, Fell und Pfoten trocken zuhalten und gerne an sonnigen Fleckchen vor sich hin zu dösen, scheinen die wilden Vorfahren an unsere zahmen Hauskatzen weitergegeben zu haben.

In der freien Natur nahmen wilde Katzen das meiste Wasser über die feste Nahrung, die sie zu sich nahmen, auf. Nur wenn Katzen dehydriert waren, zog es sie an die offenen Wasserstellen. Theorien besagen, dass unsere domestizierten Hauskatzen nur den Wassernapf aufsuchen, weil die verabreichte Nahrung eigentlich viel zu wenig Flüssigkeit enthält und zu einer Dehydrierung führen würde.

Dies betrifft besonders Tiere, die allein mit Trockenfutter ernährt werden. Dies stellt generell ein Risiko dar, weil Katzen dann zwar mehr Feuchtigkeit aufnehmen, jedoch meist nicht genug trinken, um den Feuchtigkeitshaushalt wirklich auszugleichen.

Paradoxes

Die meisten Hauskatzen hassen Wasser. Sie würden nie freiwillig ein Bad nehmen, obwohl sie gute Schwimmer sind. Doch Ausnahmen bestätigten die Regel. Einige Katzenrassen entwickeln sogar eine Affinität für das nasse Element.

Folgende Rassen sind dem Wasser nicht abgeneigt:

  • Norwegische Waldkatze
  • Bengalkatze
  • Amerikanisch Kurzhaar
  • Abessinier
  • Maine Coon
  • Türkisch Van

Diese Katzenrassen besitzen eine andere Haarstruktur. Das Fell ist widerstandsfähiger gegenüber Feuchtigkeit und vermittelt den Tieren bei direktem Kontakt kein unangenehmes Gefühl. Die genannten Rassen sind zugleich allesamt Katzen, die sich mit Hunden gut arrangieren können. Ob dies als Zufall gewertet werden kann, ist wissenschaftlich nicht bekannt.

Katzen und Wasser: Umgewöhnung

Wer Katzen mit dem Wasser vertraut machen möchte, sollte möglichst früh damit beginnen. Die wichtigsten Dinge für ihr weiteres Leben lernen Kitten im Alter von drei bis 16 Wochen. Während dieser Zeit können Katzenhalter versuchen, die Tiere langsam an das feuchte Element heranzuführen. Spielzeuge und Leckerlis können dabei Unterstützung leisten.

Auch ältere Katzen können mit dem Wasser vertraut gemacht werden. Dies wird allerdings etwas mehr Geduld erfordern. Vernachlässigen ältere Tiere ihre Körperpflege, kann ein Bad notwendig werden. Die meisten Katzen werden das Wasser zwar nicht mögen, können aber durchaus lernen, ein Bad zu tolerieren.

Woraus wird Gelatine hergestellt? Herstellung, Erklärung


Gelatine ist ein Produkt, das gerade in der Lebensmittelindustrie häufig zum Einsatz kommt. Es handelt sich dabei um einen Lebensmittelzusatz, mit dem sich beispielsweise Flüssigkeiten wie Soßen andicken und zu einer gelartigen Masse verarbeiten lassen. Aber woher kommt die Gelatine eigentlich und wie wird sie hergestellt?

Der Grundstoff der Gelatine

Gelatine besteht aus einem Protein namens Kollagen, das sich bei den Menschen und auch bei einigen Tieren findet. Kollagen ist unter anderem in den Zähnen, Knochen, den Sehnen, Knorpel, Bändern und in der Haut enthalten und sorgt für Stabilität und Straffheit.

Der Name “Kollagen” kommt aus dem Griechischen und bedeutet so viel wie “Leim erzeugend”. Damit wird darauf angespielt, dass in früheren Zeiten unter anderem im Tischlerei-Handwerk der Leim für die Möbel aus den Knochen von Tieren hergestellt wurde.

Für die Herstellung von Gelatine werden auch heutzutage noch tierische Produkte wie die Fettschichten von Schweinen oder die Häute von Rindern verwendet.

Wie wird Gelatine hergestellt?

Um Gelatine herzustellen, sind verschiedene Herstellungsprozesse notwendig, die nur in großen Fabriken erfolgen können:

Die Vorbehandlung:

Zunächst wird das zu verarbeitende Bindegewebe chemisch vorbehandelt, um das Kollagen aus dem Gewebe zu lösen. Bei Bindegewebe vom Rind wird ein alkalisches Verfahren angewendet. Hierbei wird das entfettete und Salz-befreite Gewebe erst zerkleinert und danach mehrere Wochen in alkalische Laugen eingelegt. Da das Kollagen im Bindegewebe von Rindern stark vernetzt ist, müssen die Laugen die einzelnen Verbindungen erst aufbrechen, bevor das Kollagen aus dem Gewebe gelöst werden kann.

Beim Bindegewebe vom Schwein ist das Kollagen dagegen eher locker vernetzt. Aus diesem Grund kann das Protein in einem sogenannten Säureverfahren durch spezielle Säuren innerhalb eines Tages von den tierischen Fasern getrennt und weiterverarbeitet werden.

Die Extraktion:

Nach der Vorbehandlung liegt das Kollagen in einer Lösung vor, in der aber noch die tierischen Restfasern sowie nicht benötigte Fette enthalten sind. Um diese Nebenprodukte vom Kollagen zu trennen, wird die Proteinlösung mit Wasser angereichert und anschließend in einer Zentrifuge behandelt. Durch die schnellen Drehungen der Zentrifuge werden schwere Bestandteile wie beispielsweise Fett oder Tiermasse aus der Flüssigkeit herausgetrieben und lassen sich gut entfernen.

Die Reinigung:

Um das Kollagen von Salzen, Calcium, Natrium und Resten der Säuren und Basen zu befreien, wird die Lösung in sogenannte Hochleistungsseparatoren geleitet. Es handelt sich dabei um spezielle Filter aus Keramik, die viele kleine Poren haben, durch die nur die reine Kollagenflüssigkeit laufen kann. Um den Vorgang zu beschleunigen, wird die Kollagenflüssigkeit allerdings unter hohem Druck durch die Filter gepresst. Andernfalls würde allein der Reinigungsprozess mehrere Tage dauern.

Um auch letzte Mikrospuren von Salzen aus der Lösung zu entfernen, wird in einem weiteren Reinigungsschritt die Flüssigkeit durch industrielle Behälter geleitet, in denen sich kleine Kunstharz-Kugeln befinden. Die Salzrückstände bleiben an diesen Kügelchen haften, sodass am Ende nur noch das in Wasser gelöste Kollagen aus dem Behälter herausgelangt.

Die Eindickung:

Im nächsten Schritt wird die Flüssigkeit in Vakuum-Eindampfbehälter geleitet und mehrfach erhitzt. Weil das Ganze in einem luftleeren Raum (Vakuum) abläuft, reichen bereits geringe Temperaturen aus, damit die Wasserbestandteile verdampfen. Außerdem bleiben so die Protein-Fasern erhalten, die sehr hitzeempfindlich sind und sich bei Temperaturen über 50°C auflösen würden.

Nach der Eindickung liegt das reine Kollagen als dunkelbraune, dickflüssige Masse vor. Rein optisch erinnert diese Masse an Honig.

Das Trocknen:

In einem letzten Verfahren wird die honigfarbene Masse einmal kurz erhitzt, um Keime abzutöten. Anschließend wird sie heruntergekühlt und durch spezielle Lochscheiben gepresst. Es entstehen sogenannte Gelee-Nudeln. Diese Nudeln werden abschließend mit steriler, warmer Luft getrocknet und danach in großen Mühlen zu feinem Gelatine-Pulver gemahlen. In der Industrie wird dieses Pulver zum Andicken der Lebensmittel verwendet. Für den Gebrauch zuhause gibt es Gelatine aber auch in dünnen Platten. Um diese Platten zu erzeugen, wird das Gelatine-Pulver erneut in Wasser gelöst und auf breite Kühltrommeln aufgetragen. Es entsteht ein hauchdünner Film, der anschließend einen letzten Trocknungsprozess durchläuft und dann in kleine Platten zerschnitten wird, wodurch sich die Gelatine zuhause besser portionieren lässt.

Verwendung von Gelatine

Gelatine findet sich in vielen Süßspeisen und Süßigkeiten. Gumminaschwerk besteht zu einem Großteil aus Gelatine, aber auch für Wackelpudding oder für Tortenfüllungen wird das Produkt benötigt. Da es geschmacksneutral ist, dickt es Speisen nur an, ohne ihren Geschmack in irgendeiner Weise zu verändern.

Warum hat man Ohrenschmalz? Erklärung


Ohrenschmalz ist ein wachsartiges Sekret, welches Mediziner auch als Cerumen oder Zerumen bezeichnen. Es handelt sich um eine Absonderung der Ohrenschmalzdrüsen, welche bei jedem Menschen vorkommt. Die Substanz entsteht im äußeren Gehörgang. Ohrenschmalz kann von Mensch zu Mensch in unterschiedlicher Masse, Farbe und Konsistenz auftreten.

Funktion von Ohrenschmalz

Alle Säugetiere produzieren Ohrenschmalz. Die fettige, gelbe bis bräunliche Substanz hält die Haut im Gehörgang feucht und sorgt dafür, dass abgestorbene Hautzellen, Staub und Schmutz aus dem Ohr abtransportiert werden.

Ohrenschmalz verflüssigt sich in Verbindung mit Talg und kleidet den äußeren Gehörgang mit einer Schutzschicht aus. Mit der Aufnahme von Staub und Schmutzpartikeln verdickt sich das Sekret zusehends.

Das Sekret ist mit antibakteriell wirkenden Stoffen angereichert und hält Insekten oder andere kleinere Fremdkörper davon ab, in den Gehörgang vorzudringen. Wäre kein Ohrenschmalz vorhanden, würde es durch häufiges Waschen oder Schwimmen zu starken Ohrenschmerzen kommen.

Damit besitzt Ohrenschmalz folgende hauptsächlichen Funktionen:

  • Schmieren der Haut im Gehörgang
  • Schutz vor dem Eindringen von Staub, Bakterien oder Fremdkörpern
  • Selbstreinigung des Gehörgangs (Ohrenschmalz wird durch den Kauvorgang zum Außenohr transportiert)

Inhaltsstoffe von Ohrenschmalz

Ohrenschmalz ist eine vielschichtige Substanz aus Fetten, Talg und Wachs. Bislang konnten beinahe 1.000 unterschiedliche Inhaltsstoffe nachgewiesen werden.

Der Inhaltsstoff Lysozym besitzt eine antibakterielle Wirkung und kann Keime und Mikroorganismen abhalten, in den Gehörgang vorzudringen.

Die Inhaltsstoffe im Einzelnen:

  • Kohlenwasserstoffe
  • Wachsester
  • Cholesterin
  • Cholesterinester
  • Triglyceride
  • Squalen
  • Fettsäuren
  • Hydroxysäuren

Eigenschaften von Ohrenschmalz

Der menschliche Gehörgang besitzt eine Länge von etwa drei Zentimetern. Ohrenschmalz wird im äußeren Drittel gebildet. Dort befinden sich die Ceruminaldrüsen. Die Haut des Gehörgangs wächst nach außen und sorgt für eine gleichmäßige Verteilung des Sekrets im äußeren Gehörgang.

Ohrenschmalz ist eine geruchlose Substanz. Sondert das Sekret Gerüche ab, liegt in der Regel eine Infektion der Ohren vor. Das Farbspektrum kann variieren und reicht dabei von einem hellen Gelb über Bernsteinfarben bis hin zu Dunkelbraun.

Die Eigenschaften des Sekrets sind abhängig von der Beschaffenheit und dem Alter der Masse. Auch Alter und Geschlecht des Menschen spielen eine Rolle. Hormonelle Einflüsse sorgen ebenfalls für eine veränderte Beschaffenheit des Schmalzes. So wird Ohrenschmalz mit zunehmendem Lebensalter trockener. Bei Europäern dominiert klebriger bis öliger Ohrenschmalz, während Asiaten trockenen und pulverartigen Schmalz besitzen.

Risiken von Ohrenschmalz

Kommt es zu einer Überproduktion von Cerumen, kann der Gehörgang komplett verschlossen werden. Es entsteht ein Ohrenschmalzpfropf, welcher immer tiefer in den trichterförmig verlaufenden Gehörgang geschoben wird und zu Ohrenschmerzen und Gehörverlust führen kann.

Wattestäbchen und Ohrenschmalz

Obwohl Wattestäbchen seit Jahren im Handel sind und für die Reinigung der Ohren empfohlen werden, ist davon dringend abzuraten. Die Stäbchen eignen sich zwar für die Säuberung des Außenohres, können ab Cerumen im Gehörgang nicht entfernen. Das Sekret wird stattdessen nach hinten geschoben und verhärtet zu einem Pfropf. Dabei entsteht vermehrter Druck auf das Trommelfell und die Hörleistung schwindet.

Die allgemeine Beliebtheit von Wattestäbchen für die Ohrreinigung lässt sich vermutlich mit der bei den ausgeführten Bewegungen ausgelösten Stimulation des Vagusnervs begründen. Das dadurch auftretende angenehme Gefühl verstärkt den Impuls dieses weit verbreiteten Fehlverhaltens.

Behandlung: Ohrenschmalz

Ist der Abtransport des Sekrets gestört, lassen sich verstopfte Ohren nur mit Flüssigkeit säubern. Während des Badens oder Duschens lässt man sich lauwarmes Wasser ins Ohr laufen. Durch intensive Kaubewegungen kann versucht werden, das Sekret zu lösen und zum Außenohr zu befördern. Der Abfluss von Ohrenschmalz wird erleichtert, wenn man das Ohr dabei zur Seite neigt.

Hartnäckige Verstopfungen können mit apothekenpflichtigen Lösungen und Sprays behandelt werden. Bessern sich die Beschwerden nicht, ist ein Hals-Nasen-Ohren-Arzt aufzusuchen.

Hausmittel gegen Ohrenschmalz

Gegen festsitzenden Ohrenschmalz können folgende Hausmittel helfen:

Salzwasser

Auf 100 Milliliter warmes Wasser kann ein Teelöffel Salz gegeben werden. Die Verwendung einer Ballonspritze kann das Einführen der Lösung in den Gehörgang erleichtern. Nach etwa 15 Minuten sollte das Wasser entfernt und das Ohr gereinigt werden.

Öl

Bei der Ohrreinigung mit Öl sollte zu Mandelöl oder Olivenöl gegriffen werden. Das Öl sollte auf Körpertemperatur erhitzt werden. Mithilfe einer Pipette werden einige Tropfen der Lösung ins Ohr geträufelt. Das Öl sollte etwa fünf Minuten im zur Seite geneigten Ohr einwirken. Anschließend werden die Ohren mit lauwarmem Wasser gespült.

Dampf

Mit Wasserdampf lassen sich die Ohren besonders schonend von überschüssigem Ohrenschmalz befreien. Einer Schüssel mit heißem Wasser werden einige Kamillenblüten zugegeben. Die Ohren können bis zu einer Viertelstunde über den aufsteigenden Wasserdampf gehalten werden. Durch ein um den Kopf geschlungenes Tuch verstärkt sich die Wirkung.

Vorbeugung: Ohrenschmalz

Stellt der Körper vermehrt Cerumen her, können folgende Maßnahmen schützen und die Ohrgesundheit erhalten:

  • lediglich die Ohrmuschel wird gereinigt
  • kein Einführen von Wattestäbchen, Haarklemmen oder anderen ungeeigneten Gegenständen in das Innenohr
  • Ohrstöpsel vermeiden, dies hemmt die Selbstreinigung des Gehörgangs
  • regelmäßige Vorsorgeuntersuchungen beim HNO
  • regelmäßige professionelle Reinigung von Hörgeräten
Warum ist der schiefe Turm von Pisa schief? Erklärung


Der Schiefe Turm von Pisa wurde ab dem Jahr 1173 als separater Glockenturm für den bereits bestehenden Dom von Pisa erbaut. Er besitzt eine Höhe von 55,8 Metern bei einer aktuellen Abweichung von 3,9 Metern an der Spitze. Die ursprünglich geplante Höhe von 100 Metern ließ sich aufgrund der eintretenden Neigung nicht mehr verwirklichen.

Ursachen für die Absenkung des Glockenturms: Schiefer Turm von Pisa

Die Stabilität eines Turmes hängt von seiner Höhe, seiner Grundfläche und der Art des verwendeten Materials ab. Ein Fundament unterhalb eines Gebäudes dient dazu, das Gewicht auf den Untergrund zu verteilen, sodass dieser nicht nachgibt und keine Schäden am Bauwerk entstehen. Aus diesem Grund ist auch der vorhandene Boden für die Stabilität zu berücksichtigen.

Bei der Planung des Turmes entschied sich der Architekt für ein drei Meter tiefes Fundament aus Zement und Bruchstein. Bei dieser Entscheidung schenkte er allerdings dem morastigen und sandigen Untergrund zu wenig Beachtung. In der Antike befand sich an dieser Stelle ein Hafenbecken am Rande einer Insel, das durch den angeschwemmten Schlamm des Flusses Arno allmählich versandete. Im Jahr 1173 war dieser Bereich bereits vollständig verlandet, während die Setzung des Bodens weiter andauerte.

Das hohe Gewicht von 14.500 Tonnen bewirkt nicht nur eine Absenkung des Turmes, sondern bewirkt aufgrund des weichen Untergrundes auch eine Drehung um seine eigene Achse. Die Entscheidung für ein rundes Gebäude verstärkte die Probleme: Es lässt sich gegenüber einem eckigen Turm deutlich schwerer ausbalancieren. Gleichzeitig bewahrte der weiche Untergrund das Bauwerk allerdings vor Erschütterungen durch wiederholte Erdbeben.

Schiefer Turm von Pisa: Ablauf der Bauarbeiten und Änderungen in der Planung

Der Glockenturm von Pisa senkte sich bereits während der Bauphase, sodass die Arbeiten ab dem Jahr 1185 zunächst für 90 Jahre unterbrochen wurden. Zu diesem Zeitpunkt waren erst drei Stockwerke fertiggestellt. Um die Absenkung auszugleichen, beschlossen die Erbauer nach Wiederaufnahme der Arbeiten, bei der Konstruktion der nächsten vier Stockwerke den Neigungswinkel anzupassen. Aus diesem Grund lässt sich bei genauer Betrachtung erkennen, dass der Turm ab dem vierten Stockwerk nicht gerade, sondern krumm in die Höhe wächst.

Als weitere Maßnahmen entschied man sich auf der überhängenden Seite des Bauwerks für die Verwendung leichterer Materialien. Dies alles verhinderte jedoch nicht, dass im Jahr 1350 die Abweichung an der Turmspitze bereits 1,4 Meter betrug und verzögerte die Fertigstellung des Gebäudes weiter. Die Glockenstube über dem siebten Stockwerk konnte aus diesem Grund erst 1372 vollendet werden.

Schiefer Turm von Pisa: Sanierungsarbeiten in neuerer Zeit

Im Laufe der Jahrhunderte versuchte man immer wieder, durch eine Sanierung des Turms dessen Neigung zu verlangsamen. Im Jahr 1835 entfernte der Architekt Alessandro Gherardesca den schlammigen Boden unterhalb des Bauwerkes und ersetzte ihn durch ein Fundament aus Marmor. Diese Maßnahme vermochte eine weitere Absenkung allerdings nicht zu verhindern, sodass sich bis 1918 die Neigung an der Spitze auf 5,1 Meter verstärkte. Bis zum Jahr 1990 senkte sich der Turm jährlich um weitere 1 – 1,2 Millimeter ab und erreichte schließlich eine Abweichung von 5,5 Grad.

Dies gab den Ausschlag zu ausgedehnten Sanierungsarbeiten in den Jahren 1990 – 2003. Nachdem die Positionierung von Bleigewichten und Stahlreifen sowie die Verankerung mit Stahlseilen nicht den gewünschten Erfolg zeigten, entfernte man durch schräge Bohrungen tonnenweise Bodenmaterial unter der Nordseite des Turms. Zeitgleich bewirkten Gewichte an der Nordseite ein langsames Aufrichten des Bauwerks. Der Neigungswinkel hat sich seitdem um 44 cm vermindert.

Der Schiefe Turm von Pisa ist zwar weltberühmt, aber nicht einzigartig. Weltweit finden sich weitere Beispiele von Gebäuden, bei denen der instabile Untergrund im Laufe der Zeit zu einer Neigung geführt hat. In Venedig fällt sofort der schiefe Turm der Kirche San Giorgio dei Greci ins Auge – wie die ganze Stadt wurde er auf Pfählen im schlammigen Untergrund errichtet. Darüber hinaus existieren auch Bauwerke mit einem noch stärkeren Neigungswinkel: Mit 5,2 Grad überbietet der Glockenturm von Gau-Weinheim seit 1990 den Turm von Pisa.

Warum hat die Woche sieben Tage? Erklärung


Die Sieben Tage-Woche existiert nun bereits seit Jahrtausenden. Der Ursprung dieser Zeitrechnung lässt sich bis in das alte Babylon zurückverfolgen, wo bereits mit einer Woche von sieben Tagen kalkuliert wurde. Auch in den Weltreligionen tauchte die Woche aus sieben Tagen früh auf. In der Tora und in der Bibel hatte die Woche sieben Tage. Berühmt ist der Spruch: Gott erschuf die Welt in sieben Tagen. Die Woche aus sieben Tagen hat also vor allem historische und religiöse Wurzeln. Doch lässt sie sich auch wissenschaftlich bzw. logisch erklären?

Warum hat die Woche sieben Tage? Erklärung

Die Woche ist wie Jahre, Monate und Tage eine etablierte Zeiteinheit – und definiert heute das Leben von Milliarden von Menschen. Doch während Jahre, Monate und Tage sinnvoll an die Zyklen von Erde, Mond und Sonne gebunden sind, lässt sich eine Woche aus sieben Tagen wissenschaftlich wesentlich schwerer erklären. In gewisser Weise ist die Woche ein Sonderfall, der zwischen Zeitrechnungen von Sekunden bis Jahrhunderten heraussticht. Die Woche aus sieben Tagen scheint mehr eine historische Setzung, als eine logische Notwendigkeit zu sein. Tatsächlich gab es in der Vergangenheit verschiedenen Kulturen, die Wochen aus fünf, acht oder zehn Tagen nutzten. Gegenüber dem Modell der Woche mit sieben Tagen gäbe es historisch also mehrere Alternativen.

Die Woche aus sieben Tagen passt nicht perfekt in die Zeitrechnung eines Jahres. Ursprünglich erschaffen, um einen Monat aus 28 Tagen in vier Wocheneinheiten aus sieben Tagen zu unterteilen, wirkt diese Form der Woche in Monaten mit 30 oder 31-Tagen vergleichsweise chaotisch. Doch Versuche, die Woche zu reformieren, scheiterten in der Vergangenheit an Gewohnheiten und religiösen Befindlichkeiten. Auch wenn sich eine Woche aus sieben Tagen logisch also nur bedingt erklären lässt, ist sie geschichtlich und religiös nicht wegzudenken.

Geschichte – wie die Sieben-Tage-Woche entstand

In der vorchristlichen Zeit Babylons suchte man nach Lösungen, den recht langen Monat aus 28 Tagen in kleinere Zeiteinheiten einzuteilen. Im Epos Gilgamesch nahm die sieben ebenso eine große Rolle ein, wie im damaligen Alltag der Menschen: der 7., der 14., der 21. und der 28. Tag des Monats wurde zum heiligen Tag erklärt. Diese Tage fungierten als Ruhetage, den Göttern wurden Opfergaben dargebracht. Die Woche aus sieben Tagen gab es in einer Frühform also bereits im historischen Babylon.

Die Zahl sieben und die Zeitspanne von sieben Tagen übernahm zugleich in der Tora und der Bibel eine zentrale Funktion. Adoptiert wurde die Idee einer Woche mit dieser Tagesanzahl früh auch durch das Persische Reich und in der hellenischen Astrologie. Während die Römer lange ihre eigene Zeitrechnung mit dem sogenannten Nundinum verfolgen, der Woche aus acht Tagen, wurde spätestens mit der Herrschaft von Augustus dem heute bekannten Modell eine höhere Bedeutung zugetragen.

Mit der Ausbreitung des Christentums in Europa wurde die Idee einer Sieben-Tage-Woche immer weiter verfestigt. Dabei übernahm der Sonntag eine zentrale Rolle. An jenem Tag beginnt nach christlicher Idee die Woche. Die Verwendung einer Woche von sieben Tagen lässt sich zudem in China im 4. und in Japan im 11. Jahrhundert historisch belegen. Nach und nach haben die sieben Tage so eine internationale Bedeutung erlangt.

Je mehr Termine und Kalender in der Planung des Alltags in den Fokus rückten, desto zentraler würde die Einheit der Woche. So gab es spätestens im 19. Jahrhundert trotz international einiger alternativer Modelle eine deutliche Vereinheitlichung der Wochenzeitrechnung. Übrigens: die Namen der sieben Wochentage verdanken sich den sieben klassischen Planeten und den damit verbundenen Gottheiten, die in antiker Zeit bekannt waren. So wurde der Sonntag einst dem Sonnengott Helios, der Montag der Mondgöttin Luna etc. gewidmet. Viele der heutigen deutschen Tagesnamen wurden aus früheren Bezeichnungen dieser Art germanisiert.

Alternativen – Fünf-, Acht- oder Zehn-Tage-Woche

Zu den bekanntesten Alternativmodellen der Sieben-Tage-Woche zählt das römische Nundinum. Zwar bedeutet Nundinum wörtlich in etwa „neuntägig“, in Wirklichkeit handelte es sich jedoch um eine Acht-Tage-Woche. Jeder Monate hatte so vier Feiertage, die sich an den acht Tagen des damaligen Kalenders orientierten: Kalenden, Nonen, Iden und Tubilustrium. Ähnlich wie die sieben Tage bei den Babyloniern kam der Woche mit acht Tagen so eine Art heilige Bedeutung zu. Zudem wurden mit der Zeitrechnung des Nundinum die Markttage eines Jahres bestimmt. Wie die Römer sollen auch die Kelten einen Kalender mit einer Woche von acht Tagen verwendet haben. Die Abschaffung des Nundinums begann bereits unter Augustus, offiziell wurde die Sieben-Tage-Woche jedoch erst unter Kaiser Konstantin im 4. Jahrhundert n. Chr. etabliert.

Genutzt wurde zeitweise auch die sogenannte Dekade, die Woche mit zehn Tagen. Bereits das Alte Ägypten teilte das Kalenderjahr in 36 Wochen mit je 10 Tagen ein. Zwischen 1792 und 1806 – als die Französische Revolution in Frankreich stattfand – gab es den sogenannten Französischen Revolutionskalender, der ebenso zehn Tage verwendete. Doch unter Napoleon wurde diese Entwicklung wieder zurückgedreht.

Zu den wiederkehrenden Mustern der historischen Kalenderwoche gehören zudem auch fünf Tage. Die Azteken beispielsweise hantierten mit Zeitphasen von fünf bis dreizehn Tagen. Im Hinduismus Balis wird heute noch auf religiöser Ebene gleich mit mehreren Tagesabschnitten umgegangen, die von drei über fünf bis sieben Tage dauern. Klar ist: Obwohl die Woche mit sieben Tagen heute unumstößlich scheint, gab es historisch zahlreiche Alternativmodelle. Die Sieben-Tage-Woche verdankt der Geschichte und Religion ihre Durchsetzung, logisch wären jedoch auch andere Rechenmodelle denkbar.

Überblick – Warum die Woche sieben Tage hat

Die siebentägige Woche ist den Babyloniern sowie dem Judentum und Christentum zu verdanken. Ursprünglich hatten die sieben Tage bei den Babyloniern eine rituelle Funktion, durch die Globalisierung der Welt und die Verbreitung der Weltreligionen hat sich das Modell jedoch nach und nach international durchgesetzt. Wochen mit anderen Tageszahlen sind logisch durchaus denkbar, doch religiöse Bedeutung und Gewohnheit haben das Modell zu einem unverzichtbaren Bestandteil unserer alltäglichen Zeitrechnung werden lassen.

Was ist der Unterschied zwischen E5 und E10 Benzin? Erklärung


Die beiden Superkraftstoffe E5 und E10 unterscheiden sich durch die Beimischung von Bioethanol. Dies ist aus pflanzlichen Rohstoffen gewonnener Äthylalkohol, der wie Benzin verbrennungsfähig ist und als Beimischung im Superkraftstoff dessen Umweltbilanz etwas aufwertet.

E5 enthält 5 % Bioethanol, bei E10 sind es 10 %. Das Superbenzin E10 wurde an deutschen Tankstellen im Jahr 2011 eingeführt. Anfangs bestanden (teilweise berechtigte) Bedenken, dass der höhere Bioethanolanteil dem Motor schaden könnte, doch Fahrzeuge der Baujahre ab spätestens 2012 sind praktisch durchweg E10-fähig. Kraftfahrer finden Listen im Internet, die anzeigen, ob ihr eigener Motor mit dem günstigeren E10 betankt werden kann. Wichtig zu wissen: Der Anteil von Bioethanol kann in modifizierten Motoren sogar noch viel höher (bis 85 %) ausfallen. Brasilien etwa, das über sehr viele pflanzliche Rohstoffe verfügt, setzt konsequent auf solche Fahrzeuge.

Wie wird Bioethanol gewonnen?

Die Ausgangsstoffe sind überwiegend die Agrarprodukte Zuckerrüben, Weizen, Zuckerrohr und Mais, doch auch aus Holz, Stroh und Bioabfällen lässt sich Bioethanol gewinnen, wenn auch nicht sehr effizient. Die Herstellung des Ethanols erfolgt wie bei herkömmlichem Alkohol durch die Fermentation (alkoholische Gärung). Der in den Pflanzen enthaltene Zucker wird dabei durch Mikroorganismen zu Alkohol vergärt. Anschließend muss eine Reinigung durch thermische Trennverfahren erfolgen, damit das Bioethanol zum brennfähigen Treibstoffzusatz wird.

Umweltbilanz von Bioethanol

Das Bioethanol emittiert bei seiner Verbrennung prinzipiell nicht mehr CO₂, als die Pflanzen bei ihrem Wachstum aus der Umwelt aufgenommen haben. Wenn man dieser sehr pauschalen Betrachtung folgt, verbrennt Bioethanol umweltneutral. Die höhere Beimischung im E10 seit 2011 soll die Umweltbilanz des deutschen Straßenverkehrs verbessern.

Auswirkungen von Bioethanol auf den Motor

Ältere Fahrzeuge der Baujahre vor 2012 (aber nicht alle!) könnten unter Umständen Bioethanol schlecht vertragen. Der Biokraftstoff greift unter anderem Gummidichtungen an, was zu Undichtigkeiten führt. Auch kann ihre Leistung durch die Beimischung signifikant sinken, was bei jüngeren Motoren nicht mehr zu erwarten ist. Diese verbrauchen nach aktueller Studienlage durchschnittlich 2 % mehr durch die Betankung mit E10.

Im Jahr 2011 hatten der ADAC und einige Hersteller Tests zur Verträglichkeit von E10 durchgeführt und in der Tat bei einigen Fahrzeugen Undichtigkeiten festgestellt. Allerdings galt auch schon damals, dass solche Schäden nur beim durchgängigen Betanken mit E10 zu erwarten sind, wenn das Fahrzeug für den Kraftstoff nicht geeignet ist. Eine einmalige oder gelegentliche Tankfüllung schadete schon damals nicht.

Spätestens ab 2012 reagierten die Hersteller auf E10 und bauten ihre Motoren so um, dass diese die höhere Beimengung von Bioethanol verkraften. Einige Hersteller, darunter beispielsweise Porsche, hatten schon in den 1990er Jahren Motoren gebaut, die auch höhere Beimischungen von Bioethanol vertragen. Der Übergang zum E10-Kraftstoff war ohnehin fließend. 5 % Beimischung von Bioethanol im Kraftstoff Super E5 sind schon länger obligatorisch. E5 und E10 unterscheiden sich also lediglich durch 5 % mehr Bioethanol. Motoren können wie erwähnt bei entsprechender Auslegung auch noch viel mehr Bioethanol vertragen. Wer aber noch ein älteres Fahrzeug fährt, kann sich an einer Liste aus dem Jahr 2011 zur E10-Verträglichkeit orientieren (nach der Einleitung etwas weiter unten).

Ethanolbeimischungen in anderen Regionen

An brasilianischen Tankstellen gibt es weder E5 noch E10: Der Bioethanolanteil beginnt dort bei 25 % (E25) und kann bis E95 reichen (sogenannter Flexkraftstoff). In den USA wird schon seit den 1970er Jahren mindestens E10 getankt. Die gängigen Mischungen enthalten 2, 5, 10, 15, 25, 50, 85, 95 und auch 100 % Bioethanol. Das muss bei entsprechender Motorauslegung keinesfalls zu einer schlechteren Leistung führen, im Gegenteil: Durch eine höhere Klopffestigkeit von Bioethanol kann E85 sogar die Motorleistung deutlich steigern. Die Motoren müssen nur entsprechend ausgelegt sein.

Bis 5 % Beimischung von Bioethanol verträgt jeder Motor, weshalb die EN 228 diese Beimischung grundsätzlich zulässt. E10 vertragen wie erwähnt die Neufahrzeuge ab 2012, Ottomotoren mit voll geregeltem Kraftstoffsystem können im Prinzip auch bedenkenlos mit E25 betankt werden. Dies funktioniert über eine großzügig dimensionierte Korrekturregelung der Einspritzung via Lambdasonde. Es gab in Deutschland sogar bis 2016 wenige Tankstellen, die Beimischungen bis E85 anboten. Der Verbrauch steigt mit zunehmendem Bioethanol, bei E85 kann er bis 30 % über dem Verbrauch mit E5 liegen. Der Heizwert von Bioethanol liegt unter dem von Superbenzin.

Was ist der Unterschied zwischen Blackout und Stromausfall? Erklärung


Stromausfälle betreffen im Regelfall kurze Zeitspannen. In Deutschland dauert ein durchschnittlicher Ausfall in der Stromversorgung lediglich 12,2 Minuten – kaum eine Viertelstunde. Ein Blackout tritt dagegen großflächig und länger anhaltend auf. Dabei sind grundsätzlich kritische Infrastrukturen gefährdet.

Blackout – der umfassende Stromausfall

Ein Blackout ist zunächst der englische Begriff für einen Stromausfall. Allerdings ist nicht jeder Stromausfall gleichzeitig ein Blackout. Denn der Blackout ist grundsätzlich durch umfassende Ausfälle gekennzeichnet. Sie treten nicht nur in eng begrenzten Regionen auf, sondern großflächig. Das betrifft zum Beispiel Bundesländer oder sogar ganze Staaten. Hierbei fallen diverse, wichtige Elemente einer Gesellschaft aus. Gleichzeitig trifft der Blackout zahlreiche Haushalte und Privatpersonen völlig unvorbereitet. Speziell bei einem weitreichenden Ausfall der Energieversorgung gibt es Probleme, weil der Strom nicht so zügig wiederhergestellt wird, wie es bei einem herkömmlichen Stromausfall der Fall wäre.

Ursachen für einen Blackout

Warum tritt ein Blackout auf? Kommt es zu einem derart übergreifenden Ereignis, sind verschiedene, schwerwiegende Ursachen denkbar. Demnach kann in Kriegsgebieten der Beschuss kritischer Systeme einen solchen Blackout zur Folge haben. Gleichzeitig können Hacker die zuständigen Systeme gezielt angreifen, um den Blackout zu provozieren. Nicht zuletzt besteht die Möglichkeit, dass eine technische Störung weitreichende Ausfälle zur Folge hat.

Was fällt bei einem Blackout aus?

Ampeln und Straßenbeleuchtungen sind ebenso von einem Blackout betroffen wie Alarmanlagen oder die Notrufzentralen. Telefonnetze, Krankenhäuser und Verwaltungen fallen ebenfalls aus. Im Kern betrifft ein Blackout stets eine gesamte Gesellschaft. Da Verkehrsleitsysteme ebenfalls ausfallen, führt dies unweigerlich zu Chaos auf den Verkehrsstraßen. Gestörte Alarmanlagen begünstigen Einbrüche und Plünderungen.

Die kritischen Strukturen, wie Krankenhäuser oder Pflegeeinrichtungen, wären besonders betroffen. Bei einem Blackout bekämen diese Institutionen ebenso keinen Strom. Dadurch wären sie auf die Notversorgung durch integrierte Notstromaggregate angewiesen. Solche Aggregate oder Akkus erhalten die Stromversorgung im Notfall für einige Stunden aufrecht. Da ein Blackout schlimmstenfalls Tage oder Wochen andauert, würde dies zu Problemen in den Kliniken und Pflegeheimen führen.

Weitere betroffene Systeme sind Fahrstühle und Bankautomaten. Insbesondere bei den Geldautomaten und Kassensystemen zeigen sich die enormen Auswirkungen eines Blackouts. Ebenso betrifft ein solcher Ausfall die automatischen Türen in Supermärkten – vorausgesetzt der jeweilige Laden hat kein separates Notaggregat, um die Stromversorgung zumindest kurzzeitig zu sichern.

Schwerwiegendere Auswirkungen betreffen die Wasser- und Abwasserversorgung. Denn Leitungswasser käme in einem solchen Fall nicht mehr aus dem Hahn. Zudem könnten Abwässer nicht länger geklärt werden. Die notwendigen Pumpen, die für die Wasserverteilung und Wasseraufbereitung zuständig sind, würden bei einem Blackout ausfallen. Nicht zuletzt beeinträchtigt ein derart umfassendes Ereignis die Telefonnetze, inklusive der Mobilfunknetze.

Stromausfall – kurzzeitig und eng begrenzt

Stromausfälle sind durch den Ausfall oder die Betriebsstörung bei einzelnen Netzbetreibern gekennzeichnet. Das Risiko einer Störung besteht grundsätzlich. Das kann beispielsweise bei einem Unwetter vorkommen, wenn Bäume auf Leitungen stürzen oder Kabelverbindungen gestört und beschädigt sind. Ein solcher Ausfall dauert höchstens wenige Stunden, ehe er behoben ist. Daneben tritt ein Ausfall der Stromversorgung in einzelnen Wohnungen immer wieder auf. Welche Ursachen hat ein Stromausfall demnach?

Ursachen für Stromausfälle

Ein Stromausfall, der in der eigenen Wohnung auftritt, kann beispielsweise von einem Kurzschluss herrühren. Eine kaputte Leitung kommt ebenso infrage. Normalerweise zeigt sich ein Kurzschluss – zum Beispiel, weil zu viele Verbraucher gleichzeitig angeschlossen waren – durch eine Sicherung, die »rausfliegt«. Hierbei ist ein Schalter zu bedienen und die verursachenden Geräte auszuschalten, um das Problem zu lösen.

Eine defekte Leitung tritt mitunter im Haus auf. Eine umliegende Baustelle verursacht gegebenenfalls derartige Schwierigkeiten. Sind Bauarbeiter oder Handwerker unachtsam, führt dies unter Umständen zu elektrischen Problemen. Das Resultat: Der Strom ist »weg«.

Was ist von einem Stromausfall betroffen?

Städtische Systeme und Anlagen, wie Ampeln oder Straßenleuchten sind im Regelfall nach Straßenzügen geschaltet. Fällt der Strom in einem Teil der Gemeinde aus, sind dort ebenfalls die Lampen betroffen. In anderen Stadtteilen funktionieren sie dagegen weiterhin.

Ein Stromausfall, der auf die eigene Wohnung begrenzt ist, betrifft entweder den kompletten Wohnraum (beispielsweise durch Fehler bei Bauarbeiten) oder einzelne Areale, wie zum Beispiel Lampen oder ausschließlich die Küche. Hierbei lässt sich die Ursache zügig finden und beheben.

Zusammenfassung – Blackout vs. Stromausfall: Erklärung, Unterschiede

Ein Stromausfall kann prinzipiell auftreten. Er ist lokal begrenzt und von kurzer Dauer – in Deutschland beschränkt sich ein solches Ereignis auf durchschnittlich wenige Minuten. Dagegen ist ein Blackout generell auf enorme Flächen ausgelegt mit weitreichender Wirkung. Er tritt selten auf, betrifft jedoch vielfältige Systeme. Darunter sind auch solche von kritischer Natur. Im Gegensatz dazu sind Stromausfälle eher auf lokaler, kommunaler Ebene verortet. Netzbetreiber können einen Ausfall in der Stromversorgung üblicherweise schnell beheben.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung


Wer bereits etwas älter ist, wird die Fragen in der Überschrift sehr gut verstehen können. Da wir uns im Laufe unseres Lebens ständig verändern und unsere Persönlichkeit sich oftmals den gegebenen Umständen anpasst, empfinden wir die Zeit stets anders. Ein weiterer Grund ist vor allem das Empfinden der Zeit selbst, welches sich bei verschiedenen Tätigkeiten anders gestaltet.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung

Wenn man älter wird, ist man automatisch auch ruhiger, da man schon alles kennt und nicht das ständige Bedürfnis hat, alles ausprobieren zu wollen. Ist man hingegen noch jung, gestaltet sich der Alltag alleine schon wegen Schule und Co. weitaus dynamischer.

Wer in seinen besten Jahren dann auch noch im Homeoffice arbeitet oder aber anderweitig selbstständig ist, wird die Zeit wahrscheinlich noch schneller vorbeiziehen sehen. Wenn wir uns auf eine einzige Sache fokussieren und uns nur schwer oder gar nicht ablenken lassen, entsteht nach einiger Zeit sowas wie ein Trance-ähnlicher Zustand. Dieser ist bei älteren Menschen ausgeprägter, da der Stoffwechsel und im Allgemeinen alles andere ebenso langsamer funktioniert, als bei einem Jungspund. Man kann sich im Alter also länger auf eine einzige Sache (bzw. seine Arbeit) konzentrieren, da man es über die Jahre hinweg erlernt hat.

Was kann ich tun, damit die Zeit langsamer vergeht?

Damit die Zeit langsamer vergeht, kann man viele verschiedene Dinge tun. Nachfolgend werden die beliebtesten Methoden vorgestellt. Viel Spaß beim Durchlesen!

Öfter auf die Uhr schauen

Dieses Phänomen haben die meisten wohl eher als negative Erfahrung verbucht. Vorwiegend schauen wir nämlich ständig auf die Uhr, wenn wir auf etwas warten oder schnellstmöglich ein gewichtiges Ereignis eintreten soll. Da dies dann nicht passiert und die Sekunden genaugenommen recht langsam vergehen, wenn man sie beobachtet und an nichts anderes denkt, ist dies eine gute Methode, die Zeit langsamer vergehen zu lassen.

Selbst wenn man also gerade Spaß hat und sich nicht stören lassen will, sollte man jede Stunde einen kurzen Blick auf die Uhr werfen und dies zur Gewohnheit machen. Prompt hat man eine bessere Übersicht über seine jeweilige Aktivität und weiß zudem stets genau, ob es nicht doch lieber wieder Zeit ist, sich um etwas Wichtigeres zu kümmern, als was auch immer gerade gemacht hat.

Sport treiben

Es ist wirklich wahr: Wer in der Morgenstunde regelmäßig eine Stunde lang läuft, wird anschließend den ganzen Tag lang weitaus entspannter werden und produktiver sein, als jemand, der eher unsportlich ist. Auf diese Weise bringen wir unsere Energien in Einklang und die Zeit vergeht dann auch noch im Alter nicht mehr ganz so schnell. Doch warum ist das so?

Da ältere Körper wie auch ältere Autos länger brauchen, um warmzuwerden, müssen sie gefordert werden. Heranwachsende Körper sind immerhin auch ohne Sport bereits ständig beschäftigt, denn es müssen fortlaufend neue Zellen zum Wachsen produziert werden. Ausgewachsene Menschen sind zudem etwas anfälliger fürs faul Herumliegen und Nichtstun.

Neben dem Laufen kann man aber auch andere Dinge tun, die etwas Lebensschwung in den alten Körper jagen (wie etwa Yoga). Das ist nicht nur gesund, sondern fühlt sich auch super an. Wenn wir Sport treiben und zum Beispiel eine längere Strecke laufen müssen, zieht sich die Zeit enorm und das ganz egal, in welchem Alter man auch ist.

Während man sich eine halbe oder eine Stunde lang durchquält, passieren im Körper jedoch eine Menge positiver Ereignisse.

Früher noch waren wir als Höhlenmenschen täglich dazu gezwungen uns zu bewegen und etwa jagen oder sammeln zu gehen.

Heutzutage muss man das jedoch schon fast gar nicht mehr. Dank des Internets arbeiten viele nun im Homeoffice oder aber sitzen den ganzen Tag in Büros herum. Irgendwann kommt der Körperfluss bei einem solch tristen Alltag nahezu zum Stillstand, sodass vor allem ältere Menschen das Gefühl bekommen können, dass die Zeit schneller vergeht.

Immerhin wird alles zur Routine und wir trauen uns dann schon fast gar nicht mehr, diese zu ändern, aus Sorge, der Alltag würde noch anstrengender und kürzer werden. Dem ist jedoch bei Weitem nicht so, denn Bewegung macht uns im Gegenteil aktiver und lässt uns mehr Zeit genießen.

Die Laune anheben

Wer andauernd schlechte Laune hat und etwas älter ist, wird sicherlich bemerkt haben, dass die Zeit in einem solchen Gemütszustand scheinbar schneller vergeht. Um diesem Phänomen vorzubeugen, sollte man versuchen sich mit Menschen zu umgeben, die einem Freude bereiten.

Ist dies nicht möglich, so entfernt man sich eben von den schlechten Kollegen, die einem die Laune vermiesen können und verbringt seine Zeit lieber alleine oder aber mit netteren Kollegen. Auch Chats sind sehr gut dazu geeignet, seine Laune anzuheben. Im Internet trifft man immer mal wieder auf Menschen aus den verschiedensten Ländern und unterschiedlichsten Klassen.

Solche Konversationen oder modernen Brieffreundschaften sind in der Regel zwar kein Ersatz für echte Interaktionen, jedoch kommen sie dem schon sehr nah und können eine gute Alternative darstellen.

In diesen Zeiten ist das Chatten bereits fester Bestandteil in vielen Leben. Auf diese Weise kann man mit all seinen Liebsten im ständigen Kontakt sein und die Zeit vergeht daraufhin nicht mehr so schnell. Ist man dank eines Kompliments im Chat also nicht mehr so gelangweilt und besser gelaunt, vergeht die Zeit ein wenig langsamer als gewohnt.

Produktiv sein

Heutzutage kann man im Internet eine Menge machen und damit eventuell sogar Erfolge verbuchen. Die Rede ist von moderner Arbeit. Mittlerweile kann man Online-Shops ganz einfach von zu Hause aus betreiben und braucht hierfür dank Dropshipping nicht einmal mehr die Finger dreckig zu machen.

Es ist daher immer eine gute Idee sich zumindest Gedanken darum zu machen, wie man etwas vom Internetkuchen abhaben kann. Der beste und wirklich effektivste Weg ist es sich eine Sparte auszusuchen und anschließend Vollgas zu geben. Wer produktiv ist, wird immerhin die Zeit zu schätzen lernen.

Sobald sich nämlich erste Erfolge zeigen, ist man motiviert weiterzumachen. Doch auch wenn es nicht unbedingt etwas mit dem Internet zu tun hat, so ist die Produktivität dennoch ein wichtiger Faktor. Wer zum Beispiel einfach nur gerne malt oder zeichnet, tut ebenfalls etwas Gutes für sein Wohlbefinden und das langsamere Verstreichen der Zeit. Man blickt etwa auf Gestern zurück und ist zufrieden mit dem vergangenen Tag, da man viel geschafft oder gemacht hat.

Extremsport

Selbstverständlich soll man sich jetzt nicht als Opa aufs Skateboard stellen. Aber Spaß beiseite: Bungeejumping ist zum Beispiel eine sehr gute Methode, um seine innere Balance wieder auszugleichen. Umso mehr man sich davor fürchtet, desto besser ist die anschließende Wirkung. Nachdem man seinen inneren Schweinehund überwunden hat, kann man sich an einen der Anbieter in der Nähe wenden.

Nach einem solch heftigen Adrenalinstoß, programmiert sich der Körper sozusagen neu und kann auch das Empfinden des schnelleren Zeitzyklus eindämmen. Dies verhält sich hier also sozusagen ungefähr so, wie nach einem wichtigen Wettkampf beim Training oder aber einer Rauferei im Jugendalter.

Auch ein verbaler Austausch kann die Gemüter ganz schön erhitzen und uns somit anschließend weitaus aufmerksamer für die Zeit machen. Hierfür ist das Adrenalin verantwortlich, welches unseren gesamten Körperhaushalt richtig schön aufwirbelt und anspornt.

Diskussionsrunde

Wer nicht unbedingt streiten möchte, um die Zeit langsamer vergehen zu lassen, sollte sich an einer Diskussionsrunde versuchen. Hierfür muss man nicht unbedingt in einen bestimmten Club gehen oder aber einem Schützenverein beitreten. Auch in der eigenen Familie kann man wunderbar diskutieren und Debatten abhalten.

In dieser Zeit können alle sich beteiligen und etwa ihre Meinung zum neuen Fernseher kundtun. Somit fühlt sich jeder gehört und der Hausfrieden ist sichergestellt. Werden es hingegen hitzige Argumentationen und Diskussionen, wird es ebenso interessant sein. Hier kann man gut Dampf ablassen und seine Meinung energisch vertreten. Da dies nur hin und wieder vorkommen sollte, ist es im Grunde ganz gesund seine Psyche auf diese Weise zu bedienen.

Nach einem verbalen Schlagabtausch mit seinen Freunden oder innerhalb der Familie ist der Gemütszustand meist fitter und alarmiert. Somit geht auch die Zeit langsamer vorbei, da sich kein lähmendes Verhaltensmuster im allgemeinen Alltag festsetzen kann.

Fazit: Warum geht vergeht die Zeit schneller, wenn man älter wird?

Alles in allem ist der Verlauf der Zeit nicht so schwer zu verstehen. Hat man zu viel oder zu wenig Spaß, während man etwas macht, vergeht die Zeit auch bei jüngeren Menschen recht schnell. Da in unserem Kopf fest verankert ist, dass wir (je älter wir werden) dem Tod näher kommen, vergeht die Zeit (gefühlt) deshalb wahrscheinlich ebenso etwas schneller.

Das Problem hierbei ist etwa die weiter oben erwähnte Tatsache, dass wir uns mehrheitlich nur auf die schlechten Gedanken stützen, anstatt ein positives Denkverhalten zu entwickeln.

Wer es schafft, auch noch im älteren Abschnitt seines Lebens etwas offener für gute Laune zu sein, wird es also genauso machen wie die jüngeren Spunde und seinen Alltag aktiver gestalten.

Auf diese Weise kann man viele verschiedene Dinge ausprobieren, die man vorher nicht gekannt hat. Weiterhin wären auch längere Bus- oder Zugreisen zu nennen. Freut man sich zum Beispiel, mit dem Zug zu seinen Freunden, Bekannten oder Verwandten zu fahren, schaut man viel öfter auf die Uhr und die Zeit geht somit scheinbar langsamer vorbei.

Wer sich also dazu zwingen kann, seinen Alltag disziplinierter und vor allem facettenreicher zu gestalten, schafft es, sich dem Phänomen Zeitbeschleunigung im Alter zu entziehen. Selbst wenn man im Moment so empfindet, heißt es also nicht, dass es auch für immer so bleiben muss.

Warum hat der Februar nur 28 Tage? Erklärung


Die Tatsache, dass der Februar nur 28 Tage hat, verdanken wir den alten Römern. Im Römischen Reich begann das Jahr nicht im Januar, sondern im März. Der Februar war also der letzte Monat. Außerdem hatte das Jahr nur 355 Tage. So konnte ein Monat nie länger als 29 Tage sein. Die restlichen 28 Tage bleiben für den Februar übrig.

Februar 28 Tage: Kalenderreform durch Julius Cäsar

Im Jahre 45 v. Chr. führte Julius Cäsar eine umfassende Kalenderreform durch, die auch heute noch größtenteils ihre Gültigkeit besitzt. Maßgebend für die Länge eines Jahres waren nun nicht mehr die Mondphasen, sondern die Sonne. Die Erde umrundet die Sonne einmal innerhalb von 365 Tagen, 5 Stunden, 49 Minuten und 3 Sekunden. Ein Schaltjahr, das diesen Unterschied ausgleichen sollte, war nach der Kalenderreform durch Julius Cäsar zunächst unbekannt. Es sollte erst viel später eingeführt werden.

Das Jahr beginnt im Januar – die meisten Monate haben 30 oder 31 Tage

Heute markiert nicht mehr der März, sondern der Januar den Beginn eines neuen Jahres. Der Januar, der März, der Mai, der Juli, der August, der Oktober und der Dezember haben 31 Tage, während der April, der Juni, der September und der November jeweils 30 Tage haben. Nur der Februar ist mit seinen 28 Tagen die große Ausnahme.

Der Februar hat 28 Tage – im Schaltjahr 29 Tage

Um auf eine Gesamtzahl von 365 Tagen pro Jahr zu kommen, bleiben für den Februar 28 Tage. Alle 4 Jahre hat der Februar 29 Tage. Mit dieser Regelung soll erreicht werden, dass sich die Jahreszählung an das Sonnenjahr angleicht. Addiert man die 5 Stunden, 29 und 3 Sekunden pro Jahr, die die Erde länger als 365 Tage für einen Umlauf benötigt, kommt alle 4 Jahre ungefähr ein Tag zusammen. Genau das ist der Grund für die Einführung des Schaltjahres, in dem der Februar dann 29 Tage hat.

Hatte der römische Kaiser Augustus etwas mit dem kurzen Februar zu tun?

Es existiert eine Legende, nach der wir den kurzen Februar nicht nur dem Römischen Kalender und der Kalenderreform, sondern in erster Linie dem Kaiser Augustus zu verdanken haben. Er war so eitel, dass er forderte, dass ein Monat nach ihm benannt wird. Das sollte der August sein. Es wird gesagt, dass er ursprünglich nur 30 Tage hatte und dass es Kaiser Augustus nicht ausstehen konnte, dass sein Monat einen Tag kürzer als der Juli war. Also fügte er einen Tag an und der August hatte fortan 31 Tage. Diesen einen Tag nahm er dem Februar weg, der wie viele andere Monate auch 29 Tage hatte.

Diese Legende hat sich jedoch als unwahr erwiesen und konnte von vielen Experten widerlegt werden. Es ist also davon auszugehen, dass der Kaiser Augustus nichts mit dem kurzen Februar zu tun hat.

Kalenderreform 1582 – Papst Gregor XIII – Schaltjahr wird eingeführt

Die letzte bedeutsame Kalenderreform geht auf das Jahr 1582 zurück. Der Kalender, der von Julius Cäsar eingeführt wurde, trug den Namen Julianischer Kalender, während der Kalender nach der Reform von Papst Gregor XIII. Gregorianischer Kalender genannt wird. Für den Namen Julianisch stand der Name Julius und für den Namen Gregorianisch der Name Gregor Pate. Der Kalenderreform 1582 haben wird das Schaltjahr zu verdanken. Vorher gab es das noch nicht. Die Folge davon war, dass sich der Frühlingsanfang im Laufe der Zeit schrittweise verschoben hat. Mit der Einführung des Gregorianischen Kalenders wurde der Lauf der Erde um die Sonne mit dem Kalender in Einklang gebracht.

Warum sind Vögel wichtig (für die Umwelt)? Erklärung, Nutzen


Es gibt sie in allen möglichen Formen und Varianten – die Vögel unserer Erde. Ob groß, klein, Zugvogel oder nicht – sie alle tragen dazu bei, dass unser wertvolles Ökosystem intakt bleibt.

Welchen Nutzen haben Vögel für die Umwelt / Klima? Erklärung

Spechte bauen ihre Höhlen in alten oder kranken Bäumen und ernähren sich von den unter Rinde lebenden Insekten. Aasgeier kümmern sich um tote Tiere, gehören also zu der „Gesundheitspolizei“ im Tierreich – genau wie die Hyänen und andere Aasfresser. Vögel wie der Kolibri wiederum helfen bei der Bestäubung von Pflanzen, indem sie von Blüte zu Blüte fliegen.

Es gibt noch mehr Beispiele, die aufzeigen, dass Vögel wichtige Aufgaben in unserem Ökosystem übernehmen. Sie sind ein wichtiger Bestandteil des Kreislaufs der Natur und sorgen für das nötige Gleichgewicht.
Die wesentlichen, nützlichen Aufgaben der Vögel sind vielfältig. Zu den wesentlichen zählen folgende:

  • Schädlingsbekämpfung
  • Bestäubung und Samenverbreitung
  • Regenerierung von Wäldern und Landschaftsgestaltung
  • Teil der Nahrungskette
  • Vernetzung von Lebensräumen
  • Belebung von Städten und Inspirationsquelle

Schädlingsbekämpfung

Dadurch, dass viele Vögel sich von Insekten ernähren, treten Schädlinge in einer Zahl auf, die das Ökosystem nicht beeinträchtigt. Bäume bleiben gesund, Plantagen bleiben von extremem Raupenfraß verschont und Pflanzen im Allgemeinen, die wiederum wichtig für unser Ökosystem sind, können gedeihen.

Die Schädlingsbekämpfung bezieht sich nicht nur auf Insekten. Auch Mäusepopulationen müssen im Zaum gehalten werden. Hier sorgen Greifvögel wie Milane, Bussarde und Eulen für das Gleichgewicht.
Manche Vögel haben sich sogar darauf spezialisiert, Fische, Schlangen oder andere Tiere zu erbeuten, deren Reduktion ebenfalls wichtig für das Ökosystem ist.

Bestäubung und Samenverbreitung

Für die Vermehrung von Pflanzen muss der Pollen von Blüte zu Blüte getragen werden. Diese Aufgabe übernehmen nicht nur Schmetterlinge, Bienen und andere Insekten, sondern auch Vögel – ganz besonders die Feld- und Wiesenvögel oder beispielsweise der Kolibri. Klein, flink und leicht streifen sie die Blüten.

Regenerierung von Wäldern und Landschaftsgestaltung

Der Tannenhäher ist hier ein gutes Beispiel dafür, wie sehr die Vogelwelt mit unserer Umgebung zusammenhängt. Er sorgt dafür, dass sich die in den Alpen vorkommende Zirbelkiefer verbreitet, indem er sich von den harten Nüssen ernährt, die die Samen nicht von allein freigeben. Der Tannenhäher knackt sie und vergisst mancherorts eine Nuss, sodass an dieser Stelle eine neue Zirbelkiefer wachsen kann, die wiederum mit ihren Wurzeln die wichtige Aufgabe des Lawinenschutzes übernimmt.
Ein anderes Beispiel ist der Eichelhäher, der sich von Eicheln ernährt, diese ausscheidet und so eine bedeutende Rolle für die Verbreitung dieses Baumes spielt. In gleicher oder ähnlicher Manier sind viele Vogelarten an Pflanzenarten gekoppelt.

Vögel sind Teil der Nahrungskette

Es gibt Säugetiere, die sich von Eiern ernähren. Somit stellen Vögel nicht nur Fressfeinde für Insekten und kleine Säugetiere dar, sondern fungieren auch als Teil der Nahrungskette. Es kommt auch vor, dass große Vögel kleine erbeuten, somit wird wiederum deren Population im Zaum gehalten – das betrifft unter anderem Sperlinge und Meisen, die durch ein gutes Nahrungsangebot und eine gute Anpassung häufiger vorkommen als andere Arten.

Vernetzung von Lebensräumen

Insbesondere Zugvögel sind ein gutes Beispiel dafür, was für Strecken diese Tiere zurücklegen können. Damit vernetzen sie unter anderem nördliche und südliche Gebiete miteinander. Samen von besonderen Pflanzen können weitergetragen werden, sodass die Vielfalt in der Flora insgesamt zunimmt.
Orte, Ressourcen und biologische Prozesse werden so allein durch die Vogelwelt stark vernetzt, was die Artenvielfalt weltweit begünstigt.

Belebung von Städten und Inspirationsquelle

Der Mensch greift in die Landschaft ein. Glücklicherweise haben sich die Vögel im Laufe der Zeit an die Städte angepasst – das gilt besonders für Krähen, Amseln, Sperling und Meisen.

Ihr Zwitschern sorgt beim Menschen für ein Wohlbefinden, trägt also zu einer gesunden Psyche bei – genau wie das Grün der Pflanzen. Stadtparks werden so zu einer Oase der Erholung, die für den Menschen so wichtig ist.
Ein nicht ganz unwesentlicher Punkt ist auch die Bionik, denn ohne den Vogel als Vorbild gäbe es zahlreiche Erfindungen nicht. Flugzeuge sind leicht gebaut und weisen große Tragflächen auf, weil sich Menschen diese Bauweise von den Vögeln, den Meistern der Lüfte, abgeschaut haben.

Was wäre, wenn es keine Vögel mehr gäbe?

Gäbe es keine Vögel, könnten sich Insekten in einem schädlichen Ausmaß vermehren. Auf Obstplantagen gäbe es wesentlich mehr Raupenfraß, im Frühling würden wir vielleicht eine Mückenplage erleben und auf Feldern würden Heuschrecken die Ernte dezimieren. Durch den Wegfall der Bestäubung durch Vögel hätten wir weniger Früchte zur Verfügung, was zu einer Lebensmittelknappheit führen könnte.

In Städten gäbe es kein Zwitschern mehr, Pflanzen könnten sich weniger vermehren und die allgemeine Vielfalt würde verloren gehen, da sich nur noch gewisse Arten ausbreiten würden. Manche Pflanzen können nur von einer einzigen Vogelart bestäubt werden. Das Ende des einen Lebewesen würde also das eines anderen nach sich ziehen. Gäbe es beispielsweise den Tannenhäher nicht, wären die Zirbelkiefern in ihrer Verbreitung stark eingeschränkt und Lawinen würden die Hänge in den Alpen gefährden. Viele Baumarten würden aufhören, zu existieren. Zunächst wäre dies an kahlen Stellen im Wald erkennbar, die sich weiter ausdehnen würden.

Auf Neuseeland konnte zum Beispiel im Laufe von fünf Jahren beobachtet werden, dass das Aussterben von zwei wichtigen Vogelarten zur Folge hatte, dass der Busch Rhabdothamnus solandri nur noch von einer Art bestäubt wurde. Dadurch gab es viel weniger junge Pflanzen dieser Art und die Früchte waren bei den nachwachsenden Exemplaren kleiner als bei denen einer anderen Insel, auf der der Busch von drei Vogelarten bestäubt wurde.
Die genannten Szenarien sind Beispiele und spiegeln nur einen Bruchteil dessen wider, was passieren würde, wenn es keine Vögel gäbe. Kurz-, mittel- und langfristige Folgen treten auf, wenn diese Tiere verschwinden.

Fazit: Warum sind Vögel wichtig?

Unser Ökosystem besitzt ein empfindliches Gleichgewicht. Ohne Vögel gäbe es in allen Bereichen drastische Veränderungen. Aktuell bedrohen der Klimawandel sowie die Abholzung der Wälder, das Trockenlegen von Feuchtgebieten und eine Zunahme der Städte die Vielfalt der Vögel, die auf spezifische Lebensräume angewiesen sind.

Darum ist es wichtig, diese wichtigen Tiere zu schützen, indem der Mensch Ausgleichsmaßnahmen unternimmt.

Was es bedeuten würde, wenn es gar keine Vögel mehr gäbe, ist schwer abzuschätzen, da diese Tiere eng in unser Ökosystem eingebunden sind und vielfältige Aufgaben übernehmen – manche davon sind selbst bei dem heutigen Stand der Forschung noch unklar.

Was ist das lauteste Tier der Welt? Erklärung

Platz 10: Der Löwe (lautestes Tier der Welt)

Kaum ein exotisches Tier ist bekannter als der Löwe. Diese majestätischen Katzen können eine Schulterhöhe von bis zu 115 cm und ein Gewicht von bis zu 250 kg erlangen. Auf Jagd können sie Spitzengeschwindigkeiten von 60 km/h erreichen. Heutzutage kommen Löwen fast nur noch in den Savannen Afrikas vor. Doch vor wenigen hundert Jahren waren Löwen auch noch im östlichen Europa und in Südwestasien weit verbreitet. Zur Verteidigung ihres Reviers, aber auch um ihre Kraft und Stärke zu demonstrieren, stoßen Löwen die bekannten Brüllgeräusche aus, welche eine Lautstärke von bis zu 114 dB erreichen können.

Platz 9: Der Elefant (lautestes Tier der Welt)

Auf aus Platz 9 landet ein allseits bekanntest und beliebtes Tier, der Elefant. Sowohl der afrikanische als auch der asiatische Elefant gehört zu den größten Tieren der Welt. Sie gelten als die schwersten bekannten und noch lebenden Landtiere. Zur internen Kommunikation verwenden Elefanten Töne, welche im Infraschallbereich liegen und vom menschlichen Ohr nicht wahrgenommen werden können. Wenn Elefanten jedoch ihr Revier verteidigen oder mögliche Gefahren in die Flucht schlagen wollen, stoßen sie trompetenartige Geräusche aus, welche bis zu 117 dB laut sein können.

Platz 8: Der Nördliche See-Elefant (lautestes Tier der Welt)

Auch wenn der Name beinahe gleich ist, hat der Nördliche See-Elefant mit unseren Elefanten von Platz 7 nichts gemeinsam. Denn See-Elefanten gehören zur Gattung der Robben und wurden nur anhand ihrer vergrößerten Nase so bezeichnet. Der Nördliche See-Elefant kann bis zu vier Meter groß werden und ein Gewicht von 2500 kg erreichen. Ein See-Elefanten Bulle paart sich üblicherweise mit mehreren Weibchen. Versucht ein fremder Bulle eines der Weibchen eines solchen Harems zu begatten, stößt das dominante Männchen einen mächtigen Warnruf mit einer Lautstärke von bis zu 125 dB aus, um einen Kampf zu verhindern. Derartige Rivalenkämpfe können häufig blutig oder sogar tödlich für eines der beteiligten Männchen enden.

Platz 7: Der Molukken-Kakadu (lautestes Tier der Welt)

Auf Platz sieben unserer Liste der lautesten Tiere der Welt landet der Molukken-Kakdu. Dieser Vogel kommt nur auf einigen Inseln in der indonesischen Provinz der Südlichen Molukken vor. Sie sind weiß gefärbt und besitzen einen roten Kamm. Mit einer Körpergröße von in etwa einem halben Meter gehören sie zu den größten Kakaduarten der Welt. Ihre Kommunikation ist äußerst vielfältig. So kann ein Molukken-Kakadu Pfeiftöne von sich geben aber auch unterschiedliche Laute imitieren. Am eindrucksvollsten ist jedoch ihre Lautstärke. Das Geschrei eines Molukken-Kakadus kann bis zu 129 dB erreichen und erreicht damit in etwa die Lautstärke eines Düsenjets. Dennoch werden diese Vögel überraschend häufig auch als Haustiere gehalten.

Platz 6: Der Kakapo (lautestes Tier der Welt)

Auch auf Platz sechs landet ein exotischer Vogel. Der Kakapo gehört zu der Gattung der Papageien und stammt aus Neuseeland. Es ist der einzige Papagei, der ebenfalls eine weit entfernte Verwandtschaft mit Eulen aufweist. Er ist ein nachtaktiver Pflanzenfresser, woher auch seine Benennung stammt. Denn Kakapo leitet sich aus der einheimischen Sprache der Maori ab und heißt so viel wie „Nacht-Papagei“. Dieser akut vom Aussterben bedrohte Vogel besitzt einen einzigartigen Balzruf. Dabei bläht er zwei Luftsäcke in seiner Brust auf und stoßt kontinuierlich lauter werdende Rufe aus. Diese werden je nach Wahrnehmung als undefinierte Grunzlaute oder als „BOOM“-Rufe bezeichnet und können eine Lautstärke von bis zu 132 Db erreichen.

Platz 5: Das Große Hasenmaul (lautestes Tier der Welt)

Zugegeben, unter dem Namen „Das große Hasenmaul“ erwartet man kaum ein Tier, welches einen Platz in der Liste der lautesten Tiere der Welt verdient hat. Dies gilt immer noch, auch wenn man erfährt, dass das Große Hasenmaul zur Gattung der Fledermäuse gehört. Doch zur Navigierung stoßt das große Hasenmaul pro Sekunde bis zu 200 Rufe aus, deren Echos vom Körper empfangen und analysiert werden. Diese Rufe können eine Lautstärke von 137 dB erreichen. Zum Glück liegen diese Echoortungsrufe jedoch in einer kHz-Frequenz, welche vom menschlichen Ohr nicht wahrgenommen werden kann.

Platz 4: Der Brüllaffe (lautestes Tier der Welt)

Endlich kommen wir zu einem Tier, dessen Bezeichnung perfekt zu dieser Auflistung passt. Brüllaffen kommen in Mittel- und Südamerika vor und sind vor allem für ihr außergewöhnlich lautes Schreien von bis zu 140 dB bekannt. Diese Affengattung kann beinahe einen Meter groß werden und besitzen einen Schwanz, welcher in etwa gleich lang ausfällt. Ihr Mundbereich ist anatomisch speziell für das Ausstoßen von lauten Geräuschen entwickelt. Täglich brüllen sowohl männliche als auch weibliche Tiere einer Gruppe und können so innerhalb einer Gruppe über mehrere Kilometer hinweg kommunizieren. Dadurch finden Einzelgänger relativ einfach Anschluss an eine Gruppe und eine Migration innerhalb einzelner Gruppen wird dadurch deutlich einfacher. Zusätzlich wird auf diese Weise das Revier gekennzeichnet und gefährliche Revierkämpfe vermieden.

Platz 3: Der Blauwal (lautestes Tier der Welt)

Blauwale können eine Größe von bis zu 33 Metern erreichen und weisen ein Gewicht von bis zu 200 Tonnen auf. Damit zählen sie zu den größten und schwersten Tiere der Geschichte. Es ist daher wenig verwunderlich, dass sie auch zu den lautesten Tieren der Welt gehören. Dabei gehören Blauwale zu jenen Walen, welche nicht über eine ausgeprägte Kommunikation verfügen. Sie stoßen Stöhnlaute, Brumm- und Pochgeräusche und gelegentliche Klicklaute aus. Diese können jedoch eine Lautstärke von bis zu 188 dB erreichen. Da Geräusche unter Wasser hervorragend weitergeleitet werden, können so die Töne eines Blauwals bis zu einer Entfernung von 850 km weit entfernt wahrgenommen werden.

Platz 2: Der Pottwal (lautestes Tier der Welt)

Auch auf Platz 2 der lautesten Tiere der Welt landet ein Wal: Der Pottwal. Dieser kann eine Länge von 20 Metern und ein Gewicht von ca. 50 Tonnen erreichen. Pottwale können bis zu 1000 Meter tief tauchen. Zur Navigation stoßen sie Klicklaute aus, deren Echo ähnlich wie bei Fledermäusen aufgefangen wird. Diese fallen jedoch nicht überdurchschnittlich laut aus. Pottwale können jedoch auch weitere, undefinierbare Laute ausstoßen, welche eine Lautstärke von bis zu 230 dB erreichen können. Der Zweck dieser Geräusche ist noch nicht endgültig geklärt. Eine überzeugende Hypothese besagt jedoch, dass der dabei entstehende Schalldruckpegel zur Betäubung und Desorientierung von Beutetieren genutzt werden könnte.

Platz 1: Der Pistolenkrebs (lautestes Tier der Welt)

Auch das lauteste Tier der Welt stammt aus dem Meer. Pistolenkrebse, häufig auch Knallkrebse genannt, zählen zur Gattung der Krebstiere und sind vor allem in tropischen und subtropischen Gebieten weit verbreitet. Einzelne Arten können sogar im Süßwasser auftreten. Ihren Namen haben diese Krebse erhalten, da sie mit ihren Scheren einen pistolenähnlichen Knall erzeugen können. Beim Zuklappen der Schere wird unter enormen Kraftaufwand ein Sperrmechanismus geschlossen. Dabei wird ein mächtiger Wasserstrahl ausgestoßen, welcher als Waffe eingesetzt wird. Zusätzlich wird der erwähnte Knall erzeugt, welcher eine Lautstärke von bis zu 250 dB erreichen kann. Besondere Aufmerksamkeit haben die Pistolenkrebse auch während des Zweiten Weltkrieges erlangt. Denn ihre unglaublichen Knallgeräusche haben wiederholt die Sonargeräte der Militärs gestört.

Was ist Gelatine? Erklärung


Die meisten Menschen haben schon einmal von Gelatine gehört. Dabei handelt es sich um ein Lebensmittel, das aus tierischen Proteinen hergestellt wird. Für Vegetarier und Veganer sind Speisen, die Gelatine enthalten also nicht geeignet.

Was genau ist Gelatine? Die chemische Erklärung!

Chemisch erklärt ist Gelatine ein Protein. Ein Protein wiederum ist reines Eiweiß. Um dieses spezielle Protein herstellen zu können müssen tierische Rohstoffe zu einer langen Kette von Aminosäuren verknüpft werden. Insgesamt besteht Gelatine zu jeweils 84 bis 90 Prozent aus den genannten Eiweißen. Dazu kommen verschiedene Mineralsalze, die etwa zwei Prozent des Gesamtgehaltes von Gelatine ausmachen. Der Rest ist einfaches Wasser.

Wozu braucht man Gelatine bei der Herstellung von Lebensmitteln?

Gelatine wird in der Lebensmittelindustrie als Geliermittel genutzt. Gelieren bedeutet verdicken. Kurz gesprochen ist Gelatine also ein Bindemittel, das Speisen, die in ihrer ursprünglichen Form flüssig sind, fest werden lassen kann. So findet sich Gelatine zum Beispiel in vielen Süßigkeiten wie etwa Gummibärchen, Lakritze oder auch Marshmallows. Auch in Nachtischen und Kuchen und Torten kommt Gelatine nicht selten zum Einsatz, zum Beispiel bei Cremefüllungen oder Tortengüssen. Und auch in Joghurt oder Götterspeise findet sich Gelatine. Darüber hinaus wird Gelatine oft für die Herstellung deftiger Speisen, wie zum Beispiel Sülze und Wurstwaren benutzt.

Gibt es noch andere Verwendungszwecke von Gelatine?

Gelatine wird zwar in erster Linie zur Herstellung von Lebensmitteln benutzt, aber es gibt auch noch andere Anwendungsbereiche. Vor allem die Kosmetikindustrie setzt gerne auf den Stoff Gelatine. Vor allem in Cremes und Gesichtsmasken lässt sich Gelatine finden. Daneben schätzt auch die Pharmaindustrie auf die positiven Eigenschaften der Gelatine und verwendet sie für die Produktion vieler Arzneimittelkapseln. Außerdem verwenden auch traditionelle Gewerke Gelatine. Fotografen und Buchbinder arbeiten beispielsweise mit ihr. Fotografen nutzen sie beim Drucken von Abzügen, Buchbinder verwenden Gelatine als eine Art natürlichen Kleber.

Welche tierischen Bestandteile werden für die Gewinnung der Gelatine benutzt?

Für die Gewinnung von Gelatine eignen sich eine ganze Reihe an Nutztieren, zum Beispiel Schweine, Fische, Rinder und auch unterschiedliche Geflügelarten. Hierzulande wird für die Produktion von Gelatine zu ungefähr 70 Prozent das Nutztier Schwein genutzt. Herstellen lässt sich Gelatine aus dem tierischen Bindegewebe, das sich etwa in den Knochen oder der Haut der Tiere befindet. In aller Regel werden Teile des tierischen Körpers für die Produktion der Gelatine genutzt, die ansonsten keine Verwendung bei der Lebensmittelherstellung finden und alternativ nach der Schlachtung weggeworfen werden würden. Somit kann gesagt werden, dass die Herstellung der Gelatine ungenutzte Schlachtabfälle vermeidet.

Wie genau gewinnt man Gelatine?

Die Gewinnung von Gelatine ist ein chemischer Prozess. Das tierische Bindegewebe wird dabei sozusagen in seine einzelnen Bestandteile gespalten. Alle dabei abgetrennten tierischen Rohstoffe, die für den weiteren Herstellungsprozess der Gelatine nicht benötigt werden, werden weggegossen während die Gelatine ausgefiltert und anschließend weiter verarbeitet wird.

Die unterschiedlichen Arten von Gelatine

Gelatine gibt es in unterschiedlichen Erscheinungsformen. Neben der industriell genutzten Gelatine gibt es auch Gelatine, die im Haushalt verwendet wird, zum Beispiel zum Kochen oder Backen. Hier ist erstens die Blattgelatine zu nennen. Blattgelatine hat in der Regel eine rechteckige Form und weist ein Muster auf, das wie ein Netz aussieht. Diese Netzaufteilung sorgt dafür, dass man die Blattgelatine ganz nach persönlichem Bedarf in der Küche genau teilen und portionieren kann. Man bricht die benötigte Ecke der Blattgelatine einfach ab. Zweitens ist die Instantgelatine zu nennen. Diese muss, im Gegensatz zur Blattgelatine, während der Verwendung nicht erhitzt werden. Man benutzt sie deshalb in erster Linie für Sahnespeisen, da Sahne beim Verarbeitungsprozess häufig nicht erhitzt werden sollte.

Ist Gelatine gesund oder ungesund?

Grundsätzlich lässt sich über Gelatine sagen, dass es sich dabei um ein natürliches und gesundes Lebensmittel handelt. Da der Hauptbestandteil der Gelatine Protein ist, kann der Verzehr von Gelatine zu einer gesunden Ernährung beitragen. Weiterhin sind in Gelatine insgesamt 18 unterschiedliche Aminosäuren enthalten wovon acht als notwendig für den menschlichen Körper eingestuft werden. Da Gelatine jedoch, wie vorab zu lesen war, meist in Süßspeisen oder deftigen Nahrungsmitteln Verwendung findet, sollte unbedingt auf die verzehrte Menge der gelatinehaltigen Lebensmittel geachtet werden. Zu viel von ihnen ist letztlich jeweils ungesund.

Gibt es auch Gelatine für Vegetarier und Veganer? Ist Gelatine vegan?

Gelatine für Vegetarier und Veganer gibt es nicht, da für die Herstellung von Gelatine immer Teile eines Tieres verwendet werden. Vegetarier und Veganer können jedoch auf einige Alternativen zurückgreifen, die ähnliche Eigenschaften wie Gelatine aufweisen. Das sind zum Beispiel Speisestärke, Agar Agar oder Pektin. Alle genannten Produkte sind für Veganer und Vegetarier geeignet.

Was ist das Blockchain Trilemma? Erklärung, Bedeutung, Definition


Die Blockchain gilt als Technologie der Zukunft und ist bisherigen Netzwerkformen klar überlegen. Dies gilt für die Blockchain-Technologie insgesamt, aber nicht für jede einzelne Art von Blockchains. Denn eine Blockchain kann ihren Fokus immer nur auf eine einzelne Eigenschaft legen – beispielsweise auf Skalierbarkeit, Dezentralisation oder Sicherheit. Alle drei Komponenten zusammen lassen sich jedoch nur schwer optimieren. Das sogenannte „Blockchain Trilemma“ beschreibt nun ein Phänomen, welches diesen Umstand thematisiert.

Das „Blockchain Trilemma“ untersucht eine ganz bestimmte Dynamik. Die Blockchain-Technologie kann sich nur in eine Richtung perfektionieren – und zwar in Richtung Skalierbarkeit, Dezentralisierung oder Sicherheit. Alle drei Komponenten bei einer Kryptowährung zu vereinen, ist bis dato nicht möglich. Um was es beim „Blockchain Trilemma“ nun genau geht, woher der Ausdruck stammt und was die einzelnen Komponenten genau aussagen, darüber soll der nun folgende Artikel weitere, hilfreiche Informationen liefern.

Begriffsdefinition von „Blockchain Trilemma“

Das Wort „Blockchain Trilemma“ stammt aus der englischen Sprache und setzt sich aus den Wörtern „Blockchain“ (zu Deutsch: „eine kryptografische Verschlüsselungstechnologie“) und „trilemma“ (zu Deutsch: „ein Trilemma“) zusammen. Das „Blockchain Trilemma“ untersucht demnach ein Phänomen, bei dem sich drei Optionen gegenüberstehen, für die sich die „Blockchain“ gewissermaßen entscheiden muss. Alle drei Optionen gleichzeitig zu optimieren, ist nicht möglich.

Eine „Trilemma“ bedeutet in diesem Zusammenhang eine Wahl aus drei Optionen – hier erscheint jedoch jede der einzelnen Lösungen für sich inakzeptabel, beziehungsweise nicht ausreichend. Das „Trilemma“ stellt ein Neologismus für das griechische Wort „Dilemma“ dar, welche zwei gegensätzlichen Optionen aufweist.

In Bezugnahme auf das „Blockchain Trilemma“ stehen hier also drei Optionen – nämlich Skalierbarkeit, Dezentralisation und Sicherheit – gegenüber. Eine Blockchain kann beispielsweise eine Kryptowährung darstellen. Bei dieser müssten sich die Entwickler folglich für eine der drei Optionen entscheiden, in welcher die betreffende Kryptowährung spezialisiert werden soll.

Ursprung und Bedeutung von „Blockchain Trilemma“

Ein genauer Ursprung des Ausdrucks „Blockchain Trilemma“ kann nicht ausfindig gemacht werden. Vermutlich entstand „Blockchain Trilemma“ im Verlauf der Entwicklung der Kryptowährung Bitcoin zwischen 2009 und heute. Entwickler, Nutzer und Wissenschaftler stellten schnell fest, dass die neuartige Blockchain-Technologie einige Problematiken aufwies – unter anderem auch das „Blockchain Trilemma“.

Beim Versuch, Optimierungen in allen drei Bereichen vorzunehmen, stießen Entwickler schnell an ihre Grenzen und verursachten bei Weiterentwicklungen in dem einen Bereich oftmals eine Abschwächung in einem anderen Bereich. Das Phänomen wurde alsbald als das „Blockchain Trilemma“ betitelt. Fortan galt, dass eine Blockchain-Technologie immer nur auf eine Option hin perfektioniert werden kann, für die sich die Entwickler früher oder später entscheiden müssten.

Welche Haupteigenschaften greift das „Blockchain Trilemma“ auf?

Das „Blockchain Trilemma“ untersucht die folgenden drei Haupteigenschaften einer Blockchain-Technologie:

  • Skalierbarkeit
  • Dezentralität
  • Sicherheit

Um dem Leser ein besseres Verständnis über die Funktionsweise des „Blockchain Trilemma“ zu bieten, sollen die oben genannten Haupteigenschaften in den nachstehenden Unterabschnitten noch detaillierter untersucht werden.

Skalierbarkeit

Mit der Skalierbarkeit ist die Fähigkeit einer Blockchain-Technologie gemeint, ihr Transaktionsvolumen zu erhöhen. Diese Fähigkeit ist bei der größten Kryptowährung namens Bitcoin zum Beispiel beschränkt. Maximal 21 Millionen Coins können von dieser produziert werden – danach ist die Menge gedeckelt. Dies stellt natürlich ein großer Nachteil der Technologie dar (insbesondere dort, wo große Stückzahlen eines bestimmten, digitalen Produkts benötigt werden). Die Skalierbarkeit ist gerade im Bereich der Kryptowährungen ein wichtiges Thema. Aber auch in vielen weiteren Bereichen kann eine fehlende Skalierbarkeit ein Entscheidungskriterium gegen die Blockchain-Technologie darstellen.

Dezentralität

Die Dezentralität ist eine weitere Option, für die sich Entwickler von Blockchain-Technologien gemäß dem „Blockchain Trilemma“ entscheiden müssen. Gemeint ist hier jedoch die Redundanz im Netzwerk. Sprich: Einige wenige Einheiten dürfen nicht die Gesamtheit des Netzwerks kontrollieren können. So kann dafür gesorgt werden, dass die Technologie und der Zweck dahinter nicht missbraucht werden können. Dies erfüllt die Blockchain-Technologie Bitcoin hingegen hervorragend. Die einzelnen Coins werden dezentral – zum Beispiel Servern, in Wallets oder andernorts – gelagert. Bei den Bitcoins ist es nicht möglich, dass ein zentrales Organ auf alle Coins gleichzeitig zugreifen kann. Die Dezentralität ist entsprechend groß.

Sicherheit

Eine letzte Option im „Blockchain Trilemma“ stellt die Sicherheit dar. Damit ist wiederum die Fähigkeit einer Blockchain-Technologie gemeint, sich vor Angriffen verschiedenster Art und Weise zu schützen. Weiterhin umfasst dies auch die Verteidigung gegen Double Spending – quasi der integrierte Schutz vor digitalem Falschgeld (im Falle der Bitcoin-Technologie). Sicherheit ist ein wichtiger Bestandteil der Kryptografie-Technologie, jedoch lässt sich dieser dennoch nicht zulasten der beiden anderen Optionen perfektionieren. Insgesamt erfüllt die Bitcoin-Technologie die Punkte Dezentralisation und Sicherheit also sehr gut, den Punkt Skalierbarkeit aber weniger gut. Dadurch wird das „Blockchain Trilemma“ anhand eines praktischen Beispiels bestätigt.

Kritische Betrachtung von „Blockchain Trilemma“

Zwar handelt es sich beim „Blockchain Trilemma“ um ein bedeutendes Konzept aus der Welt der Blockchain-Technologie, dennoch gibt es einige Kritiker, die sich negativ gegenüber dem Konzept äußern. Die drei Eigenschaften stünden in den Augen der Kritiker in einem nicht allzu starken Kontrast – nur würde es an technologischen Weiterentwicklungen mangeln.

Speziell die Blockchain-Technologie gehört unter den Kryptografie-Technologien schon zum „alten Eisen“ und wurde in den vergangenen Jahren viel zu wenig weiterentwickelt. Des Weiteren erscheint das „Blockchain Trilemma“ Kritikern zu dogmatisch. Es spiegelt nur den aktuellen Entwicklungsstand wider. Die Kritiker des „Blockchain Trilemma“ stammen vor allem aus dem Krypto-Bereich und befassen sich mit dieser Technologie. Die Technologie wird von den genannten Personengruppen entsprechend verteidigt – das „Blockchain Trilemma“ existiere in den Augen der Kritiker nicht wirklich.

Fazit zum Thema „Blockchain Trilemma“ und ähnliche Begrifflichkeiten

Zusammenfassend kann das „Blockchain Trilemma“ als ein zentrales Konzept der Blockchain-Technologie bezeichnet werden. Es veranschaulicht ein Phänomen, nachdem die drei Haupteigenschaften Skalierbarkeit, Dezentralisierung und Sicherheit im Kontrast zueinanderstehen. Eine Blockchain-Technologie könne nur in einer der genannten Eigenschaften wirklich herausragend sein – dies geht dann zulasten einer oder mehrerer, anderer Haupteigenschaften. Die „Blockchain Trilemma“ gilt unter Kritikern als stark umstritten und basiere nur auf dem aktuellen Stand der Technik.

Neben dem „Blockchain Trilemma“ gibt es noch die Begrifflichkeiten „51%-Attacke“ und „Konsensalgorithmus“. Eine „51%-Attacke“ tritt auf, wenn eine Einheit oder ein Akteur die Kontrolle über mehr als 50 Prozent der Rechenleistung eines Blockchain-Netzwerks erlangt. Wiederum stellt ein „Konsensalgorithmus“ eine Methode dar, mit der Blockchain-Netzwerke Entscheidungen über die Gültigkeit von Transaktionen treffen können. Beide Begriffe sind daher ebenso der Thematik Kryptowährungen und Blockchain zuzuordnen.

Warum ist das Fenster nass? Tipps gegen Kondenswasser, Erklärung


Der Begriff Kondenswasser bezeichnet eine Wasserablagerung auf der Innenseite von Fenstern und Fensterrahmen. Hierbei handelt es sich um Feuchtigkeit aus der Raumluft, welche durch eine sinkende Lufttemperatur von der Luft auf die Fensterscheibe abgegeben wird. Meistens tritt dieses Phänomen in der Nacht und den frühen Morgenstunden während der kalten Jahreszeit auf. Betroffen ist vor allem der untere Bereich von Fensterscheiben.

Warum werden Fenster von innen nass? Erklärung

Ursache für die Entstehung von nassen Fenstern ist der Unterschied zwischen der Temperatur im Inneren des Raumes und der Temperatur im Freien. Ist es im Raum warm, nimmt die Raumluft Feuchtigkeit auf. Trifft diese warme Luft dann auf die Oberfläche eines Fensters, sinkt die Lufttemperatur innerhalb kurzer Zeit deutlich und die Luft gibt die aufgenommene Feuchtigkeit an die Oberfläche des Fensters ab.

Dass sich Luft an einem Fenster schnell abkühlt, liegt an einer deutlich niedrigeren Außentemperatur und damit verbunden einer niedrigeren Temperatur der Glasfläche auch auf der Innenseite des Fensters. Nasse Fenster treten daher vor allem im Winter und während des Winters vornehmlich in den besonders kalten Nachtstunden auf, da zu dieser Zeit der Temperaturunterschied oft besonders groß ist.

Nicht nur die Innenseite von Fenstern kann nass werden. Herrscht draußen eine sehr hohe Luftfeuchtigkeit und besteht ein Temperaturunterschied zwischen Innen- und Außenluft, dann kann es auch zur Ablagerung von Kondenswasser auf der Außenseite von Fenstern kommen. Das ist ein Anzeichen für eine gute Isolierung der Fenster und stellt in der Regel kein Problem dar.

Was kann man gegen Kondenswasser machen? Tipps

Bemerkt man an den Fensterscheiben Kondenswasser, sollte dieses umgehend entfernt werden. Mit einem saugfähigen Tuch lässt sich Kondenswasser gut von der Scheibe abwischen. Zusätzlich ist es ratsam, auch den Fensterrahmen abzuwischen und zu prüfen, ob sich im Rahmen ebenfalls Wasser angesammelt hat. Durch das gründliche Trocknen der Flächen kann der Entstehung von Schimmel vorgebeugt werden.

Um Bereits die Entstehung von Kondenswasser am Fenster zu verhindern, ist eine Kombination aus ausreichender Beheizung von Räumlichkeiten, effektivem Lüften und einer Überprüfung der Dichte der Fenster sinnvoll. Wasser lagert sich nur dann an Scheiben ab, wenn sie vorher im Raum von der Luft aufgenommen wurde und dazu ist eine gewisse Luftfeuchtigkeit notwendig. Durch das Trocknen von Wäsche in Räumen, beim Duschen oder Kochen kann die Luftfeuchtigkeit deutlich steigen. Regelmäßiges Lüften sorgt für einen Abtransport der Feuchtigkeit nach draußen. Stoßlüften erweist sich hierzu als besonders effektive Methode. Dazu werden Fenster mehrmals am Tag für eine Dauer von fünf bis zehn Minuten vollständig geöffnet. Bestenfalls öffnet man dabei sich gegenüberliegende Fenster für eine optimale Luftzirkulation.

Was hilft noch gegen Kondenswasser?

Durch eine ausreichend hohe Raumtemperatur kann die Luftfeuchtigkeit im Raum gesenkt werden. Zudem ist der Luftaustausch während des Lüftens dann effektiver. Als Richtwert wird eine Raumtemperatur von 20 Grad angegeben. Außerdem ist es wichtig, die Entstehung von Luftfeuchtigkeit so weit wie möglich zu reduzieren. Wäsche sollte gerade in den Wintermonaten nicht in Wohnräumen getrocknet werden. Alternative Trockenmöglichkeiten sind ein gut belüfteter Wäscheraum im Keller, ein Wäscheständer auf dem Balkon oder die Nutzung eines Wäschetrockners.

Fazit: Ursache und Hilfe bei Kondenswasser am Fenster

Damit sich Kondenswasser an einem Fenster absetzen kann, müssen verschiedene Faktoren zusammenkommen. Eine hohe Luftfeuchtigkeit und ein deutlicher Temperaturunterschied zwischen der Raumluft und Außenluft sind dafür erforderlich. Bereits nass gewordene Fenster kann man mit einem Tuch trockenwischen. Die weitere Entstehung von nassen Fenstern lässt sich durch ausreichendes Heizen und Lüften verhindern.

Warum ist das Kreuz das Symbol des Christentums? Erklärung, Geschichte


Das Kreuz erinnert Christen nicht nur an die Opferung Jesus Christus für die gesamte Menschheit, sondern symbolisiert außerdem den Sieg über den Tod.

Das Kreuz im Christentum – Symbolik und Bedeutung

Im Christentum ist das Symbol des Kreuzes auf das Neue Testament zurückzuführen, laut welchem Jesus Christus durch Kreuzigung hingerichtet wurde. Zudem betont das Kreuz die Verbindung zwischen dem Irdischen (dargestellt durch die waagrechte Achse) und dem Himmlischen (senkrechte Achse). Es steht weiters auch für Gegensätze wie Materie und Geist, Leib und Seele, das Weibliche und das Männliche.

Diese Verbindungen, vormals durch den Sündenfall gebrochen, wurden laut der biblischen Lehre durch Jesus‘ Opfertod (daher auch „Bundesopfer“ genannt) wiederhergestellt, was das Kreuz zum Zeichen des Heils und der Versöhnung werden ließ. Dennoch kann es auch für Bürde und Qualen stehen, wie auch in verschiedenen Redewendungen offensichtlich wird.

Das Kreuz im Christentum – Geschichte und Entwicklung

Zu Beginn des Christentums waren dessen Symbole das Staurogramm und das Christusmonogramm ΧΡ, welche jedoch beide in ihrer Anordnung bereits an ein Kreuz erinnerten. Die älteste bildliche Darstellung der Kreuzigung wird tatsächlich erst auf das späte 2. bis frühe 3. Jahrhundert datiert und während das Bekreuzigen bzw. Kreuzschlagen schon im 3. Jahrhundert üblich wurde, löste das Kreuzzeichen die frühe Symbolik erst im 5. Jahrhundert allgemein ab. Zu dieser Zeit hatte das heute bekannte Lateinische Kreuz das vorerst übliche Taukreuz, welches ein einfaches T darstellt, bereits verdrängt.

Die vermehrte Verwendung des Kreuzzeichens scheint auch mit der Abschaffung der Kreuzigungsstrafe im Jahr 320 n. Chr. einherzugehen und wurde zudem dadurch gefördert, dass Konstantin der Große Religionsfreiheit gewährte sowie sich zum Christentum bekannte und das Christentum 391 von Konstantins Nachfolger zur Staatsreligion des Römischen Reiches ernannt wurde. Einige Historiker gehen auch davon aus, dass das heidnische Umfeld eine große Rolle dabei spielte, warum die Wahl auf das Kreuzzeichen fiel, da viele heidnische Kulturen Versionen dieses Symbols bereits verwendeten. Schon in der Steinzeit wurde das Kreuz als Kultgegenstand gebraucht.

Im Mittelalter schließlich wurde das Kreuz in Form von Kruzifixen gemeinhin verbreitet und lief zur Hochform auf. Angebracht wurde das Symbol nicht nur an Kathedralen und Kirchen, sondern fand auch Eingang in die Wappen vieler Adelshäuser.

Das Kreuz im Christentum – Weitere Kreuzformen

Neben dem weithin bekannten Lateinischen Kreuz finden sich noch zahlreiche weitere Kreuzformen in der christlichen Religion.
Unter den verbreiteteren Formen befindet sich das Keltenkreuz (Lateinisches Kreuz mit Ring), welches vornehmlich in Irland verwendet wurde, das Patriarchenkreuz (zweiter Querstrich als Symbol für die Kreuzinschrift), das Petruskreuz (auf dem Kopf stehendes Lateinisches Kreuz) zur Verehrung des heiligen Petrus, das Tatzenkreuz mit nach außen hin verbreiterten Balken und das Papstkreuz, das mit seinen drei Querbalken die päpstlichen Gewalten Priester-, Hirten- und Lehrgewalt symbolisiert.

Das Kreuz im Christentum – Verwendung und Vorführung

Vor allem in christlich geprägten Ländern ist das Kreuz heute noch an zahllosen Orten anzutreffen. Noch immer ist das Kreuz ein beliebter Halskettenanhänger und das nicht nur bei bekennenden Christen.
Nach wie vor wird auch bei Segnungen das Kreuz geschlagen und Prozessionen führen das Kreuz voraus.

Teilweise hängt das Kreuz auch immer noch in Klassenzimmern öffentlicher Schulen und aufgrund der traditionellen Krankenpflege der Kirche tragen auch viele Apotheken, Krankenhäuser und Verbände wie das Rote Kreuz dieses Symbol als Kennzeichen.

Bis heute enthalten auch viele Länderflaggen das Kreuzzeichen. So vereint die britische Union Jack das Andreas-, Georgs- und Patrickskreuz auf einmal.

Auch viele Berge ziert noch immer ein Gipfelkreuz.

Warum hat man Alpträume? Gründe, Erklärung


Bei einem Alptraum, auch Albtraum oder Nachtmahr, handelt es sich um eine Schlafstörung, eine sogenannte Parasomnie. Als Alpträume werden Träume bezeichnet, die mit negativen Emotionen, wie beispielsweise Angst, Trauer oder Panik, einhergehen. Dabei durchlebt der Träumende meist bedrohliche oder chaotische Situationen und Szenarien.

Warum hat man Alpträume? Gründe, Erklärung

Ein Alptraum taucht meistens während der REM-Phase (englisches Kürzel für „rapid eye movement“, zu deutsch „schnelle Augenbewegung“) auf, die typische Dauer beträgt von wenigen Minuten bis zu einer halben Stunde. Alpträume werden in vielen Fällen als sehr intensiv wahrgenommen und enden oft mit einem aufgeschreckten Erwachen. Nach dem Wachwerden tritt häufig ein beklemmendes oder gehetztes Gefühl der Panik auf, welches einige Zeit anhält und sich erst nach einer Weile allmählich legt. Häufige Alpträume, vor allem solche mit immer gleichem Inhalt, können zu einer dauerhaften psychischen Belastung während der Wachzeit eines Menschen werden, der sich irgendwann davor fürchtet, zu Bett zu gehen und Schwierigkeiten hat, Schlaf zu finden.

Als Ursache für schlechte Träume bekannt sind zum Beispiel traumatische Erlebnisse aus der Vergangenheit, die Verarbeitung des letzen Tages, Stress, aber auch psychische Störungen und physische Probleme. Auch kommende Ereignisse, die Angst oder Nervosität auslösen, können solche schlechten Träume begünstigen. Alpträume wirken sich in der Regel negativ auf die nächtliche Erholung und die körperliche und seelische Verfassung des Schlafenden aus.

Viele große Künstler ließen sich von der Thematik des Alptraums inspirieren. Der Alptraum ist Mittelpunkt musikalischer Werke, bestimmt die Handlungsstränge vieler Filme und Bücher und alptraumhafte Szenen werden auf etlichen Leinwänden abgebildet.

Kann man Alpträume behandeln oder ihnen vorbeugen?

Eine gute Methode, um Alpträume abzuwenden oder sie von vornherein zu vermeiden, ist die Fähigkeit des Klartraums oder „luziden Traums“. Bei einem Klartraum wird dem Träumenden bewusst, dass es sich bei dem Erlebten nicht um reales Geschehen handelt, sodass er eingreifen und die Kontrolle über seinen Traum gewinnen kann. Durchlebt man einen Traum bewusst, kann man ihn umstrukturieren und die Handlung verändern und so das Alptraumhafte daraus verbannen. Diese Methode gilt als sehr zuverlässig, doch handelt es sich bei einem luziden Traum um eine Fähigkeit, die erst einmal erlangt werden muss. Um dies zu schaffen, gibt es verschiedene Übungen, mit denen man einen Klartraum auslösen kann. Indem man sich diese Übungen zur Gewohnheit macht, ist es möglich, regelmäßig luzide Träume zu erleben, und so langfristig die eigenen Alpträume zu bekämpfen.

Für Menschen, denen es nicht gelingt, sich während des Traumes bewusst zu werden, dass sie träumen, und die an immer wiederkehrenden Alpträumen leiden, gibt es noch andere Behandlungen. In dem man der Ursache seiner Ängste auf den Grund geht und sich ihnen stellt, kann man weiteren Alpträumen entgehen. Dies können ganz alltägliche, berufliche oder familiäre Missstände sein, aber traumatische und seelisch belastende Erlebnisse aus der Kindheit oder jüngeren Vergangenheit können ebenso verantwortlich für die sich wiederholenden Träume sein. Manchmal ist der Grund für solche Alpträume auch nicht eindeutig klar, in dem Fall muss erst Ursachenforschung betrieben werden. Es empfiehlt sich, dafür professionelle Hilfe in Anspruch zu nehmen.

Ist der Ablauf des Alptraums immer gleich, kann man auch versuchen, ihn sozusagen umzuschreiben. Eine Theorie lautet, dass ein Traum, je öfter er sich wiederholt, desto schneller erneut ausgelöst werden kann. Um diesen Kreis zu durchbrechen, muss man versuchen, das „Drehbuch“ abzuändern. Diese Methode ist bekannt als „imagery rehearsal therapy“, kurz IRT, und gilt ebenfalls als überaus wirksam. Sie baut darauf auf, dass man den Traum während der Wachzeit immer wieder visualisiert und ihn dabei auf immer gleiche Weise umformt, so dass der tatsächliche Alptraum sich ebenfalls bis zur Harmlosigkeit verändert. Neben der Methode des Klartraums ist die IRT-Methode eine der erfolgreichsten Möglichkeiten, sich von erschöpfenden Alpträumen zu befreien.

Warum ist der Daumen kein Finger? Erklärung


Der Daumen unterscheidet sich anatomisch und funktionell von den Fingern. Seine Sonderstellung als Glied der Hand verschaffte den Primaten außerordentliche evolutionäre Vorteile, die sich bis zur Menschwerdung fortsetzten und nach wie vor bestehen.

Sichtbare Unterschiede zwischen Daumen und Fingern

Nicht nur seine Stellung, sondern auch sein Aufbau unterscheidet den Daumen von den Fingern: Diese haben drei Knochen, beim Daumen sind es nur zwei. Er steht auch vollkommen anders am Handteller, was ihn so vorteilhaft macht: Durch seine Stellung gegenüber der Mitte zwischen Zeige- und Mittelfinger ist er opponierbar. Er kann sich zu den Fingern und zum Handteller hin bewegen. Damit kann er die Spitzen der Finger berühren, was erst das geschickte und differenzierte Greifen ermöglicht. Diese Stellung ist die Opposition (Gegenüberstellung) des Daumens. Es gibt auch bei manchen Füßen von Tieren eine Opposition. Sie verfügen über die Fähigkeit, ihre erste Zehe per Pinzettengriff den anderen gegenüberzustellen. Doch die beste Opposition haben die Daumen von Menschen, gefolgt von denen der Menschenaffen.

Wann hat sich der Daumen so entwickelt?

Nach Forschungen der Universität Tübingen dürfte der Prozess bei den Primaten vor rund zwei Millionen Jahren eingesetzt haben. Bereits der Homo erectus konnte demnach relativ geschickt mit seinem Daumen umgehen. Dies verschaffte der Spezies die Fähigkeit, frühe Steinwerkzeuge herzustellen und zu benutzen.

Die Knochen des Daumens

Die beiden direkt am Daumen sichtbaren Knochen sind der Phalanx proximalis (näher zum Handteller) und Phalanx distalis (Endglied). Funktionell gehört allerdings der Os metacarpale I (erster Mittelhandknochen) eigentlich auch zum Daumen. Er lässt sich mit dem Daumensattelgelenk artikulieren (ansteuern) und ermöglicht damit die höhere Bewegungsfreiheit des Daumens. Die distale (vom Handteller entfernteste) Stelle des Os metacarpale I weist häufig ein Sesambein auf. Dieses ist ein kleiner, in eine Sehne eingelagerter Knochen, welcher der Sehne einen größeren Hebel verschafft und nochmals die Beweglichkeit des Daumens erhöht.

Faustschluss durch den Daumen

Der Faustschluss ist nur möglich, weil der Daumen in Opposition zu den Fingern steht und besonders beweglich ist. Beide Eigenschaften zusammengenommen sind die Voraussetzung für das kräftige Greifen und führten zum entscheidenden evolutionären Entwicklungssprung der Primaten gegenüber anderen Affenarten und allen übrigen Tieren. Es gibt auch Affenarten (sogenannte Neuweltaffen), die zwar einen Daumen haben, ihn aber nur adduzieren (heranführen), aber nicht opponieren können. Zur Opposition des Primatendaumens gehören auch eine sehr differenzierte Muskulatur und die besondere Beweglichkeit durch die Sehnen und Gelenke im Daumen. Er verfügt über neun Einzelmuskeln. Auch das unterscheidet ihn von den Fingern, weshalb er evolutionstechnisch diesen nicht zugeordnet wird.

Die Unterschiede zwischen Daumen und Fingern setzen sich im Gehirn fort: Diejenigen Hirnareale, die ihn steuern, sind deutlich größer gegenüber denen für die anderen Finger. Ein weiterer Unterschied ist beim Daumennagel festzustellen: Er wächst deutlich langsamer als die Fingernägel und würde sich im Gegensatz zu diesen bei einem sehr langen Wachstum zu einer Spirale zusammenrollen.

Entstehung des Daumengelenks

Das Daumengelenk ist im Gegensatz zu den anderen Gelenken relativ jung. Es entstand vor rund acht Millionen Jahren, während das übrige Skelett seine prägende Form schon bei den frühen Menschenartigen im Miozän vor rund 20 Millionen Jahren ausbildete. Daher ist das Daumengelenk deutlich weniger belastbar als andere Gelenke (darunter die der Finger). Dies führt unter anderem dazu, dass ~80 % der aller Frauen ab dem 40. Lebensjahr von der Wachstumsstörung Rhizarthrose betroffen sind, die mehr oder minder stark ausfällt und nicht unbedingt belastend sein muss. Sie führt aber dazu, dass ihr Sattelgelenk am Daumen schräg steht. Dieses spezielle Gelenk macht den Daumen besonders beweglich, es ist aber auch empfindlich.

Ebenfalls der Jugend des Daumens schreibt man verschiedene Anomalien zu, darunter den Doppeldaumen (zwei Daumen an einer Hand) als häufigste Fehlbildung der Hand, den dreigliedrigen Daumen und die Typ-D-Brachydaktylie mit verkürztem Endglied inklusive kürzerem Fingernagel. Auch hiervon sind Frauen häufiger betroffen. Diese Anomalie kann ein- oder beidseitig auftreten.

Woher hat der Daumen seinen Namen?

Im Althochdeutschen hieß er Dumo oder Dum, im Mittelhochdeutschen Dume. Beide Worte leiteten sich vom westgermanischen Wort thuman ab, das mit dem vorindogermanischen tum verwandt ist. Es bedeutete „geschwollen sein“ „besonders starker Finger“ und ebenso „Zoll, Daumenbreit“. Das Wort Tumor (Geschwulst) kommt vom gleichen Wortstamm.

Der sprichwörtliche Daumen

Die Menschen schätzen ihren Daumen sehr und binden ihn in zahllose Sprichwörter ein. Sie schätzen etwas π (pi) mal Daumen oder auch Daumen mal Fensterkreuz, was bedeutet, dass sie den Daumen gegen das Fensterkreuz heben und dann die Entfernung über den Daumen peilen, was schon wieder ein eigenes Sprichwort ist. Daraus leiten sie auch ihre Daumenregeln ab. Wer mit Pflanzen geschickt umgehen kann, hat einen grünen Daumen. Wenn jemand Glück braucht, drücken wir ihm fest beide Daumen. Müßiggang unterstreichen wir mit Däumchen drehen, was ja tatsächlich eine gelangweilte Bewegung sein kann. Der Däumling ist im Märchen ein ganz besonders kleiner Mensch. Wer etwas für sich fixiert, hat den Daumen drauf. Der englische Begriff thumbnail (Daumennagel) bezeichnet das daumennagelgroße Vorschaubild.

Was ist CBDC? Vorteile, Nachteile, Erklärung


CBDC steht für „Central Bank Digital Currency“. Es handelt sich um eine Kryptowährung der Zentralbanken. Diese wollen das rein digitale Bezahlen damit in die breite Öffentlichkeit tragen und gleichzeitig für die Stabilität einer solchen Kryptowährung sorgen, die prinzipiell dieselbe wie die des (konventionellen) FIAT-Geldes sein soll. Entsprechende Projekte laufen weltweit schon mindestens seit 2015.

Was ist CBDC? Erklärung, Ziele

Das elektronische Geld liegt auf Konten der Zentralbanken und soll einem größeren Personenkreis zur Verfügung stehen. Wenn CBDC vollkommen ausgebaut ist, könnten praktisch alle geschäftsfähigen Bürger*innen und alle Unternehmen bei der Zentralbank ein CBDC-Konto führen. Die Währung hätte alle Eigenschaften von Kryptowährungen und ließe sich selbstverständlich auch mit Mobile Apps und anonymen Guthabenkarten verwenden. Sie wäre für Sparanlagen geeignet, wenn sie die Stabilität des heutigen FIAT-Geldes (Euro, Dollar etc.) erreicht.

Bei den derzeitigen Kryptowährungen wie Bitcoin & Co. ist das keineswegs der Fall, sie unterliegen enormen Wertschwankungen. Sie heißen Stablecoins und kommen aus der Privatwirtschaft, während das digitale Zentralbankgeld ausschließlich von Zentralbanken geschaffen werden soll. Es könnte dann wie das heutige Bargeld umlaufen. Die Berechtigung zu Emission hätte stets nur eine Zentralbank. Der Umlauf käme in Gang, indem Privathaushalte, Geschäftsbanken und Unternehmen das per Geldschöpfung erzeugte Buchgeld von Geschäftsbanken in digitales Zentralbankgeld tauschen. Die Geschäftsbanken müssten hierfür einen Teil ihrer Geldreserven in digitales Zentralbankgeld tauschen, das eine andere Form der Geldreserve neben dem Bargeld wäre. Nachfolgend könnte das digitale Zentralbankgeld im Zahlungsverkehr benutzt werden.

Organisation der CBDC-Konten

Die naheliegendste Möglichkeit der Organisation von CBDC-Konten wäre die Einrichtung einer Blockchain oder alternativ eines Directed Acyclic Graph bei der Zentralbank. Diese beiden Systeme sind sicher, die heutigen Kryptowährungen existieren damit. Doch es ist auch die Organisation als herkömmliche Datenbank denkbar. Die Kunden würden den Unterschied nicht bemerken: Sie hätten den digitalen Zugriff auf ihr Zentralbankkonto in ähnlicher Weise, wie sie heute schon auf ihr Konto bei einer traditionellen Geschäftsbank per Onlinebanking oder Kreditkarte zugreifen. Wenn sich CBDC durchsetzt, dürfte der Umgang mit dem digitalen Geld zunehmend per App organisiert werden, was aber nichts mit der digitalen Gelderzeugung und -verwaltung zu tun hat: Auch auf konventionelle FIAT-Konten können Menschen schon per App zugreifen, wenn sie es wünschen.

Welche Vorteile bietet CBDC?

  • Digitales Zentralbankgeld ist durch die Blockchain oder den DAG sicherer als FIAT-Geld.
  • Es unterliegt der zentralen Geldpolitik, was es im Gegensatz zu den Stablecoins als gesetzliches Zahlungsmittel geeignet macht.
  • Der Umgang damit entspricht dem digitalen Zeitalter. Bargeld gilt in vielen Ländern (beispielsweise in Skandinavien) längst als obsolet.
  • Mit CBDC würde der Bargeldverbrauch wahrscheinlich wirklich schrumpfen.
  • Der Währungsumlauf wäre damit effizienter zu kontrollieren, weil jede Geldbewegung in Echtzeit nachzuvollziehen ist.
  • CBDC würde die Vorherrschaft von Stablecoins beim Kryptogeld beenden und zur Währungsstabilität der Kryptowährungen beitragen. Damit könnten auch private Unternehmen mit hoher Finanzkraft wie Facebook mit der eigenen Kryptowährung Libra nicht mehr den Markt dominieren.
  • Die Abläufe sind wie bei jeder Kryptowährung schnell und effizient.

Nachteile: CBDC

Der Umgang mit der Technologie dürfte rein vom Handling her nur zögernd von alle Verbrauchern angenommen werden. Bisher nutzen auch nur sehr wenige Menschen Apps für Bezahlvorgänge.

  • Der Verwaltungsaufwand für die Konten könnte für die Zentralbanken sehr hoch werden. Immerhin benötigen die Kunden auch Support sowie Kredit- und Anlageberatung. Bislang übernehmen diese Rolle die lokalen Geschäftsbanken mit ihren vielen Beschäftigten.
  • Es dürfte in der Bevölkerung noch lange Zeit Vorbehalte gegen rein digitales Geld geben.

Zwei unterschiedliche Arten von CBDC

CBDC wird in zwei prinzipielle Arten unterschieden:

Wholesale CBDC: Dieses CBDC gibt die entsprechende Zentralbank ausschließlich an Geschäftsbanken und weitere Verwalter großer Vermögen als NBFI (Nichtbank-Finanzinstitution, beispielsweise Versicherung oder Rentenfonds) aus.

Retail CBDC: Das CBDC liegt bei der Zentralbank auf Kundenkonten vor. Die Kunden (Unternehmen, Privathaushalte, öffentliche Einrichtungen) können direkt darauf zugreifen.

Rein strukturell (unabhängig von der Technik der Geldgenerierung) würde Wholesale CBDC dem gegenwärtigen Bankensystem entsprechen. Die aktuelle Diskussion dreht sich aber überwiegend um Retail CBDC, das auch strukturell eine Innovation wäre. Es würde unter anderem das Gegenparteienrisiko der Insolvenz einer Geschäftsbank ausschalten und damit zum Beispiel die gegenwärtige Einlagensicherung überflüssig machen. Grenzüberschreitende Zahlungen würden deutlich billiger und liefen auch schneller ab, wenn das Geld nicht mehr den Umweg über eine Geschäftsbank nehmen müsste.

Fragen der Ausgestaltung von CBDC

Zentralbanken sehr vieler Staaten forschen zu CBDC. Allerdings sind die betreffenden Bemühungen in den digitalisierten Volkswirtschaften am weitesten fortgeschritten, in denen die informelle Wirtschaft ohnehin sehr ausgeprägt ist. Den Schritt zum vollkommen bargeldlosen System untersuchen die Zentralbanken mit Stand 2022 noch nicht. Sie wollen Bargeld lediglich digital ergänzen. Hierzu konzipieren sie auf unterschiedliche Weise ein hybrides System, in welchem CBDC eine bargeldähnliche Direktforderung gegenüber der Zentralbank darstellt. Die kundenbezogenen Aktivitäten wickelt jedoch der Privatsektor ab.

Ein wichtiger Punkt bei der Ausgestaltung des CBDC ist die Einführung von Zinsen auf Kredite und Guthaben. Dieser Punkt ist keinesfalls selbstverständlich, denn wenn CBDC praktisch ein digitaler Bargeldersatz sein soll, dürfte es nicht verzinst werden: Auch Bargeld läuft zinsfrei um. Wenn es Zinsen auf das CBDC gibt, stellt sich die Frage nach ihrer Höhe. Sie könnten beispielsweise dem Einlagesatz bei den Zentralbanken entsprechen, doch vielleicht müsste auch für CBDC ein neuer Leitzinssatz definiert werden. In jedem Fall entfiele das Zinsgeschäft der Geschäftsbanken, die Geld von der Zentralbank günstiger bekommen und es als Kredit teurer verleihen. Doch es wäre zu hinterfragen, mit welchen Zinsen Sparer rechnen könnten. Denkbar wäre, dass die Zentralbank CBCD zu einem gewissen Zinssatz für die Sparer anlegt und zu einem etwas höheren Zinssatz verleiht. Damit würde sie wie eine riesige Geschäftsbank fungieren.

Eine zweite wichtige Frage ist die nach der Möglichkeit, CBDC auf den Kundenkonten zu erzeugen. Dies müsste der Zentralbank vorbehalten sein. Sie könnte damit eine Art Helikoptergeld bzw. Quantitative Easing für normale Kontoinhaber vergeben. Die dritte wichtige Frage ist die der Verrechnung von CBDC mit FIAT-Geld, solange Letzteres noch existiert. Eine Variante lautet, dass CBDC in FIAT-Geld 1:1 konvertierbar ist, was im Sinne der Währungsstabilität zu begrüßen wäre. Doch es könnte sich auch ein Wechselkurs bilden. Die dritte Möglichkeit wäre die Einführung einer Höchstgrenze für die 1:1-Konvertierung. Dies liefe auf ein völlig neues Geldsystem hinaus. Auch die Frage der anonymen Zahlungen stellt sich, wie sie heute mit Bargeld völlig unproblematisch möglich sind. Da CBCD komplett digital verwaltet wird, könnte für anonyme Zahlungen eine Höchstgrenze festgelegt werden, was Geldwäsche im großen Stil erschweren oder ganz unterbinden würde. Wenn die Zentralbank auf den bei ihr geführten CBDC-Konten Geldwäsche feststellen würde, könnte sie diese direkt sanktionieren.

Verbreitung: CBDC

Auf den Bahamas wurde schon der Sand Dollar, in Kambodscha der Bakong als CBDC-Geld vollständig eingeführt. In anderen Staaten gab oder gibt es Pilotprojekte oder sehr fortgeschrittene Untersuchungen zur Thematik. Hier ein Überblick (Stand: November 2022):

  • Bahamas: Sand Dollar, vollständig eingeführt seit 2020
  • Kambodscha: Bakong, vollständig eingeführt seit 2021
  • Ostkaribische Währungsunion: DCash, Pilotprojekt seit 2021
  • China: e-CNY, Pilotprojekt seit 2020
  • Uruguay: e-Peso, Pilotprojekt von 2017 bis 2018
  • Kanada: Jasper, nur als Wholesale CBDC für Interbankenzahlungen seit 2021
  • Südafrikanische Republik: Khokhag, nur als Wholesale CBDC für Interbankenzahlungen seit 2020
  • Schweden: e-Krona, Pilotprojekt seit 2020
  • Ukraine: E-Hrywnja, Pilotprojekt seit 2018

Eine Umfrage stellte im Jahr 2021 fest, dass 80 % aller Zentralbanken der Welt an CBDCs arbeiten und 40 % schon Proof-of-Concept-Tests durchführen. Der e-Euro wird durch die EZB noch bis 2023 geprüft. Schon Mitte 2021 stellte sie fest, dass es hierfür keine technischen Hindernisse gibt. Gegenwärtig untersucht sie noch die Auswirkungen auf die Märkte, Händler und Bürger sowie die nötigen Voraussetzungen für die Gesetzgebung. Schon seit 2020 laufen mehrere Projekte der EIB (Europäische Investitionsbank), welche die Ausgabe, Übertragung und Kontrolle von CBDC, Smart Contracts und Wertpapier-Token testen. In Thailand wurde noch kein CBDC eingeführt, jedoch hat die Zentralbank dessen mögliche Auswirkungen sehr umfangreich untersucht und hierzu im April 2021 einen Bericht veröffentlicht.

Mögliche Finanzstabilität durch CBDC

Zentralbanken interessiert vorrangig die Frage, ob im Krisenfall CBDC die Stabilität des Finanzsystems eher stärkt oder schwächt. Zu erwarten wäre, dass im Krisenfall Geldmarktakteure (Unternehmen, Privatleute, öffentliche Hand) ihre FIAT-Bankeinlage und Bargeld in großem Stil in CBDC umschichten, weil diese Anlageform garantierte Sicherheit durch die Zentralbank verspricht. Dies könnte zu einem Liquiditätsrisiko für Geschäftsbanken und möglicherweise sogar zu Währungsturbulenzen führen, muss es aber nicht. Darauf weist die BoE (Bank of England) hin. Die dortigen Experten sind der Auffassung, dass es lediglich einer konkreten Ausgestaltung des Wechsels von FIAT-Geld in CBDC bedarf, um die genannten Risiken zu minimieren.

Auch der EZB-Experte Ulrich Bindseil weist darauf hin, dass es diesen Effekt der Umschichtung zu sicheren Banken bereits gibt. Daher würde digitales Zentralbankgeld keine prinzipiell neue Situation schaffen. Vor allem bei einer unbegrenzten 1:1-Konvertierung von FIAT-Geld zu CBDC gäbe es überhaupt kein Risiko der Instabilität an den Finanzmärkten, da sich an der umlaufenden Geldmenge durch die Umschichtungen gar nichts ändern würde.

Fazit: Was ist CBDC?

Die weltweite Einführung von CBDC könnte noch mindestens zehn Jahre oder länger dauern. Sie scheint aber angesichts der digitalen Durchdringung aller Wirtschafts- und Finanzkreisläufe unausweichlich.

Warum ist der Jazz in New Orleans entstanden? Erklärung, Geschichte


New Orleans, Louisiana – in der US-amerikanischen Stadt wurde Ende des 19. und Anfang des 20. Jahrhunderts der Jazz geboren. Zu jener Zeit war New Orleans ein multikultureller Hotspot, mit spanischen, französischen kolonialen Wurzeln und afrikanischen wie europäischen Einflüssen. New Orleans hob sich auf diese Weise von anderen US-amerikanischen Städten ab. Dieser besondere Mix aus Kulturen bereitete den musikalischen Nährboden für die Entstehung des Jazz. Auch, wenn es Debatten darüber gibt, wer letztendlich den Jazz erfand, ist es unumstritten, dass jenes Musikgenre in New Orleans entstand.

Noch heute lassen sich in New Orleans die Einflüsse des Jazz entdecken, der die Kulturgeschichte der Stadt maßgeblich geprägt hat. Der New Orleans Jazz florierte zwischen 1890 und 1930 und bereitete den Boden für zahlreiche Entwicklungen in der Musikhistorie. Damals brachten Musiker verschiedenster Kulturen ihre Musikeinflüsse mit und halfen, das neue Musikgenre zu erschaffen.

Traditionell greift der New Orleans Jazz auf Instrumente wie Kornett, Trompete und Posaune zurück. Je nach Band konnten sich zudem Klarinette, Tuba, Kontrabass oder Schlagzeug dazugesellen. Der Jazz aus jener Zeit hatte seine musikalischen Wurzeln wohl in lokalen Street Bands und im Ragtime. Von New Orleans breitete sich der Einfluss des Jazz schließlich in die Welt aus.

Ursprünge und Einflüsse des Jazz von New Orleans

Bis heute gibt es verschiedene Theorien darüber, wie der Jazz in New Orleans entstanden ist. Klar ist, dass die Musikrichtung zuerst unter dem Titel Jass bekannt war, bis sich gegen 1917 der Begriff Jazz etablierte. Zu jener Zeit war der Ragtime bereits etabliert, eine einflussreiche Vorversion des Jazz, die Straßenzüge von New Orleans wurden zudem von Street Bands geprägt. Der beschriebene multikulturelle Flair sorgte für die Entwicklung neuer Kunstformen, an deren Spitze der Jazz stand. Dabei hat die Entwicklung des Jazz in New Orleans einen ernsten Hintergrund: In vielen Städten der USA herrschten Formen der fragwürdigen Rassentrennung. In New Orleans gab es jedoch lockerere Interpretationen dieser Praktiken. So kam es an Plätzen wie dem Congo Square zur Mischung von afroamerikanischer und kreolischer Kultur, die sich gegenseitig beeinflussten und den Jazz möglich machten.

Der Name Buddy Bolden taucht immer wieder auf, wenn es um die Väter des Jazz geht. Er, unter dem vollen Namen Charles Joseph Bolden bekannt, half beim Übergang vom Ragtime zum Jazz. Um 1895 stieg er zu einer der ersten prominenten Figuren der neuen Musikrichtung auf, dabei spielten auch amerikanische Marschmusik und Blues in den Sound hinein, der auf öffentlichen Veranstaltungen und auf Paraden gespielt wurde. Der Legende nach soll Bolden der erste Bandleader des Jazz gewesen sein. Heute ist Buddy Bolden als King bekannt und gehört zur sogenannten Jazz Royalty der USA. Louis Armstrongs Lehrmeister King Oliver gehört ebenso zu den frühen Ikonen des Jazz, wie das experimentelle Genie Jelly Roll Morton. Auch Louis Armstrong erlernte sein Kunstwerk zu Beginn des 20. Jahrhunderts in New Orleans.

In New Orleans entwickelten sich über die Jahre zudem weitere Varianten des Jazz wie der Dixieland Jazz, zu dessen Popularisierung die Original Dixieland Jass Band mit ihren Aufnahmen um 1917 beitrug. Dabei vermischte der frühe Dixieland den afroamerikanischen Ragtime mit sizilianischer Musik. Sowohl New Orleans Jazz als auch Dixieland haben über die Dekaden bis heute zahlreiche Revivals durchlebt.

Die spätere Geschichte des New Orleans Jazz

Der Höhepunkt des klassischen New Orleans Jazz ist zwischen 1890 und 1930 zu verorten. King Oliver, Jelly Roll Morton, Louis Armstrong, Kid Ory – die Liste der Namen unter den Jazz-Berühmtheiten aus New Orleans ist lang. Dabei fanden einige der früheren Entwicklungen des Jazz im Vergnügungsviertel Storyville statt. Aufgrund von Zwischenfällen wurde das Viertel geschlossen. Nicht nur, aber auch deshalb zog es nach und nach Musiker aus New Orleans weg. Louis Armstrong und Kid Ory gingen nach Chicago, wo sich eine eigene Jazzbewegung herauskristallisierte. Der Jazz emanzipierte sich nach und nach von New Orleans.

Der Jazz machte danach zahlreiche Evolutionen durch, neue Formen wurden erschaffen, die den New Orleans Jazz als eine von vielen Strömungen des Genres zurückließ. Und doch ist der Einfluss des New Orleans Jazz auch heute noch zu spüren. In den 30ern, den 50ern und 60ern kam es jeweils zu einflussreichen Revivals des Stils.

Michael White, Kermit Ruffins und George E. Lewis sind ein Nachweis, dass die Jazzszene von New Orleans noch heute einflussreiche Musik produziert. New Orleans hat mit dem Jazz die Welt verändert, aber der Jazz hat New Orleans nie verlassen.

Überblick – Warum der Jazz in New Orleans entstand

New Orleans gilt als Ursprung des Jazz. Beeinflusst von Ragtime und örtlichen Streetbands entstand aus dem kulturellen Melting Pot von New Orleans ab 1890 bis 1930 die Ursprungsform des New Orleans Jazz. Das Zusammenleben verschiedenster Kulturen, die sich musikalisch gegenseitig inspirierten, machte den Jazz überhaupt erst möglich. Buddy Bolden, Jelly Roll Morton, King Oliver und Louis Armstrong gehören zu den Ikonen der frühen Jazzbewegung. Seitdem hat sie ein ganzes Genre beeinflusst, das noch heute lebhaft – auch in New Orleans – existiert.

Warum ist der Dodo ausgestorben? Erklärung, Geschichte


Er war einmal in den majestätischen und dichten Wäldern der Insel Mauritius beheimatet – die Rede ist vom inzwischen ausgestorbenen „Dodo“. Der Name dieses faszinierenden Vogels steht noch heute als Synonym für das traurige Schicksal zahlreicher Tierarten, die durch menschliche Einflüsse ausgerottet wurden. Die Geschichte des „Dodos“ ist eine Geschichte von Entdeckung und Verlust, von kolonialer Expansion und ökologischem Ungleichgewicht. Europäische Sehfahrer entdeckten den ulkigen Vogel und läuteten alsbald sein Ende ein. Trotz intensiver Bemühungen, die letzten Exemplare seiner Art zu bewahren, starb der „Dodo“ vor einigen hundert Jahren vollends aus.

Die Lehren aus dem Verschwinden des „Dodo“ bieten insgesamt einen guten einen Einblick in die komplexen Wechselwirkungen zwischen Menschen und Natur, die bis heute von großer Relevanz sind. Der nun folgende Artikel soll sich daher einmal mit dem ausgestorbenen „Dodo“ befassen und wie es zu seiner Ausrottung kam. Darüber hinaus sollen weitere, spannende Fakten zum „Dodo“ aufgezeigt werden.

Begriffserläuterung des „Dodo“

Beim „Dodo“ handelt es sich um einen ausgestorbenen, flugunfähigen Vogel, der früher ausschließlich auf der sich im Indischen Ozean befindlichen Insel Mauritius beheimatet war. Da europäische Seefahrer den „Dodo“ zuerst namentlich erfassten, so verwendeten die Niederländer eine abgewandelte Form von „dodoor“ (zu Deutsch: „herumtollen“ oder „dumm sein“), beziehungsweise die nutzten die Portugiesen das Wort „doudo“ (zu Deutsch: „einfältig“). Der Name des „Dodo“ wurde durch dessen ulkige Verhaltensweisen inspiriert. Und so wurde dem „Dodo“ aufgrund seines unbeholfenen Aussehens und Verhaltens dieser Name gegeben, obwohl er weder dumm noch unbeholfen war.

Sein wissenschaftlicher Name lautet „Raphus cucullatus“. Der „Dodo“ selbst war circa 1 Meter groß und besaß ein graues Gefieder sowie einen klobigen Schnabel und nur sehr winzige Flügel. Noch heute ist der „Dodo“ vor allem für sein tragisches Aussterben im 17. Jahrhundert bekannt und symbolisiert die Konsequenzen menschlicher Aktivitäten auf fragile Ökosysteme und bedrohte Arten. Wegen seines dramatischen Endes ist der „Dodo“ eine der bekanntesten, ausgestorbenen Arten überhaupt.

Wer war der „Dodo“?

Der „Dodo“ wurde von Beginn an als flugunfähiger Vogel klassifiziert und gehörte zu den taubenartigen Vögeln. Er bewohnte die Insel Mauritius im Indischen Ozean, die zu seiner Entdeckung durch europäische Seefahrer ein isolierter und abgeschiedener Lebensraum darstellte. Aufgrund seiner Flugunfähigkeit war die Lebensweise des „Dodo“ weitgehend terrestrisch – fand also an Land statt. Das Überleben wurde ihm vermutlich nur ermöglicht, da es auf Mauritius keine größeren Raubtiere an Land gab.

„Dodos“ ernährten sich von Früchten und möglicherweise auch von anderen Pflanzenteilen. Aufgrund des Mangels an natürlichen Feinden auf der Insel waren sie nicht besonders scheu und daher leicht zu fangen. Über die Fortpflanzung des „Dodos“ ist zudem relativ wenig bekannt. Es wird angenommen, dass die „Dodos“ in Nestern gebrütet und ihre Eier auf den Boden legten. Informationen über die Fortpflanzung des „Dodo“ wurden leider nie erfasst – dafür ist die Art auch zu schnell ausgelöscht worden.

Ursprüngliches Habitat des „Dodo“

Das ursprüngliche Habitat des „Dodos“ war die Insel Mauritius, die sich im Indischen Ozean befindet. Mauritius ist eine vulkanische Insel, die sich etwa 2.000 Kilometer vor der Ostküste von Afrika erstreckt. Das Klima auf Mauritius ist subtropisch bis tropisch und bot dem „Dodo“ eine Vielzahl an ökologischen Nischen, in denen der „Dodo“ sich wohlfühlte.

Ursprünglich gab es auf Mauritius wenig Säuge- und Raubtierarten, die dem „Dodo“ gefährlich werden konnten. Dies änderte sich jedoch rasch durch die Ankunft der ersten Europäer, die unter anderem Katzen und weitere Tiere auf die Insel mitbrachten. Der „Dodo“ ernährte sich von den reichlichen Früchten und Pflanzen der Insel, was ihm eine Nahrungsquelle ohne Konkurrenz verschaffte, bis diese von auf der Insel ausgesetzten Tieren abgetragen wurde. Später führte die menschliche Besiedlung und die daraus resultierende Umweltveränderung auf Mauritius zur negativen Veränderung dieses einzigartigen Habitats und letztendlich zum Aussterben des „Dodos“.

Natürliche Feinde des „Dodo“

Ursprünglich hatte der „Dodo“ auf seiner Heimatinsel Mauritius keine natürlichen Fressfeinde. Die ersten Europäer brachten jedoch Katzen, Affen, Ratten sowie Schweine auf die Insel, die stellenweise die Eier des „Dodo“ verspeisten, beziehungsweise den „Dodo“ selbst angriffen. Dieser konnte aufgrund seiner Flugunfähigkeit nur schwer flüchten, beziehungsweise erlebte die Fortpflanzung des „Dodo“ allmählich einen herben Rückgang. Sein Mangel an Verteidigungsstrategien und die Abwesenheit von natürlichen Feinden machten den „Dodo“ also insgesamt besonders anfällig, als die Menschen die Insel besiedelten.

Gründe für das Aussterben des „Dodo“

Es gibt eine Vielzahl an Gründen, die für das Aussterben des „Dodos“ verantwortlich sind. In den folgenden Unterabschnitten sollen einmal die Hauptgründe für die Auslöschung des „Dodos“ aufgezeigt werden:

  • Jagd auf den „Dodo“
  • Zerstörung des Lebensraums

Jagd auf den „Dodo“

Die europäischen Siedler gelten als die Hauptverursacher des Aussterbens des „Dodo“. Durch den Mangel an natürlichen Fluchtinstinkten, gepaart mit seiner Unfähigkeit zu fliegen, war der „Dodo“ natürlich eine leichte Beute – auch zur Nahrungsgewinnung für die Siedler. Die Jagd auf den „Dodo“ war insbesondere aufgrund seines Fleisches und seiner Eier weit verbreitet, was die Population dramatisch dezimierte.

Zerstörung des Lebensraums

Die Menschen zerstörten auch sukzessive den Lebensraum des „Dodo“, indem diese Wälder abholzten, natürliche Nahrungsquellen für den „Dodo“ minderten und potenzielle Lebensraumalternativen abschnitten. Die Lebensraumzerstörung war somit ein weiterer, entscheidender Faktor für das Aussterben dieser einzigartigen Vogelart.

Kritische Betrachtung zum ausgestorbenen „Dodo“

Noch heute wirft die Ausrottung des „Dodo“ Fragen auf. Der Mensch gilt als Hauptverursacher seines Verschwindens und dient damit als trauriges Beispiel für die Folgen menschlichen Einflusses auf besonders fragile Ökosysteme. Der Verlust dieses atypischen Vogels verdeutlicht die zerstörerischen Auswirkungen des menschlichen Handelns auf die Tierwelt und unterstreicht die Notwendigkeit eines nachhaltigen Naturschutzes und einer umweltbewussten Entwicklung. Der „Dodo“ ist damit ein Mahnmal für die Dringlichkeit des Schutzes gefährdeter Arten und die Wichtigkeit des Erhalts der biologischen Vielfalt.

Fazit zum Thema „Wann ist der Dodo ausgestorben“

Insgesamt gilt der „Dodo“ als eine der bekanntesten, ausgestorbenen Tierarten. Er lebte ursprünglich auf der Insel Mauritius und war ein flugunfähiger Vogel mit braunem Gefieder, der in den 1660er-Jahren für immer vom Erdball verschwand. Der „Dodo“ stellt noch heute ein Symbol für den Schutz gefährdeter Arten und die Bedeutung des Erhalts der biologischen Vielfalt dar. Ähnliche berühmte, ausgestorbene Tierarten, wie der „Dodo“ sind zum Beispiel das „Mammut“ und der „Säbelzahntiger“.

Warum hat ein Igel Stacheln? Erklärung


Stacheligel trifft man in Europa, Asien und Afrika an. Charakteristisch für sie ist ihr Stachelkleid aus langen, dichten Stacheln. Es macht sie unverwechselbar Die Stacheln schützen Igel vor Verletzungen und vor Feinden, den sie bedecken den gesamten Rücken, von der Stirn bis zum Schwanz und auch noch seitliche Bereiche des Bauches. Bei Gefahr können sich Igel in wenigen Sekunden komplett einrollen, so dass sie wie eine stachelige Kugel aussehen.

Woraus bestehen die Stacheln eines Igels?

Die Stacheln sind hohl und bestehen überwiegend aus Keratin, also demselben Stoff, aus dem auch unsere Haare und Nägel sind. Keratin ist ein Eiweiß, das den Stacheln ihre Festigkeit und zugleich eine gewisse Elastizität verleiht. Die Stacheln haben mit Wülsten verstärkte Innenwände, was sie fest, aber zugleich leicht macht. Dieser stabile Aufbau kann dem Igel sogar das Leben retten, denn dadurch können Stacheln Stürze auch aus größerer Höhe gut abfedern. Bei erwachsenen Tieren sind die Stacheln 2-3 cm lang, bei Igel-Babys wenige Millimeter. Die Stacheln werden zur Spitze hin schmaler und sind mit einer Art Wurzel in die Haut eingebettet, die einer kleinen Knolle ähnelt. Jeder einzelne Stachel wird durch einen Muskel bewegt, sodass ein Igel seine Stacheln individuell aufstellen oder anlegen kann. Die Stacheln von Igeln haben eine beige-braune Zeichnung, was den Tieren in der Natur eine hervorragende Tarnung verschafft. Mit zunehmendem Alter wird das Stachelkleid heller, es bleicht aus.

Die Anatomie des Stachel-Igels

Ein durchschnittlicher Igel ist braun bis graubraun, wird selten größer als 32 cm und wiegt zwischen 800 und 1.400 g. Am Kopf fallen ihre knopfartigen, runden Augen, kleine Ohren und eine spitze Nase auf. Er hat kürzere Vorder- als Hinterbeine und Krallen an den Pfoten. Der Schwanz ist zwischen 2 und 4 cm lang. Eine anatomische Besonderheit bringt den Igel zuweilen zum Spucken. Ursache hierfür ist das sei zusätzliches Geschmacksorgan, das Jacobsonsche Organ im Gaumen. Wenn er etwas zum Fressen findet, es aber nicht sofort erkennen kann, kaut er darauf herum, wobei Speichelschaum entsteht. Diesen befördert der Igel mit der Zunge zum Jacobsonsche Organ, das genau identifizieren kann, ob seine Beute essbar ist oder nicht.

Siehe: Was ist das Meme „friedlicher Igel, panischer Igel“?

Die Lebensweise des Stachel-Igels

Igel sind Einzelgänger, man trifft sie nur zur Paarungszeit zu zweit an. Ihr bevorzugter Lebensraum sind Hecken und Gebüsche am Waldrand. Sie mögen auch Parks und Gärten. Igel sind nachtaktive Säugetiere und werden erst in der Dämmerung munter. Sie können zwar nicht gut sehen, haben aber einen sehr feinen Riechsinn. Igel sind Insektenfresser und bevorzugen Spinnen, Käfer und andere Laufinsekten. Auch Schmetterlingslarven, Regenwürmer und Schnecken gehören zu ihren Speisen. Das Nahrungsspektrum ist also sehr umfangreich. Schnecken und Regenwürmer sind für Igel potenziell gefährlich, denn sie sind Zwischenwirte für Parasiten wie Bandwurm und Rundwurm. Fressen Igel die befallenen Würmer, kann es zu Schäden an allen inneren Organen kommen. Der Stacheligel hält Winterschlaf und benötigt in dieser Zeit Nahrung. In den kalten Monaten zehrt er von den Fettreserven, die er sich den Sommer und Herbst über angefressen hat. Wie wichtig die vorherige Nahrungsaufnahme ist, zeigt die Tatsache, dass er während des Winterschlafes zwischen 20 und 40 % seines Gewichtes verliert.

Wie Sie den richtigen Thermostat für Ihr Haus auswählen: Erklärung


Der Thermostat steuert die Temperatur des Hauses und ist ein wichtiger Faktor bei der monatlichen Energierechnung. Es ist essentiell, sich über die vielen Thermostate auf dem Markt zu informieren, bevor Sie einen Kauf tätigen. Im Idealfall finden Sie ein Thermostat, das den Anforderungen Ihres Hauses entspricht und energieeffizient ist. Erfahren Sie hier, wie Sie das richtige Thermostat für Ihre Fußbodenheizung auswählen.

Finden Sie ein geeignetes Thermostat

Vor dem Kauf eines Thermostats ist es essentiell zu wissen, welche Art von Thermostat Fußbodenheizung und -kühlung derzeit in der Immobilie installiert ist. HLK-Geräte sind in den meisten Häusern der Standard.

Modelle von Thermostaten

Thermostate gibt es in einer Vielzahl von Stilen und Funktionen. Ihre Fähigkeit, Energie zu sparen und sich an die Vorlieben der Benutzer anzupassen, ist sehr unterschiedlich.

Programmierbarer Thermostat

Ein programmierbarer Thermostat stellt die Temperatur ohne menschliches Zutun ein. Er kann so eingestellt werden, dass er die Temperatur in Ihrer Wohnung automatisch nach Ihren Wünschen ändert. Wenn Sie ein solches Gerät besitzen, müssen Sie nicht jeden Tag aufstehen und am Thermostat herumschrauben. Im Vergleich zu herkömmlichen Thermostaten senken programmierbare Modelle den Stromverbrauch und die Kosten. Da sie sich weniger abnutzen, haben sie eine längere Lebensdauer.

Sie können Ihr programmierbares Thermostat auf verschiedene Arten einstellen. Sie haben einen Sieben-Tage-Zeitplan, der tägliche Temperaturänderungen zulässt. Eine Variation dieses Themas besteht darin, ihn an Wochentagen auf eine bestimmte Weise und am Wochenende auf eine andere Weise einzustellen.

Digitaler nicht programmierbarer Thermostat

Diejenigen, die tagsüber zu Hause sind, bevorzugen vielleicht nicht programmierbare Thermostate, die manuell eingestellt werden müssen. Einige digitale, nicht programmierbare Thermostate können jedoch Daten mit dem HLK-System teilen, um das Haus den ganzen Tag über auf einer angenehmen Temperatur zu halten.

Manueller Thermostat

Ein manuelles Thermostat ist einem normalen, nicht programmierbaren Thermostat sehr ähnlich, das manuell eingestellt werden muss. Im Gegensatz zu nicht programmierbaren Thermostaten verfügen manuelle Thermostate jedoch nicht über ein gut lesbares LCD-Display.

Thermostat mit drahtloser Steuerung oder Fernbedienung

Das Einstellen der Temperatur in Ihrem Haus ist jetzt so einfach wie das Verbinden eines Fern- oder WLAN-Thermostats mit Ihrem Internetservice und das Einstellen von Ihrem Computer, Tablet oder Smartphone aus. Die Temperatur eines WLAN-Thermostats kann geändert werden, ohne dass Sie sie von Grund auf neu einstellen müssen, und zuvor eingestellte Temperaturen außer Kraft setzen. Die Möglichkeit, Änderungen von außerhalb des Hauses vorzunehmen, erhöht die Benutzerfreundlichkeit und das Potenzial zum Energiesparen.

 Zu beachtende Faktoren

Im Laufe der Zeit werden die Thermostate immer intelligenter und innovativer. Jedes ist auf seine Weise besonders, aber es gibt ein paar gemeinsame Vorlieben bei den Käufern, die Sie im Auge behalten sollten.

  1. Intelligente Thermostate verfügen über eine App, mit der Sie die Temperatur von überall im Haus aus einstellen können. Viele von ihnen sind mit Sprachassistenten wie Alexa von Amazon, Siri von Apple und Google Home kompatibel.
  2. Viele moderne intelligente Thermostate sind mit Geo-Fencing und Smartphone-Apps ausgestattet, um Ihre Routine zu lernen und die Temperatur entsprechend einzustellen.
  3. Sie können je nach Temperatur in Ihrem Haus automatisch von Kühlen auf Heizen umschalten, was sie ideal für Regionen mit einer großen Temperaturspanne macht.
  4. Thermostate mit hintergrundbeleuchtetem Display und Touch-Bedienung sind leicht zu überwachen und fein einzustellen.
  5. Thermostate, die Sie daran erinnern, den Filter der Klimaanlage oder des Ofens zu wechseln, sind praktische Funktionen.

Intelligenter Thermostat

Ein intelligentes Thermostat ist heutzutage der letzte Schrei in der Heiz- und Kühltechnik. Bei diesem programmierbaren Gerät ist keine vorherige Programmierung erforderlich. Je mehr es im Haus verwendet wird, desto mehr lernt es die Eigenheiten und Routinen seiner Besitzer. Wenn niemand zu Hause ist, kann das intelligente Thermostat für die Fußbodenheizung die Temperatur automatisch absenken.

Dieses Thermostat ist mit intelligenten Lautsprechern wie Alexa kompatibel und ermöglicht eine freihändige Bedienung mit Ihrer Stimme. Wenn es mit WLAN verbunden ist, können Sie es auch aus der Ferne bedienen.

Eine Schritt-für-Schritt-Anleitung zur Kombination Ihres neuen AC-Thermostats.

  1. Schalten Sie die alten Heiz- und Kühlsysteme aus, indem Sie die Sicherungen und den Thermostat ausschalten.
  2. Verwenden Sie Klebeband und einen Permanentmarker, um jedes Kabel zu kennzeichnen. Notieren Sie auf jedem Aufkleber, wohin das Kabel führt.
  3. Entfernen Sie die Schrauben und schneiden Sie die Drähte ab. Nehmen Sie die Rückwand von der Wand ab. Um zu verhindern, dass die Kabel im Raum hinter dem Thermostat verschwinden, kleben Sie sie mit Klebeband an der Wand fest.
  4. Bringen Sie die Rückwand des neuen Thermostats an der Wand an. Um Platz für das neue Thermostat an der Wand zu schaffen, müssen Sie die Dübel, mit denen das alte Thermostat an der Wand befestigt war, entfernen und eventuell einige Trockenbauarbeiten durchführen.
  5. Es ist wichtig, dass Ihr Thermostat richtig installiert ist. Einige Thermostate haben einen winzigen Level auf der Rückwand. Bevor Sie die Dübel in der Wand anbringen, markieren Sie mit einem Level die Position der Dübel und machen Sie mit einem Bleistift Führungslöcher.
  6. Verwenden Sie das Loch auf der Rückplatte, um alle Kabel hindurchzuführen. Verwenden Sie die Schrauben, die mit dem neuen Thermostat geliefert wurden, um die Rückplatte an der Wand zu befestigen. Stellen Sie sicher, dass alle Schrauben fest angezogen sind, bevor Sie fortfahren.
  7. Vergewissern Sie sich, dass alle Kabel richtig angeschlossen sind. Wenn die Kabelfarben anders sind als erwartet, können Sie sich jederzeit an dem Foto und den Etiketten orientieren.
  8. Bringen Sie die Abdeckung Ihres Thermostats wieder an. Starten Sie die Thermostat-Fußbodenheizung und das Kühlsystem des Thermostats neu, indem Sie die Unterbrecher wieder auf „ein“ stellen. Es ist sicher, den neuen Thermostat zu diesem Zeitpunkt zu aktivieren.

Beauftragen Sie einen Fachmann

Es gibt eine große Auswahl an Thermostaten auf dem Markt, so dass es schwierig sein kann, einen auszuwählen. Wenden Sie sich an einen professionellen Heizungsservice, um sich beraten zu lassen, was für Ihr Haus das Beste ist.

Strategie durch Wettrechner – Wissenswertes rund um die Vorbereitung von Sportwetten!


Online Sportwettenanbieter erhalten immer öfter den Vorzug von Sport-Fans, wenn es darum geht eine Wette auf ein Sportereignis zu platzieren. So haben stationäre Wettbetreiber zunehmend häufiger das Nachsehen. Grund für das gestiegene Interesse für Online Wetten sind dabei nicht nur die höheren Gewinnaussichten, sondern auch die Möglichkeit einer besseren Vorbereitung von verschiedenen Wetten.

Ohne die nötige Analyse und Vorbereitung von Wetten auf ein Sport-Event, bleibt eine Sportwette pures Glücksspiel. So nutzen immer mehr Sport-Fans einen Wettrechner, um damit potenzielle Gewinne vorab auszurechnen. Auf diese Weise gelingt es besonders gut Risiko und Chancen gegeneinander abzuwägen und sich somit für oder gegen bestimmte Wettangebote zu unterscheiden. In Deutschland gibt es unter den Sportwetten-Tipper ein deutliches Mehrinteresse für Systemrechner. Die oftmals sehr umfangreiche und komplizierte Rechnung von komplexen Wettangeboten kann durch einen Wettrechner deutlich vereinfacht werden. Denn der Markt für Sportwetten hält eine Vielzahl von verschiedenen Wettsystem bereit, so dass nicht nur Laien schnell den Überblick verlieren können. Um einen Tippschein ideal vorzubereiten, ist ein Wettrechner eine große Hilfe. Doch was versteht man eigentlich unter einem Wettrechner? Und welche Wettangebote lassen sich mittels Systemrechner vorab besser kalkulieren?

Was ist ein Wettrechner? Bedeutung, Definition, Erklärung

Ein Wettrechner ist ein praktisches Werkzeug für alle Sport-Fans, die sich gelegentlich an der Tippabgabe im Internet versuchen. Hierfür ist es lediglich notwendig die Wettquoten der Online Buchmacher in den Wettrechner einzutragen und den gewünschten Wetteinsatz zu bestimmen. Innerhalb weniger Sekunden gelingt es so die genaue Gewinnsumme zu berechnen, was vor allem bei Systemwetten oftmals sehr komplex erscheint. Anfänger im Wett-Bereich sollten nicht auf dieses Tool verzichten, um die Zusammenhänge zwischen Wettquoten, dem Einsatz und den Gewinnchancen besser zu verstehen. Spielkunden erhalten damit einen Überblick von den potenziellen Gewinnaussichten für verschiedene Wettsysteme im Internet. Es ist demnach nur noch notwendig den Ausgang von Sportereignissen richtig einzuschätzen. Den Rest übernimmt der Wettrechner im Internet. Die Plattform wettanbieter.org erklärt hier alle Wettrechner ausführlich, so dass sich Sport-Fans einen Überblick von dem enormen Vorteil dieses Tools machen können. Denn mittels Wettrechner lässt sich vor der Tippabgabe schnell erkennen, ob sich eine Wette überhaupt auszahlt. Je nach Wettart gelingt es hierbei sehr komplexe Berechnungen schnell und simpel zu lösen.

Systemwetten, Einzelwetten und Co. einfach erklärt!

Der Wettrechner wird nicht nur bei gewöhnlichen Einzelwetten verwendet, sondern bietet gerade bei komplexeren Systemwetten eine große Hilfe. Auf den meisten Wettportalen im Internet gibt es mittlerweile für Spielkunden eine große Auswahl für verschiedene Wetten. So haben Sport-Fans die Qual der Wahl, wenn es um die Art einer Wette gibt. Umfangreiche Systemrechner ermöglichen es gleich verschiedene Ausgänge von mehreren Sportereignissen zu berechnen, so dass Spielkunden im Vorfeld einen detaillierten Überblick von unterschiedlichen Gewinnaussichten erhalten. Die folgende Übersicht bietet eine Auswahl von verschiedenen Wettarten und deren Definition:

Einzelwetten

Der Klassiker unter den Wetten ist die Einzelwette. Hierbei wird lediglich auf ein Sportereignis getippt. Dabei handelt es sich meistens um die Optionen Sieg, Remis und Niederlage. Schätzt man eine sportliche Partie oder ein Event richtig ein, hat man die Wette gewonnen. In der Regel nutzen nur wenige Sport-Fans einen Wettrechner für Einzelwetten, da hierbei nur die Wettquote mit dem Einsatz multipliziert werden muss, um sich einen Einblick von dem möglichen Gewinn zu verschaffen.

Kombinationswetten

Kombinationswetten sind unter Sport-Fans sehr beliebt, da es hier gelingt durch die Einschätzung auf zwei oder mehr Sportereignisse einen deutlich höheren Gewinn einzufahren, als bei einer bloßen Einzelwette. Kombinationen von bis zehn Spielen sind hier möglich und können mittels Wettrechner sehr unkompliziert berechnet werden. Doch aufgepasst: Ist nur eine Einschätzung eines Sportereignisses bei einer Kombination falsch, ist gleich die ganze Wette verloren.

Trixie Wette

Eine einfache Systemwette ist die Trixie Wette. Hierbei wird in einem System aus drei Spielen mit vier Wetten getippt. Demnach ist es möglich einen Fehler bei der Tippabgabe zu machen und dennoch einen erfolgreichen Wettschein vorzuweisen. Es gibt demnach die Möglichkeit auf vier potenzielle Gewinnchancen.

Heinz Wette

Das System Heinz verbindet sechs Partien aus dem Sportbereich zu insgesamt 57 Kombinationen. Hierbei gibt es demnach eine Menge verschiedene Spielausgänge, die allesamt einen Gewinn versprechen. Großer Vorteil: Die Gewinnchancen steigen enorm, so dass diese Wettart in den meisten Fällen erfolgreich verläuft. Doch sind die Kosten für den Einsatz dieser Wettart deutlich höher als bei einer konventionellen Einzel- oder Kombinationswette.

Goliath Wette

Bei der Goliath Wette werden insgesamt acht Spiel zu 247 möglichen Wetten miteinander verbunden. Auf fast sämtliche Spielausgänge wird hier eine Wette platziert. Den Namen dieses Wettsystem lässt richtig vermuten, dass sich diese Wettart besonders dann lohnt, wenn Underdogs und Außenseiter einer sportlichen Partie das Rennen machen. Gewinnen lediglich die Favoriten kommt es zwar trotzdem zur Gewinnausschüttung, allerdings mit einem Verlustgeschäft für Spielkunden.

Alphabet Wettsystem

Bei der Alphabet Wette werden sechs Spiele zu 26 Kombinationen verbunden. Die Chancen auf eine erfolgreiche Wette sind hier hoch, allerdings lohnt sich diese Art Wette nur, wenn vor allem hohe Quoten auf dem Tippschein zu finden sind.

Wann sollte man einen Wettrechner benutzen?

Grundsätzlich bietet es sich immer an einen Wettrechner zu nutzen, um sich einen Überblick von den Gewinnmöglichkeiten ausgesuchter Wetten zu verschaffen. So sind Wettrechner überaus nützlich, um ein perfektes Gleichgewicht aus Risiko und Gewinnchancen herzustellen. Viele Spielkunden nutzen einen Wettrechner zudem, um den Einfluss der Einsatzhöhe auf verschiedene Systemwetten zu kalkulieren. Damit gelingt es nicht nur den Ertrag einer Wette zu bestimmen, sondern auch die eigenen Ausgaben jederzeit im Blick zu haben.

Wie wird ein Wettrechner bedient?

Die meisten Wettrechner stehen kostenlos zur Verfügung. Durch die Eingabe der Einsatzhöhe und der Wettquoten gelingt es durch wenige Mausklicks gleich mehrere Berechnungen durchzuführen. Bei den Wettquoten unterscheiden Wettrechner im Internet zudem zwischen fraktionalen und amerikanischen Wettquoten und Quoten in Dezimalangaben. Sind die Wetten bereits platziert, ist es zudem möglich bereits vorhandene Ergebnisse einzutragen, um Gewinne und Verluste einfach zu überblicken.

Fazit: Wettrechner bieten Spielkunden vielerlei Vorteile!

Wer regelmäßig eine Wette im Internet platziert, sollte unbedingt auch einen Wettrechner nutzen. Denn mit einem Wettrechner wird es möglich Systemwetten deutlich einfacher zu berechnen und somit unterschiedliche Spielausgänge und den potenziellen Gewinnbetrag bereits vor der Tippabgabe einsehen zu können. Die Nutzung ist kostenlos und bietet bei der Vorbereitung einer Wette eine große Hilfe, so dass man nicht auf dieses praktische Tool verzichten sollte.

Was ist „Dall E Mini“? Erklärung, Bedeutung, Anleitung


„Dall E Mini“ ist eine „text-to-image“ künstliche Intelligenz, die aus geschriebenen Wörtern Bilder erzeugt.

„Dall E Mini“ wird auch „Dalle Mini“ oder „Dalle Mini Ai“ genannt.

„Dall E Mini“ ist kostenlos.

Wie funktioniert „Dall E Mini“? Erklärung, Bedeutung, Definition

Die künstliche Intelligenz „Dall E Mini“ erstellt die Bilder unter anderem auf Grundlage der in der Google-Bildersuche gelisteten Bilder und Grafiken. In den Bildersuchen der Suchmaschinen sind die Bilder, Grafiken und Fotos anhand von Suchbegriffen, Bildnamen, Bildunterschriften und Alt-Texten gelistet und sortiert. Anhand dieser Texte nimmt „Dall E Mini“ die gelisteten Bilder, scannt sie, ermittelt die Essenz und erschafft daraus neue Bilder.

Einfacher ausgedrückt: „Dall E Mini“ schaut sich Millionen Bilder an und ermittelt in bzw. aus diesen Bildern sich wiederholende und identitätsstiftende Muster. (Die KI ermittelt, was allen Bildern gleich ist.) „Dall E Mini“ ermittelt, was diese Bilder ausmacht. Hat „Dall E Mini“ diese Analyse abgeschlossen, so kann „Dall E Mini“ eigene Bilder erschaffen, da die KI jetzt ja weiß, was ein Wort oder einen Satz ausmacht.

„Dall E Mini“ ermittelt die Essenz der gelisteten Bilder und erschafft aus dieser Essenz neue Bilder. (Mit Essenz ist gemeint, dass die KI übereinstimmende Merkmale findet und damit das Eigentliche, jenes das allen Bildern gemein ist, ermittelt.)

Hier muss natürlich gesagt werden, dass „Dall E Mini“ die eingegebenen Worte nicht wirklich versteht, sondern nur versucht die Essenz der Worte in Bildern wiederzugeben. „Dall E Mini“ rät nur.

Am besten kann man „Dall E Mini“ verstehen, wenn man es anhand von berühmten Beispielen anwendet.

„Dall E Mini“: Berlin

Als Term verwenden wir das Wort „Berlin“.

dalle e mini berlin

Zu sehen sind die Wahrzeichen Berlins: Das Brandenburger Tor, der Fernsehturm, die Kuppel vom Berliner Dom.

Die KI hat verstanden, was Berlin ausmacht. Fotos von Wahrzeichen bei blauem Himmel.

„Dall E Mini“: Merkel eating fish

Doch was passiert beim Term „Merkel eating fish“?

dalle e mini merkel eating fish

Di KI hat verstanden, dass mit „Merkel“ die ehemalige deutsche Bundeskanzlerin Dr. Angela Merkel gemeint ist. Das der Ausdruck „fish“ und „eating“ zusammengehören hat sie auch einigermaßen verstanden. Dies ist daran erkennbar, dass die KI den Fisch zum Mund von Angela Merkel „führt“.

Doch schön ist das Ergebnis nicht.

„Dall E Mini“: Germany

dalle e mini germany

Beim Suchwort „Germany“ wird es etwas langweilig. Die KI zeigt nur deutsche Fahnen. Lustigerweise fliegen oder schweben diese teils durch die Luft.

„Dall E Mini“: Techno Party

dalle e mini techno party

Bei den Worten „Techno Party“ hat „Dalle E Mini“ gut eingefangen, was eine Techno Party ist: Dunkle Räume mit etwas buntem Licht.

Dall E Mini: „Too much traffic, please try again“

Wird der Fehler „Too much traffic, please try again“ angezeigt, so ist die KI gerade überlastet, da zu viele Anfragen abgesendet werden.

Der einfachste Weg, um doch noch an seine Bilder zukommen ist: einfach noch einmal auf Run drücken. Sollte dies nicht funktionieren, so sollte mindestens zwei Minuten gewartet werden.

DallE Mini: Warum so beliebt?

Im Frühjahr und Sommer 2022 wurden bildgeneriernde KIs sehr beliebt. Für das IPhone gibt es z.B. die App „Dream“, die das gleiche macht wie Dalle Mini nur mit verschiedenen Filtern: neue Bilder aus der Essenz alter Bilder zu erstellen.

Die KI Dalle Mini kann neue Bilder erstellen, ohne dass diese auf Tatsachen beruhen oder real sind. Die KI erschafft diese einfach aus Kombinationen. Dies kann lustig sein.

Wassertest für Trinkwasser: Wissenswertes rund um den Qualitätstest


Leitungswasser in Deutschland weist allgemein eine gute Qualität auf und kann bedenkenlos verzehrt werden. Experten sprechen aus diesem Grund auch von Trinkwasserqualität. Dennoch gibt es regionale Unterschiede, etwa was den Mineraliengehalt oder auch den Kalkanteil betrifft. Verbraucher, die sich über die genauen Inhaltsstoffe und Konzentrationen in ihrem Leitungswasser informieren möchten, können einen Wassertest durchführen lassen.

Wer kontrolliert die Wasserqualität in Deutschland

Sowohl in der Bundesrepublik Deutschland als auch in Österreich und der Schweiz hat Leitungswasser allgemein eine gute Qualität. Diese wird von den Wasserwerken regelmäßig kontrolliert, um sicherzustellen, dass das Wasser von den Verbrauchern bedenkenlos genutzt und verzehrt werden kann, ohne dass gesundheitliche Schäden zu befürchten sind. So wird ausgeschlossen, dass sich etwa Schwermetalle in höheren Konzentrationen im Wasser befinden. Allerdings endet die Zuständigkeit der Wasserwerke an der Grundstücksgrenze: Ab dieser Stelle sind Hausbesitzer und Vermieter dafür verantwortlich, den Bewohnern und Mietern einwandfreies Trinkwasser zur Verfügung zu stellen.

Selbst wenn das Wasser in guter Qualität am Haus ankommt, kann es sein, dass alte Rohre mit einem hohen Bleigehalt etwa die Flüssigkeit auf den letzten Metern vor dem Wasserbahn verunreinigen und dafür sorgen, dass es zu gesundheitlichen Beeinträchtigungen kommt. Vor allem Kinder sowie alte und kranke Menschen sind an dieser Stelle gefährdet. Vermieter sind daher verpflichtet, das Trinkwasser in ihren Immobilien in regelmäßigen Abständen zu testen. Zahlreiche Anbieter bieten entsprechende Wassertests an, die auf Veranlassung des Vermieters durchgeführt werden und im Idealfall die einwandfreie Qualität des Leitungswassers bescheinigen.

Was genau ist ein Wassertest, und wo und wie wird er durchgeführt?

Ein Wassertest ist die genaue Überprüfung der Wasserqualität durch ein geeignetes und zertifiziertes Labor. Die zugesendeten Wasserproben werden chemisch auf ihre Bestandteile untersucht. Auf diese Weise kann beispielsweise zuverlässig ermittelt werden, wie viel Chlor und Kalk sich im Leitungswasser befindet, welche Mineralien in welcher Konzentration darin enthalten sind und ob etwa ein erhöhtes Schwermetallaufkommen vorliegt. Auf Basis dieser Testergebnisse kann dem Wasser Unbedenklichkeit bescheinigt werden, sofern es die jeweiligen Standards erfüllt. Ist dies nicht der Fall, müssen entsprechende Maßnahmen ergriffen und vor allem auch die Verbraucher gewarnt werden: So kann es etwa vorübergehend erforderlich sein, das Wasser vor dem Verzehr abzukochen oder es gegebenenfalls bis zum Beheben der Probleme gar nicht zu sich zu nehmen.

Einen Wassertest kann grundsätzlich jeder veranlassen. Besteht in einem Mietshaus der berechtigte Verdacht auf eine Verunreinigung des Trinkwassers, ist der Vermieter dafür verantwortlich, den Wassertest durchführen zu lassen. Er muss dann auch die Kosten für die Laboruntersuchung tragen. Diese können abhängig vom gewählten Labor und dem genauen Umfang der Untersuchung teils deutlich variieren. Im Durchschnitt liegen die Kosten für einen professionellen Wassertest zwischen 19€ und 49€. Heutzutage ist es problemlos möglich, eine Trinkwasserüberprüfung online zu veranlassen. Hierzu sind einige persönliche Daten sowie Angaben zum Wohnort erforderlich. Eine entnommene Wasserprobe wird nach dem ersten Kontakt und nach Aufforderung durch den Anbieter in das Labor geschickt, wo die Untersuchung stattfindet. Nach einigen Tagen bekommt der Auftraggeber das Ergebnis per E-Mail oder auf Wunsch auch auf dem Postweg.