Übersicht aller Beiträge in der Kategorie: Wissenschaft und Technik.

Welche Vorteile hat Pflanzenkohle? Erklärung, Bedeutung, Definition


Die hervorragenden Eigenschaften von Kohle aus Pflanzen waren schon im Altertum bekannt. Selbst die Inkas nutzten Pflanzenkohle, um einen besonders nährstoffreichen Mutterboden (Schwarzerde) herzustellen. Pflanzenkohle ist ein absolut natürliches Produkt und eine sehr gute Möglichkeit zur Bodenverbesserung. Sie besteht aus verkohlter Biomasse, die zum größten Teil von Pflanzenresten stammt. Der Vorgang nennt sich Pyrolyse. Viele professionelle wie Hobbygärtner schwören auf Pflanzenkohle, da sie sich sehr vielseitig verwenden lässt. Optisch unterscheidet sich Pflanzenkohle kaum von anderer Kohle, aber sie ist, sofern sie ein anerkanntes Biosiegel trägt, gänzlich schadstofffrei und unterstützt bei der Schaffung und Erhaltung einer gesünderen Umwelt.

Pflanzenkohle lockert den Boden auf und sorgt für eine gute Belüftung mit Sauerstoff. In Kombination mit Kompost wird die Bildung von Mikroorganismen gefördert, sodass ein nährstoffreicher Humus entsteht. So macht Pflanzenkohle aus einem einfachen Boden ein fruchtbares Substrat.

Die besten Eigenschaften von Pflanzenkohle: Vorteile

  • dauerhafte Nährstoffspeicherung
  • starke Bindung von CO₂
  • kaum Nährstoffverlust
  • Bodenstruktur-Verbesserung
  • hohe Wasserhaltefähigkeit
  • Anreicherung von Humus
  • Aktivierung von Kleinsttieren im Boden
  • Steigerung der Biodiversität
  • höhere Erträge in der Landwirtschaft

Pflanzenkohle als Futtermittel

In der EU darf Pflanzenkohle Pferden, Rindern, Schweinen und Geflügel als Futter angeboten werden. Dieses alte Hausmittel reguliert die Verdauung der Tiere, denn es kann Durchfälle lindern und bei Verstopfung anregen. Pflanzenkohle stärkt das Immunsystem und die Gesundheit der Tiere, indem sie Schadstoffe im Verdauungstrakt an sich bindet. Außerdem erhöht sie die Hygiene im Stall.

Großer Nutzen von Pflanzenkohle in der Landwirtschaft

Pflanzenkohle hat ungeheures Potenzial für die Landwirtschaft. Die veränderten technischen Bedingungen in der Landwirtschaft, aber vor allem die folgenreichen Wetterphänomene durch den Klimawandel machen auch unseren Böden zu schaffen. Anhaltende Trockenheit ist ein ebenso großer Stressfaktor wie Dauerniederschläge und Überschwemmungen. Infolge dieser Veränderungen steigen auch die Ansprüche an unsere Böden. Pflanzenkohle kann hier echte Hilfe leisten. Sie hat die Fähigkeit, den Geruch von Gülle zu neutralisieren. Damit verbessert sich das Stallklima. Auch das Leben der Tiere im Stall wird erleichtert, denn Pflanzenkohle wertet den Mist auf, der später wiederum als optimierter Dünger eingesetzt werden kann. Tonreiche, sehr verdichtete Böden erfahren durch Pflanzenkohle eine wunderbare Auflockerung, sodass sich ein größeres Spektrum an Pflanzen anbauen lässt. Auch sandige Böden profitieren, denn werden sie mit Pflanzenkohle angereichert, speichern sie mehr Wasser.

Pflanzenkohle als Mittel gegen den Treibhauseffekt

Wissenschaftler versprechen sich aber noch mehr: Pflanzenkohle soll der Entstehung von Treibhausgasen entgegenwirken und damit die globale Erwärmung reduzieren können. Das liegt daran, dass Pflanzenkohle der Atmosphäre CO₂ entziehen kann – und zwar dauerhaft. 20-60 % des der Luft entzogene Kohlendioxid können dank Pflanzenkohle dauerhaft im Boden (als reiner Kohlenstoff) gebunden werden. Dagegen wird beim Verrotten von Grünschnitt, Laub und anderen Gartenabfällen erneut Kohlendioxid freigesetzt. Die Umwelt profitiert also nicht.

Wie erklären Wissenschaftler die Abschwächung des Treibhauseffektes durch Pflanzenkohle?

Das ist nur möglich, weil Pflanzenkohle extrem viele Poren besitzt, die eine sehr große spezifische Oberfläche erzeugen (die spezifische Oberfläche von einem Gramm Pflanzenkohle kann bis zu 300 m² betragen). Die Poren sorgen dafür, dass der biologische Rohstoff das Fünffache seines Eigengewichtes an Wasser, einschließlich der darin enthaltenen Nährstoffe, speichern kann. Die enorme Wasserspeicher-Fähigkeit sorgt für eine Steigerung der Erträge, was sich vor allem in trockenen Regionen positiv bemerkbar macht. Außerdem ist Pflanzenkohle in der Lage, Schadstoffe zu binden. Das wiederum ermöglicht die Sanierung von belasteten Böden. Zudem erhöht Pflanzenkohle die Biodervisität und ermöglicht Nützlingen die Ansiedlung.

Für den heimischen Gebrauch kann Pflanzenkohle auch selbst hergestellt werden. Man benötigt dafür lediglich einen speziellen Kocher. Der ist trichterförmig konstruiert und hat Ähnlichkeit mit einem Campingkocher.

Wie lange dauert eine Rezession? Erklärung, Bedeutung, Definition


Rezessionen sind ein unvermeidbarer Teil des Wirtschaftszyklus und haben trotzdem immer wieder einen erheblichen Einfluss auf Volkswirtschaften. Ganz grob gesagt handelt es sich bei einer Rezession um einen wirtschaftlichen Abschwung, der von Massenarbeitslosigkeit, Pleitewellen und niedriger, technologischer Innovation und geringer Investitionsfreude (privat oder öffentlich) geprägt ist. In Zeiten von Rezessionen beschäftigen sich daher viele Menschen mit der Frage, wann die jeweilige Rezession denn endet? Doch auch außerhalb von Wirtschaftskrisen beschäftigt man sich immer wieder mit den Auswirkungen und zeitlichen Aspekten von Rezessionen.

Der nun folgende Artikel soll sich daher einmal mit den Thematiken Rezession und der Dauer ebendieser beschäftigen. Dabei soll zunächst eine detaillierte Begriffsdefinition, inklusive Merkmale einer Rezession angeführt werden, bevor Beispiele, Gegenmaßnahmen und Prognosen für Rezessionen aufgezeigt werden.

Definition und Merkmale einer Rezession

Der Begriff „Rezession“ stammt vom lateinischen Wort „recessio“ (zu Deutsch: „Rückgang“ oder „Rückzug“) ab. Gemeint ist damit der wirtschaftliche Rückgang in einer bestimmten Phase. Eine Rezession ist Teil eines Wirtschaftszyklus, bei dem sich Rezession und Expansion (wirtschaftlicher Aufschwung) abwechseln. Eine Rezession tritt immer dann ein, wenn sich die Wirtschaft, ausgehend von einer Hochkonjunktur (auch „Boom“ genannt) in einem Abschwung in Richtung Tiefphase (auch „Depression“ genannt) bewegt.

Eine Rezession markiert daher eine wirtschaftliche Abschwächung, die von einer rückläufigen wirtschaftlichen Aktivität geprägt ist. Sie kann sowohl auf nationaler, als auch auf internationaler Ebene verzeichnet werden. Ganz konkret bezieht sich eine Rezession jedoch immer auf einen signifikanten Rückgang des Bruttoinlandsprodukts (auch „BIP“ genannt). Weitere Merkmale einer Rezession sind steigende Arbeitslosenzahlen, sinkende Unternehmensgewinne sowie Nachlasse in Nachfrage und Investitionen. Folglich sinken in einer Rezession auch die staatlichen Steuereinnahmen. Ganz allgemein kann bei einer Rezession also von einer Phase der Unsicherheit, des Produktionsrückgangs und damit des Lebensstandards einer Volkswirtschaft gesprochen werden.

Welche Faktoren beeinflussen die Dauer einer Rezession?

Wie lang eine Rezession im konkreten Fall dauert, das hängt von einer Vielzahl an Faktoren ab. Wirtschaftliche Ursachen sind die häufigsten Gründe für das Auftreten von Rezessionen. Handelt es sich jedoch um strukturelle Probleme, so kann die Erholung von einer Rezession gegebenenfalls länger dauern. Wirtschaftliche Reformen und Anpassungen von politischer Seite sind dann meist das Mittel der Wahl. Ebenfalls haben geld- und fiskalpolitische Maßnahmen einen großen Einfluss darauf, wie lang eine Rezession dauern kann. Eine lockere Geldpolitik (zum Beispiel in Form niedriger Leitzinsen) kann einer Rezession entgegenwirken, da tendenziell wieder mehr in die Wirtschaft investiert wird.

Nicht immer muss es sich jedoch um wirtschaftliche Gründe handeln, die eine Rezession verursachen. Auch Naturkatastrophen, geopolitische Spannungen oder internationale Krisen können eine Rezession (als externe Faktoren) befeuern. Schlussendlich ist die Wirkweise der Mechanismen, die für eine Rezession sorgen können, überaus komplex und unterscheidet sich von Fall zu Fall.

Historische Beispiele für Rezessionen

Betrachtet man die letzten 150 Jahre der Weltwirtschaft, so kam es im Schnitt alle 7 bis 10 Jahre zu einer Rezession. Somit stellt eine Rezession an sich nichts Ungewöhnliches dar und ist Teil des wirtschaftlichen Lebens. Jedoch gleicht keine Rezession der anderen und stellenweise können die Ausmaße einer Rezession von Fall zu Fall stark variieren. In den nun folgenden Unterabschnitten soll daher einmal auf die schlimmsten Rezessionen der letzten 100 Jahre und deren Auswirkungen eingegangen werden.

Große Depression der 1930er-Jahre

Die „Große Depression“ gilt als eine der schwersten Wirtschafts- und Finanzkrisen der Neuzeit. Sie begann am „Schwarzen Freitag“, der sich am 25. Oktober 1929 ereignete. An diesem Tag brach die Weltwirtschaft zusammen – einige Aktien erlitten bis zu 99 Prozent Verluste. Es kam infolgedessen zum Zusammenbruch der Industrieproduktion und des internationalen Handels. Die Auswirkungen zeigten sich aber erst in den Monaten und Jahren danach. Massenarbeitslosigkeit, Bankenpleiten sowie eine drastische Reduzierung des Bruttoinlandsprodukts sämtlicher Industrienationen waren die Folge. Die „Große Depression“ stellt gleichzeitig den Wendepunkt für die Neubewertung der Rolle des Staates zur Wirtschaftsstabilisierung dar.

Finanzkrise von 2008

Von nicht ganz so großer Tragweite wie die „Große Depression“, aber dennoch als schwerste Wirtschaftskrise des bisherigen, 21. Jahrhunderts kann die „Finanzkrise von 2008“ als weiteres Beispiel angeführt werden. Sie wurde durch riskante Kreditpraktiken namhafter Banken, durch übermäßige Verschuldung und dem Zusammenbruch des US-Immobilienmarkts verursacht. Nebst eines massiven Börsenrückgangs waren zahlreiche Bankenpleiten und der Verlust des Vertrauens des Durchschnittsbürgers in die Bankenwelt die Folge. Durch die „Finanzkrise von 2008“ kam es zu weitreichenden Reformen im Finanzsektor.

Maßnahmen zur Bewältigung von Rezessionen

Zur Bewältigung von wirtschaftlichen Rezessionen gibt es eine Fülle an Gegenmaßnahmen, die an dieser Stelle einmal aufgelistet werden sollen:

  • Geldpolitische Maßnahmen (wie zum Beispiel Leitzinssenkungen)
  • Fiskalpolitische Maßnahmen (wie zum Beispiel Steuersenkungen)
  • Förderung von Investitionsbereitschaft
  • Ausweitung sozialer Sicherungssysteme (wie zum Beispiel Arbeitslosengeld oder Sozialhilfe)
  • Förderung des internationalen Handels
  • Förderung von Innovation und Forschung (um neue Wirtschaftszweige zu erschließen)
  • Strukturreformen (für mehr Wettbewerbsfähigkeit der eigenen Wirtschaft)
  • Stärkung des Vertrauens in die Wirtschaft (durch gezielte Kommunikationskampagnen der Regierungen)

Zwar gibt es eine Vielzahl an Gegenmaßnahmen im Falle einer Rezession, dennoch ist eine Rezession an sich früher oder später unvermeidbar.

Prognosen für zukünftige Rezessionen

Da wirtschaftliche Vorhersagen auf komplexen Modellen und Analysen basieren sowie auf historische Daten und Indikatoren zurückgreifen, lassen sich zukünftige Rezessionen nicht vorhersagen. Wäre dies der Fall, so würde das Wissen um eine bevorstehende Rezession als solches bereits eine weitere Rezession auslösen. Das genaue Timing und die Schwere von zukünftiger Rezession ist damit unbekannt und hängt von einer Vielzahl wirtschaftlicher Faktoren ab, die sich ebenfalls ändern. Grundsätzlich wird es in Zukunft jedoch Auslöser für Rezessionen geben, die es bislang vielleicht noch nicht gab.

Fazit zum Thema „Rezession“

Bei Rezessionen handelt es sich also um unvermeidliche Phasen im Verlauf eines Wirtschaftszyklus, die den wirtschaftlichen Abschwung markieren. Sie haben erhebliche Auswirkungen auf die Wirtschaft und den Einzelnen, lassen sich aber nicht vorhersagen oder quantifizieren. Die Dauer einer Rezession ist daher immer fallspezifisch und kann durch diverse Gegenmechanismen verkürzt werden. Im Schnitt kommt es alle 7 bis 10 Jahre zu einer Rezession, die dann für sich gesehen durchschnittlich zwischen 2 und 5 Jahren andauern kann.

Mit dem Begriff „Rezession“ sind zum Beispiel die Begrifflichkeiten „Expansion“, „Boom“ und „Depression“ verwandt, die ebenso Teil eines Wirtschaftszyklus sind. Während die „Expansion“ den wirtschaftlichen Aufschwung bezeichnet, so stellt der „Boom“ die wirtschaftliche Hochphase und die „Depression“ die wirtschaftliche Tiefphase dar.

Was sind Neophyten? Bedeutung, Eigenschaften, Erklärung, Definition


Als Neophyten werden pflanzliche Einwanderer bezeichnet. Sie breiten sich dort aus, wo sie sonst nicht heimisch waren und etablieren sich an ihrem neuen Standort. Die Verbreitung der Neophyten passiert oftmals unabsichtlich durch den Mensch. Als blinde Passagiere kommen Neophyten aufgrund des weltweiten Warenverkehrs in fremde Gebiete.

Was sind Neophyten? Bedeutung, Eigenschaften, Erklärung, Definition

Schon längere Zeit bei uns heimische Pflanzen, die aber dennoch in der Jungsteinzeit oder durch den Handel der Römer zu uns kamen, nennt man Archäophyten. Hierunter fällt beispielsweise die Esskastanie.

Neue Pflanzenarten sind dabei in unserer Pflanzenwelt gar nicht so ungewöhnlich. Die meisten unserer Pflanzenarten sind schon nach der Eiszeit nach Mitteleuropa gekommen. Neben der Esskastanie brachten die Menschen bezüglich des Ackerbaus und dem Getreide auch viele Ackerwildkräuter zu uns, wovon noch heute einige auf der Roten Liste stehen. Das mitteleuropäische Pflanzenreich ist von nicht einheimischen Pflanzenarten geprägt.

Dadurch, dass der internationale Personen- und Warenverkehr immer mehr zunahm und vor allem auch nach der Entdeckung Amerikas, haben sich hier viele fremde Pflanzenarten breit gemacht. Nur die Hälfte der Neophyten, die bei uns leben, wurden absichtlich eingeführt. Dabei handelt es sich bei circa 30 % der Neophyten um reine Zierpflanzen und die restlichen 20 % existieren als forst- und landwirtschaftliche Nutzpflanzen, wie beispielsweise der Mais, die Kartoffel oder die Tomate. Die andere Hälfte der eingeschleppten Neophyten gelang unbeabsichtigt und war in den meisten Fällen eine unerwünschte Beimischung des Saatguts.

Gehen Gefahren von den Neophyten aus?

Mit nur 0,2 % ist der Anteil der gebietsfremden Neophyten relativ klein. Als ökologisch bedenklich werden Arten, wie beispielsweise der Japanische Knöterich und das Indische Springkraut eingestuft. Diese Pflanzen können einen sehr dichten Bestand bilden und drängen heimische Pflanzenarten ab. Für den Menschen stellen zudem Arten wie Riesenbärenklau oder das Beifußblättrige Taubenkraut gesundheitliche Gefahren dar. Insbesondere das Taubenkraut kann für Allergiker plagend sein, da es aggressive Pollen bildet. Sogar Menschen, die bisher noch nicht auf Blütenpollen reagiert haben, können dadurch allergische Reaktionen entwickeln. Symptome wie Schnupfen, Asthma, Atemnot oder Augenbrennen sind dann keine Seltenheit mehr.

Kommt man mit dem Pflanzensaft des Riesenbärenklau in Berührung, kann dieser die Lichtempfindlichkeit der Haut erhöhen. So können schon bei einer nur schwachen Sonneneinstrahlung schmerzende Brandblasen und Rötungen auf der Haut entstehen. Gegen ein solches Gefahrenpotenzial vorzugehen, stellt eine schwierige Aufgabe dar. Bereits etablierte Neophyten lassen sich nur schwer wieder beseitigen. Dennoch bemühen sich lokale Naturschutzvereine mit diversen regelmäßigen Aktionen, diese Schädlinge entweder durch Ausgraben oder Abmähen zu beseitigen. Sollte man im eigenen Umfeld Taubenkraut oder Riesenbärenklau ausfindig machen, sollten diese beseitigt werden. Am besten werden diese mit einem tiefen Spatenstich inklusive Wurzel ausgehoben, noch bevor sie beginnen zu blühen. Da Verbrennungsgefahr besteht, sollte niemals ohne langärmelige Kleidung oder Handschuhe gearbeitet werden.

Auch beim Spaziergang kann man mit Taubenkraut konfrontiert werden. Die Pflanze sollte dann am besten sofort herausgerissen werden. Hierbei sollte ebenfalls der direkte Hautkontakt gemieden werden. Entdeckt man größere Bestände, informiert man am besten die zuständige Gemeinde, so dass diese weitergehende Maßnahmen in die Wege leiten kann.

Wer in einem fremden Land Urlaub macht, sollte niemals Samen oder Pflanzen mitnehmen, die man nicht kennt. Zudem ist in den meisten Ländern die Ausfuhr von Pflanzen ohnehin verboten. Außerdem können die Auswirkungen fremder Arten auf die heimischen Arten nicht weit genug abgeschätzt werden.

Eine Pflanzenart, die insbesondere über Vogelfutter verbreitet wird, ist die Beifuß-Ambrosie. Ihre Pollen können bei Menschen heftige Allergien auslösen. Aktuell befindet sich in Bayern eine recht starke Ausbreitung dieser Neophyte. Damit dieser Pflanzenart Einhalt geboten werden kann, hat das Bayerische Umweltministerium die Aktion „Ambrosiabekämpfung in Bayern“ initiiert.

Vorteile: Welche positiven Auswirkungen können Neophyten haben?

Einige Neophyten können aber auch für ein bestehendes Ökosystem von Vorteil sein. Beispielsweise können so neue Nahrungsnetze zwischen neu angesiedelten und heimischen Pflanzenarten entstehen. Im Sommerflieder aus China sind beispielsweise circa 11 Raupenarten und 43 Tagfalter zu Hause. Der Sommerflieder kann zudem primär im Sommer eine gute Nahrungsquelle für Insekten darstellen. Auch im Spätjahr, wenn die heimische Flora fast keine Blüten mehr zur Verfügung stellt, stellt die Riesenstaude noch eine üppige Nahrungsquelle dar. Die eingewanderte Rosskastanie sowie die einhergehenden Larven der Rosskastanienminiermotte können für die heimischen Kohl- oder Blaumeisen eine wichtige Nahrungsquelle für ihre Jungvögel darstellen.

Was geht noch mit den invasiven Neophyten einher?

Von invasiven Neophyten wird gesprochen, wenn sich Pflanzenarten in Gebieten ansiedeln, in denen sie vorher nicht heimisch waren und dort zu Problemen führen. So können gebietsfremde Pflanzen folgende Probleme mit sich bringen:

  • Die Unterhaltungskosten von Gewässern und Straßen können höher ausfallen.
  • Die Biodiversität nimmt aufgrund der Verdrängung der heimischen Fauna und Flora ab.
  • Es können gesundheitliche Beeinträchtigungen entstehen.
  • Die Forst- und Landwirtschaft erleidet einen finanziellen Ausfall.
  • Bauwerke können beschädigt werden.
  • Wertzerfall, zum Beispiel bei Grundstückspreisen.

Fazit: Nicht alle Neophyten sind schlecht

Man sollte sich stets den Aspekt vor Augen halten, dass nur wenige nicht einheimische Pflanzen das heimische Ökosystem stören. Und noch weniger dieser Arten sind gesundheitsgefährdend. Während in der Eiszeit viele einheimische Arten ausgestorben sind, gibt es noch viel ökologischen Raum für neue Arten. Die Widerstandsfähigkeit des mitteleuropäischen Ökosystems ist im Laufe der Eiszeiten sehr robust gegenüber Einwanderern in der Pflanzen- und Tierwelt geworden. Neue Arten können sich oftmals ohne weitere negative Folgen in unserem Ökosystem etablieren. Schon vor circa 10.000 Jahren wanderten neue Arten nach Mitteleuropa ein. Auch durch den Klimawandel wird dieses Phänomen zusätzlich verstärkt. Schon aufgrund der Erderwärmung kann davon ausgegangen werden, dass sich die Verbreitungsgebiete vieler Arten ausschlaggebend verlagern kann. Deshalb muss sich der Naturschutz in Zukunft vermehrt um die zahlreichen Einwanderer kümmern. Solche Arten, die schon während der Eiszeiten in Mitteleuropa heimisch waren, sollten auch heute von uns toleriert werden.

Was sind Neozoen? Bedeutung, Eigenschaften, Erklärung, Definition


Die Globalisierung und der menschliche Einfluss haben teilweise erschreckenden Einfluss auf die natürlichen Lebensräume von Pflanzen und Tieren. Neozoen stellen diesbezüglich eine besorgniserregende Entwicklung dar, bei der nicht heimische Arten oder Tiere schädliche Auswirkungen auf heimische Ökosysteme haben können. Neozoen werden gebietsfremde, beziehungsweise invasive Arten genannt, die einen negativen Einfluss auf heimische Ökosysteme haben. Dabei handelt es sich beispielsweise um Organismen, die durch menschliche Aktivitäten in fremde Gebiete gelangen, in denen diese ursprünglich nicht beheimatet waren.

Neozoen werden damit als die Eindringlinge im Pflanzen- und Tierreich bezeichnet. Absichtliche Freisetzung, globaler Handel und der Tourismus bringen immer wieder fremde Arten in Gebiete, die diesen dann schutzlos ausgeliefert sind. Das kann mitunter drastische Folgen haben – zum Beispiel die Verdrängung einheimischer Arten.

Vielen Menschen sind Neozoen jedoch nicht bekannt. Der nun folgende Artikel soll sich daher einmal einer detaillierten Begriffsdefinition von „Neozoen“ widmen. Weiterhin sollen die verschiedenen Ursachen, Auswirkungen und Gegenmaßnahmen für Neozoen aufgezeigt werden.

Begriffsdefinition von „Neozoen“

Der Begriff „Neozoen“ stammt aus dem Griechischen und setzt sich aus dem Adjektiv „neo“ (zu Deutsch: „neu“) und dem Substantiv „zoon“ (zu Deutsch: „Tier“ oder „Lebewesen“) zusammen. Kombiniert bedeutet „Neozoen“ also in etwa so viel wie „neues Lebewesen“. Die an sich recht harmlose Übersetzung wird jedoch für Pflanzen oder Tiere verwendet, die in fremde Ökosysteme gebracht werden und dort potenziell großen Schaden anrichten. Sie werden daher auch als gebietsfremde und invasive Arten bezeichnet. Invasiv bedeutet in diesem Zusammenhang, dass diese in fremden Gebieten einheimische Arten verdrängen oder gar aktiv bekämpfen. Das kann zum Beispiel dahingehend geschehen, dass die Nahrungsmittelgrundlage für heimische Arten entzogen wird oder diese Arten gar selbst gejagt werden.

Ideen zum Konzept der „Neozoen“ gehen auf die 1950er-Jahre zurück. Zu diesem Zeitpunkt wurde sich erstmalig mit der Thematik Auswirkungen nicht einheimischer Arten auf die Umwelt beschäftigt. Der Begriff selbst bezieht sich nicht nur auf Tiere, sondern vor allem auch auf Pflanzen. Neozoen können durch Globalisierung, Welthandel, Waren- oder Personentransport begünstigt werden. Sie haben stark negative Auswirkungen auf die vorherrschende Biodiversität.

Ursachen für das Auftreten von „Neozoen“

Neozoen werden durch unterschiedliche Faktoren begünstigt. Die meisten stehen jedoch in direktem Zusammenhang mit menschlichen Aktivitäten. Zu den Hauptursachen von Neozoen zählen daher die Folgenden:

  • Globalisierung (weltweiter Warentransport, Handel und Personenverkehr begünstigen „blinde Passagiere“ in Form von nicht einheimischen Pflanzen oder Tieren)
  • Pflanzen, Tiere und deren Produkte werden heute weltweit transportiert (zum Beispiel via Schiff, Flugzeug, Eisenbahn oder Fahrzeug)
  • Absichtliche Freisetzungen (zum Beispiel aus ökologischen Gründen)
  • Wirtschaftliche Interessen (zum Beispiel hinsichtlich der Etablierung neuer Jagd- und Fischarten)
  • Umweltveränderungen (zum Beispiel durch Klimawandel oder sich verändernde Lebensräume)

Beispiele von „Neozoen“

Die Verbreitung von Neozoen stellt ein globales Phänomen dar, welches weitreichende Konsequenzen für die Umwelt hat. Gebietsfremde, invasive Arten gibt es zu Wasser, zu Land und in urbanen Gebieten. Innerhalb der nun folgenden Unterabschnitte sollen daher einmal ein paar interessante Beispiele in puncto Neozoen genannt werden.

Neozoen in Gewässern

In Gewässern, wie zum Beispiel in Seen, Flüssen oder Meeren kommen Neozoen recht häufig vor. Gerade hier sorgen Schiffe für eine gute Konnektivität des Menschen und ermöglichen eine Übersiedlung verschiedensten Arten in für diese fremden Ökosysteme. Ein Beispiel für Neozoen in Gewässern stellt die Wandermuschel (lateinisch: „Dreissena polymorpha“) dar. Diese stammt ursprünglich aus Osteuropa, hat sich aufgrund ihrer überaus guten Anpassungsfähigkeit mittlerweile jedoch weltweit ausgebreitet. Sie bedroht gleichzeitig die Nahrungsmittelverfügbarkeit für einheimische Arten. Damit beeinflusst sie die weltweiten Wasserversorgungssysteme teilweise stark negativ.

Neozoen an Land

Neozoen können natürlich auch auf dem Land auftreten und dort ebenso großen Schaden anrichten. Ein bekanntes Beispiel für Neozoen auf dem Land stellen Grauhörnchen (lateinisch: „Sciurus carolinensis“) dar. Dieses stammt ursprünglich aus Nordamerika und verbreitet sich seit seiner absichtlichen Freisetzung in Europa unkontrolliert. Es stellt eine ernste Bedrohung für einheimische Eichhörnchenarten dar. Auch die Rote Feuerameise (lateinisch: „Solenopsis invicta“) fällt unter diese Kategorie. Diese stammt wiederum aus Südamerika und verdrängt mehr und mehr einheimische Ameisenarten sowie beeinträchtigt die Rote Feuerameise landwirtschaftliche Nutzflächen.

Noezoen in urbanen Gebieten

Beispiele für Neozoen in urbanen Gebieten stellen zum Beispiel Stadttauben (lateinisch: „Columba livia domestica“) dar. Diese stammen von domestizierten Taubenarten ab und haben sich hervorragend an den menschlichen Lebensraum angepasst. Die größten Herausforderungen, die Stadttauben als Neozoen mit sich bringen, sind Überpopulation, Verunreinigungen von Fassaden und Dächern sowie die Verbreitung von Krankheitserregern.

Auswirkungen von „Neozoen“ auf Ökosysteme

Neozoen haben negative Auswirkungen auf Ökosysteme. Durch nicht einheimische Tier- oder Pflanzenarten kann eine gewisse Konkurrenz in puncto Ressourcen, Nahrung sowie Lebensraum oder Brutplätzen entstehen. Diese Konkurrenzen können schrittweise zur Verdrängung einheimischer Arten führen und damit der Biodiversität schaden. Gleichzeitig können die Struktur und die Funktion ganzer Ökosysteme zerstört werden. Am Beispiel der Honigbiene, die hierzulande von verschiedenen Wespenarten verdrängt wird, leitet sich die Gefahr ab, dass Pflanzen und Bäume so weniger Bestäubung erhalten werden und damit die einheimische Pflanzenwelt erheblich darunter leiden kann. Neozoen stellen damit eine große Gefahr für die Stabilität und Resilienz von Ökosystemen dar.

Maßnahmen zur Eindämmung und Bekämpfung von Neozoen

Aus den genannten Gründen müssen Neozoen idealerweise verhindert, eingedämmt und bekämpft werden. Hierfür stehen unter anderem die folgenden Maßnahmen zur Verfügung:

  1. Überwachung und frühzeitige Erkennung von Neozoen
  2. Entwicklung von Bekämpfungsstrategien für Neozoen
  3. Weltweite Aufklärungskampagnen und Bildungsprogramme sensibilisieren die Öffentlichkeit
  4. Regulierung internationaler Handels- und Transportwege
  5. Gesetzliche Verbote für den Transport von Tier- und Pflanzenarten
  6. Politische Zusammenarbeit auf internationaler Ebene
  7. Fortlaufende Forschung

Fazit zum Thema „Neozoen“

Unterm Strich stellen Neozoen eine ernsthafte Bedrohung für die natürlichen Ökosysteme der Welt dar. Es handelt sich dabei um invasive, gebietsfremde Pflanzen oder Tiere, die in fremde Ökosysteme eingebracht werden. Sie begünstigen die Verdrängung von einheimischen Arten bis hin zu deren Ausrottung. Es ist daher entscheidend, Maßnahmen zur Eindämmung von Neozoen umzusetzen, um so die weltweite Biodiversität zu bewahren. Nur so können die Integrität, Stabilität und Einzigartigkeit der Umwelt geschützt werden.

Mit dem Begriff „Neozoen“ sind unter anderem die Begrifflichkeiten „Neophyten“ sowie „Neobiota“ verwandt. Unter „Neophyten“ versteht man invasive Pflanzenarten. Hingegen beschreibt der Begriff „Neobiota“ nicht einheimische Organismen – zum Beispiel Bakterien, Ein- oder Mehrzeller. Schlussendlich können Neophyten und Neobiota gleichsam als Neozoen betitelt werden. Es handelt sich dabei nur um spezifische Fachtermini für den Ausdruck „Neozoen“.

Was ist GriefTech / DeathTech? Bedeutung, Erklärung, Definition


Eine bemerkenswerte, atemberaubende, für manche auch beängstigende Neuerung im Bereich Künstliche Intelligenz ist die Grief-Technologie, kurz Grief-Tech genannt. (Auf deutsch: Trauer-Technologie) Sie erzeugt digitale Klone von lieben Menschen, die bereits verstorben sind, und ermöglicht es uns, mit ihnen zu sprechen.

Was ist GriefTech / DeathTech? Bedeutung, Erklärung, Definition

Damit kann KI auch Beerdigungsrituale beeinflussen. Diese innovative Technologie hat das Potenzial, die Art, wie wir trauern, dauerhaft auf den Kopf zu stellen. Mit Toten sprechen können – viele von uns haben sich schon einmal ausgemalt, wie es wäre, mit den verstorbenen Eltern, Geschwistern oder anderen lieben Menschen zu sprechen und sie in den aktuellen Alltag integrieren zu können.

Der Wunsch, mit Personen, die uns einmal viel bedeutet haben, etwas zu teilen, ist besonders ausgeprägt, wenn wir starke emotionale Erlebnisse teilen möchten. Künstliche Intelligenz (KI) hat uns schon in kürzester Zeit gezeigt, welche gravierenden Veränderungen mit der innovativen Technologie möglich sind.

Aktuell stehen wir erst am Anfang einer Entwicklung, deren Ende nicht abzusehen ist. Dass sich Algorithmen so steuern lassen, dass sie auch zu schwierigeren Themen komplexe Texte kreieren können, hat uns der Bot ChatGPT bereits gezeigt. Mittlerweile sprießen KI-Tools wie Pilze aus dem Boden und versuchen, sich gegenseitig den Rang abzulaufen. Grief-Tech greift jedoch in einen Lebensbereich ein, der vielen von uns heilig ist. Das wirft Fragen auf.

Verändert KI den Trauerprozess?

Beim Einsatz von Grief-Technologie wird KI auf Bilder, Tonaufnahmen und andere Aufzeichnungen trainiert, sodass Trauernde mit dem oder der Verstorbenen kommunizieren können. Die KI nimmt erheblichen Einfluss auf die Erinnerung der Hinterbliebenen und bringt sprechende und agierende Avatare, die den Verstorbenen täuschend ähnlich sehen, ob die Bildschirme von Smartphone oder Tablet.

Zwar erlaubt sie keine echte Interaktion, aber Grief-Tech-Unternehmen arbeiten intensiv an dem, was aktuell noch Zukunftsmusik ist. Sie möchten das Unmögliche möglich machen und träumen davon, Verstorbene und ihre lebende Verwandtschaft interaktiv zusammenzubringen. Die KI wird dafür intensiv trainiert. Es ist möglich, dass diese Technologie Trauerarbeit vollständig transformiert. Doch wie weit geht diese Transformation? Ist es am Ende etwa so, dass die Hinterbliebenen keine Trauer mehr fühlen, weil sie den Verstorbenen immer in ihrer Nähe wähnen? Noch ist Grief-Tech zu neu, um hierauf eine befriedigende Antwort geben zu können.

Trauer bleibt Trauer – oder nicht?

„Sinnvolle Erinnerungen im Leben bewahren und sie mit den Menschen teilen, die Sie lieben“ – mit solchen und ähnlichen Slogans werben Grief-Tech-Startups wie zum Beispiel Hereafter. In Tests mit noch lebenden Verwandten wurden bemerkenswerte Ergebnisse erzielt: Die virtuellen Klone gaben lebensnahe Tipps für den Alltag und berichteten von lange zurückliegenden Ereignissen aus ihrer eigenen Kindheit und der von lebenden Verwandten.

Grief-Tech bewahrt also Erinnerungen in Form von Bildern, Sprach- und Videoaufzeichnungen und komplettiert den Trauerprozess um eine sehr spannende, interaktive Komponente. Die emotionale Beteiligung der Trauernden, also die echte, in Phasen ablaufende Trauerarbeit, wird sie aller Wahrscheinlichkeit nicht grundlegend verändern, da diese in den menschlichen Genen festgeschrieben ist.

Grief-Tech bricht ein Tabu

„Wann ist der Mensch ein Mensch?“– was Herbert Grönemeyer einmal in einem seiner populärsten Songs sang, ist heute so aktuell wie nie. Die Möglichkeit, extrem realistische Avatare zu erzeugen, macht einmal mehr deutlich, dass wir im Umgang mit Technik unseren Augen nicht immer trauen können und dürfen.

Die künstlichen Videos und Bilder, die sich uns in Echtzeit zeigen, sind manipuliert und gaukeln uns eine Realität vor, die es so nicht gibt. Dass viele der Entwickler ursprünglich nur Spezialeffekte für die Filmindustrie erzeugen wollten, zeigt unter anderem auch, dass sich die Technologie so schnell weiterentwickelt, dass der Mensch Probleme hat, damit Schritt zu halten. Ob er sie irgendwann überhaupt noch im Griff hat, ist die nächste große Frage, die sich kleine wie große Tech-Unternehmen auch aus ethischen Gründen stellen müssen.

Fazit: GriefTech / DeathTech

Ist es wirklich wünschenswert, das neu zum Leben erweckte Bild eines oder einer Verstorbenen jederzeit abrufen zu können? Grief-Tech führt möglicherweise dazu, dass Realität und Fiktion miteinander verschwimmen und Trauernde niemals richtig Abschied nehmen können. Ferner ist zu überlegen, ob der menschliche Geist überhaupt in der Lage ist, diesen Wandel zu vollziehen.

Dass KI unsere Stimmen und Sprechweisen imitiert, ist schon länger möglich. Doch einen Toten quasi auferstehen zu lassen – das heißt gerade für spirituelle und gläubige Menschen, Gott zu spielen. Dieser Schritt ist für sie, aber auch für viele andere Menschen undenkbar. Welche Auswirkungen Grief-Tech auf die Psyche hat, ist noch nicht erforscht. Auch in diesem Bereich steckt die neue KI gänzlich noch in den Kinderschuhen. Die technologische Entwicklung darf nicht dahin führen, dass medizinische, ethische und theologische Aspekte völlig außer Acht gelassen werden.

Warum hat man zwei Nieren? Wozu braucht der Mensch sie? Erklärung


Menschen haben zwei Nieren, damit der Körper auch bei Ausfall einer der beiden Nieren noch in der Lage ist, die grundlegenden Funktionen aufrechtzuerhalten. Diese Redundanz einer der beiden Nieren ermöglicht es, dass eine Niere die Funktion der anderen übernehmen kann, falls diese beschädigt oder erkrankt ist oder aus anderen Gründen nicht mehr funktioniert.

Welche Funktion haben die Nieren im Körper?

Die Nieren sind Filterorgane und dafür zuständig, kontinuierlich unser Blut zu filtern und von Abfallstoffen und überschüssiger Flüssigkeit zu befreien.
Die eigentliche Filterung findet in den Nephronen, den funktionellen Bereichen der Nieren, statt. Jede Niere besteht aus ungefähr einer Million Nephronen. Bei der Filterung des Blutes entsteht als Abfallprodukt Harn, auch bekannt als Urin, der über die Harnleiter in die Harnblase transportiert und über die Harnröhre anschließend ausgeschieden wird. Aufgrund ihrer Filterfunktion sind die Nieren auch maßgeblich an der Regulation von Elektrolyten wie Natrium, Kalzium und Kalium, sowie an der Regulation des Säure-Basen-Haushalts, des Blutdrucks und des Blutvolumens beteiligt.

Wo im Körper liegen die Nieren und wie sind sie aufgebaut?

Fast alle Menschen besitzen zwei Nieren, die paarartig angelegt sind und sich auf beiden Seiten der Wirbelsäule im hinteren Bereich des Bauchraums knapp unterhalb der Rippen befinden. Bei erwachsenen Menschen sind die Nieren zwischen 10 und 12 cm lang, 5 bis 5 cm breit und etwa 3 cm dick. In der Regel sind die Nieren bohnenartig geformt. Sie sind von einer bindegewebeartigen Kapsel umgeben, und zusätzlich von einer Fettschicht sowie der Nierenfaszie gegen Verletzungen geschützt.

Was passiert, wenn eine Niere kaputtgeht?

Dass fast alle Menschen zwei Nieren besitzen, ist eine Sicherheitsmaßnahme der Evolution. So wird sichergestellt, dass der Körper auch nur mit einer funktionierenden Niere überleben kann und diese die grundlegenden Funktionen aufrechterhalten kann. Das bedeutet, dass eine Niere theoretisch in der Lage ist, alle Aufgaben der anderen Niere zu übernehmen und der Körper wenig bis gar nicht durch das Fehlen einer der beiden Nieren beeinträchtigt wird.

Können sich die Nieren selbst regenerieren?

Bis zu einem gewissen Grad sind die Nieren in der Lage, sich zu regenerieren und sogar ihre Funktion an veränderte Bedingungen anzupassen. Zum Beispiel bei einem Verlust oder einer Schädigung eines Teils einer Niere können die übrig bleibenden Nephronen dieser Niere hypertrophieren – sich als vergrößern – und ihre Funktion erhöhen, um die verlorenen Nephronen auszugleichen. Eine vollständige Regeneration ist nicht möglich und der Ausgleich kann nur bis zu einem gewissen Grad stattfinden.

In welchen Fällen haben Menschen nur eine Niere?

Es gibt unterschiedlichste Gründe, warum Menschen nur eine Niere haben. Dazu gehören angeborene Fehlbildungen, Verletzungen, Erkrankungen oder Lebendspenden. Einige Menschen werden mit nur einer Niere geboren. Diese angeborene Anomalie nennt man Nierenagenesie und in den meisten Fällen kann die verbleibende Niere das Fehlen ausgleichen. In anderen Fällen muss Menschen aufgrund von Erkrankungen oder Verletzungen eine Niere operativ entfernt werden. Diese Operation wird als Nephrektomie bezeichnet. Gründe für eine Nephrektomie können zum Beispiel Nierenkrebs, schwere Niereninfektionen, Nierensteine oder Trauma, also Verletzungen, sein. Ein weiterer Grund, warum manche Menschen nur eine Niere haben, ist die freiwillige Spende einer Niere an eine andere Person, die an komplettem Nierenversagen leidet.

Freiwillige Nierenspenden

Wenn eine Person mit zwei gesunden Nieren sich dazu entschließt, eine davon an einen anderen Menschen zu spenden, ist dies aufgrund der Ausgleichsfähigkeit der Nieren möglich. Eine solche Lebendspende kann bei Personen mit Nierenversagen lebensrettend sein oder verbessert in jedem Fall die Lebensqualität des Empfängers oder der Empfängerin deutlich, da er oder sie dann nicht mehr auf Dialyse und Medikamente angewiesen ist.

Was ist eine Dialyse?

Eine Dialyse ist eine medizinische Behandlung, die die Arbeit der Nieren entsetzt. Dabei wird in regelmäßigen Abständen das Blut der Patientin oder des Patienten gereinigt. Wenn eine Transplantation nicht möglich ist, kann eine Dialysebehandlung als Ersatztherapie dienen, um die Funktion der Nieren teilweise zu übernehmen. Durch die Entfernung von Abfallstoffen, überschüssigen Flüssigkeiten und Elektrolyten aus dem Blut, sorgt die Dialyse dafür, dass das innere Gleichgewicht des Körpers aufrechterhalten wird. Es gibt zwei Haupttypen von Dialyse: die Hämodialyse, bei der das Blut des Patienten oder der Patientin durch ein künstliches Nieren- oder Dialysegerät gefiltert wird, und die Peritonealdialyse, bei der die körpereigene Bauchhöhle und das Peritoneum als Filtermembran genutzt werden.

Wie kann man Nierenerkrankungen vorbeugen?

Um Risikofaktoren für Nierenerkrankungen zu minimieren, ist besonders die Ernährung ein wichtiger Faktor. Gesunde Lebensmittel mit wenig Fett und Salz sowie eine ausreichende Flüssigkeitszufuhr spielen eine zentrale Rolle bei der Erhaltung der Nierengesundheit.

Auch eine regelmäßige Blutdruckkontrolle sowie das Vorbeugen von Diabetes sind wichtig.

Nicht zuletzt tragen auch Alkohol und Nikotin dazu bei, die Nieren zu schädigen, genauso wie die übermäßige Einnahme von Medikamenten oder Drogen.

Warum hat ein Kühlschrank drei (3) Fächer und ein Gemüsefach? Bedeutung, Erklärung, Definition


Kühlschränke haben in der Regel drei Fächer und ein Gemüsefach, da innerhalb des Kühlschranks unterschiedliche Temperaturen herrschen. Die drei Fächer und das Gemüsefach können auch als unterschiedliche Temperaturzonen angesehen werden, die besonders geeignet für unterschiedliche Arten von Lebensmitteln sind. Verschiedene Lebensmittel halten sich am besten bei verschiedenen Temperaturen. Durch eine korrekte Lagerung können Lebensmittel länger frisch bleiben und ihre Haltbarkeit verlängert werden.

Warum herrscht nicht im ganzen Kühlschrank die gleiche Temperatur?

Die Temperaturverteilung im Inneren eines Kühlschranks ist aufgrund von verschiedenen physikalischen Faktoren und aufgrund der Bauweise des Kühlschranks nicht gleichmäßig.

Das liegt zum einen am sogenannten Kältemittelkreislauf: Kühlschränke sind aufgrund eines Kältemittelkreislaufs kalt. Bei einem solchen Kältemittelkreislauf zirkuliert Kältemittel durch das Kühlsystem des Kühlschranks und entzieht dabei der Umgebung Wärme, wodurch die Temperatur im Inneren des Kühlschranks gesenkt wird. Bei den meisten Kühlschrankmodellen befindet sich dieses System an der Rückwand des Kühlschranks, wodurch diese auch im Inneren des Kühlschranks meist kälter ist als der Rest des Innenraums. Dies wird dadurch verstärkt, dass die Umgebung, in der sich der Kühlschrank befindet, in aller Regel wärmer ist als die Innentemperatur des Kühlschranks. So dringt, trotz bestmöglicher Isolation des Kühlschranks, ständig Wärme von außen in den Kühlschrank ein, wodurch die Innentemperatur an den Seitenwänden und direkt hinter der Tür größtenteils höher ist.

Ein weiterer Faktor, der zur ungleichmäßigen Temperaturverteilung im Kühlschrank beiträgt, ist die sogenannte Konvektion. Konvektion beschreibt die Übertragung von Wärme durch das Fließen von Flüssigkeiten oder Gasen – im Falle eines Kühlschranks durch die Luft, die sich im Inneren befindet. Kalte Luft hat eine höhere Dichte als warme Luft, wodurch kalte Luft absinkt und warme Luft aufsteigt. Dies bedingt, dass es im oberen Teil des Kühlschranks wärmer ist als im unteren Teil.

Nicht zuletzt beeinflusst auch das Öffnen und Schließen der Kühlschranktür die Temperaturverteilung im Inneren. Jedes Mal, wenn die Kühlschranktür geöffnet wird, dringt warme Luft von außen ein und kalte Luft entweicht aus dem Kühlschrank. Dies beeinflusst die Temperatur, speziell in Türnähe.

Welche Fächer haben welche Temperaturzonen?

Das oberste Fach in einem Kühlschrank ist in der Regel das wärmste Fach, da warme Luft nach oben steigt. Die Temperatur im obersten Fach liegt in der Regel bei etwa 5 bis 7 °C. Diese Temperatur ist optimal für die Lagerung von Lebensmitteln, die keine große Kälte benötigen, um frisch und genießbar zu bleiben oder deren Geschmack oder Konsistenz von zu großer Kälte negativ beeinflusst werden kann.

Das mittlere Fach im Kühlschrank ist etwas kälter als das oberste Fach und hat eine Temperatur von etwa 4 bis 5 °C. Es eignet sich daher für die Lagerung von Lebensmitteln, die eine etwas kühlere Umgebung benötigen, jedoch nicht zu kalt gelagert werden sollten, um sie nicht zu beschädigen.

Das unterste Fach, in der Regel das Fach direkt über dem Gemüsefach, ist meistens das kälteste Fach im Kühlschrank. Dort herrscht eine Temperatur von etwa 2 bis 4 °C. Hier sollten Lebensmittel gelagert werden, die bei höheren Temperaturen leicht verderben oder anderweitig empfindlich auf höhere Temperaturen reagieren.

Das Gemüsefach, auch als Frischhaltefach bekannt, befindet sich in der Regel ganz unten im Kühlschrank. Hier sind in der Regel relativ konstante Temperaturen von 4 bis 6 °C, wobei einige Kühlschrankmodelle auch eine Möglichkeit am Gemüsefach haben, mit der die Feuchtigkeit in seinem Inneren reguliert werden kann. Dies Feuchtigkeitsregulation ermöglicht ideale Bedingungen für die Lagerung verschiedener Gemüse- und Obstsorten, da die Luftfeuchtigkeit auf die Bedürfnisse der Lebensmittel abgestimmt werden kann.

Welche Lebensmittel sollten in welchem Fach gelagert werden?

Aufgrund der unterschiedlichen Temperaturbereiche im Kühlschrank ist es ratsam, unterschiedliche Lebensmittel entsprechend ihren Eigenschaften bezüglich Haltbarkeit und Frische zu lagern.

Im obersten Fach sollten daher zum Beispiel Käsesorten gelagert werden, da die meisten Käsesorten bei einer Temperatur außerhalb von 4 bis 8 °C ihren Geschmack und ihre Textur verändern. Auch Joghurt, Quark und andere Kuhmilchprodukte sollten im obersten Fach gelagert werden, da sie bei zu großer Kälte ausflocken oder ihre Konsistenz verlieren könnten. Nicht zuletzt gehören auch Eier ins oberste Fach, da ihre ideale Lagerungstemperatur bei etwa 5 °C liegt. Im obersten Fach sind Eier daher vor Temperaturschwankungen geschützt und behalten ihre Frische möglichst lang. Auch eingekochte Marmeladen und Gelees sowie andere eingelegte Lebensmittel wie saure Gurken sollten nach dem Öffnen im obersten Kühlschrankfach aufbewahrt werden. Aufgrund des hohen Zucker- oder Säuregehalts dieser Lebensmittel benötigen sie keine besonders niedrigen Temperaturen, um vor dem Verderben geschützt zu sein.

Das mittlere Fach ist am besten geeignet für Lebensmittel wie Wurst und Wurstwaren sowie andere, bereits verarbeitete Speisen wie zum Beispiel Fertiggerichte oder Reste. Die etwas kühleren Bedingungen sorgen dafür, dass sich die Lebensmittel länger frisch halten, ohne ihren Geschmack durch zu hohe Kälte einzubüßen. Im untersten Fach des Kühlschranks sollten frisches Fleisch, frisches Geflügel oder frische Meeresfrüchte und andere, sehr leicht verderbliche Lebensmittel wie Desserts mit rohen Eiern oder ähnliches gelagert werden. Durch die niedrige Temperatur im untersten Fach wird das Wachstum von Bakterien auf diesen Lebensmitteln minimiert, wodurch sie länger ohne gesundheitliche Risiken genießbar bleiben. Nichtsdestotrotz sollten diese Lebensmittel immer möglichst zeitnah verarbeitet und verzehrt werden.

Wie der Name schon vermuten lässt, sollte Gemüse im Gemüsefach gelagert werden. Doch auch einige Obstsorten wie zum Beispiel Weintrauben oder Beeren gehören ins Gemüsefach. Die höhere Feuchtigkeit und moderate Kälte im Gemüsefach hilft bei frischem Obst und Gemüse dabei, es möglichst lange frisch und knackig zu halten. Es sollte allerdings immer darauf geachtet werden, ethylenproduzierendes Obst wie Äpfel und Birnen von empfindlichem Gemüse wie Tomaten getrennt zu, da Ethylen die Reifung von empfindlichem Gemüse beschleunigt.

Warum hat ein Kühlschrank 3 Fächer Witz

Im März und April 2023 verbreitete sich folgender Witz:

„Warum hat ein Kühlschrank 3 Fächer?“

Antwort: Michael Jackson!

Was es damit auf sich hat, erfährst du hier: Was ist ein Michael Jackson Witz?

Leitungswasser – Definition, Verwendungszweck, Nutzen, Bedeutung


Die Bezeichnung Leitungswasser ist ein Sammelbegriff. Sie bezieht sich auf das Wasser, das über Wasserleitungen zugeführt wird. Obwohl Leitungswasser meistens mit Trinkwasser gleichgesetzt wird, ist das aus einer Leitung strömende Wasser nicht automatisch trinkbar.

Was ist Leitungswasser?

Per Definition handelt es sich bei Leitungswasser um Wasser in Rohrleitungen, das aus dem Wasserhahn kommt. Da die Wasserqualität in Deutschland überwiegend als gut eingeschätzt wird, bezeichnet man Leitungswasser auch als Trinkwasser.

Mithilfe strikter gesetzlicher Vorgaben soll sichergestellt werden, dass das Wasser klar und der Geschmack neutral ist und die Grenzwerte für Mikroorganismen und Schadstoffe eingehalten werden. Leitungswasser besteht zu etwa 60 Prozent aus Grundwasser, zu 30 Prozent aus Oberflächenwasser sowie zu 10 Prozent aus Quellwasser. Von den Wasserversorgern wird dafür Grundwasser aus regionalen Wasserschutzgebieten entnommen. Diese Bereiche machen circa 10 Prozent der Fläche Deutschlands aus. Die erforderliche Reinheit des Wassers wird während der Aufbereitung im Wasserwerk durch das Vermischen mit Sauerstoff und durch diverse Filterungen erreicht.

Je nach Region schwankt der Gehalt an Mineralstoffen. Hauptsächlich enthält Leitungswasser Kalium, Natrium, Calcium und Magnesium. Vom Calcium- und Magnesiumgehalt hängen die Wasserhärte und der Geschmack ab. Hartes Wasser kann leicht salzig schmecken, weiches hingegen neutral.

Kann Leitungswasser bedenkenlos konsumiert werden?

Grundsätzlich kann Leitungswasser in Deutschland bedenkenlos konsumiert werden. Obwohl Wasser eines der am meisten kontrollierten Lebensmittel ist, kann die aus dem Wasserhahn strömende Flüssigkeit jedoch vereinzelt Verunreinigungen aufweisen. So dürfen zwar keine krankheitserregenden Mikroorganismen darin enthalten sein, dennoch werden beim gezielten Testen von Leitungswasser regelmäßig Nitrat und Pestizide, Medikamentenreste, Schwermetalle sowie andere schädliche Stoffe entdeckt.

Falls das Leitungswasser trüb ist, einen unangenehmen Geruch aufweist oder als Auslöser für gesundheitliche Beschwerden vermutet wird, sollte es getestet werden. Oftmals wird ein Wassertest durchgeführt, wenn das Leitungswasser für die Zubereitung von Babynahrung verwendet wird. Werden die in der „Allgemeinen Verordnung für die Versorgung mit Wasser“ (AVBWasserV) und in der Trinkwasserverordnung (TrinkwV) festgelegten Grenzwerte überschritten, fällt das beim Wassertrinken nicht sofort auf. Es ist möglich, dass Leitungswasser im hauseigenen Wassersystem verunreinigt wird, beispielsweise durch veraltete Bleirohre. In den Sommermonaten besteht zudem ein gewisses Risiko, dass sich Legionellen in den Wasserleitungen vermehren.

Ursachen für unreines Leitungswasser

Verunreinigungen im Leitungswasser können verschiedene Ursachen haben. Der häufigste Grund sind veraltete Wasserleitungen, die häufig aus Blei, Zink und anderen Schwermetallen oder aus schädlichen Stoffen wie Aluminium bestehen. Mit der Zeit lösen sich diese Substanzen und verunreinigen das Trinkwasser. Bei den oft an warmen Sommertagen auftretenden Legionellen im Leitungswasser handelt es sich um Bakterien, die in stehenden Gewässern leben und sich bei warmen Temperaturen vermehren. Diese Bakterien stehen im Verdacht, verschiedene Krankheiten zu begünstigen.

Über das Grundwasser gelangen Pestizide und Nitrat aus der Landwirtschaft in den Wasserkreislauf und somit in das Leitungswasser. Medikamentenreste können oft nicht effizient aus dem Wasser gefiltert werden. Deshalb dürfen Arzneimittel nicht in der Toilette entsorgt werden. Die jeweils geltenden Grenzwerte sind in der Trinkwasserverordnung ersichtlich. Weitere Einflussfaktoren wie mangelhafte oder fehlende Rohrisolierungen, Biofilme und Kalkablagerungen oder eine Stagnation des Wasserdurchflusses durch Wassersparen können ebenfalls Verunreinigungen im Trinkwasser verursachen.

Unterschiede zwischen Leitungswasser und Mineralwasser

Leitungswasser, Quellwasser und Mineralwasser werden oft gleichgesetzt, dabei bestehen zwischen den verschiedenen Arten von Trinkwasser einige Unterschiede. Bei Leitungswasser handelt es sich um das aus der Leitung strömende Wasser, das durch unterschiedliche Arten der Wassergewinnung entsteht. Um die gleichbleibende Qualität des Leitungswassers sicherzustellen, wird das Wasser behandelt und teilweise chemisch aufbereitet. Es ist daher möglich, dass Leitungswasser auch Chlor enthält. Bei Bedarf wird das Trinkwasser durch sterile Filtration gereinigt. Natürliches Mineralwasser stammt aus unterirdischen Wasservorkommen, die vor Verunreinigung geschützt und frei von Krankheitserregern sind.

Mineralwasser ist amtlich anerkannt, enthält Mineralstoffe, Spurenelemente oder Kohlensäure in bestimmter Konzentration. Die natürliche Zusammensetzung der Mineralien ist auf dem Flaschen-Etikett nachzulesen. Der Mineralienanteil darf nicht verändert werden. Ebenso wie das Mineralwasser stammt auch Quellwasser aus unterirdischen Quellen.

Der Unterschied besteht jedoch darin, dass diese nicht amtlich anerkannt sein müssen. Quellwasser enthält deshalb keine gleichbleibende Menge an Mineralstoffen. Tafelwasser ist Trinkwasser, dem verschieden Substanzen wie Kohlensäure oder Mineralstoffe hinzugefügt werden. Ähnlich wie das Leitungswasser wird Tafelwasser ebenfalls aus verschiedenen Wässern gewonnen, unter anderem auch aus Meerwasser.

Von Leitungswasser unterscheidet sich das Heilwasser dadurch, dass es nicht als Lebensmittel gilt, sondern als Arzneimittel. Wie alle Medikamente unterliegt das Heilwasser dem Arzneimittelgesetz. Aufgrund ihrer spezifischen Inhaltsstoffe sollen die verschiedenen Heilwasser eine gesundheitsfördernde, vorbeugende Wirkung haben, die anhand wissenschaftlicher Studien nachweisbar ist.

Wofür wird Leitungswasser verwendet?

Wasser aus der Wasserleitung wird für unterschiedliche Zwecke verwendet. Im Privathaushalt werden circa zwei Drittel des Trinkwassers für die Körperpflege und die Toilettenspülung verbraucht. Statistiken weisen darauf hin, dass der durchschnittliche Wasserbrauch auf häufiges Wäschewaschen und Geschirrspülen zurückzuführen ist. Da Hygiene in der modernen Gesellschaft einen hohen Stellenwert besitzt, wird die täglich genutzte Trinkwassermenge zu einem großen Teil beim Baden, Duschen, Händewaschen und Haarewaschen verbraucht.

Die anderen Lebensbereiche folgen erst mit deutlichem Abstand. Für die Lebensmittelzubereitung sowie zum Trinken wird lediglich ein geringer Anteil des Leitungswassers genutzt. Trinkwasser aus der Wasserleitung ist kalorienfrei und deshalb ein geeigneter Durstlöscher. Leitungswasser wird zudem für die Zubereitung von Kaffee und anderen Heißgetränken, wie beispielsweise Tee, verwendet. Als kostengünstiges Lebensmittel ist Leitungswasser wesentlich preiswerter als Mineralwasser aus Flaschen.

Direkter und indirekter Leitungswasserverbrauch

Man unterscheidet zwischen direktem und indirektem Leitungswasserverbrauch. Beim Wassertrinken, Kochen oder Waschen wird unmittelbar Wasser verbraucht. In diesem Zusammenhang wird von direkter Wassernutzung gesprochen. Indirekt wird Leitungswasser für eine Vielzahl von Aufgaben verwendet. Leitungswasser kommt bei der Herstellung von Lebensmitteln und Mobiltelefonen zum Einsatz. Dies wird als indirekter Wasserverbrauch bezeichnet. Häufig wird die in diversen Produkten enthaltene versteckte Wassermenge als virtuelles Wasser beschrieben. Die Bezeichnung „virtuelles Wasser“ weist auf die Wassermenge, die in einem Produkt steckt oder dessen Herstellung verbraucht wurde, hin.

Im Handlungsprinzip der Nachhaltigkeit gilt der Wasser-Fußabdruck als Indikator für die Wassernutzung. Der individuelle Wasser-Fußabdruck schließt die gesamte Wassermenge, die verbraucht wurde, ein. Ein enormer Wasserverbrauch entfällt auf die Herstellung von Produkten des täglichen Bedarfs sowie auf die Papierherstellung. Bei der Anfertigung von Textilien sind große Wassermengen notwendig. So werden zum Beispiel für die Herstellung einer einzigen Jeans circa 11.000 Liter Wasser je Kilogramm benötigt.

Was ist Schellack? Was macht man damit? Erklärung, Definition


Er ist ein natürlicher Rohstoff und kommt mittlerweile in vielen Bereichen des täglichen Lebens zum Einsatz – die Rede ist vom Schellack. Vielen Menschen ist der Name „Schellack“ jedoch nicht geläufig. Vereinfacht gesagt handelt es sich beim Schellack um eine harzige Substanz, die aus den Ausscheidungen der Lackschildlaus gewonnen wird. Letztere ernährt sich von verschiedenen Baumsäften. In einem komplizierten, biologischen Verfahren wird daraus dann der Schellack, den die Lackschildlaus für den Nestbau verwendet.

Schellack hat sich innerhalb der vergangenen Jahre zu einem wichtigen und vor allem nachhaltigen Rohstoff in der Musik-, Lebensmittel- und Holzverarbeitungsindustrie entwickelt. Er gilt als zuverlässig, günstig und umweltfreundlich. Der nun folgende Artikel soll sich daher einmal mit dem Rohstoff Schellack befassen und wie dieser gewonnen wird. Außerdem sollen dessen Verwendung, Nachhaltigkeit sowie Vor- und Nachteile detaillierter aufgezeigt werden.

Was ist Schellack? Erklärung, Definition

Das Wort „Schellack“ ist ein Kunstwort, welches sich aus den niederländischen Begriffen „schel“ (zu Deutsch: „Schale“) und „lak“ (zu Deutsch: „Lack“) zusammensetzt. Der Begriff geht auf das 17. Jahrhundert zurück, in dem die damalige „East India Company“ aus den Niederlanden bereits so gennanten „Lac Dye“ (einen Farbstoff namens „Laccainsäure“ zum Färben von Holz) aus Indien nach Europa exportierte. Wenig später wurde dann auch der für den „Lac Dye“ ursprüngliche Rohstoff namens „Schellack“ nach Europa exportiert.

Obwohl der Name „Schellack“ im Deutschen mit einem Lack in Verbindung gebracht wird, so handelt es sich doch um eine harzige Substanz, welches als Überzugsmaterial verwendet wird. Auch gibt es im Deutschen keine vom Wort „Schellack“ abweichenden Bezeichnungen für diesen Rohstoff. Der Name „Schellack“ wurde demnach direkt aus dem Niederländischen übernommen und ist heute ein fester Bestandteil des deutschen Wortschatzes.

Herstellung: So wird Schellack hergestellt

Der Schellack wird aus den Ausscheidungen der in Indien sowie in anderen asiatischen Ländern heimischen Lackschildlaus gewonnen. Die Lackschildlaus ernährt sich in der Regel von verschiedenen Baumsäften und scheidet eine harzige Substanz aus, die auch als Lackschildlaussekret bekannt ist. Im Zuge der Gewinnung von Schellack wird das Harz dann von den Bäumen abgekratzt und gesiebt. Auf diese Weise sollen Verunreinigungen zuverlässig entfernt werden. Im Anschluss wird das gereinigte Sekret in großen Kesseln erhitzt, bis dieses zu schmelzen anfängt.

Den nächsten Schritt in der Herstellung von Schellack markiert dann das Abkühlen des Sekrets, welches hierfür im heißen Zustand zunächst auf dünne Stäbe gegossen wird. Indem die mit dem Harz übergossenen Stäbe dann in kaltes Wasser getaucht werden, kühlen diese ab und verhärten sich. Die Stäbe mit dem Harz werden dann zerkleinert und zu einem feinen Pulver zermahlen. Bei der Weiterverarbeitung wird der Schellack dann meist noch mit weiteren Farbpigmenten oder anderweitigen Substanzen vermengt.

Insgesamt ist die Herstellung von Schellack also ein aufwändiger Prozess, der traditionell komplett von Hand durchgeführt wird. Jedoch gibt es zunehmend hochmoderne Produktionsmethoden, die die Herstellung von Schellack beschleunigen und damit schlussendlich auch günstiger machen.

Verwendung: Hierfür wird Schellack benötigt

Schellack wird heute in verschiedensten Bereichen verwendet. Darunter stechen vor allem die Verwendung in der Musikindustrie, der Lebensmittelindustrie sowie der Holzverarbeitungsindustrie hervor. In den nun folgenden Unterabschnitten sollen diese drei Hauptverwendungsbereiche des Schellack daher einmal näher erklärt werden.

Verwendung in der Musikindustrie

In der Musikindustrie wurde und wird Schellack vor allem als Überzugsmaterial zur Herstellung von Schallplatten und Vinyl verwendet. Die mit Schellack überzogenen Schall- oder Vinylplatten werden so vor Beschädigungen geschützt und verleihen dem Ton eine deutlich bessere Qualität. Gleichzeitig wird der Schellack oft zum Überziehen von Musikinstrumenten wie zum Beispiel Gitarren oder anderen Saiteninstrumenten eingesetzt. Dies dient auch hier dem Zweck, dass die Instrumente besser vor Kratzern oder anderweitigen Schäden geschützt sind. Insgesamt steigt der Bedarf an Schellack in der Musikindustrie aktuell, da es sich um ein alternatives und nachhaltig herzustellendes Material handelt.

Verwendung in der Lebensmittelindustrie

In der Lebensmittelindustrie wird Schellack heute oft als Überzugsmittel für Süßigkeiten, Früchte sowie Kaffeebohnen eingesetzt. Der Überzug verleiht den genannten Produkten mehr Glanz und Haltbarkeit. Da Schellack gesundheitlich unbedenklich ist, ist dieser auch zur Herstellung von Lebensmitteln freigegeben. Damit stellt der Schellack eine beliebte Alternative zu pflanzlichen Wachsen oder Gummis wie beispielsweise Arabicum dar. Anzumerken sei jedoch, dass Lebensmittel, die Schellack enthalten, sich nicht für Vegetarier oder Veganer eignen. Denn Schellack ist ein rein tierisches Produkt.

Verwendung in der Holzverarbeitung

In der Holzverarbeitung wird Schellack vor allem als natürliches Bindemittel für Holzlacke, Polituren oder Wachse eingesetzt. Mit Schellack versehener Holzlack verleiht Holzoberflächen insgesamt eine glatte Oberfläche. Gleichzeitig schützt Schellack Holzoberflächen vor Feuchtigkeit oder Abnutzung. Ebenfalls beliebt ist aber auch die Verwendung von Schellack als Füllstoff für Holzrisse oder Holzlöscher. Aufgrund seiner schnellen Trocknungszeit und seiner unkomplizierten Verarbeitung sowie Haltbarkeit ist der Schellack in der Holzverarbeitungsindustrie mittlerweile unverzichtbar geworden. Anzumerken ist jedoch, dass Schellack aufgrund seines immer noch recht hohen Preises immer häufiger auch durch synthetische Bindemittel ersetzt wird.

Chemische und physikalische Eigenschaften von Schellack

Beim Schellack handelt es sich um ein natürliches Polymer, welches in den Ausscheidungen der weiblichen Lackschildlaus vorhanden ist. Es besteht vorrangig aus Polyhydroxyalkanoat. Optisch handelt es sich beim Schellack um ein recht sprödes und gleichzeitig transparentes Material, welches in vielen verschiedenen Farben erhältlich ist. Schellack ist beständig gegen Wasser, Alkohol sowie Säuren und Laugen. Jedoch ist Schellack empfindlich gegenüber Hitze und UV-Strahlen. In seiner Zusammensetzung besteht Schellack aus einem hohen Anteil an Kohlenstoffen, weshalb dieser auch recht leicht entflammbar ist. Ebenfalls besitzt Schellack eine hohe elektrische Isolationsfähigkeit. Aus letzterem Grund ist Schellack besonders auch für die Elektronikindustrie interessant. Schellack besitzt also insgesamt eine Vielzahl an nützlichen, physikalischen Eigenschaften, die diesen Rohstoff so universell einsetzbar machen.

Wie nachhaltig ist Schellack?

Schellack gilt heute als natürliches Produkt und damit als eine echte Alternative zu synthetischen Materialien. Häufig wird aber die Produktion von Schellack kritisiert, da diese recht ressourcenintensiv erscheint und eine hohe Menge an Lackschildläusen erfordert werden. Zwar setzen die Hersteller von Schellack auf nachhaltige Anbaumethoden und hohe Tierwohlstandards, jedoch hängt die Nachhaltigkeit der Schellack-Produktion oftmals davon ab, wie viele Lackschildläuse gezüchtet und schlussendlich geerntet werden können. Die Nutzung von pflanzlichen Wachsen wird daher zunehmend als ethischer und noch nachhaltiger angesehen.

Vor- und Nachteile von Schellack:

Der Rohstoff Schellack bietet eine Fülle an Vor- und Nachteilen, die im Folgenden allesamt einmal aufgelistet werden sollen:

Vorteile:

  • Beim Schellack handelt es sich um ein natürliches Produkt.
  • Schellack ist ungiftig und auch zur Herstellung von Lebensmitteln geeignet.
  • Schellack ist beständig gegenüber Wasser, Alkohol, Säuren und Laugen.
  • Schellack ist biologisch abbaubar

Nachteile:

  • Für die Produktion von Schellack werden große Mengen an Lackschildläusen benötigt (was teuer und unethisch ist).
  • Schellack kann bei manchen Menschen zu allergischen Reaktionen führen.
  • Schellack ist empfindlich gegenüber Hitze und UV-Strahlen.
  • Schellack ist teurer als synthetische Mittel

Fazit: Schellack

Zusammenfassend lässt sich also sagen, dass es sich beim Schellack um ein recht vielseitig einsetzbares Produkt handelt. Schellack wird aus den Ausscheidungen der Lackschildlaus gewonnen und durchläuft einen arbeits- und kostenintensiven Prozess, bevor dieser beispielsweise in der Musik-, Lebensmittel- oder Holzverarbeitungsindustrie zum Einsatz kommen kann. Da die Lackschildlaus in Europa nicht heimisch ist, muss der Rohstoff Schellack größtenteils aus Indien importiert werden.

Mit dem Wort „Schellack“ sind zum Beispiel die Begriffe „Pflanzenwachse“, „Polymere“ sowie „Pflanzenharze“ verwandt. Im Gegensatz zu den „Pflanzenwachsen“ oder „Pflanzenharzen“ handelt es sich beim Schellack jedoch um ein rein tierisches Produkt. Unter „Polymere“ ist hingegen die chemische Struktur von Schellack zu verstehen.

Was ist Prompt Engineering? Erklärung, Bedeutung, Definition


„Prompt Engineering“ ist eine Technik, um aus einer generativen KI das Maximale herauszuholen. Der „Prompt Engineer“ ist eine Person, die genau weiß, was sie einer KI sagen muss und wie sie eine KI bedienen muss, um ein optimales Ergebnis zu erzielen.

Was ist Prompt Engineering? Erklärung, Bedeutung, Definition

Nutzer können mithilfe von Prompt Engineering die Ergebnisse, die eine KI liefert, verbessern. Denn wenn man verstanden hat, auf welche Befehle die KI am besten reagiert und welche Informationen eine KI braucht, um optimal zu arbeiten, kann das Ausgabeergebnis (der KI) stark verbessert werden.

Was ist ein „Prompt“? Das Wort „Prompt“ bedeutet im Kontext von generativer KI, ChatGPT und Prompt Engineering soviel wie „Befehl“ oder „Auftrag“. Der „Prompt“ ist die Arbeitsgrundlage, die eine KI erhält, um ein Ergebnis zu liefern. Die Qualität der Antwort einer KI ist stark abhängig vom Prompt. Je besser der Prompt, umso besser ist das Arbeitsergebnis.

Prompt Engineering fängt z.B. dann an, wenn man wählt wie allgemein oder spezifisch die gestellte Aufgabe an eine KI sein soll. Der Prompt Engineer entscheidet, welcher Kontext der KI verraten werden soll und welche Details, die KI wissen soll.

Beispiele für Prompt Engineering / Prompting:

Prompt Engineering beginnt schon damit, dass man unterscheidet zwischen der Aufgabe „Schreibe eine Produktbeschreibung von Produkt X“ oder „Schreibe eine Produktbeschreibung von Produkt X wie bei Produkt Y.“ (Beim zweiten Prompt weiß die KI, woran sie sich orientieren soll und sie ist weniger frei in ihrer Arbeit. Das erzeugt bessere Ergebnisse.)

Die Verben in einer Arbeitsanweisungen (Prompt) sind entscheidend. Hier kann der Prompt Engineer seine Ziele und Absichten mitteilen. Eine KI kann z.B. einen Text umschreiben, sie kann ihn aber auch umformulieren oder kürzen. „Kürze diesen Text“ ist z.B. ein Prompt bei dem eine KI weiß, dass sie den Text kürzen soll.

Der Prompt Engineer kann einer KI aber auch eine Rolle und Haltung zu weisen. Er kann z.B. der KI sagen: „Du bist ein Übersetzer für die englische Sprache. Schreibe mir folgenden Text …“ Oder: „Du Marketing-Mitarbeiter und schreibst einen Verkaufstext für Produkt X. Der Verkaufstext soll auf Plattform Y erscheinen. Die Zielgruppe ist Generation Z.“

Der Prompt Engineer teilt einer KI meist den Kontext und das Ziel eines Prompts mit. Damit weiß die KI in welche Richtung es geht und kann das Ergebnis anpassen.

Die Aufforderung: „Was ist letztens passiert?“ ist z.B. ein schlechter Prompt. Denn die Frage ist viel zu unspezifisch. Ein besserer Prompt wäre: „Was ist im März 2023 in Deutschland im Bereich Technologie passiert?“

Der Prompt: „Schreibe mir eine Motivationsrede“ ist ein schwacher Prompt, denn es ist viel zu unspezifisch für wen diese Rede ist und was der Anlass ist. Ein besserer Prompt ist: „Ich will meine Verkaufsmitarbeiter motivieren, so dass sie sich mehr anstrengen. Wir sind in Branche XY aktiv. Schreibe mir eine Motivationsrede für meine Mitarbeiter.“

Kurzzusammenfassung:

Für gute Prompts und damit gute Ergebnisse sollte einer generativen KI folgendes mitgeteilt werden:

  • Ziel / Zielgruppe des Prompts
  • Absicht / Intention des Prompt Engineers
  • Kontext des Prompts
  • Anlass des Prompts
  • Details: wer, was, wo, wann und warum

Aufgabenbereiche vom Prompt Engineer

Die KI kann innerhalb kürzester Zeit Texte erstellen. Doch bei komplexen Sachverhalten stößt die Technik schnell an ihre Grenzen. Zudem ist die KI nicht immer in der Lage, die Inhalte in einen passenden Kontext zu setzen. Genau hier kommt der Prompt Engineer ins Spiel. Seine Aufgabe ist es, dafür Sorge zu tragen, dass die KI effizient arbeiten kann. Ein Prompt Engineer ist mit dem jeweiligen System vertraut. Er prüft die Ergebnisse der KI und gibt Befehle ein.

Eine wesentliche Aufgabe vom Prompt Engineer ist es, der KI Befehle zu erteilen. Er kennt den Algorithmus eines Systems. Hiermit ist es ihm möglich, Befehle einzugeben, die bestmögliche Ergebnisse liefern. Gleichzeitig ist er mit den Schwächen und Grenzen der KI vertraut, die er bei seiner Arbeit berücksichtigt. Aufgrund der Automatisierung, die in zahlreichen Bereichen erfolgt, steigt die Nachfrage für das Berufsbild. Es ist davon auszugehen, dass der Bedarf in Zukunft exorbitant ansteigen wird, weil die KI eine immer wichtigere Rolle einnimmt.

Die Fähigkeiten der KI haben sich in den letzten Jahren enorm verbessert. Ob Texte, Kompositionen oder Bilder, die KI ist teilweise besser als ein Mensch. In einigen Fällen ist es nur schwer, zu unterscheiden, ob es sich um menschliche Werke handelt oder nicht. Diesbezüglich hat die KI bereits Malwettbewerbe für sich gewonnen. Gleichzeitig kommt es immer wieder zu Fehlern, denn es fehlt der KI an Intuition und gesundem Menschenverstand. Deshalb kommt dem Prompt Engineering eine wichtige Rolle zu.

Der technische Fortschritt – Risiken und Chancen

Die Digitalisierung hat heute schon zahlreiche Arbeitsstellen gekostet. Durch die Automatisierung stehen ganze Fabrikhallen leer. Seit Jahren gewinnt die KI an Bedeutung. Schon in den 1990er-Jahren hat ein Computer den Schachweltmeister Garri Kasparow besiegt. Im gleichen Zuge gibt es die Sorge, in Hinblick auf die Arbeitswelt. Diesbezüglich lassen sich nur schwer Aussagen treffen, weil die Langzeitfolgen auf den Arbeitsmarkt unerforscht sind. Die neue Technologie wird sowohl Positives als auch Negatives mit sich bringen.

Zum einen wird der technische Fortschritt einige Jobs gefährden. Durch die Automatisierung können Aufgaben durch die KI durchgeführt werden. Die KI hat Zugang zu einer großen Datenbank. Sie kann Informationen aufrufen und in einen Zusammenhang bringen. Dabei muss die KI nicht lange lernen, wie es bei Menschen der Fall ist. In den nächsten Jahren ist davon auszugehen, dass die Künstliche Intelligenz immer autonomer wird, wenn es um das maschinelle Lernen geht. Im gleichen Zuge erhöht sich das Risiko, dass es zu einem Stellenabbau kommt. Ein Beispiel ist der Handelsriese Amazon, der einen Großteil der Lagerlogistik automatisiert hat.

Auf der anderen Seite werden neue Jobs hinzukommen, wie es die Vergangenheit gezeigt hat. Durch den technischen Fortschritt werden neue Fachkräfte in der IT benötigt. Damit einhergehend gibt es auch die Berufsbezeichnung „Prompt Engineer“. Auf diese Weise kann der Stellenabbau durch neue Arbeitsstellen teilweise ausgeglichen werden. Abseits davon stellt die KI eine gesellschaftliche Bereicherung dar. Dank der KI ist es möglich, gänzlich neue Wege zu gehen. Die KI ist in der Lage, musikalische Werke zu kreieren und vieles mehr. Es können neue Akzente gesetzt werden, in Hinblick auf das kulturelle Leben. Zudem kann die KI dabei helfen, die Notwendigkeit für menschliche Arbeit zu verringern. Diesbezüglich gibt es bereits Diskussionen, ob es nicht sinnvoll wäre, ein bedingungsloses Grundeinkommen zu etablieren.

Zukünftige Entwicklung der KI

Die Möglichkeiten werden sich in Zukunft fortwährend erweitern. Bereits heute schon setzen zahlreiche Unternehmen auf die Technologie. Großbanken setzen Chatbots ein, um in Kontakt mit Kunden zu treten. In einigen Fällen ist es nur bedingt möglich, den Chatbot von einem echten Mitarbeiter zu unterscheiden. Programme, wie GPT-4 oder ChatGPT, sind in der Lage Texte zu erstellen. Deshalb rücken die Programme in den Fokus von Werbeagenturen und anderen Unternehmen.

Aber die Programme können weit mehr. Sie übernehmen zu einem gewissen Teil die Arbeit von Programmierern. In Zukunft wird die Technologie den Menschen in zahlreichen Lebensbereichen begegnen. Ob auf der Arbeit, Zuhause oder in der Freizeit, die KI hat ein großes Potenzial. Es ist möglich, dass die Autos der Zukunft per Sprachbefehl gesteuert werden. Die menschliche Leistung rückt zunehmend in den Hintergrund, weil die KI die Fähigkeiten des Menschen um ein Vielfaches übertrifft – zumindest in einigen Bereichen. Es ist nur eine Frage der Zeit, bis die KI den Menschen in anderen Bereichen schlägt und nicht mehr auf die Hilfe eines Prompt Engineers angewiesen ist.

Fazit: Was ist Prompt Engineering?

Prompt Engineering steht für Effizienz und Fortschritt. Der technische Fortschritt wird unaufhörlich voranschreiten, ungeachtet der möglichen Risiken. Bereits heute schon sind zahlreiche Abläufe im Privat- und Arbeitsleben digitalisiert. Somit wird die KI zu einem festen Begleiter des gesellschaftlichen Lebens. Deshalb ist es unumgänglich, sich mit dem Thema proaktiv auseinanderzusetzen. Hiermit ist es möglich, das Potenzial der Software auszuschöpfen. Dank Prompt Engineering ist sichergestellt, dass das Potenzial der KI ausgeschöpft wird. Prompt Engineers leisten einen wichtigen Beitrag, wenn es um die Kontrolle von KI-basierten Prozessen geht.

Was ist AGI (Artificial General Intelligence)? Bedeutung, Erklärung, Definition


AGI steht für „Artifical General Intelligence“ und heißt übersetzt „Allgemeine Künstliche Intelligenz“. Im deutschen Sprachraum wird deshalb auch das Kürzel AKI verwendet. Es geht dabei um eine besondere Form der künstlichen Intelligenz, die bisher noch nicht erreicht worden ist. Bei AGI soll die künstliche Intelligenz nicht nur vorgeschriebene Aufgaben lösen, wie es bisher der Fall ist. Künstliche Intelligenz soll stattdessen in der Lage sein, intellektuelle Fähigkeiten zu entwickeln, die dem menschlichen Gehirn nahekommen.

Was ist AGI (Artificial General Intelligence)? Bedeutung, Erklärung, Definition

Forscher möchten somit eine Intelligenz schaffen, die autonom handeln kann. Diesbezüglich gibt es erste Ansätze, um die künstliche Intelligenz voranzubringen, und zwar in Richtung Autonomie. Deep Learning orientiert sich etwa am menschlichen Gehirn. Das Programm nutzt neuronale Netze, um Informationen zu verarbeiten. Ein wesentlicher Unterschied zu herkömmlichen Programmen ist, dass Deep Learning in der Lage ist, selbst zu lernen. Gleichzeitig bleibt es beim Ansatz, AGI zu realisieren. Aktuell kann die Künstliche Intelligenz nicht einmal mit kleinen Kindern mithalten, wenn es um neue Aufgabenumgebungen geht.

Im weiteren Textverlauf folgen weitere Informationen zum aktuellen Forschungsstand und den Vor- und Nachteilen, die mit AGI einhergehen.

Verschiedene Formen der Künstlichen Intelligenz

Im Verlauf der Entwicklungsgeschichte haben sich verschiedene Formen der Künstlichen Intelligenz etabliert. Allgemein hin spricht man auch von verschiedenen Ebenen, die eine Künstliche Intelligenz erreichen kann.

Zum einen gibt es die Künstliche Intelligenz mit reaktiven Maschinen. Es ist die erste Ebene der KI. Wie der Wortlaut andeutet, kann die KI ausschließlich auf festgeschriebene Situationen reagieren. Die KI kann weder lernen noch Sachverhalte verstehen, die neu hinzukommen. Bekanntheit erlangte die KI aus diesem Spektrum mit dem Schachcomputer Deep Blue. Feng-hsiung Hsu hatte 1985 mit dem Projekt angefangen. 1996 hatte Deep Blue Geschichte geschrieben, als der Computer den Schachweltmeister Garri Kasparow geschlagen hat.

Auf der anderen Seite gibt es die Limited Memory KI. Die Künstliche Intelligenz hat ein eigenes „Gedächtnis“, nämlich den Speicherplatz. Dabei handelt es sich um die zweite Ebene der KI. Hiermit ist es der KI möglich, größere Datenmengen zu verarbeiten und entsprechende Rückschlüsse zu ziehen. Unter anderem ist diese Form der KI in selbstfahrenden Autos präsent. Die KI kann anhand der eingespeisten Daten auf bestimmte Situationen adäquat reagieren.

Schließlich gibt es die dritte Ebene, die heute noch zu dem Bereich der Science-Fiction gehört. Roboter aus dieser KI-Stufe sollten in der Lage sein, die Emotionen der Menschen zu deuten. Im gleichen Zuge soll es Maschinen möglich sein, auf bestimmte Emotionsregungen zu reagieren. Hiermit werden Roboter in der Lage sein, in Interaktion mit ihrem Umfeld zu treten – zumindest der Theorie nach.

Die vierte Ebene ist die AGI und somit die fortschrittlichste Form der KI. In dieser Phase werden Roboter in der Lage sein, dieselben Dinge zu tun wie Menschen. Maschinen werden ein künstliches Bewusstsein haben, sodass es einen erheblichen Meilenstein in der KI darstellen wird. Diesbezüglich gibt es bereits jetzt schon Diskussionen, inwieweit Roboter das Recht darauf haben, als vollwertige Mitglieder der Gesellschaft akzeptiert zu werden. Damit einhergehend wird besprochen, ob man Robotern Menschenrechte zusprechen sollte.

AGI: Aktueller Entwicklungsstand der KI

Auch wenn die Digitalisierung unermüdlich voranschreitet, gibt es aktuell nur mäßigen Erfolg in puncto AGI. Laut aktuellen Forschern ist es noch ein weiter Weg, bis die Künstliche Intelligenz die vierte Ebene erreicht. Folglich kann es noch Jahre bzw. Jahrzehnte dauern, bis die KI die letzte Ebene erreicht. Aktuelle KI-Systeme können zwar lernen und Zusammenhänge erkennen. Dennoch sind sie nicht in der Lage, zu experimentieren, um gänzlich neue Lösungsansätze zu konzipieren, ohne Hilfe von außen zu bekommen.

Aktuell ist die KI in neuen Lernumgebungen überfordert. Die KI muss mit Informationen eingespeist werden, bevor es Neues lernen kann. Genau hierin unterscheidet sich die maschinelle Intelligenz von der menschlichen Intelligenz. Menschen sind in der Lage, in neuen Umgebungen zurechtzukommen. Die KI ist noch weit davon entfernt, diese Stufe der Intelligenz zu erreichen. Dennoch bleibt es das primäre Ziel der Forschung, die vierte Ebene zu erreichen. Es würde den Handlungsspielraum der Robotik revolutionieren.

AGI als Chance – die Vorteile im Blick

Die KI birgt viele Chancen für Gesellschaft und Politik. Hiermit können Roboter unter anderem gefährliche Aufgaben übernehmen, die sonst Menschen übernehmen müssten. Vor allem in Japan und anderen asiatischen Ländern wird die KI genutzt, um den Alltag der Menschen zu erleichtern. Diesbezüglich wird die KI genutzt, um Menschen bei der Trauerbewältigung zu unterstützen.

In Südkorea hat ein Fernsehunternehmen gezeigt, welches Potenzial hinter der KI steckt. Ein Forschungsteam hat die digitale Identität eines verstorbenen Mädchens rekonstruiert. Die Mutter konnte mithilfe einer VR-Brille die Tochter wiedersehen. Das Team hat sowohl die Stimme als auch das äußere Aussehen der Tochter imitiert. In naher Zukunft kann die KI dabei helfen, mit verstorbenen Angehörigen zu kommunizieren.

Roboter können zudem mühsame Arbeit übernehmen, wie etwa in der Pflege. In Japan kommen bereits heute Roboter in der Pflege zum Einsatz. Das Land hat mit einer Überalterung der Gesellschaft zu kämpfen. Kaum ein Land hat so sehr mit der Problematik zu kämpfen wie Japan. Die Technik stellt einen Teil der Lösung dar. Hiermit ist es möglich, den Pflegenotstand zu bekämpfen. Roboter können etwa Rundgänge unternehmen oder dabei helfen, Patienten vom Bett zu heben.

Darüber hinaus bietet die KI einmalige Chancen in der Medizin. Sie kann dazu beitragen, lebensgefährliche Krankheiten noch früher zu diagnostizieren. Der Vorteil der KI ist das grenzenlose Wissen, das der Künstlichen Intelligenz zur Verfügung steht. Roboter müssen keine Fortbildungen machen. Sie können mit Millionen von Datensätzen versorgt werden, die von der KI verarbeitet werden. Diesbezüglich kann die KI bereits jetzt schon Krebs auf medizinischen Bildern erkennen kann, und zwar ebenso gut wie Ärzte.

Doch die Visionen gehen noch viel weiter, in Hinblick auf AGI. In Zukunft wäre es möglich, dass Roboter lästige Hausarbeiten erledigen. Damit einhergehend wäre es vorstellbar, dass sie den Einkauf erledigen und vieles mehr. Es würde das Leben, so wie es die Menschen jetzt kennen, gänzlich verändern. Aber es bleibt eine Fiktion, zumindest laut aktuellem Forschungsstand. In den nächsten Jahren ist damit zu rechnen, dass es neue Meilensteine in diesem Bereich geben wird.

AGI als Gefahr – Nachteile im Fokus

Filme aus Hollywood nutzen gerne die KI als mögliche Gefahr für die Existenz der Menschheit. Doch wie realistisch sind diese Szenarien? Kann die KI zum Feind der Menschen werden? Welche Gefahren ergeben sich aus der Weiterentwicklung der KI? Es folgen einige Erläuterungen, die Aufschluss geben.

Eine stille Gefahr ist der Stellenabbau, der durch die KI verursacht wird. Mit dem Zeitalter der Digitalisierung und Automatisierung kam es zu leer stehenden Lagerhallen. Wo sonst hunderte Angestellte gearbeitet haben, gibt es nur eine Handvoll Mitarbeiter. Ein Großteil der logistischen Arbeit kann durch Roboter erledigt werden. Der Handelsriese Amazon hat das Potenzial von Robotern erkannt, zum Nachteil seiner Mitarbeiter. Anfang 2023 kam es zu einer Entlassungswelle. Ein Sprecher verlautbarte, dass bis zu 18.000 Stellen gestrichen werden sollen.

Doch gibt es auch potenzielle Gefahren, die gerne in Filmszenen dargestellt werden? Tatsächlich stellen Roboter auch eine Gefahr für Menschen dar, und zwar seit vielen Jahren schon. Diesbezüglich kommt es immer wieder zu Drohnenangriffen. Auf diese Weise können Menschen an allen Orten der Welt getötet werden. Rein theoretisch ist es möglich, die Drohnen autonom handeln zu lassen. Hiermit können bestimmte Menschengruppen automatisch beschossen werden. Folglich kann die KI in Zukunft dazu beitragen, dass sich Konflikte verschärfen.

Des Weiteren stellt die KI, insbesondere AGI, eine Gefahr dar, wenn es um staatliche Überwachung geht. China ist ein Negativbeispiel, das aufzeigt, wie die KI für die Überwachung genutzt werden kann. Es können Bewegungsprotokolle erstellt und Gesichter auf öffentlichen Plätzen erfasst werden. Die KI bietet zahlreiche Möglichkeiten, Menschen zu kontrollieren. In der Volksrepublik China ist es heute schon Alltag, überall überwacht zu werden. Jährlich investiert die Regierung Millionensummen, um den Überwachungsapparat auszubauen.

Abseits davon sind die Risiken auf die menschliche Psyche noch unerforscht. Diesbezüglich steht noch nicht fest, ob digitale Kopien von Verstorbenen den Trauerprozess unterstützen oder hemmen. Kritiker äußern, dass es im schlimmsten Fall, die Trauer verschlimmern kann. Zudem kann nicht ergründet werden, inwieweit die Gesellschaft bereit ist, humanoide Roboter als Teil der Gesellschaft zu akzeptieren. Es kann zu gesellschaftlichen Konflikten führen, deren Ausgang ungewiss ist.

Fazit: Was ist AGI (Artificial General Intelligence)?

Es lässt sich nicht abschließend sagen, wann die KI die vierte Stufe erreichen wird. Damit einhergehend lassen sich die Folgen für die Gesellschaft nur schwer abschätzen. Dennoch ist es wichtig, die Themen heute schon anzusprechen. Auf diese Weise kann ein Großteil der Bevölkerung auf das Thema sensibilisiert werden. Der technische Fortschritt macht fortwährend große Sprünge. Folgerichtig ist es bedeutsam, sich auf die Zukunft vorzubereiten.

Grundsätzlich bietet die KI positive Veränderungen. Die KI wird in Zukunft dazu beitragen, dass das Leben der Menschen einfacher wird. Gleichzeitig braucht es wichtige Gesetzesänderungen, um einen Missbrauch durch KI zu unterbinden. Unter anderem haben staatliche Institutionen die Möglichkeit, die Bevölkerung mithilfe der KI zu überwachen. Deshalb sind Datenschutzgesetze von elementarer Bedeutung, um einen Machtmissbrauch zu unterbinden.

Letztlich wird die KI das Leben der Menschen bereichern. Die Entwicklung der KI kann nicht gestoppt werden, ungeachtet der potenziell möglichen Risiken. Viel wichtiger ist es deshalb, nach Lösungen zu suchen, um die KI in das gesellschaftliche Leben zu integrieren.

Was ist Kriegsbegeisterung / Kriegseuphorie? Bedeutung, Erklärung, Definition


Von Kriegsbegeisterung spricht man, wenn sich größere Bevölkerungsgruppen oder ganze Völker für Krieg oder kriegerische Auseinandersetzungen begeistern, sowie diese befürworten.

Kriegsbegeisterung im Ersten Weltkrieg: Wie kam es dazu? Erklärung

Aufgrund der die militärischen Interventionen im Irak und in Afghanistan konnte man in den letzten Jahrzehnten feststellen, dass die Mehrheit der deutschen Bevölkerung Kriegen skeptisch gegenübersteht. Historisch betrachtet ist diese Haltung keineswegs selbstverständlich. Deutschland erlebte beim Ausbruch des Ersten Weltkrieges im August 1914 eine nie da gewesene Kriegsbegeisterung, die sich schon im Vorfeld abzeichnete.

Historiker nennen dieses Ereignis das „August-Erlebnis“. Die Begeisterung zeigte sich durch Fahnen schwenkende Menschen auf den Straßen, Männer, die jubelnd ihre Hüte in die Luft warfen und um Gottes Beistand für den Gang zu den Waffen baten. Man versammelte sich auf den Straßen, um den Soldaten zuzujubeln. Die Kriegsbegeisterung 1914 erfasste nicht nur Deutschland, sondern ganz Europa.

Kriegseuphorie: überhöhte Vorstellungen der eigenen Macht und viel Unwissenheit

Das Attentat auf Erzherzog Franz Ferdinand in Sarajevo war quasi die Initialzündung, wurde als Vorwand eingesetzt. Die eigentliche Triebkraft für den Ersten Weltkrieg waren jedoch der übersteigerten Nationalismus und ein starkes Überlegenheitsgefühl des Deutschen Reiches. Nach dem Attentat in Sarajevo erklärten Österreich-Ungarn und das Deutsche Reich Russland und anderen Nationen zuerst den Krieg. Der hatte sich durch wiederkehrende Krisen schon vorher angebahnt, konnte bis dahin noch abgewendet werden. Infolge der Propaganda durch Kaiser Wilhelm II. sah die Bevölkerung Krieg als eine gerechte Sache an. Obwohl das Land gar nicht angegriffen worden war, schien die militärische Verteidigung in den Augen aller unbedingt notwendig.

Der Glaube der militärischen und politischen Führung, den Krieg in wenigen Monaten mit einem Sieg Deutschlands beenden zu können, heizte die Euphorie weiter an. Der letzte zurückliegende Krieg war der deutsch-französische Krieg von 1870/71, der recht schnell gewonnen wurde. Man war davon überzeugt, auch jetzt andere Völker mit Leichtigkeit besiegen zu können. In der Zwischenzeit hatte man die Waffenindustrie erheblich weiterentwickelt und auch die Größe der Heere war rasant gewachsen. Da Deutschland auch eine leistungsfähige Kriegsmarine aufbaute, konnte sich bald ein unrealistisches Überlegenheitsgefühl etablieren. Selbst die Militärs waren ahnungslos darüber, was im Falle eines Krieges auf sie zukommen würde. Zum unrealistischen Bild eines schnellen Sieges gesellte sich große Unwissenheit. So war die Bevölkerung leicht zu manipulieren.

Die Kriegsbegeisterung zeigte sich hauptsächlich in den Städten. Auf dem Land schätzte man die Situation realistischer ein. Hier lebten alle von der Landwirtschaft. Man wusste, dass die Männer einberufen und die Ernte damit ausfallen würden. Somit war die ländliche Bevölkerung Kriegshandlungen viel kritischer gegenüber eingestellt.

Entstehung von Kriegsbegeisterung aus Sicht von Historikern (bezogen auf den Ersten Weltkrieg):

1. These: Die Wehrpflicht für zur Kriegsbegeisterung

Die Begeisterungswellen befeuerten einen Krieg der Völker. Bis zum 19. Jahrhundert führte man Kriege mit Berufsheeren, was sich erst mit der Einführung der allgemeinen Wehrpflicht änderte. Frankreich, Deutschland, Russland und das ganze Habsburger Reich verankerten diese in ihren Gesetzgebungen. Das führte auch zu einer Veränderung des Kriegsführungsprinzips. Nun kämpften nicht mehr einzelne Heere, sondern ganze Völker gegeneinander. Es gab keine Trennung mehr zwischen Volk und Armee, mit der Folge, dass auch die normale Bevölkerung in den Krieg hineingezogen wurde.

Man kann dies als eine Form der Radikalisierung betrachten. Die Regierung konnte die nationalistischen Leidenschaften, die durch den Kriegsausbruch hervorgerufen wurden, von jetzt an nicht mehr kontrollieren. Das wiederum machte einen Friedenskompromiss unmöglich.

2. These: Krieg hat eine soziale Verwurzelung

Eine Armee aus wehrpflichtigen Soldaten ist nur dann motiviert, wenn die Bevölkerung hinter ihr steht und in Kriegshandlungen eine Notwendigkeit sieht. Damit das eintritt, muss das Volk von einem gerechten Krieg ausgehen, der der Verteidigung des Landes dient und gewonnen werden kann. Genau das war im Deutschen Reich vor Ausbruch des Ersten Weltkrieges der Fall. Man hatte das Gefühl, im Recht zu sein und speiste daraus den Kriegsenthusiasmus.

Die stärksten Ideologien im Kaiserreich waren Militarismus und Nationalismus. Ohne diese Ideologien ist Kriegsbegeisterung nicht denkbar. Im Deutschen Reich etablierte sich ein regelrechtes Kriegsvereinswesen, aus dem sich dann eine ganze Volksbewegung entwickelte. In den Kriegsvereinen pflegte man gezielt die Erinnerung an Einigungskriege und verbreitet sie propagandistisch in Vereinszeitschriften. So konnten sich auch in der Bevölkerung nationalistische Gedanken festsetzen. Die Kriegsvereine waren mächtig, hatten ca. drei Millionen Mitglieder. Die patriotischen Gedanken von Kaiser Wilhelm II. stießen hier auf sehr fruchtbaren Boden. Mitglieder dieser Vereine waren meist einfache Arbeiter und Kleinbürger, die leicht manipuliert werden konnten. Historiker sprechen von einem Gesinnungsmilitarismus der einfachen Leute.

Kann man im Weltall den Helm abnehmen? Warum tragen Astronauten Helme? Erklärung


Warum tragen Astronautinnen und Astronauten Helme? Und was würde passieren, wenn sie den Helm im Weltall abnehmen?

Astronautinnen und Astronauten tragen im Weltall Helme, da sie sonst nicht überleben könnten. Das liegt daran, dass es im Weltall keinen Luftdruck und keinen Sauerstoff gibt. Beide sind für das Überleben des menschlichen Körpers unabdingbar.

Wenn ein Astronaut oder eine Astronautin im Weltall – also außerhalb einer Raumstation oder -kapsel – den Helm abnehmen würde, würde er oder sie innerhalb weniger Sekunden das Bewusstsein verlieren und kurz darauf sterben. Das liegt daran, dass im Weltraum ein Vakuum herrscht und daher dort keinen Luftdruck gibt.

Warum ist Luftdruck für unseren Körper so wichtig?

Ähnlich wie bei Tiefseefischen der Wasserdruck lebensnotwendig ist, benötigen Menschen Luftdruck, um zu überleben. Der Organismus eines Tiefseefisches ist darauf ausgerichtet, unter hohem Wasserdruck zu funktionieren – wenn man ihn an die Oberfläche holt, stirbt er und verwandelt sich in einen nicht wieder zu erkennenden Haufen. Das liegt daran, dass sich seine Zellen aufgrund des fehlenden Drucks ausdehnen und platzen.

Das Gleiche passiert bei Menschen, wenn plötzlich der Luftdruck fehlt – was der Fall ist, wenn ein Astronaut oder eine Astronautin außerhalb einer Weltraumstation den Helm abnehmen würde. Denn der Luftdruck sorgt nämlich dafür, dass ausreichende Mengen an Sauerstoff in der Luft vorhanden sind, um unseren Körper und unser Gehirn gut zu versorgen. Deshalb benötigen Bergsteigerinnen und Bergsteiger in großen Höhen auch oft Sauerstoffflaschen: Denn durch den geringeren Luftdruck in diesen großen Höhen ist auch weniger Sauerstoff in der Luft verfügbar, was zu einer schlechteren Versorgung von Gehirn und Muskulatur führt und im schlimmsten Fall eine Bewusstlosigkeit verursacht.

Gleichzeitig sorgt der Luftdruck dafür, dass das Gas in unserem Körper, unseren Lungen und unseren Blutgefäßen genau die Größe hat, die wir zum Überleben benötigen.

Wenn nun – wie bei Astronautinnen oder Astronauten, die plötzlich ihren Helm abnehmen – der Luftdruck rasant abfallen würde, würde das dazu führen, dass sich alle im Körper vorhandenen Gase auf einen Schlag ausdehnen. Dies geschieht natürlich auch mit allen Gasen in der Lunge und in den Lungenbläschen, wodurch sowohl die Lungenbläschen als auch die Lungen selbst platzen würden. Das ist nicht nur extrem schmerzhaft, sondern auch akut lebensbedrohlich, da der Körper nun keinen Sauerstoff mehr aufnehmen kann.

Gleichzeitig dehnt sich auch der im Blut vorhandene Sauerstoff aus, wodurch die Blutgefäße platzen und es zu schweren inneren Blutungen kommt. Auch das ist ohne sofortige medizinische Hilfe tödlich.

Gibt es einen Weg, ohne Helm und Anzug im Weltall zu überleben?

Außerhalb einer Raumstation, Raumkapsel oder Rakete nicht.
Selbst wenn es irgendwie gelingen könnte, das Vakuum im Weltall und die dadurch ausgelösten Folgen durch fehlenden Luftdruck für den Körper zu überleben, würde man entweder aufgrund des Sauerstoffmangels im Weltall ersticken oder durch die extremen Temperaturen im Weltall sterben.

Denn je nach der Entfernung zur Sonne herrschen im Weltall extrem hohe oder extrem niedrige Temperaturen, die einen Astronauten oder eine Astronautin ohne die nötige Schutzausrüstung entweder erfrieren oder verglühen lassen würden. Gerade die extrem hohen Temperaturen sind sogar für Astronautinnen und Astronauten mit Anzug ein Problem und der Grund dafür, weshalb bisher noch kein Mensch auf der Venus oder in der Nähe der Sonne war.

Nicht zuletzt wäre man ohne Anzug und Helm der oft radioaktiven Strahlung im Weltall schutzlos ausgeliefert, was ebenfalls früher oder später zum Tod führen würde.

Ein weiterer Grund, warum ein Überleben ohne Schutzausrüstung im Weltall nicht möglich wäre, ist, dass Flüssigkeiten rasant verdampfen oder verdunsten würden. Dadurch würden die menschlichen Schleimhäute austrocknen, was zunächst die Augen, die Nase und den Mund zerstören würde. Durch die dadurch freiliegenden Schleimhäute im Rachen würden auch Luft- und Speiseröhre austrocknen und damit zerstört werden. Ein Atmen wäre nun also selbst dann nicht mehr möglich, wenn man dem Astronauten oder der Astronautin den Helm wieder aufsetzen würde.

Was ist Dogfooding? Bedeutung, Definition, Erklärung


Im Bereich der Softwareentwicklung ist der Begriff „Dogfooding“ besonders bekannt. Dies bedeutet nichts anderes, als dass ein Unternehmen seine eigenen Produkte zunächst komplett selbst testet, bevor die Produkte in den Verkauf gehen. Die Mitarbeiter werden also angehalten, ihre eigenen Produkte zu nutzen und zu testen. Kurzum kann also gesagt werden, dass das Unternehmen „sein eigenes Hundefutter frisst“.

In Deutschland ist der Spruch „Eat your own dog food“ bisher nicht besonders bekannt und würde übersetzt so viel heißen wie „Friss dein eigenes Hundefutter“. Das mag sich für manch einen hemmungslos anhören, jedoch ist es im englischsprachigen Raum ein sehr geläufiges Sprichwort. Wenn ein Unternehmen Dogfooding vollzieht, bedeutet dies schlichtweg, dass die Mitarbeiter des Unternehmens die eigens hergestellten Produkte auf Qualität testen, um so Verbesserungen herausarbeiten zu können. Zum Beispiel trinkt ein Coca Cola-Mitarbeiter keine Pepsi, genauso wie die Mitarbeiter von Microsoft zur Protokollierung ihrer Arbeitsstunden ausschließlich Excel verwenden.

Ursprung von Dogfooding

Bezüglich des Ursprungs des Begriffs Dogfooding existieren zwei Mythen. Eine Variante der Mythen ist jene, die sich aus einer Werbung aus den 1970er-Jahren herleiten lässt. Hier behauptet der Schauspieler Lorne Greene, dass das Hundefutter der Marke Alpo so gut sei, dass er selbst seinen eigenen Hunden anbieten würde. Der zweite Mythos geht dahin, dass ein Vorstandsvorsitzender mit dem Namen Karl Ken Pet Food während einer Aktionärsversammlung absichtlich Hundefutter gegessen haben soll.

Wozu dient Dogfooding? Sinn, Zweck, Nutzen

Dogfooding wird hauptsächlich als effektives Werkzeug für die Qualitätssicherung eingesetzt. Denn nur, wenn man mit dem selbst hergestellten Produkt nicht gänzlich zufrieden ist, hat es Potenzial zur Verbesserung. Schließlich fährt niemand gerne mit einem PKW umher, der alle 20 Kilometer stehen bleibt. Allerdings kann man es mit dem Dogfooding auch übertreiben. Selten haben Programmierer Ahnung von Buchhaltung, um ein Buchhaltungsprogramm auf Herz und Nieren zu prüfen. Genauso wenig möchte ein Maschinenbauer im Schichtbetrieb ganze drei Monate vor seiner Industriemaschine stehen, um sie zu testen.

Manchmal erfordert Dogfooding aber auch jede Menge Mut. So wurde beispielsweise ein Produkt für Kreissägen erfunden, welches schwere Unfälle verhindern soll. Hierzu wird am Sägeblatt gemessen, welche Kapazität das zu schneidende Material besitzt, damit verhindert wird, dass „Fleisch“ dazwischen gerät. Wird „Fleisch“ erkannt, kann die Maschine innerhalb 1/100 Sekunden anhalten. Der Erfinder dieses Produkts war dermaßen davon überzeugt, dass er sogar selbst seine Finger in die laufende Kreissäge hielt.

Wo ist Dogfooding noch zu finden?

Natürlich hat Meta-Chef Mark Zuckerberg seinen Mitarbeitern ebenfalls Dogfooding verordnet. Zuckerberg träumt von einer virtuellen Welt, in der Avatare nicht nur arbeiten, sondern auch ihre Freizeit verbringen.

Die wichtigste Anwendung zurzeit (2022/2023) nennt sich „Horizon Worlds“, ist jedoch unter den Mitarbeitern von Meta so unbeliebt, dass sich kaum jemand dort aufhält. Daraufhin hat der Vizepräsident des Konzerns verordnet, dass jeder, der dort arbeitet, sich in Horizon Worlds verlieben soll. Dies geht schließlich nicht, ohne es zu nutzen. Insbesondere passt dieses Vorgehen hervorragend in die staatlich beeinflussende EU. Nicht zuletzt, da die Europäische Kommission selbst eine virtuelle Party im Metaverse von Zuckerberg veranstaltet hatte.

Hierbei konnte jeder EU-Bürger zwischen 18 und 35 Jahren teilnehmen und beispielsweise mit ihren Avataren an unterschiedlichen Stränden tanzen. Ziel des Ganzen war es, das Interesse für die Tätigkeiten der EU sowie das Metaverse zu wecken. Leider war die Veranstaltung nicht wirklich erfolgreich. Nur insgesamt sechs Personen trafen sich im Metaverse. Einer von ihnen war Journalist, weshalb diese Veranstaltung auch in die Presse fand. Es dauerte aber nicht lange, da waren alle anderen 5 übrig gebliebenen Teilnehmer verschwunden und der Journalist blieb alleine zurück.

Wie nutzt Apple Dogfooding?

Meistens ist es keine gute Idee, Berufliches und Privates miteinander zu vermischen. Wer irgendwann sein Unternehmen verlässt, kommt womöglich nicht mehr an seine persönlichen Daten heran, da er sämtliche Accounts und Geräte abgeben muss. Deshalb fordern immer mehr Betriebe eine strikte Trennung, auch wenn Mitarbeiter ihre eigenen Geräte für berufliche Zwecke nutzen. Ausnahme bildet hier der Konzern Apple. Aufgrund des Dogfooding müssen die Mitarbeiter ihre privaten Accounts nutzen. So soll noch während der Entwicklungsphase festgestellt werden, welche neue Software noch Verbesserungsbedarf benötigt.

Zudem untersagt es Apple, dass sich Mitarbeiter neue IDs mit den Arbeitsaccounts generieren, um sich so beispielsweise bei der App-Store-Plattform anzumelden. Vielmehr hat Apple erwartet, dass sie ihre eigenen, persönlichen Accounts nutzen. Insbesondere auch deshalb, da iPads, Macs oder iPhones sowieso nur einen Haupt-Account für iCloud akzeptieren. Nur für Medienangebote können weitere Apple-IDs angelegt werden.

Zudem kam durch die Presse ans Licht, dass es beim Dogfooding, also beim frühen Testen von neuer Software, zu wesentlich mehr Datenerfassung kommt, als beim Endkunden. Hauptsächlich trifft dies auf die Gesichtserkennung zu, welche bei jedem Öffnen eines Gerätes, ein Foto vom Nutzer macht. Wäre dies bei den letztendlichen Kunden der Fall, würden diese vermutlich durchdrehen. Der Konzern hat sich bisher zu diesen Vorfällen nicht geäußert.

Was bedeutet Reinraum / Reinraumlabor in der Datenrettung? Erklärung


In vielen Branchen und auch im privaten Bereich spielt die Datenrettung eine wichtige Rolle. In einem Zeitalter, in dem immer mehr Prozesse digitalisiert sind, wächst sogleich die Ansammlung an wichtigen Daten. Müssen diese über die Datenrettung wieder gewonnen werden, fällt häufig der Begriff des Reinraums. Was genau sich dahinter verbirgt und wo die große Bedeutung für die Branche liegt, klärt dieser Artikel.

Was ist ein Reinraum? Erklärung

Was sich hinter dem Begriff verbirgt, lässt sich schon auf Basis seiner Komponenten sehr gut einschätzen. Das Wort „Reinraum“ bezeichnet einen Raum, in dem eine sehr geringe Konzentration an luftgetragenen Teilchen vorzufinden ist. Als luftgetragene Teilchen werden in dem Fall alle Stoffe und Partikel bezeichnet, die zwar nicht mit dem bloßen Auge sichtbar sind, aber in der Luft schweben.

Der klassische Reinraum hat durch diese besondere Eigenschaft eine große Bedeutung in verschiedenen Branchen. Dies gilt neben der Datenrettung zum Beispiel für den Bereich der Medizintechnik. Aber auch im Bereich der Lasertechnologie, der Luft- und Raumfahrt und bei der medizinischen Forschung sind Reinräume sehr gefragt.

Genauer wird zwischen unterschiedlichen Stufen der Reinheit unterschieden, die bei unterschiedlichen Arbeiten gefragt sind. Ein Reinraum der Klasse D zeichnet sich gemäß des GMP Leitfadens dadurch aus, dass darin im Ruhezustand 3.520.000 Partikel zu finden sind, die größer oder gleich 0,5 µm sind. Zusätzlich dürfen sich dort 29.000 Partikel größer oder gleich 5 µm befinden. Dass diese Grenzwerte noch deutlich strenger sein können, das zeigt der Blick auf die Klasse A. In einem solchen Reinraum, der besonders hohen Anforderungen gerecht werden soll, dürfen sich maximal 3.520 Partikel befinden, die größer oder gleich 0,5 µm sind. Zusätzlich sind maximal 20 Partikel größer oder gleich 5 µm zulässig.

Warum ist der Reinraum für die Datenrettung essentiell?

Ein temporärer Verlust von Daten kann bei der Wiederherstellung in einem Reinraum besonders effektiv behoben werden. Hierbei handelt es sich um Reinräume der gehobenen Kategorie, in denen höchstens 100 Partikel von einem Durchmesser kleiner als 0,5 µm pro Kubikmeter Luft vorhanden sein dürfen. Diese Umgebung ist bei den Arbeiten notwendig, um so weitere Verluste von Daten verhindern zu können. Wer selbst vom Problem des Datenverlusts betroffen ist, kann deshalb mit gutem Gewissen die Dienste von einem Datenrettungslabor in Anspruch nehmen.

Dies liegt daran, dass Datenverluste, die durch Schäden an der Hardware verursacht wurden, meist physikalische Gründe haben. Auf der sehr empfindlichen Magnetschicht des Datenträgers setzen sich winzige Staubpartikel ab. Bei der Rotation der Festplatte bahnen sie sich ihren Weg bis zum Lesekopf und können dort erhebliche Schäden nach sich ziehen. Ein Öffnen der Festplatte zur Reparatur und der Rettung der Daten ist deshalb nur möglich, wenn ein Schutz der Magnetplatte im Rahmen eines Reinraumes zu jeder Zeit gewährleistet werden kann. So stehen bei der Reparatur der Festplatten die gleichen geschützten Bedingungen zur Verfügung, wie sie auch bei der Herstellung notwendig sind.

Im Anschluss der Reparatur besteht die Möglichkeit, den Zustand der dort gespeicherten Dateien zu bewerten. Auf dieser Grundlage kann dann eine exakte Kopie der Rohdaten erstellt werden. Im nächsten Schritt werden nun die Daten aus dem Speichergerät extrahiert, damit sie wieder problemlos abgerufen werden können. Diese Dienste müssen nicht besonders teuer sein. Geht es beispielsweise um die Wiederherstellung von bereits gelöschten Daten, kann Datenrettung im Reinraumlabor bereits ab rund 100 Euro über die Bühne gehen. Da viele Privatpersonen und auch Firmen die Kosten jedoch deutlich höher einschätzen, unterbleibt der oftmals doch vielversprechende Versuch, noch einmal an die Daten zu kommen.

So funktioniert der Reinraum

Wie die Definition des Reinraums zeigt, müssen diese Räumlichkeiten besonders strengen Anforderungen gerecht werden. Deshalb sind die Räume so konstruiert, dass die Anzahl der luftgetragenen Teilchen so niedrig wie möglich ist. Auch Luftfeuchtigkeit, Luftdruck und Temperatur müssen stets konstant bleiben, um den Raum möglichst rein zu halten.

Ein besonderes Risiko für Verschmutzungen stellen natürlich Menschen dar, die in einem solchen Raum arbeiten. Deshalb müssen sie unter allen Umständen spezielle geeignete Arbeitskleidung tragen – die sogenannte Reinraumkleidung. Auch Kopfhauben und Überzieher für die Schuhe sind für die Arbeit in solchen Räumen zentral. Auch die Arbeitsmittel, die innerhalb des Raumes verwendet werden dürfen und sogar die Arbeitstechniken sind genau geregelt. In den besonders strengen Klassen kann der Zugang in den Raum nur über spezielle Schleusen erfolgen. In diesen Schleusen ist über Filter und starke Luftströme dafür gesorgt, dass möglichst viele Partikel erst aufgewirbelt und in einem zweiten Schritt abgesaugt werden. Erst unter diesen sehr strengen Voraussetzungen ist es möglich, die Anforderungen gemäß des GMP Leitfadens zu erfüllen.

Auch die Oberflächen, die sich im Reinraum befinden, müssen speziellen Anforderungen gerecht werden. Sie sind allesamt abriebfest, damit sich auch unter den Einwirkungen des Luftstroms dort keine weiteren Partikel lösen können. An diesen Punkten zeigt sich, dass das integrierte Luftsystem so etwas wie das Herzstück des Reinraums ist. Dieses muss dazu in der Lage sein, die Konzentration von Partikeln in der Luft derart stark zu reduzieren, dass die strengen Normen der unterschiedlichen Klassen erfüllt sind. Selbst das Verhalten der Menschen im Raum kann die Menge der Partikel stark beeinflussen. So sind zum Beispiel hektische Bewegungen unbedingt zu vermeiden, da durch sie deutlich mehr Partikel in die Luft abgegeben werden. Anders gestaltet sich die Situation bei sehr gleichmäßigen Bewegungen, die für eine deutlich geringere Belastung verantwortlich sind. Auch die Anzahl der Mitarbeiterinnen und Mitarbeiter im Reinraum ist so niedrig wie möglich zu halten. Je weniger Menschen neue Partikel in die Luft schleudern, desto geringer ist folglich die Belastung.

Ein einfaches Beispiel der Datenrettung zeigt, weshalb diese Arbeit nur in solchen speziellen Räumlichkeiten über die Bühne gehen kann. Soll beispielsweise eine Festplatte geöffnet und repariert werden, wird bei diesem Arbeitsschritt notwendigerweise das sensible Innere der Festplatte der Raumluft preisgegeben. In normalen Räumlichkeiten hätten die Ingenieure zwar ebenfalls die Möglichkeit, Hand an der Festplatte anzulegen und das vorliegende Problem zu reparieren. Der wesentliche Unterschied bestünde jedoch darin, dass sich in diesem Arbeitsschritt unmittelbar viele neue Partikel auf der Magnetscheibe der Festplatte absetzen würden. Trotz aller Anstrengungen würde der Schaden am Speichermedium deshalb noch größer werden und die verloren gegangenen Daten wären nicht mehr zu retten.

Was ist das “Shifting Baseline Syndrome”? Bedeutung, Definition, Erklärung


Beim „Shifting Baseline Syndrom“ handelt es sich um ein Phänomen der Umweltforschung, welches in der Wissenschaft sowie Gesellschaft eine zunehmende Rolle spielt. Ganz grundsätzlich beschreibt es die Tendenz, dass sich die Vorstellungen und Erwartungen einer Gemeinschaft in Bezug auf die Natur und Umwelt beständig wandeln. Was heute als normal und akzeptabel betrachtet wird, kann schon morgen in einem gänzlich anderen Kontext gesehen werden. Dabei kann es sich sowohl um Umweltschutz, Ressourcenverwendung sowie Nachhaltigkeit handeln. Mutmaßlich betrachtet das Shifting Baseline Syndrom dabei eine Veränderung der zugrundeliegenden Baseline, die eine Art Referenzpunkt darstellt, an dem Veränderungen gemessen werden können.

Veränderungen der Referenzpunkte geschehen graduell – sie passieren also nur schrittweise und bleiben daher oftmals unbemerkt. Dies führt zum einen dazu, dass der Mensch sich den Tragweiten seiner Handlungen oftmals nicht so sehr bewusst ist. Schädliche Auswirkungen in Bezug auf Natur und Umwelt machen sich zudem oft zeitversetzt bemerkbar. Die tatsächlichen Auswirkungen bekommen demnach erst zukünftige Generationen zu spüren.

Der nun folgende Artikel soll sich daher einmal detailliert mit dem Sachverhalt des Shifting Baseline Syndroms in Bezug auf die Themen Natur, Umwelt und Nachhaltigkeit beschäftigen. Dabei soll es sowohl um eine Sinn- und Wortdefinition, als auch um Auswirkungen, Ansätze zur Bekämpfung sowie um die gesellschaftliche Relevanz des Shifting Baseline Syndroms gehen.

Was ist das “Shifting Baseline Syndrome”? Bedeutung, Definition, Erklärung

Der Begriff „Shifting Baseline Syndrom“ setzt sich aus den englischen Worten „shifiting“ (deutsch: sich verändernd), „Baseline“ (deutsch: „Basislinie“ oder „Referenzpunkt“) sowie „syndrome“ (deutsch: „Syndrom“ oder „Krankheit“) zusammen. Es handelt sich also um ein Phänomen im negativen Kontext, welches eine sich verändernde Basislinie nach sich zieht. Als Basislinie oder Referenzpunkt können verschiedenste Dinge gemeint sein. Im Natur- und Umweltkontext handelt es sich dabei jedoch vornehmlich um die Punkte Umweltschutz, Nachhaltigkeit sowie Ressourcenschonung.

Das hinter dem Shifting Baseline Syndrom stehende Konzept beschäftigt sich daher mit der Veränderung der subjektiven Wahrnehmung von Natur und Umwelt. Ganz konkret beschreibt das Konzept, inwieweit sich unsere Vorstellungen sowie Erwartungen im Laufe der Zeit ändern. Als Gründe für Veränderungen können verschiedene Umweltprobleme angeführt werden. Dabei kann es sich zum Beispiel um den unwiederbringlichen Verlust von biologischer Vielfalt oder Ökosystemen handeln.

Die Folge des Shifting Baseline Syndroms kann abnehmende Qualität der Umwelt und damit der individuellen Lebensumstände bedeuten. Indem wir sich verschlechternde Zustände akzeptieren und irgendwann gar nicht mehr wahrnehmen, verlieren wir den Blick für das große Ganze. Damit beschreibt das Shifting Baseline Syndrom ganz klar eine Verschiebung der individuellen Referenzpunkte zur Beurteilung bestehender Zustände.

Auswirkungen des Shifting Baseline Syndroms auf die Natur und Umwelt

Das Shifting Baseline Syndrom hat große Auswirkungen auf die Natur und die Umwelt. Denn es bedingt, dass der Mensch diese anders wahrnimmt, beziehungsweise beeinflusst. Das Konzept hinter dem Shifting Baseline Syndrom deutet nämlich an, dass dieses das Verständnis von normal und akzeptabel ändert. Somit hat das Shifting Baseline Syndrom verschiedene Auswirkungen auf die Natur und die Umwelt. Dabei gibt es sowohl kurzfristige als auch langfristige Auswirkungen.

Ganz konkret handelt es sich dabei um den Rückgang oder den Verlust von Ökosystemen. Dieser kann mit einem Verlust von Arten, Gattungen sowie der zugrundeliegenden Vielfalt einhergehen. Weitere Auswirkungen können in Form von Wetter- oder Umweltereignissen wie zum Beispiel Klimaerwärmung, verstärktes Aufkommen von Umweltkatastrophen sowie eine sich verschlechternde Lebensgrundlage einhergehen.

Das Shifting Baseline Syndrom ist damit ein Konzept, welches sich mit negativen Aspekten der menschlichen Sicht- und Denkweise beschäftigt. Es gilt als maßgebliches Hindernis für den Schutz sowie die Erhaltung der Natur und Umwelt und wird von Wissenschaft und Gesellschaft aktuell heiß diskutiert.

Ansätze zur Bekämpfung des Shifting Baseline Syndroms

Um effektiv gegen die Auswirkungen des Shifting Baseline Syndroms vorgehen zu können, ist es extrem wichtig, die verschiedenen Wirkmechanismen zu verstehen. Aus diesen können dann Ansätze entwickelt werden, die eine Bekämpfung ermöglichen. Das Shifting Baseline Syndrom ist im Grunde genommen ein Wahrnehmungsfehler, der aufgrund von graduellen Ereignissen geschieht. Diese sorgen beim Empfänger von Informationen für weniger Relevanz, als beispielsweise akute, schwerwiegende Ereignisse.

Als Beispiel hierfür wird oftmals der Frosch im Kochtopf ins Feld geführt. Wird dieser direkt in heißes Wasser geschmissen, wird dieser die Gefahr erkennen und so schnell wie möglich aus dem heißen Wasser zu fliehen versuchen. Wird das Wasser jedoch – gemeinsam mit dem Frosch – graduell erwärmt, so bekommt dieser den schleichenden Temperaturanstieg (und damit die Gefahr für ihn) nicht mit und verstirbt schlussendlich daran.

Ansätze zur Bekämpfung des Shifting Baseline Syndroms basieren daher vor allem auf Bildung, Sensibilisierung sowie Wiederherstellung. Um ein tiefgehendes Verständnis über potenzielle Bekämpfungsansätze des Shifting Baseline Syndroms zu liefern, sollen die nun folgenden Unterabsätze die drei populärsten Möglichkeiten aufzeigen.

1. Ansatz: Bildung und Sensibilisierung

Bildung und Sensibilisierung kann unter anderem dafür eingesetzt werden, um den Menschen über den Wert und die Bedeutung der Natur und Umwelt aufzuklären. Auch können Bildung und Sensibilisierung dazu genutzt werden, um ein besseres Verständnis über Normalität und Akzeptabilität zu schaffen. Hierbei ist es ebenso bedeutsam, dass der Mensch über die Auswirkungen seines Handelns (auch in Bezug auf Auswirkungen auf ihn selbst) aufgeklärt wird.

Derartige Schulungs- und Sensibilisierungsmaßnahmen können unter anderem in Schulen und Gemeinden, Unternehmen sowie in Organisationen durchgeführt werden. Informationsveranstaltungen, Umweltbildungsprogramme, Exkursionen und Aktivitäten eignen sich hier insgesamt am besten, um die notwendigen Informationen bestmöglich zu übermitteln.

2. Ansatz: Erhaltung und Schutz verschiedenster Ökosysteme

Die Erhaltung und der Schutz verschiedenster Ökosysteme stellt ein weiterer Bekämpfungsmechanismus gegen die Auswirkungen des Shifting Baseline Syndroms dar. Dabei geht es vor allem darum, den Verlust der biologischen Vielfalt zu begrenzen, verlangsamen oder ganz zum Stillstand zu bringen. Konkrete Handlungsmaßnahmen können in der Ausweitung von bestehenden Schutzgebieten bestehen. Aber auch die Wiederherstellung von beschädigten Ökosystemen durch regenerative Maßnahmen oder Überflutungsregulierungen sowie der Rückwandlung von landwirtschaftlich oder industriell genutzten Flächen kann dabei im Vordergrund stehen.

3. Ansatz: Beteiligung und Engagement der Bevölkerung

Zu guter Letzt setzt die Bekämpfung des Shifting Baseline Syndroms auch auf die Beteiligung und das Engagement der gesamten Bevölkerung. Besonders wichtig sind dabei die Schärfung des Umweltbewusstseins sowie individueller Verhaltensweisen. Um dies zu erreichen, kann zum Beispiel auf Informationskampagnen gesetzt werden. Workshops zur praktischen Umweltbewahrung kommen hier ebenso infrage.

Ganz konkret sind hierfür Gemeinschaftsprojekte besonders wertvoll. Denn diese sorgen dafür, dass die Bevölkerung gemeinsam an der Umsetzung von Projekten zur Bekämpfung des Shifting Baseline Syndroms beteiligt ist. Dies kann sich zum Beispiel im Pflanzen von Bäumen, im Reinigen von Naturschutzgebieten sowie in weiteren Aktivitäten darstellen.

Nur wenn es gelingt, auch weitere Teile der Bevölkerung in Kampagnen zur Bekämpfung des Shifting Baseline Syndroms miteinzubeziehen, kann von einem wirklich nachhaltigen Effekt gesprochen werden.

Relevanz des Shifting Baseline Syndroms in der heutigen Gesellschaft

Das Shifting Baseline Syndrom wird in der heutigen Gesellschaft ein immer wichtigerer Faktor. Es drückt aus, dass jede Generation seine eigene Referenzlinie besitzt und Dinge, die mit der Umwelt geschehen, anders normal oder akzeptabel einschätzt.

Das Konzept hinter dem Shifting Baseline Syndrom besitzt heute vor allem Relevanz in puncto Klimawandel, wo dieses Phänomen die allmählich sichtbar werdenden Schäden, verursacht durch vergangene Generationen, thematisiert. Umweltbewahrung und das Stoppen des Klimawandels sind große Ziele der heutigen Gesellschaft, die sich natürlich grundsätzlich auch damit beschäftigt, inwieweit der Mensch es eigentlich so weit hat kommen lassen.

Gleichzeitig stellt das Shifting Baseline Syndrom eine Warnung für die Gesellschaft dar, die schleichende Prozesse und graduelle Veränderungen mittlerweile immer besser wahrnimmt. Nur durch die Erkennung des Shifting Baseline Syndroms können auch tatsächlich Abwehrmechanismen in Gang setzt werden, weshalb aktuell vor allem jüngeren Generation sowie die Wissenschaft um die Gefahren des Shifting Baseline Syndroms informiert sind und dieses als ernstzunehmendes Risiko für Natur und Umwelt einstufen.

Perspektive des Shifting Baseline Syndroms in verschiedenen Szenarien

Das Shifting Baseline Syndrom gilt als eine vergleichsweise neuartige Entdeckung, die neben dem Umweltkontext mittlerweile auch in den Sozialwissenschaften beobachtet wird. Hier führt eine Abstumpfung gegenüber arbeitstechnischen Veränderungen ebenso zu besorgniserregenden Verschiebungen von Referenzpunkten.

Perspektivisch wird das Shifting Baseline Syndrom wohl auch noch in weiteren Wissenschaftsbereichen neue Erkenntnisse liefern und stellt damit eine wichtige Entdeckung der neuen Zeit dar. Denn Shifting Baseline führt über kurz oder lang dazu, dass sich Überzeugungen, Verhaltensweisen sowie Akzeptanzkriterien quasi unbemerkt ändern – oftmals zum Schlechten! Nur wer ein kontinuierliches Verständnis einer Baseline verinnerlicht, kann negativen Prozessen gegensteuern und seien sie auch noch so klein und (vermeintlich) unbedeutend.

Fazit zum Thema Shifting Baseline Syndrom

Zusammenfassend lässt sich also sagen, dass das Shifting Baseline Syndrom eine negative Tendenz in der Denkweise den Menschen beschreibt. Es wird mittlerweile als einer der bedeutsamsten Gründe für sich zum Negativen entwickelnde Umwelt- und Sozialbedingungen gehandelt. Die Ursache für das Shifiting Baseline Syndrom kann in der schlecht funktionierenden Wahrnehmung gradueller Veränderungen des Menschen gefunden werden. Wenn sich Dinge nur sehr langsam und in kleinen Schritten ändern, so werden diese vom Menschen häufig nicht wahrgenommen oder es wird den Änderungen keine große Bedeutsamkeit beigemessen. Das kann sowohl im positiven sowie negativen Kontext geschehen. Das Shifting Baseline Syndrom beschreibt damit ein aktuelles Trendthema der Verhaltenspsychologie sowie der Wissenschaft.

Die Bezeichnung „Shifting Baseline Syndrom“ ist unter anderem mit der Begrifflichkeit der „Kultur der Normalität“ verwandt. Auch diese thematisiert eine sich verschiebende Referenzlinie. Ein ähnlich verwandter Begriff stellt aber auch der „Kreislauf der Veränderung“ dar. Diese deutet aber weniger graduelle Veränderungen, sondern vielmehr wiederkehrende Veränderungsprozesse an.

Was ist Nagware? Bedeutung, Definition, Erklärung


Der Begriff „Nagware“ stammt aus dem englischsprachigen Raum und bedeutet ins Deutsche übersetzt so viel wie „unerwünschte Software“. Meist versorgt Nagware seine unfreiwilligen Besitzer nämlich mit „gezwungener Werbung“ und wird daher oftmals als störend empfunden. Nagware an sich stellt damit ein Konzept aus dem Bereich Softwareentwicklung dar, bei dem die Software – oftmals ungewünscht – beim jeweiligen Konsumenten installiert wird und diesen dort dann mit verschiedensten Inhalten versorgt. Gleichzeitig kann es sich aber auch um eine Art Software handeln, die zunächst als kostenlose Version offeriert wird und nach Ablauf der kostenfreien Nutzungsdauer dann mit wiederholten Werbeangeboten auf sich aufmerksam macht.

Die Nagware macht dann in Form von Pop-ups, Hinweisen oder Buttons auf sich aufmerksam und zwingt den Nutzer dann, entsprechend zu reagieren. Das Konstrukt Nagware wird daher vielerorts als unethisch angesehen, obwohl es sich dabei grundsätzlich nicht um Schadsoftware handelt. Wer eine Nagware einmal bei sich installiert hat, kann diese auch ohne weiteres wieder löschen – der Besitz von Nagware verpflichtet zu keinerlei Handlungen. Viele Unternehmen nutzen Nagware daher zur Steigerung ihrer direkten oder indirekten Einnahmen. Der nun folgende Artikel soll daher einmal der Begriffsdefinition von Nagware dienen sowie verschiedene Arten von Nagware und deren Vermeidung aufzeigen.

Was ist Nagware? Bedeutung, Definition, Erklärung

Bei Nagware handelt es sich um eine Software, die Funktionalitäten wie zum Beispiel ständige Benachrichtigungen und Kaufanregungen inkludiert. Das Wort „Nagware“ ist dabei ein Kunstwort und besteht aus den beiden Begriffen „to nag“ (deutsch: „nörgeln“ oder „meckern“) und „ware“ (deutsch: „Ware“). Der Begriff Nagware bezeichnet damit eine Software, die durch ständiges, sinnbildliches Meckern oder Nörgeln auf sich aufmerksam macht.

In der Software-Welt gibt es häufig derartige Wortschöpfungen, bei denen dem Wort „ware“ eine grundsätzliche Eigenschaft der jeweiligen Art von Software angehangen wird – zum Beispiel ist dies auch bei „Ransomeware“ der Fall. In der Praxis landet Nagware oftmals unfreiwillig auf dem PC oder dem mobilen Endgerät des Konsumenten. Sie wird meist verschleiert mitinstalliert oder gar mit einer kostenlosen Version mitgeliefert. Nach Ablauf der kostenlosen Nutzungsdauer macht diese dann wiederholt auf sich aufmerksam, indem diese verschiedene Erinnerungsfunktionen beinhaltet. Das wird vom Empfänger sehr oft als störend empfunden, kann unter Umständen sogar einschüchtern und tatsächlich zum Kauf überreden.

Geschichte von Nagware

Die Geschichte der Nagware geht auf die frühen Tage der Softwareentwicklung, insbesondere auf das Aufkommen des Internets zurück. Geschäftsmodell, die auf Nagware basieren, gab es bereits in den 1980er- und 1990er-Jahren. In diesen frühen Zeiten des Internets wurden Software-Applikationen oftmals als sogenannte Shareware vertrieben – also durch kostenlosen Vertrieb und Verteilung durch die User selbst. Diese konnten die Shareware dann zunächst kostenlos und unverbindlich testen.

Um die potenziellen Nutzer jedoch zum Kauf der bezahlten Versionen zu überzeugen, bauten Softwareentwickler verschiedenste Programme ein, die diese schlussendlich doch noch überzeugen sollten. Dies gilt bis heute als der Ursprung von Nagware. Im Laufe der Jahre wurden die Mechanismen von Nagware noch weiterentwickelt, sodass sich Nagware heute vorrangig selbst verbreitet und oftmals auch nicht so leicht zu erkennen, beziehungsweise zu entfernen ist.

Arten von Nagware

Nagware an sich unterteilt sich noch in verschiedene Arten wie zum Beispiel Pop-up-Werbung, bei der Benutzer durch häufige Pop-up-Meldungen konfrontiert werden und aufgefordert werden, kostenpflichtige Softwareprodukte zu erwerben. Weiterhin existieren auch zeitbegrenzte oder nutzungseingeschränkte Softwareprodukte, die durch Nagware ergänzt werden und auch hier den potenziellen Nutzer dazu überreden sollen, kostenpflichtige Versionen zu erwerben. Zu guter Letzt stellt die sogenannte Spyware eine Art der Nagware dar, die Informationen über das Konsumentenverhalten des Nutzers sammelt. Die Installation sowie Spionage geschehen gleichfalls heimlich, sodass der unfreiwillige Nutzer der Spyware hiervon in der Regel nichts mitbekommt. Nagware und insbesondere Spyware sind jedoch unethisch und stellenweise sogar verboten. Viele Benutzer leisten den ständigen Aufforderungen sogar Folge, um lästige Pop-ups oder Hinweise schnellstmöglich loszuwerden.

Auswirkungen von Nagware

Die Auswirkungen auf die Benutzer von Nagware können sowohl positiver als auch negativer Natur sein. Am häufigsten kommt es beim Benutzer jedoch zu Unannehmlichkeiten, da dieser die ständigen Pop-ups sowie Hinweise als störend empfindet und wegklickt. Dies führt dann fast zwangsläufig zu einer Herabsetzung der Nutzerproduktivität, da diesem weniger Zeit für seine eigentlichen Tätigkeiten bleibt. Auch geschieht gewissermaßen eine Verletzung der Privatsphäre, was speziell bei Spyware der Fall ist.

Auf der anderen Seite kann sich Nagware vor allem für Softwareentwickler als positiv erweisen, da diese potenziellen Nutzer tatsächlich gehäuft zum Kauf animiert. Oftmals erwerben diese nämlich bezahlte Versionen, wo vorher kostenfreie Versionen genutzt wurden. Damit kann Nagware für Softwareentwickler eine lukrative, zusätzliche Einnahmequelle darstellen. Auf der anderen Seite kann Nagware jedoch das Image des jeweiligen Softwareherstellers beträchtlich schädigen.

Vermeidung von Nagware

Vor dem Befall mit Nagware kann sich in jedem Fall weitreichend geschützt werden. Unter anderem sollten vermeintlich kostenlose Softwareprodukte oder Demoversionen grundsätzlich vermieden werden. Außerdem sollten die jeweiligen Lizenzvereinbarungen gelesen werden, die Aufschluss über die Beschaffenheit des Zahlungsmodells (und das potenzielle Vorhandensein von Nagware) liefern.

Weiterhin kann auch spezielle Anti-Virus-Software hilfreich sein, die auf Nagware aufmerksam macht und die Installation dann verhindert. Ist Nagware einmal auf dem System vorhanden, so können zudem Ad-Blocker helfen, um ständige Pop-ups sowie Hinweise zu verhindern. In puncto Anti-Virus-Software sowie Ad-Blocker sollte der eigene Computer oder das eigene, mobile Endgerät jedoch beständig auf dem aktuellen Stand gehalten und entsprechend mit Updates versorgt werden. Zu guter Letzt sollten unsichere Webseite vermieden werden, um das Risiko für das Herunterladen von Nagware zu minimieren.

Fazit zum Thema Nagware

Zusammenfassend lässt sich also sagen, dass Nagware eine spezielle Art Software ist, deren Hauptfunktionalitäten aus der ständigen Mitteilung von Informationen oder Kaufanforderungen sowie Spionage empfindlicher Nutzerdaten bestehen. Sie wird in den meisten Fällen als störend und lästig empfunden, ist aber grundsätzlich nicht gesetzlich verboten. Es sei denn, es handelt sich dabei tatsächlich um Spyware.

Dem Begriff Nagware verwandte Begrifflichkeiten sind zum Beispiel Adware, Shareware sowie Trialware. Während Adware eine spezielle Werbesoftware darstellt, die ähnlich wie Nagware arbeitet, handelt es sich bei Shareware um kostenlose und frei verfügbare Software, die durch die Nutzer selbst verbreitet wird. Hingegen ist Trialware eine kostenlose Versuchsversion einer Software, die nach Ablauf der kostenlosen Nutzungsdauer dann kostenpflichtig wird – dabei kann es sich auch um Demoversionen handeln.

Wie, wo, wann und warum starb Stalin? Erklärung, Geschichte


Der Machthaber Stalin starb offiziell am 05. März 1953 in seiner Datscha in Kunzewo. Sein richtiger Name war Josef Wissarionowitsch Dschugaschwilli und er wurde in der georgischen Stadt Gori am 21. Dezember 1879 geboren. In der Laufzeit seines Lebens wurde er zu einer der politisch mächtigsten Personen auf der ganzen Welt.

Er galt als „stählerner Diktator“ und seine Herrschaft bestand überwiegend aus Terror und Gewalt. Bis zu seinem letzten Atemzug blieb es sehr spannend um ihn. Am 28.Feruar 1953 erlitt er nach einem nächtlichen Trinkgelage einen Schlaganfall. Ärzte rangen um sein Leben und gleichzeitig brach unter seinen Höflingen schon das Gerangel um seine Nachfolge aus.

Irgendwann zwischen dem 01. und 05. März 1953 ist der sowjetische Diktator Stalin nach seinem Hirnschlag gestorben. Dabei unternahmen die Mitglieder des Politbüros der KP stundenlang erst einmal nichts. Dafür hatten sie aber auch ihre Gründe.

Hintergründe zu Stalins Tod

Erst am 04. März 1953 informierte die Regierung über die staatliche Nachrichtenagentur die Welt darüber, dass der Kreml-Chef erkrankt sei. Sie sprachen von einem Unglück, welches die Partei und das Volk getroffen hat. Sie erwähnten eine schwere Erkrankung des Genossen Stalin. Nach dieser Aussage erlitt Stalin in der Nacht vom 01.03. auf den 02.03.1953 einen Schlaganfall in seiner Wohnung. Des Weiteren wird berichtet, dass er unter Herz- und Atmungsstörungen leidet. An dieser Aussage war sowohl die Zeit als auch der Ort fehlerhaft. Dann hieß es, dass zur Behandlung Stalins nur die besten Ärzte herangezogen wurden. Auch diese Aussage ist fehlerhaft, denn zu dieser Zeit saßen die besten Ärzte bereits in den Folterkammern der Geheimdienste. Einen Tag später, also am 05. März 1953, war Stalin tot.

In Wirklichkeit hat es sich jedoch folgendermaßen zugetragen: In der Nacht zum 01. März 1953 war nach dem Schlaganfall von Stalin kein Arzt in der näheren Umgebung. Der Geheimdienstchef wird erst zwölf Stunden nach dem Hirnschlag informiert. Dieser erwidert die Aussage damit, dass man doch keine Panik machen solle. Man würde doch sehen, dass Stalin schläft und man solle ihn nicht stören.

Erst nach weiteren 24 Stunden wird ein Arzt gerufen, der dann seine Hirnblutungen diagnostiziert. Da jedoch jeder Angst vor Fehlern hinsichtlich der Medikamentengabe hatte, wurde er nicht medikamentös behandelt. Nachdem sich dann am 05.03.1953 Stalins Zustand rapide verschlechtert hatte, starb er um 21:50 Uhr. Unter den sowjetischen Bürgern löste die Nachricht des Todes von Stalin Entsetzen und Verzweiflung aus. Auf der Beerdigung des Führers waren enorm viele Menschen anwesend. Aufgrund des riesigen Andrangs wurden dabei einige Menschen totgetrampelt und erdrückt.

Was ist Minting / Minten bei NFTs und Krypto? Bedeutung, Definition, Erklärung


Das Minting spielt in Bezug auf Kryptowährungen eine Rolle, indem eine Person selbst einen neuen Token generieren kann, ohne dass dafür eine Behörde oder Bank involviert sein muss. Hierbei handelt es sich entweder um Krypto-Coins oder um einen Non-Fungibility Token. Übrigens unterscheidet sich die Prägung der Münzen in zwei Arten, wobei das Endergebnis, also die Herstellung neuer Münzen, immer dasselbe ist. Einziger Unterschied liegt im Verfahren, wie diese hergestellt werden.

Die verschiedenen Prägungsarten: Krypto

Bei den beiden Prägungsarten benötigt die eine Münze das sogenannte Mining (Proof of Work-Verfahren) und eine andere Münze benötigt das sogenannte Staking (Proof of Stake-Verfahren). Beim Mining handelt es sich um die Erzeugung von Kryptowährung. Diese entsteht durch das Validieren und Speichern mit dem Handel in einer Blockchain. Üblicherweise erfolgt dies von öffentlichen Geräten aus, was bedeutet, dass jeder Rechner daran teilnehmen kann. Um die komplizierten, mathematischen Probleme zu lösen, werden leistungsstarke Prozessoren erforderlich. Als Dank für das Lösen kryptografischer Gleichungen wird der Miner dann für seine Arbeit in Form von Kryptowährung bezahlt. So kommen neuen Münzen in den Umlauf.

Das andere Verfahren, also das Staking, gilt als die bessere Art des Minting. Von Staking wird gesprochen, wenn ein Nutzer eine Transaktion gegen Kryptowährung prüfen möchte, dieser zunächst aber erst einmal einen hohen Betrag einsetzen muss. Diesen Betrag bezeichnet man dann als Stake. Die zuständigen Stakeholder (Gruppe von Menschen oder eine einzelne Person) werden per Zufallsprinzip ausgewählt. Diese geben dann die gewünschten Transaktionen auf einer Blockchain frei. Dabei gilt, wer mehr Coins einsetzt, umso höher ist die Wahrscheinlichkeit, ausgewählt zu werden. Dabei dürfen Stakeholder den gesetzten Wettbetrag nicht ausgeben. Werden sie beim Aufzeichnen ungenauer Daten oder bei Regelverstößen erwischt, müssen sie damit rechnen, ihren gesamten Einsatz zu verlieren.

Bei beiden Verfahren (Mining und Staking) werden neue Münzen geprägt. Der Begriff „Minting“ wird jedoch häufig in Verbindung mit Staking verwendet. Sowohl bei Mining als auch bei Minting werden neue Blöcke generiert und zu einer bereits vorhandenen Blockchain hinzugefügt. Begriffe wie Staking und Mining werden in Bezug auf das Minting von Kryptowährung angewandt. Dies ist aber nicht gleichzusetzen mit dem Minting eines NFT. Hierbei handelt es sich um einen anderen Vorgang.

Die NFTs finden Eingang im Ethereum Blockchain, wo sie von Urhebern genutzt werden, um Videos, Fotos oder digitale 3D-Objekte zu verkaufen. Um das Minting eines NFTs durchführen zu können, wird zunächst ein Wallet mit Ethereum benötigt. Mit dieser Wallet können sich die Benutzer dann auf einem sogenannten NFT-Marktplatz anmelden (beispielsweise OpenSea). Hier erstellen sie dann ihr NFT, auf dieses sie ihr gewünschtes Objekt hochladen. Für die Erstellung des NFT wird in ETH bezahlt. Ist eine Transaktion bestätigt, wird die nächste NFT gemint. Das Minting kann jedoch auch unterschiedliche Verfahren zur Herstellung verschiedener Token bezeichnen. Der Begriff Minting ist dabei der bekannteste Begriff für die Herstellung neuer Kryptowährungsmünzen mit der sogenannten Proof of Stake-Methode.

Was ist der Unterschied zwischen Minting und Mining?

Bei beiden Verfahren, also beim Mining und beim Minting, werden neue Blöcke an eine Blockchain hinzugefügt beziehungsweise neue Token generiert. Der Unterschied beim Minting besteht darin, dass hierbei bereits vorhandene Token eingesetzt werden. Beim Mining müssen schwere, komplexe und kryptografische Rechenaufgaben gelöst werden, die eine hohe Rechnerleistung benötigen. Bei beiden Verfahren existieren Benutzer, die ausgewählt werden, um eine solche Transaktion zu überprüfen. Hierfür erhalten sie dann eine Gegenleistung (Rewards).

Um was handelt es sich bei NFTs?

NFTs werden als sogenannte „Non-fungible Token“ bezeichnet. Dies bedeutet übersetzt, dass es sich um „nicht tauschbare Wertmarken“ handelt. Ein NFT ist also eine virtuelle Wertmarke, die ein bestimmtes digitales Objekt schützt. Dieses digitale Objekt wird vom NFT als einzigartiges Unikat gekennzeichnet und anschließend einer bestimmten Person zugeordnet.

Bedeutung von NFTs Minten

Grundsätzlich heißt Minten nichts anderes als Prägen. Beim Minten wird dementsprechend ein digitales Objekt in eine Krypto-Sammeldatei umgewandelt. Sobald dieses Objekt erst einmal auf der Blockchain abgespeichert ist, ist auch keine Löschung oder Umwandlung mehr möglich. Bei der umgewandelten Datei handelt es sich dann um einen digitalen Vermögenswert. Dieser wird direkt auf dem Marktplatz mittels Kryptowährung gekauft oder gehandelt.

Unterschieden wird in zwei Arten des NFT Minting:

  • Der NFT wird direkt auf einer Website eines Projekts erstellt.
  • Der NFT kann selbst erzeugt und hochgeladen werden.

Entscheidet man sich für die erste Variante, so können entweder ein NFT oder auch mehrere auf einer Website erstellt werden. Jedoch werden keine schon vorher bekannten NFTs gemintet. Vielmehr wird, wie bei allen erzeugten Kunstwerken, zufällig generiert. Sobald ein Projekt zum Erfolg wird, wird auch das NFT immer beliebter und somit über einen Marktplatz Gewinne erzielen.

Wie, wo, wann und warum starb Sissi? Erklärung, Geschichte


Elisabeth Amalie Eugenie von Wittelsbach (genannt „Sissi“) wurde am 24.12.1837 als eines von acht Kindern in München geboren. Die bayerische Prinzessin wurde erst durch die Heirat mit Franz Josef I. zur Kaiserin von Österreich und späteren Königin von Ungarn. Durch den Historienfilm „Sissi“ (1955) mit Romy Schneider in der Hauptrolle wurde die Figur weltberühmt. Das hier gezeichnete Bild ist allerdings verfälscht und kitschig verklärt.

Wie lebte Sissi?

Die junge Elisabeth liebte ihren Ehemann, der sich aufgrund politisch unruhiger Zeiten wenig um sie kümmern konnte. Von ihrer Schwiegermutter wurde Elisabeth nur widerwillig akzeptiert. Da sich Sissi nicht an die strenge Hofetikette in Wien gewöhnen konnte, mied sie den Hof so gut es ging. Ihr Leben war von zahlreichen Schicksalsschlägen geprägt. Der erste traf sie mit dem Tod ihrer zweijährigen Tochter Sophie. Eine ihrer Schwestern starb später bei einem Großbrand. Sissis Lebensmut schwand endgültig, nachdem sich ihr Sohn Kronprinz Rudolf das Leben genommen hatte. Von nun an wurde Elisabeths Leben noch rastloser, bestimmt von Einsamkeit und Schönheitswahn. Sie unternahm lange Reisen und verbrachte auf Korfu, Madeira und in Venedig viele Wochen. In ihren letzten Lebensjahren bestimmten Trostlosigkeit und Depressionen ihren Alltag. Sie reiste nun fast ohne Unterbrechung quer durch Europa.

Sissi: Umstände des Attentats

Im Jahr 1898 reiste Elisabeth mehrmals in die Schweiz. Dabei lehnte sie stets Personenschutz ab. Gerade in der Schweiz waren zur damaligen Zeit viele Anarchisten aktiv und ein Aufenthalt für eine hochgestellte Persönlichkeit immer gefährlich. Sissi verdrängte das Risiko. Da man ihr zudem eine allgemeine Todessehnsucht nachsagt, ist es durchaus möglich, dass sie das Risiko bewusst eingegangen war.

Am 9. September unternahm sie mit ihrer Hofdame Irma Gräfin Sztáray inkognito eine Schifffahrt. Ihr Ziel war das Hotel „Beau Rivage“ in Genf. Als beide am folgenden Tag das Schiff zur Rückfahrt besteigen wollten, näherte sich ihnen unweit des Hotels ein Mann. Es war der Anarchist Luigi Lucheni. Er stolperte auf die beiden Frauen zu und stieß Sissi mit einer dünn geschliffenen Feile in die Brust. Sissi fiel rückwärts zu Boden und bemerkte die Verletzung zunächst nicht. Sie ging davon aus, dass der Mann sie bestehlen wollte. Als Passanten zu Hilfe eilten, wiegelte sie ab und sagte: „Es ist nichts geschehen.“

Elisabeth und Gräfin Sztáray betraten das Schiff, wo sich ihr Zustand rapide verschlechterte. Sie rang nach Luft und wurde ohnmächtig. Noch einmal soll sie sich aufgerichtet und ihre Begleiterin gefragt haben: „Was ist denn mit mir geschehen?“ Als Sztáray Sissis Kleidung öffnete, um ihr das Atmen zu erleichtern, entdeckte sie einen Blutfleck auf Höhe des Herzens. Da Elisabeth nach dem Attentat noch eine Weile handlungsfähig war, wurde die Verletzung zu spät entdeckt.

Man brachte die Kaiserin zurück ans Ufer und in ihr Hotel. Irma Sztáray schickte ein Telegramm mit den Worten „Ihre Majestät die Kaiserin schwer verwundet“ nach Wien. Um 14:40 Uhr stellte ein Arzt Elisabeths Tod fest. Daraufhin wurde ein zweites Telegramm mit der Todesnachricht nach Wien geschickt.

Nach dem Attentat

Der Obduktionsbefund spricht von einem langen, spitzen Gegenstand, der sich 85 mm tief in die Brust gebohrt und eine Rippe verletzt hat, außerdem einen Lungenflügel, die linke Herzkammer und den Herzbeutel durchgeschnitten hat.

Am 13. September wurde der Leichnam Elisabeths in Genf eingesegnet und am 14. September in einem Sonderzug nach Wien gebracht. Unter den Augen einer riesigen Menschenmenge überführte man den Sarg in die Burgkapelle, wo am 16. September eine Messe stattfand. Abertausende Menschen nahmen von ihrer Kaiserin Abschied. Am 17. September überführte man den Sarg in die Kapuzinergruft, die Grabstätte der Habsburger. Hier liegt Elisabeth von Österreich neben Ehemann und Sohn, Kaiser Franz Joseph und Kronprinz Rudolf.

Was man über den Mörder von Sissi weiß

Ihr Mörder war der damals 25 jährige Luigi Lucheni, ein italienischer Hilfsarbeiter. Er hatte aus der Zeitung vom kaiserlichen Besuch in Genf erfahren. Nach seinem Angriff flüchtete Lucheni in die Rue des Alpes, wo Passanten ihn überwältigten. Die Polizei verhaftete ihn. Auf dem Revier gab er zu Protokoll, dass er eigentlich Prinz Heinrich von Orléans hatte töten wollen. Sollte das nicht gelingen, stand König Umberto von Italien auf seiner Todesliste. Da beide gar nicht in Genf anwesend waren, suchte sich Lucheni offensichtlich ein Ventil für seine Frustration und erstach Sissi aus reiner Mordlust.

Von seiner Verhaftung existiert ein Foto, auf dem Lucheni zufrieden grinst. Entgegen der Theorie vom Zufallsopfer ging die Polizei sofort von einem gezielten Mordkomplott aus, da sich Luigi zusammen mit einer Gruppe Anarchisten schon längere Zeit in der Schweiz aufgehalten hatte. Öffentlich bereute Lucheni seine Tat niemals. Im Gegenteil, er prahlte: „Ich würde die Tat noch einmal begehen“. 1910 erhängte er sich in seiner Zelle.

Was ist Wegovy (Semaglutid)? Bedeutung, Definition, Erklärung


Wegovy kommt unterstützend bei Diäten und körperlichen Aktivitäten zum Einsatz. Es besteht aus dem Wirkstoff Semaglutid und soll Menschen helfen, abzunehmen und ihr Gewicht zu halten. Üblicherweise wird das Mittel bei Erwachsenen eingesetzt, die

  • mindestens einen BMI von 27 kg/m², jedoch weniger als 30 kg/m² besitzen oder Gesundheitsprobleme aufgrund des Gewichts haben wie beispielsweise Bluthochdruck, Diabetes, Atemprobleme beim Schlafen (obstruktive Schlafapnoe), unnormale Blutfettwerte,
  • einen BMI von 30 kg/m² oder höher besitzen,
  • anderweitige Vorgeschichten bezüglich Schlaganfall, Herzinfarkt oder Blutgefäßproblemen.

Der BMI (Body-Mass-Index) ist eine Bezugsgröße hinsichtlich des Verhältnisses von Gewicht zur Körpergröße.

Wie ist die Wirkung von Wegovy?

Semaglutid als Wirkstoff in Wegovy gilt als ein „GLP-1-Rezeptoragonist“ und wirkt genauso wie GLP-1, ein natürlich vorkommendes Hormon im Körper. Unter anderem soll es den Appetit zügeln, indem sich bei der Person ein Sättigungsgefühl einstellt. Gleichzeitig sollen Hunger und das Verlangen nach Nahrungsaufnahme unterbunden werden.

Wofür wurde Wegovy früher verwendet?

Das Produkt gibt es in Deutschland schon seit dem Jahr 2018 auf dem Markt. Früher war es allerdings unter dem Namen „Ozempic“ als Mittel gegen Diabetes bekannt. Mittlerweile ist es als Abnahmepräparat auf dem Markt und besitzt zudem noch eine höhere Dosierung. Seit 2021 ist das Mittel in der EU unter einem neuen Namen (Wegovy) zugelassen.

Zur Erklärung des neuen Mittels gibt die EMA (Europäische Arzneimittelbehörde) ein Statement ab, wonach Wegovy hauptsächlich zur Unterstützung der körperlichen Aktivität sowie einer Diät angewandt wird. Hierbei soll es den Anwender unterstützen, Gewicht zu verlieren und ihr neues Gewicht zu halten.

Das Mittel ist aktuell nur gegen Rezept erhältlich.

Gibt es Nebenwirkungen? Wegovy

Die EMA berichtete über Nebenwirkungen wie Erbrechen, Verstopfung, Durchfall, Übelkeit und Bauchschmerzen. Das sind laut EMA „sehr häufige Nebenwirkungen“ von dem Präparat „Wegovy“. Laut Behörde können diese Nebenwirkungen bei mehr als einem von zehn Behandelnden vorkommen. Jedoch seien laut der Zulassungsbehörde die Nebenwirkungen regulierbar. Zudem gelangte die Behörde zu dem Schluss, dass der Nutzen dieses Präparates den Risiken überwiegt und es schlussendlich deshalb auch in der EU zugelassen wurde.

Wie wird Wegovy angewendet?

Das Mittel wurde hauptsächlich zur Unterstützung einer kalorienreduzierten Ernährung und vermehrter körperlicher Aktivität zugelassen. Es soll helfen, das Gewicht zu kontrollieren und Gewicht zu verlieren. Insbesondere gilt dies für Erwachsene, die über einem BMI von 30 kg/m² (Fettleibigkeit) liegen. Aber auch bei Erwachsenen mit einem BMI von mehr als 27 kg/m² soll das Präparat zum Einsatz kommen. Voraussetzung hierfür ist allerdings, dass mindestens eine Gewichts-assoziierte Komorbidität vorliegt. Vor allem zählen dazu Diabetes Typ 2, oder Prädiabetes sowie erhöhte Blutfettwerte, Bluthochdruck, kardiovaskuläre Erkrankungen und obstruktive Schlafapnoe.

Das Mittel ist als Lösung zum Spritzen in folgenden Stärken zugelassen:

  • 0,25 mg
  • 0,5 mg
  • 1 mg
  • 1,7 mg
  • 2,4 mg

Das neu zugelassene Semaglutid ist als Lösung wesentlich höher dosiert, als das vorhergehende Diabetesmittel. Zu Behandlungsbeginn mit Wegovy wird die Dosis aufgeteilt. Zudem kommen gastrointestinale Nebenwirkungen sehr häufig vor.

Ob der neue Wirkmechanismus von Semaglutid tatsächlich beim Abnehmen hilft, ist noch nicht ganz klar. Durch den GLP-1-Rezeptoragonisten wird der Appetit gezügelt und vermittelt ein Sättigungsgefühl. Somit sollen Anwender weniger Essen und dadurch Gewicht verlieren. Gegenüber Placebo war bei den klinischen Studien zufolge der Gewichtsverlust sehr deutlich zu erkennen. Im Durchschnitt verloren die Probanden in 68 Wochen circa 15 bis 17 Kilogramm. Hierzu hatten sie sich jede Woche eine Dosis von insgesamt 2,4 mg Semaglutid injiziert. Insgesamt lag somit hinsichtlich des Gewichts ein Minus von 16 % im Vergleich zum Ausgangsgewicht vor.

Antibaby-Pille: Vorteile und Nachteile erklärt


Die Anti-Baby-Pille, umgangssprachlich „Pille“ genannt, ist eine hormonelle Verhütungsmethode, die erstmals 1960 in den USA auf den Markt kam. Ein Jahr später war sie auch in Deutschland erhältlich. Bei korrekter Anwendung verhindert die Pille mit sehr hoher Wahrscheinlichkeit eine Schwangerschaft. Die Pille schenkte Frauen eine nie dagewesene Freiheit und Selbstbestimmtheit über ihren Körper. Dadurch prägte sie die Gesellschaft von Industrieländern maßgeblich. Heute verhüten weltweit ca. 200 Millionen Frauen mit der Anti-Baby-Pille. In Deutschland ist die Pille mit 34 % ähnlich beliebt wie das Kondom mit 38 %.

Vorteile der Anti-Baby-Pille

(Nachteile der Antibaby-Pille folgen weiter unten)

– Die Verhütung mit der Pille ist komfortabel und leicht. Sie gilt außerdem als sehr sicher, deutlich sicherer als beispielsweise natürliche Empfängnisverhütungs-Methoden.

– Die Einnahme der Anti-Baby-Pille erlaubt eine optimale Zykluskontrolle. Die Frau weiß genau, wann sie ihre Periode bekommt und kann diese bei Bedarf einige Tage verschieben. (Davon machen Leistungssportlerinnen gerne Gebrauch).

– Die Pille hat keinerlei Einfluss auf die Fruchtbarkeit. Nach Absetzen werden die meisten Frauen nach einem Zyklus schwanger, egal wie lange sie die Präparate vorher eingenommen haben.

– Durch die Einnahme reduzieren sich Dauer und Stärke der Menstruation, was in der Regel mit weniger Schmerzen verbunden ist. Die Einnahme der Pille kann die Symptome einer Endometriose deutlich lindern.

– Einige Präparate können Akne reduzieren, so dass diese bevorzugt jungen Frauen mit Hautproblemen verschrieben werden. Die positiven Effekte auf die Haut resultieren aus der Tatsache, dass die Einnahme der Pille die Konzentration männlicher Geschlechtshormone im Blut reduziert. Allerdings ist die Wirkung gegen Akne keine zugelassene medizinische Indikation der Pille.

– Ferner ist nachgewiesen, dass Kombinationspräparate das Risiko senken, an Eierstockkrebs und Gebärmutterkörper-Krebs erkranken. Das ist bis 30 Jahre nach Absetzen der Pille der Fall. In Bezug auf andere Krebserkrankung gibt es zwar positive Studiendaten, die sind aber noch nicht gesichert.

– Die Minipille enthält eine Wirkstoffmischung mit extrem wenig Östrogen. Sie eignet sich für Frauen, die eine Hormonbehandlung mit Östrogen nicht vertragen.

Die Antibaby-Pille und ihre Nebenwirkungen: Nachteile

Heute bietet der Markt mehr als 50 verschiedene hormonelle Verhütungsmittel. Sie sind zwar praktisch, aber nicht nebenwirkungsfrei. Insbesondere die Langzeitfolgen haben dazu geführt, dass die Pille an Beliebtheit etwas eingebüßt hat. Manchmal können sich die Symptome bei längerer Einnahme jedoch abschwächen. Ob Mikropille, Minipille oder „normale“ Anti-Baby-Pille, alle Präparate beeinflussen den Hormonhaushalt der Frau.

Da jede Frau anders auf Hormone reagiert, können die Nebenwirkungen sehr unterschiedlich sein. Wird die Pille abgesetzt, kann es mehrere Monate dauern, bis sich der normale Zyklus wieder einstellt. Genauso ist es möglich, dass die Frau nach sehr kurzer Zeit schwanger wird. Gerade Minipillen haben den Nachteil, unregelmäßige Zyklen und Zwischenblutungen hervorzurufen. Diese Präparate können auch während der Stillzeit eingenommen werden, da sie weder die Milchbildung noch die Milchqualität beeinflussen. Stillende Frauen, die trotzdem Bedenken haben, dass ihr Baby mit der Muttermilch Hormone aufnimmt, müssen eine andere Verhütungsmethode wählen.

Die häufigsten Nebenwirkungen sind:

  • Kopfschmerzen
  • Übelkeit und Erbrechen
  • Zwischenblutungen
  • Wassereinlagerungen
  • Stimmungsschwankungen
  • depressive Verstimmungen
  • Gewichtszunahme
  • Nachlassen der Libido
  • Blutgerinnsel, Thrombosen und Embolien

Krebsrisiko durch die Pille – ja oder nein?

Die Einnahme muss immer nach individueller Risiko-Nutzen-Abwägung erfolgen. Bei langer Einnahmedauer (25 bis 35 Jahre) gehen Mediziner von einem marginal erhöhten Risiko (0,1 %) für Gebärmutterhalskrebs und Brustkrebs aus. Frauen, die die Pille einnehmen, haben jedoch ein geringeres Risiko für Eierstockkrebs.

Die Pille erhöht das Risiko für Thrombosen

Eine der wichtigsten und zugleich schwerwiegendsten Komplikationen sind Thrombosen. Frauen mit weiteren Risikofaktoren sind besonders gefährdet. Diese Risikofaktoren sind Rauchen, Übergewicht, Diabetes mellitus, Bluthochdruck und familiäre Vorbelastung. Ein erhöhtes Thromboserisiko kann durch eine Blutuntersuchung festgestellt werden.

Schlechtere Körperwahrnehmung

Es ist unbestritten, dass die Pille stark in den Hormonhaushalt eingreift. Viele Frauen wünschen sich mehr Natürlichkeit und möchten Ihren Körper besser wahrnehmen. Sie haben das Gefühl, die Wahrnehmung wird durch die Pille gedämpft.

Schwächere Libido

Die Pille kann die Libido abschwächen, was selten erwünscht ist und zu Konflikten in der Partnerschaft führen kann.

Feste Einnahmezeiten

Die Minipille muss jeden Tag konsequent zur gleichen Uhrzeit eingenommen werden. Sie eignet sich daher nur für Frauen, die gut strukturiert sind. Sie toleriert nur geringe Abweichungen beim Zeitpunkt der Einnahme.

Störfaktoren für die Wirksamkeit der Pille

Der Empfängnisschutz der Minipille ist nicht mehr gewährleistet, wenn sich die Einnahme um mehr als 12 Stunden verschoben hat oder sie mehr als einmal vergessen wurde. Auch Durchfall und Erbrechen haben Einfluss auf ihre empfängnisverhütende Wirkung. Antibiotika, aber auch pflanzliche Medikamente wie beispielsweise Nahrungsergänzungsmittel mit Johanniskraut, beeinträchtigen die Sicherheit der Anti-Baby-Pille. Wer verreist, muss Zeitverschiebungen berücksichtigen. Bei Zeitverschiebungen bis maximal 12 h (in der Regel alle Reiseziele innerhalb Deutschlands) können Frauen die Pille am Urlaubsort wie gewohnt einnehmen. Bei Flügen in westlicher Richtung vergrößert sich der Einnahmeabstand. Information im Beipackzettel und Gynäkolog:innen geben darüber genaue Auskunft.

Kurze Entwicklungsgeschichte der Antibaby-Pille

Die Idee, Hormone zur Empfängnisverhütung einzusetzen, verfolgten Ärzte schon ab 1919. Margaret Sanger und Katharine McCormick, beides Frauenrechtlerinnen und im medizinischen Bereich tätig, gaben den entscheidenden Anstoß hierzu.

Die Krankenschwester Margaret Sanger sah in ihrem Arbeitsumfeld täglich Frauen, die an den Folgen ungewollter Schwangerschaften litten und nach dilettantisch durchgeführten Schwangerschaftsabbrüchen starben. Beide Frauen waren engagierte Frauenrechtlerinnen und strebten eine großflächige Aufklärung über Verhütung an. 1921 gründeten sie die „Amerikanische Liga für Geburtenkontrolle“.

1951 lernte Sander den Endokrinologen Gregory Pincus kennen und fragte ihn, wie viel Geld er für die Entwicklung eines hormonellen Verhütungsmittels bräuchte. Er veranschlagte weitaus weniger, als letztendlich benötigt wurde, erhielt es aber von der vermögenden Katharine McCormick, einer Freundin Sanders. Sie unterstützte das Vorhaben mit insgesamt 2 Millionen US-Dollar.

Zusammen mit anderen Wissenschaftlern gelang es Pincus, die Hormone Progesteron und Östrogen künstlich herzustellen. Ihre Erfolge sind nicht ohne die Arbeit des Deutschen Chemikers Adolf Butenandt denkbar. Ihm gelang es nach jahrelangen Versuchen, Hormone zu isolieren. Damit schaffte er die chemische Grundlage zur Herstellung der Anti-Baby-Pille. 1939 erhielt Butenandt für seine Forschungen zu Sexualhormonen den Nobelpreis für Chemie.

Als die Pille 1961 auch in Deutschland verfügbar war, gab es seitens der Kirchen erheblichen Widerstand. Man befürchtete einen Verfall der Moral. Zunächst war die Pille auch nicht zur Empfängnisverhütung, sondern als Medikament gegen Menstruationsbeschwerden gedacht. Ärzte verschrieben sie nur verheirateten Frauen mit Kindern. Die empfängnisverhütende Wirkung erwähnte der Hersteller Schering lediglich als Nebenwirkung im Beipackzettel, doch sie kam einer Revolution gleich.

Eine neue Zeit bricht an: die sexuelle Revolution

Erst die Pille machte die sexuelle Revolution der 1960er Jahre möglich, doch das innovative Verhütungsmittel setzte sich nicht von Anfang an durch. Das lag nicht nur daran, dass die katholische Kirche dagegen protestierte, auch die Frauen selbst (50 %) waren der Pille gegenüber skeptisch eingestellt. Das zeigen Umfragen des Allesbach-Institutes von 1963. Sie plädierten sogar dafür, die Pille in Deutschland zu verbieten. Mehr als 60 % der Befragten schlossen sich der Auffassung der Kirchen an, dass die Pille einen negativen Einfluss auf die Moral habe. Obwohl Papst Paul VI. in seiner Enzyklika die Pille sogar mit einem Bann belegte, konnte er letztendlich nicht viel ausrichten. Zu groß war die Freude der Frauen, endlich von der Angst vor einer ungewollten Schwangerschaft befreit zu sein. Von nun an waren Fruchtbarkeit und Sexualität getrennte Lebensbereiche.

Wie funktioniert die Anti-Baby-Pille? Funktionsweise

Die in der Pille enthaltenen Hormone Östrogen und Gestagen unterdrücken die Reifung des weiblichen Eis im Eierstock und verhindern damit den Eisprung. Die Hormone beeinflussen auch die Schleimhaut des Gebärmutterhalses, denn während des gesamten Zyklus bleibt der Muttermund mit einem Schleimpfropfen verschlossen. Dadurch wird das Eindringen von Spermien in die Gebärmutter verhindert. Die Hormone schwächen außerdem den Aufbau der Gebärmutterschleimhaut deutlich ab. Würde wider Erwarten ein Eisprung stattfinden, könnte sich eine befruchtete Eizelle hier nicht einnisten.

Wie wird die Antibaby-Pille eingenommen?

Die einzelnen Einnahme-Anleitungen variieren von Präparat zu Präparat. Frauen nehmen die Tabletten durchgehend ein, sie basieren auf einem Zyklus von 28 Tagen. Die erste Tablette wird bei allen Präparaten am ersten Tag der Regelblutung eingenommen. Nach 21 Tagen folgt eine siebentägige Einnahmepause. In dieser Zeit sinken die Hormonspiegel und eine schwache Regelblutung setzt ein. An Tag acht wird wieder mit einer neuen Packung begonnen. Es gibt auch Präparat die eine durchgehende Tabletteneinnahme vorsehen. Dann enthalten die Tabletten, die in der Zeit der Periode genommen werden, keine Wirkstoffe.

Warum und wann wurden Kettensägen erfunden? Erklärung, Bedeutung, Definition


Die Kettensäge wurde im 18. Jahrhundert von zwei schottischen Ärzten – John Aitken und James Jeffray – erfunden, um gebärenden Frauen die Beckenknochen durchzusägen, um dem Kind auf die Welt zu helfen. Das war nötig, wenn ein Kind beispielsweise zu groß für den Geburtskanal war oder nicht richtig für eine Geburt positioniert war. Mit der Säge wurde damals der Beckenknochen (die Symphyse) durchgesägt oder entfernt – eine sogenannte Symphysiotomie – um mehr Platz für das Kind im Geburtskanal zu schaffen.

Wie sah die erste Kettensäge aus?

Die Kettensäge von John Aitken und James Jeffray erinnerte nur grob an das, was wir heute als Kettensäge kennen. Die ursprünglich als Knochensäge entwickelte Kettensäge bestand aus zwei Handgriffen, zwischen denen eine Kette hindurchgeführt wurde. Diese Kette bestand aus beweglichen, gezahnten Gliedern. Durch ein Hin- und Herziehen dieser Kette mit den Handgriffen konnten Knochen zersägt werden.

Welche Folgen hatte der Einsatz einer solchen Kettensäge bei Geburten?

Da die medizinischen Entwicklungen im 18. Jahrhundert noch nicht annähernd so gut waren wie heute, war der Einsatz einer Kettensäge und das Zersägen von Beckenknochen tatsächlich eine valide Notfallmaßnahme unter der Geburt. Aufgrund des mangelnden Wissens zu Hygiene und Sterilität war ein Kaiserschnitt zu dieser Zeit noch viel riskanter als die Symphysiotomie und endete fast immer mit dem Tod der Mutter durch Verbluten oder Infektionen. Ein Kaiserschnitt hatte zur damaligen Zeit eine Sterblichkeitsrate für die Mutter von fast 100 %.

Doch auch der Einsatz der Kettensäge bedeutete für die Mutter monatelange Schmerzen und barg ein hohes Infektionsrisiko. Auch für das Kind war der Eingriff höchst riskant, da es verletzt werden konnte.

Die Alternative war jedoch, nichts zu tun, was bei einer stagnierten Geburt für Mutter und Kind mit an Sicherheit grenzender Wahrscheinlichkeit zum Tod führt.

Wie entstand die heutige Kettensäge mit rotierender Kette?

Die erste Kettensäge von Aitkins und Jeffray war eine Kette, die man über zwei Handgriffe hin- und herbewegen konnte. Bis auf die gezahnten Kettenglieder gab es also kaum Ähnlichkeit zur heutigen Kettensäge mit rotierendem Sägeblatt und Motor. Doch auch diese moderne Version der Kettensäge ist eine Erfindung der Medizin.

1830 präsentierte der Instrumentenbauer und Orthopäde Bernhard Heine seine neuste Erfindung: das Osteotom. Der Begriff stammt aus dem Altgriechischen. „Osteo“ bedeutet Knochen und „Tomia“ bedeutet Schnitt.

Bernhard Heine hatte damals eine Knochensäge zum Öffnen von Schädeln entwickelt, von der er sich eine deutlich exaktere Schnittführung versprach als damals möglich. Zu der Zeit wurden Schädelöffnungen mit Hammer und Meißel oder einem Bohrer durchgeführt. Mit diesem Osteotom hatte Bernhard Heine das grundlegende Prinzip entwickelt, das auch heute noch modernen Kettensägen mit Motor zugrunde liegt.

Seit wann gibt es die heutige Kettensäge?

Obwohl das Prinzip für die rotierende Kettensäge schon 1830 geboren war, dauerte es bis in die Mitte des 19. Jahrhunderts, bis die erste elektrische Kettensäge auf den Markt kam. Zuvor hatte es Versuche mit dampfbetriebenen oder mechanischen Kettensägen mit rotierendem Sägeblatt gegeben, die sich allerdings aufgrund von Unhandlichkeit oder Fehleranfälligkeit nicht durchgesetzt hatten. Ein Jahr nach der elektrischen Kettensäge kam auch die benzinbetriebene Motorsäge auf den Markt. Diese Sägen mussten zunächst von zwei Personen bedient werden, da sie sehr schwer waren.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen


Die Substanz, mit der Raucher immer wieder dazu verleitet werden zu rauchen, nennt sich Nikotin. Diese ist im Tabak enthalten. Menschen rauchen, obwohl sie wissen, dass es ungesund ist. Doch was steckt hinter dem Verlangen immer wieder eine rauchen zu müssen? Tatsächlich gehört die Sucht des Rauchens zu der am schwersten zu besiegenden Gewohnheit.

Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Für Menschen gibt es viele verschiedene Gründe, mit dem Rauchen anzufangen. Abgesehen davon ist es umso schwerer, mit dem Rauchen wieder aufzuhören. Nikotin wirkt sehr stark als Suchtmittel und übernimmt schnell die Kontrolle im Leben eines Menschen. Obwohl viele Raucher mit dem Rauchen aufhören möchten, haben oftmals nur weniger als 10 % Erfolg damit.

Mittlerweile gibt es verdichtende Hinweise dafür, dass im Gehirn das sogenannte endogene Opioidsystem mit der Sucht nach Nikotin zusammenhängt. Verschiedene Studien haben gezeigt, dass der Konsum von Nikotin sogar Endorphine im Gehirn freisetzt. Diese Endorphine wiederum setzen im endogenen Opioidsystem positive Gefühle frei und bewirken so bei den meisten Rauchern eine angenehme Wirkung.

Man kann sich vorstellen, dass das endogene Opioidsystem wie ein Informationsnetz funktioniert. Sämtliche Informationen werden dann über verschiedene Botenstoffe – wie beispielsweise Endorphine – weitergegeben. An speziellen Rezeptoren bleiben diese Botenstoffe dann haften. Konsumiert man eine große Menge an Drogen, vergrößert sich auch die Menge an Botenstoffen und kann so das ganze Informationsnetz im Gehirn durcheinander bringen.

Gründe für das Rauchen

Viele Raucher haben Angst, mit dem Rauchen aufzuhören, weil sie eventuell an Gewicht zunehmen könnten. Ganz unbegründet ist dies nicht, denn Nikotin hemmt nachweislich den Appetit. Menschen, die aufgehört haben zu rauchen, essen dann vermehrt statt zu rauchen. Hinzu kommt, dass Nikotin den Stoffwechsel ankurbelt und folglich ein Raucher auch mehr Kalorien verbraucht. Dennoch ist dies der völlig falsche Grund, mit dem Rauchen anzufangen, denn die wenigsten Menschen haben wegen Gewichtsproblemen angefangen zu rauchen.

Wer mit dem Rauchen aufhören möchte, sollte intensiver darauf achten, nicht den Ersatz im Essen zu suchen, denn dann bestehen gute Chancen, auch ein schlanker Nichtraucher zu bleiben. Eine zusätzliche, ausreichende Bewegung kann diesen Prozess unterstützen.

Andere Raucher berichten, dass sie durch eine Zigarette entspannter werden. Insbesondere, wenn man gestresst und nervös ist, greifen die Menschen am häufigsten zur Zigarette. Sie erhoffen sich dadurch einen beruhigenden Effekt. Es dauert nicht lange, bis der eingeatmete Rauch im Gehirn ankommt und das Verlangen befriedigt. Allerdings ist es umgekehrt: Nicht das Nikotin beruhigt den Raucher, sondern das Ausbleiben des Nikotins löst Anspannung aus. Im Prinzip ist dies nichts anderes, als eine Art Entzugserscheinung, die entsteht, wenn das Zuführen von Nikotin eine längere Zeit ausbleibt. Da bei vielen Rauchern der Eindruck erweckt wird, das Rauchen könnte entspannend wirken, wird oftmals zur Zigarette gegriffen, was einen wahren Teufelskreis bildet.

Werden Raucher befragt, weshalb sie eigentlich Zigaretten konsumieren, ist der häufigste genannte Grund die Geselligkeit. Als Raucher findet man schnell Anschluss – so der Gedankengang. Dennoch hat das eine mit dem anderen überhaupt nichts zu tun. Es gibt immerhin genauso viele Nichtraucher, die die Gesellschaft von anderen Menschen genießen und sich mit ihnen gerne unterhalten. Wer einfach einmal vor die Tür möchte, um frische Luft zu schnappen oder mit anderen Menschen zusammenzustehen, muss sich dafür nicht gleich eine Zigarette anzünden. Wer die Meinung vertritt, dass das Rauchen die Menschen verbindet, der kann genauso gut sagen, dass das Nichtrauchen verbindet. Der Vorteil bei Nichtrauchern ist zudem, dass eine gesellige Runde sich nicht nur auf einen abgegrenzten Raucherbereich konzentrieren muss.

Siehe auch: Synonyme für Zigaretten und Rauchen

Weshalb fällt es schwer, mit dem Rauchen aufzuhören? Erklärung

Grundsätzlich sind dafür zwei Komponenten verantwortlich: die Gewohnheit sowie das Nikotin. Auf natürliche Art und Weise kommt es in der Tabakpflanze vor und gilt als stark süchtig machende Substanz. Wird Nikotin konsumiert, setzt es im Gehirn das Belohnungshormon Dopamin frei.

Des Weiteren fällt es Rauchern schwer, mit dem Rauchen aufzuhören, da sie gewisse Rituale, also Gewohnheiten, mit der Zigarette verbinden. Das kann entweder die Zigarette nach einem guten Essen oder auch die Zigarette zum Kaffee sein. Eigentlich immer dann, wenn der Mensch sich entspannen möchte. Diese Gewohnheiten zu durchbrechen, erfordert einiges an Disziplin und ist nicht immer ganz einfach. Genauso herausfordernd ist da natürlich auch die körperliche Abhängigkeit.

Fazit: Warum rauchen Menschen? Erklärung, Gründe, Ursachen

Die Beliebtheit des Rauchens hat global gesehen in den letzten Jahren abgenommen. Nicht zuletzt haben die Gesundheitsbedenken einen großen Anteil dazu beigetragen. Trotzdem gibt es immer noch viele Menschen, die regelmäßig rauchen. Es lohnt sich – einfach gesagt – gar nicht erst mit dem Rauchen anzufangen. Wer schon zu den starken Rauchern gehört, für den kann unter Umständen eine Raucherentwöhnung in Betracht kommen.

Wer sich als Raucher entschieden hat, mit dem Qualmen aufzuhören, probiert meistens erst einmal einen kalten Entzug, welcher jedoch auch einige Gefahren mit sich bringen kann. Als Raucher sollte man sich bewusst machen, dass man nicht allein ist und es auch nicht unmöglich ist, mit dem Rauchen aufzuhören. In der heutigen Zeit gibt es viele Methoden, um endlich rauchfrei zu werden. Hierzu gehören Praktiken wie beispielsweise Hypnose, eine Spritze ins Ohr oder auch eine Nikotinersatztherapie.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition


Factfulness ist eine Wortneuschöpfung, die eine faktenbasierte Weltsicht beschreibt. Anders formuliert: Factfulness bedeutet, dass man seine Meinung auf starken und eindeutigen Fakten aufbaut.

Bekanntheit erreichte der Begriff durch das gleichnamige Buch von Hans Rosling aus dem Jahr 2018. Rosling spricht darin von einer verzerrten Darstellung der Welt durch Medien, Meinungsführer und Politiker. Er stellt fest, dass Medienberichte häufig nicht mit den tatsächlichen Fakten übereinstimmen und appelliert an uns, nicht alle Informationen der Medien ungeprüft zu übernehmen.

Was bedeutet „Factfulness“? Erklärung, Bedeutung, Definition

Die Welt in zwei Hälften zu teilen ist einfach, aber auch für die seelische Gesundheit des Menschen enorm wichtig. Osten und Westen, reiche Länder und Entwicklungsländer, Islam und Christentum – Schubladen machen die komplizierte Welt etwas einfacher. (Siehe: Was ist schwarz-weiß-Denken?)

Für Rosling geschieht dies nicht in schlechter Absicht oder aufgrund schlechter Recherche. Es ein typisch menschliches Phänomen, Fakten zu verleugnen. Das menschliche Gehirn tendiert dazu, die Welt in zwei Pole zu zerlegen, in gebildet und ungebildet, männlich und weiblich, Arme und Reiche usw. Werden durchschnittliche Unterschiede gefunden, bauschen Medien diese gerne zu einer ganz großen Sache auf. Betrachtet man die Fakten genauer, stellt sich heraus, dass es sehr große Überschneidungen zwischen beiden Gruppen gibt, die Unterschiede zwischen den Mittelwerten für die meisten Menschen also bedeutungslos sind.

Doch das menschliche Gehirn fixiert sich bevorzugt auf die Unterschiede. Wir haben die Tendenz, Schreckensszenarien in den Vordergrund zu stellen. Für uns ist die Information, dass 8 % der Jugendlichen in Deutschland keinen Schulabschluss haben, viel spannender, als die Tatsache, dass 92 % einen besitzen. Genauso wird eine Arbeitslosenquote von 6 % deutlich spannender wahrgenommen als eine Quote von 94 % Beschäftigten – obwohl die Beschäftigtenzahl eigentlich überzeugen muss. Denn eine Gesellschaft wird nicht durch die Arbeitslosenzahl charakterisiert, sondern durch die überwiegende Zahl Beschäftigter, die zum Bruttosozialprodukt beitragen.

Ähnlich verhält es sich mit Zahlen über Bildung und sozialer Herkunft. Seit langem lassen Politik und Medien verlauten, dass die soziale Herkunft über den Bildungserfolg entscheidet. Statistiken zufolge sind es aber nur zwischen 10 und 20 % der Unterschiede beim Bildungserfolg, die sich auf die soziale Herkunft zurückführen lassen. Auch die Intelligenz ist ein wesentlicher Faktor, scheint aber weniger interessant zu sein, weil sie keine Skandale erzeugen kann.

Factfulness: Skandalisierung von Bagatellen in den Medien

Der Mensch ist von Skandalen fasziniert und neigt zu schnellen Urteilen, ohne die Fakten zu berücksichtigen. Die Medien machen sich das zu Nutze, was sich auch bei Nachrichtensendungen zeigt. Zugunsten des Skandals lassen deren Redakteure häufig wesentliche Fakten unerwähnt. Wird beispielsweise über Terroranschläge berichtet, zeigt man die Opfer. Verschwiegen wird die Tatsache, dass die Zahl der Terroropfer in Deutschland seit Jahren zurückgeht. Oft hält man an Überzeugungen und Bildern fest, die vor Jahrzehnten galten, aber mittlerweile überholt sind.

Rosling behauptet in seinem Buch, dass man von den freien Medien keine faktenbasierte Weltsicht erwarten kann. Sie seien auch nicht die richtigen Quellen, um etwas über umwälzende kulturelle Veränderungen zu erfahren.

Um weiterhin alte Stereotype zu bedienen, nutzten westliche Medien häufig veraltete Quellen. Damit trügen sie nicht wirklich zu einem realistischen Bild anderer Länder bei. Hierfür nennt er zahlreiche Beispiele, unter anderem den Iran: In diesem Land geht die Zahl der Kinder pro Frau, seit es Statistiken darüber gibt, weltweit am schnellsten zurück. (Heute sind es statistisch 1,6 Kindern, 1984 waren es noch über 6 Kinder).

Obwohl der Iran häufig Thema in den freien Medien war, wurde über diesen Umstand nie berichtet. Stattdessen stellte man einen spekulativen Zusammenhang zwischen Kinderzahl und Religion her. Entscheidend für die veränderte Geburtenzahl im Iran sind aber Einkommen und Kindersterblichkeit. Fakten wurden verschwiegen und die Meldung so formuliert, dass man zwangsläufig falsche Schlüsse daraus zieht.

Factfulness: Faktenbasierter Journalismus darf keine Ängste schüren

Roslings Buch kann man als Appell verstehen, die Menschen hin zu mehr Factfulness zu bewegen. Er möchte uns dazu ermutigen, auch bei Meldungen, die zunächst sehr dramatisch erscheinen, nicht sofort in Panik zu verfallen.

Stattdessen sollen wir als Medienkonsumenten Fakten und Daten sammeln und uns genau über den Sachverhalt informieren. Denn die meisten Probleme, die in den Medien dargestellt werden, können nicht auf die Schnelle gelöst werden. Wie die Corona-Pandemie gezeigt hat, ist es selbst bei einer Epidemie besser, zunächst Daten zu sammeln und dann Entscheidungen zu treffen, die auf Fakten beruhen. Besonders wichtig ist das bei den aktuellen und künftigen Herausforderungen des Klimawandels.

Die alten Ängste sorgen nur dafür, dass wir im Nichtstun verhaftet bleiben.
Rosling rät zur Politik der kleinen Schritte. Die Geschichte zeigt, dass viele der so genannten Dritte-Welt-Länder schon aus der schlimmsten Armut herausgekommen und eine Stufe höher geklettert sind. Es sind die Menschen und nicht die Politiker, die für bessere Bildung, bessere Gesundheit und sauberes Trinkwasser kämpfen. Noch vor 150 Jahren war auch Deutschland ein armes Land voller Hungersnöte und Seuchen. Es gilt also, die Bevölkerung in den südlichen Teilen der Welt nicht als anonyme Arme zu sehen, sondern als Menschen, deren Leben dem unseren sehr ähnlich ist. Wir alle streben nach einem gesünderen und glücklicheren Leben.

Rosling möchte uns mit seinem Buch zeigen, dass die Welt reicher und bunter ist, als es uns die Medien weismachen möchten. Er appelliert an unseren Verstand und betont immer wieder, dass es sich lohnt, nicht jede reißerische Information ungeprüft zu übernehmen, sondern sie stets zu hinterfragen.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte


Der französische Kaiser und Feldherr Napoleon Bonaparte starb am 5. Mai 1821 auf der Insel St. Helena im Südatlantik. Die Schlacht bei Waterloo 1815 war Napoleons letzte große Schlacht. Da die Engländer siegreich aus ihr hervorgingen, schickten sie Napoleon auf die Insel St. Helena in die Verbannung. Hier verbrachte er seine letzten sechs Lebensjahre. Der Leichnam Napoleons wurde im Invalidendom in Paris beigesetzt.

Wie, wo, wann, woran starb Napoleon? Erklärung, Geschichte

Dass Napoleon an den Folgen eines Magenkarzinoms starb, wurde von seinem letzten Leibarzt Francesco Antommarchi diagnostiziert. Er obduzierte den französischen Kaiser und stellte eine Reihe von Krebsgeschwüren an der Magenwand fest.

Bei der Autopsie waren acht Ärzte anwesend, doch von Anfang an gab es Ungereimtheiten. Antommarchi sah zwar die Karzinome und ein verfettetes Herz, befand aber, dass die Todesursache das Klima auf St. Helena sei. Daraufhin kam es zu einem heftigen Streit unter den anwesenden Ärzten. (Quelle: das Standardwerk „Sankt Helena. Der Tod des Kaisers“ von Octave Aubry).

Der Historiker hat sich hierfür eingehend mit Augenzeugenberichten der Autopsie beschäftigt. Einen Zusammenhang zwischen dem Klima auf St. Helena und den Tod Napoleons herzustellen, hatte der Inselgouverneur bei Strafe verboten. Er befürchtete, dass die Engländer verantwortlich gemacht werden könnten.

Obwohl Antommarchi den englischen Autopsie-Bericht nicht unterschrieben hatte, gegen die meisten Forscher schon damals vor der Todesursache Krebs aus. Die war auch aufgrund der familiären Häufigkeit sehr wahrscheinlich. Zwei Schwestern Napoleons und sein Vater waren ebenfalls am Magenkrebs verstorben. Trotzdem gab es in der Vergangenheit immer wieder Zweifel am Krebstod Napoleons.

Die Gegner argumentieren, dass Magenkarzinome in der Regel mit starker Auszehrung einhergehen. Davon war bei Napoleon jedoch kaum etwas zu bemerken. In seinen letzten Lebensjahren hatte er stark zugenommen, so dass man ihn als fettleibig bezeichnen kann. Zeitzeugen sprachen von einer zeitgleichen Verweiblichung. Das lässt den Schluss auf eine endokrine Störung (Hormon- und Stoffwechselerkrankungen) zu. Erst 2021 (siehe unten) konnte die Magenkrebs-Diagnose untermauert und bewiesen werden, dass Napoleon innerhalb weniger Monate mehr als 10 kg Gewicht verloren hat.

Napoleons Tod

Menschen lieben dramatische Geschichten, deshalb hielt sich auch die Giftmordtheorie hartnäckig. Sollte ihm das Gift (vermutlich Arsen) schleichend verabreicht worden sein, dann passt diese Theorie zu seinem Übergewicht.

Außerdem soll Napoleon in seinen letzten Lebensjahren über Lichtempfindlichkeit und Schwerhörigkeit geklagt haben. Vergiftungen gehen häufig mit einer Schwächung der Sinnesorgane einher. Erst vor wenigen Jahren wurden Haare Napoleons noch einmal untersucht und das Ergebnis stützt die Arsen-Theorie. Man fand nicht nur auf der Haaroberfläche Spuren des Giftes, sondern auch im Inneren des Haares.

Sollte das zutreffen, kann Napoleon nur von seinen Wachleuten vergiftet worden sein. Gegen die Theorie spricht die Tatsache, dass Krankheiten vor 200 Jahren häufig mit giftigen Substanzen behandelt wurden. Man war sich der toxischen Wirkung dieser Stoffe nicht bewusst. Ein Beispiel hierfür ist Kalomel, das hochgiftiges Quecksilber enthält.

Von Napoleon ist bekannt, dass er dieses Mittel regelmäßig gegen die unterschiedlichsten Beschwerden einnahm. Eine Überdosis kann tödliche Folgen haben. Der Schweizer Arzt Théodor Turquet de Mayerne nahm Kalomel im 17. Jahrhundert in das allgemeingültige Arzneibuch auf. Fortan gehörte Kalomel in jeden Arztkoffer.

Napoleon: Starb er wegen seiner Tapete?

Einen ähnlichen Ansatz verfolgt die Tapetentheorie. Auch hier war die angenommene Todesursache eine schleichende Vergiftung. Vor 200 Jahren waren Gifte im Alltag allgegenwärtig. Auch die grünen Tapeten (Schweinfurter Grün) in Napoleons Exil enthielte Arsen.

Aufgrund der hohen Luftfeuchtigkeit befanden sich höchstwahrscheinlich viele Schimmelpilz-Sporen in der Raumluft, die mit dem Arsen chemisch reagierten. Demnach muss Napoleon ständig Gifte eingeatmet haben. Gegen die Theorie spricht, dass es aufgrund der Beliebtheit von Schweinfurter Grün deutlich mehr Todesfälle hätte geben müssen. Bekannt ist allerdings, dass damals viele Menschen über Übelkeit, Schwindel und Kopfschmerzen klagten, man aber kein Zusammenhang zu Umweltgiften herstellen konnte, da man ihre toxische Wirkung gar nicht kannte.

Napoleon-Spezialist Lugli untermauert Krebs als Todesursache

Erst 2021 konnte der Pathologe Alessandro Lugli, der mehr als 1.000 Bücher über Napoleon besitzt und sich intensiv mit dem Thema beschäftigt hat, Magenkrebs als Todesursache bestätigen. Seither ist seine Expertise international gefragt.

Obwohl Napoleons Leibarzt Antommarchi einen offiziellen Obduktionsbericht vorgelegt hatte, hielt sich die Vergiftungstheorie noch bis 2008. Die meisten Wissenschaftler gingen zwar von Anfang an von einer Krebserkrankung als Todesursache aus, doch es fehlte der richtige Beweis.

Lugli zweifelte die Vergiftungstheorie vor allem deshalb an, weil Napoleon extrem vorsichtig und darauf bedacht war, Vergiftungsszenarien aus dem Weg zu gehen. Wäre er vergiftet worden, dann nicht schleichend, sondern akut. Zum anderen war es damals üblich, Haare in Arsen zu konservieren, um sie als Andenken aufzubewahren (beispielsweise in einem Amulett). Es war also mehr als wahrscheinlich, dass man auch in Napoleons Haaren Arsen nachweisen konnte.

Anhand von BMI-Messungen (Body- Mass-Index) und Vergleichen mit Hosen Napoleons konnte Lugli beweisen, dass Napoleon in den letzten sechs Monaten seines Lebens 10-14 kg an Gewicht verloren haben muss. Er hatte kein Übergewicht mehr. Das wiederum bestätigt den Obduktionsbefund des Leibarztes: Napoleon muss am Magenkrebs verstorben sein.

Was ist ein Pheromon-Parfum? Wie ist die Wirkung? Erklärung


Menschen fühlen sich von den unterschiedlichsten Düften angezogen und reagieren sehr individuell darauf. Eine Ausnahme hiervon bilden die so genannten Pheromone, die als Lockstoffe fungieren. Tiere und Menschen sondern die Duftstoffe ab, um potentielle Geschlechtspartner anzulocken.

Das Lebewesen, das Lockstoffe produziert, sendet eindeutige Reize aus, die von einem anderen als solche wahrgenommen werden. Die Duftsignale werden von speziellen Riechzellen im Inneren der Nase erkannt und zum Gehirn weitergeleitet. Sie liefern Informationen über Kompatibilität und sexuelle Verfügbarkeit des potentiellen Geschlechtspartners, sodass der Fortbestand der Spezies sichergestellt werden kann.

Was sind Pheromone? Erklärung, Bedeutung, Definition

Der Informationsaustausch mithilfe dieser Botenstoffe, die eigentlich Hormone sind, geschieht unbewusst. Pheromone sind zum Beispiel in Schweiß, Urin, Speichel und Sekreten der Geschlechtsorgane enthalten und senden ihre Signale bei engem Körperkontakt. Sie werden von einem Lebewesen gebildet und rufen in einem anderen Lebewesen eine bestimmte Reaktion hervor. Wie das geschieht, ist noch nicht genau erforscht.

Ferner ist auch nicht bekannt, ob es körpereigene Pheromone gibt. Eigentlich sind diese chemischen Substanzen geruchlos, doch wenn sie an das Jacobson-Organ in der Nase andocken, werden die ausgelösten Reize zum Hypothalamus geleitet, dem ältesten Teil unseres Gehirns. Der steuert unter anderem Appetit, Aggressionen, geschlechtliches Verlangen und die Hormonbildung. Der Volksmund ist sich jedenfalls sicher, dass bestimmte Gerüche unwiderstehlich machen. So nutzt auch die Parfümindustrie Pheromone, um ihre Duftkreationen besser verkaufen zu können.

Pheromone – schon in der Antike bekannt und beliebt

Dass Frauen die Aufmerksamkeit von Männern mithilfe erotischer Düfte auf sich ziehen möchten, ist vermutlich so alt wie die Menschheit selbst. Die tierischen Duftstoffe Moschus, Zibet und Ambra sind schon sehr lange für ihre aphrodisierende Wirkung bekannt und werden nach wie vor in großen Mengen eingesetzt.

Als die Florentinerin Katharina von Medici 1533 Heinrich II. heiratete, brachte sie nicht nur die Kunst des Parfümierens mit an den Hof, sie führte auch mit Zibet, Moschus und Ambra imprägnierte Lederhandschuhe ein. Bis heute ist Moschus einer der beliebtesten Ausgangsstoffe für die Herstellung herber, animalisch riechender Parfüms. Die alten Ägypter wussten auch von der aphrodisierenden Wirkung von Schweiß und sammelten diesen gezielt von jungen, kräftigen Männern ein. Sie verwendeten ihn zur Herstellung von Parfüms und mischten ihn mit anderen Duftstoffen.

Im antiken Rom waren es die Gladiatoren, auf deren Schweiß gutsituierte Römerinnen nicht verzichten wollten. Was die Ägypter vor tausenden Jahren praktizierten, haben europäische Wissenschaftler in der Neuzeit ebenfalls erprobt. Peter Karlson und Martin Lüscher extrahierten aus Körperflüssigkeiten und Achselschweiß ein Duftgemisch zum Aufsprühen. Sie erfanden den Begriff Pheromone.

Pheromone in Parfüms; Wirkung

Bei der Herstellung von Parfüms spielen Pheromone bis heute eine wichtige Rolle. Parfüms mit Pheromonen werden auch als Moleküldüfte bezeichnet. Copulin, Estratetraenol und Androstadienon sind die meistverwendeten Pheromone in der Parfümherstellung. Estratetraenol und Copulin sollen Frauen attraktiver für Männer machen, Androstadienon sorgen dafür, dass Männer für Frauen attraktiver werden.

Parfümhersteller halten die Rezepturen ihrer Pheromon-Parfüms genauso streng geheim wie die Rezepturen ihrer besten Marken. Sie riechen bei jedem Menschen anders, da sie den individuellen Eigengeruch der Person unterstreichen. Deshalb verwendet man Parfüms mit Pheromonen als Layer-Parfüms. Sie werden mit dem Parfüm kombiniert, das man üblicherweise trägt. Zusammen mit weiteren Duftstoffen entfaltet sich die verführerische Wirkung der Pheromone am besten.

KI generierte Texte erkennen: 5 Tools, die dir helfen


ChatGPT hat eine Goldgräber und „Wild West“-Stimmung hervorgebracht, was das Erzeugen von Texten angeht. Auf einmal – so scheint es – kann es jeder. Man muss nur die richtige Aufforderung bei ChatGPT eingeben und bekommt einen Text. So spart man sich stundenlange Recherche und Arbeit. Aber, dass ist zu kurz gedacht, denn man kann KI-Texte von menschlichen Texten unterscheiden und damit den Betrug erkennen. Dabei helfen diese Tools:

Tools zum Erkennen von KI generierten Texten / Content

Anwendungshinweis: Diese Tools funktionieren nur mit englischsprachigen Texten. Wenn du einen deutschen Text überprüfen willst, so musst du diesen erst per Übersetzer (z.B. DeepL) ins englische übersetzen lassen und dann den englischen Text in das Tool einfügen.

1. AI Content Detector von Writer.com

Ein feines Tool zum Erkennen von KI geschriebenen Texten.

2. „GPT-2 Output Detector Demo“

Füg deinen englischen Text ein. Das Tool sagt dir zuviel Prozent er fake oder real ist. (Fake = von einer KI geschrieben; Real = von einem Menschen geschrieben)

3. „roberta-base-openai-detector“

Das zweite Tool ist das gleiche wie das erste. Ich verwende es nur, falls das erste Tool mal laggt oder nicht erreichbar ist. (Dies geschah im Januar 2023 leider öfters.)

roberta base openai detector

Füge deinen Text auf der rechten Seite in dem Feld ein. Sobald du „Compute“ drückst, spuckt dir das Tool seine Einschätzung aus.

„Fake“ bedeutet eine KI hat den Text geschrieben. „Real“ bedeutet ein Mensch hat den Text geschrieben.

4. Grover

Das nächste Tool ist Grover.

Hier fügst du deinen Text bei „Detect“ ein und das Tool bewertet den Text. Grover gibt leider nur ein Ergebnis raus und keine prozentuale Verteilung.

5. GPTZero

Die Version von GPTZero auf Streamlit funktioniert derzeit und ist erreichbar. Link: hier. Die Homepage von GPTZero.me ist gerade nur zur Information da und leitet (bei Klick) auf die Version auf Streamlit weiter.

Hinweis: Diese Tools sind nicht perfekt. Auch sie können Fehler machen.

Über KI generierte Texte

Übrigens: Wer glaubt KI generierte Texte sind nicht unterscheidbar von Texten, die ein Mensch geschrieben hat, der irrt. KI Texte haben ein Muster und das macht sie erkennbar. Wer also meint, den Lehrer oder Dozenten bei der Hausarbeit zubetrügen oder mit KI-Texten bei Google nach vorne möchte, sollte vorsichtig sein.

Was ist mein Problem mit KI generierten Texten? Mein Problem ist die Qualität. Die KI erzeugt (derzeit; Januar 2023) mittelmäßige bis schlechte lange(!) Texte. Sie sind schlecht geschrieben, unkonkret, aber wortreich. Jedoch teils komplett sinnlos. Das erkennen Leser, das erkennen Dozenten / Lehrer und das erkennen Suchmaschinen. (Ja, ChatGPT arbeitet an einem Wasserzeichen für KI generierte Texte, damit die KI „KI generierte Texte“ nicht als Quelle nimmt und KI generierte Texte erkennbar bleiben bzw. sind. Das hat zwei Gründe: die Qualität und Missbrauch vermeiden.)

Für kurze Texte, private Botschaften, E-Mails und Social-Media-Posting eignet sich eine KI. Doch sobald es darum geht einen längeren Text zu schreiben, versagt die KI. Ihre Texte haben keinen roten Faden und man kann der KI nicht blind vertrauen.

Die KI kann (derzeit) selbst ihre eigenen Matheformeln nicht richtig ausrechnen und Programmiercode den sie ausspuckt, ist falsch. Wie soll ich den Inhalten und Fakten dann vertrauen? Auf Stackoverflow wurden Texte und Content, die mit ChatGPT erzeugt wurden, im Dezember 2022 gebannt. Der Grund dafür: Die Qualität ist zu schlecht!

Was sind Frühlingsgefühle? Wie entstehen sie? Was passiert im Körper? Erklärung


Frühlingsgefühle sind kein erfundenes Phänomen, diese Gefühle gibt es wirklich. Viele Menschen spüren, schon bevor der Frühling kalendarisch einsetzt, angenehme Gefühle des Aufbruchs, sind besonders motiviert, unternehmungslustig und gut gelaunt.

Genau wie die Natur, die aus dem Winterschlaf erwacht, machen auch wir Menschen mit beginnendem Frühling aus unserem unserer winterlichen Trägheit auf. Alle Zeichen stehen auf Aufbruch. Es lockt uns in die Natur, für deren vielfältige Erscheinungsformen wir nun besonders empfänglich sind. Es scheint so, als ob Körper und Geist ein neues Energieniveau erreicht haben.

Das lang ersehnte Grün zeigt sich an den unterschiedlichsten Orten und wir reagieren intensiv auf sämtliche Grünnuancen. Die Farben der Natur nehmen wir jetzt genauso intensiv wahr wie ihre Düfte und Geräusche. Egal ob Moos, Gras, das Holz, das sich im Sonnenlicht zu öffnen scheint oder das Plätschern eines Bächleins, die Natur offenbar sich neu, inspiriert uns und weckt buchstäblich die Lebensgeister.

Was bei Frühlingsgefühlen im Körper geschieht: Erklärung

Wenn wir Frühlingsgefühle spüren, sind wir keineswegs hoffnungslos romantisch, sondern haben es mit organischen und psychischen Veränderungen zu tun. Wir gehen den Alltag beschwingter und glücklicher an, werden unternehmungslustiger und fühlen uns vitaler. Frühlingsgefühle regen uns zu Aktivitäten an. Das hängt direkt mit der UVA-Strahlung, also dem Sonnenlicht, zusammen.

Damit Frühlingsgefühle entstehen, wirken zwar verschiedene Komponenten zusammenwirken, doch Licht ist der Hauptauslöser für die nun stattfindenden Veränderungen in Körper und Psyche. Das Licht dringt durch die Augen zu einem Bereich des Gehirns vor, den wir als „ unsere innere Uhr“ kennen. Hier werden Informationen an die Zirbeldrüse weitergeleitet. Die wiederum ist für die Ausschüttung des Hormons Melatonin verantwortlich. Sind die Tage kurz und die Nächte lang, herrscht also viel Dunkelheit, wird viel Melatonin ausgeschüttet. Wie fühlen und schläfrig. An hellen Tagen ist die Melatonin-Ausschüttung deutlich geringer, so dass wir uns wacher fühlen und energiegeladener sind.

Während im Winter verstärkt das Schlafhormon Melatonin produziert wird, schüttet unser Körper im Frühling verstärkt die Hormone Dopamin, Serotonin und Noradrenalin aus. Das Glückshormon Serotonin wirkt fast wie eine Droge und erzeugt ein Hochgefühl, das sich durchaus mit durchaus mit Verliebtheit vergleichen lässt. Bei Männern steigt außerdem der Testosteronspiegel, was zusätzlich das Gefühl von Kraft und Stärke intensiviert. Dank der Hormone fühlen uns lebendiger und streben ins Freie. Wir möchten den Ballast des Winters abwerfen, freuen uns auf längere helle Tage und sind voller Tatendrang. Die Wirkung dieser Hormone ist sehr intensiv. Mediziner konnten sogar nachweisen, dass die Zahl der Winterdepressionen mit beginnendem Frühling abnimmt.

Das bewirken die Glückshormone:

1. Dopamin sorgt dafür, dass unsere Empfindungen und Gefühle weitergeleitet werden. Außerdem hat es eine stark motivierende Kraft, die uns dazu bringt, Angefangenes endlich zu beenden oder Neues zu wagen.

2. Noradrenalin wird als Stresshormon bezeichnet. Seine wichtigste Aufgabe ist die Weiterleitung von Signalen an das zentrale Nervensystem. Der Körper schüttet es sowohl bei physischem als auch psychischem Stress aus. Noradrenalin steuert unsere Aufmerksamkeit und hat Einfluss auf den Schlaf-Wach-Rhythmus. Das Hormon bewirkt eine Kontraktion der Blutgefäße, senkt dadurch die Pulsfrequenz und erhöht den Blutdruck. In der Folge fühlen wir uns leistungsfähiger und motivierter.

3. Serotonin ist als Glückshormon bekannt. Das Hormon wird vom Körper produziert, wenn wir etwas tun, auf das wir stolz sind, beispielsweise dann, wenn wir Angst überwunden oder eine besondere Leistung erbracht haben. Produziert der Körper nicht genug Serotonin, können sich Schlaflosigkeit, Angstzustände und Depressionen einstellen. Serotonin hat die Fähigkeit, die Stimmung zu heben und wird daher zur Behandlung von Depressionen genutzt. Generell ist Serotonin ein wichtiger Neurotransmitter und an vielen Vorgängen im Körper beteiligt. Es beeinflusst den Appetit genauso wie Bewegung, Schlaf und Sexualität.

Frühlingsgefühle: Die Natur inspiriert uns zu Neuem

Auch die optischen Reize des Frühlings sind nicht zu unterschätzen. Da ist zum einen die nackte Haut, die erotische Signale aussendet, aber auch das frische Grün, das an allen Ecken und Enden hervorsprießt. Wer da keine gute Laune bekommt, muss schon sehr ignorant oder aber krank im Sinne von depressiv sein. Alles schreit nach Veränderung, auch unser eigenes Innenleben. Beinahe logisch, dass wir nun auch eher zum Flirten aufgelegt sind.

Der Frühling kann sogar Probleme verursachen

Trotz der angenehmen Seiten des Frühlingserwachens haben viele Menschen mit dem Übergang vom Winter zum Frühling Schwierigkeiten und fühlen sich noch längere Zeit müde und erschöpft. Sie leiden unter Frühjahrsmüdigkeit. Eigentlich müssten sie jetzt putzmunter sein, doch das Gegenteil ist der Fall. Der Körper muss sich erst an die veränderte Hormonsituation gewöhnen.

Verlieben wir uns im Frühling häufiger als im Winter?

Von Frühlingsgefühlen spricht man aber auch, wenn wir uns verlieben. Lange Zeit nahm man an, dass sich Menschen im Frühling häufiger verlieben als zu den übrigen Jahreszeiten. Das ist aber längst widerlegt. Tatsächlich sind es weder die Jahreszeit noch die Hormone, die Verliebtheit erzeugen. Das Gefühl entsteht nur deshalb, weil im Frühling alles leichter erscheint. So hat sich auch der Eindruck verfestigt, dass sich Verlieben im Frühling leichter fällt.

Frühlingsgefühle können uns durchaus in eine chaotische Gefühlslage versetzen. Denn wenn wir in dieser Stimmung sind, haben unsere Antennen ganz anders ausgerichtet und sehen alles viel positiver. Wir spüren die sprichwörtlichen Schmetterlinge im Bauch, die mit einem angenehmen Kribbeln verbunden sind.

Frühlingsgefühle hängen sie in erster Linie mit der höheren Lichtintensität im Frühling zusammen. Das Licht steuert unsere innere Uhr. Bekommen wir viel Licht, dann sind wir besser gelaunt und fühlen uns fitter. Im Frühling sind sie keineswegs chaotischer als im Herbst oder Winter. Der menschliche Organismus wird seit Millionen Jahren von Hormonen gesteuert, sodass man mit Fug und Recht behaupten kann, dass die Geschlechtshormone keinen Einfluss darauf haben, ob wir uns verlieben oder nicht. Vielmehr sind es die optischen Reize (wir zeigen zum Beispiel mehr nackte Haut), die den Eindruck erzeugen, wir würden uns schneller verlieben.

Frühlingsgefühle sind nicht auf der ganzen Welt bekannt

Frühlingsgefühle gehen mit einer Mischung aus psychologischen und körperlich messbaren Veränderungen einher. Amerikaner sprechen vom „spring fever“, also Fieber, was eine deutlich höhere Intensität der Gefühle beschreibt.

In den südlichen Ländern Europas dagegen ist das Phänomen unbekannt. Auch in den Ländern am Äquator kennt man keine Frühlingsgefühle. Die sind typisch für Länder, die ein Jahreszeitenklima haben. Denn wo kaum Unterschiede zwischen winterlichen und sommerlichen Sonnenstunden bestehen, kann es auch kein typisches Frühlingserwachen geben. Hier wird der Rhythmus der Menschen von der Tageszeit bestimmt.

Was ist Lensa? Bedeutung, Definition, Erklärung


Lensa ist eine Foto-App für Smartphones und vergleichbare Geräte, die im Winter 2022 in den verstärkten Fokus der Öffentlichkeit rückte. Die App enthält klassische Funktionen, um Portraits und Selfies zu bearbeiten, zu verschönern und zu transformieren.

Kernstück der App ist jedoch eine AI, welche die Bilder der Nutzer in digitalisierte Kunstwerke verwandeln kann. Genannt werden diese kunstvollen Abbilder Magic Avatars. Der Nutzer lädt für diese Funktion mehrere Bilder von sich in die App und erhält schließlich jene beliebten Bilder der AI, welche in dieser Form jedoch nicht kostenlos sind.

Lensa entwickelte sich zu einer Trend-App, die zwischenzeitlich zu den am meisten heruntergeladenen Apps im Apple App-Store und im Google Play Store für Android heranwuchs. Die gestiegene Popularität der Software blieb jedoch nicht ohne Kritiker, so gab es kritische Kommentare über teils idealisiert und sexualisiert angehauchte Darstellungen und Zweifel gegenüber der Privatsphäre, die in verschienenen Zeitungen und Online-Redaktionen thematisiert wurden.

Wie funktioniert Lensa? Erklärung

Im Prinzip ist Lensa eine klassische Foto-App, die es erlaubt, Selfies und Portraits nach eigenen Wünschen digital zu bearbeiten. Dazu gehört ein zugänglicher One-tap-Editor, digitale Retuschierungs-Funktionen, das glätten von Falten und Bearbeitungsmöglichkeiten für Augenringe und Co. Kurz: Wer sein Portrait für die Außendarstellung überarbeiten möchte, kann per Smartphone oder Tablet auf Lensa zurückgreifen. Dabei läuft die App in vielen App-Stores als kostenlose App, was genaugenommen jedoch nur für einige Funktionen gilt.

Von anderen Foto-Apps setzt sich Lensa durch die Magic Avatars ab: Stilisierte Bilder von Nutzern, die an Kunstwerke, teils in Comic- und Illustrationsästhetik erinnern. Das meist in hervorstechenden Farben stilisierte Portrait erinnert in seinen Konturen meist auffällig ähnlich an das Gesicht der Person. Doch hinter den Magic Avatars steckt eine AI, welche die Bilder kunstvoll bearbeitet.

Lensa greift so auf den Trend von AI bzw. KI-basierten Funktionen zurück, die sich bei digitalen Bildgeneratoren vermehrter Popularität erfreuen. Lensa gehört zu den ersten Apps, welche diese Technologie so umfänglich in das Designtool einbindet. Wer einen hochstilisierten Avatar von sich erstellen lassen möchte, hat also Gründe, zu den Funktionen von Lensa zu greifen.

Der Erfolg on Lensa – Popularität und Kritik gegenüber der App

Lensa stammt von einem Unternehmen namens Prisma Labs aus Sunnyvale, Kalifornien. Von Prisma Labs und den Gründern sowie zugleich russischen Entwicklern Andrey Usoltsev und Alexey Moiseenkov stammt auch die AI-Fotosoftware Prisma. Nach dem Launch der Magic Avatars im November 2022, stieg die App in vielen App-Stores zu der beliebtesten kostenlosen App auf. Lensa wurde ein Highlight für Nutzer, die nach kunstvollen Avataren suchten oder auf einer Party für Erheiterung und Begeisterung sorgen wollten.

Der Erfolg von Lensa wurde jedoch auch von Kritik durch etablierte Zeitungen und Medien begleitet. Von Zeitungen wie Die Zeit oder der Süddeutschen Zeitung über Fachmagazine wie t3n oder Mashable bis zu etablierten Fernsehkanälen wie der Bayerische Rundfunk oder das US-amerikanische ABC News – über die App sprach nach ihrem Release einfach jeder. Das lag unter anderem natürlich an den untypischen und beliebten Funktionen der App. Aber auch an journalistischer Kuriosität gegenüber dem Background hinter dem Phänomen.

Ein weitverbreiteter Kritikpunkt an der App waren nach Release die Kosten: Denn obwohl Lensa in vielen App-Stores ursprünglich als kostenlose App firmierte, präsentierten sich zuweilen nicht alle Funktionen als kostenlos. Wer auf die Ästhetik des beliebten Magic Avatars zurückgreifen wollte, musste nicht nur mehrere Bilder von sich machen, sondern auch einen Betrag zahlen. Das führte zur Kritik an dem Bezahlmodell sowie am Datenschutz inklusive der Frage nach dem Urheberrecht. Das Unternehmen hinter Lensa unterstrich jedoch, dass die Bilder kurz nach der Erstellung aus den Servern gelöscht werden würden. Eine verbreitete Kritik an der App bezog sich zudem auf dem Fakt, dass die App Durchschnittsmenschen in makellose und ästhetisch hochpolierte Avatare verwandelt, woran manche Kommentatoren sexualisierte oder sexistische Züge festmachten. Allerdings ließe sich letztere Kritik auf viele der Bildgeneratoren dieser Art ausbreiten.

Überblick – Welche Bedeutung hat Lensa?

Ob man die Kritik an der App annehmen möchte – oder nicht – der Erfolg von Lensa läutet fraglos eine neue Epoche der Bildgeneratoren für Smartphones und Co. ein. Die Verwendung moderner AI und die Erkenntnis, dass die Nutzer für solche Bilder zu zahlen bereit sind, wird in Zukunft sicherlich die ein oder andere Nachfolgeapp inspirieren. Lensa verhilft mit dieser Popularität den Bildbearbeitungsprogrammen und digitalen Portraitgeneratoren zu vermehrter Aufmerksamkeit.

Um zusammenzufassen: Lensa ist eine moderne Foto-App, mit leistungsfähigen AI-Funktionen, die kunstvolle Magic Avatars erschafft. Die Trendsoftware hat so im November und im Dezember 2022 die App-Stores für Smartphones und Co. im Sturm erobert. Die App ist sowohl eine Ursache für Begeisterung wie für Kritik – vom Datenschutz über Kosten bis zur idealisierten Bilddarstellung – geworden. Das ändert allerdings nichts daran, dass Lensa zu den Hit-Apps des Winters 2022 gehört.

Was ist Nation Building? Bedeutung, Definition, Erklärung


Im Nation Building geht es darum, die nationale Einheit und die Integration der Bevölkerung zu stärken, um eine stabile und umfassende Nation zu schaffen. Dies kann durch verschiedene Maßnahmen erreicht werden, wie zum Beispiel die Schaffung gemeinsamer Strukturen und Institutionen, die Förderung von Bildung und Kultur, die Unterstützung der wirtschaftlichen Entwicklung und die Verbesserung der Lebensbedingungen der Bevölkerung.

Was ist Nation Building? Bedeutung, Definition, Erklärung

Nation Building bedeutet die Entstehung einer eigenständigen Nation mit eigener sprachlicher, religiöser, kultureller, ethnischer, sozialer, wirtschaftlicher und sozialer Identität und Denkweise. Die Tatsache, dass die Mitglieder dieser Staatengemeinschaft all diese Elemente gemeinsam haben, ist jedoch nicht entscheidend für die Bildung einer Nation.

Weltweit ist zu beobachten, dass sich Gruppen innerhalb von Ländern in verschiedenen Faktoren grundlegend unterscheiden, aber dennoch ein gemeinsames Identitätsgefühl haben. Tatsächlich sind regionale Unterschiede in ethnischen, kulturellen oder religiösen Aspekten innerhalb eines Landes eher die Regel als die Ausnahme. Nicht die Homogenität und Unverschiedenheit eines Volkes, sondern das homogene Zugehörigkeitsgefühl der nationalen Gemeinschaften ist der grundlegende Faktor für erfolgreiches Nation Building.

Nation Building: Wie eine Nation entsteht

Nation Building ist keine logische Wissenschaft und jeder Einzelfall muss gesondert bewertet werden. Die Prämissen, Prozesse und Ergebnisse der erfolgreichen oder erfolglosen Bildung einer Nation können auch teilweise fehlen. Darüber hinaus können einige Faktoren bei der Bildung einer Nation wichtiger sein als andere.

Nation Building wurde historisch nach bestimmten Mustern betrachtet, die sich in unterschiedlichen Formen manifestiert haben. Auch die Bestimmung des Einflusses anderer Länder und ihrer Vertreter hat einen großen Einfluss, daher ist auch zu berücksichtigen, ob die Entstehung der Nation auf eigene innere Stärke oder auf fremden Einfluss zurückzuführen ist.

Was passiert beim Nation Building?

Nation Building ist ein komplexer Prozess, der von vielen Faktoren beeinflusst wird. Einige der Gründe, warum Nationenbildung oft mit Massengewalt und Vertreibungen einhergeht, sind:

Machtstreben:
Die Gründung einer Nation kann oft von einer Gruppe von Menschen angestrebt werden, die politische oder wirtschaftliche Macht anstreben und bereit sind, Gewalt einzusetzen, um ihre Ziele zu erreichen.

Ethnische oder nationale Konflikte:
Oft gibt es tief verwurzelte ethnische oder nationale Spannungen zwischen den Menschen, die sich einer Nation anschließen wollen. Diese Spannungen können sich in Gewalt entladen, wenn die Menschen versuchen, ihre eigene Identität und ihre Interessen zu verteidigen.

Religiöse oder ideologische Unterschiede:
Nationenbildung kann auch von religiösen oder ideologischen Unterschieden angetrieben werden, die zu Konflikten und Gewalt führen können.

Kolonialismus und Unterdrückung:
In vielen Teilen der Welt ging die Nationenbildung einher mit der Unterdrückung von Völkern durch koloniale Mächte. Dies kann zu Widerstand und Gewalt führen, wenn schwache Völker um ihre Unabhängigkeit und Selbstbestimmung kämpfen.

Nationenbildung muss nicht immer von Gewalt und Konflikten begleitet sein. In einigen Fällen kann die Gründung einer Nation friedlich und kooperativ verlaufen, wenn es den Erfolg bringt, ihre Unterschiede zu überbrücken und gemeinsame Ziele zu verfolgen.

Ziele des Nation Buildings

Der Aufbau von Institutionen, die für die Regierungsführung, die Verwaltung von Ressourcen und die Einhaltung von Gesetzen verantwortlich sind. Dazu gehören zum Beispiel Parlamente, Gerichte und Verwaltungsbehörden.

Verbesserung der sozialen Dienste:
Nation Building kann auch darauf abzielen, die sozialen Dienste in einem Land zu verbessern, indem zum Beispiel Schulen und Krankenhäuser gebaut werden.

Förderung der wirtschaftlichen Entwicklung:
Ein weiteres Ziel von Nation Building kann sein, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastrukturprojekte realisiert werden.

Förderung von Einheit und Solidarität:
Nation Building kann auch dazu beitragen, die Einheit und Solidarität der Bevölkerung einer Nation zu stärken, indem zum Beispiel gemeinsame Werte und Ziele vermittelt werden.
Nation Building kann von Regierungen, internationalen Organisationen oder Nichtregierungsorganisationen durchgeführt werden.
Nation Building hat viele Bedeutungen und Auswirkungen, die je nach den Umständen und Zielen des Prozesses variieren können.

Bedeutungen von Nation Building

Stabilisierung und Frieden:
In einigen Fällen kann Nation Building dazu beitragen, ein Land zu stabilisieren und Konflikte friedlich zu lösen, indem zum Beispiel institutionelle Strukturen aufgebaut werden, die Regierungsführung und die Verwaltung von Ressourcen sicherstellen.

Wirtschaftliche Entwicklung:
Nation Building kann auch dazu beitragen, die wirtschaftliche Entwicklung eines Landes zu fördern, indem zum Beispiel Investitionen in Infrastruktur gebaut werden und die wirtschaftlichen Rahmenbedingungen verbessert werden.

Einige Beispiele für Nation Building

Nation Building: Deutschland

Die Wiedervereinigung Deutschlands nach dem Fall der Mauer:
Die Wiedervereinigung Deutschlands fand am 3. Oktober 1990 statt, als der Einigungsvertrag in Kraft trat und die DDR offiziell ein Teil der BRD wurde. Die Wiedervereinigung war ein historisches Ereignis, das die deutsche Geschichte nachhaltig verändert hat und das auch Auswirkungen auf Europa und die ganze Welt hatte. Es gab jedoch auch Herausforderungen und Probleme, die im Zusammenhang mit der Wiedervereinigung auftraten, wie zum Beispiel wirtschaftliche Schwierigkeiten in den neuen Bundesländern und die Integration von Migranten aus der DDR.

Nation Building: Nordirland

Er begann Ende der 1980er Jahre und setzte sich in den 1990er Jahren fort. Er umfasste verschiedene Verhandlungen und Vereinbarungen, die darauf abzielten, den Konflikt friedlich zu lösen und eine stabile und inklusive Regierung in Nordirland aufzubauen. Ein wichtiger Meilenstein war der „Good Friday Agreement“ von 1998, der eine Zusammenarbeit zwischen den beiden Gemeinschaften in Nordirland vorsah und die Gründung einer gemeinsamen Regierung ermöglichte.

Er ist bis heute ein laufender Prozess und es gibt immer noch Herausforderungen und Spannungen. Trotzdem hat der Friedensprozess zu einer deutlichen Verbesserung der Sicherheitslage in Nordirland beigetragen und zu einem Rückgang der Gewalt. Der Friedensprozess ist auch ein Beispiel dafür, wie komplexe und langanhaltende Konflikte friedlich gelöst werden können, wenn alle Beteiligten bereit sind, Kompromisse einzugehen und miteinander zu arbeiten.

Nation Building: Afghanistan

Nach dem Fall des Taliban-Regimes wurde im Rahmen von Nation Building in Afghanistan ein neues politisches System aufgebaut und Institutionen wie die Polizei und die Armee.

Die Förderung von Bildung und Kultur in Entwicklungsländern:
In vielen Entwicklungsländern wird Nation Building genutzt, um die Bildungs- und Kulturinfrastruktur zu verbessern und damit die nationale Identität und Solidarität zu stärken.

Der Aufbau von Gemeinden in Katastrophengebieten:
Nach Naturkatastrophen oder Kriegen kann Nation Building dazu beitragen, die betroffene Bevölkerung zu unterstützen und ihnen dabei zu helfen, ihre Gemeinden wieder aufzubauen und neu zu integrieren.

Was ist ChatGPT? Bedeutung, Definition, Erklärung


ChatGPT ist ein KI-Chatbot, der auf Nutzer Aufforderungen und Anfragen mit selbst erstellten Antworten reagiert. Das Besondere an ChatGPT ist, dass der KI-Chatbot auf Folgefragen reagieren kann und so eine Art „Gespräch“ möglich ist. Das Besondere an ChatGPT ist, dass der KI-Chatbot neues Wissen erstellt, wozu Vorgänger nicht fähig waren.

Was ist ChatGPT? Einfach erklärt

ChatGPT ist ein Werkzeug, das Texte schreibt. Außerdem kann ChatGPT auch Programmiercode schreiben.

Mit ChatGPT kann man effizienter Texte schreiben, da ChatGPT den Text erstellt bzw. schreibt und dieser nur noch korrigiert und redigiert werden muss. Hier ist die Krux! ChatGPT liefert Textentwürfe, keine fertigen Texte. Ein Mensch muss den Text noch einmal Korrektur lesen und etwaige Fehler entfernen. Denn ChatGPT arbeitet nicht zu hundert Prozent faktentreu, sondern arbeitet mit Wahrscheinlichkeiten. Im Algorithmus von ChatGPT sind Wahrscheinlichkeiten enthalten, welches Wort und welcher Satz wohl als nächstes folgen soll, als nächstes Sinn ergibt und auch als nächstes vom Leser erwartet wird. ChatGPT rät also immer ein bisschen und das führt dazu, dass ChatGPT eben auch falsch raten kann.

Jeder kann ChatGPT benutzen. Die Qualität des gelieferten Textes hängt von der Arbeitsanweisung an ChatGPT ab. Je besser diese ist, umso besser ist der Text.

Ein Fakt spricht für ChatGPT. Die KI schreibt schneller als Journalisten, Programmierer und Texter. Wer also meint, schneller, also effizienter, als ChatGPT zu sein, irrt.

ChatGPT ist auch als Chat-Bot gedacht. Das bedeutet, ChatGPT kann auf Webseiten integriert werden und soll dort auf Besucher-Anfragen reagieren. Aber dieser Zweck steht beim aktuellen Hype im Hintergrund.

Wie wird sich ChatGPT weiterentwickeln?

Je mehr Daten ChatGPT verarbeiten wird, umso umfangreichere und bessere Texte wird die KI schreiben können. “Besser” bedeutet, dass die KI weniger rät, sich besser ausdrückt und allgemein besser schreibt.

ChatGPT schreibt heute (2023) noch kurze Texte. Die Redaktion vermutet, dass ChatGPT in den folgenden Jahren nach einer Anweisung ein ganzes Buch schreiben kann.

Die Krux an und Grenzen von ChatGPT

1. ChatGPT hat keine Sinne.

ChatGPT hat keine Primärerfahrungen, keine Sinneswahrnehmungen und keine Sinneseindrücke. (Primärerfahrungen = was ich beobachte, sehe, fühle, wahrnehme, was meine Sinne wahrnehmen) ChatGPT hat keinen Geschmack, keine Haltung und keine Vorlieben. ChatGPT hat keine Persönlichkeit. ChatGPT verwendet Texte als Grundlage und erstellt aus Millionen Texten neue Texte, aber nur Remixe.

Damit hat ChatGPT ein Limit. Die KI kann zwar Remixe erstellen, aber nie in die Texterstellung Primärerfahrungen und Persönlichkeit einfließen lassen.

2. ChatGPT hilft nur Leuten, die schon Fähigkeiten und Wissen haben.

Die Texte von ChatGPT kann redigieren, wer schreiben kann und Ahnung von Texten hat.

Die Fakten, die ChatGPT in seinen Texten erwähnt, kann nur bestätigten oder korrigieren, wer schon Erfahrung in dem Bereich hat. (Wenn ChatGPT z.B.: ein Keto-Kochbuch schreibt, dann sollten die dadrin erwähnten Fakten stimmen. Das kann aber nur jemand überprüfen, der oder die schon Ahnung von Keto-Ernährung hat.)

ChatGPT kann auch Programmieren. Aber das hilft mir nur, wenn ich auch Programmieren kann. Ich muss nämlich das Ergebnis sichten und verstehen, was ChatGPT vorschlägt.

Damit – so möchte ich schlußfolgern – verschiebt ChatGPT die Aufgaben. Journalisten, Texter und Programmierer werden vielmehr sichten, korrigieren und redigieren, und weniger selbst schreiben.

Fazit: Wer vor KI Content produziert hat, wird es auch nach KI tun. Nur das nun eine KI hilft bzw. mithilft. Wer vor KI nur im Internet gelesen, geschaut und kommentiert hat, der wird – so vermutet die Redaktion – jetzt nicht zum Content-Produzenten werden.

(Hier erinnere ich, Autor dieses Textes, an die 90-9-Regel. Sie besagt, dass 90 Prozent aller Internetnutzer nur gucken, neun Prozent kommentieren und ein Prozent produziert Inhalte.)

Siehe auch:

Was ist ChatGPT? Bedeutung, Definition, Erklärung

ChatGPT ist auch ein KI-basierter Chatbot-Entwicklungsdienst, der es Entwicklern ermöglicht, Chatbot-Anwendungen durch maschinelles Lernen zu erstellen. ChatGPT basiert auf einem modularen Ansatz, bei dem Entwickler die Komponenten für ihren Bot auswählen können. Das Werkzeug verwendet maschinelles Lernen, um die Eingaben des Benutzers zu verarbeiten und ihm passende Antworten zu liefern. Darüber hinaus bietet ChatGPT eine einzigartige Funktion zur Erstellung von Dialogflüssen, bei der die Antworten des Benutzers in die nächste Frage übergehen. Dies ermöglicht es Entwicklern, eine reibungslose, natürliche Konversation zu schaffen. ChatGPT bietet außerdem eine einfache und benutzerfreundliche Drag-and-Drop-Oberfläche, die das Erstellen von Chatbots vereinfacht und beschleunigt.

Wie funktioniert Chat GPT?

ChatGPT ist eine Technologie, die es Computern ermöglicht, natürliche und angemessene Konversationen mit Menschen zu führen. Sie wurde von Open AI entwickelt, einer KI-Forschungsorganisation, die von Elon Musk, Sam Altman und anderen gegründet wurde.

ChatGPT basiert auf Deep Learning, einer KI-Technologie, die es Computern ermöglicht, auf natürliche Sprache zu reagieren. Es verwendet ein Generative Pre-trained Transformer-Netzwerk, das sogenannte GPT-3. Mit GPT-3 kann ein Computer in der Lage sein, eine kohärente Konversation zu führen, indem er natürliche Sprache versteht und auf Fragen und Anweisungen angemessen antwortet.

ChatGPT ist in der Lage, eine Konversation in Echtzeit zu führen, indem es sich an die Kontextinformationen erinnert, die in den vorhergehenden Sätzen enthalten sind. Auf diese Weise kann es einige Anweisungen und Fragen beantworten, ohne erneut nach Informationen gefragt zu werden. Es kann auch kreative Konversationen führen, indem es neue Ideen vorschlägt und interessante Fragen stellt.

Darüber hinaus können Entwickler ChatGPT anpassen, um spezifische Konversationen für bestimmte Anwendungsfälle zu ermöglichen. Sie können beispielsweise dem Chatbot beibringen, Fragen zu einem bestimmten Thema zu stellen oder bestimmte Befehle auszuführen.
Die Hauptidee hinter ChatGPT ist es, den Menschen ein natürliches und angenehmes Konversationserlebnis zu bieten, indem sie Computern beibringen, wie man sich menschlich verhält. Es kann sowohl für private als auch für geschäftliche Zwecke verwendet werden, um Kundenunterstützung zu bieten, E-Commerce-Transaktionen abzuschließen und vieles mehr.

Was kann man mit ChatGPT machen?

ChatGPT ist eine KI-basierte Chatbot-Software, die es Nutzern ermöglicht, natürliche Spracheingaben zu verarbeiten und auf sie zu antworten. Es kann in einer Vielzahl von Anwendungen eingesetzt werden, von Kundendienst bis hin zu interaktiven Fiktionen.

ChatGPT kann ganz allgemein Text bzw. Textantworten schreiben. ChatGPT kann Anleitungen schreiben, aber auch Erklärung. ChatGPT kann auch Rezeptideen und Urlaubsziele vorschlagen. Die Antwort von ChatGPT ist abhängig von der Qualität der Aufforderung.

ChatGPT kann sowohl auf Text- als auch auf Stimmeingaben reagieren und bietet eine Reihe von Funktionen, einschließlich der Verarbeitung natürlicher Sprache, der Erkennung von Anfragen, der Erstellung von Antworten, der Erstellung von Konversationssträngen, der Erkennung von Entitäten und der Erkennung von Intents. ChatGPT verfügt auch über eine Reihe von Funktionen wie eine integrierte Entwickler-API, eine Sprachmodellierung und ein leistungsstarkes Machine Learning-Tool. Mit ChatGPT kann man die Konversation zwischen Menschen und Maschinen verbessern, indem man eine Vielzahl von natürlichen Spracheingaben verarbeitet, die alle möglichen Eingaben und Anfragen verstehen können. Es kann auch dazu beitragen, die Nutzererfahrung bei der Interaktion mit Chatbots zu verbessern, indem es eine natürliche und lebendige Konversation ermöglicht.

ChatGPT kann auch in der Entwicklung von Chatbots für virtuelle Assistenten verwendet werden, um eine reibungslose und intuitiv zu bedienende Benutzererfahrung zu ermöglichen. Darüber hinaus kann ChatGPT auch bei der Entwicklung von Anwendungen wie automatisierten Chatbots, interaktiven Fiktionen, Sprachassistenten und anderen AI-basierten Anwendungen helfen.

ABER ChatGPT macht nicht alles. Schon jetzt ist Ethtik im Tool integriert. ChatGPT gibt keine Anleitungen, um Menschen zu schaden oder ihnen weh zutun. ChatGPT erklärt auch nicht, wie man sich selber weh tut oder wie man Substanzen hergestellt, die gesetzlich verboten sind.

Welche Bedeutung hat ChatGPT und warum ist es besonders?

ChatGPT ist eine KI-basierte Chatbot-Technologie, die es Entwicklern ermöglicht, natürliche Gesprächsfähigkeiten in ihre Anwendungen zu integrieren. Es wurde von OpenAI entwickelt und verwendet maschinelles Lernen, um auf Benutzereingaben zu reagieren, indem es eine Reihe von Antworten generiert, die dem Kontext entsprechen. ChatGPT kann so programmiert werden, dass es auf verschiedene Arten interagiert, wie z.B. einfache Antworten, wissensbasierte Antworten, Dialogmanagement und natürliche Spracheingabe.

ChatGPT ist ein Textgenerator, der auf der GPT-3-Technologie (Generative Pre-trained Transformer) basiert. Es ist eine KI-basierte Software, die es Menschen ermöglicht, natürliche Konversationen zu führen. ChatGPT ist besonders, da es einen Dialog in Echtzeit erstellen kann, der der natürlichen Sprache eines Menschen ähnelt. Die Technologie ermöglicht es ChatGPT, auf Fragen und Befehle zu reagieren, indem sie eine passende Antwort generiert. Die Technologie ist so konzipiert, dass sie immer lernt und sich verbessert. Dadurch kann ChatGPT auf unregelmäßige Eingaben reagieren und den Dialog anpassen, was eine echte Konversation sehr natürlich erscheinen lässt. ChatGPT wird hauptsächlich für Chatbots, virtuelle Assistenten und Dialogsysteme verwendet, was es zu einem wertvollen Werkzeug für Unternehmen macht, die ihren Kunden eine bessere Interaktion mit ihren Produkten und Dienstleistungen bieten möchten.

Was ist die Keimtheorie? Bedeutung, Definition, Erklärung


Gemäß der Keimtheorie werden diverse Krankheiten durch Mikroorganismen ausgelöstet und verbreitet. Durch zum Beispiel Husten oder Niesen von erkrankten Personen gelangen Mikroorganismen in die Umwelt und können so von anderen Menschen aufgenommen werden, die dann ihrerseits erkranken.

Die Keimtheorie bezieht sich dabei nicht nur auf Atemwegserkrankungen, sondern auf alle Erkrankungen, die durch Mikroorganismen ausgelöst werden.

Die Keimtheorie wird heute nicht mehr als Theorie bezeichnet, da ihre Inhalte belegt sind und heute eine medizinische Selbstverständlichkeit darstellen.

Ursprung der Keimtheorie

Ihren Ursprung hat die Keimtheorie in der zweiten Hälfte des 19. Jahrhunderts. In Südfrankreich kam es im Jahr 1865 zu einem Massensterben der Seidenraupe, was zu finanziellen Problemen der dort angesiedelten Textilindustrie führte.

Der Chemiker Louis Pasteur wurde damit beauftragt, die Gründe für das Sterben der Raupen zu ermitteln. Im Rahmen seiner Untersuchungen entdeckte er unter dem Mikroskop kleine Parasiten und er konnte nachweisen, dass diese zunächst die Nahrung der Raupen befielen und über diese in die Tiere selbst gelangten.

Durch die Vernichtung der vom Parasiten befallenen Raupen konnte die Krankheit eingedämmt und schließlich besiegt werden.
Unabhängig davon hatte der ungarische Arzt Ignaz Semmelweis ebenfalls in der zweiten Hälfte des 19. Jahrhunderts festgestellt, dass in den Wiener Krankenhäusern viele Frauen dem Kindbettfieber erlagen. Brachten Frauen hingegen ihr Kind mithilfe einer Hebamme zur Welt, lag die Zahl der Todesfälle infolge des Kindbettfiebers weitaus niedriger. Semmelweis schlussfolgerte daraus, dass die Ursache des Kindbettfiebers von den Ärzten auf die Schwangeren übertragen wurde. Er ordnete darauf eine gründliche Desinfektion der Hände vor jeder medizinischen Maßnahme an. Die Sterberate infolge von Kindbettfieber in den Krankenhäusern sank daraufhin drastisch.

Folgen der Keimtheorie

Das veränderte Bewusstsein über die Ursachen von bestimmten Erkrankungen veränderte sowohl einerseits das bisherige Verständnis von bestimmten Erkrankungen, ebnete aber vor allem den Weg zu neuartigen Behandlungs- und Präventionsmethoden.

Der deutsche Mediziner Robert Koch griff den Ansatz auf und wurde der Erste, der Mikroorganismen systematisch auf ihre Pathogenität, also auf ihre krankmachende Wirkung, hin untersuchte. Der Nachweis des Zusammenhangs gelang ihm mit der Entdeckung des damals gefürchteten Erregers der Tuberkulose. Die damals auch unter dem Namen „Schwindsucht“ bekannte und berüchtigte Krankheit verursachte im 19. Jahrhundert eine große Krankheitslast in so gut wie allen europäischen Ländern.

Ebenso entstand ein verändertes Bewusstsein über die ärztlichen Tätigkeiten. Es stellte sich nun heraus, dass das Risiko von postoperativen Entzündungen, die nicht selten zum Tod der Patienten führten, deutlich reduziert werden konnte, wenn Operationsbesteck vor einem Eingriff gründlich desinfiziert wurde.

Die neuen Erkenntnisse fanden rasch auf den Schlachtfeldern der Welt Anwendung: Die Überlebenschancen von verwundeten Soldaten erhöhten sich erheblich, wenn bei einer Behandlung durch den Feldarzt sowohl die medizinischen Instrumente als auch die Wunden desinfiziert wurden.

Die Keimtheorie als Wurzel der öffentlichen Gesundheitsvorsorge

Das Bewusstsein über die Übertragungswege bestimmter Krankheiten eröffnete vielerlei Möglichkeiten, die Entstehung von Krankheiten schon im Vorfeld zu vermeiden und so die Krankheitslast in der Bevölkerung zu reduzieren.

So führte die Keimtheorie zu der Erkenntnis, dass sauberes Wasser Durchfallerkrankungen wie Typhus und Cholera verhindern konnte. Als es im Jahr 1892 in Hamburg zum letzten schweren Ausbruch von Cholera in Deutschland kam, verteilte die Medizinalbehörde Handschriften mit Verhaltensmaßregeln und Wagen verteilten abgekochtes Wasser. Im Verlauf der Epidemie wurden Häuser und ganze Straßenzüge mit verschiedenen Chemikalien behandelt, die die in der Umwelt verbliebenen Cholera-Erreger abtöten sollten.

Auf der Keimtheorie basierte auch die zunehmende Entwicklung und Verbreitung von Impfstoffen.

Einschränkungen und Kritik an der Keimtheorie

Wenngleich die Keimtheorie heute keine Theorie mehr ist, sondern die Tatsache, dass verschiedene Krankheiten von Mikroorganismen verursacht werden, wissenschaftlicher Konsens ist, ist sie nicht gänzlich unwidersprochen.

Teilweise wurde behauptet, dass zu große Hygiene die Ursache für die Vielzahl an Allergien ist, unter denen viele Menschen in den Industrienationen leiden. Diese Hygienehypothese besagte, dass Erkrankungen wie Asthma und Heuschnupfen seltener bei Kindern auftreten, die auf einem Bauernhof groß geworden sind als bei solchen Kindern, die in der Stadt aufgewachsen sind. Diese Hypothese konnte inzwischen durch Studien belegt werden; so stellten Forscher fest, dass Kinder seltener an Allergien leiden, wenn sie häufig rohe Kuhmilch trinken oder sich in Ställen mit lebendem Vieh aufhalten.

Verschiedene Forscher gehen deshalb davon aus, dass Kinder Kontakt zu Schmutz und Keimen benötigen, um ein funktionierendes Immunsystem zu entwickeln.

Neuere Erkenntnisse zeigen allerdings, dass nicht nur ein zu hohes Maß an Hygiene Allergien verursachen kann, sondern auch die genetische Veranlagung, Luftschadstoffe und Tabakrauch die Entwicklung des kindlichen Immunsystems negativ beeinflussen können. Auch verschiedene Infektionen im Kindesalter, psychische Faktoren und der persönliche beziehungsweise familiäre Ernährungsstil sind möglicherweise Auslöser für Allergien.

Vereinzelte Stimmen lehnen die heute wissenschaftlich anerkannte Tatsache, dass bestimmte Krankheiten durch Mikroorganismen übertragen werden, vollkommen ab. Diesen Ansichten nach zielten derartige Behauptungen lediglich darauf ab, sich durch die Entwicklung eigentlich unnötiger Medikamente finanziell zu bereichern.

Dabei handelt es sich jedoch um vereinzelte Aussagen, die nicht dem wissenschaftlichen Konsens entsprechen. In zahlreichen Studien konnte im Verlauf der letzten 120 Jahre nachgewiesen werden, dass bestimmte Mikroorganismen bestimmte Krankheiten verursachen. Dank moderner hochauflösender Mikroskope ist heute auch der optische Nachweis kleinster Viruspartikel in der Größenordnung von Nanometern möglich.

Chancen und Herausforderungen bei der Digitalisierung


Wer sich mit dem Thema Digitalisierung intensiv beschäftigt, der befindet sich nicht nur voll im Trend der Zeit. Stattdessen setzt er sich auch mit einem Bereich auseinander, in welchem sowohl Chancen, als auch Herausforderungen vorhanden sind, welche von den Menschen zu bewältigen sind.

Vor allem die riesige Menge an Daten, die von uns allen heute verfügbar ist, erfordert einen verantwortungsbewussten Umgang der Gesamtgesellschaft mit der Thematik. Insgesamt gilt es dann wieder die Blicke zu schärfen und sich zu verinnerlichen, dass es die Chancen sind, welche hier eindeutig überwiegen und dass es sich somit in jedem Fall lohnt, für die Probleme und Herausforderungen adäquate Lösungen zu finden.

Chancen zu sehen, das ist nicht nur in diesem Fall eine große Aufgabe, sondern wird auch in Zukunft für diejenigen wichtig sein, die das Leben selbst anpacken möchten und auf der Gewinnerseite stehen wollen. Schließlich gibt es in nahezu jedem Feld ebenso Herausforderungen und auch Gefahren, wie es auch Chancen sind, die sich uns erschließen. Der positive Blick auf die Dinge, die auf uns warten, ist von so großer Bedeutung, dass ohne ihn vielleicht keine Möglichkeit besteht, erfolgreich mit den großen Aufgaben umzugehen, welche auf uns zukommen.

Neue Herausforderungen in puncto Datensicherheit bedürfen der intensiven Auseinandersetzung

Neue Aufgaben finden sich in vielen Lebensfeldern und gerade in Zeiten, die sich so schnell und rasant entwickeln sowie verändern wie es unsere tun, ist dies der Fall. Oftmals suchen wir auch bewusst eine Herausforderung und haben somit die Gelegenheit, auch die persönliche Entwicklung voranzutreiben.

Eben jene Entwicklung kann dann wiederum auf verschiedensten Ebenen helfen, mit den Dingen des Lebens umzugehen. Auch im Rahmen der Digitalisierung sind wir mit zahlreichen neuen Aufgaben und Herausforderungen konfrontiert, die es auf dem Weg in die Zukunft zu bewältigen gilt. So stellen Datenrettung und Datensicherheit Kernelemente dar, die es unbedingt umzusetzen gilt, um den neuen Zeiten gerecht werden zu können. Neben Unternehmen sind es auch Privatpersonen, welche von dieser Notwendigkeit betroffen sind. Schließlich tummelt sich nahezu jeder von uns im World Wide Web und da ist es wichtig, dass mit sensiblen Inhalten und Informationen nur auf adäquate Art und Weise umgegangen werden kann. Das Tempo der Entwicklung, welches hier bei den Methoden und Möglichkeiten vorhanden ist, ist so groß wie es in Wissenschaft und Technik der Fall ist.

Wissenschaft und Technik haben ein hohes Maß an Begeisterungsfähigkeit in sich, welches sie auf die Menschen übertragen, die sich mit den einzelnen Feldern auseinandersetzen. Tun wir genau dies, so wird für nahezu jeden klar, dass da auch das eine oder andere Interessensfeld von uns betroffen ist, welches sich hier in rasanter Geschwindigkeit entwickelt. Diese Geschwindgkeit könnte im Rahmen der Digitalisierung noch weiter zunehmen, auch wenn die letzten Jahre und Jahrzehnte die Latte bereits recht hoch gelegt haben.

Wer sich intensiv mit dem Gedanken beschäftigt, in welchen Bereichen es überall möglich ist, dank modernster Technik Prozesse zu erleichtern und so noch schneller zum gewünschten Ziel zu kommen, der wird kaum einen Part finden, in dem hier nicht noch Entwicklungspotenzial besteht. Somit dürfen wir uns auf eine Zeit freuen, in der einiges an Bürokratie und Aufwand abgebaut werden kann, während die effektive Entwicklung, welche am Ende dem Menschen zukommt, in den Vordergrund aller Überlegungen gerückt wird. Gelingt dies nachhaltig und wir finden einen Konsens darüber, welche Rolle der Mensch bei dieser Entwicklung spielen soll und wie wir die Zukunft gestalten, so ist der Chancenreichtum so groß, wie vielleicht niemals zuvor in der Geschichte der Menschheit.

Mehr Chancen als Probleme oder Risiken

Wie bereits in der Einleitung erwähnt sind es vor allem die Chancen, die im Mittelpunkt unserer Betrachtung stehen sollten. Schließlich liefert die Digitalisierung auf mannigfaltige Weise Vereinfachungen in Abläufen und Verwaltung. Denken wir nur daran, wie wir Behörden digitalisieren könnten, so kann jede Menge effektive Zeitersparnis auf dem Zettel stehen. Diese Zeit für andere Dinge nutzen zu können, ist gleichzeitig mit der Gelegenheit verbunden, uns auf anderen Gebieten auszuprobieren und die Fähigkeiten zu testen, die wir hier nutzen können.

Weiterhin kann es im stressigen Alltag auch einfach mal erlaubt sein und gut tun, Zeit für Freizeit und Dinge wie Serien oder Filme zu haben, welche uns für einen gewissen Zeitraum in eine andere Welt zu entführen verstehen. Probleme und Herausforderungen gilt es ernst zu nehmen. Dies ist im Zusammenhang mit unserer modernen Zeit ebenso der Fall, wie es in allen anderen Zeiten war, als man sich damit auseinandersetzte, wie die jeweilige Zukunft gestaltet werden soll. Unwidersprochen ist auch die derzeitige Phase in der Geschichte der Menschheit ob der offensichtlichen Fragen und Konflikte mit zahllosen Aufgaben versehen. Auch das Zusammenleben der Menschen muss auf eine neue Art und Weise gelingen.

Doch die technischen Möglichkeiten und Mittel, die hierfür zur Verfügung stehen, sollten eigentlich Mut machen und dazu führen, dass der Blick der Menschheit mit mehr Optimismus in die Zukunft geht, als es allenthalben der Fall zu sein scheint. Am Ende liegt es schließlich an der Menschheit selbst, wie wir diese Möglichkeiten nutzen und in welche speziellen Bereiche wir diesbezüglich investieren werden.

Dank der Digitalisierung wird Teilhabe in vielen Lebensbereichen niedrigschwelliger möglich

Ein großer Teil des Lebens findet heute digital statt und wo früher teilweise weite Wege zurückzulegen waren, kann heute die Teilhabe mit wenigen Klicks gesichert werden. Nehmen wir den Besuch einer Veranstaltung als Beispiel, bei der die Karten regelmäßig bereits im Vorverkauf vergriffen sind. Heute ist es fast ausnahmslos so, dass online die entsprechenden Tickets mit wenigen Klicks im Einkaufswagen landen. Nicht einmal der Druck ist mehr notwendig, sondern lediglich das Vorzeigen des sogenannten E-Tickets.

Die mannigfaltigen Vorteile, welche hiermit verbunden sind, befinden sich vor allem auf den Gebieten Aufwands- und Zeitersparnis. Gerade für berufstätige Menschen ergeben sich so große Vorteile. Teilhabe ist für viele Menschen einer der wesentlichsten Faktoren, wenn es darum geht, ein erfülltes und möglichst glückliches Leben zu führen. Hier kann es heute deutlich effizienter gelingen, Aufwand zu vermeiden und dabei Teilhabe in verschiedenen Bereichen adäquat zu sichern. So profitieren diejenigen, die im Vorfeld den Aufwand gescheut hätten oder auch einfach nicht die Zeit aufbringen konnten, eben jenen für sich in Anspruch zu nehmen.

Was ist Cunningham’s Gesetz? Wer war Cunningham? Bedeutung, Definition, Erklärung


Cunningham’s Gesetz lautet: „The best way to get the right answer on the Internet is not to ask a question, it’s to post the wrong answer.“

Auf deutsch übersetzt:
„Der beste Weg, eine korrekte Antwort im Internet zu bekommen, ist nicht eine Frage zu stellen, sondern eine falsche Antwort auf die Frage zu stellen.“

Was sagt Cunninghams Gesetz aus? Bedeutung, Definition, Erklärung

Das Zitat klingt paradox, da ja keine falsche Antwort gesucht wird, wenn jemand eine Frage stellt, aber es funktioniert tatsächlich. Bezogen ist diese Aussage oder dieses „Gesetz“ darauf, dass Menschen eine falsche Antwort auf eine Frage im Internet schneller korrigieren, als eine Frage zu beantworten. Es genügt, eine Falschaussage in einem sozialen Netzwerk zu posten.

In der Regel lässt eine Korrektur von einem sich auskennenden Mitnutzer nicht lange auf sich warten. In kürzester Zeit wird die gepostete Falschaussage richtig gestellt. Die Eingabe einer Frage in eine Suchmaschine führt dagegen oft zu ungenauen Ergebnissen und wenn die Frage in einem Forum gestellt wird, wartet man länger auf eine Antwort.

Wer ist Cunningham?

Ward Cunningham, der am 26. Mai 1949 in den USA geboren wurde, ist ein US-amerikanischer Programmierer, der in Beaverton, Oregon lebt und arbeitet. Er erschuf am 25. März 1995 mit dem Wiki Wiki Web das erste Wiki. Damit legte er den Grundstein für Wikipedia und die Möglichkeit für jeden Internetnutzer, sein Wissen über ein bestimmtes Thema in einem Online-Lexikon zu verewigen. Er ist auch einer der Autoren und Erstunterzeichner des Agilen Manifests, ein wichtiger Werte-Kodex für die Softwareentwicklung.

Von Dezember 2003 bis Oktober 2005 arbeitete Ward Cunningham für Microsoft. Direkt im Anschluss wechselte er zu der Firma Eclipse Foundation und ab Mai 2007 war er technischer Leiter des Internetverzeichnisses AboutUs.org.

Seine bekannte Aussage hat er bereits in den 1980ern getroffen. Sein Kollege Steve Mc Geady nahm das Zitat auf und formte es zu „Cunninghams Gesetz“. Damals bezog sich das Gesagte noch auf die Vorläufer des Internets, es gab erste Foren im „Usenet“, in dem sich die Nutzer schon ähnlich verhielten, wie heute. Durch die Entwicklung des Internets und die Vernetzung, wie wir sie heute kennen, ist Cunninghams Gesetz so passend wie nie. Jeder Mensch in den Industrienationen ist mit dem Internet verbunden und kann seine Meinung und sein Wissen kundtun und überall mitdiskutieren.

Sonstiges in Bezug auf Cunninghams Gesetz

Es existiert ein kurzes You-Tube-Video, in dem Cunningham selbst auftritt und seine vor vierzig Jahren getroffene Aussage selbst widerlegt.
Dort nennt er sein Gesetz ein „falsches Zitat, das sich selbst widerlegt, indem es über das Internet verbreitet wird“.

Es gibt das französische Sprichwort „Prêcher le faux pour savoir le vrai“. Das bedeutet übersetzt soviel wie: „Predige das Falsche, um die Wahrheit zu kennen“. Dieser Hang dazu, andere Menschen zu korrigieren, war also schon immer da, wo öffentlich diskutiert wurde. In der heutigen Zeit, wo der Kontakt zu Anderen und das öffentliche Kundtun einer Meinung oder das Verbreiten von Informationen besonders einfach ist, sind sowohl dieses Sprichwort, als auch Cunninghams auf die Onlinewelt bezogene Aussage aktuell wie noch nie.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung


Ein Teelichtofen besteht aus zwei unterschiedlich großen Tontöpfen und einem Teller. Dazu kommen noch diverse Schrauben und Unterlegscheiben und eine Metallstange. Aus diesen Einzelteilen wird der Teelichtofen zusammen gebaut und mit der passenden Menge an Teelichtern versehen. Die Anzahl an Kerzen richtet sich nach der Größe des Tellers. Werden die Lichter zu eng platziert, besteht die Gefahr, dass sich die einzelnen Flammen zu einer großen zusammenschließen. Es gibt inzwischen diverse Bauanleitungen und Sets, nach denen ein Teelichtofen hergestellt werden kann.

Wie funktioniert ein Teelichtofen? Physik, Funktion, Wirkung

Werden die Kerzen angezündet, entwickeln die Flammen Hitze. Diese steigt mit der Luft nach oben. Der kleinere Tontopf nimmt die Wärme auf. An dieser Stelle ist die größte Wärmeentwicklung spürbar. Der zweite Tontopf wird durch die Luft nur langsam aufgewärmt. Daher kann dieser äußere Bereich auch berührt werden. Der Luftspeicher zwischen den beiden Tontöpfen bewirkt, dass die warme Luft nicht ungehindert in den Raum entweichen kann.

Teelichtofen: Konvektionswärme und Strahlungswärme

Durch das Anzünden der Kerzen erwärmt sich die Oberfläche der Tontöpfe. Die Konvektionswärme sorgt dafür, dass die angenehme Temperatur langsam an die Umgebung abgegeben wird. Warme Luft ist leichter als kalte Luft. Daher steigt sie langsam auf. Der kühlere Luftstrom fließt nach. So entsteht ein Kreislauf. Dieser bewirkt, dass der Raum langsam wärmer wird.

Teelichter brauchen Sauerstoff, damit sie brennen können. Deshalb muss zwischen dem Teller ein Spalt offen stehen. Diesen Bereich nutzen die Flammen, um Frischluft anzusaugen. Gleichzeitig wird durch diesen Spalt Wärme direkt an die Umgebung abgestrahlt. Die kühlere Frischluft wird durch die Teelichter angesaugt. Die warme Luft wird gleichzeitig abgestrahlt. So wird mit den Teelichtern zusätzlich Strahlungswärme erzeugt.

Teelichtofen: Wärmeleistung

Ein gewöhnliches Teelicht kann zwischen drei und vier Stunden brennen. Während dieser Zeit entwickelt jedes Licht eine Leistung von 40 Watt. Werden vier Teelichter aufgestellt, haben sie eine Gesamtleistung von 160 Watt. Verglichen mit einer herkömmlichen Heizung ist diese Leistung sehr gering. Neben der messbaren Wärme wird aber auch Strahlungswärme angegeben. Nach etwa 20 Minuten ist diese für die Personen in der Nähe des Teelichtofens deutlich spürbar. Sie sorgt dafür, dass sich die subjektive Empfindung ändert. Die Einstellung der regulären Heizung wird reduziert. Dadurch kann Energie eingespart werden. Werden mehrere Teelichtöfen aufgestellt, können sie auf diese Weise in der Übergangszeit für die gewünschte Wärme sorgen.

Siehe: Wie gefährlich ist ein Teelichtofen? Risiken, Gefahr

Sauerstoffzufuhr:

Jedes Feuer verbrennt Sauerstoff. Der CO² Gehalt in dem Raum wird dadurch langsam höher. Wenn mehrere Teelichter oder andere Kerzen angezündet werden, ist daher immer auf eine ausreichende Sauerstoffzufuhr im Wohnbereich zu sorgen. Ähnlich wie beim offenen Holzofen oder Kamin ziehen die Flammen diesen Anteil der Luft zu sich. Eine zu geringe Menge an Frischluft kann dazu führen, dass die anwesenden Personen langsam eindämmern und dann ganz einschlafen. Dies kann im schlimmste Fall den Erstickungstod verursachen. Wo immer ein Teelichtofen betrieben wird, sollte stets ausreichend für Frischluft gesorgt werden. Ist dieser vollständig aufgebraucht, erlöschen die Kerzen.

Die unterschiedlichen Modelle von Teelichtöfen sorgen dafür, dass die Wärme an verschiedenen Stellen genutzt werden kann. Die Temperatur kann in der Nähe bis zu 50 °C betragen. Kleine Räume oder der Platz rund um einen Tisch können auf diese Weise für ein paar Stunden beheizt werden.

Ist ein Teelichtofen gefährlich? Risiken, Gefahr, Erklärung


Teelichtöfen können bei einer falschen Konstruktion und einer falschen Verwendung gefährlich sein. Die Verwendung von offenem Feuer bringt Risiken mit sich, die leicht unterschätzt werden können. Teelichtöfen können Haus- bzw. Wohnungsbrände verursachen, wenn gewisse Sicherheitsmaßnahmen nicht berücksichtigt werden.

Bei einem verantwortungsvollen Umgang mit Teelichtöfen ist das Risiko einer Brandentwicklung gering. Sonstige Gesundheits- oder Sicherheitsrisiken sind eher gering.

Wie kann es durch Teelichtöfen zu Bränden kommen?

Es gibt zwei grundlegende Mechanismen, wie es zu Bränden durch Teelichtöfen kommen kann. Die Teelichter können umliegende Materialien entfachen, wenn die Konstruktion zu dicht an brennbaren Gegenständen steht. Ein typischer Fall wäre es, wenn das Feuer bei einem Teelichtofen auf dem Fensterbrett auf die Gardinen überspringt und einen unkontrollierbaren Brand verursacht. Das Feuer kann dabei durch direkten Kontakt der Flamme oder indirekt durch die Hitzeentwicklung am Teelichtofen entstehen. Dieser Gefahr kann vorgebeugt werden, indem der Teelichtofen korrekt aufgestellt wird. Dabei ist ein Sicherheitsabstand zu allen brennbaren Materialien notwendig. Außerdem sollte ein Teelichtofen, wie alle Kerzen, niemals unbeaufsichtigt gelassen werden. Bevor das Zimmer oder sogar die Wohnung verlassen werden, sind alle Teelichter zu löschen.

Die zweite, unbekanntere Gefahr droht das Phänomen des Wachsbrandes.

Siehe: Wie funktioniert ein Teelichtofen? Was passiert physikalisch?

Was ist ein Wachsbrand?

Kerzenwachs kann sich ab bestimmten Temperaturen selbst entzünden. Dabei brennt das Teelicht nicht mehr über den Docht ab, sondern steht plötzlich komplett in Flammen. Dabei entsteht eine beeindruckende Stichflamme, die wiederum zu Brandschäden in der Wohnung, Verletzungen oder zu einem sich ausbreitenden Wohnungsbrand führen kann.

Wachs ist chemisch mit Fetten und Ölen verwandt. Ein Wachsbrand kann, genau wie ein Fettbrand in der Küche, nicht mit Wasser gelöscht werden. Für das Löschen eines Wachsbrandes ist ein Feuerlöscher (Klasse F) oder eine geeignete Löschdecke erforderlich.

Die Temperatur, ab der sich das Wachs entzündet, hängt von der chemischen Zusammensetzung des spezifischen Teelichts ab. Bio-Teelichter auf Rapsöl-Basis sind ab etwa 300 °C entzündlich.

Wie kann ein Wachsbrand verhindert werden?

Um Wachsbrände auszuschließen, darf die Temperatur im Teelichtofen nicht zu hoch steigen. Deswegen ist es empfehlenswert, einen ausreichenden Abstand zwischen den Teelichtern und dem darüberliegenden Blumentopf einzuhalten. Bei der Konstruktion von Teelichtöfen sollte auf erprobte, sichere Baupläne zurückgegriffen werden.
Um die Hitzeentwicklung zusätzlich zu begrenzen, sollte ein Teelichtofen nicht mit zu vielen Teelichtern betrieben werden. Die genau Maximal-Anzahl ist von der Größe des Teelichtsofens abhängig, aber ein ausreichender Abstand zwischen den Teelichtern muss gewährleistet sein.

Gefahren für Kinder und Haustiere

Bei der Anwesenheit von Kindern und Haustieren gelten für Teelichtöfen dieselben Gefahren wie bei normalen Kerzen oder Holzöfen. Kinder und Haustiere dürfen niemals unbeaufsichtigt mit einem Teelichtofen zurückgelassen werden. Mögliche Gefahren sind etwa Verbrennungen und Brände durch ungewolltes Umwerfen des Teelichofens.

Der Teelichtofen sollte nicht an Orten aufgestellt werden, die für Kinder erreichbar sind. Einige beliebte Orte für Teelichtöfen, etwa Fensterbänke, sind zudem bevorzugte Aufenthaltsorte von Katzen.

Es ist zu beachten, dass nicht nur von den Teelichtern selbst eine Verbrennungsgefahr ausgeht. Auch am Ton des Blumentopfs entstehen Temperaturen, die zu Verletzungen führen können.

Kann es durch Teelichtöfen zu Kohlenstoffmonoxid-Vergiftungen kommen?

Bei allen Verbrennungsreaktionen entsteht Kohlenstoffmonoxid als Nebenprodukt. Kohlenstoffmonoxid wird nach dem Einatmen anstelle von Sauerstoff an die roten Blutkörperchen gebunden und führt zu einer inneren Erstickung. Das Gas ist geruchlos und kann nicht erkannt werden. Deswegen ist bei Holzöfen eine Wartung durch den Schornsteinfeger vorgeschrieben.

Auch bei Teelichtöfen wird Kohlenstoffmonoxid produziert. Normalerweise ist dies aber unbedenklich, da die Menge nur sehr klein ist. Durch reguläres Lüften und etwas Durchzug in der Wohnungsluft wird das Kohlenstoffmonoxid zerstreut und kann keine Schäden verursachen.
Trotzdem sollte die Gefahr nicht vernachlässigt werden. Wenn ein Teelichtofen betrieben wird, muss die Wohnung regelmäßig gelüftet werden. Dabei ist eine Stoßlüftung mit der Öffnung mehrerer Fenster empfehlenswert. Es dürfen zudem nicht zu viele Teelichtöfen gleichzeitig betrieben werden. Dies gilt besonders für kleinere, gut isolierte Räume.

Wie gefährlich sind Teelichtöfen also allgemein?

Teelichtöfen bringen einige Gefahren mit sich. Unfälle entstehen aber nur bei der Missachtung von einfachen Sicherheitsmaßnahmen. Bei einem verantwortungs- und maßvollen Umgang mit Teelichtöfen sind die Gefahren gering.

Warum hat der Kochlöffel ein Loch? Erklärung


Auch wenn dies längst nicht bei jedem Kochlöffel der Fall ist, werden heutzutage die meisten Kochlöffel serienmäßig mit einem Loch in der Mitte, der Laffe (korrekter Ausdruck für die Rührfläche), hergestellt.

Fachlich richtig wird diese Art von Löffel auch Rührlöffel oder Lochkelle genannt. In Italien wird ein Kochlöffel mit einem solchen Loch als Risottorührer bezeichnet und wird dementsprechend für das Rühren von Risottogerichten genutzt. Es ist nicht zu hundert Prozent bewiesen, doch mit hoher Wahrscheinlichkeit wurde der Kochlöffel mit dem Loch so, wie er heute ist, in Italien erfunden.

Loch als Aussparung für einen geringeren Widerstand beim Rühren

Gerade bei Reisgerichten wie Risotto ist das regelmäßige Rühren anstrengender mit einem Löffel ohne Aussparung. Es erfordert viel Kraft, je dicker oder zäher ein Gericht oder eine Masse ist. Durch das Loch in der Laffe entsteht ein geringerer physischer Widerstand bei gleichem Effekt, was das Umrühren vereinfacht und auch einen gewissen Klebeeffekt der Speisen am Löffel reduziert. Auch bei manchen Eintöpfen oder besonders zähen Massen wie Teig oder Kartoffelpüree erfordert das permanente Rühren viel physische Energie, die durch das Loch in der Laffe eingespart wird. Es wird davon ausgegangen, dass dies der Hauptgrund für das Produktdesign einer Lochkelle ist. Es gibt jedoch einige weitere Vorteile der Aussparung.

Nebeneffekte des Loches

Komfortableres Herausnehmen von größeren Stücken:

Ein weiterer Vorteil einer Lochkelle bzw. eines Löffels mit Loch in der Laffe ist, dass das Herausnehmen größerer Stücke besser funktioniert. Wenn jemand zum Beispiel ein Stück Kartoffel oder Zwiebel aus einem Eintopf herausnimmt, bleibt dieses Stück besser auf dem Loch liegen, als auf einem normal geformten Kochlöffel. Bei Letzterem neigt das betroffene Stück Inhalt eher dazu, abzurutschen und es ist schlechter greifbar.

Flüssigkeit kann leichter abfließen:

Ein Nebeneffekt, und auch der Grund, warum es den mit der Lochkelle verwandten Schlitzlöffel gibt, ist folgender: Flüssigkeiten in Speisen, die mit dem Rührlöffel herausgenommen werden, fließen ab.

Der soeben genannte Schlitzlöffel hat sogar allein diesen Zweck. Es ist ein Löffel mit länglicherer, nicht ganz runder Laffe, die mehrere Schlitze in der Mitte aufweist. Dies ist bei vielen Nudel- oder Fleischgerichten praktisch. Der Schlitzlöffel ist größer als ein üblicher Rührlöffel, was sowohl die Laffe, als auch den Stiel betrifft.

Spaghetti-Löffel

Eng verwandt mit der Lochkelle ist der Spaghetti-Löffel, der ebenfalls ein Loch in der Mitte hat. Hierbei lassen sich die Spaghetti nach dem Kochen leichter mit einer dicken Soße verrühren.

Beim Herausnehmen der Spaghetti aus dem Kochtopf wird durch die kellenartige Form vereinfacht und das Wasser fließt durch das Loch leichter ab.

Zu guter Letzt sind die Löcher in Spaghetti-Löffeln so genormt, dass der Durchmesser einer Portion getrockneter Spaghetti genau hindurchpasst. So lassen sich die Nudeln im Voraus leicht portionieren.

Spitz zulaufende Ecke

Der Kochlöffel mit Loch oder die Lochkelle hat in den meisten Fällen zusätzlich eine einzelne spitz zulaufende Ecke. Diese ist dazu da, durch den entstandenen rechten Winkel mit dem Löffel besser an den Topfboden heranzukommen. So ist es einfacher, auch den unten liegenden Inhalt leichter aus dem Topf kratzen zu können.

Was ist ein „Luser“? Bedeutung, Definition, Erklärung


Luser ist ein englischer Begriff, der einen laienhaften Computerbenutzer bezeichnet. Dabei handelt es sich um ein Schachtelwort, welches sich aus den beiden englischen Wörtern „Loser“ (Verlierer) und „User“ (Benutzer) zusammensetzt.

Die Entstehung des Begriffs Luser

Das Wort Luser trat erstmals Ende der 60er-Jahre in Verbindung mit einem CTSS-Quellcode in Erscheinung. Richtig Fahrt auf nahm das englische Kofferwort am MIT (Massachusetts Institute of Technology) Mitte der 70er-Jahre.

Ein Nutzer lies sich damals unter ITS mittels der Tastenkombination Control-Z detaillierte Informationen ausdrucken. Darunter war die Zahl der Nutzer, welche den Computer benutzten, zu sehen. Aus Spaß wurde ein Patch geschrieben, welches die Bezeichnung „User“ auf „Loser“ abänderte. Wurden nun die Statusinformationen eines Computers von einer Person ausgedruckt, bekam diese beispielsweise 8 Verlierer statt 8 Benutzer zu sehen.

Die Bezeichnung Loser (Verlierer) stieß jedoch auf Widerstand und war nicht von jedem gern gesehen, wodurch der Begriff Luser entstand.

Von wem heute der Begriff Luser hauptsächlich genutzt wird

Vielfach verwendet wird Luser von Hackern. Für Hacker ist ein jeder „normale“ Computerbenutzer ein Luser. Dabei spielt es keine Rolle, ob es sich um einen Neuling handelt oder um jemanden, der zwar im Umgang mit Windows oder anderen Betriebssystemen geübt ist, allerdings keine oder kaum Erfahrung mit den verschiedenen Programmiersprachen hat.

Auch von Systemadministratoren werden Personen mit normalen Benutzerkonten mitunter als Luser bezeichnet. Dies gilt für jede Person, die keinen Zugriff auf die Systemverwaltung hat und aufgrund mangelnder Erfahrung auch nicht haben sollte. Unerfahrene Kunden werden daher von technischen Supportmitarbeitern oft als Luser bezeichnet.

Häufig verwendet wird der Begriff Luser auch bei Personen, die stetig dieselben Fragen in Bezug auf Computer-Befehle stellen. Wenn eine Person trotz mehrmaliger Hilfestellung nicht mit seinem Computer zurechtkommt, dann wird diese gerne als Luser bezeichnet.

Beispiele für einen Luser

Eine Person, die sich mit einem Programm oder einem System nicht zurechtfindet und auch nicht geschult ist. Beispielsweise werden Computerbenutzer als Luser bezeichnet, welche sich beschweren, dass die eingegebenen Daten bei einem System nicht gespeichert wurden. Gleichzeitig hat sich der Computerbenutzer nicht beim Support informiert oder es auch nach einer Anfrage beim Support nicht verstanden, dass es einen Button zum Abspeichern der Daten gibt.

Als Luser können jedoch auch Personen bezeichnet werden, die eine eigenwillige oder spezielle Einstellung zum Internet haben. Verwendet wird der englischsprachige Begriff auch, wenn ein Betriebssystem wie Windows genutzt wird.

Windows 95 sorgte für starken Aufschwung des Begriffs Luser

In den 80er-Jahren konnten Computer nur von jenen richtig bedient werden, die eine Schulung absolviert oder sich das Hintergrundwissen selbst mühsam angeeignet haben. Erst mit Windows 95 kam die Zeit, als auch völlig unerfahrene Benutzer einen Computer bedienen konnten. Dadurch stieg die Zahl unqualifizierter Anwender, wodurch der Begriff Luser von qualifizierten Nutzern noch häufiger verwendet wurde.

Luser – Wörter mit ähnlicher Bedeutung

Oft wird als Synonym für Luser auch DAU verwendet. DAU steht für „dümmste anzunehmende User“.

Teilweise wird auch da Kürzel LART genutzt. LART ist die Abkürzung für „Luser Attitude Readjustment Tool“. Hierbei handelt es sich um ein Werkzeug, durch das die Luser-Einstellung neu ausgerichtet wird. Das kann ein Programm sein, mit dem zuvor falsche Einstellungen des Lusers wieder rückgängig gemacht und richtige Einstellungen vorgenommen werden.

Weitere Wörter für Luser sind zudem Luzer oder Luzzer.

Was ist Stacking Sats? Bedeutung, Definition, Erklärung


Was bedeutet der Begriff Stacking Sats? Oft findet man den Begriff Stacking Sats in den Bitcoin Foren. Auch bei Twitter wird der Hashtag #StackingSats oft verwendet. Viele Menschen, die Bitcoin nicht kennen oder Bitcoin Anfänger sind, können mit dem Begriff aber nichts anfangen.

Stacking Sats: Definition, Bedeutung, Erklärung

Die Nutzer von Bitcoin bezeichnen mit Stacking Sats eine Anhäufung (Akkumulation) von Bitcoin (BTC). Diese Anhäufung entsteht, indem der Nutzer BTC kauft und so Geld verdient.
Das Wort Sats steht für Satoshis. Dies ist die kleinste Einheit des Bitcoins.

Angeblich wurde der Begriff Stacking Stats erstmalig auf Twitter benutzt. Damals verwendete der User @CryptoGod112358 diesen Hashtag. Diese Bezeichnung wurde dann von anderen einflussreichen Influencern wie Jack Dorsey adaptiert. Dorsey ist ein bekannter Twitter-CEO.

Er postete einen Screenshot von seinem Bitcoinkauf und setzte unter das Foto den Hashtag #stackingsats. Im Urban Dictionary ist der Begriff mittlerweile auch zu finden. Im Laufe der Zeit lohnt sich das Anhäufen von Satoshis (Sats) auch. Selbst kleine Ansammlungen können aufgrund des zukünftigen Wertes später einmal sehr nützlich sein.

Wann kann der Begriff Stacking Sats verwendet werden?

Der Begriff kann immer verwendet werden, wenn ein Käufer neue Satoshi kauft, tauscht oder einen Gewinn erzielt. Jede kleine Anhäufung und jede kleine Steigerung des Bestandes kann mit dem Begriff beschrieben werden.

Was ist Sats? Wieviel Bitcoin ist ein Satoshi?

Sats ist die Abkürzung von Satoshi. Satoshi ist die kleinste Einheit von Bitcoin. Satoshi Nakamoto erfand Bitcoin im Jahre 2008. Damals veröffentlichte er das Bitcoin-White-Paper. 2009 erschien die erste Version der Referenzimplementierung Bitcoin Core.

Der Name Satoshi Nakamoto ist ein Pseudonym. Seit 2008 wurden verschiedene Personen für Satoshi gehalten. Satoshi Nakamoto legte folgenden Wert fest: 1 Satoshi sind 0.00000001 BTC. Also besteht 1 Bitcoin aus 100 Millionen Satoshis.

Seitdem es Käufern schwerer fällt, einen ganzen Bitcoin zu kaufen, gewinnen die Satoshis zunehmend an Relevanz. Die Preise für den Bitcoin steigen und daher sind Bitcoins nicht mehr so einfach erhältlich.

Satoshi und Euro

Satsoshi können auch in Euro umgerechnet werden. Bei einem Preis von 8000 Euro pro Bitcoin wäre 1 Satoshi (bzw. 0.00000001 BTC) ungefähr 0,008 Cent wert. Der aktuelle Preis des Bitcoins muss durch 100 Millionen dividiert werden. So wird der Preis pro Satoshi in Euro berechnet.

Experten vermuten, dass in der Zukunft der BTC eine Million Euro wert sein könnte, dann würden auch die Satoshis teurer werden. Falls der BTC einmal wirklich eine Million Euro wert sein sollte, dann wird ein Satoshi den Wert von 0,1 Cent haben. Der Bitcoin Preis lag am 06.11.2022 bei 21370,09 Euro.

Bitcoin und Sats kaufen

Viele Menschen glauben inzwischen an den Wertzuwachs von Sats und versuchen daher, Sats anzuhäufen. Bitcoins oder Sats sind auf Bitcoin Plattformen erhältlich. Anleger und Bitcoin Interessierte können sich über die besten Plattformen und Wallets informieren. Es gibt verschiedene Möglichkeiten, Sats günstig zu erwerben und sicher zu verwahren.

Das Wiener Unternehmen Bitpanda ist inzwischen eine der führenden Kryptobörsen in ganz Europa. Die Zahlen sind erstaunlich. Inzwischen wird der Wert des Unternehmens auf über 4 Billionen Dollar geschätzt. Auf Bitpanda sind mehr über 3 Millionen Anleger und Kryptoinvestoren angemeldet. Die weltweit größte Plattform für Krypto ist aber eToro. Auch Coinbase ist eine riesige Plattform mit vielen Millionen von Anlegern.

Was ist Dark Data? Bedeutung, Definition, Erklärung


Unter Dark Data versteht man Datenmengen und Datenflüsse, die in der täglichen Kommunikation zwischen Unternehmern und Endbenutzern zwar abgefragt und gespeichert werden, tatsächlich aber niemals von den Systemen dahinter verwertet werden. Es ist eine Art von blinder Masse, die bei der Datenverarbeitung anfällt und auf den Systemen bleibt, aber aus unterschiedlichsten Gründen nicht in die nachfolgenden Prozesse eingebunden wird. Schuld daran ist in der Regel die schiere Menge an Daten, die derzeit bei digitalen Prozessen erhoben wird. Technische Aspekte machen es zwar notwendig, dass auch die Dark Data erfasst wird, verarbeitet wird sie aber nicht und nur die wenigsten Unternehmen und Behörden sind sich der Existenz der Dark Data überhaupt im größeren Maße bewusst.

Unterschiedliche Szenarien für die Existenz von Dark Data

Generell kann Dark Data in ganz unterschiedlichen Formen auf Systemen vorliegen und auch aus ganz verschiedenen Gründen überhaupt erzeugt werden. Mit der Zunahme von Digitalisierungsprozessen und der allgemeinen digitalen Kommunikation begann auch die umfassende Speicherung eben dieser Daten und Dateien. Dabei geht es sowohl um die Interaktion zwischen Endbenutzer und System – in diesem Fall beispielsweise ein Kunde und das Unternehmen dahinter – aber auch um die Daten, die durch automatisierte Prozesse anfallen und im Hintergrund gespeichert werden. Alleine das Prinzip Big Data sorgt heute dafür, dass jedes Unternehmen Gigabytes bis Terrabytes an Daten jeden Tag auf den eigenen Systemen speichert. Während manche weiterverwendet und andere nach kurzer Zeit gelöscht werden, gibt es durchaus die sogenannte Dark Data, die vollkommen ungenutzt weiterhin auf dem System verbleibt.

Wann genau nun Dark Data entsteht ist in der Regel von der Infrastruktur des Systems abhängig. Es gibt Dark Data, die beispielsweise dadurch entstanden ist, dass sie einfach auf dem System vergessen wurde. Das kann durch inkorrekte Auswertungsprozesse passiert sein oder weil sich zu diesem Zeitpunkt noch kein tieferer Zweck für genau diesen Datensatz ergeben hat. Es gibt darüber hinaus Informationen, die einfach nicht brauchbar sind. Sie sind beispielsweise beschädigt oder liegen in einem Format vor, das für die eigenen internen Prozesse nicht brauchbar ist. Auch veraltete Daten sind nicht selten noch lange auf den Systemen zu finden und fallen irgendwann in die Kategorie von Dark Data, da sie in Vergessenheit geraten und nicht in die Prozesse eingebunden werden.

Die möglichen Folgen und Potentiale von Dark Data

Dass Daten im Zeitalter des Internets zu einer der wichtigen Währungen überhaupt geworden sind, beweisen nicht nur die sozialen Netzwerke und Advertiser Tag für Tag. Eine intelligente und vor allem zielgeführte Auswertung von allen Daten auf dem eigenen System ist wichtig – nicht nur um Prozesse zu optimieren, sondern auch um möglichst viel von den Menschen zu erfahren, mit denen das eigene System interagiert. Nun können Daten im Laufe der Zeit wieder interessanter werden. Vielleicht entwickelt man einen Prozess, mit den die bisherigen Datenreste oder falschen Formate doch noch ausgewertet und in die Datenbasis überführt werden können. Oder es entsteht ein neuer Trend, für den man eine ganz bestimmte Form von Daten benötigt, die bisher nicht genutzt wurde, aber in umfassender Form auf den Systemen vorhanden ist.

Gleichzeitig entstehen natürlich auch sicherheitsrelevante und nicht zuletzt datenschutzrechtliche Probleme mit Dark Data. In Europa sind Unternehmen generell zur Datensparsamkeit angehalten. Sie sollen nur Daten von Kunden und Nutzern speichern, die direkt weiterverarbeitet und für eigene Prozesse genutzt werden können. Liegen nun größere Mengen an Dark Data auf dem System, bei dem man nicht einmal genau weiß, was sie eigentlich beinhaltet, könnte das bei einem Sicherheitsleck zu einem Problem werden. Dazu kommen die Kosten für die Speicherung, die bei einer beständigen Zunahme der Datenmenge auch mittelfristig zu einem Problem werden können. Unternehmen müssen sich daher damit beschäftigen, was sie mit dieser dunklen Masse an Daten in ihrem eigenen System machen wollen.

Was bedeutet „Fediverse“? Was ist das? Bedeutung, Definition, Erklärung


Die sozialen Medien sind zentralisiert. Der Zugang zu großen Datenmengen ist zwar eine große Hilfe für Unternehmen, die ihre Produkte verbessern wollen, aber die Zentralisierung hat ihren Preis. Zentralisierte Dienste sind ein Angriffsziel für Hacker. Anfang Oktober 2021 kam es z.B. auf Amazons Streaming-Plattform Twitch zu einer großen Datenpanne, die es Hackern ermöglichte, eine große Menge an sensiblen Daten zu veröffentlichen.

Zentralisierte Anwendungen erleichtern es den Unternehmen auch, ihre Macht auszuüben. Ein großer Teil der heutigen Webkultur verlässt sich auf Unternehmen wie Meta und Google, um alle Ihre Inhalte zu speichern. Diese Tech-Giganten sind auf nutzergenerierte Inhalte angewiesen, um Gewinne zu erzielen, und nutzen oft die Privatsphäre der Nutzer aus, um ihre Gewinne weiter zu steigern.

Fediverse hofft, das Problem der zentralisierten sozialen Medien zu lösen. Föderierte Social-Media-Plattformen ermöglichen es den Nutzern, Inhalte ins Netz zu stellen, ohne dabei auf große Unternehmen angewiesen zu sein. Mit Fediverse kann man endlich sein eigenes Facebook erstellen.

Was ist das Fediverse? Bedeutung, Definition, Erklärung

Fediverse bezieht sich auf ein Netzwerk von miteinander verbundenen Servern, die für Web-Publishing und File-Hosting verwendet werden. Diese Server kommunizieren untereinander über einen offenen Standard. Fediverse-Anwendungen werden in der Regel als die bessere Alternative zu zentralisierten Anwendungen wie Twitter, Facebook oder YouTube dargestellt.

Die Microblogging-Plattform Mastodon beispielsweise verfügt über ähnliche Funktionen wie Twitter, funktioniert aber ganz anders als diese. Während Twitter sich auf einen zentralen, vom Unternehmen betriebenen Server stützt, besteht Mastodon aus mehreren über die ganze Welt verteilten Servern.

Jeder Server kann seine eigenen Regeln und Kontoprivilegien haben. Da die Zahl der Anwendungen auf fediverse von Jahr zu Jahr wächst, können Websites wie fediverse.party und fediverse.space den Nutzern helfen, die verschiedenen Plattformen zu erkunden.

Um zu verstehen, was Fediverse tut, muss man zunächst die Bedeutung des Namens aufschlüsseln. Fediverse steht für föderiertes Universum und konzentriert sich, wie der Name schon sagt, auf das Konzept der Föderation.

Wie funktioniert Fediverse?

Jeder Fediverse-Server hat seine eigenen Regeln, Konten und Gemeinschaften. Inwiefern unterscheidet sich dies von der aktuellen Landschaft von TikTok, Twitter und Instagram?

Wenn ein Benutzer ein Twitter-Konto hat, kann er nur anderen Twitter-Konten folgen. Aber wenn man ein Konto bei Fediverse hat, kann man jedem anderen Konto in jeder anderen App folgen. Man kann zum Beispiel ein Konto auf mastodon.social haben und Konten auf anderen Instanzen wie hackers.town folgen, ohne dort ein Konto erstellen zu müssen.

Wie ist das möglich? Jede Fediverse-Plattform verwendet ein als ActivityPub bekanntes Protokoll, um miteinander zu kommunizieren. Ähnlich wie E-Mail auf dem SMTP-Protokoll basiert, um Nachrichten an verschiedene Server zu senden und von ihnen zu empfangen, stützt sich Fediverse auf ActivityPub, um Nutzern verschiedener Plattformen die Interaktion miteinander zu ermöglichen.

Was ist ActivityPub?

ActivityPub umfasst eine große Anzahl von Aktionen, darunter die Veröffentlichung von Inhalten, Folgeanfragen, Nachrichten und vieles mehr. Ein ActivityPub-Objekt liegt im JSON-Format vor und enthält mehrere Felder.

Jedes ActivityPub-Objekt muss einen Typ und eine ID haben. Die id ist eine eindeutige URL, in der alle Metadaten der Nachricht gespeichert sind. Benutzer können eine GET-Anfrage an die eindeutige URL stellen, um alle mit diesem Objekt verbundenen Daten abzurufen.

ActivityPub definiert auch verschiedene Akteursobjekte wie Person, Gruppe, Organisation, Anwendung und Dienst. Jeder Akteur benötigt außerdem zwei Eigenschaften: einen Posteingang und einen Postausgang.

Warum sollten soziale Medien dezentralisiert werden?

Privatsphäre und Eigentum:

Die Dezentralisierung ermöglicht es den Nutzern, wirklich Eigentümer ihrer Daten zu sein. Einheitliche Plattformen ermöglichen es den Nutzern, alle ihre Daten herunterzuladen oder zu löschen. Standardmäßig verkaufen diese Plattformen niemals personenbezogene Daten an Werbeplattformen oder Data-Mining-Initiativen.

Datenschutz:

Fediverse-Anwendungen sind theoretisch auch sicherer. Anstatt dass ein Nutzer seine Daten einer zentralisierten Social-Media-Plattform wie Facebook anvertraut, vertraut er seine Daten einer verschlüsselten Open-Source-Instanz an. United Social Networks setzt auf Public-Key-Kryptographie für die Kontosicherheit.

Freie Rede:

Jede Instanz auf Plattformen wie Mastodon hat ihre eigenen Moderationsregeln. Nutzer, die ein offenes Ventil für ihre Gedanken finden wollen, können wählen, welchen Instanzen sie beitreten möchten.

Software-Beispiele von Fediverse

Mastodon: Mastodon ist die bisher beliebteste App auf Fediverse. Die App ist eine Open-Source-Microblogging-Plattform, die aus einer großen Anzahl von Mastodon-Knoten besteht. Sie wurde 2016 erstmals veröffentlicht und hat inzwischen über 3 Millionen Nutzer. Die Popularität von Mastodon hat weiter zugenommen, als die Spannungen wegen der Übernahme von Twitter durch den Tesla-Gründer Elon Musk Anfang April dieses Jahres zunahmen.

PeerTube: PeerTube ist eine dezentralisierte Open-Source-Video-Plattform, die von ActivityPub unterstützt wird. Jede Instanz von PeerTube verfügt über eine Website-Schnittstelle, auf der die Nutzer Videos durchsuchen und ansehen können. Die Videos werden mit der WebTorrent-Technologie ausgeführt. Jeder Server hostet seinen eigenen Torrent-Tracker und teilt die Last des Video-Hostings zwischen dem Server selbst und den Clients. Jeder PeerTube-Server kann sich mit anderen Servern zusammenschließen, damit die Nutzer das gleiche Video ansehen können. Dies könnte es PeerTube ermöglichen, Millionen von Videos zu hosten, ohne die Infrastruktur zu benötigen, die ein milliardenschweres Unternehmen wie Google verwendet.

Owncast: Owncast ist ein selbst gehosteter Live-Video- und Web-Chat-Server, der als Alternative zu Live-Streaming-Plattformen wie Twitch genutzt werden kann.

Fazit

Das Misstrauen gegenüber Technologiemonopolen nimmt in der Gesellschaft weiter zu. Plattformen wie Facebook und YouTube nutzen weiterhin proprietäre Algorithmen und Data-Mining-Techniken, um ihre Nutzer auszunutzen. Diese Plattformen haben auch an Attraktivität für Nutzer verloren, die es vorziehen, Inhalte ohne Angst vor Verbot oder Zensur zu veröffentlichen.

Obwohl Fediverse seit fast einem Jahrzehnt existiert, bleibt abzuwarten, ob die breite Öffentlichkeit genügend Anreiz hat, dorthin zu ziehen.

Unterschiede zwischen Zwetschgen und Pflaumen: Erklärung


Die Pflaume, Prunus domestica, ist eine Pflanzenart aus der Familie der Rosengewächse, die Zwetschge, Prunus domestica subsp. domestica, ist eine Unterart der Pflaumen. Das bedeutet, dass jede Zwetschge zwar eine Pflaume, aber nicht jede Pflaume eine Zwetschge ist.

Die Pflaume wird als die Mutter aller Sorten der Pflanzenart Prunus domestica bezeichnet und ist eine Kulturpflanze aus Asien. Der Übergang zwischen Pflaumen und Zwetschgen ist fließend, und zwar deshalb, weil die Früchte gekreuzt werden. Dennoch gibt es feine Unterschiede zwischen Pflaumen und Zwetschgen.

Vegetative Unterschiede zwischen Zwetschgen und Pflaumen

Pflaumenbäume erreichen eine Wuchshöhe von sechs bis zehn Metern. Es gibt selbstfruchtbare sowie selbstunfruchtbare Sorten. Fremdbestäubte Bäume erzielen einen höheren Ertrag. Pflaumenbäume blühen von März bis Mai und die Früchte reifen je nach Sorte von Juli bis Oktober.

Zwetschgenbäume erreichen eine Wuchshöhe von sechs Metern und werden selten höher. Der Zwetschgenbaum hat kleine grünlich-weiße Blüten, die zugleich mit den Blättern, meistens im April, erscheinen.

Früchte der Zwetschgen und Pflaumen

Pflaumen sind rundlicher und größer als Zwetschgen. Pflaumen haben eine grüne, gelbe oder rote Farbe, während die kleineren sowie schmäleren Zwetschgen blau- beziehungsweise violett sind. Pflaumen schmecken süß, nur selten leicht säuerlich und das Fruchtfleisch lässt sich schwer vom Stein lösen. Eine Ausnahme bildet die meist gelbe Pflaume, die Mirabelle. Bei dieser Pflaumensorte lässt sich der Stein genauso leicht wie bei der Zwetschge entfernen. Pflaumen sind saftiger als Zwetschgen.

Die eher ovalen Zwetschgen haben ein festes bis weiches, gelbliches Fruchtfleisch, das sich leicht vom Stein lösen lässt. Wie die Pflaume schmeckt auch die Zwetschge süß, jedoch häufiger leicht säuerlich und ist von August bis Oktober genussreif. Zwetschgen dürfen nicht grün gepflückt werden, weil sie nicht nachreifen.

Das Fruchtfleisch der Pflaumen ist fester als das der Zwetschgen. Dennoch zerfällt es beim Kochen, weshalb Pflaumen für die Herstellung von Konfitüre, Mus, Chutney, Crumble oder Saft bestens geeignet sind. Zwetschgen behalten hingegen bei der Verarbeitung größtenteils ihre Form und werden deshalb hauptsächlich zum Backen von Torten, Kuchen und Strudeln verwendet.

Markante Unterschiede und Gemeinsamkeiten: Zwetschgen und Pflaumen

Neben Form und Farbe lassen sich Pflaumen und Zwetschgen an der Bauchnaht unterscheiden. Pflaumen haben eine ausgeprägte Bauchnaht, Zwetschgen verfügen über keine Bauchnaht. Das gemeinsame Prunus-Qualitätsmerkmal ist der Duftfilm. Es handelt sich um einen feinen, weißen Überzug, der auch bei Weintrauben zu sehen ist. Fälschlicherweise wird oft angenommen, dass es sich bei diesem Überzug um Pestizide handelt, doch der Überzug schützt die Früchte vor Austrocknung und entsteht durch Kondenswasser.

Deshalb sollte der Duftfilm erst kurz vor dem Verzehr oder der Verarbeitung der Früchte entfernt werden. In der Regel reicht es aus, die Früchte mit einem Küchentuch zu polieren. Nur wenn sich der Überzug nicht entfernen lässt, werden die Zwetschgen oder Pflaumen mit einem feuchten Tuch gereinigt. Entfernt werden sollte der Duftfilm auf jeden Fall, er könnte durch die Luft oder den Regen verunreinigt sein.

Gesunde Inhaltsstoffe von Zwetschgen und Pflaumen

Sowohl die Pflaumen als auch die Zwetschgen enthalten wertvolle Inhaltsstoffe. Die Früchte sind reich an Vitaminen, vor allem Vitamin A, C, K und E. Außerdem enthalten die Früchte Spurenelemente, wie Kupfer und Zink und Ballaststoffe. 100 Gramm Pflaumen haben 47 Kalorien, bei den Zwetschgen sind es 43 Kalorien.

Was ist ökologische Amnesie (Generationsamnesie, Umweltamnesie)? Bedeutung, Definition, Erklärung


Ökologische Amnesie (Generationsamnesie, Umweltamnesie) einfach erklärt:

Als „ökologische Amnesie“ wird der Umstand bezeichnet, dass man die Natur, die man in seiner Kindheit erlebt hat, als Norm empfindet. Mit dieser Norm wird die Natur, die man im späteren Leben erlebt, verglichen. Jedoch ist dies eine zu kurzfristige und eingeschränkte Beobachtung für eine gute Aussage über den Zustand der Natur.

Wer z.B. in seiner Kindheit viel Großstadtsmog und „blaue Wolken“ aus Autos erlebt hat, wird sagen, dass es der Natur heute besser geht. Denn der Großstadtsmog ist an den meisten Orten weg und verbleites Benzin ist verboten. Doch zu meinen, dass es der Natur deswegen besser geht, ist ein Fehlschluss. Und dieser Fehlschluss wird Umweltamnesie, Generationsamnesie oder Ökologische Amnesie genannt.

Ein anderes Beispiel: Menschen, die noch nie einen wilden Fluß gesehen haben, werden meinen, dass es den geraden Flüssen, die sie kennen, gut geht und dass diese normal sind. Jedoch sind begradigte Flüsse eben nicht die Norm. Sie sind künstlich und von Menschen gemacht.

Weiter:

Der Verlust des Gedächtnisses, vorübergehend oder dauerhaft, ist als Amnesie bekannt. Tritt dieser Umstand in Kombination mit der anthropisierten Natur und Umwelt auf, nennt sie sich ökologische Amnesie. Alternative Bezeichnungen sind die Generationenamnesie und Umweltamnesie. Das Konzept stammt aus der Naturschutzbiologie. Sie ist gekennzeichnet durch künstliche Naturerlebnisse anstatt realer Erfahrungen in der Natur. Das führt zu einer Vergessenheit, die sich von einer Generation auf die nächste weiter verstärkt.

Technologischer Fortschritt als Ursprung der Generationsamnesie

Die generationsbedingte Umweltamnesie ist gekennzeichnet durch den Einfluss der Hochtechnologie in der heutigen Zeit. Die Moderne ist von dem technischen Fortschritt geprägt. Das beeinflusst den menschlichen Umgang mit der Natur und die Wahrnehmung selbiger. Die ursprüngliche Umgebung dient generell als Vorbild für die weiterentwickelte Technologie des digitalen Zeitalters. Was das bei dem Menschen, speziell der neuen Generation, bewirkt, konnten Wissenschaftler inzwischen genauer erforschen.

Ökologische Amnesie – Auswirkungen der realen Natur auf die Psyche

Die originale Umwelt, einen echten Sonnenuntergang sehen oder lebende Haustiere versorgen, sorgt für eine Reduktion von Stress. Der Mensch beruhigt sich durch wahrhafte Naturerlebnisse. Dadurch hat die natürliche Umgebung einen signifikanten Effekt auf das Wohlbefinden und die Gesundheit des Homo sapiens.

Dagegen steht der neuzeitliche Fortschritt mit einer Künstlichen Intelligenz und nachgebildeten Natürlichkeit hinter einem Display. Wer mit Hightech aufwächst, erfährt eher einen Abbau von Stress und eine beruhigende Wirkung durch die nachgeahmte Umwelt als jene Personen, die die reale Tier- und Pflanzenwelt kennen. Das bewirkt letztlich einen immensen Unterschied zwischen den Generationen – und hat eine sogenannte generationsbedingte Umweltamnesie zur Folge.

Abgestumpfte Generation – Auswirkungen der nachgebildeten Umwelt

Die technologisierte Flora und Fauna spielt insbesondere bei Kindern eine immense Rolle. Die neue Generation wächst mit Robotern und der Künstlichen Intelligenz auf. Das geht zugleich mit einer abnehmenden echten Naturerfahrung einher. Da die technologische Natur lediglich ein Abbild der Realität ist, bewirkt dies eine veränderte Wahrnehmung der Umwelt.

Ein Beispiel für diese Veränderung ist der Einsatz von Roboterhunden. Kinder betrachten die künstlichen Tiere längst als wirkliche Lebewesen. Sie interagieren zunehmend intuitiv miteinander – denn die KI macht es möglich. Auf die Art geraten ursprüngliche Geschöpfe, reale Haustiere und deren Interaktion immer mehr in Vergessenheit. Damit ist der Grundstein der ökologischen Amnesie gelegt: Die jüngere Generation stumpft ab – und das hat Konsequenzen für das echte Umwelterleben.

Folgen für die Natur durch generationsbedingte Amnesien

Tierhaltung ist ein Lebensbereich, der durch die Technologie unweigerlich verändert wird. Daneben spielen Flussbegradigungen oder die Verschmutzung der Luft bedeutsame Rollen. Wissenschaftler gehen davon aus, dass die künstliche Natur die Wahrnehmung derart modifiziert, dass die reale Naturerfahrung zunehmend in Vergessenheit gerät.

Der moderne Mensch hält sich vermehrt in der virtuellen Realität hinter einem Bildschirm auf als in der echten Tier- und Pflanzenwelt. Das verstärkt die gefühlsmäßige Distanz zur Umwelt. Ein Beispiel ist der begradigte Flusslauf. Bei einer Flussbegradigung wird der ursprüngliche Lauf des Fließgewässers begrenzt und in geordnete Bahnen gelenkt. Das hat Auswirkungen auf die Flora und Fauna des Flusses. Die gesteigerte Unempfindlichkeit gegenüber der realen Ökosysteme aufgrund der Bevorzugung von künstlicher Naturreiche erhöht den Raubbau.

Die Menschheit verliert demnach ihre Empathie gegenüber Tieren und Natur, weil die originale Unberührtheit der Welt zunehmend in Vergessenheit gerät. Auf die Art empören sich immer weniger Personen über den voranschreitenden Raubbau in der Umwelt. Das zieht unweigerlich ein rasches Fortschreiten dieser Entwicklung nach sich, sodass letztlich die Generationsamnesie oder Umweltamnesie zum Tragen kommt. Der Mensch vergisst von einer Generation zur nachfolgenden immer mehr von der originalen Umwelt. Dadurch befeuert er den technologischen Fortschritt, der nichts weiter als ein künstliches Abbild der echten Natur darstellt.

Zusammenfassung – ökologische Amnesie durch Fortschritt

Greift der Mensch verändernd auf die Ökosysteme ein, erfolgt eine Anthroposierung selbiger. Das Vorgehen reduziert die biologische Vielfalt des Planeten und die originale Flora und Fauna verliert zunehmend ihre Ursprünglichkeit. Zugleich verstärkt sich der technologische Fortschritt zusammen mit künstlichen Naturerfahrungen. Dadurch stumpft die neue Generation ab. Sie büßt ihre Feinfühligkeit gegenüber dem Verlust der Natürlichkeit in der Umwelt ein.

Mit jedem weiteren Geburtsjahrgang wird auf diesen Zustand des Raubbaus aufgebaut. Die neue Generation vergisst zunehmend mehr von der ursprünglichen Natur. Denn der Fortschritt orientiert sich vor allem an der gegenwärtigen, anthropisierten Landschaft. Das führt schlussendlich zur ökologischen Amnesie oder generationsbedingten Umweltamnesie.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung


Autark bedeutet in seiner griechischen Übersetzung so viel wie „unabhängig“ und „auf niemanden angewiesen“ sein. In Verbindung mit einem Kochfeld steht der Begriff für dessen selbstständigen Betrieb. Davon abzugrenzen sind die klassischen Herdplatten, die nur in Verbindung mit einem darunter befindlichen Herd funktionieren und sich über diesen bedienen lassen.

Was ist ein Autarkes Kochfeld? Bedeutung, Definition, Erklärung

Ein autarkes Kochfeld kann vollkommen unabhängig vom Herd im Raum platziert werden. Gängig ist beispielsweise die Integration in eine Kochinsel. In diesen Kochfeldern ist hinreichend Technik verbaut, denn die Steuerung der Herdplatten muss über das Kochfeld selbst erfolgen.

Der flexible Einbau in der Küche macht autarke Kochfelder zu einem stark nachgefragten Produkt. Der hohen Flexibilität autarker Kochstellen steht die separate Anschaffung eines Backofens gegenüber.

Autarke Kochfelder gelten nicht als Erfindung der Neuzeit. Bereits bei alten Gusseisenöfen waren mobile Versionen für kleine Küchen erhältlich.

Aufbau: autarkes Kochfeld

Autarke Kochfelder stellen eine Alternative zum klassischen Herd dar. Herde besitzen ein Kochfeld und einen entsprechenden Unterbau. Der Unterbau integriert die Bauteile, welche für die Steuerung des Kochfeldes notwendig sind. Meist finden sich zudem Kombinationen zwischen Herd und Backofen im Handel.

Ein autarkes Kochfeld kommt ohne Unterbau aus. Der Aufbau bringt Vor- und Nachteile mit sich. Während der herkömmliche Herd als platzsparende Version überzeugt, bietet eine autarke Kochstelle mehr Flexibilität und eignet sich bevorzugt für die Gestaltung weitläufiger und offener Küchen, die in ihrem Zentrum eine Kochinsel besitzen.

Arten: autarkes Kochfeld

Unterschiede ergeben sich in der Steuerung der autarken Kochfelder. Die Bedienung kann über einzelne Drehknöpfe erfolgen. Im Handel sind auch Kochfelder, die über ein praktisches Touch-Bedienfeld verfügen.

Auch die Heiztechnologie stellt ein Unterscheidungsmerkmal dar. Häufig handelt es sich um autarke Ceran-Kochfelder. Daneben können auch Gas- oder Induktionskochfelder angeschafft und frei in der Küche installiert werden.

Einsatzmöglichkeiten: Autarkes Kochfeld

Die Einsatzmöglichkeiten von autarken Kochfeldern unterscheiden sich in der Regel nicht von dem Gebrauch der klassischen Kochplatten. Der größte Unterschied bleiben die eigenen Bedienelemente und der fehlende Backofen.

Autarke Kochfelder finden in kleinen Küchen Platz, wenn es keine Möglichkeiten gibt, einen Einbauherd unterzubringen. Beliebt sind mobile Kochfelder für den Einbau in weitläufigen Kücheninseln, die in großen und modernen Küchen ihren Platz finden.

Da autarke Kochfelder nicht an die Standard-Maße von Einbauherden gebunden sind, ist auch ein entsprechende höherer oder niedriger Einbau in Küchenfronten möglich.

Vor- und Nachteile: Autarkes Kochfeld

Durch die freie Installation verschaffen autarke Kochfelder ein Höchstmaß an Flexibilität. Die mobilen Kochfelder bringen ihre eigene Stromversorgung mit und sind nicht an einen Herd mit Unterbau gebunden. Bei Defekten muss nicht der komplette Herd ersetzt werden. Autarke Kochfelder lassen sich ohne großen Aufwand austauschen und entsprechend ersetzen.

Preislich liegen autarke Kochfelder häufig über den Kosten für einen herkömmlichen Herd. Für die getrennte Aufstellung von Herd und Kochfeld machen sich oft mehrere Stromanschlüsse notwendig.

Anschluss

Für den Anschluss von autarken Kochfeldern sollte ein Fachmann bestellt werden. Zunächst sind die Sicherungen herauszudrehen. Durch den Einsatz eines Spannungsprüfers kann festgestellt werden, ob sich auf der Streckdose noch Strom befindet.

In der Regel werden autarke Kochfelder an Herdanschlussdosen angeschlossen. Bei der Installation sollte den Hinweisen der Hersteller Folge geleistet werden. Mobile Kochplatten sind mit einer fünfadrigen Anschlussleitung versehen und der Querschnitt der Adern beträgt mindestens 1,5 Quadratmillimeter.

Wichtig beim Anschluss von autarken Kochfeldern sind die Farben der einzelnen Kabel. Zunächst wird die braune L1-Ader an die Herd-Klemme L1 angeschlossen. Die Verbindung für die Herd-Klemme L2 ist schwarz. Die graue L3-Ader ist für die Herd-Klemme L3 bestimmt. Die blaue N-Ader wird mit der Herd-Klemme N gekoppelt und die Herd-Klemme PE ist für die gelbgrüne PE-Ader vorgesehen.

Warum schwimmen Eiswürfel oben? Erklärung


Eiswürfel bestehen aus Wasser, genauer gesagt aus vielen Wassermolekülen. Ein Wassermolekül setzt sich aus zwei Wasserstoffatomen und einem Sauerstoffatom zusammen. Diese sind über eine polare, kovalente Bindung miteinander verbunden.

Der chemische Aufbau von Wasser

Die Elektronegativität beschreibt die relative Stärke eines Atoms, die Bindungselektronen in einer chemischen Bindung an sich zu ziehen. Je höher der Elektronegativitätswert ist, umso stärker zieht ein Atom die Elektronen an sich. Sauerstoff hat einen Elektronegativitätswert nach Pauling von 3,5 und der von Wasserstoff beträgt 2,1. Somit zieht das Sauerstoffatom das Bindungselektronenpaar stärker an sich heran, wodurch Ladungsschwerpunkte, sogenannte Dipole, entstehen. Dadurch sind die Wasserstoffatome partiell positiv geladen und das Sauerstoffatom ist partiell negativ geladen. Überdies beträgt der Bindungswinkel, der zwischen den beiden kovalenten Bindungen besteht, 104,45°, was dazu führt, dass das Molekül einen gewinkelten Aufbau besitzt.

Wasserstoffbrückenbindungen

Durch die bestehenden Ladungsschwerpunkten in den Wassermolekülen kommt es zu Wechselwirkungen zwischen den Molekülen. Gleiche Ladungen stoßen sich ab und unterschiedliche Ladungen ziehen sich an. Es kommt zur Ausbildung von Wasserstoffbrückenbindungen zwischen den Molekülen, wodurch sich Cluster bilden. Diese Cluster sind aber nicht starr, sondern variabel. Da die Wasserstoffbrückenbindungen immer nur kurzzeitig bestehen, können immer wieder Moleküle aus einem Cluster herausfallen und sich an anderer Stelle wieder neu verbinden. Dieser Vorgang findet ununterbrochen statt. Es bilden sich unendliche große Wassermoleküle, da ein Wassermolekül theoretisch mit vier weiteren über Wasserstoffbrücken verbunden sein kann. Die Wasserstoffbrückenbindungen sind der Grund, warum das Wasser seine ganz speziellen Eigenschaften besitzt.

Die Dichteanomalie des Wassers

Im Normalfall nimmt das Volumen beim Wechsel vom festen in den flüssigen Aggregatzustand zu und die Dichte somit ab. Anders verhält sich dies beim Wasser, das bei exakt 3,98° Celsius die höchste Dichte hat. Dieses Phänomen wird als die Dichteanomalie des Wassers bezeichnet. Bei 3,98° Celsius nehmen die Cluster das geringste Volumen ein. Bei höheren Temperaturen sind die Moleküle beweglicher, wodurch sich ihre Dichte verringert, und das Volumen erhöht.

Unter dieser Temperatur nimmt die Bewegungsenergie der Wassermoleküle immer weiter ab. Aus den zuvor variablen Clustern bilden sich mehr und mehr starre hexagonale Cluster. Es kommt final zur Bildung eines starren Kristallgitters. Bei diesem ist jedes Sauerstoffatom tetraedrisch von vier Wasserstoffatomen umgeben. Zwischen den Wassermolekülen haben sich Hohlräume gebildet, welche natürlich mehr Platz benötigen. Somit hat Eis ein höheres Volumen als Wasser. Genau gesagt hat Eis ein zehnmal höheres Volumen als Wasser, aber dafür eine zehnmal geringere Dichte, da die Wassermoleküle durch die entstandenen starren Hohlräume nicht mehr so eng gepackt sind. Aus diesem Grund schwimmen Eiswürfel auf der Oberfläche.

Dadurch, dass Wasser bei 4° Celsius die geringste Dichte hat, wird ein Durchfrieren von Gewässern verhindert. Oberflächenwasser mit einer Temperatur von unter 4° Celsius kann nicht nach unten sinken, was ein Abkühlen tieferer Gewässerschichten verhindert und ein Überleben der Lebewesen im Wasser ermöglicht.

Weitere besondere Eigenschaften des Wassers

Wasser ist zwischen 0° und 100° Celsius flüssig, darüber gasförmig und darunter fest. Durch die bestehenden Wasserstoffbrückenbindungen wird mehr Energie benötigt, um die Aggregatzustände zu wechseln, weswegen der Schmelz- und Siedepunkt von Wasser höher liegt als erwartet. Theoretisch wäre Wasser bei 25° Celsius ein Gas und das Leben auf der Erde wäre in dieser Form wahrscheinlich gar nicht möglich. So ist Wasser aber der einzige Stoff auf der Erde, der in nennenswerten Mengen in allen drei Aggregatzuständen vorliegt.

Wasser hat mit Ausnahme von Quecksilber die größte Oberflächenspannung unten allen Flüssigkeiten. Diese machen sich zum Beispiel einige Insekten wie der Wasserläufer zu nutzen, weswegen dieser über das Wasser laufen kann. Wir Menschen sind dafür zu schwer. Aber dafür nutzen wir bei der Tränenbildung die Oberflächenspannung aus, wodurch Verunreinigungen aus dem Auge befördert werden.

Wasser hat zudem unter allen Flüssigkeiten die größte Verdampfungsenthalpie, was sich in einem kühlenden Effekt beim Schwitzen bemerkbar macht. Als Mpemba-Effekt wird eine weitere spezielle Eigenschaft des Wassers bezeichnet. Unter bestimmten Bedingungen gefriert nämlich heißes Wasser schneller als kaltes.

Obendrein ist die Wärmekapazität die höchste unter allen Flüssigkeiten. Diese spiegelt sich darin wider, dass beispielsweise Ozeane ausgezeichnete Wärmespeicher sind. Zudem ist die Schmelzenthalpie und die Wärmeleitfähigkeit hoch, sofern man nur Flüssigkeiten betrachtet. Überdies ist Wasser ein hervorragendes Lösungsmittel, was an seiner hohen Dielektrizitätskonstante liegt.

Was ist Brackwasser? Bedeutung, Definition, Erklärung


Brackwasser ist Wasser mit einem gewissen Gehalt von gelösten Salzen. Es handelt sich dabei weder um Süß- noch um Meerwasser, sondern es ist eine Vermischung aus beiden Arten von Wasser. Brackwasser enthält somit mehr Salz als Süßwasser, aber nicht so viel Salz wie Meerwasser. Der Salzgehalt des Brackwassers liegt dabei zwischen Süß- und Meerwasser. Das Wort Brackwasser leitet sich ursprünglich von der niederländischen Wurzel „Brak“ ab, was so viel wie „salzig“ bedeutet.

Was ist Brackwasser? Bedeutung, Definition, Erklärung

Allgemein wird der Begriff Brackwasser für Wasser verwendet, das eine nicht unerhebliche Menge an gelösten Salzen enthält. Die Salzkonzentration ist die Menge an Salz im Wasser nach Gewicht, gemessen in „Teilen pro Million“ (ppm). Die vom US Geological Survey verwendete Einteilung der Salzkonzentration stuft Brackwasser in drei Kategorien ein:

  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm
  • Mittelstark salzhaltiges Wasser mit einer Salzkonzentration von etwa 3.000 bis 10.000 ppm
  • Schwach salzhaltiges Wasser mit einer Salzkonzentration von etwa 1.000 bis 3.000 ppm

Das Vorhandensein von Brackwasser kann daher durch die Messung der Salzkonzentration eines salzhaltigen Wassers festgestellt werden. Technisch gesehen enthält Brackwasser somit zwischen 0,5 und 30 Gramm Salz pro Liter, häufiger ausgedrückt als 0,5 bis 30 Teile pro Tausend (Einheitenzeichen: ‰), was einem spezifischen Gewicht zwischen 1,005 und 1,010 entspricht. Der Begriff Brackwasser umfasst also eine große Bandbreite an Salzgehalten und wird nicht als genau definierter Zustand angesehen. Charakteristisch für viele brackige Oberflächengewässer ist, dass ihr Salzgehalt räumlich und zeitlich stark schwanken kann.

Was ist der Salzgehalt?

Die durchschnittliche Salzkonzentration im Meer beträgt etwa 35 ‰. Dies wird genauer durch den Salzgehalt ausgedrückt. Der Salzgehalt ‰ ist definiert als die Masse der gelösten anorganischen Stoffe in 1 kg Meerwasser in Gramm, nachdem alle Br- und I- durch die entsprechende Menge Cl- ersetzt und alle HCO3- und CO32- in Oxide umgewandelt wurden. Im Allgemeinen liegt der Salzgehalt des Meerwassers zwischen 33 und 37 ‰.

Der Salzgehalt ist ein wichtiger Faktor, der viele Aspekte der Chemie natürlicher Gewässer und der biologischen Prozesse in diesen Gewässern bestimmt. Neben Temperatur und Druck bestimmt der Salzgehalt physikalische Eigenschaften wie die Dichte und Wärmekapazität des Wassers.

Brackwasser und Salzgehalt

Brackwasser ist ein weit gefasster Begriff für Wasser, das salzhaltiger als Süßwasser, aber weniger salzhaltig als echte Meeresgebiete ist. Oft handelt es sich um Übergangsgebiete zwischen Süß- und Meerwasser. Ein Ästuar, d. h. der Teil eines Flusses, der ins Meer mündet, ist das bekannteste Beispiel für Brackwasser. Ästuare sind äußerst variable Umgebungen, da sich der Salzgehalt über eine kurze Strecke drastisch ändern kann. Dramatische Veränderungen können auch an einem bestimmten Punkt des Ästuars in Abhängigkeit von der Tages- oder Jahreszeit auftreten. Bei Hochwasser beispielsweise steigt der Salzgehalt an einer bestimmten Stelle des Ästuars, da Meerwasser in das Gebiet eindringt. Im Gegensatz dazu sinkt der Salzgehalt an einer bestimmten Stelle des Ästuars, wenn das Süßwasser aufgrund von Regenfällen oder Schneeschmelze saisonal zunimmt. Die Schwankungen des Salzgehalts können zwischen 10 und 32 ‰ liegen, wobei der durchschnittliche Salzgehalt des Süßwassers 0,5 ‰ beträgt.

Der saisonale Anstieg des Süßwassers aufgrund von Regenfällen oder Schneeschmelze senkt den Salzgehalt an einem bestimmten Punkt des Ästuars. Um hier überleben zu können, müssen die ansässigen Mikroben an diese starken Schwankungen des Salzgehalts angepasst sein. Trotz dieser Herausforderung sind Ästuare ein sehr produktives Milieu. Im Allgemeinen ist die Primärproduktion der Ästuare gering, da das Sonnenlicht aufgrund der hohen Trübung, die durch organische Schwebstoffe aus dem Flusszufluss und der Gezeitenvermischung entsteht, schlecht eindringt.

Brackwasser und Mensch

Wie Meerwasser kann Brackwasser vom Menschen nicht getrunken werden, es sei denn, es wird einem Entsalzungsprozess unterzogen. Wenn Brackwasser in landwirtschaftliche Flächen eindringt, spricht man von Versalzung. Brackwasser tötet die meisten Kulturpflanzen. Brackwasser ist für Süßwasser- und Meereslebewesen nicht optimal, so dass die Lebensmöglichkeiten in Brackwasser begrenzt sind.

Wie entsteht Brackwasser?

Brackwasser entsteht in der Regel dann, wenn Süßwasser auf Meerwasser trifft. Brackwasser tritt somit an den Orten auf, an denen sich Meer- und Süßwasser vermischen können. Dies ist vor allem in Gezeitenzonen, Flussmündungen und Mangrovensümpfen der Fall. Brackwasser kann auch in fossilen Brackwasser-Grundwasserleitern vorkommen.

Auch menschliche Aktivitäten können dazu führen, dass frische Oberflächengewässer und Grundwasserressourcen durch Verbrauch und erhöhte Salzbelastung brackig werden. So kann z. B. das übermäßige Abpumpen von Grundwasser aus küstennahen Aquiferen ein Eindringen von Salzwasser verursachen, das die Brackwasserzone der Durchmischung landeinwärts ausdehnt, während salzhaltige Rückflüsse aus bewässerten landwirtschaftlichen Flächen die Salzbelastung von Oberflächengewässern erhöhen können. Einige landwirtschaftliche Bewässerungsmethoden, wie z. B. die unterirdische Entwässerung mit Ziegeln, führen häufig zu stark brackigem Wasser. Auch der Bergbau kann zu brackigen und mit Schwermetallen belasteten Abwässern führen.

Wo findet sich Brackwasser?

Auf natürliche Weise kann Brackwasser in unterirdischen salzhaltigen Grundwasserleitern, als Oberflächenwasser infolge natürlicher Erosion oder als Ergebnis der Vermischung von Meerwasser mit Flusswasser (in Flussmündungen) oder Grundwasser (in Küstengrundwasserleitern) auftreten. Natürliches Brackwasser, insbesondere Brackwasser-Grundwasser, kommt auf den meisten Kontinenten in Mengen vor, die fast so groß oder größer sind als Süßwasser-Grundwasser und Oberflächenwasser zusammen.

Die weltweit am weitesten verbreiteten Brackwasserlebensräume sind Ästuare, also das Gebiet, in dem ein Fluss auf das Meer trifft. Daneben kommt Brackwasser in Brunnen, Binnenseen, Bohrlöchern und sogar in Meeren vor. Die Ostsee ist beispielsweise ein Brackwassermeer.

Brackwasser und Ästuare

Um in dieser Umgebung überleben zu können, müssen die Mikroben und Pflanzen in einem Ästuar an die Schwankungen des Salzgehalts angepasst sein. Trotzdem sind Ästuare sehr produktive Lebensräume.

Besondere Beispiele für hochproduktive Brackwasserumgebungen sind Mangrovensümpfe, wie sie in den Everglades von Florida zu finden sind. Der Salzgehalt in diesen Sümpfen ist in der Regel sehr ähnlich dem von Meerwasser. Mangrovensümpfe sind nach den charakteristischen Bäumen benannt, die in den gesättigten Böden des Sumpfes wachsen. Diese Bäume haben speziell angepasste Wurzeln, die aus dem Wasser herauswachsen, um den Gasaustausch über dem Wasser zu ermöglichen, so dass die Bäume weiterhin Sauerstoff erhalten und „atmen“ können.

Eine zweite wichtige Anpassung ist, dass Mangrovenbäume den Salztransport in die Wurzeln verhindern, um Salzstress zu vermeiden. Mangrovensümpfe sind eine wichtige Übergangsgemeinschaft, da sie dazu beitragen, Schadstoffe und Nährstoffe aus dem Wasser zu filtern, Sedimente zu stabilisieren und die Küstenlinie vor Erosion zu schützen. Außerdem bieten sie einen aktiven Lebensraum für mehr als 250 Tier- und 180 Vogelarten.

Brackwasser und Ästuare als Lebensraum

Im Allgemeinen reicht die Primärproduktion der Ästuare (10 bis 45 mg Kohlenstoff/m3/Tag) nicht immer aus, um die Sekundärpopulationen zu unterstützen. Ästuare neigen dazu, trübe zu sein, weil die Flüsse große Mengen an organischem Material einbringen und die Gezeiten für eine Durchmischung sorgen. Infolgedessen ist die Lichtdurchlässigkeit gering. Die Anzahl der Primärproduzenten schwankt zwischen 100 und 107 Organismen/ml, und diese Populationen variieren auch erheblich in Abhängigkeit von der Tiefe und der Nähe zu den bestehenden Litoralzonen. Trotz der geringen Primärproduktivität ist die heterotrophe Aktivität mit 150 bis 230 mg Kohlenstoff/m3/Tag hoch, da die Verfügbarkeit von Substrat nicht eingeschränkt ist.

Lokale Abflüsse und organischer Kohlenstoff werden von den Flüssen, die in die Ästuare fließen, reichlich eingebracht. Die Nährstoffzufuhr kann sogar so groß sein, dass Ästuare in vielen Fällen ganze Jahreszeiten lang frei von Sauerstoff werden können. Infolge der ständigen und reichlichen Kohlenstoffzufuhr fällt die Zahl der Sekundärproduzenten in einen viel engeren Bereich von 106 bis 108 Organismen/ml. Das gemessene Verhältnis von Viren zu Bakterien reicht von 0,4 bis 50.

Was lebt im oder am Brackwasser?

Zu den Tier- und Pflanzenarten, die in Brackwasser überleben können, gehören Dreistachliger Stichling, Flunder, Gebogene Schwebegarnele, Europäischer Queller und Strand-Aster. Da der Salzgehalt für ein vielfältiges und natürliches Nahrungsangebot sorgt, finden im Brackwasser insbesondere Raubfische wie Barsch, Dorsch und Hecht günstige Lebensbedingungen.

Erschließung von Brackwasservorkommen

Das Ausmaß der Erschließung von Brackwasser hängt von der Suche nach geeigneten Verwendungszwecken ab, wobei zu berücksichtigen ist, dass Brackwasser nicht immer dort vorhanden ist, wo es nutzbringend verwendet werden kann. Die häufigste Verwendung von Brackwasser findet sich im landwirtschaftlichen Bereich. Dies gilt sowohl für die Fisch- und Garnelenzucht als auch für die Bewässerung von Pflanzen, die eine hohe Salztoleranz aufweisen. Baumwolle und Gerste zum Beispiel werden durch den für Brackwasser typischen Salzgehalt nicht beeinträchtigt.

Behandlung von Brackwasser zur Trinkwasseraufbereitung

Brackwasser kann mit einem Wasserreinigungssystem zu Trinkwasser aufbereitet werden. In dem als Umkehrosmose bezeichneten Verfahren wird das Brackwasser durch eine Membran gepresst, die die im Brauchwasser gelösten Salze zurückhält. Die Entsalzung von Brackwasser erfolgt dabei bei niedrigerem Druck als die Meerwasserentsalzung und ist wirtschaftlicher, energiesparender und kostengünstiger.

Die Qualität des Speisewassers spielt sowohl bei der Auslegung als auch beim Betrieb von Brackwasserentsalzungsanlagen eine wichtige Rolle. Die Ionenzusammensetzung und der Ionengehalt von Brackwasser variieren sowohl zeitlich als auch geografisch stark, abhängig von den hydrogeologischen Bedingungen und den damit verbundenen menschlichen Aktivitäten (z. B. Industrie oder Landwirtschaft). Im kalifornischen San Joaquin Valley zum Beispiel, einer der produktivsten landwirtschaftlichen Regionen der USA, entsteht durch die Entwässerung bewässerter landwirtschaftlicher Flächen Brackwasser mit unterschiedlichem Salzgehalt.

Brackwasser im US-Sedimentbecken

In den USA wurde in einer umfangreichen Studie untersucht, ab welcher Tiefe das Grundwasser in Brackwasser und schließlich in salziges Tiefenwasser übergeht. Im Schnitt trifft man in den US-Sedimentbecken schon ab 550 Metern Tiefe auf Brackwasser.

Was bedeutet DYOR? Bedeutung, Definition, Erklärung


DYOR steht für „Do Your Own Research“. Jedermann sollte nicht blindlings glauben, was irgendwo publiziert wird, sondern sich selbst über die Hintergründe zu einem Thema informieren.

Der Begriff wird in der Kryptoszene besonders häufig verwendet, einige Publizisten nutzen ihn sogar als Haftungsausschluss. Er ist aber in der Online-Ära mit ihren überbordenden Informationen, von denen 99 % halbgar oder falsch sind, für jedes Thema wichtig.

DYOR bei Geldanlagen / Kryptowährungen

Dass über Geldanlagen viele Informationen verbreitet werden, ist seit jeher gängige Praxis. Es gibt hierzu sogar einige Reglements. Wenn ein Publizist etwas über ein Asset schreibt, das er selbst als Anleger im Portfolio hält, ist er gesetzlich dazu verpflichtet, dies anzugeben. Doch beileibe nicht alle Publizisten sind selbst Anleger. Dennoch können sie ein Interesse daran haben, ein Asset zu zu „pushen“, also mit subtil positiven Informationen die Anleger zum Kauf zu animieren. Häufig kommen solche Publikationen von freien Autoren, die sie im Auftrag von Affiliates (Werbepartnern) von Investmentfonds verfassen.

Der Autor hält das Asset selbst nicht, auch der Affiliate nicht. Beide sind aber an einer positiven Darstellung interessiert: der Autor, weil er dafür bezahlt wird, der Affiliate, weil er weiß, dass das Fondsmanagement dies wünscht. Diesen verschlungenen Weg der Interessenverknüpfung erkennt der Leser nicht. Das ist ein Fall, der zu verzerrten oder gar falschen Informationen führen kann, wobei der Leser auf keinerlei Weise informiert wird, dass hier ein Interessenkonflikt bestehen könnte. Ein anderer Fall ist die Begeisterung von Autoren, die über ein Asset schreiben, das sie wiederum selbst nicht halten (und daher auch zu keinerlei „Warnhinweis“ verpflichtet sind), von dem sie aber selbst höchst begeistert sind. Sie schreiben also dessen Möglichkeiten hoch, liegen damit aber häufig stark daneben.

Grundsätzlich sollten interessierte Anleger wissen, dass kein Mensch wissen kann, wie sich der Kurs eines Assets entwickelt. Sie sollten also allen allzu eindeutigen, apodiktisch und ohne jeden Konjunktiv vorgetragenen Aussagen zum Thema misstrauen. Wie ist das gemeint? Nun, wenn jemand behauptet, der Goldpreis müsse noch in diesem Jahr diese und jene Preismarke knacken, dann ist diese Aussage praktisch gar nichts wert. Selbst wenn der Goldpreis zufällig dieses Jahr diese Preismarke wirklich knackt, war die Aussage nichts wert. Seriöse Publizisten schreiben so etwas auch nicht, sondern bestenfalls, dass der Goldpreis, wenn er demnächst diese und jene Schwelle überwindet, möglicherweise auch die nächste Marke von XY knacken könnte. Wann? Das weiß niemand, denn gerade zeitliche Aussagen sind an der Börse überhaupt nicht möglich. Die Zeit ist an der Börse gedehnt oder gestaucht (vgl. Benoît B. Mandelbrot „Fraktale und Finanzen“).

Halbwegs seriöse Aussagen werden stets im Konjunktiv vorgetragen und taugen auch dann übrigens nicht viel, denn börsliche Entwicklungen sind in Wahrheit gar nicht zu prognostizieren, vgl. nochmals Benoît B. Mandelbrot. Der Jahrhundertmathematiker hat es 30 Jahre lang mit fraktaler Geometrie versucht und dann aufgegeben. So viel zu apodiktischen Aussagen. Es gibt aber noch schlimmere Publikationen.

DYOR als Sicherheit gegen Betrugsversuche

Einige Publikationen laufen auf handfesten Betrug hinaus. In der noch jungen Kryptoszene beispielsweise werden manche Assets als „der kommende Bitcoin“ (mit unglaublichem Kurspotenzial) angepriesen. Sie sollen zudem schneller und einfacher zu handhaben sein als der Bitcoin. Diese Praxis der Publikationen heißt Shilling von shill = Lockvogel. Die betreffenden Beiträge kommen oft ohne die oben beschriebene Kennzeichnung von Personen, die selbst die beworbene Kryptowährung halten. Rein juristisch sind sie sogar nicht einmal zur strikten Kennzeichnung ihres Interessenkonflikts verpflichtet, weil Kryptowährungen nicht offiziell börslich gehandelt werden.

Die Publizisten hoffen, dass sie mit ihren Aussagen andere Anleger zum Kauf der Kryptos motivieren können, was deren Preis in die Höhe treiben würde. Daher gilt DYOR ganz besonders bei Anlagen in Kryptowährungen. Wer diese kaufen will, muss unbedingt eigene Recherchen durchführen. Shilling ist auf-Social-Media-Portalen wie Facebook, Reddit und Twitter sehr verbreitet.

Angepriesen werden vor allem bislang unbekannte Kryptowährungen (von denen es mit Stand 2022 rund 10.000 geben könnte). Sie sollen den Käufern traumhafte Renditen und somit schnellen Reichtum einbringen. Wer solchen Empfehlungen folgt, verliert nach einschlägigen Erfahrungen in 99 % aller Fälle sein Geld. Bekannt sind auch Sybil-Konten in sozialen Medien, die in betrügerischer Absicht eine Kryptowährung pushen. Dabei erstellt eine Person mehrere Konten unter verschiedenen Namen, wobei ein positiver Beitrag zur betreffenden Kryptowährung auf einem dieser Accounts gepostet und von den anderen Accounts geteilt wird. Dies erweckt den Anschein, als ginge die Nachricht viral und müsse wichtig sein.

Haftungsausschluss via DYOR

Dass DYOR als Haftungsausschluss verwendet wird, ist zwar juristisch kaum belastbar, geht aber völlig in Ordnung. Sollten Händler oder Enthusiasten öffentliche Beiträge zu Kryptowährungen verfassen und am Ende mit DYOR auf die Notwendigkeit eigener Recherchen hinweisen, handeln sie prinzipiell seriös. Es genügt auch der obligatorische Hinweis, dass die publizierte Marktanalyse eine subjektive Einschätzung des Autors ist.

Wo sind seriöse Recherchen zu Kryptowährungen möglich?

Es gibt einige vertrauenswürdige Quellen, die neutral zu Kryptowährungen publizieren. Dazu gehören unter anderem:

Dies sind natürlich nicht die einzigen Quellen. Wichtig ist für Interessenten, dass sie auf den Duktus einer Publikation achten: Dieser muss grundsätzlich neutral bleiben und darf in keinem Fall Gewinnversprechen beinhalten, schon gar keine überzogenen. Häufig heißt es in entsprechenden manipulativen Advertorials, dass die neue Kryptowährung ein Gewinnpotenzial von mehreren 1.000 % in den nächsten Wochen und Monaten aufweise. Dazu ist so viel zu sagen:

  • Es gab tatsächlich Kryptowährungen, die in relativ kurzer Zeit (aber nicht in wenigen Wochen) um mehrere 1.000 % zulegten. Der Bitcoin selbst ist das beste Beispiel dafür.
  • Dieses Kurswachstum konnte aber nicht prognostiziert werden.
  • Die Zahl der Kryptowährungen ist seit etwa 2018 explodiert. Sie kann mit Stand 2022 nur noch geschätzt werden, so etwa sehr grob auf ~10.000. Von diesen Kryptos haben nur sehr wenige nennenswerte Kurssprünge vollzogen. Zudem folgten nach Kurssprüngen praktisch immer auch drastische Kursrückgänge – auch beim Bitcoin.

Das bedeutet: Jedes Advertorial, das irgendwelche Gewinnversprechen enthält, ist inhaltlich wertlos. So unbequem es sein mag: Anleger müssen ihre Informationen aus verschiedenen Quellen zusammentragen und sich dann eine eigene Meinung bilden. Das war auch schon immer so. „Do Your Own Research“ ist daher im Grunde nichts Neues.

Was ist die Spätmoderne? Bedeutung, Definition, Erklärung


Das Konzept der „Spätmoderne“ wurde als Reaktion auf die Postmoderne vor allem durch die Arbeiten von Anthony Giddens und Ulrich Beck populär. Sie setzten Ideen ein, die die gegenwärtige Epoche mit Begriffen wie „späte“, „reflexive“, „entwickelte“, „zweite“, „reflexive“, „hohe“ („höhere“) oder „globale“ Moderne, „Risikogesellschaft“ und „reflexive Moderne“ charakterisierten. Sie versuchen, viele der Fragen zu den Besonderheiten der Gegenwart zu beantworten, mit denen auch die Postmoderne konfrontiert ist, wie z. B. die zunehmende Unsicherheit und Kontingenz, die Schwächung der binären Oppositionen, die Fragmentierung des sozialen Lebens, und nehmen sogar eine Reihe postmoderner Argumente auf und integrieren sie in ihre theoretischen Modelle. Sie zeichnen sich dadurch aus, dass sie die These, die Welt befinde sich in einer postmodernen Situation, zurückweisen und bekräftigen, dass es sich um eine bestimmte Periode der Moderne handelt, die mit der Globalisierung, der Rekonstruktion der Tradition und dem Phänomen der Individuation verbunden ist. Dieser Zeitraum wird durch die Entwicklung der elektronischen Medien und der Kommunikationstechnologien ermöglicht, die wiederum die Mobilität des Kapitals, die Globalisierung und die sich daraus ergebenden Veränderungen in der Politik, den grundlegenden Institutionen, dem menschlichen Verhalten und anderen Lebensbereichen unterstützen.

Was ist die Spätmoderne? Bedeutung, Definition, Erklärung

Die Analyse der Spätmoderne kann sich auf verschiedene Merkmale beziehen. Zu beachten ist die charakteristische Zeittransformation. Die Art und Weise, wie die Zeit in der traditionellen Gesellschaft fließt und wahrgenommen wird, unterscheidet sich von der der frühen Moderne, vor allem seit dem siebzehnten Jahrhundert. Ihre soziale Funktionsweise ist derzeit einem radikalen Wandel unterworfen, der mit den Besonderheiten der marktwirtschaftlichen Situation infolge der dritten industriellen Revolution und der Globalisierung zusammenhängt.

Transformationen der Gegenwart und der Zukunft

Die Gegenwart verändert sich, und sie beginnt sich schneller zu verändern als je zuvor in der Geschichte. Ereignisse und Informationen entstehen und veralten immer schneller, und was neu ist, wird schnell durch etwas Neues ersetzt, das mehr Wert und Bedeutung beansprucht. Es gibt mehrere Voraussetzungen, die zu einer radikalen Beschleunigung der Zeit und zur raschen Veralterung alles Neuen auf Kosten dessen, was danach kommt, führen.

Erstens wird die zentrale Logik der Funktionsweise des Kapitalismus zur Innovation und zur Geschwindigkeit, mit der man etwas Neues und Anderes anbieten und verkaufen kann. Der frühere Vorteil der Wirtschaftsakteure bestand in der Produktion von mehr gleichen Gütern, d. h. in der Größenordnung der Produktion, während der heutige Vorteil in der Geschwindigkeit und der Innovation liegt. Wer sich beeilt, gewinnt, wer sich bremst, verliert. So entsteht der Kult des schnellen Umsatzes, des beschleunigten Wandels von allem. Der Gewinner ist derjenige, der etwas Neues und Anderes anbieten kann, das einen Vorteil gegenüber dem bereits Bekannten und Vertrauten hat.

Wenn man die Anwendung eines berühmten Satzes von Peter Drucker über die Wettbewerbsbeziehungen zwischen Unternehmen ausdehnt, kann man sagen, dass früher „die Großen die Kleinen gefressen haben, jetzt fressen die Schnellen die Langsamen“. Überall wird Geschwindigkeit zum Schlüssel, und die bisherigen Grenzen zwischen Alter, Arbeit und Freizeit, Arbeit und Freizeit verschwimmen. Die Geschwindigkeit, mit der etwas erledigt wird, wird zu einem entscheidenden Wettbewerbsvorteil. In einem immer härteren globalisierten Wettbewerb gewinnt derjenige, der den anderen übertrifft, der etwas vor ihm tut, was er nicht tut. Das Neue an sich wird geschätzt, und die Logik des globalen Marktes legt die Neophilie als eine alltägliche und gemeinsame Leidenschaft nahe.

Zweitens verändern die globalisierten Finanzmärkte, auf denen mehr als eine Billion Dollar rund um die Uhr bewegt werden und Millionen von Anlegern, Kleinanlegern, Aktienbesitzern, Händlern und Maklern ständig das Geschehen beobachten, weil eine kleine Verzögerung zu riesigen Verlusten führen kann, den bisherigen stündlichen Rhythmus des Funktionierens der verschiedenen Prozesse. Auch wenn in einer Region technisch gesehen der Arbeitstag vorbei ist und die Börse schließt, ist sie anderswo in Betrieb und große Geldmengen hängen von ihr ab. Das globalisierte Finanzsystem führt zu einer Situation, in der Schnelligkeit und Timing, die Fähigkeit, schnell zu reagieren, zu antizipieren, dass etwas passieren wird, enorme Gewinne oder Verluste bringen.

Mehr als je zuvor in der Geschichte wird Zeit zu Geld, und Beschleunigung bedeutet mehr Geld – sei es durch die Beschleunigung der Fortbewegung von Verkehrsmitteln, Innovationen, die Verarbeitung von Informationen, die Geschwindigkeit von Computern usw. Die Zeit ist nicht mehr lang und langwierig, sie schrumpft immer mehr, was zu einem ständigen Gefühl führt, man könnte etwas verpassen, nicht schaffen, zurückbleiben. Millionen von Menschen stehen unter dem Druck, in einem beschleunigten Tempo zurückzufallen.

Drittens intensiviert die Globalisierung die Verflechtung zwischen den verschiedenen Teilen des Planeten und führt zu einem „Verschwinden der Distanz“, einer „Verdichtung des Raums“, einem „Ende der Geographie“ und einer „Deterritorialisierung“. Es wird möglich, ein lokales Ereignis schnell in ein globales Ereignis und seine Auswirkungen auf alle anderen zu verwandeln. So werden die kausalen Abhängigkeiten lokaler Ereignisse, die früher in Echtzeit ebenfalls mehr oder weniger lokal und in ihrer Stärke und Geschwindigkeit begrenzt waren, nun global, und im Prinzip kann eine große Anzahl lokaler Ereignisse in jedem Moment die Richtung unseres Lebens ändern. Dadurch entsteht das Gefühl einer gigantischen Beschleunigung aller Prozesse und einer sehr schnellen Bewegung der Zeit.

Viertens „schrumpft“ die Zeit durch die globalen Medien, die es ermöglichen, über alles in „Echtzeit“ informiert zu sein und alle Informationen und Ereignisse rasch zu veralten. Wenn der traditionelle Mensch im Zeitalter der mündlichen Kommunikation informationell in den Ereignissen seiner Mikrogruppe verschlossen ist, und das sind relativ wenige, was eine Wahrnehmung des langsamen und stetigen Vergehens der Zeit schafft, dann kann heute in seinem Leben informationell täglich eine riesige Lawine von Informationen über alles, was auf dem Planeten geschieht, niedergehen.

Im zwanzigsten Jahrhundert erzwingt die Tageszeitung einen 24-Stunden-Rhythmus für diese Informationen. Man kann sich über neue Dinge aus der Morgenzeitung informieren. In den letzten Jahrzehnten des zwanzigsten Jahrhunderts wurde diese Funktion in vielerlei Hinsicht von der zentralen Nachrichtensendung des nationalen Fernsehens oder der verschiedenen Fernsehsender übernommen, die in der Regel abends um 7, 8 oder 9 Uhr ausgestrahlt wird.

Die neuen digitalen Medien, die mit dem Aufkommen des Satellitenfernsehens, des Internets und des Mobilfunks entstanden sind, führen dazu, dass der frühere Abstand zwischen dem Zeitpunkt, an dem ein Ereignis eintritt, und dem nächsten Zeitpunkt, an dem die Menschen darüber informiert werden, immer geringer wird. Alles, was fast in Echtzeit geschieht, gelangt in den öffentlichen Raum. Außerdem wird erwartet, dass die Ereignisse, sobald sie eingetreten sind, interpretiert werden, dass darauf reagiert wird, dass sie einen Sinn ergeben und dass darüber entschieden wird. Dadurch ändern sich die Erwartungen an die Politiker grundlegend. Von ihnen wird verlangt, dass sie sofort reagieren und alles bewerten.

Jegliches Abwarten, Sammeln von Informationen, Nachdenken, Verzögern ist in der Regel zu ihrem Nachteil, weil jemand anderes ihnen zuvorgekommen ist und ihnen seine Interpretation der Ereignisse aufgezwungen hat. In ähnlicher Weise wird die traditionelle akademische Sozialwissenschaft, die sich mit anhaltenden, langfristigen Trends, „Mustern“ und „tiefgreifenden Veränderungen“ befasst, allmählich von neu entstehenden Denkfabriken an den Rand gedrängt, die darauf ausgerichtet sind, das Geschehen in der realen Welt zu interpretieren und zu analysieren und entsprechende politische Maßnahmen vorzuschlagen.

Eine neue Generation von Analysten für Politik, Wirtschaft und öffentliche Meinung blüht auf, die Interpretationen und Einstellungen zu den Geschehnissen unmittelbar nach deren Eintreten festlegen und so zu Machthabern eines einschlägigen Diskurses werden, der die Wahrnehmung der Bürger und Politiker, ihre Handlungen und ihr Verhalten bestimmt.

Warum ist der Name Glühwürmchen streng genommen falsch? Erklärung


Wenn man von Glühwürmchen hört, könnte man schnell denken, dass sie zu einer Wurm-Art gehören. Doch das ist nicht richtig. Sie sind Leuchtkäfer und gehören zu einer bestimmten Käferfamilie. Die Bezeichnung Glühen stimmt in diesem Fall auch nicht ganz. Zu sagen, dass sie leuchten, wäre eine Beschreibung, die besser für sie passen würde.

Was für Käfer sind Glühwürmchen? Erklärung

Glühwürmchen oder wissenschaftlich Lampyridae genannt, gehören zur Familie der Leuchtkäfer. Es gibt auf der gesamten Welt etwa 2000 Arten. Sie gehören zu der Überfamilie mit dem Namen Weichkäferartige oder auch Elateroidea. Nicht alle Käfer dieser Art sind in der Lage, Lichtsignale zur Kommunikation zu benutzen.

Das Leben der Glühwürmchen

Ende Juli, nachdem die Paarungszeit vorbei ist, legen die Weibchen der Leuchtkäfer 100 – 200 Eier. Aus diesen schlüpfen nach ungefähr 4 Wochen die Larven, die eine Größe von 0.25 Zentimeter haben. Das Männchen stirbt bereits kurz nach der Paarung, während das Weibchen noch am Leben bleibt, bis sie die Eier ausgetragen hat und dann stirbt sie kurz nach der Ablage.

Glühwürmchen verbringen die meiste Zeit ihres Lebens als Larve. Sie leben auf dem Boden und ernähren sich von Schnecken. Sie können ihre Opfer anhand der zurückgelassenen Schleimspur finden und durch ein Gift, welches sie den Schnecken injizieren, werden diese gelähmt. Trotz des enormen Größenunterschiedes kann eine ausgewachsene Leuchtkäfer-Larve eine Schnecke innerhalb von 30 Stunden verspeisen.

Die Larven benötigen 3 bis 4 Jahre, bis sie vollständig ausgewachsen sind. In dieser Zeit müssen sie sich mehrfach häuten. Haben sie ihr Endstadium erreicht, verpuppen sie sich in einer kleinen Höhle im Boden und nach ungefähr 2 Wochen schlüpft dann ein Glühwürmchen.

Ihre Zeit als Leuchtkäfer ist nicht sehr lang. Sie fressen in diesem Abschnitt ihres Lebens sehr viel weniger als im Larvenstadium und sind auf der Suche nach einem Partner für die Fortpflanzung.

Worin unterscheiden sich weibliche und männliche Glühwürmchen?

Die Männchen sind zwischen 12 und 16 mm groß und können fliegen. Die Weibchen dagegen werden zwischen 15 und 25 mm groß und bleiben auf dem Boden. Sie sind nicht in der Lage zu fliegen, da ihnen die Flügel fehlen. Größere Exemplare können mehr Eier legen als kleinere. Die weiblichen Leuchtkäfer haben einen stärkeren Leuchtstoff als die männlichen Glühwürmchen, damit sie auf dem Boden für die Paarung gefunden werden können.

Warum und wie leuchten Glühwürmchen? Erklärung

Wenn Lebewesen Licht erzeugen, wird dieser Prozess Biolumineszenz genannt. Sie erzeugen ihr Licht mithilfe ihres Leuchtorganes. Bei Leuchtkäfern reagieren dabei unterschiedliche Naturstoffe, auch Luciferin genannt, mit dem Enzym Luciferase zusammen mit ATP und Sauerstoff. Dabei wird Energie in Form von Licht freigesetzt. Auf der unteren Seite des Hinterleibes ist der Käferpanzer rau und lässt Licht hindurch. Die innere Schicht im Panzer ist weiß und kann das Licht somit reflektieren.

Sie senden diese Lichtsignale zur Kommunikation mit gleichgeschlechtlichen Partnern. Die Glühwürmchen benutzen das Leuchten ausschließlich, um einen Partner zur Paarung zu finden.

Wann und wo kann man Glühwürmchen beobachten?

Im mitteleuropäischen Bereich liegt die Lichtperiode der Glühwürmchen zwischen Juni und Juli. Durch unterschiedliche Witterung kann dieser Zeitraum minimal variieren.

Sie benutzen diese Art der Signale nur in der Nacht zwischen 22 und 24 Uhr, da ihre Leuchtkraft nicht stark genug ist, um im Hellen zu leuchten. Man kann sie in trockenen Nächten an Wiesen, Hecken oder an Gewässern beobachten.

Fakten über Hunde: interessant, kurios, lustig

Fakt 1: Hunde können Haarausfall haben

Vor allem Hunderassen mit längerem Fell neigen zu Haarausfall. Die Hundehaare setzen sich meist auf Teppichen und Möbelstücken ab. Hierfür ist die ständige Bewegung und teilweise auch Verspieltheit vieler Hunde verantwortlich. Wie beim Menschen, fallen natürlicherweise auch beim Hund täglich eine gewisse Anzahl an Haaren aus. Da Hunde wilder sind als Menschen und viel herumtoben, verlieren sie in der Regel mehr Haare. Öfters bleiben sie zum Beispiel zwischen den Textilien am Sofa hängen oder aber in einem Spalt.

Fakt 2: Hunde-Fell riecht beim Waschen

Da der Hundekörper bei Nässe automatisch ein Talgsekret produziert, wird der stechende Hundegeruch erzeugt. Bei diesem Eigengeruch handelt es sich um eine Mischung verschiedenster Hormone und Körperausdünstungen. Für einen Hund dürften wir demnach höchstwahrscheinlich ebenso recht unangenehm riechen.

Fakt 3: Exzellenter Geruchssinn

Der Hund hat einen ausgezeichneten Geruchssinn, welcher unseren bei Weitem schlägt. Mit nur fünf Millionen verfügbaren Riechzellen, hinken wir den insgesamt 200 Millionen Riechzellen eines Hundes ganz schön hinterher. Demnach ist der Hund in der Lage, wie ein genialer Kommissar verschiedene Geruchsmischungen wahrzunehmen, die im Zusammenhang stehen und sich folglich ein Bild der vergangenen Geschehnisse machen.

Fakt 4: Hunde sind gute Wächter

Ein weiteres Faktum ist die Tatsache, dass es sich beim Hund um einen exzellenten Wächter handelt. Hunde müssen lediglich gefüttert, jedoch nicht bezahlt werden. Demnach kann der Hund einen menschlichen Security Dienst beim reinen Bewachen locker in die Tasche stecken. Ebenso ist ein Hund in den meisten Fällen sogar zuverlässiger, als etwa eine Alarmanlage. Hunde spüren nämlich sehr gut, wenn Gefahr droht und fangen rechtzeitig an uns zu warnen, ehe Unbekannte sich unserem Grundstück nähern.

Fakt 5: Wertvoller sozialer Kontakt

Da Hunde vom Wolf abstammen, handelt es sich um Rudeltiere, die eine äußerst strenge Hierarchie innerhalb der Gruppe wahren. Ein Hund ist daher tatsächlich der beste Freund des Menschen, denn bei richtigem Training und der nötigen Fürsorge würde er sein Leben für sein Herrchen geben. Das spüren die meisten Besitzer und da der Hund auch angefasst werden kann, spendet diese tiefe Freundschaft beiden Lebewesen eine Menge Lebenskraft.

Das Streicheln von Hunden soll übrigens sogar den Blutdruck senken, da der Kontakt uns beruhigt. Wenn Hunde und Menschen sich begegnen, schütten beide Lebewesen das Hormon Oxytocin aus. Dieses weckt im Hund und Menschen gleichermaßen ein Gefühl des Wohlbefindens.

Fakt 6: Straßenhunde wissen, wie man Bahn fährt

Da der Hund schon ewig vom Menschen gezüchtet wird, ist er uns mittlerweile recht ähnlich. Selbst sein Verhalten passt der Hund über Generationen immer mehr seinem Menschenfreund an.

Straßenhunde sind zum Beispiel in der Lage, mit der Straßenbahn zu fahren. Wenn etwa am Feierabend alle von der Arbeit kommen und in die Bahn steigen, schleichen sich clevere Straßenhunde rein. Diese Ereignisse sind vor allem in Internetvideos zahlreich dokumentiert worden. Das bedeutet, dass der Hund mittlerweile sehr intelligent geworden ist und sich uns noch mehr anpassen kann, als wir es jemals für möglich halten würden.

Fakt 7: Die feuchte Nase gibt Wärme ab

Warum die Hundeschnauze feucht ist? Über Schweiß und andere Sekrete, geben Hunde Wärme nach außen ab. Ungefähr dasselbe passiert auch an den Fußballen eines Hundes.

Wie die Haut eines Menschen an den Achselhöhlen, hat der Hund an der Schnauze und Füßen spezielle Poren entwickelt. Interessanterweise wachsen dem Hund an diesen Stellen keine Haare, während es sich beim Menschen umgekehrt verhält.

Fakt 8: Einige Hunde können nicht bellen

Der Basenji kann nicht bellen. Diese Hunderasse wurde vermutlich im alten Ägypten gezüchtet und unter anderem als Wachhund gehalten. Da er nicht bellen kann, durfte er auch in der Nähe der oberen Schicht Wache halten. Auf diese Weise wurde niemand unnötig geweckt.

Der Basenji gibt jedoch (zum Beispiel bei Gefahr) einen sehr eigenen Laut von sich, welcher nichts mehr mit dem eigentlichen Bellen zu tun hat. Somit konnte die Oberschicht damals noch immer recht gut feststellen, wo ihr Kleiner gerade ist. Das Bellen des Basenji gleicht nämlich eher einem Jaulen und unterscheidet sich demnach vom gewöhnlichen Bellen der Kläffer in der Umgebung.

Wenn ein Basenji zum Beispiel sehr aufgeregt ist, fängt er an zu heulen wie ein Wolf. Dies trifft jedoch nicht auf jeden einzelnen Basenji zu.

Fakt 9: Hunde können Linkshänder oder Rechtshänder sein

Auch bei Hunden gibt es tatsächlich Hunde, welche die linke oder aber rechte Pfote bevorzugen. Beim Pfötchen geben stützen sich (bei der Entscheidung welche Seite man nimmt) Hunde genauso wie der Mensch auf das, was sie als Jungspund gelernt haben. Manchmal haben sich Hundebesitzer nicht mit dem Hund beschäftigt und er hat eine eigene Vorliebe entwickelt. Dabei hat sich im Laufe der Jahre bewährt, dass Linkspfoter kreativer sind und Recchtspfoter einen guten Assistenzhund abgeben.

Fakt 10: Das Hundegehör ist besser ausgeprägt als das menschliche

Zwar ist bekannt, dass Hunde besser riechen können als die meisten Säugetiere, vom Hören, hören einige nun aber sicher zum ersten Mal. Hunde können nämlich nicht nur bis zu 50.000 Hz wahrnehmen, sondern auch selektiv hören. Wenn zum Beispiel sehr laute Musik spielt, können Hunde dieses Hintergrundgeräusch besser ausblenden, als wir Menschen. Öffnet sich dann selbst bei lauter Musik der Kühlschrank, hören Hunde es in den meisten Fällen trotzdem noch.

Fakt 11: Die Vorstellungskraft von Hunden

Der Hund lernt in seinem Leben recht schnell, wie etwas riecht. Aus diesem Grund kann er (wie wir auch) ungefähr einschätzen, wie etwas aussieht, das er gerade riecht. Somit weiß der Hund sehr wohl, dass es sich bei dem leckeren Geruch nach dem Einkauf beim Metzger in der verschlossenen Tüte um Gulasch und eine Edelsalami handelt. Gepaart mit dem fantastischen Geruchssinn, bereichert die Vorstellungskraft eines Hundes seine Wahrnehmung ungemein.

Fakt 12: Dalmatiner ohne Punkte

Vor allem nach den vielen Dalmatiner Disney Filmen und anderen Fernsehauftritten, hat die Beliebtheit dieser Rasse zugenommen. Doch wer wusste, dass Dalmatinerwelpen gar keine Punkte haben? Erst ungefähr zwei Wochen nach der Geburt werden die Punkte sichtbar und zieren das Fell der kleinen Dalmatiner Hündchen. In einigen Fällen kommt es auch vor, dass sich selbst noch viele Monate nach der Geburt neue Punkte bilden können.

Fakt 13: Farben sehen für Hunde anders aus

Lila sieht für Hunde aus wie Grau und die Farbe Rot wie Gelb. Das liegt vor allem an den verschiedenen Zapfenarten im Auge des Tiers. Ein Vorteil, den Hunde uns gegenüber visuell haben ist, dass ihre spezielle Netzhaut vor allem rotes Licht während der Dämmerung besser einfangen kann. Aus diesem Grund sehen nicht nur Katzen, sondern auch Hunde in der Nacht besser als der Mensch.

Fakt 14: Hunde erkennen Größe am Knurren

Wenn ein Kleinkind laut aufschreit, können die meisten Erwachsenen erkennen, dass es sich um den Schrei eines kleinen Kindes handelt. Ungefähr in diesem Zusammenhang können auch Hunde die Größe (bzw. das Alter) eines anderen Hundes einschätzen, ohne ihn gesehen zu haben. Lediglich am Knurren kann ein Hund einen anderen bereits erkennen und visualisieren, ohne ihn gesehen zu haben.

Fakt 15: Hundehalter haben ein starkes Immunsystem

Da Hundebesitzer regelmäßig mit dem Hund Gassi gehen müssen und das jeden Tag, haben sie im Durchschnitt ein besseres Immunsystem, als Menschen ohne einen Hund. Weiterhin gehen Menschen, die einen Hund besitzen, seltener zum Arzt, als Menschen, die keinen Hund haben. Dies ist vor allem mit der Tatsache zu begründen, dass man zusammen mit dem Hund öfter in der Natur ist.

Fakt 16: Es existieren 246 anerkannte Hunderassen

Im Jahre 2021 hat der FCI offiziell bekannt gegeben, dass es bisher 246 Hunderassen auf dem Planeten Erde gibt. Zu den begehrtesten Hunderassen gehören unter anderem:

  • Chihuahua
  • Mops
  • Dackel
  • Terrier
  • Golden Retriever
  • Spitz
  • Bulldogge

Fakt 17: Es gibt einen Beatles Song, der auch für Hunde geschrieben wurde

Im Song „A Day in the Life“ von den Beatles, wurde am Ende des Lieds eine Hundepfeife benutzt. Das haben die Musiker ganz gezielt inszeniert, da sie sich selbst für Hunde begeistern. Wenn dieses Lied läuft, sollte man auf seinen Vierbeiner achten, denn die Ohren wird er bei dem Geräusch mindestens anheben.

Fakt 18: Einige Hunde haben die Titanic überlebt

Im Jahre 1909 ging die Titanic unter und mit ihr eine Menge Menschen. 700 Passagiere und sogar 3 Hunde konnten es jedoch in die Rettungsboote schaffen und überlebten den schrecklichen Vorfall. Bei den Hunderassen handelte es sich um einen Pekinesen und zwei Spitzwelpen. Die Hunde wurden höchstwahrscheinlich in die Rettungsboote reingeschmuggelt, da sie recht klein sind und leicht in einen Koffer passen.

Fakt 19: Hunde waren schon im Weltall

Der russische Hund namens Laika wurde im Jahre 1957 ins Weltall geschossen und umkreiste die Erde in seiner Kapsel im Alleingang. Bei dem Experiment wurde der Straßenhund in die Sputnik 2 gesteckt und durfte dann als Testobjekt einmal um den Globus reisen.

Fakt 20: Auch Hundezähne sollten geputzt werden

Während Welpen meist um die 28 Zähne haben, knurren erwachsene Tiere mit etwa 42 Zähnen. Wer seinen Hund pflegt, sollte sich eventuell überlegen, ob er ihm nicht auch die Zähne putzen sollte. Zwar kann ein Knochen bereits für gute Dienste sorgen, jedoch kann nur mit unserem Zutun eine ansprechendere Mundhygiene erreicht werden.

Fakt 21: Riechversagen bei Überhitzung

Wenn der Hund an einem sehr warmen Tag nur wenig trinkt, kann er leicht überhitzen. In solch einem Zustand ist er unter anderem nicht mehr richtig fähig zu riechen. Der Körper stellt nämlich alle Funktionen in den Alarmzustand und versucht dadurch lebenserhaltende Maßnahmen einzuleiten. Der Geruchssinn eines überhitzten Hundes schwindet dabei um ganze 60 %.

Was ist ein Brownout? Erklärung, Bedeutung, Definition


Ein Brownout ist ein anhaltender Niederspannungszustand in einem elektrischen Stromnetz. Die Bundesnetzagenturen bezeichnen Brownouts häufig als „Gebietsabschaltungen“. Spannungsabfälle können wiederum zu Stromausfällen und Abschaltungen führen. Das Prinzip von Brownouts besteht darin, dass durch die Verringerung der Spannung in einem Gebiet die Abdeckung dieses Gebiets erhöht werden kann. Dies geschieht, indem einige Teile des Stromnetzes abgeschaltet werden, um andere am Netz zu halten. Stromausfälle dauern in der Regel vier Stunden oder weniger, können aber gelegentlich auch länger andauern.

Brownout bei Angebot und Nachfrage

Ein Brownout ist ein Stromausfall, der auftritt, wenn die Nachfrage nach Strom das Angebot übersteigt. Das kann passieren, wenn das Stromnetz überlastet ist oder wenn es ein Problem mit dem Kraftwerk gibt. Stromausfälle können gezielt sein, d. h. nur bestimmte Gebiete sind betroffen, oder sie können weit verbreitet sein.

Unkontrollierter Spannungsabfall beim Brownout

Ein Brownout ist ein unkontrollierter Spannungsabfall, der mehrere Minuten dauern kann. Brownouts werden durch ein überlastetes Stromnetz oder eine Störung in der Stromversorgung verursacht. Bei Spannungsabfällen kann es in Unternehmen und Haushalten zu Stromausfällen kommen.

Im Falle eines Stromausfalls können Geräte flackern oder weniger Strom verbrauchen. Stromausfälle können bei einem Spannungsabfall in einer elektrischen Stromversorgung auftreten.

Siehe: Unterschied: Blackout – Stromausfall

Wie oft kommen Brownouts vor?

Stromausfälle kommen häufiger vor, als man denkt. Sie treten auf, wenn die vom Kraftwerk gelieferte Spannung abfällt. Dafür kann es verschiedene Gründe geben, z. B. eine instabile Verbindung oder eine zu große Nachfrage seitens der Verbraucher. Stromausfälle dauern in der Regel nicht lange, aber sie können lästig sein und zu Störungen führen.

Wie hoch ist die Gefahr eines Brownouts?

Im kommenden Winter besteht die Gefahr von Stromausfällen, da es zu unkontrollierbaren Lastabschaltungen kommen kann. Das Stromnetz ist nicht in der Lage, die zusätzliche Nachfrage von Gasheizungen und anderen Geräten, die Strom verbrauchen, zu bewältigen. Dies kann zu Stromausfällen führen, d. h. zu Zeiträumen, in denen die Leistung gering ist. Die Bundesnetzagentur arbeitet an der Verbesserung des Stromnetzes, aber es ist immer noch anfällig für Stromausfälle in Zeiten hoher Nachfrage.

Gibt es im Strom eine Abschaltreihenfolge?

Ja, es gibt eine Abschaltreihenfolge im Strom. Die Abschaltreihenfolge ist wie folgt: Stromversorger, Übertragungsnetzbetreiber, Netzbetreiber, Bundesnetzagentur. Diese werden nacheinander abgeschaltet und der ihnen zur Verfügung stehende Stromverbrauch wird reduziert. Diese Abschaltung zielt darauf ab, die Stromzufuhr für das Prinzip zu reduzieren, und es ist unwahrscheinlich, dass andere Verbraucher davon betroffen sind.

Wie wahrscheinlich sind Lastabschaltungen im Strom?

Lastabschaltungen sind im Falle einer Unterbrechung der Stromversorgung eine sehr reale Möglichkeit. Nach Angaben der Bundesnetzagentur „müssen die Netzbetreiber die Wahrscheinlichkeit von Lastabschaltungen so gering wie möglich halten“. Denn Lastabschaltungen können einen Engpass im Stromnetz verursachen, der zu Stromausfällen führen kann.

Im kommenden Winter werden die Lastabschaltungen aufgrund der gestiegenen Stromnachfrage wahrscheinlich zunehmen. Dies liegt daran, dass in den Wintermonaten weniger Stromerzeugungskapazität zur Verfügung steht. Die Kraftwerke gehen in dieser Zeit in der Regel wegen Wartungsarbeiten oder aus anderen Gründen vom Netz. Infolgedessen ist der Strommarkt angespannter und die Preise sind höher.

Trotz der erhöhten Wahrscheinlichkeit von Lastabschaltungen im Winter sind die Netzbetreiber in der Regel in der Lage, diese unter Kontrolle zu halten und großflächige Ausfälle zu verhindern. Das liegt daran, dass sie über Notfallpläne verfügen und den Strom notfalls umleiten können. Darüber hinaus können sie andere Maßnahmen wie Lastabwürfe einsetzen, um die Nachfrage im Netz zu verringern.

Wie oft kommen Stromausfälle in Deutschland vor?

In Deutschland kommt es relativ häufig zu Stromausfällen. Nach Angaben der Bundesnetzagentur gab es allein im Jahr 2018 rund 1.200 Stromausfälle. Das liegt daran, dass die Stromnetze in Deutschland nicht immer auf der Höhe der Zeit sind. Meistens dauern die Ausfälle nur ein oder zwei Minuten, es gab aber auch schon welche, die viel länger dauerten.

Warum ist das Kolosseum kaputt? Erklärung


Das Kolosseum ist eines der wichtigsten und beeindruckendsten Wahrzeichen Roms. Scharen von Touristen aus aller Welt besichtigen täglich die fotogene Ruine, die früher ein Amphitheater war. Schon Jahrhunderte lang ist das Kolosseum eine Ruine. Es lohnt sich, die Geschichte des Bauwerks und seiner Zerstörung näher anzuschauen – und auch die Frage zu klären: „Was ist eigentlich ein Amphitheater?“

Die Geschichte des Kolosseums bis zum Beginn seiner Zerstörung

In Rom existierten schon Vorgängerbauten des Kolosseums, teils aus Holz, teils aus Stein, aber sie hielten alle nicht lang. Das Kolosseum wurde ganz aus Stein errichtet, und zwar in den Jahren 72 – 80 n. Chr. Bauherr war der römische Kaiser Vespasian, der von 9 – 79 n. Chr. lebte und von 69 – 79 Kaiser war. Er erlebte die Einweihung seines Prestige-Projekts „Kolosseum“ nicht. Die Einweihung konnte dann sein Sohn, Kaiser Titus (39 – 81, Kaiser von 79 – 81) feiern. Das Kolosseum wurde damals übrigens „Flavisches Amphitheater“ genannt, da Vespasian und Titus der Dynastie der Flavier angehörten.

Die Arena des Kolosseums ist oval und ca. 156 x 188 m groß. Bis zu 50.000 Zuschauer konnten rund um die Arena Platz nehmen, und zwar auf 4 Geschossen. Die drei unteren Geschosse hatten Arkaden, die oberste Etage war massiv gebaut. Interessant ist die Tatsache, dass die Arena 80 Eingänge hatte! Die 80 Arkaden im Erdgeschss dienten als Eingänge, so konnten die Besucher rasch an ihre Plätze gelangen und nach der Vorstellung das Kolosseum auch schnell wieder verlassen, ohne dass sich lange Warteschlangen bildeten. Im Jahr 80 fand die Einweihung statt, mit Gladiatorenkämpfen, Tierjagden und Seeschlachten. Für die Seeschlachten wurde die Arena geflutet.

Die Zerstörung des Kolosseums

Im Jahr 217 traf ein Blitzschlag das Kolosseum und richtete große Schäden am Bauwerk an. Das bedeutete aber nicht das Ende der Vorstellungen. Das Bauwerk wurde renoviert, und ab 238 fanden wieder Gladiatorenkämpfe und Tierjagden statt. Die Verbreitung des Christentums bedeutete jedoch eine Zäsur für die Amphitheater. Den Anhängern der neuen Religion waren sowohl die Gladiatorenkämpfe als auch die Tierhetzen ein Gräuel – zumal ja auch Christen im Kolosseum getötet worden waren. Um das Jahr 435 fanden die letzten Gladiatorenkämpfe im Kolosseum statt, um 523 die letzten Tierhetzen. Im Jahr 520 beschädigte ein Erdbeben das Kolosseum. Die Römer reparierten das Bauwerk nochmals, aber seine Zeit war vorbei. In der Spätantike diente das Areal zeitweise als Wohngebiet. Im Mittelalter richteten weitere Erdbeben (in den Jahren 847 und 1349) erhebliche Schäden an. Nachdem das Bauwerk schon stark beschädigt war, nutzten die Römer es im Mittelalter als Steinbruch. So entstand der heutige Zustand des Kolosseums – es ist auch als Ruine noch immer beeindruckend!

Die weitere Geschichte der Ruine: eine Attraktion für Archäologie und Tourismus

Papst Benedikt XIV., der von 1740 bis 1758 amtierte, erklärte die Ruine des Kolosseums als Märtyrerstätte, in Erinnerung an die Christen, die dort wegen ihres Glaubens getötet worden waren. Der Papst ließ auch eine Steintafel als Erinnerung an die Märtyrer anbringen und innerhalb des Kolosseums einen Kreuzweg mit Kapellen errichten. Im 19. Jahrhundert wurde das Kolosseum zu dem, was es noch heute ist: eine Touristenattraktion. Auch die Archäologen begannen nun, die Stätte zu erforschen. Seit 1964 findet jedes Jahr an Karfreitag eine Andacht mit dem Papst im Kolosseum statt. Touristen können die Sehenswürdigkeit jederzeit besuchen, es kostet aber Eintritt. Führungen werden u.a. auf Deutsch und auf Englisch angeboten.

Amphitheater – schöne Bauwerke für grausame Zwecke

Amphitheater sind Entwicklungen der antiken Römerzeit. Ein Amphitheater ist eine nach oben offene Arena mit rundem oder ovalem Grundriss, d vieon Zuschauerrängen umgeben ist. Die Zuschauerränge können mehrere Etagen umfassen – so wie ein Fußballstadion der modernen Zeit. Das Kolosseum ist das größte Amphitheater, das je gebaut wurde. In Ländern, die sie eroberten, haben die Römer auch Amphitheater konstruiert, so etwa im germanischen Trier.

Die Amphitheater dienten der Belustigung der Zuschauer. Es wurden Gladiatorenkämpfe und Tierkämpfe veranstaltet. Bei den Gladiatorenkämpfen gingen bewaffnete Männer aufeinander los, solche Kämpfe endeten sehr oft mit Todesfällen. Die Tierkämpfe waren für die menschlichen Teilnehmer auch nicht ganz ungefährlich, aber in der Regel endeten sie mit dem Tod von vielen Tieren. Löwen, Tiger und Bären waren bei den Zuschauern besonders beliebt. Gladiatorenkämpfe veranstalteten die Römer vom 3. vorchristlichen Jahrhundert bis in das 5. nachchristliche Jahrhundert, die Tierkämpfe sind für die Zeit zwischen dem 2. vorchristlichen Jahrhundert bis zum Anfang des 6. nachchristlichen Jahrhunderts belegt. Nachdem sich das Christentum im römischen Reich durchgesetzt hatte, ging die Zeit der Gladiatoren- und Tierkämpfe zu Ende. Schon der christliche Kaiser Konstantin hatte um das Jahr 300 n. Chr. ein Edikt gegen die „Tierhetzen“ erlassen. Aber es dauerte dann noch einige Zeit, bis sie endgültig abgeschafft wurden.

Sind Spatzen wichtig? Erklärung, Bedeutung


Der zierliche Hausspatz begleitet den Menschen seit Tausenden von Jahren. Dabei ist sein Einfluss auf die Umwelt keineswegs zu unterschätzen. Denn der Haussperling frisst weit mehr als Körnerfutter. Die Singvögel dienen als sichere Indikatoren für die Gesundheit in städtischen Regionen. Damit sind Spatzen für das Ökosystem unerlässlich.

Spatz, Hausspatz oder Haussperling – dem Menschen wohlvertraut

Passer domesticus folgt seit über 10.000 Jahren dem Menschen. Dort, wo der Homo sapiens dauerhaft siedelt, sind die Sperlingsvögel ebenfalls anzutreffen. Heutzutage finden sich in Großstädten jedoch immer weniger geeignete Nistplätze für den zierlichen Singvogel. Dabei ist der Hausspatz vor allem durch charakteristische Tschilp-Laute und das Auftauchen in Gruppen bekannt. Mit bis zu 16 Zentimetern Länge und einem Gewicht von etwa 30 Gramm ist der Spatz sowohl von geringer Größe als auch unauffällig. Sein üblicherweise unscheinbares, braunes Gefieder unterstreicht diesen Eindruck.

Futter für den Spatz – Körner, Insekten, Wirbellose

Der Haussperling findet sich in Trupps zusammen. In solchen Verbänden erfolgt praktisch alles gemeinsam: schlafen, jagen, baden, brüten und die Futtersuche. In urbanen Gegenden fallen die kleinen Vögel auf, sobald sie im Café auf dem Nachbartisch landen und Reste stibitzen. Dadurch entsteht vornehmlich der Eindruck, dass die Singvögel hauptsächlich Körner fressen. Dabei wählen die Sperlingsvögel ebenfalls Insekten und Wirbellose als Nahrungsquelle. Deshalb finden sich Spatzen oftmals in der Nähe von Büschen, Blumen und Wiesen mit Wildblumen. Die Lebensräume von Krabbeltieren ziehen unweigerlich den Hausspatz an. Der Vogel bedient sich gern und hält dementsprechend die Population der Insekten in Grenzen.

Das zeigt sich ebenfalls in der Vergangenheit: Im 18. Jahrhundert wurde der Spatz auf königlicher Anordnung hin bekämpft. Denn die landwirtschaftlichen Felder sollten geschützt werden. Das Resultat war jedoch ein Übermaß an Insekten, sodass der Sperling schnell wieder willkommen war. In der modernen Welt zählt der Vogel zu den Allesfressern. Neben der Auswahl an Insekten, Wirbellosen, Körnern und Sämereien, bedient sich das Tier gleichfalls bei Imbissständen, Restaurants oder Cafés. Aufgrund der Nähe zu Supermärkten und gewerblichen Küchen wird der Singvogel oftmals als Schädling betrachtet. Dabei ist seine Existenz für die Natur von enormer Bedeutung.

Der Haussperling und die Umwelt: Wie wichtig sind Spatzen?

Der Singvogel ist nahe dem Lebensraum von Menschen heimisch. Allerdings verursachen aufgeräumte Städte und nischenfreie Häuser zunehmend eine Abnahme der Möglichkeiten für Nester und Bruthöhlen. Das erschwert das Leben des Vogels. Zusätzlich sorgen Katzen, selten Hunde, Turmfalken und andere Greifvögel neben Steinmardern für gefährliche Lebensräume. Damit gelten Spatzen als wertvolle Beutetiere innerhalb der natürlichen Nahrungskette. Ihr Beitrag zur Regulierung der Krabbeltiere ist nicht zu unterschätzen. Die Haussperlinge vertilgen als ausgewachsene Vögel die zahlreichen Insekten ebenso wie deren Larvenstadien in der Zeit der Brutpflege.

Demzufolge tragen sie zu einem ökologischen Gleichgewicht bei – speziell innerhalb urbaner Gegenden. Ohne die Singvögel gäbe es für Insekten keine natürlichen Fressfeinde. Das zöge einen verstärkten Anstieg der Insektenpopulation nach sich. Letztlich müsste sich der Mensch der Probleme durch Schädlinge annehmen. Denn zerstörte Ernten auf den Feldern wäre eine Schwierigkeit, die ein Schwund an Spatzen zur Folge hätte. Ein weiterer Aspekt betrifft die Verbreitung der Gewächse im Lebensraum. Der Hausspatz verzehrt Körner und Sämereien. Dadurch trägt er wesentlich zur Fortpflanzung von Pflanzen bei. Denn der Vogel frisst die Früchte und scheidet sie schließlich woanders aus, sodass die Pflanzen neu wachsen können.

Zusätzlich zählen Hausspatzen zu den sogenannten Biomarkern für Städte. Sie liefern Erkenntnisse über die Luftverschmutzung innerhalb urbaner Zonen. Das bedeutet, die Verschmutzung ist umso stärker, je weniger der Tiere dort existieren. Ein wichtiger Aspekt ist deshalb besonders erwähnenswert: Spatzen gelten als bedrohte Tierart, speziell in Städten. Durch die moderne Lebensweise der Menschen finden die Vögel immer weniger Nistplätze. Sie sind verstärkt auf die menschliche Unterstützung angewiesen. Nistkästen, Wildblumen, Kletterpflanzen und Hecken helfen, Insekten anzulocken und schlussendlich Haussperlinge zu beheimaten.

Zusammenfassung: Spatzen als wichtige Säule im Ökosystem

Vögel gehören zu den bedeutsamen Kriterien, sobald es um den Schutz der Umwelt geht. Das natürliche Gleichgewicht beinhaltet ebenso Insekten und Wirbellose (beispielsweise Würmer und Raupen). Sind die Krabbeltiere in ausreichender Zahl vorhanden, finden sich an Gebäuden genügend Nischen zum Nisten, werden die zierlichen Spatzen gerne heimisch. Da sie Insekten fressen, helfen sie effizient, potentielles Ungeziefer auf natürliche Weise unter Kontrolle zu halten.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung


Quastenflosser gelten als das fehlende Bindeglied zwischen Fischen und Landwirbeltieren. Aufgrund ihrer besonderen Merkmale zeigen diese ursprünglichen Fische Anzeichen für den Übergang zu Landlebewesen. Quastenflosser galten als prähistorische Fische, die seit langem ausgestorben sind. Doch erst vor weniger als einem Jahrhundert wurde klar, dass dies doch nicht der Fall ist. Es war eine Sensation: Für die Wissenschaftler kam die Entdeckung eines Quastenflossers der Entdeckung eines lebenden Dinosauriers gleich.

Ein lebendiges Stück der Evolution

Es war Charles Darwin, der darauf hinwies, dass sich die Arten der verschiedenen Gattungen und Klassen im Laufe der Zeit nicht in gleichem Maße verändert haben. Charles Darwin prägte für dieses Phänomen auch den Begriff „lebende Fossilien“. Mit diesem Begriff definierte er Abstammungslinien, innerhalb derer sich neue Formen langsamer bilden und alte Formen langsamer aussterben, wobei entwicklungsgeschichtlich ursprüngliche Merkmale erhalten bleiben. Dieser Begriff ist populär geworden, wird aber manchmal missverstanden, da er bedeutet, dass sich manche Organismen nicht weiterentwickeln. Paläontologen und Evolutionsbiologen verwenden den Begriff jedoch häufig. Hier wird der Begriff „lebendes Fossil“ verwendet, um einen Stillstand bei der Veränderung der Körperstruktur in einigen Abstammungslinien zu beschreiben.

Warum ist der Quastenflosser ein lebendes Fossil? Erklärung

Die ältesten bekannten Quastenflosser-Fossilien stammen aus der Zeit vor über 400 Millionen Jahren. Der Fossilbericht der Quastenflosser endet mit der späten Kreidezeit. Es lag die Vermutung nahe, dass die mit dem Massenaussterben vor 66 Millionen Jahren auch die Quastenflosser ausgelöscht worden sind.

Der Quastenflosser und seine Wiederentdeckung

Man ging davon aus, dass der Quastenflosser vor über 60 Millionen Jahren ausgestorben war, doch seine Wiederentdeckung 1938 vor der Küste Südafrikas schockierte die wissenschaftliche Welt. Marjorie Courtenay-Latimer war gerade 24 Jahre alt, als sie die Entdeckung ihres Lebens machte. Einer der weniger aufregenden Teile ihres Jobs als Kuratorin des East London Museum in Südafrika bestand darin, auf Anrufe von Fischern zu reagieren, die etwas gefangen hatten, das sie für ungewöhnlich hielten, und dann zu den Docks zu fahren und es zu untersuchen.

Für Marjorie Courtenay-Latimer war die Entdeckung dieses vermeintlich ausgestorbenen Tieres, das schon existierte, als die Tyrannosaurier noch auf der Erde lebten, ein Triumph. Sie beschrieb ihn als den schönsten Fisch, den sie je gesehen hatte.

Der Fang von Quastenflossern war in der Folgezeit äußerst selten. Erst im Jahr 1952 wurde ein zweites Exemplar gefangen. Der Fangplatz vor den Komoren war 3000 km von dem des ersten Exemplars entfernt. Diese Fische werden als Komoren-Quastenflosser (wissenschaftlich: Latimeria chalumnae) bezeichnet. Als weitere Art wurde 1997 der kleiner bleibende Manado-Quastenflosser Latimeria menadoensis entdeckt.

Die Wiederentdeckung des Quastenflossers, des 400 Millionen Jahre alten prähistorischen Fisches, der lange als ausgestorben galt, zeigt, dass diese Fische über einen längeren Zeitraum existieren als die Dinosaurier. Kein Wunder, dass der Fisch nach Courtenay-Latimers verblüffender Entdeckung im Jahr 1938 als lebendes Fossil bezeichnet wurde und seine Identifizierung als das wichtigste Ereignis in der Erforschung der Naturgeschichte im 20. Jahrhundert dargestellt wird.

Die besonderen Merkmale der Quastenflosser

Abgesehen von der Tatsache, dass er seit Jahrtausenden als ausgestorben galt, ist der Quastenflosser auch aus mehreren anderen Gründen einzigartig. Die vier gliedmaßartigen Flossen, die Courtenay-Latimer feststellte, sind eigentlich Lappenflossen, die fast wie Beine für den Fisch wirken und sich in einem abwechselnden Muster bewegen, wie ein trabendes Pferd. Damit ergibt sich der Anlass für die Vermutung, dass der Quastenflosser ein wichtiges Bindeglied zwischen herkömmlichen Fischen und den ersten Lebewesen ist, die sich zu vierbeinigen, land- und meeresbewohnenden Amphibien entwickelten.

Der Quastenflosser wird also deshalb als lebendes Fossil betrachtet, da Wissenschaftler davon ausgingen, dass er das einzige verbliebene Mitglied einer Abstammungslinie ist, die sonst nur aus Fossilien bekannt ist und keine nahen Verwandten hat und dass er sich vor etwa 400 Millionen Jahren zu seiner heutigen Form entwickelt hat. Mehrere neuere Studien haben jedoch gezeigt, dass die Körperformen von Quastenflossern weit vielfältiger sind als bisher angenommen.

Der Quastenflosser kann über zu zwei Meter lang werden und bis zu 100 kg wiegen. Wissenschaftler schätzen, dass der Fisch über 60 Jahre alt werden kann, was ihn noch geheimnisvoller macht. Die Weibchen sind im Allgemeinen größer als die Männchen, und obwohl sie in größeren Gruppen friedlich sind, mögen Quastenflosser keinen Körperkontakt. Quastenflosser sind nachtaktive Tiere, die sich tagsüber in Höhlen oder tiefe Gewässer zurückziehen und dann in die untersten Ebenen des Ozeans aufsteigen, um am Meeresboden zu fressen.

Geschwindigkeit der Evolution

Die niedrige Evolutionsrate auf der Grundlage eines dauerhaften generalistischen morphologischen Bauplans wurde von den meisten nachfolgenden Autoren, die sich mit der Gruppe beschäftigt haben, bestätigt, wohl wissend, dass es auch Ausnahmen von diesem allgemeinen Bauplan gibt. Ein Teil der Forschergemeinschaft, die sich mit fossilen und lebenden Quastenflossern beschäftigt, vermeidet es jedoch, diesen Ausdruck zu verwenden.

Warum sind Quastenflosser fast „lebende Fossilien“?

Darwins Definition des Begriffs war ungenau, und er vertrat die Auffassung, dass „Arten und Gruppen von Arten, die man abweichend nennt und die man fantasievoll als lebende Fossilien bezeichnen kann, uns helfen werden, uns ein Bild von den alten Formen des Lebens zu machen“. Seit mehr als 200 Jahren wird jedoch über die Definition des Konzepts und ganz allgemein über die Vorzüge seiner Verwendung in den Biowissenschaften debattiert. Obwohl Darwin (1859) mehrere Fischtaxa als Beispiele für „lebende Fossilien“ anführte, erwähnte er die Quastenflosser nicht, die zu seiner Zeit nur als Fossilien bekannt waren. Huxley bemerkte jedoch bald darauf die geringe anatomische Vielfalt der Quastenflosser im Laufe ihrer Geschichte.

Seit dieser Zeit und insbesondere nach der Entdeckung der lebenden Latimeria im Jahr 1938 ist der Quastenflosser aufgrund der langsamen morphologischen Entwicklung, die durch die Fossilienaufzeichnungen der Gattung veranschaulicht wird, und seiner angeblichen Verwandtschaft mit den Tetrapoden zu einem ikonischen Symbol des „lebenden Fossils“ geworden. Hier geht es nur um die Frage der Evolutionsgeschwindigkeit, nicht um die Frage der Abstammung oder anderer Merkmale, die Quastenflossern als „lebende Fossilien“ zugeschrieben werden. Zuvor war man davon ausgegangen, dass es sich um ein lebendes Fossil handelte, da die Wissenschaftler davon überzeugt waren, dass es sich bei dem Exemplar von 1938 um den letzten verbliebenen Quastenflosser handelte, doch spätere Studien zeigten, dass die Art weitaus vielfältiger ist.

Warum sind Meere salzig? Erklärung


Salz ist für das Leben unerlässlich. Salz ist ein natürliches Mineral, das aus dem Boden gewonnen wird. Es ist ein wesentlicher Nährstoff für die meisten Lebewesen und hilft, den Körper hydriert zu halten. Salz entsteht, wenn sich Gesteinsmassen auflösen oder durch Erosion abgetragen werden. Aber Salz ist auch ein wesentlicher Bestandteil von Meeren und Ozeanen. Die Frage, warum Meere salzig sind, ist eine der am häufigsten gestellten Fragen über Ozeane. Die Antwort ist relativ einfach und liegt in der Herkunft des Wassers.

Das Urmeer

Das Salz in unseren Meeren stammt ursprünglich aus dem Urmeer, einem riesigen Meer, das vor etwa 500 Millionen Jahren existierte. Dieses Meer war so groß, dass es alle Kontinente bedeckte und sich über die ganze Erde erstreckte. Im Laufe der Zeit verdunstete das Wasser des Urmeers und hinterließ eine dichte Salzlösung. Diese Salzlösung wurde immer konzentrierter, bis sie schließlich zu einer festen Masse erstarrte und zu dem Salzberg wurde, den wir heute als Salzsee bezeichnen.Das Salz in unseren Meeren ist also vor allem aufgrund der Verdunstung des Wassers im Urmeer entstanden. Aber es gibt noch eine andere Quelle für das Salz in unseren Meeren.

Salz durch Flüsse und Regenwasser

Salz kommt in die Meere durch Flüsse, die ins Meer münden. Diese Flüsse transportieren das Salz, das sich in den Gesteinen des Ufers angesammelt hat, ins Meer. Auch Regenwasser enthält geringe Mengen an Salzen, da es sich beim Kontakt mit dem Boden verdünnt und so auch Salze aus dem Boden löst. Das Wasser der Meere stammt daher auch aus dem Regen, der auf die Erde fällt. Und weil das Salz aus dem Boden und den Gesteinen langsam in das Regenwasser gelangt, ist auch das Meerwasser salzig. Diese beiden Prozesse tragen dazu bei, dass sich im Laufe der Zeit immer mehr Salz in den Meeren anreichert.

Aber das ist noch nicht alles: Auch die Tiere und Pflanzen, die im Meer leben, tragen zur Salzigkeit bei. Denn ihre Körper enthalten ebenfalls Salz, das ins Wasser abgegeben wird, wenn sie sterben. So gelangt immer mehr Salz ins Meerwasser – und es wird immer salzhaltiger.

Ein weiterer Faktor, der die Salzigkeit der Meere beeinflusst, ist die Verdunstung. Wasser verdunstet ständig von der Oberfläche der Meere und Ozeane und nimmt dabei auch einige der Salze mit. Dieser Prozess findet jedoch nicht überall gleich schnell statt. In Bereichen mit hoher Verdunstungsrate, wie zum Beispiel an den Küsten trockener Länder oder in der Nähe von Gebirgen, verdunstet mehr Wasser und es bleiben entsprechend mehr Salze zurück. So tragen auch die unterschiedlichen Klimazonen dazu bei, dass sich die Meere unterschiedlich salzig verhalten.

Herstellung von Meeressalz

Die Herstellung von Kochsalz ist relativ einfach und erfordert lediglich einige chemische Verfahren sowie eine Verdampfung des Meerwassers. In erster Linie wird jedoch Steinsalz verwendet, da es einen höheren Reinheitsgrad aufweist und daher für die Herstellung von Lebensmitteln besser geeignet ist.

Fazit

Insgesamt ist die Zusammensetzung des Meereswassers sehr komplex und wird von vielen verschiedenen Faktoren beeinflusst. Die genaue Zusammensetzung variiert jedoch nur geringfügig von Ort zu Ort und hat im Wesentlichen einen natürlichen Ursprung. Grundsätzlich kann gesagt werden, dass Meere salzig sind, weil sie aus dem Salz der Erde bestehen. Das Salz der Erde stammt aus dem Gestein der Kontinente und wird durch Erosion in die Meere gespült.

Warum Casinobegriffe einheitlich verwendet werden? Erklärung, Bedeutung


Mit komplexen Regeln und verschiedenen Strategien setzen manche Casinospiele viel Konzentration und Vorkenntnisse voraus. Schon die Begrifflichkeiten sorgen bei Einsteigern für Schweißperlen auf der Stirn. Allerdings bringt das Vokabular einen großen Vorteil mit sich: Viele Begriffe sind in allen Sprachen gleich. Eine Erleichterung, die das internationale Spiel weltweit so beliebt macht.

Sprache ist eine faszinierende Sache. Mehr als 700 verschiedene Arten existieren laut Experten auf der Welt, die eine gemeinsame Kommunikation in vielen Fällen erschweren. Schon die Frage nach dem Weg kann zur Herausforderung werden, wenn sich Sender und Empfänger nicht auf einer Ebene verständigen können. Was bleibt, ist eine Erklärung, die nur mit Händen und Füßen übermittelt werden kann.

Umso erstaunlicher ist es, dass durchaus komplexere Themen dennoch eine Community verschiedener Sprachen vereinen können. Casinospiele zählen in diese Kategorie, die Spieler weltweit an einen Tisch holen und aufgrund einheitlicher Begrifflichkeiten für einen reibungslosen Ablauf sorgen. Online Casinos haben ihren Teil dazu beigetragen, dass diese Entwicklung so rasch vorangeschritten ist. In Ländern wie der Schweiz, in der Italienisch, Deutsch und Französisch als gängige Sprachen gesprochen werden, bieten die Online Casinos der Schweiz eine perfekte Anlaufstelle für Interessierte. Der Blick auf einige wichtige Begrifflichkeiten zeigt, warum.

Wort für Wort

Wer sich zum ersten Mal an Casino- oder Tischspielen versuchen möchte, dem sei ans Herz gelegt, die ersten Runden in der jeweiligen Muttersprache zu spielen. Das Regelwerk kann Anfänger überfordern und erschwert das Verständnis unnötig, wenn es in einer Fremdsprache vorliegt. Von selbsterklärenden Zügen oder nächsten Schritten kann bei Poker, Baccarat oder Blackjack kaum die Rede sein. Im Zuge der Einführung wird jedoch deutlich, dass es viele Begriffe und Schlagwörter gibt, die als einheitliche Umschreibung international gelten.

Bankroll, Bet Fold oder La Grande sind nur eine Auswahl an unzähligen Beispielen. Dennoch stehen sie für eine verständliche Themensprache, die Deutsche, Amerikaner oder Franzosen gleichermaßen verstehen. Die Vereinheitlichung gestaltet das gemeinsame Spiel deutlich flüssiger und umgeht auch bei Turnieren unnötige Barrikaden. Alle Teilnehmer, aus welchen Ländern sie auch stammen mögen, haben somit die gleichen Chancen auf den Sieg.

Grundlagen schaffen

Internationale Spiele oder sportliche Turniere kommen ohne eine gemeinsame Basis kaum aus. Events wie die Fußballweltmeisterschaft in Katar wären kaum denkbar, wenn sich bestimmte Begriffe im Spiel nicht einfach vermitteln ließen. Die Faktoren von Zeit, Stress, Druck und Kombinationsgabe verlangen einfache Ansagen, die keine Übersetzung benötigen. Auf Basis dieser Grundlagenverständigung sind Spiele über sämtliche Kontinente hinweg erst möglich und durchführbar.

Die Gaming-Community bietet ein weiteres passendes Beispiel für Sprache auf einer Ebene. Auch wenn sich typische Begriffe wie Score, Hub, Cheat oder Bug fast ausschließlich der englischen Sprache bedienen, wissen Gamer sofort, um was es sich dabei handelt. Die Wissenschaft hat diese Ebene schon lange für sich entdeckt: Seit Jahrhunderten werden wissenschaftliche Entdeckungen aus dem Pflanzen- oder Tierreich mit lateinischen Namen versehen, damit internationale Forschungen einen gemeinsamen Nenner besitzen.

Die Welt rückt zusammen

Dank der Digitalisierung rückt die Welt ein kleines bisschen enger zusammen. Kommunikationsweisen, die früher nur über langwierige Wege funktionierten, sind heute mit WhatsApp, E-Mail oder Messenger innerhalb von Sekunden möglich. Grenzen verschwimmen und machen besonders das Internet zu einem Ort, an dem Verständigung über eine eigene Sprache funktioniert.

Online Casinos nehmen dabei einen Raum ein, indem sie durch Live- oder Online-Spiele unterschiedliche Nationen an einen Tisch holen. Wer sich mit den Grundlagen auseinandersetzt und die wichtigsten Begriffe zuzuordnen weiß, der wird selbst bei Spielen mit fremdsprachigen Mitspielern keine Probleme haben, sich zurechtzufinden. Statt langen Erklärungen gibt es präzise Ansagen, die keine Fragen offenlassen. Vielleicht ist dies ein wichtiger Grund, weshalb sich Poker oder Blackjack im digitalen Raum großer Beliebtheit erfreuen. Zudem teilt die Community eine Sprache, die Abgrenzungen schafft und den Kreis des Besonderen umschließt.

Warum ist Pluto kein Planet mehr? Erklärung


Pluto war jahrelang als der neunte Planet unseres Sonnensystems bekannt. Mittlerweile zählt er aber laut Astronomen nicht mehr dazu und wird als Zwergplanet klassifiziert. Er liegt im sogenannten Kuipergürtel, einem großen Feld an Asteroiden und Kometen. Viele, die in der Schule noch den alten Fakt gelernt haben, sind immer wieder überrascht zu erfahren, dass Pluto nicht mehr zu den großen Planeten unseres Sonnensystems zählt. Wie ist diese Klassifizierung zugeordnet und warum zählt Pluto heutzutage nicht mehr als Planet?

Fakten zu Pluto

Der Zwergplanet liegt im Kuipergürtel, etwa 7,5 Milliarden Kilometer von der Erde entfernt. Diese Zahl schwankt aber je nach Orbit der beiden Himmelskörper. Sonnenlicht braucht rund sechs Stunden, bis es Pluto erreicht hat. Er hat einen Durchmesser von etwas mehr als 2300 Kilometer und ist somit etwas kleiner als unser Mond. Für eine Umrundung der Sonne braucht Pluto ganze 247,94 Erdjahre.

Seine Atmosphäre besteht zu 99 Prozent aus Stickstoff, mit Anteilen von Methan und Kohlenmonoxid. Die Oberfläche ist ca. -240 Grad kalt. Er besteht aus einer Schicht von Stickstoffeis, darunter Wassereis und der Kern aus Gestein. Die bisher besten Bilder wurden 2015 von der Raumsonde „New Horizons“ aufgenommen. Dabei zeigt sich Pluto in einem rot-weiß-blauen Ton. Der Zwergplanet hat aktuell fünf bekannte Monde: Charon, Nix, Hydra, Kerberos und Styx.

Die Entdeckung von Pluto

Offiziell wurde Pluto am 18. Februar 1930 entdeckt und damals als neunter Planet bezeichnet. Forscher haben bereits vermutet, dass sich nach Neptun noch ein weiterer Planet befinden muss, der die Umlaufbahnen der anderen vorherigen Planeten beeinflusst. Gefunden wurde er von Clyde W. Tombaugh, einem jungen Astronomen im Lowell-Observatorium. Wie auch alle anderen Planetennamen bezieht sich dieser auf die römische und griechische Mythologie. Pluto ist dabei der Herrscher der Unterwelt.

Pluto: Klassifizierung als Planet

Pluto wurde in den folgenden Jahrzehnten weiter erforscht. Es gab jedoch schon damals Diskussionen, ob Pluto jemals als Planet zählen sollte. Immerhin ist er kleiner als unser Mond. Die Unterhaltungen darüber fanden bereits Anfang der 1990er Jahre statt, da man die Größe und die stark elliptische Umlaufbahn des Planeten nicht ganz mit den anderen acht kategorisieren konnte. Man hatte zuerst nicht erwartet, dass Pluto in Wirklichkeit so klein ist.

In den Jahren danach wurden immer mehr solcher vermeintlichen Planeten gefunden, diese wurden „Plutinos“ genannt. Der Begriff umfasst alle Objekte aus dem Kuipergürtel, die dem Pluto ähneln. Es war also schon abzusehen, dass Pluto vielleicht nicht mehr lange den Status als neunten Planeten behalten konnte. Ansonsten hätten Astronomen die Klassifikation ändern müssen.

Pluto als Zwergplanet

Am 24. August 2006 wurde schließlich eine neue Klasse von Planeten eingeführt, die sogenannten Zwergplaneten. Pluto, mitsamt anderen Himmelskörpern, wurde in diese Klassifizierung gesteckt. Seitdem gilt Pluto nicht mehr als neunter Planet, da er dafür nicht die neu definierten Anforderungen erfüllt.

Die neue Definition für Planeten lautet:

  • 1. Objekt muss um die Sonne rotieren.
  • 2. Objekt muss genügend Masse und Rotation haben, um eine fast runde Form anzunehmen.
  • 3. Objekt muss frei von umliegenden kleineren Objekten sein, die diese durch die dominante Anziehungskraft in sich aufgenommen hat.

Laut dieser Definition fällt Pluto im dritten Punkt raus, da es andere Himmelskörper in der unmittelbaren Umgebung gibt. Dementsprechend mussten auch Schulbücher und Lehrpläne angepasst werden, da viele Pluto weiterhin als Planet sahen. Auch unter Astronomen gibt es weiterhin Streitigkeiten, ob Pluto nicht wieder als normaler Planet eingestuft werden soll. Bisher gibt es jedoch keine offiziellen Versuche, ihn wieder als neunten Planeten ins Sonnensystem aufzunehmen.

Woher kommt das ganze Salz im Meer? Erklärung


Im Laufe der Zeit entstanden Gebirge und sind wieder zerbrochen, woraufhin abgefallenes Gestein mithilfe des Wetters zersetzt werden konnte. Bei diesem Prozess werden die Salze mithilfe von Regen aus den Steinen gespült und anschließend durch Bäche und Flüsse ins oder ans Meer befördert.

Woher kommt das ganze Salz im Meer? Erklärung

Diese Erklärung findet sich im gesamten Internet und in nahezu jedem themenverwandten Buch, jedoch handelt es sich hierbei nur um eine Seite der Münze, die in den meisten Lexika präsentiert wird. Folgt man dieser Logik, so müsste doch nachweislich immer mehr Salz im Meer landen?

In der Realität verhält es sich jedoch anders als man meist annimmt, denn die meisten Salze setzen sich irgendwann am Meeresboden ab und versickern. Somit kann eine wirklich enorm große Menge Salz im Meer gespeichert werden.

Einigen speziellen Salzen, wie etwa dem Kalzium, gelingt das sogar ganz gut. Immerhin existiert es unter Wasser vor allem als Kalkschale, welche unter anderem für Korallen und Muscheln essenziell ist.

Irgendwann sind die Salzablagerungen an einer Stelle des Meeres derart hoch, als dass sich im Laufe von Millionen von Jahren ein Gebirge daraus auffaltet. Sobald dieses dann anfängt zu bröckeln, schließt sich der Salzkreislauf wieder.

Ein weiterer Faktor sind die vielen vom Mensch geschaffenen Dämme, Landhebungen und Senkungen. Diese kappen die Verbindung zwischen dem Meer und den Flüssen, sodass sich an den entsprechenden Stellen ein großer Teil der Salze in den Flüssen absetzt. Verdunstet nun ein Teil oder der gesamte Fluss während eines sehr heißen Sommers, bleibt eine Menge Salz zurück.

Diese ausgetrockneten Salzseen hinterlassen gigantische Salzblöcke, die meterhoch in die Luft ragen. Besonders bekannt sind in diesem Zusammenhang deutschlandweit etwa das Kavernengelände in Wilhelmshaven oder aber die Salzstöcke in Gorleben.

Bald gibt es keine Salzmeere mehr

Wissenschaftler aus aller Welt sind sich mittlerweile einig: In etwa 100 Millionen Jahren wird das Mittelmeer nur noch Geschichte sein, denn die Menge an Salz wird irgendwann auch Gebirge im Meer produzieren und das Wasser in riesige Seen umschichten.

Ein äußerst interessantes Phänomen ist unter anderem, dass Meerwasser erst bei -2°C gefriert. Dies hat vor allem mit dem erhöhten Salzgehalt zu tun, welcher dem Wasser eine hohe Stabilität verleiht.

Auch unsere Körperflüssigkeiten sind voller verschiedener Salzverbindungen, die denen im Meer gleichen. Tränen oder Schweiß sind hierbei sehr gute Beispiele, denn jeder weiß, dass diese Flüssigkeiten salzig schmecken. Somit ist im menschlichen Körper nachweislich eine Menge Salz vorhanden. Im Prinzip tragen wir das Weltmeer in einer verkleinerten Form ständig mit uns herum.

Vor allem Nationalparks brüsten sich des Öfteren mit ihren salzigen Attraktionen. Diese sind in einigen Teilen Deutschlands recht nah ans Meer gebaut worden und daher direkt vom Salz betroffen. Den erhöhten Salzgehalt in der Luft schmeckt man zum Beispiel am Wattenmeer.

Hier kann die salzige Seeluft die Gesundheit fördern und die inneren Abwehrkräfte aktivieren. Besonders salzhaltige Gewässer hinterlassen meist eine Salzkruste auf den Badesachen. Somit weiß man in einem solchen Fall direkt, dass es sich um eine hohe Konzentration handelt.

Die Pflanzen und Tiere, die in solch salzigen Gegenden überleben möchten, müssen sich sehr kreative Wege einfallen lassen, wie sie regelmäßig an Süßwasser (bzw. Frischwasser) kommen. Das frische Salzwasser bahnt sich nämlich zunehmend neue Wege in Richtung Meer.

Warum ist der Uluru heilig? Erklärung


863 Meter über dem Meersspiegel thront der Uluru, zwischenzeitlich auch als Ayers Rock bekannt, über das australische Outback. Der im Sonnenuntergang rot leuchtende Berg gehört zu den heiligen Stätten der Anangu. Denn der Berg hat mythologisch eine enge Verknüpfung zur sogenannten Traumzeit, dem Entstehungsmythos der Anangu. Lange vernachlässigt, kristallisierte sich über die letzten Jahrzehnte in Australien und westlichen Ländern das Verständnis für die heilige Bedeutung des Berges heraus.

Der Uluru gehört zu den imposanten Landmarken mitten in der zentralen Wüste Australiens, des Outbacks. Auf einer Länge von drei Kilometern streckt sich das Paradebeispiel eines sogenannten Inselbergs aus: Ein einsamer Berg, der kein Teil einer Gebirgskette ist. Nicht umsonst gehört der Berg als Teil des Uluru-Kata Tjuta National Parks heute zum UNESCO-Weltkulturerbe.

Doch seit der Etablierung des Nationalparks hat sich vor Ort ein problematisches Phänomen entwickelt: Touristische Besucher bestiegen den Berg in Scharen. Das Verhalten der Reisenden führte schon in den 90ern zu Schildern mit der Aufforderung, den Berg nicht zu besteigen. Doch noch 2010 erstieg laut statistischer Forschung etwa ein Drittel der Besucher, darunter viele Familien mit Kindern, den heiligen Berg. Seit 2019 ist die Besteigung des Uluru offiziell verboten. Denn der Uluru ist ein heiliger Berg der Anangu.

Entstehung und Kulturgeschichte des Uluru

Nach wissenschaftlichem Verständnis entstand der Uluru in einem frühen Meer der Erde, das sich im sogenannten Amadeus-Becken Australiens entfaltete. Dort wurden schon vor hunderten Millionen Jahren neue geologische Formationen als Grundlage der heutigen Region erschaffen. Der Uluru selbst soll vor etwa 65 Millionen Jahren beim Übergang von der Kreidezeit ins Tertiär entstanden sein, – etwa zu jener Zeit, als die Dinosaurier ihrem Ende entgegensahen. Dabei setzt sich der Uluru aus der Gesteinsart Arkose zusammen, die für ihre auffälligen Mineralien bekannt ist.

Weit vor der westlichen Kolonialisierung Australiens existierte hier das Volk der Anangu, die den Aborigines zugeordnet werden. Seit mehr als 10.000 Jahren leben diese Ureinwohner Australiens in der Region. Die Anangu betrachten sich auch dank ihrer langen Geschichte vor Ort als rechtmäßige Besitzer des Landes, auf dem der Uluru steht. Der Name Anangu bedeutet übersetzt etwas wie menschliches Wesen, menschlicher Körper oder Person. Die heimischen Anwohner verehrten den Uluru seit jeher als heiligen Berg.

Doch vieles änderte sich mit der Entdeckung und Kolonialisierung Australiens durch europäische Einwanderer – ausgelöst von Seefahrern und Entdeckern wie Willem Jansz und James Cook. Der britisch-australische Entdecker William Gosse sah den Berg 1873 als erster Europäer und taufte ihn mit dem Titel Ayers Rock, ein Kolonialname, der sich lange als offizielle Bezeichnung hielt. Das Gebiet wurde um 1920 erst zu einem Reservat für die Ureinwohner, in den 50er-Jahren schließlich entstand der heutige Nationalpark. Es kam zu einer schleichenden Enteignung, deren man sich in den 70er- und 80er-Jahren gewahr wurde. 1976 wurden der Aboriginal Land Rights Act verabschiedet, 1985 folgte die Rückkehr des Eigentums in die Hand der Anangu. Doch bald stellte sich für die Ureinwohner ein weiteres Problem ein: der Tourismus.

Warum ist der Uluru heilig? Erklärung

Die Anangu kannten den roten Berg im Outback schon lange unter dem Namen Uluru – international hat sich erst in den letzten Jahren der ursprüngliche Name gegenüber dem lange geläufigen Ayers Rock durchgesetzt. Das hat gute Gründe: Denn die Geschichte des Uluru ist eng mit der Historie der Anangu verwoben. Der Uluru spielt eine wichtige Rolle im Entstehungsmythos der Anangu, der sogenannten Traumzeit. Während der Traumzeit wurde alles Lebende auf der Erde erschaffen, so der Mythos. Die Geister der Vorväter kamen auf die Erde hinab und erschufen Landschaft und Leben. In dieser Geschichte spielt der Uluru eine spirituelle und ritualistische Rolle.

Die schöpferischen Geister aus dem Traumzeit-Mythos der Anangu sollen auch heute noch auf dem Grund ihres Landes wandeln. Nach einer populären Überlieferung sollen zwei sagenumwobene Stämme vor Ort in einen kriegerischen Konflikt verfallen sein – und aus dem Leid und ihren Geistern erhob sich der Uluru als Antwort aus der Erde. Überliefert sind verschiedene Varianten des Mythos, doch einen Zweifel an der Bedeutung des Uluru für die Anangu gibt es nicht.

An den Wänden und Höhlen des Uluru lassen sich bis heute zahlreiche Wandgemälde und Felszeichnungen entdecken, welche die lange und eindrucksvolle Geschichte des heiligen Bergs unterstreichen. Noch immer besitzt der Uluru spirituelle und rituelle Bedeutung für die Anangu. Daher gehört es zu der logischen Konsequenz, die Stätte des Uluru in die Hände der urprünglichen Landbesitzer zurückzuführen, und den Namen Ayers Rock in Uluru abzuändern.

Tourismus und der Uluru

Der Status als Nationalpark und die Anerkennung des Uluru als UNESCO-Weltkulturerbe bescherte dem Naturwunder große touristische Aufmerksamkeit. Von der europäischen Entdeckung des Bergs durch William Gosse und die folgende Umbenennung in Ayers Rock im 18. Jahrhundert über die Einrichtung eines Reservats auf dem Grund des heutigen Nationalparks in den 20er-Jahren des 20. Jahrhunderts bis zur touristischen Flut ab der Ernennung zum Nationalpark in den 50ern umweht die heilige Landschaft des Uluru eine fragwürdige Kolonialgeschichte.

Wie bereits angedeutet, konnten es sich viele Touristen nicht nehmen lassen, den Berg zu besteigen. „Please Don’t Climb“ – Schilder mit dieser Aufforderung tauchten ab den 90er-Jahren vor Ort auf. Doch es nützte nichts, um 2010 bestieg noch immer etwa ein Drittel der Besucher den heiligen Berg. Die Besucher trampelten so wortwörtlich nicht nur auf dem spirituellen Erbe der Anangu herum, auch wurden teilweise Felszeichnungen beschädigt und verstärkte Spuren hinterlassen. Seit 2019 ist das Besteigen des Uluru verboten.

Seit dem ersten Tiefpunkt Mitte des 20. Jahrhunderts hat sich der Umgang mit dem kulturellen Erbe der Anangu sichtbar verändert. Nicht nur ist das Besteigen des Uluru mittlerweile verboten, ausgewählte heilige Stätten dürfen nicht fotografiert oder auf Video festgehalten werden. Auch kommt es zur Schließung der Parkregion, wenn die Anangu eines ihrer heiligen Rituale am Berg abhalten. Auf diesem Weg versucht man mittlerweile, die Bedürfnisse der Anangu und ihr Heiliges Erbe zu schützen – und dennoch Touristen die Möglichkeit zu geben, den Berg auf ausgewählten Routen ohne Besteigung zu sehen. Dass der Uluru mehr als irgendein schön aussehender Berg ist, ist mittlerweile innerhalb Australiens aber auch international anerkannt. Er ist seit Tausenden von Jahren eine heilige Stätte der Anangu.

Warum hassen Katzen Wasser? Erklärung


Katzen stehen mit Wasser auf Kriegsfuß. Wasserpistolen oder Pflanzensprüher werden bevorzugt verwendet, um die Tiere zu bestrafen und zu maßregeln. Tatsächlich schrecken die meisten Katzen vor Wasser zurück. Dieser Umstand erstaunt und überrascht, denn Großkatzen wie Leopard, Tiger oder Luchs scheuen das nasse Element nicht und nutzen es als Abkühlung und Jagdrevier. Nun stellt sich die Frage, warum meiden Stubentiger das kühle Nass und sind Katzen wirklich wasserscheu?

Warum hassen Katzen Wasser? Erklärung

Katzen pflegen akribisch ihr Fell. Mehrere Stunden täglich werden mit Fellpflege verbracht. Die Vermeidungshaltung gegenüber dem Kontakt mit Wasser steht in direktem Zusammenhang mit der Beschaffenheit des Fells.

Wasser verändert die Fellstruktur. Das Haarkleid nimmt an Gewicht zu und verklebt. Katzen vermeiden daher jeden Kontakt mit Wasser. Ein nasses und verklebtes Katzenfell ist auf Beutezügen hinderlich und erschwert das Klettern und Balancieren. Außerdem benötigt das recht dicke Haarkleid längere Zeit zum Trocknen. Katzen fühlen sich mit einem nassen Fell buchstäblich nicht wohl in ihrer Haut und schützen ihre Haarpracht daher vor dem Kontakt mit Feuchtigkeit.

Katzen putzen sich nicht nur ausgiebig, damit das Fell glänzt und gut gepflegt erscheint. Die Kommunikation unter Artgenossen konzentriert sich auf Gerüche. Am Maul und Schwanz der Tiere befinden sich die Pheromondrüsen. Diese geben einen individuellen Duftstoff ab. Damit verständigen sich die Tiere untereinander und markieren ihr Revier.

Beim Putzen werden die Pheromone über die Katzenzunge im Fell verteilt. Der Kontakt mit Wasser würde die Duftmarker wieder entfernen. Daher ist das Verlieren ihres spezifischen Duftes ein weiterer Grund, warum Katzen Wasser meiden.

Katzen und Wasser: Ausnahmeregelung

Bei näherer Beobachtung zeigt sich, dass Katzen Wasser nicht komplett ablehnen, sondern sogar eine ausgesprochene Faszination dafür entwickeln können. So mancher Stubentiger verbringt Stunden vor dem Wasserhahn und zeigt Interesse an Katzenbrunnen, Dusche oder Klospülung.

Tierärzte sehen den Grund in der Begeisterung für fließendes Wasser in der Bewegung an sich, dem damit verbundenen Geräusch und den entstehenden Lichtspielen. Dadurch kann der Beutetrieb der Tiere stimuliert werden.

Wissenschaftler ziehen auch die Möglichkeit in Betracht, dass Katzen einer Weiterentwicklung folgen und sauberes Leitungswasser den stehenden Gewässern in der freien Natur vorziehen. Dies sind jedoch nur Spekulationen.

Geschichte: Warum hassen Katzen Wasser?

Die Abneigung für Wasser lässt sich auch mit der Geschichte der Spezies begründen. Unsere Hauskatzen sind direkte Nachfahren der Felis silvestris lybica. Diese kleine Wildkatze lebte im Nahen Osten, in trockenen Wüstenlandschaften. In der Heimat der kätzischen Vorfahren herrschte Wasserknappheit.

Die Wildkatzen nahmen lieber Sonnenbäder, anstatt im Wasser zu planschen. Die Angewohnheit, Fell und Pfoten trocken zuhalten und gerne an sonnigen Fleckchen vor sich hin zu dösen, scheinen die wilden Vorfahren an unsere zahmen Hauskatzen weitergegeben zu haben.

In der freien Natur nahmen wilde Katzen das meiste Wasser über die feste Nahrung, die sie zu sich nahmen, auf. Nur wenn Katzen dehydriert waren, zog es sie an die offenen Wasserstellen. Theorien besagen, dass unsere domestizierten Hauskatzen nur den Wassernapf aufsuchen, weil die verabreichte Nahrung eigentlich viel zu wenig Flüssigkeit enthält und zu einer Dehydrierung führen würde.

Dies betrifft besonders Tiere, die allein mit Trockenfutter ernährt werden. Dies stellt generell ein Risiko dar, weil Katzen dann zwar mehr Feuchtigkeit aufnehmen, jedoch meist nicht genug trinken, um den Feuchtigkeitshaushalt wirklich auszugleichen.

Paradoxes

Die meisten Hauskatzen hassen Wasser. Sie würden nie freiwillig ein Bad nehmen, obwohl sie gute Schwimmer sind. Doch Ausnahmen bestätigten die Regel. Einige Katzenrassen entwickeln sogar eine Affinität für das nasse Element.

Folgende Rassen sind dem Wasser nicht abgeneigt:

  • Norwegische Waldkatze
  • Bengalkatze
  • Amerikanisch Kurzhaar
  • Abessinier
  • Maine Coon
  • Türkisch Van

Diese Katzenrassen besitzen eine andere Haarstruktur. Das Fell ist widerstandsfähiger gegenüber Feuchtigkeit und vermittelt den Tieren bei direktem Kontakt kein unangenehmes Gefühl. Die genannten Rassen sind zugleich allesamt Katzen, die sich mit Hunden gut arrangieren können. Ob dies als Zufall gewertet werden kann, ist wissenschaftlich nicht bekannt.

Katzen und Wasser: Umgewöhnung

Wer Katzen mit dem Wasser vertraut machen möchte, sollte möglichst früh damit beginnen. Die wichtigsten Dinge für ihr weiteres Leben lernen Kitten im Alter von drei bis 16 Wochen. Während dieser Zeit können Katzenhalter versuchen, die Tiere langsam an das feuchte Element heranzuführen. Spielzeuge und Leckerlis können dabei Unterstützung leisten.

Auch ältere Katzen können mit dem Wasser vertraut gemacht werden. Dies wird allerdings etwas mehr Geduld erfordern. Vernachlässigen ältere Tiere ihre Körperpflege, kann ein Bad notwendig werden. Die meisten Katzen werden das Wasser zwar nicht mögen, können aber durchaus lernen, ein Bad zu tolerieren.

Woraus wird Gelatine hergestellt? Herstellung, Erklärung


Gelatine ist ein Produkt, das gerade in der Lebensmittelindustrie häufig zum Einsatz kommt. Es handelt sich dabei um einen Lebensmittelzusatz, mit dem sich beispielsweise Flüssigkeiten wie Soßen andicken und zu einer gelartigen Masse verarbeiten lassen. Aber woher kommt die Gelatine eigentlich und wie wird sie hergestellt?

Der Grundstoff der Gelatine

Gelatine besteht aus einem Protein namens Kollagen, das sich bei den Menschen und auch bei einigen Tieren findet. Kollagen ist unter anderem in den Zähnen, Knochen, den Sehnen, Knorpel, Bändern und in der Haut enthalten und sorgt für Stabilität und Straffheit.

Der Name “Kollagen” kommt aus dem Griechischen und bedeutet so viel wie “Leim erzeugend”. Damit wird darauf angespielt, dass in früheren Zeiten unter anderem im Tischlerei-Handwerk der Leim für die Möbel aus den Knochen von Tieren hergestellt wurde.

Für die Herstellung von Gelatine werden auch heutzutage noch tierische Produkte wie die Fettschichten von Schweinen oder die Häute von Rindern verwendet.

Wie wird Gelatine hergestellt?

Um Gelatine herzustellen, sind verschiedene Herstellungsprozesse notwendig, die nur in großen Fabriken erfolgen können:

Die Vorbehandlung:

Zunächst wird das zu verarbeitende Bindegewebe chemisch vorbehandelt, um das Kollagen aus dem Gewebe zu lösen. Bei Bindegewebe vom Rind wird ein alkalisches Verfahren angewendet. Hierbei wird das entfettete und Salz-befreite Gewebe erst zerkleinert und danach mehrere Wochen in alkalische Laugen eingelegt. Da das Kollagen im Bindegewebe von Rindern stark vernetzt ist, müssen die Laugen die einzelnen Verbindungen erst aufbrechen, bevor das Kollagen aus dem Gewebe gelöst werden kann.

Beim Bindegewebe vom Schwein ist das Kollagen dagegen eher locker vernetzt. Aus diesem Grund kann das Protein in einem sogenannten Säureverfahren durch spezielle Säuren innerhalb eines Tages von den tierischen Fasern getrennt und weiterverarbeitet werden.

Die Extraktion:

Nach der Vorbehandlung liegt das Kollagen in einer Lösung vor, in der aber noch die tierischen Restfasern sowie nicht benötigte Fette enthalten sind. Um diese Nebenprodukte vom Kollagen zu trennen, wird die Proteinlösung mit Wasser angereichert und anschließend in einer Zentrifuge behandelt. Durch die schnellen Drehungen der Zentrifuge werden schwere Bestandteile wie beispielsweise Fett oder Tiermasse aus der Flüssigkeit herausgetrieben und lassen sich gut entfernen.

Die Reinigung:

Um das Kollagen von Salzen, Calcium, Natrium und Resten der Säuren und Basen zu befreien, wird die Lösung in sogenannte Hochleistungsseparatoren geleitet. Es handelt sich dabei um spezielle Filter aus Keramik, die viele kleine Poren haben, durch die nur die reine Kollagenflüssigkeit laufen kann. Um den Vorgang zu beschleunigen, wird die Kollagenflüssigkeit allerdings unter hohem Druck durch die Filter gepresst. Andernfalls würde allein der Reinigungsprozess mehrere Tage dauern.

Um auch letzte Mikrospuren von Salzen aus der Lösung zu entfernen, wird in einem weiteren Reinigungsschritt die Flüssigkeit durch industrielle Behälter geleitet, in denen sich kleine Kunstharz-Kugeln befinden. Die Salzrückstände bleiben an diesen Kügelchen haften, sodass am Ende nur noch das in Wasser gelöste Kollagen aus dem Behälter herausgelangt.

Die Eindickung:

Im nächsten Schritt wird die Flüssigkeit in Vakuum-Eindampfbehälter geleitet und mehrfach erhitzt. Weil das Ganze in einem luftleeren Raum (Vakuum) abläuft, reichen bereits geringe Temperaturen aus, damit die Wasserbestandteile verdampfen. Außerdem bleiben so die Protein-Fasern erhalten, die sehr hitzeempfindlich sind und sich bei Temperaturen über 50°C auflösen würden.

Nach der Eindickung liegt das reine Kollagen als dunkelbraune, dickflüssige Masse vor. Rein optisch erinnert diese Masse an Honig.

Das Trocknen:

In einem letzten Verfahren wird die honigfarbene Masse einmal kurz erhitzt, um Keime abzutöten. Anschließend wird sie heruntergekühlt und durch spezielle Lochscheiben gepresst. Es entstehen sogenannte Gelee-Nudeln. Diese Nudeln werden abschließend mit steriler, warmer Luft getrocknet und danach in großen Mühlen zu feinem Gelatine-Pulver gemahlen. In der Industrie wird dieses Pulver zum Andicken der Lebensmittel verwendet. Für den Gebrauch zuhause gibt es Gelatine aber auch in dünnen Platten. Um diese Platten zu erzeugen, wird das Gelatine-Pulver erneut in Wasser gelöst und auf breite Kühltrommeln aufgetragen. Es entsteht ein hauchdünner Film, der anschließend einen letzten Trocknungsprozess durchläuft und dann in kleine Platten zerschnitten wird, wodurch sich die Gelatine zuhause besser portionieren lässt.

Verwendung von Gelatine

Gelatine findet sich in vielen Süßspeisen und Süßigkeiten. Gumminaschwerk besteht zu einem Großteil aus Gelatine, aber auch für Wackelpudding oder für Tortenfüllungen wird das Produkt benötigt. Da es geschmacksneutral ist, dickt es Speisen nur an, ohne ihren Geschmack in irgendeiner Weise zu verändern.

Warum hat man Ohrenschmalz? Erklärung


Ohrenschmalz ist ein wachsartiges Sekret, welches Mediziner auch als Cerumen oder Zerumen bezeichnen. Es handelt sich um eine Absonderung der Ohrenschmalzdrüsen, welche bei jedem Menschen vorkommt. Die Substanz entsteht im äußeren Gehörgang. Ohrenschmalz kann von Mensch zu Mensch in unterschiedlicher Masse, Farbe und Konsistenz auftreten.

Funktion von Ohrenschmalz

Alle Säugetiere produzieren Ohrenschmalz. Die fettige, gelbe bis bräunliche Substanz hält die Haut im Gehörgang feucht und sorgt dafür, dass abgestorbene Hautzellen, Staub und Schmutz aus dem Ohr abtransportiert werden.

Ohrenschmalz verflüssigt sich in Verbindung mit Talg und kleidet den äußeren Gehörgang mit einer Schutzschicht aus. Mit der Aufnahme von Staub und Schmutzpartikeln verdickt sich das Sekret zusehends.

Das Sekret ist mit antibakteriell wirkenden Stoffen angereichert und hält Insekten oder andere kleinere Fremdkörper davon ab, in den Gehörgang vorzudringen. Wäre kein Ohrenschmalz vorhanden, würde es durch häufiges Waschen oder Schwimmen zu starken Ohrenschmerzen kommen.

Damit besitzt Ohrenschmalz folgende hauptsächlichen Funktionen:

  • Schmieren der Haut im Gehörgang
  • Schutz vor dem Eindringen von Staub, Bakterien oder Fremdkörpern
  • Selbstreinigung des Gehörgangs (Ohrenschmalz wird durch den Kauvorgang zum Außenohr transportiert)

Inhaltsstoffe von Ohrenschmalz

Ohrenschmalz ist eine vielschichtige Substanz aus Fetten, Talg und Wachs. Bislang konnten beinahe 1.000 unterschiedliche Inhaltsstoffe nachgewiesen werden.

Der Inhaltsstoff Lysozym besitzt eine antibakterielle Wirkung und kann Keime und Mikroorganismen abhalten, in den Gehörgang vorzudringen.

Die Inhaltsstoffe im Einzelnen:

  • Kohlenwasserstoffe
  • Wachsester
  • Cholesterin
  • Cholesterinester
  • Triglyceride
  • Squalen
  • Fettsäuren
  • Hydroxysäuren

Eigenschaften von Ohrenschmalz

Der menschliche Gehörgang besitzt eine Länge von etwa drei Zentimetern. Ohrenschmalz wird im äußeren Drittel gebildet. Dort befinden sich die Ceruminaldrüsen. Die Haut des Gehörgangs wächst nach außen und sorgt für eine gleichmäßige Verteilung des Sekrets im äußeren Gehörgang.

Ohrenschmalz ist eine geruchlose Substanz. Sondert das Sekret Gerüche ab, liegt in der Regel eine Infektion der Ohren vor. Das Farbspektrum kann variieren und reicht dabei von einem hellen Gelb über Bernsteinfarben bis hin zu Dunkelbraun.

Die Eigenschaften des Sekrets sind abhängig von der Beschaffenheit und dem Alter der Masse. Auch Alter und Geschlecht des Menschen spielen eine Rolle. Hormonelle Einflüsse sorgen ebenfalls für eine veränderte Beschaffenheit des Schmalzes. So wird Ohrenschmalz mit zunehmendem Lebensalter trockener. Bei Europäern dominiert klebriger bis öliger Ohrenschmalz, während Asiaten trockenen und pulverartigen Schmalz besitzen.

Risiken von Ohrenschmalz

Kommt es zu einer Überproduktion von Cerumen, kann der Gehörgang komplett verschlossen werden. Es entsteht ein Ohrenschmalzpfropf, welcher immer tiefer in den trichterförmig verlaufenden Gehörgang geschoben wird und zu Ohrenschmerzen und Gehörverlust führen kann.

Wattestäbchen und Ohrenschmalz

Obwohl Wattestäbchen seit Jahren im Handel sind und für die Reinigung der Ohren empfohlen werden, ist davon dringend abzuraten. Die Stäbchen eignen sich zwar für die Säuberung des Außenohres, können ab Cerumen im Gehörgang nicht entfernen. Das Sekret wird stattdessen nach hinten geschoben und verhärtet zu einem Pfropf. Dabei entsteht vermehrter Druck auf das Trommelfell und die Hörleistung schwindet.

Die allgemeine Beliebtheit von Wattestäbchen für die Ohrreinigung lässt sich vermutlich mit der bei den ausgeführten Bewegungen ausgelösten Stimulation des Vagusnervs begründen. Das dadurch auftretende angenehme Gefühl verstärkt den Impuls dieses weit verbreiteten Fehlverhaltens.

Behandlung: Ohrenschmalz

Ist der Abtransport des Sekrets gestört, lassen sich verstopfte Ohren nur mit Flüssigkeit säubern. Während des Badens oder Duschens lässt man sich lauwarmes Wasser ins Ohr laufen. Durch intensive Kaubewegungen kann versucht werden, das Sekret zu lösen und zum Außenohr zu befördern. Der Abfluss von Ohrenschmalz wird erleichtert, wenn man das Ohr dabei zur Seite neigt.

Hartnäckige Verstopfungen können mit apothekenpflichtigen Lösungen und Sprays behandelt werden. Bessern sich die Beschwerden nicht, ist ein Hals-Nasen-Ohren-Arzt aufzusuchen.

Hausmittel gegen Ohrenschmalz

Gegen festsitzenden Ohrenschmalz können folgende Hausmittel helfen:

Salzwasser

Auf 100 Milliliter warmes Wasser kann ein Teelöffel Salz gegeben werden. Die Verwendung einer Ballonspritze kann das Einführen der Lösung in den Gehörgang erleichtern. Nach etwa 15 Minuten sollte das Wasser entfernt und das Ohr gereinigt werden.

Öl

Bei der Ohrreinigung mit Öl sollte zu Mandelöl oder Olivenöl gegriffen werden. Das Öl sollte auf Körpertemperatur erhitzt werden. Mithilfe einer Pipette werden einige Tropfen der Lösung ins Ohr geträufelt. Das Öl sollte etwa fünf Minuten im zur Seite geneigten Ohr einwirken. Anschließend werden die Ohren mit lauwarmem Wasser gespült.

Dampf

Mit Wasserdampf lassen sich die Ohren besonders schonend von überschüssigem Ohrenschmalz befreien. Einer Schüssel mit heißem Wasser werden einige Kamillenblüten zugegeben. Die Ohren können bis zu einer Viertelstunde über den aufsteigenden Wasserdampf gehalten werden. Durch ein um den Kopf geschlungenes Tuch verstärkt sich die Wirkung.

Vorbeugung: Ohrenschmalz

Stellt der Körper vermehrt Cerumen her, können folgende Maßnahmen schützen und die Ohrgesundheit erhalten:

  • lediglich die Ohrmuschel wird gereinigt
  • kein Einführen von Wattestäbchen, Haarklemmen oder anderen ungeeigneten Gegenständen in das Innenohr
  • Ohrstöpsel vermeiden, dies hemmt die Selbstreinigung des Gehörgangs
  • regelmäßige Vorsorgeuntersuchungen beim HNO
  • regelmäßige professionelle Reinigung von Hörgeräten
Warum ist der schiefe Turm von Pisa schief? Erklärung


Der Schiefe Turm von Pisa wurde ab dem Jahr 1173 als separater Glockenturm für den bereits bestehenden Dom von Pisa erbaut. Er besitzt eine Höhe von 55,8 Metern bei einer aktuellen Abweichung von 3,9 Metern an der Spitze. Die ursprünglich geplante Höhe von 100 Metern ließ sich aufgrund der eintretenden Neigung nicht mehr verwirklichen.

Ursachen für die Absenkung des Glockenturms: Schiefer Turm von Pisa

Die Stabilität eines Turmes hängt von seiner Höhe, seiner Grundfläche und der Art des verwendeten Materials ab. Ein Fundament unterhalb eines Gebäudes dient dazu, das Gewicht auf den Untergrund zu verteilen, sodass dieser nicht nachgibt und keine Schäden am Bauwerk entstehen. Aus diesem Grund ist auch der vorhandene Boden für die Stabilität zu berücksichtigen.

Bei der Planung des Turmes entschied sich der Architekt für ein drei Meter tiefes Fundament aus Zement und Bruchstein. Bei dieser Entscheidung schenkte er allerdings dem morastigen und sandigen Untergrund zu wenig Beachtung. In der Antike befand sich an dieser Stelle ein Hafenbecken am Rande einer Insel, das durch den angeschwemmten Schlamm des Flusses Arno allmählich versandete. Im Jahr 1173 war dieser Bereich bereits vollständig verlandet, während die Setzung des Bodens weiter andauerte.

Das hohe Gewicht von 14.500 Tonnen bewirkt nicht nur eine Absenkung des Turmes, sondern bewirkt aufgrund des weichen Untergrundes auch eine Drehung um seine eigene Achse. Die Entscheidung für ein rundes Gebäude verstärkte die Probleme: Es lässt sich gegenüber einem eckigen Turm deutlich schwerer ausbalancieren. Gleichzeitig bewahrte der weiche Untergrund das Bauwerk allerdings vor Erschütterungen durch wiederholte Erdbeben.

Schiefer Turm von Pisa: Ablauf der Bauarbeiten und Änderungen in der Planung

Der Glockenturm von Pisa senkte sich bereits während der Bauphase, sodass die Arbeiten ab dem Jahr 1185 zunächst für 90 Jahre unterbrochen wurden. Zu diesem Zeitpunkt waren erst drei Stockwerke fertiggestellt. Um die Absenkung auszugleichen, beschlossen die Erbauer nach Wiederaufnahme der Arbeiten, bei der Konstruktion der nächsten vier Stockwerke den Neigungswinkel anzupassen. Aus diesem Grund lässt sich bei genauer Betrachtung erkennen, dass der Turm ab dem vierten Stockwerk nicht gerade, sondern krumm in die Höhe wächst.

Als weitere Maßnahmen entschied man sich auf der überhängenden Seite des Bauwerks für die Verwendung leichterer Materialien. Dies alles verhinderte jedoch nicht, dass im Jahr 1350 die Abweichung an der Turmspitze bereits 1,4 Meter betrug und verzögerte die Fertigstellung des Gebäudes weiter. Die Glockenstube über dem siebten Stockwerk konnte aus diesem Grund erst 1372 vollendet werden.

Schiefer Turm von Pisa: Sanierungsarbeiten in neuerer Zeit

Im Laufe der Jahrhunderte versuchte man immer wieder, durch eine Sanierung des Turms dessen Neigung zu verlangsamen. Im Jahr 1835 entfernte der Architekt Alessandro Gherardesca den schlammigen Boden unterhalb des Bauwerkes und ersetzte ihn durch ein Fundament aus Marmor. Diese Maßnahme vermochte eine weitere Absenkung allerdings nicht zu verhindern, sodass sich bis 1918 die Neigung an der Spitze auf 5,1 Meter verstärkte. Bis zum Jahr 1990 senkte sich der Turm jährlich um weitere 1 – 1,2 Millimeter ab und erreichte schließlich eine Abweichung von 5,5 Grad.

Dies gab den Ausschlag zu ausgedehnten Sanierungsarbeiten in den Jahren 1990 – 2003. Nachdem die Positionierung von Bleigewichten und Stahlreifen sowie die Verankerung mit Stahlseilen nicht den gewünschten Erfolg zeigten, entfernte man durch schräge Bohrungen tonnenweise Bodenmaterial unter der Nordseite des Turms. Zeitgleich bewirkten Gewichte an der Nordseite ein langsames Aufrichten des Bauwerks. Der Neigungswinkel hat sich seitdem um 44 cm vermindert.

Der Schiefe Turm von Pisa ist zwar weltberühmt, aber nicht einzigartig. Weltweit finden sich weitere Beispiele von Gebäuden, bei denen der instabile Untergrund im Laufe der Zeit zu einer Neigung geführt hat. In Venedig fällt sofort der schiefe Turm der Kirche San Giorgio dei Greci ins Auge – wie die ganze Stadt wurde er auf Pfählen im schlammigen Untergrund errichtet. Darüber hinaus existieren auch Bauwerke mit einem noch stärkeren Neigungswinkel: Mit 5,2 Grad überbietet der Glockenturm von Gau-Weinheim seit 1990 den Turm von Pisa.

Warum hat die Woche sieben Tage? Erklärung


Die Sieben Tage-Woche existiert nun bereits seit Jahrtausenden. Der Ursprung dieser Zeitrechnung lässt sich bis in das alte Babylon zurückverfolgen, wo bereits mit einer Woche von sieben Tagen kalkuliert wurde. Auch in den Weltreligionen tauchte die Woche aus sieben Tagen früh auf. In der Tora und in der Bibel hatte die Woche sieben Tage. Berühmt ist der Spruch: Gott erschuf die Welt in sieben Tagen. Die Woche aus sieben Tagen hat also vor allem historische und religiöse Wurzeln. Doch lässt sie sich auch wissenschaftlich bzw. logisch erklären?

Warum hat die Woche sieben Tage? Erklärung

Die Woche ist wie Jahre, Monate und Tage eine etablierte Zeiteinheit – und definiert heute das Leben von Milliarden von Menschen. Doch während Jahre, Monate und Tage sinnvoll an die Zyklen von Erde, Mond und Sonne gebunden sind, lässt sich eine Woche aus sieben Tagen wissenschaftlich wesentlich schwerer erklären. In gewisser Weise ist die Woche ein Sonderfall, der zwischen Zeitrechnungen von Sekunden bis Jahrhunderten heraussticht. Die Woche aus sieben Tagen scheint mehr eine historische Setzung, als eine logische Notwendigkeit zu sein. Tatsächlich gab es in der Vergangenheit verschiedenen Kulturen, die Wochen aus fünf, acht oder zehn Tagen nutzten. Gegenüber dem Modell der Woche mit sieben Tagen gäbe es historisch also mehrere Alternativen.

Die Woche aus sieben Tagen passt nicht perfekt in die Zeitrechnung eines Jahres. Ursprünglich erschaffen, um einen Monat aus 28 Tagen in vier Wocheneinheiten aus sieben Tagen zu unterteilen, wirkt diese Form der Woche in Monaten mit 30 oder 31-Tagen vergleichsweise chaotisch. Doch Versuche, die Woche zu reformieren, scheiterten in der Vergangenheit an Gewohnheiten und religiösen Befindlichkeiten. Auch wenn sich eine Woche aus sieben Tagen logisch also nur bedingt erklären lässt, ist sie geschichtlich und religiös nicht wegzudenken.

Geschichte – wie die Sieben-Tage-Woche entstand

In der vorchristlichen Zeit Babylons suchte man nach Lösungen, den recht langen Monat aus 28 Tagen in kleinere Zeiteinheiten einzuteilen. Im Epos Gilgamesch nahm die sieben ebenso eine große Rolle ein, wie im damaligen Alltag der Menschen: der 7., der 14., der 21. und der 28. Tag des Monats wurde zum heiligen Tag erklärt. Diese Tage fungierten als Ruhetage, den Göttern wurden Opfergaben dargebracht. Die Woche aus sieben Tagen gab es in einer Frühform also bereits im historischen Babylon.

Die Zahl sieben und die Zeitspanne von sieben Tagen übernahm zugleich in der Tora und der Bibel eine zentrale Funktion. Adoptiert wurde die Idee einer Woche mit dieser Tagesanzahl früh auch durch das Persische Reich und in der hellenischen Astrologie. Während die Römer lange ihre eigene Zeitrechnung mit dem sogenannten Nundinum verfolgen, der Woche aus acht Tagen, wurde spätestens mit der Herrschaft von Augustus dem heute bekannten Modell eine höhere Bedeutung zugetragen.

Mit der Ausbreitung des Christentums in Europa wurde die Idee einer Sieben-Tage-Woche immer weiter verfestigt. Dabei übernahm der Sonntag eine zentrale Rolle. An jenem Tag beginnt nach christlicher Idee die Woche. Die Verwendung einer Woche von sieben Tagen lässt sich zudem in China im 4. und in Japan im 11. Jahrhundert historisch belegen. Nach und nach haben die sieben Tage so eine internationale Bedeutung erlangt.

Je mehr Termine und Kalender in der Planung des Alltags in den Fokus rückten, desto zentraler würde die Einheit der Woche. So gab es spätestens im 19. Jahrhundert trotz international einiger alternativer Modelle eine deutliche Vereinheitlichung der Wochenzeitrechnung. Übrigens: die Namen der sieben Wochentage verdanken sich den sieben klassischen Planeten und den damit verbundenen Gottheiten, die in antiker Zeit bekannt waren. So wurde der Sonntag einst dem Sonnengott Helios, der Montag der Mondgöttin Luna etc. gewidmet. Viele der heutigen deutschen Tagesnamen wurden aus früheren Bezeichnungen dieser Art germanisiert.

Alternativen – Fünf-, Acht- oder Zehn-Tage-Woche

Zu den bekanntesten Alternativmodellen der Sieben-Tage-Woche zählt das römische Nundinum. Zwar bedeutet Nundinum wörtlich in etwa „neuntägig“, in Wirklichkeit handelte es sich jedoch um eine Acht-Tage-Woche. Jeder Monate hatte so vier Feiertage, die sich an den acht Tagen des damaligen Kalenders orientierten: Kalenden, Nonen, Iden und Tubilustrium. Ähnlich wie die sieben Tage bei den Babyloniern kam der Woche mit acht Tagen so eine Art heilige Bedeutung zu. Zudem wurden mit der Zeitrechnung des Nundinum die Markttage eines Jahres bestimmt. Wie die Römer sollen auch die Kelten einen Kalender mit einer Woche von acht Tagen verwendet haben. Die Abschaffung des Nundinums begann bereits unter Augustus, offiziell wurde die Sieben-Tage-Woche jedoch erst unter Kaiser Konstantin im 4. Jahrhundert n. Chr. etabliert.

Genutzt wurde zeitweise auch die sogenannte Dekade, die Woche mit zehn Tagen. Bereits das Alte Ägypten teilte das Kalenderjahr in 36 Wochen mit je 10 Tagen ein. Zwischen 1792 und 1806 – als die Französische Revolution in Frankreich stattfand – gab es den sogenannten Französischen Revolutionskalender, der ebenso zehn Tage verwendete. Doch unter Napoleon wurde diese Entwicklung wieder zurückgedreht.

Zu den wiederkehrenden Mustern der historischen Kalenderwoche gehören zudem auch fünf Tage. Die Azteken beispielsweise hantierten mit Zeitphasen von fünf bis dreizehn Tagen. Im Hinduismus Balis wird heute noch auf religiöser Ebene gleich mit mehreren Tagesabschnitten umgegangen, die von drei über fünf bis sieben Tage dauern. Klar ist: Obwohl die Woche mit sieben Tagen heute unumstößlich scheint, gab es historisch zahlreiche Alternativmodelle. Die Sieben-Tage-Woche verdankt der Geschichte und Religion ihre Durchsetzung, logisch wären jedoch auch andere Rechenmodelle denkbar.

Überblick – Warum die Woche sieben Tage hat

Die siebentägige Woche ist den Babyloniern sowie dem Judentum und Christentum zu verdanken. Ursprünglich hatten die sieben Tage bei den Babyloniern eine rituelle Funktion, durch die Globalisierung der Welt und die Verbreitung der Weltreligionen hat sich das Modell jedoch nach und nach international durchgesetzt. Wochen mit anderen Tageszahlen sind logisch durchaus denkbar, doch religiöse Bedeutung und Gewohnheit haben das Modell zu einem unverzichtbaren Bestandteil unserer alltäglichen Zeitrechnung werden lassen.

Was ist der Unterschied zwischen E5 und E10 Benzin? Erklärung


Die beiden Superkraftstoffe E5 und E10 unterscheiden sich durch die Beimischung von Bioethanol. Dies ist aus pflanzlichen Rohstoffen gewonnener Äthylalkohol, der wie Benzin verbrennungsfähig ist und als Beimischung im Superkraftstoff dessen Umweltbilanz etwas aufwertet.

E5 enthält 5 % Bioethanol, bei E10 sind es 10 %. Das Superbenzin E10 wurde an deutschen Tankstellen im Jahr 2011 eingeführt. Anfangs bestanden (teilweise berechtigte) Bedenken, dass der höhere Bioethanolanteil dem Motor schaden könnte, doch Fahrzeuge der Baujahre ab spätestens 2012 sind praktisch durchweg E10-fähig. Kraftfahrer finden Listen im Internet, die anzeigen, ob ihr eigener Motor mit dem günstigeren E10 betankt werden kann. Wichtig zu wissen: Der Anteil von Bioethanol kann in modifizierten Motoren sogar noch viel höher (bis 85 %) ausfallen. Brasilien etwa, das über sehr viele pflanzliche Rohstoffe verfügt, setzt konsequent auf solche Fahrzeuge.

Wie wird Bioethanol gewonnen?

Die Ausgangsstoffe sind überwiegend die Agrarprodukte Zuckerrüben, Weizen, Zuckerrohr und Mais, doch auch aus Holz, Stroh und Bioabfällen lässt sich Bioethanol gewinnen, wenn auch nicht sehr effizient. Die Herstellung des Ethanols erfolgt wie bei herkömmlichem Alkohol durch die Fermentation (alkoholische Gärung). Der in den Pflanzen enthaltene Zucker wird dabei durch Mikroorganismen zu Alkohol vergärt. Anschließend muss eine Reinigung durch thermische Trennverfahren erfolgen, damit das Bioethanol zum brennfähigen Treibstoffzusatz wird.

Umweltbilanz von Bioethanol

Das Bioethanol emittiert bei seiner Verbrennung prinzipiell nicht mehr CO₂, als die Pflanzen bei ihrem Wachstum aus der Umwelt aufgenommen haben. Wenn man dieser sehr pauschalen Betrachtung folgt, verbrennt Bioethanol umweltneutral. Die höhere Beimischung im E10 seit 2011 soll die Umweltbilanz des deutschen Straßenverkehrs verbessern.

Auswirkungen von Bioethanol auf den Motor

Ältere Fahrzeuge der Baujahre vor 2012 (aber nicht alle!) könnten unter Umständen Bioethanol schlecht vertragen. Der Biokraftstoff greift unter anderem Gummidichtungen an, was zu Undichtigkeiten führt. Auch kann ihre Leistung durch die Beimischung signifikant sinken, was bei jüngeren Motoren nicht mehr zu erwarten ist. Diese verbrauchen nach aktueller Studienlage durchschnittlich 2 % mehr durch die Betankung mit E10.

Im Jahr 2011 hatten der ADAC und einige Hersteller Tests zur Verträglichkeit von E10 durchgeführt und in der Tat bei einigen Fahrzeugen Undichtigkeiten festgestellt. Allerdings galt auch schon damals, dass solche Schäden nur beim durchgängigen Betanken mit E10 zu erwarten sind, wenn das Fahrzeug für den Kraftstoff nicht geeignet ist. Eine einmalige oder gelegentliche Tankfüllung schadete schon damals nicht.

Spätestens ab 2012 reagierten die Hersteller auf E10 und bauten ihre Motoren so um, dass diese die höhere Beimengung von Bioethanol verkraften. Einige Hersteller, darunter beispielsweise Porsche, hatten schon in den 1990er Jahren Motoren gebaut, die auch höhere Beimischungen von Bioethanol vertragen. Der Übergang zum E10-Kraftstoff war ohnehin fließend. 5 % Beimischung von Bioethanol im Kraftstoff Super E5 sind schon länger obligatorisch. E5 und E10 unterscheiden sich also lediglich durch 5 % mehr Bioethanol. Motoren können wie erwähnt bei entsprechender Auslegung auch noch viel mehr Bioethanol vertragen. Wer aber noch ein älteres Fahrzeug fährt, kann sich an einer Liste aus dem Jahr 2011 zur E10-Verträglichkeit orientieren (nach der Einleitung etwas weiter unten).

Ethanolbeimischungen in anderen Regionen

An brasilianischen Tankstellen gibt es weder E5 noch E10: Der Bioethanolanteil beginnt dort bei 25 % (E25) und kann bis E95 reichen (sogenannter Flexkraftstoff). In den USA wird schon seit den 1970er Jahren mindestens E10 getankt. Die gängigen Mischungen enthalten 2, 5, 10, 15, 25, 50, 85, 95 und auch 100 % Bioethanol. Das muss bei entsprechender Motorauslegung keinesfalls zu einer schlechteren Leistung führen, im Gegenteil: Durch eine höhere Klopffestigkeit von Bioethanol kann E85 sogar die Motorleistung deutlich steigern. Die Motoren müssen nur entsprechend ausgelegt sein.

Bis 5 % Beimischung von Bioethanol verträgt jeder Motor, weshalb die EN 228 diese Beimischung grundsätzlich zulässt. E10 vertragen wie erwähnt die Neufahrzeuge ab 2012, Ottomotoren mit voll geregeltem Kraftstoffsystem können im Prinzip auch bedenkenlos mit E25 betankt werden. Dies funktioniert über eine großzügig dimensionierte Korrekturregelung der Einspritzung via Lambdasonde. Es gab in Deutschland sogar bis 2016 wenige Tankstellen, die Beimischungen bis E85 anboten. Der Verbrauch steigt mit zunehmendem Bioethanol, bei E85 kann er bis 30 % über dem Verbrauch mit E5 liegen. Der Heizwert von Bioethanol liegt unter dem von Superbenzin.

Was ist der Unterschied zwischen Blackout und Stromausfall? Erklärung


Stromausfälle betreffen im Regelfall kurze Zeitspannen. In Deutschland dauert ein durchschnittlicher Ausfall in der Stromversorgung lediglich 12,2 Minuten – kaum eine Viertelstunde. Ein Blackout tritt dagegen großflächig und länger anhaltend auf. Dabei sind grundsätzlich kritische Infrastrukturen gefährdet.

Blackout – der umfassende Stromausfall

Ein Blackout ist zunächst der englische Begriff für einen Stromausfall. Allerdings ist nicht jeder Stromausfall gleichzeitig ein Blackout. Denn der Blackout ist grundsätzlich durch umfassende Ausfälle gekennzeichnet. Sie treten nicht nur in eng begrenzten Regionen auf, sondern großflächig. Das betrifft zum Beispiel Bundesländer oder sogar ganze Staaten. Hierbei fallen diverse, wichtige Elemente einer Gesellschaft aus. Gleichzeitig trifft der Blackout zahlreiche Haushalte und Privatpersonen völlig unvorbereitet. Speziell bei einem weitreichenden Ausfall der Energieversorgung gibt es Probleme, weil der Strom nicht so zügig wiederhergestellt wird, wie es bei einem herkömmlichen Stromausfall der Fall wäre.

Ursachen für einen Blackout

Warum tritt ein Blackout auf? Kommt es zu einem derart übergreifenden Ereignis, sind verschiedene, schwerwiegende Ursachen denkbar. Demnach kann in Kriegsgebieten der Beschuss kritischer Systeme einen solchen Blackout zur Folge haben. Gleichzeitig können Hacker die zuständigen Systeme gezielt angreifen, um den Blackout zu provozieren. Nicht zuletzt besteht die Möglichkeit, dass eine technische Störung weitreichende Ausfälle zur Folge hat.

Was fällt bei einem Blackout aus?

Ampeln und Straßenbeleuchtungen sind ebenso von einem Blackout betroffen wie Alarmanlagen oder die Notrufzentralen. Telefonnetze, Krankenhäuser und Verwaltungen fallen ebenfalls aus. Im Kern betrifft ein Blackout stets eine gesamte Gesellschaft. Da Verkehrsleitsysteme ebenfalls ausfallen, führt dies unweigerlich zu Chaos auf den Verkehrsstraßen. Gestörte Alarmanlagen begünstigen Einbrüche und Plünderungen.

Die kritischen Strukturen, wie Krankenhäuser oder Pflegeeinrichtungen, wären besonders betroffen. Bei einem Blackout bekämen diese Institutionen ebenso keinen Strom. Dadurch wären sie auf die Notversorgung durch integrierte Notstromaggregate angewiesen. Solche Aggregate oder Akkus erhalten die Stromversorgung im Notfall für einige Stunden aufrecht. Da ein Blackout schlimmstenfalls Tage oder Wochen andauert, würde dies zu Problemen in den Kliniken und Pflegeheimen führen.

Weitere betroffene Systeme sind Fahrstühle und Bankautomaten. Insbesondere bei den Geldautomaten und Kassensystemen zeigen sich die enormen Auswirkungen eines Blackouts. Ebenso betrifft ein solcher Ausfall die automatischen Türen in Supermärkten – vorausgesetzt der jeweilige Laden hat kein separates Notaggregat, um die Stromversorgung zumindest kurzzeitig zu sichern.

Schwerwiegendere Auswirkungen betreffen die Wasser- und Abwasserversorgung. Denn Leitungswasser käme in einem solchen Fall nicht mehr aus dem Hahn. Zudem könnten Abwässer nicht länger geklärt werden. Die notwendigen Pumpen, die für die Wasserverteilung und Wasseraufbereitung zuständig sind, würden bei einem Blackout ausfallen. Nicht zuletzt beeinträchtigt ein derart umfassendes Ereignis die Telefonnetze, inklusive der Mobilfunknetze.

Stromausfall – kurzzeitig und eng begrenzt

Stromausfälle sind durch den Ausfall oder die Betriebsstörung bei einzelnen Netzbetreibern gekennzeichnet. Das Risiko einer Störung besteht grundsätzlich. Das kann beispielsweise bei einem Unwetter vorkommen, wenn Bäume auf Leitungen stürzen oder Kabelverbindungen gestört und beschädigt sind. Ein solcher Ausfall dauert höchstens wenige Stunden, ehe er behoben ist. Daneben tritt ein Ausfall der Stromversorgung in einzelnen Wohnungen immer wieder auf. Welche Ursachen hat ein Stromausfall demnach?

Ursachen für Stromausfälle

Ein Stromausfall, der in der eigenen Wohnung auftritt, kann beispielsweise von einem Kurzschluss herrühren. Eine kaputte Leitung kommt ebenso infrage. Normalerweise zeigt sich ein Kurzschluss – zum Beispiel, weil zu viele Verbraucher gleichzeitig angeschlossen waren – durch eine Sicherung, die »rausfliegt«. Hierbei ist ein Schalter zu bedienen und die verursachenden Geräte auszuschalten, um das Problem zu lösen.

Eine defekte Leitung tritt mitunter im Haus auf. Eine umliegende Baustelle verursacht gegebenenfalls derartige Schwierigkeiten. Sind Bauarbeiter oder Handwerker unachtsam, führt dies unter Umständen zu elektrischen Problemen. Das Resultat: Der Strom ist »weg«.

Was ist von einem Stromausfall betroffen?

Städtische Systeme und Anlagen, wie Ampeln oder Straßenleuchten sind im Regelfall nach Straßenzügen geschaltet. Fällt der Strom in einem Teil der Gemeinde aus, sind dort ebenfalls die Lampen betroffen. In anderen Stadtteilen funktionieren sie dagegen weiterhin.

Ein Stromausfall, der auf die eigene Wohnung begrenzt ist, betrifft entweder den kompletten Wohnraum (beispielsweise durch Fehler bei Bauarbeiten) oder einzelne Areale, wie zum Beispiel Lampen oder ausschließlich die Küche. Hierbei lässt sich die Ursache zügig finden und beheben.

Zusammenfassung – Blackout vs. Stromausfall: Erklärung, Unterschiede

Ein Stromausfall kann prinzipiell auftreten. Er ist lokal begrenzt und von kurzer Dauer – in Deutschland beschränkt sich ein solches Ereignis auf durchschnittlich wenige Minuten. Dagegen ist ein Blackout generell auf enorme Flächen ausgelegt mit weitreichender Wirkung. Er tritt selten auf, betrifft jedoch vielfältige Systeme. Darunter sind auch solche von kritischer Natur. Im Gegensatz dazu sind Stromausfälle eher auf lokaler, kommunaler Ebene verortet. Netzbetreiber können einen Ausfall in der Stromversorgung üblicherweise schnell beheben.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung


Wer bereits etwas älter ist, wird die Fragen in der Überschrift sehr gut verstehen können. Da wir uns im Laufe unseres Lebens ständig verändern und unsere Persönlichkeit sich oftmals den gegebenen Umständen anpasst, empfinden wir die Zeit stets anders. Ein weiterer Grund ist vor allem das Empfinden der Zeit selbst, welches sich bei verschiedenen Tätigkeiten anders gestaltet.

Warum geht vergeht die Zeit schneller, wenn man älter wird? Erklärung

Wenn man älter wird, ist man automatisch auch ruhiger, da man schon alles kennt und nicht das ständige Bedürfnis hat, alles ausprobieren zu wollen. Ist man hingegen noch jung, gestaltet sich der Alltag alleine schon wegen Schule und Co. weitaus dynamischer.

Wer in seinen besten Jahren dann auch noch im Homeoffice arbeitet oder aber anderweitig selbstständig ist, wird die Zeit wahrscheinlich noch schneller vorbeiziehen sehen. Wenn wir uns auf eine einzige Sache fokussieren und uns nur schwer oder gar nicht ablenken lassen, entsteht nach einiger Zeit sowas wie ein Trance-ähnlicher Zustand. Dieser ist bei älteren Menschen ausgeprägter, da der Stoffwechsel und im Allgemeinen alles andere ebenso langsamer funktioniert, als bei einem Jungspund. Man kann sich im Alter also länger auf eine einzige Sache (bzw. seine Arbeit) konzentrieren, da man es über die Jahre hinweg erlernt hat.

Was kann ich tun, damit die Zeit langsamer vergeht?

Damit die Zeit langsamer vergeht, kann man viele verschiedene Dinge tun. Nachfolgend werden die beliebtesten Methoden vorgestellt. Viel Spaß beim Durchlesen!

Öfter auf die Uhr schauen

Dieses Phänomen haben die meisten wohl eher als negative Erfahrung verbucht. Vorwiegend schauen wir nämlich ständig auf die Uhr, wenn wir auf etwas warten oder schnellstmöglich ein gewichtiges Ereignis eintreten soll. Da dies dann nicht passiert und die Sekunden genaugenommen recht langsam vergehen, wenn man sie beobachtet und an nichts anderes denkt, ist dies eine gute Methode, die Zeit langsamer vergehen zu lassen.

Selbst wenn man also gerade Spaß hat und sich nicht stören lassen will, sollte man jede Stunde einen kurzen Blick auf die Uhr werfen und dies zur Gewohnheit machen. Prompt hat man eine bessere Übersicht über seine jeweilige Aktivität und weiß zudem stets genau, ob es nicht doch lieber wieder Zeit ist, sich um etwas Wichtigeres zu kümmern, als was auch immer gerade gemacht hat.

Sport treiben

Es ist wirklich wahr: Wer in der Morgenstunde regelmäßig eine Stunde lang läuft, wird anschließend den ganzen Tag lang weitaus entspannter werden und produktiver sein, als jemand, der eher unsportlich ist. Auf diese Weise bringen wir unsere Energien in Einklang und die Zeit vergeht dann auch noch im Alter nicht mehr ganz so schnell. Doch warum ist das so?

Da ältere Körper wie auch ältere Autos länger brauchen, um warmzuwerden, müssen sie gefordert werden. Heranwachsende Körper sind immerhin auch ohne Sport bereits ständig beschäftigt, denn es müssen fortlaufend neue Zellen zum Wachsen produziert werden. Ausgewachsene Menschen sind zudem etwas anfälliger fürs faul Herumliegen und Nichtstun.

Neben dem Laufen kann man aber auch andere Dinge tun, die etwas Lebensschwung in den alten Körper jagen (wie etwa Yoga). Das ist nicht nur gesund, sondern fühlt sich auch super an. Wenn wir Sport treiben und zum Beispiel eine längere Strecke laufen müssen, zieht sich die Zeit enorm und das ganz egal, in welchem Alter man auch ist.

Während man sich eine halbe oder eine Stunde lang durchquält, passieren im Körper jedoch eine Menge positiver Ereignisse.

Früher noch waren wir als Höhlenmenschen täglich dazu gezwungen uns zu bewegen und etwa jagen oder sammeln zu gehen.

Heutzutage muss man das jedoch schon fast gar nicht mehr. Dank des Internets arbeiten viele nun im Homeoffice oder aber sitzen den ganzen Tag in Büros herum. Irgendwann kommt der Körperfluss bei einem solch tristen Alltag nahezu zum Stillstand, sodass vor allem ältere Menschen das Gefühl bekommen können, dass die Zeit schneller vergeht.

Immerhin wird alles zur Routine und wir trauen uns dann schon fast gar nicht mehr, diese zu ändern, aus Sorge, der Alltag würde noch anstrengender und kürzer werden. Dem ist jedoch bei Weitem nicht so, denn Bewegung macht uns im Gegenteil aktiver und lässt uns mehr Zeit genießen.

Die Laune anheben

Wer andauernd schlechte Laune hat und etwas älter ist, wird sicherlich bemerkt haben, dass die Zeit in einem solchen Gemütszustand scheinbar schneller vergeht. Um diesem Phänomen vorzubeugen, sollte man versuchen sich mit Menschen zu umgeben, die einem Freude bereiten.

Ist dies nicht möglich, so entfernt man sich eben von den schlechten Kollegen, die einem die Laune vermiesen können und verbringt seine Zeit lieber alleine oder aber mit netteren Kollegen. Auch Chats sind sehr gut dazu geeignet, seine Laune anzuheben. Im Internet trifft man immer mal wieder auf Menschen aus den verschiedensten Ländern und unterschiedlichsten Klassen.

Solche Konversationen oder modernen Brieffreundschaften sind in der Regel zwar kein Ersatz für echte Interaktionen, jedoch kommen sie dem schon sehr nah und können eine gute Alternative darstellen.

In diesen Zeiten ist das Chatten bereits fester Bestandteil in vielen Leben. Auf diese Weise kann man mit all seinen Liebsten im ständigen Kontakt sein und die Zeit vergeht daraufhin nicht mehr so schnell. Ist man dank eines Kompliments im Chat also nicht mehr so gelangweilt und besser gelaunt, vergeht die Zeit ein wenig langsamer als gewohnt.

Produktiv sein

Heutzutage kann man im Internet eine Menge machen und damit eventuell sogar Erfolge verbuchen. Die Rede ist von moderner Arbeit. Mittlerweile kann man Online-Shops ganz einfach von zu Hause aus betreiben und braucht hierfür dank Dropshipping nicht einmal mehr die Finger dreckig zu machen.

Es ist daher immer eine gute Idee sich zumindest Gedanken darum zu machen, wie man etwas vom Internetkuchen abhaben kann. Der beste und wirklich effektivste Weg ist es sich eine Sparte auszusuchen und anschließend Vollgas zu geben. Wer produktiv ist, wird immerhin die Zeit zu schätzen lernen.

Sobald sich nämlich erste Erfolge zeigen, ist man motiviert weiterzumachen. Doch auch wenn es nicht unbedingt etwas mit dem Internet zu tun hat, so ist die Produktivität dennoch ein wichtiger Faktor. Wer zum Beispiel einfach nur gerne malt oder zeichnet, tut ebenfalls etwas Gutes für sein Wohlbefinden und das langsamere Verstreichen der Zeit. Man blickt etwa auf Gestern zurück und ist zufrieden mit dem vergangenen Tag, da man viel geschafft oder gemacht hat.

Extremsport

Selbstverständlich soll man sich jetzt nicht als Opa aufs Skateboard stellen. Aber Spaß beiseite: Bungeejumping ist zum Beispiel eine sehr gute Methode, um seine innere Balance wieder auszugleichen. Umso mehr man sich davor fürchtet, desto besser ist die anschließende Wirkung. Nachdem man seinen inneren Schweinehund überwunden hat, kann man sich an einen der Anbieter in der Nähe wenden.

Nach einem solch heftigen Adrenalinstoß, programmiert sich der Körper sozusagen neu und kann auch das Empfinden des schnelleren Zeitzyklus eindämmen. Dies verhält sich hier also sozusagen ungefähr so, wie nach einem wichtigen Wettkampf beim Training oder aber einer Rauferei im Jugendalter.

Auch ein verbaler Austausch kann die Gemüter ganz schön erhitzen und uns somit anschließend weitaus aufmerksamer für die Zeit machen. Hierfür ist das Adrenalin verantwortlich, welches unseren gesamten Körperhaushalt richtig schön aufwirbelt und anspornt.

Diskussionsrunde

Wer nicht unbedingt streiten möchte, um die Zeit langsamer vergehen zu lassen, sollte sich an einer Diskussionsrunde versuchen. Hierfür muss man nicht unbedingt in einen bestimmten Club gehen oder aber einem Schützenverein beitreten. Auch in der eigenen Familie kann man wunderbar diskutieren und Debatten abhalten.

In dieser Zeit können alle sich beteiligen und etwa ihre Meinung zum neuen Fernseher kundtun. Somit fühlt sich jeder gehört und der Hausfrieden ist sichergestellt. Werden es hingegen hitzige Argumentationen und Diskussionen, wird es ebenso interessant sein. Hier kann man gut Dampf ablassen und seine Meinung energisch vertreten. Da dies nur hin und wieder vorkommen sollte, ist es im Grunde ganz gesund seine Psyche auf diese Weise zu bedienen.

Nach einem verbalen Schlagabtausch mit seinen Freunden oder innerhalb der Familie ist der Gemütszustand meist fitter und alarmiert. Somit geht auch die Zeit langsamer vorbei, da sich kein lähmendes Verhaltensmuster im allgemeinen Alltag festsetzen kann.

Fazit: Warum geht vergeht die Zeit schneller, wenn man älter wird?

Alles in allem ist der Verlauf der Zeit nicht so schwer zu verstehen. Hat man zu viel oder zu wenig Spaß, während man etwas macht, vergeht die Zeit auch bei jüngeren Menschen recht schnell. Da in unserem Kopf fest verankert ist, dass wir (je älter wir werden) dem Tod näher kommen, vergeht die Zeit (gefühlt) deshalb wahrscheinlich ebenso etwas schneller.

Das Problem hierbei ist etwa die weiter oben erwähnte Tatsache, dass wir uns mehrheitlich nur auf die schlechten Gedanken stützen, anstatt ein positives Denkverhalten zu entwickeln.

Wer es schafft, auch noch im älteren Abschnitt seines Lebens etwas offener für gute Laune zu sein, wird es also genauso machen wie die jüngeren Spunde und seinen Alltag aktiver gestalten.

Auf diese Weise kann man viele verschiedene Dinge ausprobieren, die man vorher nicht gekannt hat. Weiterhin wären auch längere Bus- oder Zugreisen zu nennen. Freut man sich zum Beispiel, mit dem Zug zu seinen Freunden, Bekannten oder Verwandten zu fahren, schaut man viel öfter auf die Uhr und die Zeit geht somit scheinbar langsamer vorbei.

Wer sich also dazu zwingen kann, seinen Alltag disziplinierter und vor allem facettenreicher zu gestalten, schafft es, sich dem Phänomen Zeitbeschleunigung im Alter zu entziehen. Selbst wenn man im Moment so empfindet, heißt es also nicht, dass es auch für immer so bleiben muss.

Warum hat der Februar nur 28 Tage? Erklärung


Die Tatsache, dass der Februar nur 28 Tage hat, verdanken wir den alten Römern. Im Römischen Reich begann das Jahr nicht im Januar, sondern im März. Der Februar war also der letzte Monat. Außerdem hatte das Jahr nur 355 Tage. So konnte ein Monat nie länger als 29 Tage sein. Die restlichen 28 Tage bleiben für den Februar übrig.

Februar 28 Tage: Kalenderreform durch Julius Cäsar

Im Jahre 45 v. Chr. führte Julius Cäsar eine umfassende Kalenderreform durch, die auch heute noch größtenteils ihre Gültigkeit besitzt. Maßgebend für die Länge eines Jahres waren nun nicht mehr die Mondphasen, sondern die Sonne. Die Erde umrundet die Sonne einmal innerhalb von 365 Tagen, 5 Stunden, 49 Minuten und 3 Sekunden. Ein Schaltjahr, das diesen Unterschied ausgleichen sollte, war nach der Kalenderreform durch Julius Cäsar zunächst unbekannt. Es sollte erst viel später eingeführt werden.

Das Jahr beginnt im Januar – die meisten Monate haben 30 oder 31 Tage

Heute markiert nicht mehr der März, sondern der Januar den Beginn eines neuen Jahres. Der Januar, der März, der Mai, der Juli, der August, der Oktober und der Dezember haben 31 Tage, während der April, der Juni, der September und der November jeweils 30 Tage haben. Nur der Februar ist mit seinen 28 Tagen die große Ausnahme.

Der Februar hat 28 Tage – im Schaltjahr 29 Tage

Um auf eine Gesamtzahl von 365 Tagen pro Jahr zu kommen, bleiben für den Februar 28 Tage. Alle 4 Jahre hat der Februar 29 Tage. Mit dieser Regelung soll erreicht werden, dass sich die Jahreszählung an das Sonnenjahr angleicht. Addiert man die 5 Stunden, 29 und 3 Sekunden pro Jahr, die die Erde länger als 365 Tage für einen Umlauf benötigt, kommt alle 4 Jahre ungefähr ein Tag zusammen. Genau das ist der Grund für die Einführung des Schaltjahres, in dem der Februar dann 29 Tage hat.

Hatte der römische Kaiser Augustus etwas mit dem kurzen Februar zu tun?

Es existiert eine Legende, nach der wir den kurzen Februar nicht nur dem Römischen Kalender und der Kalenderreform, sondern in erster Linie dem Kaiser Augustus zu verdanken haben. Er war so eitel, dass er forderte, dass ein Monat nach ihm benannt wird. Das sollte der August sein. Es wird gesagt, dass er ursprünglich nur 30 Tage hatte und dass es Kaiser Augustus nicht ausstehen konnte, dass sein Monat einen Tag kürzer als der Juli war. Also fügte er einen Tag an und der August hatte fortan 31 Tage. Diesen einen Tag nahm er dem Februar weg, der wie viele andere Monate auch 29 Tage hatte.

Diese Legende hat sich jedoch als unwahr erwiesen und konnte von vielen Experten widerlegt werden. Es ist also davon auszugehen, dass der Kaiser Augustus nichts mit dem kurzen Februar zu tun hat.

Kalenderreform 1582 – Papst Gregor XIII – Schaltjahr wird eingeführt

Die letzte bedeutsame Kalenderreform geht auf das Jahr 1582 zurück. Der Kalender, der von Julius Cäsar eingeführt wurde, trug den Namen Julianischer Kalender, während der Kalender nach der Reform von Papst Gregor XIII. Gregorianischer Kalender genannt wird. Für den Namen Julianisch stand der Name Julius und für den Namen Gregorianisch der Name Gregor Pate. Der Kalenderreform 1582 haben wird das Schaltjahr zu verdanken. Vorher gab es das noch nicht. Die Folge davon war, dass sich der Frühlingsanfang im Laufe der Zeit schrittweise verschoben hat. Mit der Einführung des Gregorianischen Kalenders wurde der Lauf der Erde um die Sonne mit dem Kalender in Einklang gebracht.

Warum sind Vögel wichtig (für die Umwelt)? Erklärung, Nutzen


Es gibt sie in allen möglichen Formen und Varianten – die Vögel unserer Erde. Ob groß, klein, Zugvogel oder nicht – sie alle tragen dazu bei, dass unser wertvolles Ökosystem intakt bleibt.

Welchen Nutzen haben Vögel für die Umwelt / Klima? Erklärung

Spechte bauen ihre Höhlen in alten oder kranken Bäumen und ernähren sich von den unter Rinde lebenden Insekten. Aasgeier kümmern sich um tote Tiere, gehören also zu der „Gesundheitspolizei“ im Tierreich – genau wie die Hyänen und andere Aasfresser. Vögel wie der Kolibri wiederum helfen bei der Bestäubung von Pflanzen, indem sie von Blüte zu Blüte fliegen.

Es gibt noch mehr Beispiele, die aufzeigen, dass Vögel wichtige Aufgaben in unserem Ökosystem übernehmen. Sie sind ein wichtiger Bestandteil des Kreislaufs der Natur und sorgen für das nötige Gleichgewicht.
Die wesentlichen, nützlichen Aufgaben der Vögel sind vielfältig. Zu den wesentlichen zählen folgende:

  • Schädlingsbekämpfung
  • Bestäubung und Samenverbreitung
  • Regenerierung von Wäldern und Landschaftsgestaltung
  • Teil der Nahrungskette
  • Vernetzung von Lebensräumen
  • Belebung von Städten und Inspirationsquelle

Schädlingsbekämpfung

Dadurch, dass viele Vögel sich von Insekten ernähren, treten Schädlinge in einer Zahl auf, die das Ökosystem nicht beeinträchtigt. Bäume bleiben gesund, Plantagen bleiben von extremem Raupenfraß verschont und Pflanzen im Allgemeinen, die wiederum wichtig für unser Ökosystem sind, können gedeihen.

Die Schädlingsbekämpfung bezieht sich nicht nur auf Insekten. Auch Mäusepopulationen müssen im Zaum gehalten werden. Hier sorgen Greifvögel wie Milane, Bussarde und Eulen für das Gleichgewicht.
Manche Vögel haben sich sogar darauf spezialisiert, Fische, Schlangen oder andere Tiere zu erbeuten, deren Reduktion ebenfalls wichtig für das Ökosystem ist.

Bestäubung und Samenverbreitung

Für die Vermehrung von Pflanzen muss der Pollen von Blüte zu Blüte getragen werden. Diese Aufgabe übernehmen nicht nur Schmetterlinge, Bienen und andere Insekten, sondern auch Vögel – ganz besonders die Feld- und Wiesenvögel oder beispielsweise der Kolibri. Klein, flink und leicht streifen sie die Blüten.

Regenerierung von Wäldern und Landschaftsgestaltung

Der Tannenhäher ist hier ein gutes Beispiel dafür, wie sehr die Vogelwelt mit unserer Umgebung zusammenhängt. Er sorgt dafür, dass sich die in den Alpen vorkommende Zirbelkiefer verbreitet, indem er sich von den harten Nüssen ernährt, die die Samen nicht von allein freigeben. Der Tannenhäher knackt sie und vergisst mancherorts eine Nuss, sodass an dieser Stelle eine neue Zirbelkiefer wachsen kann, die wiederum mit ihren Wurzeln die wichtige Aufgabe des Lawinenschutzes übernimmt.
Ein anderes Beispiel ist der Eichelhäher, der sich von Eicheln ernährt, diese ausscheidet und so eine bedeutende Rolle für die Verbreitung dieses Baumes spielt. In gleicher oder ähnlicher Manier sind viele Vogelarten an Pflanzenarten gekoppelt.

Vögel sind Teil der Nahrungskette

Es gibt Säugetiere, die sich von Eiern ernähren. Somit stellen Vögel nicht nur Fressfeinde für Insekten und kleine Säugetiere dar, sondern fungieren auch als Teil der Nahrungskette. Es kommt auch vor, dass große Vögel kleine erbeuten, somit wird wiederum deren Population im Zaum gehalten – das betrifft unter anderem Sperlinge und Meisen, die durch ein gutes Nahrungsangebot und eine gute Anpassung häufiger vorkommen als andere Arten.

Vernetzung von Lebensräumen

Insbesondere Zugvögel sind ein gutes Beispiel dafür, was für Strecken diese Tiere zurücklegen können. Damit vernetzen sie unter anderem nördliche und südliche Gebiete miteinander. Samen von besonderen Pflanzen können weitergetragen werden, sodass die Vielfalt in der Flora insgesamt zunimmt.
Orte, Ressourcen und biologische Prozesse werden so allein durch die Vogelwelt stark vernetzt, was die Artenvielfalt weltweit begünstigt.

Belebung von Städten und Inspirationsquelle

Der Mensch greift in die Landschaft ein. Glücklicherweise haben sich die Vögel im Laufe der Zeit an die Städte angepasst – das gilt besonders für Krähen, Amseln, Sperling und Meisen.

Ihr Zwitschern sorgt beim Menschen für ein Wohlbefinden, trägt also zu einer gesunden Psyche bei – genau wie das Grün der Pflanzen. Stadtparks werden so zu einer Oase der Erholung, die für den Menschen so wichtig ist.
Ein nicht ganz unwesentlicher Punkt ist auch die Bionik, denn ohne den Vogel als Vorbild gäbe es zahlreiche Erfindungen nicht. Flugzeuge sind leicht gebaut und weisen große Tragflächen auf, weil sich Menschen diese Bauweise von den Vögeln, den Meistern der Lüfte, abgeschaut haben.

Was wäre, wenn es keine Vögel mehr gäbe?

Gäbe es keine Vögel, könnten sich Insekten in einem schädlichen Ausmaß vermehren. Auf Obstplantagen gäbe es wesentlich mehr Raupenfraß, im Frühling würden wir vielleicht eine Mückenplage erleben und auf Feldern würden Heuschrecken die Ernte dezimieren. Durch den Wegfall der Bestäubung durch Vögel hätten wir weniger Früchte zur Verfügung, was zu einer Lebensmittelknappheit führen könnte.

In Städten gäbe es kein Zwitschern mehr, Pflanzen könnten sich weniger vermehren und die allgemeine Vielfalt würde verloren gehen, da sich nur noch gewisse Arten ausbreiten würden. Manche Pflanzen können nur von einer einzigen Vogelart bestäubt werden. Das Ende des einen Lebewesen würde also das eines anderen nach sich ziehen. Gäbe es beispielsweise den Tannenhäher nicht, wären die Zirbelkiefern in ihrer Verbreitung stark eingeschränkt und Lawinen würden die Hänge in den Alpen gefährden. Viele Baumarten würden aufhören, zu existieren. Zunächst wäre dies an kahlen Stellen im Wald erkennbar, die sich weiter ausdehnen würden.

Auf Neuseeland konnte zum Beispiel im Laufe von fünf Jahren beobachtet werden, dass das Aussterben von zwei wichtigen Vogelarten zur Folge hatte, dass der Busch Rhabdothamnus solandri nur noch von einer Art bestäubt wurde. Dadurch gab es viel weniger junge Pflanzen dieser Art und die Früchte waren bei den nachwachsenden Exemplaren kleiner als bei denen einer anderen Insel, auf der der Busch von drei Vogelarten bestäubt wurde.
Die genannten Szenarien sind Beispiele und spiegeln nur einen Bruchteil dessen wider, was passieren würde, wenn es keine Vögel gäbe. Kurz-, mittel- und langfristige Folgen treten auf, wenn diese Tiere verschwinden.

Fazit: Warum sind Vögel wichtig?

Unser Ökosystem besitzt ein empfindliches Gleichgewicht. Ohne Vögel gäbe es in allen Bereichen drastische Veränderungen. Aktuell bedrohen der Klimawandel sowie die Abholzung der Wälder, das Trockenlegen von Feuchtgebieten und eine Zunahme der Städte die Vielfalt der Vögel, die auf spezifische Lebensräume angewiesen sind.

Darum ist es wichtig, diese wichtigen Tiere zu schützen, indem der Mensch Ausgleichsmaßnahmen unternimmt.

Was es bedeuten würde, wenn es gar keine Vögel mehr gäbe, ist schwer abzuschätzen, da diese Tiere eng in unser Ökosystem eingebunden sind und vielfältige Aufgaben übernehmen – manche davon sind selbst bei dem heutigen Stand der Forschung noch unklar.

Was ist das lauteste Tier der Welt? Erklärung

Platz 10: Der Löwe (lautestes Tier der Welt)

Kaum ein exotisches Tier ist bekannter als der Löwe. Diese majestätischen Katzen können eine Schulterhöhe von bis zu 115 cm und ein Gewicht von bis zu 250 kg erlangen. Auf Jagd können sie Spitzengeschwindigkeiten von 60 km/h erreichen. Heutzutage kommen Löwen fast nur noch in den Savannen Afrikas vor. Doch vor wenigen hundert Jahren waren Löwen auch noch im östlichen Europa und in Südwestasien weit verbreitet. Zur Verteidigung ihres Reviers, aber auch um ihre Kraft und Stärke zu demonstrieren, stoßen Löwen die bekannten Brüllgeräusche aus, welche eine Lautstärke von bis zu 114 dB erreichen können.

Platz 9: Der Elefant (lautestes Tier der Welt)

Auf aus Platz 9 landet ein allseits bekanntest und beliebtes Tier, der Elefant. Sowohl der afrikanische als auch der asiatische Elefant gehört zu den größten Tieren der Welt. Sie gelten als die schwersten bekannten und noch lebenden Landtiere. Zur internen Kommunikation verwenden Elefanten Töne, welche im Infraschallbereich liegen und vom menschlichen Ohr nicht wahrgenommen werden können. Wenn Elefanten jedoch ihr Revier verteidigen oder mögliche Gefahren in die Flucht schlagen wollen, stoßen sie trompetenartige Geräusche aus, welche bis zu 117 dB laut sein können.

Platz 8: Der Nördliche See-Elefant (lautestes Tier der Welt)

Auch wenn der Name beinahe gleich ist, hat der Nördliche See-Elefant mit unseren Elefanten von Platz 7 nichts gemeinsam. Denn See-Elefanten gehören zur Gattung der Robben und wurden nur anhand ihrer vergrößerten Nase so bezeichnet. Der Nördliche See-Elefant kann bis zu vier Meter groß werden und ein Gewicht von 2500 kg erreichen. Ein See-Elefanten Bulle paart sich üblicherweise mit mehreren Weibchen. Versucht ein fremder Bulle eines der Weibchen eines solchen Harems zu begatten, stößt das dominante Männchen einen mächtigen Warnruf mit einer Lautstärke von bis zu 125 dB aus, um einen Kampf zu verhindern. Derartige Rivalenkämpfe können häufig blutig oder sogar tödlich für eines der beteiligten Männchen enden.

Platz 7: Der Molukken-Kakadu (lautestes Tier der Welt)

Auf Platz sieben unserer Liste der lautesten Tiere der Welt landet der Molukken-Kakdu. Dieser Vogel kommt nur auf einigen Inseln in der indonesischen Provinz der Südlichen Molukken vor. Sie sind weiß gefärbt und besitzen einen roten Kamm. Mit einer Körpergröße von in etwa einem halben Meter gehören sie zu den größten Kakaduarten der Welt. Ihre Kommunikation ist äußerst vielfältig. So kann ein Molukken-Kakadu Pfeiftöne von sich geben aber auch unterschiedliche Laute imitieren. Am eindrucksvollsten ist jedoch ihre Lautstärke. Das Geschrei eines Molukken-Kakadus kann bis zu 129 dB erreichen und erreicht damit in etwa die Lautstärke eines Düsenjets. Dennoch werden diese Vögel überraschend häufig auch als Haustiere gehalten.

Platz 6: Der Kakapo (lautestes Tier der Welt)

Auch auf Platz sechs landet ein exotischer Vogel. Der Kakapo gehört zu der Gattung der Papageien und stammt aus Neuseeland. Es ist der einzige Papagei, der ebenfalls eine weit entfernte Verwandtschaft mit Eulen aufweist. Er ist ein nachtaktiver Pflanzenfresser, woher auch seine Benennung stammt. Denn Kakapo leitet sich aus der einheimischen Sprache der Maori ab und heißt so viel wie „Nacht-Papagei“. Dieser akut vom Aussterben bedrohte Vogel besitzt einen einzigartigen Balzruf. Dabei bläht er zwei Luftsäcke in seiner Brust auf und stoßt kontinuierlich lauter werdende Rufe aus. Diese werden je nach Wahrnehmung als undefinierte Grunzlaute oder als „BOOM“-Rufe bezeichnet und können eine Lautstärke von bis zu 132 Db erreichen.

Platz 5: Das Große Hasenmaul (lautestes Tier der Welt)

Zugegeben, unter dem Namen „Das große Hasenmaul“ erwartet man kaum ein Tier, welches einen Platz in der Liste der lautesten Tiere der Welt verdient hat. Dies gilt immer noch, auch wenn man erfährt, dass das Große Hasenmaul zur Gattung der Fledermäuse gehört. Doch zur Navigierung stoßt das große Hasenmaul pro Sekunde bis zu 200 Rufe aus, deren Echos vom Körper empfangen und analysiert werden. Diese Rufe können eine Lautstärke von 137 dB erreichen. Zum Glück liegen diese Echoortungsrufe jedoch in einer kHz-Frequenz, welche vom menschlichen Ohr nicht wahrgenommen werden kann.

Platz 4: Der Brüllaffe (lautestes Tier der Welt)

Endlich kommen wir zu einem Tier, dessen Bezeichnung perfekt zu dieser Auflistung passt. Brüllaffen kommen in Mittel- und Südamerika vor und sind vor allem für ihr außergewöhnlich lautes Schreien von bis zu 140 dB bekannt. Diese Affengattung kann beinahe einen Meter groß werden und besitzen einen Schwanz, welcher in etwa gleich lang ausfällt. Ihr Mundbereich ist anatomisch speziell für das Ausstoßen von lauten Geräuschen entwickelt. Täglich brüllen sowohl männliche als auch weibliche Tiere einer Gruppe und können so innerhalb einer Gruppe über mehrere Kilometer hinweg kommunizieren. Dadurch finden Einzelgänger relativ einfach Anschluss an eine Gruppe und eine Migration innerhalb einzelner Gruppen wird dadurch deutlich einfacher. Zusätzlich wird auf diese Weise das Revier gekennzeichnet und gefährliche Revierkämpfe vermieden.

Platz 3: Der Blauwal (lautestes Tier der Welt)

Blauwale können eine Größe von bis zu 33 Metern erreichen und weisen ein Gewicht von bis zu 200 Tonnen auf. Damit zählen sie zu den größten und schwersten Tiere der Geschichte. Es ist daher wenig verwunderlich, dass sie auch zu den lautesten Tieren der Welt gehören. Dabei gehören Blauwale zu jenen Walen, welche nicht über eine ausgeprägte Kommunikation verfügen. Sie stoßen Stöhnlaute, Brumm- und Pochgeräusche und gelegentliche Klicklaute aus. Diese können jedoch eine Lautstärke von bis zu 188 dB erreichen. Da Geräusche unter Wasser hervorragend weitergeleitet werden, können so die Töne eines Blauwals bis zu einer Entfernung von 850 km weit entfernt wahrgenommen werden.

Platz 2: Der Pottwal (lautestes Tier der Welt)

Auch auf Platz 2 der lautesten Tiere der Welt landet ein Wal: Der Pottwal. Dieser kann eine Länge von 20 Metern und ein Gewicht von ca. 50 Tonnen erreichen. Pottwale können bis zu 1000 Meter tief tauchen. Zur Navigation stoßen sie Klicklaute aus, deren Echo ähnlich wie bei Fledermäusen aufgefangen wird. Diese fallen jedoch nicht überdurchschnittlich laut aus. Pottwale können jedoch auch weitere, undefinierbare Laute ausstoßen, welche eine Lautstärke von bis zu 230 dB erreichen können. Der Zweck dieser Geräusche ist noch nicht endgültig geklärt. Eine überzeugende Hypothese besagt jedoch, dass der dabei entstehende Schalldruckpegel zur Betäubung und Desorientierung von Beutetieren genutzt werden könnte.

Platz 1: Der Pistolenkrebs (lautestes Tier der Welt)

Auch das lauteste Tier der Welt stammt aus dem Meer. Pistolenkrebse, häufig auch Knallkrebse genannt, zählen zur Gattung der Krebstiere und sind vor allem in tropischen und subtropischen Gebieten weit verbreitet. Einzelne Arten können sogar im Süßwasser auftreten. Ihren Namen haben diese Krebse erhalten, da sie mit ihren Scheren einen pistolenähnlichen Knall erzeugen können. Beim Zuklappen der Schere wird unter enormen Kraftaufwand ein Sperrmechanismus geschlossen. Dabei wird ein mächtiger Wasserstrahl ausgestoßen, welcher als Waffe eingesetzt wird. Zusätzlich wird der erwähnte Knall erzeugt, welcher eine Lautstärke von bis zu 250 dB erreichen kann. Besondere Aufmerksamkeit haben die Pistolenkrebse auch während des Zweiten Weltkrieges erlangt. Denn ihre unglaublichen Knallgeräusche haben wiederholt die Sonargeräte der Militärs gestört.

Was ist Gelatine? Erklärung


Die meisten Menschen haben schon einmal von Gelatine gehört. Dabei handelt es sich um ein Lebensmittel, das aus tierischen Proteinen hergestellt wird. Für Vegetarier und Veganer sind Speisen, die Gelatine enthalten also nicht geeignet.

Was genau ist Gelatine? Die chemische Erklärung!

Chemisch erklärt ist Gelatine ein Protein. Ein Protein wiederum ist reines Eiweiß. Um dieses spezielle Protein herstellen zu können müssen tierische Rohstoffe zu einer langen Kette von Aminosäuren verknüpft werden. Insgesamt besteht Gelatine zu jeweils 84 bis 90 Prozent aus den genannten Eiweißen. Dazu kommen verschiedene Mineralsalze, die etwa zwei Prozent des Gesamtgehaltes von Gelatine ausmachen. Der Rest ist einfaches Wasser.

Wozu braucht man Gelatine bei der Herstellung von Lebensmitteln?

Gelatine wird in der Lebensmittelindustrie als Geliermittel genutzt. Gelieren bedeutet verdicken. Kurz gesprochen ist Gelatine also ein Bindemittel, das Speisen, die in ihrer ursprünglichen Form flüssig sind, fest werden lassen kann. So findet sich Gelatine zum Beispiel in vielen Süßigkeiten wie etwa Gummibärchen, Lakritze oder auch Marshmallows. Auch in Nachtischen und Kuchen und Torten kommt Gelatine nicht selten zum Einsatz, zum Beispiel bei Cremefüllungen oder Tortengüssen. Und auch in Joghurt oder Götterspeise findet sich Gelatine. Darüber hinaus wird Gelatine oft für die Herstellung deftiger Speisen, wie zum Beispiel Sülze und Wurstwaren benutzt.

Gibt es noch andere Verwendungszwecke von Gelatine?

Gelatine wird zwar in erster Linie zur Herstellung von Lebensmitteln benutzt, aber es gibt auch noch andere Anwendungsbereiche. Vor allem die Kosmetikindustrie setzt gerne auf den Stoff Gelatine. Vor allem in Cremes und Gesichtsmasken lässt sich Gelatine finden. Daneben schätzt auch die Pharmaindustrie auf die positiven Eigenschaften der Gelatine und verwendet sie für die Produktion vieler Arzneimittelkapseln. Außerdem verwenden auch traditionelle Gewerke Gelatine. Fotografen und Buchbinder arbeiten beispielsweise mit ihr. Fotografen nutzen sie beim Drucken von Abzügen, Buchbinder verwenden Gelatine als eine Art natürlichen Kleber.

Welche tierischen Bestandteile werden für die Gewinnung der Gelatine benutzt?

Für die Gewinnung von Gelatine eignen sich eine ganze Reihe an Nutztieren, zum Beispiel Schweine, Fische, Rinder und auch unterschiedliche Geflügelarten. Hierzulande wird für die Produktion von Gelatine zu ungefähr 70 Prozent das Nutztier Schwein genutzt. Herstellen lässt sich Gelatine aus dem tierischen Bindegewebe, das sich etwa in den Knochen oder der Haut der Tiere befindet. In aller Regel werden Teile des tierischen Körpers für die Produktion der Gelatine genutzt, die ansonsten keine Verwendung bei der Lebensmittelherstellung finden und alternativ nach der Schlachtung weggeworfen werden würden. Somit kann gesagt werden, dass die Herstellung der Gelatine ungenutzte Schlachtabfälle vermeidet.

Wie genau gewinnt man Gelatine?

Die Gewinnung von Gelatine ist ein chemischer Prozess. Das tierische Bindegewebe wird dabei sozusagen in seine einzelnen Bestandteile gespalten. Alle dabei abgetrennten tierischen Rohstoffe, die für den weiteren Herstellungsprozess der Gelatine nicht benötigt werden, werden weggegossen während die Gelatine ausgefiltert und anschließend weiter verarbeitet wird.

Die unterschiedlichen Arten von Gelatine

Gelatine gibt es in unterschiedlichen Erscheinungsformen. Neben der industriell genutzten Gelatine gibt es auch Gelatine, die im Haushalt verwendet wird, zum Beispiel zum Kochen oder Backen. Hier ist erstens die Blattgelatine zu nennen. Blattgelatine hat in der Regel eine rechteckige Form und weist ein Muster auf, das wie ein Netz aussieht. Diese Netzaufteilung sorgt dafür, dass man die Blattgelatine ganz nach persönlichem Bedarf in der Küche genau teilen und portionieren kann. Man bricht die benötigte Ecke der Blattgelatine einfach ab. Zweitens ist die Instantgelatine zu nennen. Diese muss, im Gegensatz zur Blattgelatine, während der Verwendung nicht erhitzt werden. Man benutzt sie deshalb in erster Linie für Sahnespeisen, da Sahne beim Verarbeitungsprozess häufig nicht erhitzt werden sollte.

Ist Gelatine gesund oder ungesund?

Grundsätzlich lässt sich über Gelatine sagen, dass es sich dabei um ein natürliches und gesundes Lebensmittel handelt. Da der Hauptbestandteil der Gelatine Protein ist, kann der Verzehr von Gelatine zu einer gesunden Ernährung beitragen. Weiterhin sind in Gelatine insgesamt 18 unterschiedliche Aminosäuren enthalten wovon acht als notwendig für den menschlichen Körper eingestuft werden. Da Gelatine jedoch, wie vorab zu lesen war, meist in Süßspeisen oder deftigen Nahrungsmitteln Verwendung findet, sollte unbedingt auf die verzehrte Menge der gelatinehaltigen Lebensmittel geachtet werden. Zu viel von ihnen ist letztlich jeweils ungesund.

Gibt es auch Gelatine für Vegetarier und Veganer? Ist Gelatine vegan?

Gelatine für Vegetarier und Veganer gibt es nicht, da für die Herstellung von Gelatine immer Teile eines Tieres verwendet werden. Vegetarier und Veganer können jedoch auf einige Alternativen zurückgreifen, die ähnliche Eigenschaften wie Gelatine aufweisen. Das sind zum Beispiel Speisestärke, Agar Agar oder Pektin. Alle genannten Produkte sind für Veganer und Vegetarier geeignet.

Was ist das Blockchain Trilemma? Erklärung, Bedeutung, Definition


Die meisten erfolgreichen Innovationen nehmen ihren Weg auf ähnliche Weise: Es wird etwas geschaffen, das die Menschen wollen, und wenn die Verkaufszahlen zu steigen beginnen, wird die Produktion aufgrund von Größenvorteilen billiger, was zu einer größeren Nachfrage führt. Bei Kryptowährungen sind die Dinge jedoch nicht so einfach. Während der Handel mit Token wie Bitcoin und Ethereum zunimmt, wird die Aufzeichnung und Sicherung von Transaktionen langsamer und teurer.

Was ist das Blockchain Trilemma? Erklärung, Bedeutung, Definition

Es wurden verschiedene Versuche unternommen, dieses Problem zu lösen, aber sie alle machen das System entweder anfälliger für böswillige Akteure oder verwässern das dezentrale Modell, das für die Attraktivität des Kryptosektors entscheidend ist. Dieses „Blockchain-Trilemma“ (die Vorstellung, dass dezentrale Netzwerke nur zwei von drei Vorteilen gleichzeitig bieten können – Dezentralisierung, Sicherheit, Skalierbarkeit) ist eine der schwierigsten Herausforderungen bei der Masseneinführung von Kryptowährungen.

Öffentliche Blockchains sind die Motoren der Kryptowährungen. In diesen digitalen „Büchern“ werden Salden, Vertragscodes und andere Daten mit Hilfe hochentwickelter digitaler Schlüssel aufgezeichnet. Die Tatsache, dass diese Aufzeichnungen öffentlich sind und nicht gelöscht, geändert oder kopiert werden können, schafft das nötige Vertrauen, um auf der Blockchain ohne Vermittler zu arbeiten. Dieses Vertrauen wird durch die Vervielfältigung und Validierung von Informationen von mehreren Computern in einem Netz noch verstärkt. Aus diesem Grund können viele der ursprünglichen Blockchains nicht mehr Transaktionen verarbeiten, als ein einzelner Computer im Netzwerk bewältigen kann.Dies kann dazu führen, dass Blockchains mit dem Arbeitsvolumen überfordert sind, was wiederum zu Verzögerungen und übermäßigen Kosten für die Nutzer führt, insbesondere in Zeiten intensiver Kryptomarktaktivitäten. Seit September kann die Blockchain von Bitcoin nicht mehr als sieben Transaktionen pro Sekunde verarbeiten, während Ethereum auf etwa 15 pro Sekunde begrenzt ist.

Warum ist es ein Trilemma?

Denn eine Ausweitung der Blockchain über einen bestimmten Punkt hinaus gefährdet unweigerlich zwei ihrer grundlegenden Eigenschaften – ihre dezentrale Struktur, die Transparenz und das Vertrauen der Nutzer in die Unabhängigkeit von Dritten und Regierungen bietet, sowie die Sicherheit (Schutz der Daten vor Hackern). Kurz gesagt: Man kann Zersiedelung, Dezentralisierung oder Sicherheit haben, aber nicht alle drei zusammen.

Wurde dies als Entwicklung erwartet?

Ja. Der Informatik-Experte Hal Finney, der Empfänger der ersten Bitcoin-Transaktion des so genannten Erfinders der Kryptowährung, Satoshi Nakamoto, warnte schon früh davor, dass Blockchains gemäß ihrer ursprünglichen Konzeption nicht von selbst wachsen können. Dann schlug er vor, die Hauptblockchain um ein einfaches und effizienteres Sekundärsystem zu ergänzen. „Bitcoin selbst kann nicht so wachsen, dass jede einzelne Finanztransaktion auf der Welt an jeden gesendet und in die Blockchain aufgenommen wird“, schrieb Finney 2010 in einem Forenbeitrag. 2017 prägte Ethereum-Blockchain-Mitbegründer Vitalik Buterin den Begriff „Blockchain-Trilemma“.

Gibt es eine Lösung für das Blockchain Trilemma?

Es gibt einige Innovationen, die die Leistung von Blockchains verbessern sollen, aber bei näherer Betrachtung zeigt sich, dass sie entweder die Dezentralisierung oder die Sicherheit auf Kosten der Skalierbarkeit verwässern. Hier sind einige Möglichkeiten:

Größere Blöcke: Die Blockchain wurde so verändert, dass Transaktionen zu größeren Paketen zusammengefasst werden, bevor sie validiert und dem Netzwerk hinzugefügt werden. Dies kann durch die Schaffung eines neuen Netzes aus dem bestehenden erreicht werden, ein Prozess, der als Forking bekannt ist. Bitcoin Cash ist eine der bekanntesten Abspaltungen dieser Art.

Neue Schichten: ein Protokoll, das auf einer bestehenden Blockchain aufbaut und Transaktionen unabhängig abwickeln kann – etwas, das eher dem entspricht, was Finney vorschlägt. Beispiele für diese sogenannten Layer-2-Protokolle sind das Polygon von Etherium und das Lightning Network von Bitcoin.

Chunking: Aufteilung von Datengruppen in kleinere Chunks, um die Rechen- und Speicherlast gleichmäßiger über das Netz zu verteilen. Die Informationen in einem solchen Chunk können gemeinsam genutzt werden, so dass das Netzwerk dezentralisiert und sicher bleibt.

Welche Auswirkungen hat das Blockchain Trilemma?

Das war kein Problem, als Kryptowährungen nur eine Nischentechnologie waren, die von einer Kerngruppe von Enthusiasten genutzt wurde. Jetzt, da sich das traditionelle Finanzwesen und andere Mainstream-Branchen der Blockchain zuwenden, werden diese Einschränkungen immer mehr zu einem Hindernis. Regelmäßig auftretende Engpässe und hohe Gebühren haben dazu geführt, dass Ethereum Marktanteile im dezentralen Finanzwesen an konkurrierende Blockchains wie Binance Smart Chain und Solana verloren hat, die schneller und billiger sein können, weil sie weniger Teilnehmer für die Durchführung von Transaktionen benötigen.

Zwischen Anfang 2021 und September 2022 sank der Marktanteil von Ethereum im dezentralen Finanzwesen in Form von „Locked-in“-Werten von 96 % auf 58 %, so die Daten der Plattform Defi Llama. Die Befürworter hoffen, diese Probleme überwinden zu können, wenn sich die Art und Weise, wie die Plattform Transaktionen bewertet, ändert.

Warum ist das Fenster nass? Tipps gegen Kondenswasser, Erklärung


Der Begriff Kondenswasser bezeichnet eine Wasserablagerung auf der Innenseite von Fenstern und Fensterrahmen. Hierbei handelt es sich um Feuchtigkeit aus der Raumluft, welche durch eine sinkende Lufttemperatur von der Luft auf die Fensterscheibe abgegeben wird. Meistens tritt dieses Phänomen in der Nacht und den frühen Morgenstunden während der kalten Jahreszeit auf. Betroffen ist vor allem der untere Bereich von Fensterscheiben.

Warum werden Fenster von innen nass? Erklärung

Ursache für die Entstehung von nassen Fenstern ist der Unterschied zwischen der Temperatur im Inneren des Raumes und der Temperatur im Freien. Ist es im Raum warm, nimmt die Raumluft Feuchtigkeit auf. Trifft diese warme Luft dann auf die Oberfläche eines Fensters, sinkt die Lufttemperatur innerhalb kurzer Zeit deutlich und die Luft gibt die aufgenommene Feuchtigkeit an die Oberfläche des Fensters ab.

Dass sich Luft an einem Fenster schnell abkühlt, liegt an einer deutlich niedrigeren Außentemperatur und damit verbunden einer niedrigeren Temperatur der Glasfläche auch auf der Innenseite des Fensters. Nasse Fenster treten daher vor allem im Winter und während des Winters vornehmlich in den besonders kalten Nachtstunden auf, da zu dieser Zeit der Temperaturunterschied oft besonders groß ist.

Nicht nur die Innenseite von Fenstern kann nass werden. Herrscht draußen eine sehr hohe Luftfeuchtigkeit und besteht ein Temperaturunterschied zwischen Innen- und Außenluft, dann kann es auch zur Ablagerung von Kondenswasser auf der Außenseite von Fenstern kommen. Das ist ein Anzeichen für eine gute Isolierung der Fenster und stellt in der Regel kein Problem dar.

Was kann man gegen Kondenswasser machen? Tipps

Bemerkt man an den Fensterscheiben Kondenswasser, sollte dieses umgehend entfernt werden. Mit einem saugfähigen Tuch lässt sich Kondenswasser gut von der Scheibe abwischen. Zusätzlich ist es ratsam, auch den Fensterrahmen abzuwischen und zu prüfen, ob sich im Rahmen ebenfalls Wasser angesammelt hat. Durch das gründliche Trocknen der Flächen kann der Entstehung von Schimmel vorgebeugt werden.

Um Bereits die Entstehung von Kondenswasser am Fenster zu verhindern, ist eine Kombination aus ausreichender Beheizung von Räumlichkeiten, effektivem Lüften und einer Überprüfung der Dichte der Fenster sinnvoll. Wasser lagert sich nur dann an Scheiben ab, wenn sie vorher im Raum von der Luft aufgenommen wurde und dazu ist eine gewisse Luftfeuchtigkeit notwendig. Durch das Trocknen von Wäsche in Räumen, beim Duschen oder Kochen kann die Luftfeuchtigkeit deutlich steigen. Regelmäßiges Lüften sorgt für einen Abtransport der Feuchtigkeit nach draußen. Stoßlüften erweist sich hierzu als besonders effektive Methode. Dazu werden Fenster mehrmals am Tag für eine Dauer von fünf bis zehn Minuten vollständig geöffnet. Bestenfalls öffnet man dabei sich gegenüberliegende Fenster für eine optimale Luftzirkulation.

Was hilft noch gegen Kondenswasser?

Durch eine ausreichend hohe Raumtemperatur kann die Luftfeuchtigkeit im Raum gesenkt werden. Zudem ist der Luftaustausch während des Lüftens dann effektiver. Als Richtwert wird eine Raumtemperatur von 20 Grad angegeben. Außerdem ist es wichtig, die Entstehung von Luftfeuchtigkeit so weit wie möglich zu reduzieren. Wäsche sollte gerade in den Wintermonaten nicht in Wohnräumen getrocknet werden. Alternative Trockenmöglichkeiten sind ein gut belüfteter Wäscheraum im Keller, ein Wäscheständer auf dem Balkon oder die Nutzung eines Wäschetrockners.

Fazit: Ursache und Hilfe bei Kondenswasser am Fenster

Damit sich Kondenswasser an einem Fenster absetzen kann, müssen verschiedene Faktoren zusammenkommen. Eine hohe Luftfeuchtigkeit und ein deutlicher Temperaturunterschied zwischen der Raumluft und Außenluft sind dafür erforderlich. Bereits nass gewordene Fenster kann man mit einem Tuch trockenwischen. Die weitere Entstehung von nassen Fenstern lässt sich durch ausreichendes Heizen und Lüften verhindern.

Warum ist das Kreuz das Symbol des Christentums? Erklärung, Geschichte


Das Kreuz erinnert Christen nicht nur an die Opferung Jesus Christus für die gesamte Menschheit, sondern symbolisiert außerdem den Sieg über den Tod.

Das Kreuz im Christentum – Symbolik und Bedeutung

Im Christentum ist das Symbol des Kreuzes auf das Neue Testament zurückzuführen, laut welchem Jesus Christus durch Kreuzigung hingerichtet wurde. Zudem betont das Kreuz die Verbindung zwischen dem Irdischen (dargestellt durch die waagrechte Achse) und dem Himmlischen (senkrechte Achse). Es steht weiters auch für Gegensätze wie Materie und Geist, Leib und Seele, das Weibliche und das Männliche.

Diese Verbindungen, vormals durch den Sündenfall gebrochen, wurden laut der biblischen Lehre durch Jesus‘ Opfertod (daher auch „Bundesopfer“ genannt) wiederhergestellt, was das Kreuz zum Zeichen des Heils und der Versöhnung werden ließ. Dennoch kann es auch für Bürde und Qualen stehen, wie auch in verschiedenen Redewendungen offensichtlich wird.

Das Kreuz im Christentum – Geschichte und Entwicklung

Zu Beginn des Christentums waren dessen Symbole das Staurogramm und das Christusmonogramm ΧΡ, welche jedoch beide in ihrer Anordnung bereits an ein Kreuz erinnerten. Die älteste bildliche Darstellung der Kreuzigung wird tatsächlich erst auf das späte 2. bis frühe 3. Jahrhundert datiert und während das Bekreuzigen bzw. Kreuzschlagen schon im 3. Jahrhundert üblich wurde, löste das Kreuzzeichen die frühe Symbolik erst im 5. Jahrhundert allgemein ab. Zu dieser Zeit hatte das heute bekannte Lateinische Kreuz das vorerst übliche Taukreuz, welches ein einfaches T darstellt, bereits verdrängt.

Die vermehrte Verwendung des Kreuzzeichens scheint auch mit der Abschaffung der Kreuzigungsstrafe im Jahr 320 n. Chr. einherzugehen und wurde zudem dadurch gefördert, dass Konstantin der Große Religionsfreiheit gewährte sowie sich zum Christentum bekannte und das Christentum 391 von Konstantins Nachfolger zur Staatsreligion des Römischen Reiches ernannt wurde. Einige Historiker gehen auch davon aus, dass das heidnische Umfeld eine große Rolle dabei spielte, warum die Wahl auf das Kreuzzeichen fiel, da viele heidnische Kulturen Versionen dieses Symbols bereits verwendeten. Schon in der Steinzeit wurde das Kreuz als Kultgegenstand gebraucht.

Im Mittelalter schließlich wurde das Kreuz in Form von Kruzifixen gemeinhin verbreitet und lief zur Hochform auf. Angebracht wurde das Symbol nicht nur an Kathedralen und Kirchen, sondern fand auch Eingang in die Wappen vieler Adelshäuser.

Das Kreuz im Christentum – Weitere Kreuzformen

Neben dem weithin bekannten Lateinischen Kreuz finden sich noch zahlreiche weitere Kreuzformen in der christlichen Religion.
Unter den verbreiteteren Formen befindet sich das Keltenkreuz (Lateinisches Kreuz mit Ring), welches vornehmlich in Irland verwendet wurde, das Patriarchenkreuz (zweiter Querstrich als Symbol für die Kreuzinschrift), das Petruskreuz (auf dem Kopf stehendes Lateinisches Kreuz) zur Verehrung des heiligen Petrus, das Tatzenkreuz mit nach außen hin verbreiterten Balken und das Papstkreuz, das mit seinen drei Querbalken die päpstlichen Gewalten Priester-, Hirten- und Lehrgewalt symbolisiert.

Das Kreuz im Christentum – Verwendung und Vorführung

Vor allem in christlich geprägten Ländern ist das Kreuz heute noch an zahllosen Orten anzutreffen. Noch immer ist das Kreuz ein beliebter Halskettenanhänger und das nicht nur bei bekennenden Christen.
Nach wie vor wird auch bei Segnungen das Kreuz geschlagen und Prozessionen führen das Kreuz voraus.

Teilweise hängt das Kreuz auch immer noch in Klassenzimmern öffentlicher Schulen und aufgrund der traditionellen Krankenpflege der Kirche tragen auch viele Apotheken, Krankenhäuser und Verbände wie das Rote Kreuz dieses Symbol als Kennzeichen.

Bis heute enthalten auch viele Länderflaggen das Kreuzzeichen. So vereint die britische Union Jack das Andreas-, Georgs- und Patrickskreuz auf einmal.

Auch viele Berge ziert noch immer ein Gipfelkreuz.

Warum hat man Alpträume? Gründe, Erklärung


Bei einem Alptraum, auch Albtraum oder Nachtmahr, handelt es sich um eine Schlafstörung, eine sogenannte Parasomnie. Als Alpträume werden Träume bezeichnet, die mit negativen Emotionen, wie beispielsweise Angst, Trauer oder Panik, einhergehen. Dabei durchlebt der Träumende meist bedrohliche oder chaotische Situationen und Szenarien.

Warum hat man Alpträume? Gründe, Erklärung

Ein Alptraum taucht meistens während der REM-Phase (englisches Kürzel für „rapid eye movement“, zu deutsch „schnelle Augenbewegung“) auf, die typische Dauer beträgt von wenigen Minuten bis zu einer halben Stunde. Alpträume werden in vielen Fällen als sehr intensiv wahrgenommen und enden oft mit einem aufgeschreckten Erwachen. Nach dem Wachwerden tritt häufig ein beklemmendes oder gehetztes Gefühl der Panik auf, welches einige Zeit anhält und sich erst nach einer Weile allmählich legt. Häufige Alpträume, vor allem solche mit immer gleichem Inhalt, können zu einer dauerhaften psychischen Belastung während der Wachzeit eines Menschen werden, der sich irgendwann davor fürchtet, zu Bett zu gehen und Schwierigkeiten hat, Schlaf zu finden.

Als Ursache für schlechte Träume bekannt sind zum Beispiel traumatische Erlebnisse aus der Vergangenheit, die Verarbeitung des letzen Tages, Stress, aber auch psychische Störungen und physische Probleme. Auch kommende Ereignisse, die Angst oder Nervosität auslösen, können solche schlechten Träume begünstigen. Alpträume wirken sich in der Regel negativ auf die nächtliche Erholung und die körperliche und seelische Verfassung des Schlafenden aus.

Viele große Künstler ließen sich von der Thematik des Alptraums inspirieren. Der Alptraum ist Mittelpunkt musikalischer Werke, bestimmt die Handlungsstränge vieler Filme und Bücher und alptraumhafte Szenen werden auf etlichen Leinwänden abgebildet.

Kann man Alpträume behandeln oder ihnen vorbeugen?

Eine gute Methode, um Alpträume abzuwenden oder sie von vornherein zu vermeiden, ist die Fähigkeit des Klartraums oder „luziden Traums“. Bei einem Klartraum wird dem Träumenden bewusst, dass es sich bei dem Erlebten nicht um reales Geschehen handelt, sodass er eingreifen und die Kontrolle über seinen Traum gewinnen kann. Durchlebt man einen Traum bewusst, kann man ihn umstrukturieren und die Handlung verändern und so das Alptraumhafte daraus verbannen. Diese Methode gilt als sehr zuverlässig, doch handelt es sich bei einem luziden Traum um eine Fähigkeit, die erst einmal erlangt werden muss. Um dies zu schaffen, gibt es verschiedene Übungen, mit denen man einen Klartraum auslösen kann. Indem man sich diese Übungen zur Gewohnheit macht, ist es möglich, regelmäßig luzide Träume zu erleben, und so langfristig die eigenen Alpträume zu bekämpfen.

Für Menschen, denen es nicht gelingt, sich während des Traumes bewusst zu werden, dass sie träumen, und die an immer wiederkehrenden Alpträumen leiden, gibt es noch andere Behandlungen. In dem man der Ursache seiner Ängste auf den Grund geht und sich ihnen stellt, kann man weiteren Alpträumen entgehen. Dies können ganz alltägliche, berufliche oder familiäre Missstände sein, aber traumatische und seelisch belastende Erlebnisse aus der Kindheit oder jüngeren Vergangenheit können ebenso verantwortlich für die sich wiederholenden Träume sein. Manchmal ist der Grund für solche Alpträume auch nicht eindeutig klar, in dem Fall muss erst Ursachenforschung betrieben werden. Es empfiehlt sich, dafür professionelle Hilfe in Anspruch zu nehmen.

Ist der Ablauf des Alptraums immer gleich, kann man auch versuchen, ihn sozusagen umzuschreiben. Eine Theorie lautet, dass ein Traum, je öfter er sich wiederholt, desto schneller erneut ausgelöst werden kann. Um diesen Kreis zu durchbrechen, muss man versuchen, das „Drehbuch“ abzuändern. Diese Methode ist bekannt als „imagery rehearsal therapy“, kurz IRT, und gilt ebenfalls als überaus wirksam. Sie baut darauf auf, dass man den Traum während der Wachzeit immer wieder visualisiert und ihn dabei auf immer gleiche Weise umformt, so dass der tatsächliche Alptraum sich ebenfalls bis zur Harmlosigkeit verändert. Neben der Methode des Klartraums ist die IRT-Methode eine der erfolgreichsten Möglichkeiten, sich von erschöpfenden Alpträumen zu befreien.

Warum ist der Daumen kein Finger? Erklärung


Der Daumen unterscheidet sich anatomisch und funktionell von den Fingern. Seine Sonderstellung als Glied der Hand verschaffte den Primaten außerordentliche evolutionäre Vorteile, die sich bis zur Menschwerdung fortsetzten und nach wie vor bestehen.

Sichtbare Unterschiede zwischen Daumen und Fingern

Nicht nur seine Stellung, sondern auch sein Aufbau unterscheidet den Daumen von den Fingern: Diese haben drei Knochen, beim Daumen sind es nur zwei. Er steht auch vollkommen anders am Handteller, was ihn so vorteilhaft macht: Durch seine Stellung gegenüber der Mitte zwischen Zeige- und Mittelfinger ist er opponierbar. Er kann sich zu den Fingern und zum Handteller hin bewegen. Damit kann er die Spitzen der Finger berühren, was erst das geschickte und differenzierte Greifen ermöglicht. Diese Stellung ist die Opposition (Gegenüberstellung) des Daumens. Es gibt auch bei manchen Füßen von Tieren eine Opposition. Sie verfügen über die Fähigkeit, ihre erste Zehe per Pinzettengriff den anderen gegenüberzustellen. Doch die beste Opposition haben die Daumen von Menschen, gefolgt von denen der Menschenaffen.

Wann hat sich der Daumen so entwickelt?

Nach Forschungen der Universität Tübingen dürfte der Prozess bei den Primaten vor rund zwei Millionen Jahren eingesetzt haben. Bereits der Homo erectus konnte demnach relativ geschickt mit seinem Daumen umgehen. Dies verschaffte der Spezies die Fähigkeit, frühe Steinwerkzeuge herzustellen und zu benutzen.

Die Knochen des Daumens

Die beiden direkt am Daumen sichtbaren Knochen sind der Phalanx proximalis (näher zum Handteller) und Phalanx distalis (Endglied). Funktionell gehört allerdings der Os metacarpale I (erster Mittelhandknochen) eigentlich auch zum Daumen. Er lässt sich mit dem Daumensattelgelenk artikulieren (ansteuern) und ermöglicht damit die höhere Bewegungsfreiheit des Daumens. Die distale (vom Handteller entfernteste) Stelle des Os metacarpale I weist häufig ein Sesambein auf. Dieses ist ein kleiner, in eine Sehne eingelagerter Knochen, welcher der Sehne einen größeren Hebel verschafft und nochmals die Beweglichkeit des Daumens erhöht.

Faustschluss durch den Daumen

Der Faustschluss ist nur möglich, weil der Daumen in Opposition zu den Fingern steht und besonders beweglich ist. Beide Eigenschaften zusammengenommen sind die Voraussetzung für das kräftige Greifen und führten zum entscheidenden evolutionären Entwicklungssprung der Primaten gegenüber anderen Affenarten und allen übrigen Tieren. Es gibt auch Affenarten (sogenannte Neuweltaffen), die zwar einen Daumen haben, ihn aber nur adduzieren (heranführen), aber nicht opponieren können. Zur Opposition des Primatendaumens gehören auch eine sehr differenzierte Muskulatur und die besondere Beweglichkeit durch die Sehnen und Gelenke im Daumen. Er verfügt über neun Einzelmuskeln. Auch das unterscheidet ihn von den Fingern, weshalb er evolutionstechnisch diesen nicht zugeordnet wird.

Die Unterschiede zwischen Daumen und Fingern setzen sich im Gehirn fort: Diejenigen Hirnareale, die ihn steuern, sind deutlich größer gegenüber denen für die anderen Finger. Ein weiterer Unterschied ist beim Daumennagel festzustellen: Er wächst deutlich langsamer als die Fingernägel und würde sich im Gegensatz zu diesen bei einem sehr langen Wachstum zu einer Spirale zusammenrollen.

Entstehung des Daumengelenks

Das Daumengelenk ist im Gegensatz zu den anderen Gelenken relativ jung. Es entstand vor rund acht Millionen Jahren, während das übrige Skelett seine prägende Form schon bei den frühen Menschenartigen im Miozän vor rund 20 Millionen Jahren ausbildete. Daher ist das Daumengelenk deutlich weniger belastbar als andere Gelenke (darunter die der Finger). Dies führt unter anderem dazu, dass ~80 % der aller Frauen ab dem 40. Lebensjahr von der Wachstumsstörung Rhizarthrose betroffen sind, die mehr oder minder stark ausfällt und nicht unbedingt belastend sein muss. Sie führt aber dazu, dass ihr Sattelgelenk am Daumen schräg steht. Dieses spezielle Gelenk macht den Daumen besonders beweglich, es ist aber auch empfindlich.

Ebenfalls der Jugend des Daumens schreibt man verschiedene Anomalien zu, darunter den Doppeldaumen (zwei Daumen an einer Hand) als häufigste Fehlbildung der Hand, den dreigliedrigen Daumen und die Typ-D-Brachydaktylie mit verkürztem Endglied inklusive kürzerem Fingernagel. Auch hiervon sind Frauen häufiger betroffen. Diese Anomalie kann ein- oder beidseitig auftreten.

Woher hat der Daumen seinen Namen?

Im Althochdeutschen hieß er Dumo oder Dum, im Mittelhochdeutschen Dume. Beide Worte leiteten sich vom westgermanischen Wort thuman ab, das mit dem vorindogermanischen tum verwandt ist. Es bedeutete „geschwollen sein“ „besonders starker Finger“ und ebenso „Zoll, Daumenbreit“. Das Wort Tumor (Geschwulst) kommt vom gleichen Wortstamm.

Der sprichwörtliche Daumen

Die Menschen schätzen ihren Daumen sehr und binden ihn in zahllose Sprichwörter ein. Sie schätzen etwas π (pi) mal Daumen oder auch Daumen mal Fensterkreuz, was bedeutet, dass sie den Daumen gegen das Fensterkreuz heben und dann die Entfernung über den Daumen peilen, was schon wieder ein eigenes Sprichwort ist. Daraus leiten sie auch ihre Daumenregeln ab. Wer mit Pflanzen geschickt umgehen kann, hat einen grünen Daumen. Wenn jemand Glück braucht, drücken wir ihm fest beide Daumen. Müßiggang unterstreichen wir mit Däumchen drehen, was ja tatsächlich eine gelangweilte Bewegung sein kann. Der Däumling ist im Märchen ein ganz besonders kleiner Mensch. Wer etwas für sich fixiert, hat den Daumen drauf. Der englische Begriff thumbnail (Daumennagel) bezeichnet das daumennagelgroße Vorschaubild.

Was ist CBDC? Vorteile, Nachteile, Erklärung


CBDC steht für „Central Bank Digital Currency“. Es handelt sich um eine Kryptowährung der Zentralbanken. Diese wollen das rein digitale Bezahlen damit in die breite Öffentlichkeit tragen und gleichzeitig für die Stabilität einer solchen Kryptowährung sorgen, die prinzipiell dieselbe wie die des (konventionellen) FIAT-Geldes sein soll. Entsprechende Projekte laufen weltweit schon mindestens seit 2015.

Was ist CBDC? Erklärung, Ziele

Das elektronische Geld liegt auf Konten der Zentralbanken und soll einem größeren Personenkreis zur Verfügung stehen. Wenn CBDC vollkommen ausgebaut ist, könnten praktisch alle geschäftsfähigen Bürger*innen und alle Unternehmen bei der Zentralbank ein CBDC-Konto führen. Die Währung hätte alle Eigenschaften von Kryptowährungen und ließe sich selbstverständlich auch mit Mobile Apps und anonymen Guthabenkarten verwenden. Sie wäre für Sparanlagen geeignet, wenn sie die Stabilität des heutigen FIAT-Geldes (Euro, Dollar etc.) erreicht.

Bei den derzeitigen Kryptowährungen wie Bitcoin & Co. ist das keineswegs der Fall, sie unterliegen enormen Wertschwankungen. Sie heißen Stablecoins und kommen aus der Privatwirtschaft, während das digitale Zentralbankgeld ausschließlich von Zentralbanken geschaffen werden soll. Es könnte dann wie das heutige Bargeld umlaufen. Die Berechtigung zu Emission hätte stets nur eine Zentralbank. Der Umlauf käme in Gang, indem Privathaushalte, Geschäftsbanken und Unternehmen das per Geldschöpfung erzeugte Buchgeld von Geschäftsbanken in digitales Zentralbankgeld tauschen. Die Geschäftsbanken müssten hierfür einen Teil ihrer Geldreserven in digitales Zentralbankgeld tauschen, das eine andere Form der Geldreserve neben dem Bargeld wäre. Nachfolgend könnte das digitale Zentralbankgeld im Zahlungsverkehr benutzt werden.

Organisation der CBDC-Konten

Die naheliegendste Möglichkeit der Organisation von CBDC-Konten wäre die Einrichtung einer Blockchain oder alternativ eines Directed Acyclic Graph bei der Zentralbank. Diese beiden Systeme sind sicher, die heutigen Kryptowährungen existieren damit. Doch es ist auch die Organisation als herkömmliche Datenbank denkbar. Die Kunden würden den Unterschied nicht bemerken: Sie hätten den digitalen Zugriff auf ihr Zentralbankkonto in ähnlicher Weise, wie sie heute schon auf ihr Konto bei einer traditionellen Geschäftsbank per Onlinebanking oder Kreditkarte zugreifen. Wenn sich CBDC durchsetzt, dürfte der Umgang mit dem digitalen Geld zunehmend per App organisiert werden, was aber nichts mit der digitalen Gelderzeugung und -verwaltung zu tun hat: Auch auf konventionelle FIAT-Konten können Menschen schon per App zugreifen, wenn sie es wünschen.

Welche Vorteile bietet CBDC?

  • Digitales Zentralbankgeld ist durch die Blockchain oder den DAG sicherer als FIAT-Geld.
  • Es unterliegt der zentralen Geldpolitik, was es im Gegensatz zu den Stablecoins als gesetzliches Zahlungsmittel geeignet macht.
  • Der Umgang damit entspricht dem digitalen Zeitalter. Bargeld gilt in vielen Ländern (beispielsweise in Skandinavien) längst als obsolet.
  • Mit CBDC würde der Bargeldverbrauch wahrscheinlich wirklich schrumpfen.
  • Der Währungsumlauf wäre damit effizienter zu kontrollieren, weil jede Geldbewegung in Echtzeit nachzuvollziehen ist.
  • CBDC würde die Vorherrschaft von Stablecoins beim Kryptogeld beenden und zur Währungsstabilität der Kryptowährungen beitragen. Damit könnten auch private Unternehmen mit hoher Finanzkraft wie Facebook mit der eigenen Kryptowährung Libra nicht mehr den Markt dominieren.
  • Die Abläufe sind wie bei jeder Kryptowährung schnell und effizient.

Nachteile: CBDC

Der Umgang mit der Technologie dürfte rein vom Handling her nur zögernd von alle Verbrauchern angenommen werden. Bisher nutzen auch nur sehr wenige Menschen Apps für Bezahlvorgänge.

  • Der Verwaltungsaufwand für die Konten könnte für die Zentralbanken sehr hoch werden. Immerhin benötigen die Kunden auch Support sowie Kredit- und Anlageberatung. Bislang übernehmen diese Rolle die lokalen Geschäftsbanken mit ihren vielen Beschäftigten.
  • Es dürfte in der Bevölkerung noch lange Zeit Vorbehalte gegen rein digitales Geld geben.

Zwei unterschiedliche Arten von CBDC

CBDC wird in zwei prinzipielle Arten unterschieden:

Wholesale CBDC: Dieses CBDC gibt die entsprechende Zentralbank ausschließlich an Geschäftsbanken und weitere Verwalter großer Vermögen als NBFI (Nichtbank-Finanzinstitution, beispielsweise Versicherung oder Rentenfonds) aus.

Retail CBDC: Das CBDC liegt bei der Zentralbank auf Kundenkonten vor. Die Kunden (Unternehmen, Privathaushalte, öffentliche Einrichtungen) können direkt darauf zugreifen.

Rein strukturell (unabhängig von der Technik der Geldgenerierung) würde Wholesale CBDC dem gegenwärtigen Bankensystem entsprechen. Die aktuelle Diskussion dreht sich aber überwiegend um Retail CBDC, das auch strukturell eine Innovation wäre. Es würde unter anderem das Gegenparteienrisiko der Insolvenz einer Geschäftsbank ausschalten und damit zum Beispiel die gegenwärtige Einlagensicherung überflüssig machen. Grenzüberschreitende Zahlungen würden deutlich billiger und liefen auch schneller ab, wenn das Geld nicht mehr den Umweg über eine Geschäftsbank nehmen müsste.

Fragen der Ausgestaltung von CBDC

Zentralbanken sehr vieler Staaten forschen zu CBDC. Allerdings sind die betreffenden Bemühungen in den digitalisierten Volkswirtschaften am weitesten fortgeschritten, in denen die informelle Wirtschaft ohnehin sehr ausgeprägt ist. Den Schritt zum vollkommen bargeldlosen System untersuchen die Zentralbanken mit Stand 2022 noch nicht. Sie wollen Bargeld lediglich digital ergänzen. Hierzu konzipieren sie auf unterschiedliche Weise ein hybrides System, in welchem CBDC eine bargeldähnliche Direktforderung gegenüber der Zentralbank darstellt. Die kundenbezogenen Aktivitäten wickelt jedoch der Privatsektor ab.

Ein wichtiger Punkt bei der Ausgestaltung des CBDC ist die Einführung von Zinsen auf Kredite und Guthaben. Dieser Punkt ist keinesfalls selbstverständlich, denn wenn CBDC praktisch ein digitaler Bargeldersatz sein soll, dürfte es nicht verzinst werden: Auch Bargeld läuft zinsfrei um. Wenn es Zinsen auf das CBDC gibt, stellt sich die Frage nach ihrer Höhe. Sie könnten beispielsweise dem Einlagesatz bei den Zentralbanken entsprechen, doch vielleicht müsste auch für CBDC ein neuer Leitzinssatz definiert werden. In jedem Fall entfiele das Zinsgeschäft der Geschäftsbanken, die Geld von der Zentralbank günstiger bekommen und es als Kredit teurer verleihen. Doch es wäre zu hinterfragen, mit welchen Zinsen Sparer rechnen könnten. Denkbar wäre, dass die Zentralbank CBCD zu einem gewissen Zinssatz für die Sparer anlegt und zu einem etwas höheren Zinssatz verleiht. Damit würde sie wie eine riesige Geschäftsbank fungieren.

Eine zweite wichtige Frage ist die nach der Möglichkeit, CBDC auf den Kundenkonten zu erzeugen. Dies müsste der Zentralbank vorbehalten sein. Sie könnte damit eine Art Helikoptergeld bzw. Quantitative Easing für normale Kontoinhaber vergeben. Die dritte wichtige Frage ist die der Verrechnung von CBDC mit FIAT-Geld, solange Letzteres noch existiert. Eine Variante lautet, dass CBDC in FIAT-Geld 1:1 konvertierbar ist, was im Sinne der Währungsstabilität zu begrüßen wäre. Doch es könnte sich auch ein Wechselkurs bilden. Die dritte Möglichkeit wäre die Einführung einer Höchstgrenze für die 1:1-Konvertierung. Dies liefe auf ein völlig neues Geldsystem hinaus. Auch die Frage der anonymen Zahlungen stellt sich, wie sie heute mit Bargeld völlig unproblematisch möglich sind. Da CBCD komplett digital verwaltet wird, könnte für anonyme Zahlungen eine Höchstgrenze festgelegt werden, was Geldwäsche im großen Stil erschweren oder ganz unterbinden würde. Wenn die Zentralbank auf den bei ihr geführten CBDC-Konten Geldwäsche feststellen würde, könnte sie diese direkt sanktionieren.

Verbreitung: CBDC

Auf den Bahamas wurde schon der Sand Dollar, in Kambodscha der Bakong als CBDC-Geld vollständig eingeführt. In anderen Staaten gab oder gibt es Pilotprojekte oder sehr fortgeschrittene Untersuchungen zur Thematik. Hier ein Überblick (Stand: November 2022):

  • Bahamas: Sand Dollar, vollständig eingeführt seit 2020
  • Kambodscha: Bakong, vollständig eingeführt seit 2021
  • Ostkaribische Währungsunion: DCash, Pilotprojekt seit 2021
  • China: e-CNY, Pilotprojekt seit 2020
  • Uruguay: e-Peso, Pilotprojekt von 2017 bis 2018
  • Kanada: Jasper, nur als Wholesale CBDC für Interbankenzahlungen seit 2021
  • Südafrikanische Republik: Khokhag, nur als Wholesale CBDC für Interbankenzahlungen seit 2020
  • Schweden: e-Krona, Pilotprojekt seit 2020
  • Ukraine: E-Hrywnja, Pilotprojekt seit 2018

Eine Umfrage stellte im Jahr 2021 fest, dass 80 % aller Zentralbanken der Welt an CBDCs arbeiten und 40 % schon Proof-of-Concept-Tests durchführen. Der e-Euro wird durch die EZB noch bis 2023 geprüft. Schon Mitte 2021 stellte sie fest, dass es hierfür keine technischen Hindernisse gibt. Gegenwärtig untersucht sie noch die Auswirkungen auf die Märkte, Händler und Bürger sowie die nötigen Voraussetzungen für die Gesetzgebung. Schon seit 2020 laufen mehrere Projekte der EIB (Europäische Investitionsbank), welche die Ausgabe, Übertragung und Kontrolle von CBDC, Smart Contracts und Wertpapier-Token testen. In Thailand wurde noch kein CBDC eingeführt, jedoch hat die Zentralbank dessen mögliche Auswirkungen sehr umfangreich untersucht und hierzu im April 2021 einen Bericht veröffentlicht.

Mögliche Finanzstabilität durch CBDC

Zentralbanken interessiert vorrangig die Frage, ob im Krisenfall CBDC die Stabilität des Finanzsystems eher stärkt oder schwächt. Zu erwarten wäre, dass im Krisenfall Geldmarktakteure (Unternehmen, Privatleute, öffentliche Hand) ihre FIAT-Bankeinlage und Bargeld in großem Stil in CBDC umschichten, weil diese Anlageform garantierte Sicherheit durch die Zentralbank verspricht. Dies könnte zu einem Liquiditätsrisiko für Geschäftsbanken und möglicherweise sogar zu Währungsturbulenzen führen, muss es aber nicht. Darauf weist die BoE (Bank of England) hin. Die dortigen Experten sind der Auffassung, dass es lediglich einer konkreten Ausgestaltung des Wechsels von FIAT-Geld in CBDC bedarf, um die genannten Risiken zu minimieren.

Auch der EZB-Experte Ulrich Bindseil weist darauf hin, dass es diesen Effekt der Umschichtung zu sicheren Banken bereits gibt. Daher würde digitales Zentralbankgeld keine prinzipiell neue Situation schaffen. Vor allem bei einer unbegrenzten 1:1-Konvertierung von FIAT-Geld zu CBDC gäbe es überhaupt kein Risiko der Instabilität an den Finanzmärkten, da sich an der umlaufenden Geldmenge durch die Umschichtungen gar nichts ändern würde.

Fazit: Was ist CBDC?

Die weltweite Einführung von CBDC könnte noch mindestens zehn Jahre oder länger dauern. Sie scheint aber angesichts der digitalen Durchdringung aller Wirtschafts- und Finanzkreisläufe unausweichlich.

Warum ist der Jazz in New Orleans entstanden? Erklärung, Geschichte


New Orleans, Louisiana – in der US-amerikanischen Stadt wurde Ende des 19. und Anfang des 20. Jahrhunderts der Jazz geboren. Zu jener Zeit war New Orleans ein multikultureller Hotspot, mit spanischen, französischen kolonialen Wurzeln und afrikanischen wie europäischen Einflüssen. New Orleans hob sich auf diese Weise von anderen US-amerikanischen Städten ab. Dieser besondere Mix aus Kulturen bereitete den musikalischen Nährboden für die Entstehung des Jazz. Auch, wenn es Debatten darüber gibt, wer letztendlich den Jazz erfand, ist es unumstritten, dass jenes Musikgenre in New Orleans entstand.

Noch heute lassen sich in New Orleans die Einflüsse des Jazz entdecken, der die Kulturgeschichte der Stadt maßgeblich geprägt hat. Der New Orleans Jazz florierte zwischen 1890 und 1930 und bereitete den Boden für zahlreiche Entwicklungen in der Musikhistorie. Damals brachten Musiker verschiedenster Kulturen ihre Musikeinflüsse mit und halfen, das neue Musikgenre zu erschaffen.

Traditionell greift der New Orleans Jazz auf Instrumente wie Kornett, Trompete und Posaune zurück. Je nach Band konnten sich zudem Klarinette, Tuba, Kontrabass oder Schlagzeug dazugesellen. Der Jazz aus jener Zeit hatte seine musikalischen Wurzeln wohl in lokalen Street Bands und im Ragtime. Von New Orleans breitete sich der Einfluss des Jazz schließlich in die Welt aus.

Ursprünge und Einflüsse des Jazz von New Orleans

Bis heute gibt es verschiedene Theorien darüber, wie der Jazz in New Orleans entstanden ist. Klar ist, dass die Musikrichtung zuerst unter dem Titel Jass bekannt war, bis sich gegen 1917 der Begriff Jazz etablierte. Zu jener Zeit war der Ragtime bereits etabliert, eine einflussreiche Vorversion des Jazz, die Straßenzüge von New Orleans wurden zudem von Street Bands geprägt. Der beschriebene multikulturelle Flair sorgte für die Entwicklung neuer Kunstformen, an deren Spitze der Jazz stand. Dabei hat die Entwicklung des Jazz in New Orleans einen ernsten Hintergrund: In vielen Städten der USA herrschten Formen der fragwürdigen Rassentrennung. In New Orleans gab es jedoch lockerere Interpretationen dieser Praktiken. So kam es an Plätzen wie dem Congo Square zur Mischung von afroamerikanischer und kreolischer Kultur, die sich gegenseitig beeinflussten und den Jazz möglich machten.

Der Name Buddy Bolden taucht immer wieder auf, wenn es um die Väter des Jazz geht. Er, unter dem vollen Namen Charles Joseph Bolden bekannt, half beim Übergang vom Ragtime zum Jazz. Um 1895 stieg er zu einer der ersten prominenten Figuren der neuen Musikrichtung auf, dabei spielten auch amerikanische Marschmusik und Blues in den Sound hinein, der auf öffentlichen Veranstaltungen und auf Paraden gespielt wurde. Der Legende nach soll Bolden der erste Bandleader des Jazz gewesen sein. Heute ist Buddy Bolden als King bekannt und gehört zur sogenannten Jazz Royalty der USA. Louis Armstrongs Lehrmeister King Oliver gehört ebenso zu den frühen Ikonen des Jazz, wie das experimentelle Genie Jelly Roll Morton. Auch Louis Armstrong erlernte sein Kunstwerk zu Beginn des 20. Jahrhunderts in New Orleans.

In New Orleans entwickelten sich über die Jahre zudem weitere Varianten des Jazz wie der Dixieland Jazz, zu dessen Popularisierung die Original Dixieland Jass Band mit ihren Aufnahmen um 1917 beitrug. Dabei vermischte der frühe Dixieland den afroamerikanischen Ragtime mit sizilianischer Musik. Sowohl New Orleans Jazz als auch Dixieland haben über die Dekaden bis heute zahlreiche Revivals durchlebt.

Die spätere Geschichte des New Orleans Jazz

Der Höhepunkt des klassischen New Orleans Jazz ist zwischen 1890 und 1930 zu verorten. King Oliver, Jelly Roll Morton, Louis Armstrong, Kid Ory – die Liste der Namen unter den Jazz-Berühmtheiten aus New Orleans ist lang. Dabei fanden einige der früheren Entwicklungen des Jazz im Vergnügungsviertel Storyville statt. Aufgrund von Zwischenfällen wurde das Viertel geschlossen. Nicht nur, aber auch deshalb zog es nach und nach Musiker aus New Orleans weg. Louis Armstrong und Kid Ory gingen nach Chicago, wo sich eine eigene Jazzbewegung herauskristallisierte. Der Jazz emanzipierte sich nach und nach von New Orleans.

Der Jazz machte danach zahlreiche Evolutionen durch, neue Formen wurden erschaffen, die den New Orleans Jazz als eine von vielen Strömungen des Genres zurückließ. Und doch ist der Einfluss des New Orleans Jazz auch heute noch zu spüren. In den 30ern, den 50ern und 60ern kam es jeweils zu einflussreichen Revivals des Stils.

Michael White, Kermit Ruffins und George E. Lewis sind ein Nachweis, dass die Jazzszene von New Orleans noch heute einflussreiche Musik produziert. New Orleans hat mit dem Jazz die Welt verändert, aber der Jazz hat New Orleans nie verlassen.

Überblick – Warum der Jazz in New Orleans entstand

New Orleans gilt als Ursprung des Jazz. Beeinflusst von Ragtime und örtlichen Streetbands entstand aus dem kulturellen Melting Pot von New Orleans ab 1890 bis 1930 die Ursprungsform des New Orleans Jazz. Das Zusammenleben verschiedenster Kulturen, die sich musikalisch gegenseitig inspirierten, machte den Jazz überhaupt erst möglich. Buddy Bolden, Jelly Roll Morton, King Oliver und Louis Armstrong gehören zu den Ikonen der frühen Jazzbewegung. Seitdem hat sie ein ganzes Genre beeinflusst, das noch heute lebhaft – auch in New Orleans – existiert.

Warum ist der Dodo ausgestorben? Erklärung, Geschichte


Der Dodo, oder Raphus cucullatus, wie sein offizieller lateinischer Name lautet, ist eine ausgestorbene flugunfähige Vogelart, die hauptsächlich auf der kleinen Insel Mauritius lebte, bevor sie leider ausstarb.

Warum ist der Dodo ausgestorben? Erklärung, Geschichte

Es wird allgemein angenommen, dass der Dodo ausgestorben ist, weil holländische Seefahrer alle Exemplare verspeisten, nachdem sie festgestellt hatten, dass der Vogel unglaublich leicht zu fangen war, weil er keine Angst vor Menschen hatte (warum er keine Angst vor einem Wesen hatte, das ein Vielfaches seiner Größe hatte, bleibt ein Rätsel). Im Großen und Ganzen ist dies eine ziemlich zutreffende Aussage. Es ist bekannt, dass die Dodo-Population nach der Ankunft und Besiedlung der Insel im Jahr 1598 rapide zurückging, und viele verschiedene Quellen bestätigen, dass der Dodo in der Tat ein häufiger und leichter Snack für viele Seefahrer war, da er aufgrund seiner schwerfälligen Gangart und der bereits erwähnten fehlenden Angst vor Menschen recht leicht zu fangen war.

In einer von der Oxford University School of Natural History veröffentlichten Arbeit werden jedoch die Tiere, die die Seeleute mitbrachten, als einer der Hauptgründe für das Aussterben des Dodos genannt. Die Schweine, Hunde und Ratten, die mit den Seeleuten ankommen, beginnen, die Eier der Vögel zu fressen – dies und die Menschen, die sie jagen und fressen, stören das empfindliche natürliche Gleichgewicht, das der Dodo so lange genossen hat. So wird die Art bald vom Aussterben bedroht und verschwindet dann von der Bildfläche.

Das genaue Datum, wann die Menschen mit dem Dodo in Kontakt kamen, ist noch nicht bekannt. Die holländischen Seeleute, die mit Jacob van Neck (einem der ersten Beschreiber des Tieres) reisten, sollen den Vogel als erste gesehen haben – dies geschah im Jahr 1598. Das Problem ist jedoch, dass portugiesische Seeleute behaupten, den Vogel schon Jahrzehnte vorher gesehen zu haben – bereits 1507.

Dies ist nur eine der vielen Tatsachen über den Dodo, die noch immer nicht eindeutig geklärt sind. So ist das Datum, an dem der Vogel offiziell verschwunden ist, ebenso unbekannt wie das Datum seiner Entdeckung. In der Studie der Universität Oxford wird behauptet, dass der Dodo um 1680 bereits ausgestorben war, was auch in vielen anderen Quellen bestätigt wird. Einige Wissenschaftler, die neuere Aufzeichnungen des Vogels untersucht haben, vermuten jedoch, dass das wahre Datum 10 Jahre später liegt. Andererseits wurde, wie in dem Buch „Lost Land of the Dodo: The Ecological History of Mauritius, Réunion and Rodrigues“ – einem der wichtigsten Texte über den Vogel und sein Ende – vermerkt, die letzte, allgemein anerkannte, bestätigte Sichtung eines lebenden Dodos Jahre zuvor, im Jahr 1662, vorgenommen. Das bedeutet, dass es eine 30-jährige Lücke gibt, in der nicht bekannt ist, was die Dodo-Vögel taten.

Interessanterweise weiß niemand so genau, wie der Dodo-Vogel aussah, obwohl er zusammen mit dem Mammut zu den berühmtesten ausgestorbenen Tieren aller Zeiten gehört. Ganze Skelette dieses Tieres sind äußerst selten – eines der letzten wurde 1755 bei einem Brand zerstört. Selbst das Modell im Naturhistorischen Museum besteht aus Skeletten verschiedener Exemplare.

Die gängige Darstellung des Dodos – als übergewichtiger Vogel mit dümmlichem Aussehen – ist jedoch wahrscheinlich falsch. Aus Rekonstruktionen kürzlich gefundener Knochen geht hervor, dass der Dodo in Wirklichkeit viel schneller und beweglicher war, als die Künstler der Vergangenheit glaubten. Seltsamerweise geht die Standarddarstellung von übergewichtigen Dodos auf die Zeit zurück, als diese Vögel zum ersten Mal gesichtet wurden, obwohl es auch Darstellungen von schlankeren und schlankeren Dodos gibt (einschließlich der Zeichnungen von Jacob van Neck, der einer der ersten war, der sie skizzierte). Diese sind jedoch viel weniger zahlreich als jene, die Dodos zeigen, die groß und unhandlich aussehen. Wahrscheinlich gibt es dafür einen bestimmten Grund, aber wie bei allem, was mit Dodos zu tun hat, weiß niemand genau, was es ist.

Obwohl die Vögel zu einem Beispiel für Dummheit und einem Symbol für das Artensterben geworden sind und in populären Geschichten von „Alice im Wunderland“ bis „Ice Age“ eine Rolle spielen, sind die meisten Aspekte der Biologie des Dodo-Vogels noch immer unbekannt. Das liegt zum Teil daran, dass Exemplare des Vogels extrem selten sind, weil sie ausgestorben sind, bevor die großen naturkundlichen Sammlungen angelegt wurden.

Um das Gehirn von Dodo zu untersuchen, verwendete das Team von Eugenia Gold einen gut erhaltenen Schädel aus den Sammlungen des Natural History Museum in London und scannte ihn mit einem hochauflösenden Computertomographen.

Den Wissenschaftlern zufolge hatte Dodo einen vergrößerten Riechkolben (der Teil des Gehirns, der für die Wahrnehmung von Gerüchen zuständig ist), was nicht typisch für Vögel ist, die über besser entwickelte visuelle Rezeptoren verfügen. Die Autoren vermuten, dass die Dodo-Vögel als Landbewohner ihre Geruchsrezeptoren für die Suche nach Nahrung – Früchte, kleine Landwirbeltiere, Weichtiere – nutzten.

„Es ist erstaunlich, wie neue Technologien aus alten Museumsexemplaren neue Daten herausholen können“, sagte der Mitautor der Studie, Mark Norell, Vorsitzender der Abteilung für Paläontologie am American Museum of Natural History. „Das zeigt, wie wichtig es ist, naturkundliche Sammlungen zu erhalten und zu erweitern, denn niemand weiß, was auf uns zukommt.“

Warum hat ein Igel Stacheln? Erklärung


Stacheligel trifft man in Europa, Asien und Afrika an. Charakteristisch für sie ist ihr Stachelkleid aus langen, dichten Stacheln. Es macht sie unverwechselbar Die Stacheln schützen Igel vor Verletzungen und vor Feinden, den sie bedecken den gesamten Rücken, von der Stirn bis zum Schwanz und auch noch seitliche Bereiche des Bauches. Bei Gefahr können sich Igel in wenigen Sekunden komplett einrollen, so dass sie wie eine stachelige Kugel aussehen.

Woraus bestehen die Stacheln eines Igels?

Die Stacheln sind hohl und bestehen überwiegend aus Keratin, also demselben Stoff, aus dem auch unsere Haare und Nägel sind. Keratin ist ein Eiweiß, das den Stacheln ihre Festigkeit und zugleich eine gewisse Elastizität verleiht. Die Stacheln haben mit Wülsten verstärkte Innenwände, was sie fest, aber zugleich leicht macht. Dieser stabile Aufbau kann dem Igel sogar das Leben retten, denn dadurch können Stacheln Stürze auch aus größerer Höhe gut abfedern. Bei erwachsenen Tieren sind die Stacheln 2-3 cm lang, bei Igel-Babys wenige Millimeter. Die Stacheln werden zur Spitze hin schmaler und sind mit einer Art Wurzel in die Haut eingebettet, die einer kleinen Knolle ähnelt. Jeder einzelne Stachel wird durch einen Muskel bewegt, sodass ein Igel seine Stacheln individuell aufstellen oder anlegen kann. Die Stacheln von Igeln haben eine beige-braune Zeichnung, was den Tieren in der Natur eine hervorragende Tarnung verschafft. Mit zunehmendem Alter wird das Stachelkleid heller, es bleicht aus.

Die Anatomie des Stachel-Igels

Ein durchschnittlicher Igel ist braun bis graubraun, wird selten größer als 32 cm und wiegt zwischen 800 und 1.400 g. Am Kopf fallen ihre knopfartigen, runden Augen, kleine Ohren und eine spitze Nase auf. Er hat kürzere Vorder- als Hinterbeine und Krallen an den Pfoten. Der Schwanz ist zwischen 2 und 4 cm lang. Eine anatomische Besonderheit bringt den Igel zuweilen zum Spucken. Ursache hierfür ist das sei zusätzliches Geschmacksorgan, das Jacobsonsche Organ im Gaumen. Wenn er etwas zum Fressen findet, es aber nicht sofort erkennen kann, kaut er darauf herum, wobei Speichelschaum entsteht. Diesen befördert der Igel mit der Zunge zum Jacobsonsche Organ, das genau identifizieren kann, ob seine Beute essbar ist oder nicht.

Siehe: Was ist das Meme „friedlicher Igel, panischer Igel“?

Die Lebensweise des Stachel-Igels

Igel sind Einzelgänger, man trifft sie nur zur Paarungszeit zu zweit an. Ihr bevorzugter Lebensraum sind Hecken und Gebüsche am Waldrand. Sie mögen auch Parks und Gärten. Igel sind nachtaktive Säugetiere und werden erst in der Dämmerung munter. Sie können zwar nicht gut sehen, haben aber einen sehr feinen Riechsinn. Igel sind Insektenfresser und bevorzugen Spinnen, Käfer und andere Laufinsekten. Auch Schmetterlingslarven, Regenwürmer und Schnecken gehören zu ihren Speisen. Das Nahrungsspektrum ist also sehr umfangreich. Schnecken und Regenwürmer sind für Igel potenziell gefährlich, denn sie sind Zwischenwirte für Parasiten wie Bandwurm und Rundwurm. Fressen Igel die befallenen Würmer, kann es zu Schäden an allen inneren Organen kommen. Der Stacheligel hält Winterschlaf und benötigt in dieser Zeit Nahrung. In den kalten Monaten zehrt er von den Fettreserven, die er sich den Sommer und Herbst über angefressen hat. Wie wichtig die vorherige Nahrungsaufnahme ist, zeigt die Tatsache, dass er während des Winterschlafes zwischen 20 und 40 % seines Gewichtes verliert.

Wie Sie den richtigen Thermostat für Ihr Haus auswählen: Erklärung


Der Thermostat steuert die Temperatur des Hauses und ist ein wichtiger Faktor bei der monatlichen Energierechnung. Es ist essentiell, sich über die vielen Thermostate auf dem Markt zu informieren, bevor Sie einen Kauf tätigen. Im Idealfall finden Sie ein Thermostat, das den Anforderungen Ihres Hauses entspricht und energieeffizient ist. Erfahren Sie hier, wie Sie das richtige Thermostat für Ihre Fußbodenheizung auswählen.

Finden Sie ein geeignetes Thermostat

Vor dem Kauf eines Thermostats ist es essentiell zu wissen, welche Art von Thermostat Fußbodenheizung und -kühlung derzeit in der Immobilie installiert ist. HLK-Geräte sind in den meisten Häusern der Standard.

Modelle von Thermostaten

Thermostate gibt es in einer Vielzahl von Stilen und Funktionen. Ihre Fähigkeit, Energie zu sparen und sich an die Vorlieben der Benutzer anzupassen, ist sehr unterschiedlich.

Programmierbarer Thermostat

Ein programmierbarer Thermostat stellt die Temperatur ohne menschliches Zutun ein. Er kann so eingestellt werden, dass er die Temperatur in Ihrer Wohnung automatisch nach Ihren Wünschen ändert. Wenn Sie ein solches Gerät besitzen, müssen Sie nicht jeden Tag aufstehen und am Thermostat herumschrauben. Im Vergleich zu herkömmlichen Thermostaten senken programmierbare Modelle den Stromverbrauch und die Kosten. Da sie sich weniger abnutzen, haben sie eine längere Lebensdauer.

Sie können Ihr programmierbares Thermostat auf verschiedene Arten einstellen. Sie haben einen Sieben-Tage-Zeitplan, der tägliche Temperaturänderungen zulässt. Eine Variation dieses Themas besteht darin, ihn an Wochentagen auf eine bestimmte Weise und am Wochenende auf eine andere Weise einzustellen.

Digitaler nicht programmierbarer Thermostat

Diejenigen, die tagsüber zu Hause sind, bevorzugen vielleicht nicht programmierbare Thermostate, die manuell eingestellt werden müssen. Einige digitale, nicht programmierbare Thermostate können jedoch Daten mit dem HLK-System teilen, um das Haus den ganzen Tag über auf einer angenehmen Temperatur zu halten.

Manueller Thermostat

Ein manuelles Thermostat ist einem normalen, nicht programmierbaren Thermostat sehr ähnlich, das manuell eingestellt werden muss. Im Gegensatz zu nicht programmierbaren Thermostaten verfügen manuelle Thermostate jedoch nicht über ein gut lesbares LCD-Display.

Thermostat mit drahtloser Steuerung oder Fernbedienung

Das Einstellen der Temperatur in Ihrem Haus ist jetzt so einfach wie das Verbinden eines Fern- oder WLAN-Thermostats mit Ihrem Internetservice und das Einstellen von Ihrem Computer, Tablet oder Smartphone aus. Die Temperatur eines WLAN-Thermostats kann geändert werden, ohne dass Sie sie von Grund auf neu einstellen müssen, und zuvor eingestellte Temperaturen außer Kraft setzen. Die Möglichkeit, Änderungen von außerhalb des Hauses vorzunehmen, erhöht die Benutzerfreundlichkeit und das Potenzial zum Energiesparen.

 Zu beachtende Faktoren

Im Laufe der Zeit werden die Thermostate immer intelligenter und innovativer. Jedes ist auf seine Weise besonders, aber es gibt ein paar gemeinsame Vorlieben bei den Käufern, die Sie im Auge behalten sollten.

  1. Intelligente Thermostate verfügen über eine App, mit der Sie die Temperatur von überall im Haus aus einstellen können. Viele von ihnen sind mit Sprachassistenten wie Alexa von Amazon, Siri von Apple und Google Home kompatibel.
  2. Viele moderne intelligente Thermostate sind mit Geo-Fencing und Smartphone-Apps ausgestattet, um Ihre Routine zu lernen und die Temperatur entsprechend einzustellen.
  3. Sie können je nach Temperatur in Ihrem Haus automatisch von Kühlen auf Heizen umschalten, was sie ideal für Regionen mit einer großen Temperaturspanne macht.
  4. Thermostate mit hintergrundbeleuchtetem Display und Touch-Bedienung sind leicht zu überwachen und fein einzustellen.
  5. Thermostate, die Sie daran erinnern, den Filter der Klimaanlage oder des Ofens zu wechseln, sind praktische Funktionen.

Intelligenter Thermostat

Ein intelligentes Thermostat ist heutzutage der letzte Schrei in der Heiz- und Kühltechnik. Bei diesem programmierbaren Gerät ist keine vorherige Programmierung erforderlich. Je mehr es im Haus verwendet wird, desto mehr lernt es die Eigenheiten und Routinen seiner Besitzer. Wenn niemand zu Hause ist, kann das intelligente Thermostat für die Fußbodenheizung die Temperatur automatisch absenken.

Dieses Thermostat ist mit intelligenten Lautsprechern wie Alexa kompatibel und ermöglicht eine freihändige Bedienung mit Ihrer Stimme. Wenn es mit WLAN verbunden ist, können Sie es auch aus der Ferne bedienen.

Eine Schritt-für-Schritt-Anleitung zur Kombination Ihres neuen AC-Thermostats.

  1. Schalten Sie die alten Heiz- und Kühlsysteme aus, indem Sie die Sicherungen und den Thermostat ausschalten.
  2. Verwenden Sie Klebeband und einen Permanentmarker, um jedes Kabel zu kennzeichnen. Notieren Sie auf jedem Aufkleber, wohin das Kabel führt.
  3. Entfernen Sie die Schrauben und schneiden Sie die Drähte ab. Nehmen Sie die Rückwand von der Wand ab. Um zu verhindern, dass die Kabel im Raum hinter dem Thermostat verschwinden, kleben Sie sie mit Klebeband an der Wand fest.
  4. Bringen Sie die Rückwand des neuen Thermostats an der Wand an. Um Platz für das neue Thermostat an der Wand zu schaffen, müssen Sie die Dübel, mit denen das alte Thermostat an der Wand befestigt war, entfernen und eventuell einige Trockenbauarbeiten durchführen.
  5. Es ist wichtig, dass Ihr Thermostat richtig installiert ist. Einige Thermostate haben einen winzigen Level auf der Rückwand. Bevor Sie die Dübel in der Wand anbringen, markieren Sie mit einem Level die Position der Dübel und machen Sie mit einem Bleistift Führungslöcher.
  6. Verwenden Sie das Loch auf der Rückplatte, um alle Kabel hindurchzuführen. Verwenden Sie die Schrauben, die mit dem neuen Thermostat geliefert wurden, um die Rückplatte an der Wand zu befestigen. Stellen Sie sicher, dass alle Schrauben fest angezogen sind, bevor Sie fortfahren.
  7. Vergewissern Sie sich, dass alle Kabel richtig angeschlossen sind. Wenn die Kabelfarben anders sind als erwartet, können Sie sich jederzeit an dem Foto und den Etiketten orientieren.
  8. Bringen Sie die Abdeckung Ihres Thermostats wieder an. Starten Sie die Thermostat-Fußbodenheizung und das Kühlsystem des Thermostats neu, indem Sie die Unterbrecher wieder auf „ein“ stellen. Es ist sicher, den neuen Thermostat zu diesem Zeitpunkt zu aktivieren.

Beauftragen Sie einen Fachmann

Es gibt eine große Auswahl an Thermostaten auf dem Markt, so dass es schwierig sein kann, einen auszuwählen. Wenden Sie sich an einen professionellen Heizungsservice, um sich beraten zu lassen, was für Ihr Haus das Beste ist.

Strategie durch Wettrechner – Wissenswertes rund um die Vorbereitung von Sportwetten!


Online Sportwettenanbieter erhalten immer öfter den Vorzug von Sport-Fans, wenn es darum geht eine Wette auf ein Sportereignis zu platzieren. So haben stationäre Wettbetreiber zunehmend häufiger das Nachsehen. Grund für das gestiegene Interesse für Online Wetten sind dabei nicht nur die höheren Gewinnaussichten, sondern auch die Möglichkeit einer besseren Vorbereitung von verschiedenen Wetten.

Ohne die nötige Analyse und Vorbereitung von Wetten auf ein Sport-Event, bleibt eine Sportwette pures Glücksspiel. So nutzen immer mehr Sport-Fans einen Wettrechner, um damit potenzielle Gewinne vorab auszurechnen. Auf diese Weise gelingt es besonders gut Risiko und Chancen gegeneinander abzuwägen und sich somit für oder gegen bestimmte Wettangebote zu unterscheiden. In Deutschland gibt es unter den Sportwetten-Tipper ein deutliches Mehrinteresse für Systemrechner. Die oftmals sehr umfangreiche und komplizierte Rechnung von komplexen Wettangeboten kann durch einen Wettrechner deutlich vereinfacht werden. Denn der Markt für Sportwetten hält eine Vielzahl von verschiedenen Wettsystem bereit, so dass nicht nur Laien schnell den Überblick verlieren können. Um einen Tippschein ideal vorzubereiten, ist ein Wettrechner eine große Hilfe. Doch was versteht man eigentlich unter einem Wettrechner? Und welche Wettangebote lassen sich mittels Systemrechner vorab besser kalkulieren?

Was ist ein Wettrechner? Bedeutung, Definition, Erklärung

Ein Wettrechner ist ein praktisches Werkzeug für alle Sport-Fans, die sich gelegentlich an der Tippabgabe im Internet versuchen. Hierfür ist es lediglich notwendig die Wettquoten der Online Buchmacher in den Wettrechner einzutragen und den gewünschten Wetteinsatz zu bestimmen. Innerhalb weniger Sekunden gelingt es so die genaue Gewinnsumme zu berechnen, was vor allem bei Systemwetten oftmals sehr komplex erscheint. Anfänger im Wett-Bereich sollten nicht auf dieses Tool verzichten, um die Zusammenhänge zwischen Wettquoten, dem Einsatz und den Gewinnchancen besser zu verstehen. Spielkunden erhalten damit einen Überblick von den potenziellen Gewinnaussichten für verschiedene Wettsysteme im Internet. Es ist demnach nur noch notwendig den Ausgang von Sportereignissen richtig einzuschätzen. Den Rest übernimmt der Wettrechner im Internet. Die Plattform wettanbieter.org erklärt hier alle Wettrechner ausführlich, so dass sich Sport-Fans einen Überblick von dem enormen Vorteil dieses Tools machen können. Denn mittels Wettrechner lässt sich vor der Tippabgabe schnell erkennen, ob sich eine Wette überhaupt auszahlt. Je nach Wettart gelingt es hierbei sehr komplexe Berechnungen schnell und simpel zu lösen.

Systemwetten, Einzelwetten und Co. einfach erklärt!

Der Wettrechner wird nicht nur bei gewöhnlichen Einzelwetten verwendet, sondern bietet gerade bei komplexeren Systemwetten eine große Hilfe. Auf den meisten Wettportalen im Internet gibt es mittlerweile für Spielkunden eine große Auswahl für verschiedene Wetten. So haben Sport-Fans die Qual der Wahl, wenn es um die Art einer Wette gibt. Umfangreiche Systemrechner ermöglichen es gleich verschiedene Ausgänge von mehreren Sportereignissen zu berechnen, so dass Spielkunden im Vorfeld einen detaillierten Überblick von unterschiedlichen Gewinnaussichten erhalten. Die folgende Übersicht bietet eine Auswahl von verschiedenen Wettarten und deren Definition:

Einzelwetten

Der Klassiker unter den Wetten ist die Einzelwette. Hierbei wird lediglich auf ein Sportereignis getippt. Dabei handelt es sich meistens um die Optionen Sieg, Remis und Niederlage. Schätzt man eine sportliche Partie oder ein Event richtig ein, hat man die Wette gewonnen. In der Regel nutzen nur wenige Sport-Fans einen Wettrechner für Einzelwetten, da hierbei nur die Wettquote mit dem Einsatz multipliziert werden muss, um sich einen Einblick von dem möglichen Gewinn zu verschaffen.

Kombinationswetten

Kombinationswetten sind unter Sport-Fans sehr beliebt, da es hier gelingt durch die Einschätzung auf zwei oder mehr Sportereignisse einen deutlich höheren Gewinn einzufahren, als bei einer bloßen Einzelwette. Kombinationen von bis zehn Spielen sind hier möglich und können mittels Wettrechner sehr unkompliziert berechnet werden. Doch aufgepasst: Ist nur eine Einschätzung eines Sportereignisses bei einer Kombination falsch, ist gleich die ganze Wette verloren.

Trixie Wette

Eine einfache Systemwette ist die Trixie Wette. Hierbei wird in einem System aus drei Spielen mit vier Wetten getippt. Demnach ist es möglich einen Fehler bei der Tippabgabe zu machen und dennoch einen erfolgreichen Wettschein vorzuweisen. Es gibt demnach die Möglichkeit auf vier potenzielle Gewinnchancen.

Heinz Wette

Das System Heinz verbindet sechs Partien aus dem Sportbereich zu insgesamt 57 Kombinationen. Hierbei gibt es demnach eine Menge verschiedene Spielausgänge, die allesamt einen Gewinn versprechen. Großer Vorteil: Die Gewinnchancen steigen enorm, so dass diese Wettart in den meisten Fällen erfolgreich verläuft. Doch sind die Kosten für den Einsatz dieser Wettart deutlich höher als bei einer konventionellen Einzel- oder Kombinationswette.

Goliath Wette

Bei der Goliath Wette werden insgesamt acht Spiel zu 247 möglichen Wetten miteinander verbunden. Auf fast sämtliche Spielausgänge wird hier eine Wette platziert. Den Namen dieses Wettsystem lässt richtig vermuten, dass sich diese Wettart besonders dann lohnt, wenn Underdogs und Außenseiter einer sportlichen Partie das Rennen machen. Gewinnen lediglich die Favoriten kommt es zwar trotzdem zur Gewinnausschüttung, allerdings mit einem Verlustgeschäft für Spielkunden.

Alphabet Wettsystem

Bei der Alphabet Wette werden sechs Spiele zu 26 Kombinationen verbunden. Die Chancen auf eine erfolgreiche Wette sind hier hoch, allerdings lohnt sich diese Art Wette nur, wenn vor allem hohe Quoten auf dem Tippschein zu finden sind.

Wann sollte man einen Wettrechner benutzen?

Grundsätzlich bietet es sich immer an einen Wettrechner zu nutzen, um sich einen Überblick von den Gewinnmöglichkeiten ausgesuchter Wetten zu verschaffen. So sind Wettrechner überaus nützlich, um ein perfektes Gleichgewicht aus Risiko und Gewinnchancen herzustellen. Viele Spielkunden nutzen einen Wettrechner zudem, um den Einfluss der Einsatzhöhe auf verschiedene Systemwetten zu kalkulieren. Damit gelingt es nicht nur den Ertrag einer Wette zu bestimmen, sondern auch die eigenen Ausgaben jederzeit im Blick zu haben.

Wie wird ein Wettrechner bedient?

Die meisten Wettrechner stehen kostenlos zur Verfügung. Durch die Eingabe der Einsatzhöhe und der Wettquoten gelingt es durch wenige Mausklicks gleich mehrere Berechnungen durchzuführen. Bei den Wettquoten unterscheiden Wettrechner im Internet zudem zwischen fraktionalen und amerikanischen Wettquoten und Quoten in Dezimalangaben. Sind die Wetten bereits platziert, ist es zudem möglich bereits vorhandene Ergebnisse einzutragen, um Gewinne und Verluste einfach zu überblicken.

Fazit: Wettrechner bieten Spielkunden vielerlei Vorteile!

Wer regelmäßig eine Wette im Internet platziert, sollte unbedingt auch einen Wettrechner nutzen. Denn mit einem Wettrechner wird es möglich Systemwetten deutlich einfacher zu berechnen und somit unterschiedliche Spielausgänge und den potenziellen Gewinnbetrag bereits vor der Tippabgabe einsehen zu können. Die Nutzung ist kostenlos und bietet bei der Vorbereitung einer Wette eine große Hilfe, so dass man nicht auf dieses praktische Tool verzichten sollte.

Was ist „Dall E Mini“? Erklärung, Bedeutung, Anleitung


„Dall E Mini“ ist eine „text-to-image“ künstliche Intelligenz, die aus geschriebenen Wörtern Bilder erzeugt.

„Dall E Mini“ wird auch „Dalle Mini“ oder „Dalle Mini Ai“ genannt.

„Dall E Mini“ ist kostenlos.

Wie funktioniert „Dall E Mini“? Erklärung, Bedeutung, Definition

Die künstliche Intelligenz „Dall E Mini“ erstellt die Bilder unter anderem auf Grundlage der in der Google-Bildersuche gelisteten Bilder und Grafiken. In den Bildersuchen der Suchmaschinen sind die Bilder, Grafiken und Fotos anhand von Suchbegriffen, Bildnamen, Bildunterschriften und Alt-Texten gelistet und sortiert. Anhand dieser Texte nimmt „Dall E Mini“ die gelisteten Bilder, scannt sie, ermittelt die Essenz und erschafft daraus neue Bilder.

Einfacher ausgedrückt: „Dall E Mini“ schaut sich Millionen Bilder an und ermittelt in bzw. aus diesen Bildern sich wiederholende und identitätsstiftende Muster. (Die KI ermittelt, was allen Bildern gleich ist.) „Dall E Mini“ ermittelt, was diese Bilder ausmacht. Hat „Dall E Mini“ diese Analyse abgeschlossen, so kann „Dall E Mini“ eigene Bilder erschaffen, da die KI jetzt ja weiß, was ein Wort oder einen Satz ausmacht.

„Dall E Mini“ ermittelt die Essenz der gelisteten Bilder und erschafft aus dieser Essenz neue Bilder. (Mit Essenz ist gemeint, dass die KI übereinstimmende Merkmale findet und damit das Eigentliche, jenes das allen Bildern gemein ist, ermittelt.)

Hier muss natürlich gesagt werden, dass „Dall E Mini“ die eingegebenen Worte nicht wirklich versteht, sondern nur versucht die Essenz der Worte in Bildern wiederzugeben. „Dall E Mini“ rät nur.

Am besten kann man „Dall E Mini“ verstehen, wenn man es anhand von berühmten Beispielen anwendet.

„Dall E Mini“: Berlin

Als Term verwenden wir das Wort „Berlin“.

dalle e mini berlin

Zu sehen sind die Wahrzeichen Berlins: Das Brandenburger Tor, der Fernsehturm, die Kuppel vom Berliner Dom.

Die KI hat verstanden, was Berlin ausmacht. Fotos von Wahrzeichen bei blauem Himmel.

„Dall E Mini“: Merkel eating fish

Doch was passiert beim Term „Merkel eating fish“?

dalle e mini merkel eating fish

Di KI hat verstanden, dass mit „Merkel“ die ehemalige deutsche Bundeskanzlerin Dr. Angela Merkel gemeint ist. Das der Ausdruck „fish“ und „eating“ zusammengehören hat sie auch einigermaßen verstanden. Dies ist daran erkennbar, dass die KI den Fisch zum Mund von Angela Merkel „führt“.

Doch schön ist das Ergebnis nicht.

„Dall E Mini“: Germany

dalle e mini germany

Beim Suchwort „Germany“ wird es etwas langweilig. Die KI zeigt nur deutsche Fahnen. Lustigerweise fliegen oder schweben diese teils durch die Luft.

„Dall E Mini“: Techno Party

dalle e mini techno party

Bei den Worten „Techno Party“ hat „Dalle E Mini“ gut eingefangen, was eine Techno Party ist: Dunkle Räume mit etwas buntem Licht.

Dall E Mini: „Too much traffic, please try again“

Wird der Fehler „Too much traffic, please try again“ angezeigt, so ist die KI gerade überlastet, da zu viele Anfragen abgesendet werden.

Der einfachste Weg, um doch noch an seine Bilder zukommen ist: einfach noch einmal auf Run drücken. Sollte dies nicht funktionieren, so sollte mindestens zwei Minuten gewartet werden.

DallE Mini: Warum so beliebt?

Im Frühjahr und Sommer 2022 wurden bildgeneriernde KIs sehr beliebt. Für das IPhone gibt es z.B. die App „Dream“, die das gleiche macht wie Dalle Mini nur mit verschiedenen Filtern: neue Bilder aus der Essenz alter Bilder zu erstellen.

Die KI Dalle Mini kann neue Bilder erstellen, ohne dass diese auf Tatsachen beruhen oder real sind. Die KI erschafft diese einfach aus Kombinationen. Dies kann lustig sein.

Wassertest für Trinkwasser: Wissenswertes rund um den Qualitätstest


Leitungswasser in Deutschland weist allgemein eine gute Qualität auf und kann bedenkenlos verzehrt werden. Experten sprechen aus diesem Grund auch von Trinkwasserqualität. Dennoch gibt es regionale Unterschiede, etwa was den Mineraliengehalt oder auch den Kalkanteil betrifft. Verbraucher, die sich über die genauen Inhaltsstoffe und Konzentrationen in ihrem Leitungswasser informieren möchten, können einen Wassertest durchführen lassen.

Wer kontrolliert die Wasserqualität in Deutschland

Sowohl in der Bundesrepublik Deutschland als auch in Österreich und der Schweiz hat Leitungswasser allgemein eine gute Qualität. Diese wird von den Wasserwerken regelmäßig kontrolliert, um sicherzustellen, dass das Wasser von den Verbrauchern bedenkenlos genutzt und verzehrt werden kann, ohne dass gesundheitliche Schäden zu befürchten sind. So wird ausgeschlossen, dass sich etwa Schwermetalle in höheren Konzentrationen im Wasser befinden. Allerdings endet die Zuständigkeit der Wasserwerke an der Grundstücksgrenze: Ab dieser Stelle sind Hausbesitzer und Vermieter dafür verantwortlich, den Bewohnern und Mietern einwandfreies Trinkwasser zur Verfügung zu stellen.

Selbst wenn das Wasser in guter Qualität am Haus ankommt, kann es sein, dass alte Rohre mit einem hohen Bleigehalt etwa die Flüssigkeit auf den letzten Metern vor dem Wasserbahn verunreinigen und dafür sorgen, dass es zu gesundheitlichen Beeinträchtigungen kommt. Vor allem Kinder sowie alte und kranke Menschen sind an dieser Stelle gefährdet. Vermieter sind daher verpflichtet, das Trinkwasser in ihren Immobilien in regelmäßigen Abständen zu testen. Zahlreiche Anbieter bieten entsprechende Wassertests an, die auf Veranlassung des Vermieters durchgeführt werden und im Idealfall die einwandfreie Qualität des Leitungswassers bescheinigen.

Was genau ist ein Wassertest, und wo und wie wird er durchgeführt?

Ein Wassertest ist die genaue Überprüfung der Wasserqualität durch ein geeignetes und zertifiziertes Labor. Die zugesendeten Wasserproben werden chemisch auf ihre Bestandteile untersucht. Auf diese Weise kann beispielsweise zuverlässig ermittelt werden, wie viel Chlor und Kalk sich im Leitungswasser befindet, welche Mineralien in welcher Konzentration darin enthalten sind und ob etwa ein erhöhtes Schwermetallaufkommen vorliegt. Auf Basis dieser Testergebnisse kann dem Wasser Unbedenklichkeit bescheinigt werden, sofern es die jeweiligen Standards erfüllt. Ist dies nicht der Fall, müssen entsprechende Maßnahmen ergriffen und vor allem auch die Verbraucher gewarnt werden: So kann es etwa vorübergehend erforderlich sein, das Wasser vor dem Verzehr abzukochen oder es gegebenenfalls bis zum Beheben der Probleme gar nicht zu sich zu nehmen.

Einen Wassertest kann grundsätzlich jeder veranlassen. Besteht in einem Mietshaus der berechtigte Verdacht auf eine Verunreinigung des Trinkwassers, ist der Vermieter dafür verantwortlich, den Wassertest durchführen zu lassen. Er muss dann auch die Kosten für die Laboruntersuchung tragen. Diese können abhängig vom gewählten Labor und dem genauen Umfang der Untersuchung teils deutlich variieren. Im Durchschnitt liegen die Kosten für einen professionellen Wassertest zwischen 19€ und 49€. Heutzutage ist es problemlos möglich, eine Trinkwasserüberprüfung online zu veranlassen. Hierzu sind einige persönliche Daten sowie Angaben zum Wohnort erforderlich. Eine entnommene Wasserprobe wird nach dem ersten Kontakt und nach Aufforderung durch den Anbieter in das Labor geschickt, wo die Untersuchung stattfindet. Nach einigen Tagen bekommt der Auftraggeber das Ergebnis per E-Mail oder auf Wunsch auch auf dem Postweg.

Was ist Blutregen / Sahara-Regen? Erklärung, Bedeutung, Definition


Der sogenannte Blutregen ist ein Wetterphänomen, das in der Regel im Frühjahr oder auch im Sommer auftritt. Dabei verfärbt sich der Himmel Orange bis hin zu einem Rotton. Kommt es zu Regenschauern, ist das Regenwasser rötlich gefärbt. Das Phänomen rührt von verwehtem Saharasand her, weshalb das Wetterphänomen heutzutage auch eher als Sahararegen bezeichnet wird.

Wie entsteht der Blutregen / Sahararegen? Entstehung, Erklärung

Gerade im Frühling oder auch in den Sommermonaten kann es passieren, dass starke Winde über Afrika hinweg bis nach Europa wehen. Die Winde nehmen in ihrem Verlauf Saharasand auf und tragen den über das Meer hinweg bis nach Europa. In der Regel ist die Konzentration an Sand in der Luft recht gering und kaum wahrnehmbar. Je nachdem, wie stark und lang anhaltend die Winde wehen, können die Konzentrationen an Saharasand in den oberen Luftschichten aber auch so dicht werden, dass in manchen Gegenden der Himmel orange oder rötlich eingefärbt wirkt. Das hängt damit zusammen, dass die Sandpartikel die Lichtstrahlen anders brechen und in einem eher rötlichen statt in einem blauen Farbton scheinen lassen.

In der Regel löst sich die Konzentration an Saharasand auf, wenn sich die Strömungen der Winde ändern. Es kann aber auch passieren, dass während der Hochphasen der Sandkonzentrationen Regenschauer über einzelnen Gebieten niedergehen. Der in der Luft schwebende Sand wird vom Regen aufgenommen und fällt zur Erde. Die Regentropfen erscheinen rötlich und es bleiben hinterher rote oder orangene Sandspuren auf dem Erdboden, an Häusern und ähnlichem zurück. Dieses Phänomen ist dann der besagte Blutregen.

Woher hat der Blutregen seinen Namen?

Die Bezeichnung “Blutregen” geht auf das Mittelalter zurück. Damals war das Wissen über Wetterphänomene noch sehr begrenzt. Die Menschen waren ungebildeter und deutlich abergläubischer.

Weil man nicht wusste, dass der rötliche Regen von Sand eingefärbt wurde, suchten die Menschen nach anderen Erklärungen. Sie bezeichneten das Wetterphänomen als Blutregen und glaubten daran, dass es tatsächlich Blut regnen würde.

Viele Menschen hatten damals Angst vor diesem Regen. Sie dachten, dass eine höhere Macht bzw. Gott den Himmel aus Zorn mit Blut überzogen hätte, um die Menschen für ihre Fehler zu bestrafen. Der Blutregen galt als böses Omen, das eine Katastrophe in der nahen Zukunft ankündigen müsste.

Ist der Blutregen / Sahararegen gefährlich?

Auch wenn der Blutregen in früheren Zeiten ein deutlich schlechteres Image hatte, ist er für die meisten Menschen nahezu harmlos. Auch für Pflanzen oder die Gewässer ist die erhöhte Konzentration an Saharasand eher unbedenklich, weil der Sand an sich keine gefährlichen Eigenschaften hat. Er ist weder toxisch, noch besonders radioaktiv.

Es kommen jedes Jahr gut 1,8 Milliarden Tonnen Mineralstaub allein über der Nordhalbkugel in die Atmosphäre. Zwei Drittel davon bestehen alleine aus Staub aus der Sahara. Weil der Staub die Luftqualität etwas beeinträchtigt, kann es allerdings bei Menschen mit hoher Sensibilität oder mit Allergien zu leichten Atembeschwerden kommen.

Wie lange hält das Wetterphänomen an?

Der Blutregen/Sahararegen ist ein Phänomen, das sich über mehrere Tage hin erstrecken kann. Für gewöhnlich dauert es eine Woche bis zehn Tage – abhängig von der Menge an Niederschlägen und der verschiedenen Windströmungen – bevor die Menge an Saharastaub aus den oberen Luftschichten wieder verschwunden ist.

Die rötliche Färbung des Bodens kann dagegen etwas länger sichtbar sein. Anders als die Sandpartikel in der Luft verwirbelt sich der mit dem Regen gefallene rötliche Sand nicht weiter. Darum kann es einige Regenabschnitte benötigen, ehe auch die letzten Spuren vom Blutregen verschwunden sind.

Das Phänomen des Sahararegen ist außerdem kein einmaliges Wetterphänomen. Es kann mehrere Male in einem Jahr passieren und hängt immer von den Veränderungen der Luftströmungen ab. Darum ist es durchaus möglich, dass sich zwei Blutregen-Abschnitte direkt hintereinander ereignen. Allerdings ist das eher selten. Der Abstand zwischen den Phasen des Sahararegens ist eher unregelmäßig und endet auch, wenn nach dem Sommer die Windströmungen häufiger von Norden nach Süden wehen.

Was ist eine Kakophonie? Bedeutung, Definition, Erklärung


Kakophonie bedeutet Missklang oder Dissonanz. Dieser Missklang entsteht, wenn ein einzelner Satz oder ganzer Text aus unharmonisch klingenden Wörtern zusammengesetzt wird. Die Reihenfolge der akustisch nicht zusammenpassenden Elemente im Satzbau führt zur Kakophonie, die sogar als störend empfunden werden kann.

Gegenteil von Kakophonie

Das Antonym für Kakophonie ist Euphonie, was genau das Gegenteil bedeutet: wohlklingend.

Was bedeutet „Kakophonie“? Bedeutung, Definition, Erklärung

Kakophonie wird von dem griechischen Adjektiv κακός(kakós = schlecht) und dem Substantiv φωνή (phōné = Laut) abgeleitet und kann somit als schlechter Laut oder schlecht klingender Ton übersetzt werden.

Anwendung der Kakophonie

Der Begriff „Kakophonie“ wird meistens in der Sprache und in der Musik verwendet.

Im alltäglichen Sprachgebrauch bezieht sich die Kakophonie, zum Beispiel, auf ein Durcheinander mehrerer Stimmen oder Meinungen. Wenn mehrere Personen gleichzeitig sprechen, wird es häufig als unangenehm empfunden. Durch das Stimmengewirr wird die Sprache unverständlich und nähert sich eher einem Geräusch anstatt einer Verständigungsmöglichkeit.

Im Bereich der Musik bezieht sich die Kakophonie auf unwohl klingende Werke. Das entsteht, zum Beispiel, wenn ein Musikinstrument verstimmt ist oder der Musiker nicht die richtige Note spielt.

Selbstverständlich kann auch ein Sänger oder eine Sängerin eine Kakophonie hervorrufen, wenn er oder sie den richtigen Ton verfehlt. Der daraus entstehende Missklang ruft eine unangenehme Reaktion des Publikums hervor.

Wie entsteht eine Kakophonie in der Sprache?

Folgen zwei gleiche Laute in einem Wort aufeinander, wird häufig der Sprachfluss unterbrochen. Das geschieht, zum Beispiel, in Wörtern, wo tz gefolgt von z steht. Ein Beispiel dafür ist das Wort „Jetztzeit“.

Die Kakophonie kann in einzelnen Wörtern oder in ganzen Sätzen vorkommen. Dies ist der Fall bei den sogenannten Zungenbrechern. Versucht man sie schnell auszusprechen, stolpert man häufig bei der Aussprache und die Harmonie wird somit unterbrochen.

Alle Buchstaben- oder Wortkombinationen, welche eine Sprechpause verursachen, werden als Kakophonie bezeichnet. Denn die Harmonie wird beim Zuhören unterbrochen und der Wortfluss wird nicht gewährleistet.

Jedoch beziehen sich manche Kakophonien auf ein persönliches Empfinden, denn sie haben oft eine sehr persönliche Auswirkung auf den Zuhörer. Sätze, die für manche als unharmonisch empfunden werden, kommen bei anderen Hörern ganz normal rüber.

Im Allgemeinen sollten Kakophonien vermieden werden, da sie nur unnötige Wiederholungen einzelner Buchstaben in ein und demselben Satz hervorrufen.

Beispiele einer Kakophonie

Schon einzelne Wörter rufen eine Kakophonie hervor:

  • nichtsdestotrotz,
  • Streichholzschächtelchen, oder
  • Strickstrumpf.

Aber auch komplette Sätze, wie die bekannten Zungenbrecher, bewirken eine Kakophonie. Der folgende Satz verdeutlicht die aufeinander folgende Wiederholung derselben Konsonanten: Fischers Fritz fischt frische Fische.

Die häufige Verwendung explosiver Konsonanten erzeugen die Kakophonie

Explosive Konsonanten werden auch als Stoppkonsonanten bezeichnet. Dafür gibt es eine einfache Begründung. Stehen in einem Satz mehrere Konsonanten in einer Reihenfolge hintereinander, kommt es bei der Aussprache zu plötzlichen Pausen, d. h., das flüssige Lesen kann hierbei nicht gewährleistet werden. Stattdessen kommt es zum Stocken.

Um welche Konsonanten handelt es sich dabei?

Die Konsonanten, welche am häufigsten eine Kakophonie hervorrufen, sind: B, D, K, P, T und G. Diese werden jedoch durch weitere explosive Konsonanten wie, zum Beispiel C, CH, Q und X, ergänzt

Kakophonie in der Kultur

Innerhalb der unterschiedlichen Sprachen und Kulturen kann ein Missklang ganz anders empfunden werden.

In der Literatur kann die Kakophonie absichtlich verwendet werden. Oft wird sie als rhetorische Figur verwendet, um den Leser über ein Paragraf stolpern zu lassen und somit gewisse Gefühle hervorzurufen.

Hier gilt jedoch, ob der Autor die Kakophonie absichtlich verwendet. Ist dies der Fall, dann dient es dazu, den Leser zum Nachdenken aufzufordern. Ferner möchten manche Schriftsteller anhand einer Kakophonie bestimmte Situationen hervorrufen.

Wird die Kakophonie jedoch unbewusst verwendet, deutet es eher auf ein mangelndes Können des Schriftstellers.

In welchen Situationen werden Kakophonien verwendet?

Je nach Inhalt der Geschichte kann, zum Beispiel, der Stadtverkehr oder Straßenlärm durch eine Kakophonie widergespiegelt werden. Der Lärm einer Klasse voller Schüler, während sie auf den Lehrer warten oder das entfernte Geräusch einer Kirchenglocke kann durch eine Kakophonie zum Leben erweckt werden.

Wird die Kakophonie im Text richtig eingesetzt, können sie den Leser in die Situation versetzen, die Geschichte zum Leben erwecken und gewisse Gefühle erwecken.

Richtige Rechtschreibung des Begriffs „Kakophonie“

Kakophonie und Kakofonie sind zwei akzeptierte Schreibvarianten. Das daraus entstehende Eigenschaftswort bietet mehrere Schreibweisen:

  • kakophon,
  • kakofon,
  • kakophonisch, oder
  • kakofonisch.

Hier werden alle 4 Formen akzeptiert.

Gibt es auch falsche Schreibformen der Kakophonie?

Typische Schreibfehler, welche hier häufig auftreten, sind:

  • Kackophonie,
  • Kakaphonie, oder
  • Kakofonia.

Diese Formen sollten nach Möglichkeit vermieden werden.

Fazit: Kakophonie

Wer die Kakophonie in einem Text anwenden möchte, sollte sich der Bedeutung und der richtigen Schreibweise bewusst sein. Ferner sollte man sich selbst vorher fragen: Was genau soll die Kakophonie bewirken? Dementsprechend sollte sie dann auch richtig angewendet werden. Andernfalls könnte es genau das Gegenteil hervorrufen.

Was sind Human Challenge Studien? Bedeutung, Definition, Erklärung


Human-Challenge-Studien sind Studien mit einer Herausforderung an Menschen (so die wörtliche Übersetzung). Der Begriff wird im Kontext der medizinischen Forschung verwendet und ist landläufig als Studie mit menschlichen Probanden bekannt. Im Falle der Erforschung von Covid-19-Viren wurden gesunde Freiwillige gezielt mit SARS-CoV-2 infiziert. Das Ergebnis: Die Viren sind ab dem zweiten Tag nach der Infektion ansteckend und bleiben es rund zehn Tage lang. Eine Fragestellung der kürzlich durchgeführten Human-Challenge-Studien zu diesem Thema lautete auch: Wie zuverlässig können Schnelltests die Ansteckungsgefahr erfassen?

Generelles zu Human-Challenge-Studien: Bedeutung, Erklärung

Human-Challenge-Studien sind ethisch umstritten, weil sie für die Freiwilligen immer ein hohes Risiko bergen. Es gibt sie auch für Grippe- oder Malariamedikamente. Die hier beschriebene spezielle Human-Challenge-Studie für die Erforschung von Coronaviren war auch deshalb umstritten, weil sie mit dem Wildtyp von SARS-CoV-2 durchgeführt wurde, obgleich man zu jenem Zeitpunkt schon wusste, dass das Virus relativ schnell und stark mutiert. Daher sind die Ergebnisse mit einer gewissen Vorsicht zu genießen. Dennoch ist sich die Forschung darüber einig, dass man weder auf Tierversuche noch auf Human-Challenge-Studien gänzlich verzichten kann.

Fragestellungen und Studiendesign der Corona-Studie

Im Jahr 2021 führten Forscher am Londoner Imperial College die erste Human-Challenge-Studie mit SARS-CoV-2-Viren durch. Sie infizierten gesunde, junge Probanden mit dem Virus. Ihre Auswahl war unter dem Gesichtspunkt erfolgt, dass jüngere und grundsätzlich gesunde Menschen mit einem vergleichsweise milden Verlauf, auf jeden Fall aber mit nur schwachen Komplikationen (Beatmung etc.) rechnen können. Gleichzeitig trägt gerade diese Gruppe durch die vielfach asymptomatischen, also nicht erkannten Verläufe erheblich zur Ausbreitung des Virus bei. Die britischen Wissenschaftler wollten nun wissen, ab welchem Zeitpunkt nach der Infektion und wie lange danach eine Person ansteckend ist. Diese Fragen sind bislang nicht umfassend geklärt. Seit dem 1. Februar 2022 gibt es einen Preprint zu dieser Studie. Folgende Fragestellungen standen bei der Human-Challenge-Studie im Fokus:

  • #1 Ab wann ist eine infizierte Person ansteckend?
  • #2 Ab wann entwickelt sie/er eigene Symptome?
  • #3 Wie lange ist sie/er ansteckend?
  • #4 Wie sicher können Schnelltests diese genannten Zeiträume erfassen?

Die Studienteilnehmer waren 36 gesunde Teilnehmer*innen, deren Risiko für einen riskanten COVID-19-Verlauf als sehr gering eingeschätzt wurde. Ihr Alter betrug 18 bis 29 Jahre. Sie waren bei ihrer Auswahl für die Studie nicht geimpft und nicht genesen. Zwei der Probanden hatten allerdings zwischen ihrer Auswahl und dem Beginn der Studie Kontakt mit einer infizierten Person (sogenannte Serokonversion), weshalb ihr individuelles Studienergebnis nicht in die Auswertung mit einfloss. Per Protokoll kann daher nur von 34 Teilnehmer*innen ausgegangen werden, was nach anerkannten wissenschaftlichen Maßstäben eine vergleichsweise geringe Teilnehmerzahl ist, die belastbare Aussagen zulassen kann, aber nicht muss. Die Infektion der Teilnehmer*innen erfolgte durch das Einbringen einer exakt definierten Menge von mit SARS-CoV-2-Viren kontaminierter Flüssigkeit in die Nase. Es wurde die am niedrigsten mögliche Virusdosis verabreicht, die gerade noch eine Infektion auslösen kann. Dies ist die Menge an Viren, die ein Tropfen Nasensekret einer infizierten Person enthält.

Studienergebnisse der Human Challenge Studien zu Covid-19

Trotz einiger Bedenken zur Aussagekraft der genannten Human-Challenge-Studie sollen hier wesentliche Ergebnisse zitiert werden:

  • 53 % (18 von 34) der Teilnehmer*innen infizierten sich mit SARS-CoV-2.
  • Das Virus wurde nach 40 Stunden zuerst im Rachen nachgewiesen, nach 58 Stunden erreichte es mit wesentlich höherer Last die Nase.
  • Der Spitzenwert der Virustiter wurde im Rachen nach 112 Stunden erreicht, in der Nase nach 148 Stunden.
  • Die Viruslast blieb in der Nase durchweg signifikant höher als im Rachen.
  • Sämtliche Infizierten wurden auch nach 14 Tagen noch positiv auf SARS-CoV-2 getestet.
  • Die Viruslast war allerdings etwa ab dem 11. Tag so gering, dass die von den Probanden ausgehende Ansteckungsgefahr signifikant gesunken war (bis zu „vernachlässigbar klein“).
  • Nachweisbar blieben die Viren bei 83 % der Probanden bis 14 Tage nach der Ansteckung und bei 33 % bis 28 Tage nach der Ansteckung. Komplett negativ wurden sämtliche Teilnehmer*innen erst 90 Tage nach der Ansteckung getestet.

Schlussfolgerungen

Offenkundig ist aufgrund der deutlich höheren Viruslast die Ansteckungsgefahr über die Nase wesentlich größer als über den Mundatem. Die Maske sollte daher stets die Nase bedecken. Die symptom- und nachweisfreie Inkubationszeit ist mit unter zwei Tagen deutlich kürzer, als man bislang geschätzt hatte (bis zu sechs Tage). Nach der Inkubationszeit bleibt die Viruslast rund eine Woche lang sehr hoch. In dieser Zeit geht von Infizierten eine hohe Ansteckungsgefahr aus. Später – etwa ab Tag 11 nach der Ansteckung – sind sie zwar nicht gänzlich virenfrei, jedoch kaum noch ansteckend.

Das deutsche RKI hat hierzu eigene Studien durchgeführt und einen Ct-Wert von 30 ermittelt (Wert für die Viruslast), ab dem die Ansteckungsgefahr zu vernachlässigen ist. Die britischen Wissenschaftler bestätigen im Wesentlichen diese Aussage. Dieser Wert bedeutet auch, dass die Verdünnung von Aerosolen durch Wind im Freien und große Abstände zwischen Personen die Ansteckungsgefahr sehr deutlich senkt. In der vorliegenden Human-Challenge-Studie gelten überdies die zehn Tage, in denen die Infizierten eine Gefahr für ihre Umgebung darstellen und daher isoliert werden sollten, als reichlich bemessen.

Der eigentliche Median (Mitte der erhobenen Daten) für das Ende der Ansteckungsgefahr liegt eigentlich bei 6,5 Tagen für Viren aus der Nase und 6,25 Tagen für Viren aus dem Rachen. Nach 10,2 Tagen soll auch von der Nase praktisch keine Gefahr mehr ausgehen. Die bislang empfohlene Quarantänezeit von zehn Tagen sei gut gewählt, heißt es im Statement der britischen Wissenschaftler.

Einschränkung der Studienbewertung

Die Forscher nennen selbst die Einschränkungen, denen ihre Studienergebnisse unterliegen. Diese sind:

  • geringe Teilnehmerzahl
  • Gesundheitszustand der Probanden (jung und gesund)
  • relativ kurze Nachbeobachtungszeit
  • Durchführung mit dem Wildtyp des Coronavirus

Trotz dieser Einschränkungen hält der Leiter der Studie Prof. Christopher Chiu die Ergebnisse für relevant. Er räumt zwar ein, dass sich andere Virusvarianten (Delta, Omikron) anders ausbreiten könnten, doch die Faktoren für den Schutz vor Corona seien bei ihnen dieselben. Er weist auch darauf hin, dass die Infektiosität von Corona bislang möglicherweise immer noch unterschätzt werde.

Symptome der Probanden während der Human-Challenge-Studie

89 % der Probanden entwickelten leichte bis mittelschwere Symptome, die nach der Inkubationszeit (ab dem späten zweiten Tag) bis zum vierten Tag nach der Infektion begannen. Es waren typische Erkältungssymptome:

  • Geruchsverlust
  • Niesen
  • verstopfte oder laufende Nase
  • Halsschmerzen
  • Kopf-, Muskel- und Gelenkschmerzen
  • Fieber
  • Müdigkeit

Nach der Aussage des Studienleiters Prof. Chiu gab es keine klinisch behandlungsbedürftigen Symptome und keine Lungenveränderungen. Der Geruchssinn war nach 90 Tagen bei fast allen Teilnehmer*innen wieder komplett hergestellt. Bei zwei Probanden dauerte es rund fünf Monate. Aufgrund dieser Symptome und des überwiegend sehr leichten Krankheitsverlaufs, der allerdings am Alter und Gesundheitszustand der Freiwilligen und an der sehr geringen Viruslast bei der Infektion lag, hält das britische Forscherteam prinzipiell eine Human-Challenge-Studie mit Coronaviren und so einem Studiendesign ethisch für vertretbar.

Ergebnisse der Antigen-Schnelltests

Antigen-Schnelltests sind nach Aussage der Wissenschaftler „ein guter Indikator“ für den Nachweis einer Infektion kurz nach der Ansteckung. Aus der kurzen Inkubationszeit, die inzwischen für die Omikron-Variante des Virus bestätigt wurde, ergibt sich eine sehr große Sicherheit mit Antigen-Schnelltests, wenn diese etwa alle drei Tage durchgeführt werden. Es kann sich auch um Selbsttests handeln, wenn diese ordnungsgemäß durchgeführt werden. Dazu muss der Nasenabstrich tief genug und gründlich genug genommen werden, anschließend muss die Probe lange genug in der Testflüssigkeit bleiben (mindestens eine Minute).

Grundsätzlich, so das britische Forscherteam, korrelierten die Ergebnisse der Antigen-Schnelltests sehr gut mit denjenigen der PCR-Tests. Das funktionierte auch bei einem symptomfreien Verlauf. Zu beachten ist allerdings, dass Antigen-Schnelltests ihre Wirkung am ehesten bei hoher Viruslast entfalten, also etwa zwischen dem dritten bis achten Tag nach der Ansteckung. Die britischen Wissenschaftler empfehlen jedermann mindestens zwei Antigen-Schnelltests (auch Selbsttests) pro Woche.

Was ist Speziesismus? Bedeutung, Definition, Erklärung


Speziesismus ist ein Begriff aus der Tiertethik: Tiere werden durch diese fragwürdige Verhaltensweise gegenüber dem Menschen als minderwertig dargestellt. Verhalten auf der Basis des Speziesismus versucht dabei, tierisches Leid zu legitimieren. Tierschädigende Handlungen werden zuweilen damit gerechtfertigt, dass das Leben von Tieren weniger wertvoll als das von Menschen erscheint. Diese Position ist jedoch hochumstritten. Speziesismus wird insbesondere von Tierrechtsorganisationen aber auch von vielen ethischen lebenden Menschen als großes Unrecht angesehen.

Was ist Speziesismus? Herkunft, Ursprung, Bedeutung, Erklärung

Seine historischen Wurzeln hat der Begriff in den 70er-Jahren. Auch wenn ein Bewusstsein für tierisches Leid schon vorher existierte, definierte der britische Psychologe Richard Ryder damals zum ersten Mal den Begriff. Der Speziesismus wird von ihm als eine Art Artenarroganz gesehen, die zum tierischen Leid führt. Dabei werden von einigen Tierrechtlern auch Analogien zum Rassismus oder Sexismus gezogen.

Für erhöhte Popularität der Theorie sorgte der australische Ethiker und Philosoph Peter Singer, der einen großen Teil seines Werks der Tierethik gewidmet hat. In seinem berühmten 1975 veröffentlichten Buch Animal Liberation. Die Befreiung der Tiere verwendet Singer den von Ryder erfundenen Begriff Speziesismus und beschreibt eine Diskriminierung und Ausbeutung von Tierarten. Tiere werden durch diese Verhaltensweisen als minderwertige Art plakatiert und so zum Objekt von Diskriminierung. Singer möchte hingegen ein Gleichheitsprinzip angewandt sehen, das nicht nur Rassismus und Sexismus aufheben soll, sondern auch den Speziesismus gegen Tiere.

Das ethische Problem von Speziesismus ist im Extremfall der Umgang mit Tieren wie mit Objekten. Anstatt sie als Lebewesen mit einem individuellen Lebensrecht zu sehen, werden sie durch unethisches Verhalten zu einem Spielball menschlicher Interessen. Diese Benachteiligung soll laut Kritikern des Spezisismus – darunter Peter Singer – aufgehoben werden.

Negative Folgen von Speziesismus

Wo sich der Gedanke ausbreitet, dass Tiere weniger Anerkennung und Wert verdient haben, als Menschen, ist der Ausbeutung als logische Konsequenz die Türe geöffnet. Dem Tier ist so im Speziesismus bereits qua Artzugehörigkeit eine Minderwertigkeit zugeschrieben. Dies muss nicht, kann aber zu einer argumentativen Rechtfertigung von Quälerei und Tiermisshandlung werden. Die kritische Betrachtung des Speziesismus öffnet die Türe zu einer komplexen ethischen Diskussion über Tierrechte.

Ist es beispielsweise das Recht des Menschen, Tiere in einer hochindustrialisierten Massentierhaltung für die Umwandlung in Nahrung und Konsumprodukte zu halten? Und wie ethisch fragwürdig ist die Haustierhaltung von Vögeln in Käfigen und von Hunden an der Leine? Der Begriff Speziesismus und seine kritische Betrachtung kann also zu einer Debatte führen, die unser ethisches Verhalten gegenüber Tieren überprüft. Dabei öffnen sich zuweilen komplexe Dilemmata. Denn die Vorteile von Tierversuchen für medizinische Fortschritte sind sichtbar. Die Alternative wären Menschenversuche oder eine mangelhafte Testung von Medikamenten und ähnlichen kritisch notwendigen Produkten. Zugleich würde es vielen Menschen schwerfallen, den Tieren per se das Recht auf ein freies Leben fernab von quälenden Tierversuchen zuzusprechen. Was also tun?

Eine Tierschutzorganisationen setzten bereits bei der Sprache an. Wie beim Sexismus kann man im Fall des Speziesismus bereits bei herabwürdigen Sprachmustern die Missachtung von Tieren erkennen. So werden Menschen als „hässliche Sau“, „dummer Esel“ disqualifiziert. Es ist gar eine gängige Redewendung, ein „Hühnchen zu rupfen“, was eine gewisse Akzeptanz dieser Praxis impliziert. Allerdings kann man hier auch entgegenhalten, dass es Sprüche wie „Schlau wie ein Fuchs“ gibt, die Tiere nicht qua Spezies negativ abqualifizieren. Dennoch kann sich die Missachtung von Tieren bereits in der Sprache zeigen.

Gegenkonzepte und Alternativen zu Speziesismus

Das Bewusstsein, dass Tiere ebenso ein Recht auf Leben, auf Freiheit und auf den Status eines Subjekts haben, entfaltet sich in der Tierethik. Tierethik versucht genau das Problem des Speziesismus zu vermeiden: Eben nicht Tiere per se wegen ihrer Art als minderwertig abzuqualifizieren. Stattdessen versucht sie, Antworten darauf zu finden, wie man mit Tieren gerecht umgehen kann. Sie versucht in vielen Fällen auch die anthropozentrische Sichtweise zu überwinden, nach welcher der Mensch das Maß aller Dinge ist. Peter Singer gehört zu den berühmten Tierethikern, aber auch historische Philosophen wie Jeremy Bentham. Bentham, ein englischer Philosoph, Jurist und Ethiker, stellte bereits im Jahr 1789 in seiner Schrift An Introduction to the Principles of Morals and Legislation fest, dass Tiere durch ihre Fähigkeit zu Leiden eine tiefe Gemeinsamkeit mit Menschen teilen. Bentham vertrat in dieser Frage eine aufklärerische Position, die anerkannte, dass auch irgendwann Tiere das Recht auf ein selbstbestimmtes Leben haben sollten.

Von diesem Ideal der Tierethik ist die menschliche Gegenwart noch weit entfernt. Allerdings gibt es schrittweise Erfolge hin zu mehr Tierrechten. So wurde in Deutschland wie auch in vielen weiteren Ländern ein rechtlich bindendes Tierschutzgesetz etabliert, das Tierquälerei und mit gewissen Einschränkungen schädliche Tierhaltung unter Strafe stellt. Auch Phänomene wie Veganismus und Vegetarismus sind in den letzten Jahren deutlich präsenter geworden. Laut Bundesministerium für Ernährung und Landwirtschaft ernährten sich im Jahr 2021 etwa 10 % der deutschen Bürger vegetarisch, dazu kamen 2 % Veganer. Die Frage des Tierrechts schlägt sich mittlerweile also auch im Alltag in Form der Ernährung nieder.

Die schädlichen Folgen des Speziesismus und die Vorteile eine Achtung von Tierrechten sind offensichtlich. Dennoch kann es extreme Gegenbeispiele zum Speziesismus geben, die nicht immer im Sinne der Tiere sind. So gibt es den sogenannten Anthropomorphismus – der Drang, in Tieren aber auch Gegenständen und Naturphänomenen menschlichte Eigenschaften zu sehen. Das begann bereits zur Zeit der antiken Gottheiten, denen teils menschliche Züge zugeschrieben wurden: Ob der ägyptische Gott Horus oder die Verwandlung von Zeus in einen Stier. Eine Vermenschlichung von Tieren kann ungewollt zu Nachteilen für die Tiere führen. Wird zum Beispiel ein Haustier mit den gleichen Mahlzeiten gefüttert wie ein Mensch, kann dies gesundheitsschädlich sein. So gelten Schokolade oder Salz für Hunde als gefährlich. Ein Ausweg aus dem Dilemma zwischen Speziesismus und Anthropomorphismus wäre, die Tiere als Lebewesen zu sehen, die sich von uns klar unterscheiden können, jedoch dennoch ein großes Spektrum an Rechten verdient haben.

Überblick – Was Speziesismus ist

Speziesismus ist die Wahrnehmung von Tieren gegenüber Menschen als minderwerting. Einige Tierrechtler sehen darin ein äquivalent zum Sexismus und Rassismus. Tierethiker versuchen seit Jahrhunderten die Rechte der Tiere zu berücksichtigen. Dabei tragen Tierschutzgesetze, Veganismus wie Vegetarismus dazu bei, das Leid von Tieren zu mindern. Ein problematisches Gegenteil zum Speziesismus ist die Vermenschlichung von Tieren, der Anthropomorphismus.

Kann man einen Hund vegan ernähren? Erklärung


Da Hunde im Gegensatz zu Katzen keine reinen Fleischfresser (Karnivoren) sind, können sie somit auch vegan ernährt werden. Der folgende Artikel verrät Ihnen die Vor- und Nachteile einer veganen Hundeernährung und was es dabei zu beachten gilt.

Hunde: Worauf muss bei einer veganen Ernährung geachtet werden?

Herkömmliches Hundefutter enthält außer Fleisch auch Mägen, Knochen, Blut und weitere Teile des Körpers toter Tiere. Häufig kommt es sogar vor, dass Körperteile von erkrankten Tieren für Hundefutter verwendet werden. Immer häufiger erkranken Hunde an Krebs und Dickleibigkeit durch die industrielle Herstellung von Tierfutter.

Einen Hund vegan zu ernähren, gestaltet sich relativ unkompliziert, auch wenn diese Methode als umstritten gilt. Die Versorgung notwendiger Nährstoffe muss hierbei gewährleistet sein, da es sonst zu Mangelerscheinungen kommen könnte. Die Mahlzeiten lassen sich selbst zubereiten, aber auch im Handel gibt es Hundefutter, welches rein vegan ist.

Die Zähne von Hunden sind nicht dafür vorgesehen, Nahrungsteile zu zermahlen. Ihr Gebiss ist dafür ausgelegt, die Beute zu packen und zu reißen. Der Darm eines Hundes ist hauptsächlich für fleischhaltige Nahrung gedacht, deshalb ist der Dünndarm auch relativ kurz. Bei pflanzlichen Stoffen dauert der Prozess der Verdauung länger, was für den Hund von Nachteil ist.

Welche Nährstoffe benötigt ein Hund? Ernährung

Um Mangelerscheinungen zu vermeiden, benötigen Hunde folgende Nährstoffe:

  • Kohlenhydrate
  • Gemüse
  • Proteine
  • Öl
  • weitere Nährstoffe

Öl sollte dem Futter unbedingt beigemengt werden, sonst nimmt der Hund die Proteine nicht auf! Des Weiteren sollte bei der Zubereitung auf Gewürze verzichtet werden.

Die jeweiligen Anteile bestehen aus:

  • ca. 40 Prozent Kohlenhydrate
  • ca. 30 Prozent Proteine
  • ca. 27 Prozent Gemüse
  • ca. 3 Prozent Öl

Eisen, Kalzium, Phosphor, Jod, Vitamin E, Vitamin B12, Vitamin D, L-Carnitin und Taurin sind weitere Nähr- und Mineralstoffe, welche bei einer veganen Ernährung hinzugegeben werden sollten.

Was ist bei einer veganen Hunde-Ernährung erlaubt?

Ist ein Hundefutter vegan, darf es kein Fisch, Fleisch oder sonstige Bestandteile tierischer Herkunft wie beispielsweise Quark, Frischkäse oder Eier enthalten. Alternativ kann man seinem Vierbeiner zum Beispiel Süßkartoffeln, braunen Reis, Erbsen und Obst anbieten.

Eine vegetarische Ernährung hingegen erlaubt Produkte wie Quark oder Eier. Beide Methoden erfordern jedoch eine Zufuhr von Kohlenhydraten (Reis, Hafer, Weizen), um den Bedarf an Energie zu decken.

Welche Vorteile hat eine vegane Hundeernährung?

1. Verträglicher für den Hund

Ganz oft löst Futter bei Hunden Allergien aus. Einige Hunde reagieren allergisch auf fast sämtliche Sorten Fleisch oder andere Zutaten in gewöhnlichem Hundefutter. Durch veganes Hundefutter werden weniger Allergien ausgelöst und der Hund verträgt es deshalb besser.

2. Entlastet die Umwelt

Für rund 50 % der Treibhausgase in der Landwirtschaft sind die Nutztiere die Ursache. Durch vegane Ernährung werden Treibhausgase eingespart. Außerdem wird eine erhebliche Menge Wasser gespart. Als Beispiel: Es werden 15.000 Liter Wasser für 1 kg Rindfleisch verbraucht.

3. Weniger Übergewicht

Erkrankungen der Gelenke oder Diabetes sind nur zwei Folgeerscheinungen von Übergewicht. Rund 50 Prozent aller ausgewachsenen Hunde sind hierzulande zu dick. Eine vegane Ernährung kann diesem Problem entgegenwirken.

4. Weniger Tierleiden

Veganes Futter wirkt sich positiv auf die Massentierhaltung aus, da durch pflanzliche Nahrung weniger Tiere leiden müssen.

Welche Nachteile hat eine vegane Hundeernährung?

1. Setzt Grundwissen voraus

Besonders bei Junghunden ist es wichtig, ihnen alle nötigen Nährstoffe gewissenhaft zukommen zu lassen. Bereitet man das Futter selbst zu, sollte man deshalb die Zusammensetzung der Nährstoffe genau wissen. Nur so kann eine langfristige ausgewogene Ernährung sichergestellt werden. In veganem Fertigfutter hingegen sind im Regelfall bereits alle nötigen Nährstoffe enthalten.

2. Keine Akzeptanz des Futters

Manche Hunde entwickeln eine wahre Leidenschaft für Fleisch. Dies kann ein Grund dafür sein, dass er veganes Futter absolut nicht annehmen möchte.

3. Mischfutter erleichtert eine ausgewogene Ernährung

Da Welpen noch in der Wachstumsphase sind, haben sie noch einen höheren Bedarf an Nährstoffen. Deshalb ist es wichtig, auf eine ausgewogene Ernährung zu achten. Das ist leichter gewährleistet, wenn das Futter aus pflanzlichen sowie fleischlichen Zutaten besteht.

Fazit: Kann man einen Hund vegan ernähren? Erklärung

Einen Hund vegan zu ernähren, kann sowohl Vorteile als auch Nachteile mit sich bringen. Jeder Besitzer muss selbst entscheiden, was für seinen Vierbeiner das Beste ist. Eine gesunde und ausgewogene Ernährung ist das wichtigste dabei und sollte stets beachtet werden.

Am besten führt man seinen Hund langsam an eine Umstellung des Futters heran, idealerweise mit tierärztlicher Beratung. Erhält der Hund alle Nährstoffe, die er benötigt, steht einer veganen Ernährung nichts im Wege.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung


Da Hauswirtschaftsräume und Waschkeller oft nicht sehr groß sind, kommt häufig die Frage auf, ob man einen elektronischen Wäschetrockner auf eine Waschmaschine stellen kann. Zusätzlich zum Platzfaktor erleichtert es die Hausarbeit ungemein, wenn beide Geräte in unmittelbarer Nähe zueinander stehen. Einen Trockner auf eine Waschmaschine zu stapeln ist grundsätzlich möglich, jedoch gibt es einige Faktoren zu beachten, auf die im folgenden Text eingegangen wird.

Kann man einen Trockner auf eine Waschmaschine stellen? Anleitung, Erklärung

Waschmaschinen wiegen je nach Modell zwischen 60 und 100 Kilogramm. Zusätzlich zum Gewicht der Bauteile wird ein sogenanntes Gegengewicht eingebaut, damit die Maschine beim Schleudergang einen festen Stand hat und nicht umkippt. Dennoch bleiben kleine Bewegungen nicht aus, was mitunter sogar dazu führen kann, dass das Gerät „wandert“. Es ist deshalb ratsam, die Maschine auf eine ebene Fläche zu stellen und die meist verstellbaren Füße so auszurichten, dass sie möglichst wenig wackelt. Die ruckelnden Bewegungen sind auch der Grund, wieso man einen Trockner niemals direkt auf eine Waschmaschine stellen sollte. Das Risiko, dass er während des Waschgangs hinunterfällt, ist zu groß. Es gibt dennoch verschiedene Methoden, dieses Problem zu umgehen.

Trockner auf Waschmaschine: Matte oder Vibrationsdämpfer 

Eine Antivibrationsmatte oder Vibrationsdämpfer sind der einfachste Weg, um einen Trockner auf eine Waschmaschine zu stellen.

Die Antivibrationsmatte ist eine Matte, die die Schwingungen absorbiert. Die Vibrationsdämpfer machen genau das gleiche, nur dass sie wie erweiterte Füße funktionieren.

Do it yourself – Zwischenboden

Mit ein wenig handwerklichem Geschick lässt sich selbstständig ein Zwischenboden bauen. Hierzu bietet sich ein Stück Arbeitsplatte oder eine lackierte Massivholzplatte an, denn diese sind in der Regel tief genug, damit der Trockner vollständig darauf Platz findet. Da Wäschetrockner ca. 35 – 50 Kilogramm wiegen, ist eine gewisse Materialstärke unerlässlich, auch hier haben sich Küchenarbeitsplatten bewährt.

Die Platte sollte an mindestens einer Seite fest mit der Wand verschraubt werden, um ein Verrutschen zu vermeiden. Je nach Länge der Platte sollte ein Zwischenfuß in Betracht gezogen werden, damit sich der Boden in der Mitte nicht durchbiegt. Außerdem ist darauf zu achten, dass der Zu- und Ablaufschlauch der Waschmaschine jederzeit leicht zugänglich ist, um im Notfall schnell Reparaturarbeiten erledigen zu können. Nachdem die Trennplatte auf einen festen Stand überprüft wurde, kann die Waschmaschine unter die Platte geschoben werden und der Trockner darüber platziert werden. So stehen beide Geräte übereinander, ohne direkten Kontakt miteinander zu haben. Die Heimwerkermethode ist zeitaufwändig und, wenn keine Restmaterialien verwendet werden, mitunter auch kostspielig. Der Vorteil dieser Methode besteht darin, dass sie oft optisch ansprechend ist und nach den eignen Bedürfnissen angepasst werden kann.

Die schnelle Lösung – der Zwischenbaurahmen

Die meisten Waschmaschinenhersteller bieten inzwischen sogenannte Zwischenbaurahmen zum Verbinden von Waschmaschine und Trockner an. Diese werden sowohl mit der Waschmaschine, als auch mit dem Trockner verschraubt, sodass das obere Gerät nicht herunterfallen kann. Die Kosten für einen Zwischenbaurahmen sind je nach Anbieter sehr unterschiedlich, Universalrahmen gibt es im Internet bereits ab 14 Euro. Der Vorteil eines Zwischenbaurahmens ist, dass man ihn selbst und meistens recht schnell anbringen kann. Allerdings sind aufgrund der unterschiedlichen Maße der einzelnen Anbieter nicht immer alle Geräte miteinander kombinierbar. So kann es sein, dass der Rahmen zwar auf die Waschmaschine passt, der Trockner dann aber nicht mehr auf den Rahmen. Daher sollte vor dem Kauf genau darauf geachtet werden, welche Abmessungen die Geräte zu Hause haben und ob sie auf die entsprechenden Zwischenbaurahmen passen.

Im Fachhandel – der Schrank

Im Möbelfachgeschäft gibt es fertige Waschmaschinenschränke zu kaufen, die zwei übereinander gelegene Fächer haben, wo die beiden Geräte genau hineinpassen. Zwar haben die meisten Waschmaschinen ein Universalmaß, es bietet sich aber dennoch an, vorher einen Blick auf die Abmessungen zu werfen. Manche Waschmaschinenschränke verfügen sogar über Türen, sodass man die Geräte bei Nichtbenutzung nicht sieht.
Auch hier sind Preise, Ausführungen und Qualitäten stark unterschiedlich.

Einen Trockner auf eine Waschmaschine zu stellen, ist also durchaus möglich. Andersherum sollte man es aber nicht machen, da die Waschmaschine schwerer ist und durch ihre starken Bewegungen den Trockner beschädigen könnte.

Was ist die Pomodoro-Technik? Wie funktioniert sie? Bedeutung, Definition, Erklärung


Die Pomodoro-Technik ist eine Methode des Zeitmanagements, die dabei helfen soll die eigene Produktivität durch das systematische Planen von Pausen zu steigern. Der italienische Erfinder Francesco Cirillo hat die Technik erfunden, da er während des Studiums dazu neigte, Aufgaben vor sich her zu schieben. Er ging davon aus, dass man am besten alle 25 Minuten eine Pause notwendig ist, um Produktivitätsabfälle zu vermeiden. Um dieses Schema einzuhalten, organisierte sich Cirillo mit Hilfe einer Küchenuhr in Tomatenform. Diese erinnerte den Erfinder an die Pausen.

Wie funktioniert die Pomodoro-Technik?

Die Pomodoro-Technik folgt folgendem Prinzip: Konzentrierte Arbeitsphasen von 25 Minuten werden mit durch regelmäßige Pausen von 5 Minuten getrennt. Damit wird dem Gehirn deutlich, wann gearbeitet wird und wann Zeit für die Erholung ist. Das soll die Konzentration fördern. Cirillo nennt eine Abfolge von Arbeitsphase und Pause Pomidori. Nach 4 Pomidori, die 2 Stunden und 25 Minuten beträgt, sollte eine längere Pause eingeplant werden, die zwischen 20 bis 30 Minuten beträgt. Danach kann erneut mit Pomidori begonnen werden.

Wirksamkeit der Pomodoro-Technik

Im Wesentlichen geht es bei der Pomodoro-Technik darum, den Fokus bei der Arbeit zu erhöhen, wodurch Multitasking verhindert wird. Daneben steigert die feste Struktur die Disziplin, da Arbeitsunterbrechungen und Ablenkungen komplett aus den produktiven Arbeitsphasen genommen werden. Die feste Strukturierung beugt durch die Aufteilung in sehr kleine Arbeitseinheiten und Ziele Prokastination vor. Schließlich ist es einfacher, sich an kleine, überschaubare Aufgaben zu machen.

Anwendung der Pomodoro-Technik

Die Erfolgreiche Durchführung der Pomodoro-Technik hängt von einer guten Vorbereitung ab. Bevor begonnen wird empfiehlt es sich, alle Aufgaben zu notieren und zu priorisieren. Wichtig ist dabei eine größere Aufgabe in kleine Einheiten zu unterteilen, die gemeinsam in einem 25-Minuten-Block bearbeitet werden können. Zum Beispiel Informationen nachschlagen (10 Minuten) und Folien gestalten (15 Minuten).

Ist eine Übersicht über aktuelle Aufgaben geschaffen, können diese in den Tagesplan aufgenommen werden. Dieser wird fokussiert und stringent durchgezogen, um die Konzentration zu halten und Ablenkungen zu vermeiden. Es kann einige Zeit dauern, sich an die Zeitintervalle zu gewöhnen. Werden diese auch nach längerer Zeit als unpassend empfunden, können die Zeitinvervalle an die eigene Produktivitätsspanne angepasst werden. In der Praxis haben sich hier 15-Minuten oder 40-Minuten-Blöcke bewährt. Die produktiven Phasen sollten jedoch nicht zu Weit ausgeweitet werden, da man oft mit Zeit unproduktiver wird und dies selbst nicht wahrnimmt.

Wichtig ist, Pausen effektiv zur Erholung zu nutzen. Etwas Bewegung kann helfen den Kopf frei zu bekommen. Nicht förderlich ist es, andere To Dos einzuschieben, wie beispielsweise ein kurzes Anruf etc. Schließlich sollen die 5 Minuten Pausen ausschließlich der mentalen Erholung dienen. Dementsprechend sollten in der Pause Dinge getan werden, die wirklich gut tun: Tief durchatmen, sich eine Tasse Kaffee holen oder eine kleine Einheit Yoga.

Es ist wichtig bei der Pomodoro-Technik den richtigen Umgang mit Ablenkungen zu lernen. Kommt ein Geistesblitz, kann man sich diesen notieren und auf einen späteren Zeitpunkt verschieben. Dasselbe gilt für ToDos die nachträglich aufkommen. Daneben gibt es natürlich wirklich wichtige Anrufe und Grundbedürfnisse, welche auch trotz Arbeitsphase bedient werden müssen. Schließlich wirkt es sich auf die Produktivität aus, wenn es uns nicht gut geht. In diesen Fällen kann eine 25-Minuten-Einheit auch kurz unterbrochen werden.

Klassischwerweise wird empfohlen die Pomodoro-Technik ausschließlich mit Stift und Papier umzusetzen. Denn digitale Helfer bergen die Gefahr durch weitere Ablenkung. In diesem Sinne empfiehlt sich der Einsatz einer handelsüblichen Küchenuhr, um die Zeitintervalle zu stoppen. Menschen die ohnehin am Laptop arbeiten können auch einen der zahlreichen Pomodoro-Timer im Internet benutzen. Auch für das Smartphone gibt es Pomodoro-Apps.

Kann man einen Schwan essen? Nein! Erklärung, Antwort, Gründe


Man kann einen Schwan (technisch gesehen) essen, aber es gibt viele gute Gründe, warum man es unterlassen sollte. Diese werden in diesem Beitrag erklärt.

Niedlichkeit oder ein zartes Alter schützt viele Tiere nicht davor, auf dem Teller zu landen. Kleine Lämmer und Zicklein gelten als Delikatessen. Kalbfleisch ist bei Feinschmeckern für seine Zartheit beliebt. Ente und Gans schmecken vielen besonders im Winter. Zu keiner der vier Jahreszeiten ist jedoch ein Schwan auf den meisten Speisekarten zu finden.

Der Schwan als Delikatesse, historischer Rückblick

In früheren Zeiten wurden Schwäne vor allem bei Hofe häufig gegessen. Dabei diente ein gebratener Schwan nicht nur als Nahrung, er erfüllte auch Dekorationszwecke auf der mittelalterlichen Tafel. Nach dem Braten wieder mit Federn bestückt, war er ein Augenfang für die Tafelgäste.
Weniger prunkvoll war die Zubereitung des Schwans während Kriegszeiten. Hier stillten die großen Entenvögel den Hunger und sicherten so manchem das Überleben.

Royale Schwanenflotte

Weil Schwäne in England zu früheren Zeiten als besondere Leckerbissen gejagt wurden, beschloss die englische Krone im 15. Jahrhundert sie unter Schutz zu stellen. Nun gehörten die großen, weißen Vögel dem Königshaus. Sie zu jagen war illegal und zog eine Strafe nach sich. Noch in der heutigen Zeit werden die Schwäne, die auf der englischen Themse schwimmen, im Juni jeden Jahres durchgezählt.

Schwanenfleisch in der heutigen Zeit

Wer Bilder von mittelalterlichen Festtafeln sieht, in deren Mitte ein hübsch dekorierter, stattlicher Schwan thront, fragt sich unweigerlich, wieso Schwanenfleisch auf kaum einer Speisekarte zu finden ist. Dass Schwan sich in Restaurants und den heimischen Küchen rar macht, hat mehrere Gründe.
Der Lebensraum von Schwänen sind bevorzugt eher seichte Seen und Flüsse mit geringer Strömung. Solche Gewässer und deren Bewohner sind nicht selten mit Keimen belastet, welche beim Verzehr auf den Menschen übergehen und Krankheiten auslösen können.

Außerdem mundet Schwanenfleisch alles andere als gut. Sein Geschmack wird mit tranig und sumpfig umschrieben. Mit entsprechenden Kenntnissen ist es wohl möglich, den Wasservogel auch schmackhafter zuzubereiten. Nur, wieso sollte sich jemand die Mühe machen, wenn es bei Enten und anderem Geflügel ganz ohne Aufwand geht.

Nicht zuletzt gilt der Schwan als Symbol für Treue und Liebe. Er steht auch für Königlichkeit, Vollkommenheit und Anmut und ist auf zahlreichen Wappen zu finden. Ein solch symbolträchtiges Tier, das ohne große Aufwand zudem nicht schmeckt, zu jagen und zu verspeisen ist heutzutage schlicht unpopulär.

Steckbrief des Schwans

Der Schwan gehört zur Familie der Entenvögel. Ein Schwan kann bis zu 14 kg schwer und über einen Meter groß werden. Dank seines langen Halses fällt ihm das Gründeln, also das Absuchen von Gewässerböden nach Nahrung, leicht. Bevorzugte Lebensbereiche sind Gewässer wie Seen und Flüsse. Auch in Sümpfen fühlen sich Schwäne wohl. Damit die Nahrungssuche am Boden des Gewässers gelingt, darf dieses nicht zu tief sein. Wasserpflanzen und Pflanzen des Uferbereichs sind Hauptnahrung der weißfedrigen Vögel. Ab und an stehen jedoch auch Insekten oder kleinere Fische auf dem Speiseplan.

Findet ein Schwanenpaar zusammen, so geht es meist einen Bund fürs Leben ein. Auch der Nestbau aus Pflanzenresten und Zweigen findet gemeinsam statt. Gewässernahe, aber möglichst ungestörte Standorte werden dabei bevorzugt. Ist das Nest fertig, legt das Schwanenweibchen Eier, die es, bewacht und beschützt vom seinem Partner, ausbrütet. Der Aufzucht der Jungen widmen sich dann wieder beide Partner.

Was ist eine Glückskatze? Bedeutung, Definition, Erklärung


Glückskatzen zählen eher zur Seltenheit und gelten als Glücksbringer, weswegen sie sehr beliebt sind. Was man unter Glückskatzen versteht und was sie ausmachen, zeigt der folgende Artikel.

Was versteht man unter einer Glückskatze? Erklärung

Als Glückskatzen werden im Volksmund Katzen bezeichnet, welche drei Farben, nämlich schwarz, rot und weiß aufzeigen. Bereits im Mittelalter war man der Überzeugung, dass solche Katzen Feuer von eigenen Häusern fernhalten. Seefahrer aus Japan nahmen die Glückskatzen bereitwillig mit auf Schiffe, um sie auf hoher See vor Unheil zu bewahren.

Des Weiteren sollen sie arme Menschen zu Reichtum verholfen haben, doch nur, wenn die Katzen gut behandelt wurden. Eine Glückskatze hingegen zu verletzen oder gar zu töten sollte Unglück über diese Menschen bringen.

Maneki Neko werden in Japan die dreifarbigen und laut Volksmund glücksbringenden Winkekatzen genannt. Eine Legende besagt, solch eine Glückskatze rettete einst eine Geisha vor dem tödlichen Biss einer Schlange.

Wissenschaftlich konnte nie nachgewiesen werden, ob dreifarbige Katzen ihren Besitzern Glück bringen, was den Begriff Glückskatze wohl eher zu einem Mythos macht.

Die Entstehung einer dreifarbigen Katze: Genetik

Das X-Chromosom ist für die Farbe des Fells einer Katze verantwortlich, wobei rot und schwarz die Grundfarben sind. Weibchen verfügen über 2 X-Chromosomen, weshalb sie beide Grundfarben zeitgleich haben können. Besitzt eine Katze diese rot-schwarze Färbung, bezeichnet man das auch als Schildpattmuster.

Da ein Kater im Gegensatz zur Katze für gewöhnlich nur ein X-Chromosom und ein Y-Chromosom besitzt, können die Katzenbabys auch im Regelfall entweder nur schwarz oder rot gefärbt sein. Aus diesem Grund sind Glückskatzen meist weiblicher Natur.

Um einer Glückskatze diesen Namen zu verleihen, benötigt sie ein sogenanntes S-Gen (Scheckungs-Gen). Dieses Gen ist für die weißen Flächen im Fell der Katze verantwortlich. Wie sich diese Flecken verteilen und wie groß sie sind, ist reiner Zufall. Solch eine Gen-Variante tritt eher selten auf, weshalb dreifarbige Katzen nicht so oft vorkommen. Das schwarz-weiß-rote Fell ist auch unter dem Namen Tricolor bekannt.

Ganz selten können Glückskatzen auch männlich sein, doch das ist wirklich eine absolute Ausnahme. Der Grund dafür ist eine Anomalie der Gene und nur möglich, wenn der Kater über 2 X-Chromosomen verfügt. Außer Schwarz und Rot bedarf es dabei auch noch einer weißen Scheckung, um ein Glückskater zu sein. In diesem Fall sind die Tiere allerdings unfruchtbar, somit können diese Gene auch nicht weiter vererbt werden.

Es kommt nicht auf die Rasse an

Die Rasse ist bei Glückskatzen unerheblich, denn sie können überall vorkommen, vorausgesetzt, die nötige Veranlagung der Katze ist gegeben. Ebenso muss sie das Scheckungs-Gen enthalten.

Ob eine Schildpatt-Katze, das heißt eine schwarz-rot gefärbte Katze entsteht, bleibt weiterhin der Natur vorbehalten und lässt sich nicht bewusst züchten.

Bei einer Katzenrasse tritt die 3-Farben-Zeichnung jedoch des Öfteren auf, nämlich bei der Crysanthemenkatze (Japanese Bobtail). Diese Rassekatze hat ihren Ursprung in Asien und Scheckungen kommen bei ihr häufiger vor. Tiere mit drei Farben werden dort überaus geschätzt.

Haben Glückskatzen einen speziellen Charakter?

Es gibt viel, was man einer Glückskatze an charakteristischen Eigenschaften nachsagt. So sollen diese Katzen laut einer Umfrage beispielsweise mehr temperamentvoll und eigensinniger sein als andere ihrer Artgenossen.

Von den Umfragen unabhängig meldeten Besitzer von Glückskatzen allerdings, dass diese Eigenschaften auf ihre Glückskatzen in keiner Weise zutreffen. Im Gegenteil, ihre Katzen wären sehr auf den Menschen bezogen und liebesbedürftig.

Beweise für solche Eigenschaften bei einer dreifarbigen Katze gibt es bisher nicht. Das hat den Grund, dass Katzen generell sehr individuell sind und jede ihre Vor-und Nachteile besitzt.

Fazit: Glückskatzen

Es ist und bleibt wohl eher ein Mythos, dass dreifarbige Katzen Glück bescheren sollen, denn es gibt keinen wissenschaftlichen Beweis dafür. Jede Katze hat ihren eigenen Charakter, welcher nicht von ihrer Farbe abhängt. Trotzdem kann sich jeder, der Besitzer solch einer Schönheit ist, sehr wohl überaus glücklich schätzen.

Was bedeutet „Sockenpuppe“? Bedeutung, Definition, Erklärung


In Diskussionen im Internet versteht man unter dem Vorwurf einer Sockenpuppe in der Regel einen Zweit- oder Mehrfachaccount eines Benutzers, der bereits über ein Benutzerkonto verfügt, aber unter verschiedenen Gründen in einer Diskussion nicht mit diesem Konto posten möchte. Die Sockenpuppen fallen daher nicht selten unter die Kategorie der Trolle, Agenda-Accounts oder Wegwerfaccounts. In der Regel werden die Sockenpuppen dafür genutzt, Diskussionen durch besonders kontroverse Äußerungen entgleisen zu lassen oder direkte Regelverletzungen auf einer Plattform vorzunehmen. Sockenpuppen können aber bei heiklen Themen auch einfach dem Wunsch nach Anonymität in einer Debatte entsprechen.

Was sind Sockenpuppen und wie funktionieren sie? Internet, Social Media

Bei einer Sockenpuppe handelt es sich in fast allen Fällen um einen weiteren Account einer Person, die entweder nur bei bestimmten Themen und Diskussionen auftritt oder stets dort, wo der User mit seinem eigentlichen Account in einer Diskussion verstrickt ist. Mit der Hilfe des zusätzlichen Accounts soll erreicht werden, dass die Meinung des Sockenpuppen-Besitzers als von anderen geteilt erscheint und damit mehr Legitimität hat. Sockenpuppen werden auch dafür genutzt, bestehende Diskussionen in eine bestimmte Richtung entgleisen zu lassen – etwas, das unter dem Begriff Derailing auf vielen Plattformen sanktioniert wird.

Der Einsatz von Sockenpuppen ist im Internet keine neue Entwicklung lässt sich in dieser Form bereits in die ersten Usenet-Gruppen zurückverfolgen. Vergleiche wurden auch mit Publikationen im Mittelalter gemacht, in denen wichtige Leute unter falschen Namen Leserbriefe oder Kolumnen in Zeitungen geschrieben habe, um ihren Standpunkt mit der Hilfe dieser vermeintlich neutralen Person zu verdeutlichen oder die Diskussion zu beeinflussen.

Vor allem die modernen sozialen Netzwerke, Foren und Kommentar-Bereiche in Online-Publikationen machen den Einsatz von Sockenpuppen heute einfach wie nie. In der Regel braucht es für die Verifizierung des Accounts nur eine E-Mail-Adresse und diese ist wiederum bei den verschiedensten Diensten in wenigen Minuten angelegt. Da man auch ohne irgendeine Form von Verifizierung und ohne Vorlauf in Diskussionen einsteigen kann, ist es für Sockenpuppen besonders einfach, bereits kurz nach der Registrierung aktiv zu werden. Das wiederum hat zur Folge, dass Accounts mit wenige Aktivität oder einem geringen Alter inzwischen in den sozialen Netzwerken von vielen Benutzern in Diskussionen besonders kritisch betrachtet werden.

Die Ziele hinter dem Einsatz von Sockenpuppen

Es gibt verschiedene Gründe für den Einsatz von Sockenpuppen. So setzen verschiedene Benutzer auf den Einsatz von mehreren Accounts, um ihre Anonymität im Internet zu wahren. Da sie keine zusammenhängende Historie haben, wird es schwieriger, eine Person hinter dem Account zu doxxen und somit die Verbindung zu einer realen Person herzustellen. Besonders in Zeiten, in denen die Cookies sonst zu einem Problem werden können, wird dieser Grund häufig benutzt. Allerdings würden in diesem Fall die Sockenpuppen nicht als Störungen oder als Agenda Pushing in bestimmte Richtungen dienen, sondern einzig zu dem Einsatz bei verschiedenen Themen.

Der eigentliche Grund liegt aber in der Regel bei einer Verschiebung des Diskurses. Mit der Hilfe von Sockenpuppen lässt sich beispielsweise in Diskussionen recht mühelos das Gefühl aufbauen, dass eine bestimmte Position von einer Mehrheit vertreten wird. Wenn ein Benutzer ein kontroverses Statement macht, ihm zwei Leute widersprechen, gleichzeitig aber zwei Sockenpuppen das kontroverse Statement aufgreifen, werden die Mehrheitsverhältnisse verfälscht. In größeren Dimensionen kann auf diese Weise eine bestimmte Ansicht oder Position besonders sichtbar gemacht werden. Durch das Gefühl, dass eine Mehrheit für kontroverse Statements werden sich daher auch Leute hervortrauen, die diese bestätigen. Das kann eine eigene Dynamik entwickeln.

Natürlich lassen sich auf diese Weise auch konkrete Vorhaben sichtbarer machen, als sie in einer organischen Diskussion sein würden. Sei es nun bei einer Petition, einer Umfrage oder bei einer einfachen Diskussion bei einem Forum im Internet – alles in allem werden durch Sockenpuppen Meinungen mehrheitsfähig gemacht, die in einem organischen Diskurs nicht mehrheitsfähig wären. Genau dort liegt auch das bisher größte Problem bei der Suche nach einer Lösung dieses Problems.

Unterscheidung zwischen Bot-Netzwerken und Sockenpuppen

Oftmals gehen in der Beschreibung Trolle, Sockenpuppen und Bots die Begrifflichkeit ineinander über. Tatsächlich gibt es aber Unterscheidungen. Ein Troll wird in der Regel einfach nur versuchen die anderen User zu provozieren, ohne dabei eine klare Agenda zu verfolgen. Ein Bot oder ein Bot-Netzwerk wird nicht nur von mehreren Personen oder Organisationen gesteuert, sondern agiert in den Diskussionen auch ganz automatisch. Es ist also selten eine einzelne Person dahinter, sondern ein Algorithmus, der beispielsweise in den sozialen Netzwerken auf einzelne Keywords anspringt und daraufhin anfängt aktiv zu werden.

Hinter den meisten Sockenpuppen in sozialen Netzwerken stehen einzelne Personen. Es gibt zwar auch eine Vielzahl von Berichten, nach denen etwa Geheimdienste in Russland, den USA und China inzwischen eine große Zahl von Sockenpuppen für die Beeinflussung von Diskussionen im Internet nutzen, das konnte aber bisher im größeren Maße nicht bestätigt werden. Zudem werden immer mehr Benutzer vorsichtig im Umgang mit einer speziellen Sorte von Accounts und bei einer genaueren Prüfung sind die Sockenpuppen für den Betreiber relativ einfach zu entdecken.

Was ist ein Seil? Ursprung, Bedeutung und Verwendungszwecke


Seile sind elastische Elemente, die aus Natur- oder Kunstfasern bestehen und nur auf Zugkraft beansprucht werden können. Weitere Begriffe, die in diesem Zusammenhang verwendet werden, sind Leine, Schnur, Tau oder Trosse. Die verschiedenen Bezeichnungen können umgangssprachlich unterschiedlich definiert sein.

Jede Seilart zeichnet sich durch unterschiedliche Merkmale aus

Ein dünnes Seil mit einem Durchmesser von weniger als sechs Millimetern gilt als Schnur, wobei eine lange Schnur auch als Leine bezeichnet wird. Dicke Seile, deren Durchmesser 50 Millimeter oder beträgt, sind Taue (Einzahl: Tau). Für Seile aus Stahl wird der Fachbegriff Trossen verwendet. Jede Seilart zeichnet sich durch besondere Merkmale aus und ist daher auch für bestimmte Einsatzbereiche geeignet, während sie für andere Fachgebiete vollkommen ungeeignet ist. Am häufigsten werden Seile, Schnüre und Kordeln im Bau- und Transportwesen genutzt. Außerdem bestehen Anwendungsmöglichkeiten als Sicherungsseile und Abhängeseile. In der Medizintechnik, Leuchtenindustrie, Möbelindustrie, Gartengerätetechnik und Agrartechnik sowie in der Automobilindustrie kommen Drahtseile zum Einsatz. In der Förder- und Hebetechnik ist das Edelstahlseil für das Tragen hoher Lasten unverzichtbar. Überall dort, wo hohe Tragkräfte, hohe Abriebfestigkeit sowie eine geringe Dehnung gefordert sind, wie bei der Sicherung von Transporten, auf Schiffen, im Ingenieurbau und Brückenbau kommt das Edelstahlseil zur Verwendung. Edelstahlseile, wie sie beispielsweise bei cgahrens zu finden sind, gelten als langlebig und optisch ansprechender als verzinkte Drahtseile. Der Bereich Drahtseiltechnik umfasst neben verschiedenen Einsatzmöglichkeiten für Drahtseile auch Drahtseilzubehör wie Drahtseilklemmen, Schäkel und Terminals sowie spezielle Werkzeuge für die Drahtseilverarbeitung.

Die Seilschaft, sprachlich verwandt, jedoch mit völlig anderer Bedeutung

Im Zusammenhang mit dem Begriff Seil existiert der sprachlich verwandte Ausdruck Seilschaft. Allerdings handelt es sich beim Begriff Seilschaft um etwas völlig anderes. In Unternehmen sowie in Bereichen wie Wirtschaft und Finanzen kennt man Seilschaften als Netzwerke von Personen, die gemeinsame Interessen, die oft über den beruflichen Kontext hinausgehen, verbinden. Daher wird die Bezeichnung Seilschaft oft negativ assoziiert. Die ursprüngliche Bedeutung der Seilschaft wird im Duden folgendermaßen beschrieben: Gruppe von Personen, die beispielsweise im politischen Bereich zusammenarbeiten und sich gegenseitig begünstigen. Eine Seilschaft kann jedoch auch eine Gruppe von Kletterern oder Bergsteigern sein, die bei Trekkingtouren durch ein Sicherungsseil miteinander verbunden sind. Im allgemeinen Sprachgebrauch wird eine Bergsteigergruppe auch dann als Seilschaft bezeichnet, wenn diese zwar gemeinsam unterwegs, allerdings nicht mit einem Seil verbunden ist.

Gleichzeitig bildet eine Seilschaft eine Gefahrengemeinschaft, da unter ungünstigen Bedingungen der Sturz eines einzelnen Mitgliedes bereits zum Absturz der gesamten Seilschaft führen kann. Durch das Sicherungsseil soll die Seilschaft ihren Mitgliedern zuverlässige Sicherung gegen Absturz bieten. In unserem modernen Zeitalter werden für technische Fachausdrücke oft Anglizismen verwendet. So handelt es sich bei einem Circuit Breaker um eine Sicherungsvorrichtung, die dazu dient, einen Stromkreis zu unterbrechen. Im Deutschen wird das Fachwort Circuit Breaker mit Sicherung oder Leistungsschutzschalter genannt. Da heutzutage vorwiegend online kommuniziert wird, haben die Internetsprache und der Netzjargon eine große Bedeutung. Die WLAN-Namen, die zur Identifizierung eines Internet-Anschlusses vergeben werden, können individuell und witzig, aber auch beleidigend und böse sein. Generell werden gern Abkürzungen verwendet, da diese fester Teil des Sprachgebrauches sind. Abkürzungen sollen den Lesefluss verbessern, Texte kürzer gestalten und Wortwiederholungen verhindern.

Was ist eine Impfprämie? Vorteile, Nachteile, Bedeutung, Definition, Erklärung


Mit einer Impfprämie sollen Bürgerinnen und Bürger motiviert werden, sich gegen Corona impfen zu lassen. Das Modell gibt es zumindest im Ausland schon seit2021, in Deutschland setzt es sich nur langsam und meistens durch privatwirtschaftliche Initiativen durch. Die Impfprämie kann direkt in Geld gezahlt werden, doch auch andere Anreize sind möglich: Bundesweite Schlagzeilen machten 2021 Gemeinden in Thüringen, die den Impfwilligen nach dem Pieks eine kostenlose Bratwurst spendierten.

Warum kommt die Diskussion um eine Impfprämie auf?

Dass eine Schutzimpfung die Folgen einer Infektion mit SARS-CoV-2 am besten auffängt oder diese Infektion gleich ganz verhindert, gilt zumindest in der Wissenschaft als unstrittig. Die Impfung mag aber nicht jeder, es gibt bekanntlich erklärte Gegner dieser Vorsichtsmaßnahme. Eine Impfpflicht, über die der deutsche Bundestag am 26. Januar 2022 erstmals debattierte und die in Österreich inzwischen beschlossen wurde, dürfte allerdings zur Radikalisierung einiger Impfgegner führen. Da radikale Strömungen auch immer einen Teil der eigentlich unentschlossenen Bevölkerung beeinflussen, wie an den Demonstrationen gegen die Coronamaßnahmen zu erkennen ist, wäre eine Impfprämie ein sanftes Motivationsmittel, um diese große Menge der Unentschlossenen zur Impfung zu bewegen. Die Privatwirtschaft hat das schon längst erkannt: In den USA boten schon im Frühjahr 2021 einige große Unternehmen ihren Beschäftigten Impfprämien an, gleich nachdem es erste Impfstoffe gab. Viele deutsche Unternehmen folgen inzwischen diesem Weg. Ihre Motivation ist vollkommen klar: Sie brauchen geimpfte Mitarbeitende, wenn ihre Produktion weiterlaufen soll.

Impfprämie: Beispiele aus Deutschland

Gerade in den Bundesländern Sachsen und Thüringen, in denen die Impfquote deutschlandweit am niedrigsten ist, preschen Firmen mit einer Impfprämie für ihre Beschäftigten vor. Sie lassen sich von Forschungsdaten leiten, welche die Motivation durch die Prämie belegen. Der Unternehmerverband Sachsen begrüßt das Modell grundsätzlich, verweist aber darauf, dass sich dieses weder alle Firmen noch alle Branchen leisten können. Hinter dieser Aussage stecken handfeste Zahlen: So zahlt die Böttcher AG aus Thüringen (Büroversand) jedem Mitarbeiter 5.000 Euro Prämie für die Impfung. Das ist eine enorme Summe, die in der Tat nur wenige Unternehmen stemmen können.

Böttcher-Vorstand Danilo Frasiak kann die Entscheidung aber begründen, die kurz vor dem Weihnachtsgeschäft 2021 getroffen wurde: Im Versandhandel (wie auch in anderen Handelsbereichen) ist der Dezember mit Abstand der stärkste Monat des Jahres. Die Böttcher AG konnte sich keine Ausfälle durch Coronaerkrankungen oder Quarantänemaßnahmen leisten. Die Prämie rechnete sich für das Unternehmen. Dieses steuerte damit auch den extrem hohen Inzidenzen in Thüringen und Sachsen entgegen. Frasiak führt aber noch weitere Gründe außerhalb der reinen Ökonomie für die Impfprämie an. Man habe, so der Manager, die Belegschaft zur Auseinandersetzung mit dem Impfthema bewegen wollen.

Der positive Anreiz einer hohen Prämie habe dabei als echter Motivationsbooster gewirkt. Frasiak spricht damit die beiden Seiten des Bonus-Malus-Systems via Geld an: Dem Bonus der Impfprämie würde nämlich bei der Einführung einer Impfpflicht als Malus die Geldbuße bei der Impfverweigerung gegenüberstehen. Wirtschaftsvertreter setzen ganz eindeutig auf den Bonus, also die Impfprämie. Sie wissen, wie man Menschen am besten motiviert. Hier einige Zahlen dazu:

  • Die 5.000 Euro bekommen die Beschäftigten der Böttcher AG nach der Zweitimpfung, und zwar auch, wenn sie diese schon vor dem Beginn der Prämienaktion bekommen hatten. Auch das ist wichtig bei einer Impfprämie. Sie muss gerecht ausgeschüttet werden.
  • Das Unternehmen bezahlte für seine Großzügigkeit drei Millionen Euro.
  • Es freut sich über eine Impfquote von 100 % in den meisten Abteilungen.
  • Niedriger als 80 % (eher: ~90 %) lag sie Anfang Januar 2022 in keinem Bereich des Unternehmens.
  • Zum Vergleich: Die deutschlandweite Quote der zweimal Geimpften lag am 26. Januar 2022 bei 73,6 %.
  • Seit Mitte Dezember 2021 gab es nur noch einen einzigen Infektionsfall bei der Thüringer Böttcher AG.

Die Belegschaft habe durchweg positiv auf das Prämienangebot reagiert, auch wenn es nicht ausnahmslos von allen Mitarbeitenden angenommen wurde, so Frasiak. Es wurde auch niemand benachteiligt, der sich nicht impfen lassen wollte.

Wissenschaftliche Untersuchungen zur Impfprämie

Solche Modelle gibt es in der Privatwirtschaft weltweit, die Forschung hat sich seit März 2021 (erste Impfprämien durch US-Unternehmen) damit befasst. Das Ergebnis der Untersuchungen ist eindeutig: Die Impfquote steigt direkt proportional zur Höhe der Impfprämie. Der Geldwert der Prämie darf hierfür aber nicht zu niedrig liegen.

Im Sommer 2021 ermittelte das KIT (Karlsruher Institut für Technologie) eine Mindestprämie von 100 Euro, um einen nennenswerten Effekt zu erzielen. Prof. Nora Szech vom KIT verweist darauf, dass die Impfprämie die Zeit für die Impfung kompensiere. Es gibt aber auch gegenteilige Meinungen aus der Wissenschaft. Der Doktorand Philipp Sprengholz von der Universität Erfurt führte im Sommer 2021 eine Studie durch, bei der er den Testpersonen zwischen 25 und 200 Euro nach der Impfung zahlte. Laut seinen Untersuchungen konnte er die Impfbereitschaft damit nicht steigern.

Durch Befragungen will er ermittelt haben, dass die Prämie mindestens 1.000 Euro betragen muss, um die Impfbereitschaft um wenige Prozentpunkte zu steigern. Dem widerspricht wiederum Prof. Szech, die auf US-Studien verweist. Schon ab 100 Euro steige demnach deutlich die Impfbereitschaft, und zwar bei 80 % aller Studienteilnehmer*innen. Ab 500 Euro waren es 90 %. Es gebe aber auch einen gegenteiligen Effekt durch die Prämie, so die Forscherin. Bei Prämien bis 20 Euro ließe die Impfbereitschaft nach. Prof. Szech verweist gleichzeitig auf den ökonomischen Wert einer Impfung, der sich durch ausbleibende Schäden infolge einer Coronainfektion oder einen schweren Krankheitsverlauf auf ~1.500 Euro pro geimpfter Person schätzen lasse. Gleichzeitig weisen jüngere Untersuchungen darauf hin, dass die Prämie nicht alternativlos ist.

Neben einer Strafzahlung nach Einführung einer allgemeinen Impfpflicht sind auch Zwischenlösungen möglich. So setzt der Hartmannsdorfer Kommunikationsdienstleister Komsa AG auf durchgängige, sehr leicht zugängliche Testungen und freiwillige Impfangebote. Die Impfprämie ist dem sächsischen Unternehmen zu teuer, zudem möchte es seine Mitarbeitenden weder positiv noch negativ auf die Impfung hin motivieren. Die Entscheidung solle der einzelne Mitarbeiter selbst treffen, so die Firmenleitung. Wie viele deutsche Unternehmen inzwischen Impfprämien zahlen (und in welcher Höhe), ist mit Stand Ende Januar 2022 noch nicht bekannt. Aus Befragungen von Journalisten, die allerdings kein statistisch exaktes Datenbild ergeben, geht hervor, dass in vielen Firmen eine Impfprämie von rund 100 bis 500 Euro gezahlt wird.

Impfprämie in Österreich

Die österreichische Bundesregierung will Impfprämien an Gemeinden nach dem Stand der Impfquote ausschütten, deren Höhe allerdings mit Stand 27. Januar 2022 noch nicht bekannt ist. Außerdem wurde eine Impflotterie aufgelegt. Jede geimpfte Person nimmt daran automatisch teil und kann also das große Los ziehen. Hinter der Aktion stehen die ÖVP, vertreten durch den Bundeskanzler Karl Nehammer, die Grünen, die mit Werner Kogler den Vizekanzler stellen, und auch die SPÖ, deren Chefin Pamela Rendi-Wagner an der Ausarbeitung des Prämienmodells beteiligt war. Gemeinden, die eine Impfquote von 80, 85 und 90 % erreichen, profitieren abgestuft mit immer höheren Prämien vom „Anreiz- und Belohnungspaket“. Darauf reagierten viele Gemeindevorstände äußerst positiv.

In Eisenerz etwa (Bezirk Leoben) zeigte man sich überrascht und erfreut. Die Impfquote liegt dort schon über 80 %, sodass das Extrageld der Gemeinde ohne weitere Anstrengung in den Schoß fällt. Der Bürgermeister Thomas Rauninger (ÖVP) will mit dem Geldsegen seine Stadt neu belegen, in der aktuell viele Häuser leerstehen. Der Tourismus soll eine Finanzspritze erhalten, aber auch die Kinderbetreuung wird die Kommune verbessern.

Es gibt allerdings auch kritische Stimmen, so aus der Nachbargemeinde Vordernberg, wo der Bürgermeister Walter Hubner (SPÖ) den Bonus als „irritierend“ bezeichnete. Er empfindet den Anreiz eher als Bürde, weil die Motivationsarbeit nun den Gemeinden zugeschoben würde. In Österreich diskutiert man ebenso wie in Deutschland über ein generelles Versagen der Bundesregierung in der Coronapandemie. Hubner verweist daneben auf ein praktisch-technisches Problem: Man müsse darüber reden, welche Personen in die Quote hineingerechnet würden. Im hiesigen Anhaltezentrum (Abschiebegefängnis für abgelehnte Asylbewerber) säßen derzeit 130 Schubhäftlinge, von denen nicht einmal eine Handvoll geimpft seien, so der Lokalpolitiker. Dies würde ihm ungerechterweise die Impfquote drücken. Ohne die Schubhäftlinge hätte sein Ort eine Impfquote von bis zu 84 %.

Impfprämien in den USA schon seit 2021

In den USA schütteten Unternehmen wie erwähnt schon seit März 2021 Impfprämien aus. Sie gingen dabei unterschiedlich vor. Prämien waren:

  • Geld
  • Freibier
  • Donuts
  • Gratis-Substanzen-Zigaretten in Bundesstaaten, in denen Cannabis legal ist

Zu den Firmen zählten auch damals schon die deutschen Discounter Aldi und Lidl, die in den USA viele Filialen unterhalten. Ihren US-Angestellten zahlten und zahlen sie Prämien für die Impfung (Aldi durchschnittlich zwei Stundenlöhne und Sonderkosten, Lidl bis 200 Dollar), in Deutschland sind sie bis heute nicht so großzügig, auch wenn sie mit diversen Maßnahmen die Impfbereitschaft ihrer Beschäftigten unterstützen, so etwa über die eigenen Betriebsärzte und bezahlte Freistellungen für den Impftermin. Die US-Fluggesellschaft American Airlines vergibt als Impfprämie an ihre Angestellten 50 Bonusmeilenpunkte und einen Tag Sonderurlaub.

Amazon zahlt 80 Dollar, bei McDonald’s beträgt die Prämie vier Stundenlöhne. Einige US-Unternehmen verknüpfen die Impfprämie mit ihrem Marketing. Die Lebensmittelkette Krispy Kreme, berühmt für ihre Donuts, spendiert allen Mitarbeitenden für den Impfnachweis einen glasierten Donut – und zwar täglich, nachdem sie am Betriebstor ihren Impfpass vorgezeigt haben. In New Jersey spendieren Brauereien den dortigen Einwohnern schon nach der ersten Impfung Freibier. Den Joint gibt es im Bundesstaat New York gratis von Aktivisten, die für die Cannabislegalisierung in New York gekämpft haben.

Was ist Oneirologie? Bedeutung, Definition, Erklärung


Oneirologie ist die Lehre der Deutung von Träumen, bzw. der Traumanalyse. In der Alltagssprache wird meist der Begriff Traumdeutung genutzt. Das Wort Oneirologie leitet sich von den griechischen Begriffen Oneiros für Traum und Logos für Lehre ab.

Oneirologie: Definition, Bedeutung, Erklärung

Die Traumdeutungslehre bezeichnet Versuche, in Träumen erlebte Handlungen, Bilder oder Emotionen einer methodischen Deutung zu unterziehen, um daraus Erkenntnisse und/oder Handlungsanweisungen abzuleiten.

Die Idee der Traumdeutung ist schon sehr alt und in nahezu allen Kulturen bekannt. Dabei werden und wurden unterschiedliche Ansätze verfolgt.
In der Vergangenheit wurden Träume häufig als Botschaften gedeutet, die Menschen zu bestimmten Handlungen bewegen sollten. Diese Botschaften konnten dabei sowohl göttlichen als auch teuflischen Ursprungs sein.
Zu den bekanntesten neuzeitlichen Vertretern der Oneirologie zählen Sigmund Freud und C.G. Jung, die Traumerlebnissen eine tiefenpsychologische Bedeutung beimaßen. Die Interpretation von Träumen sollte dementsprechend Informationen über die unbewussten Anteile der Psyche liefern.

Die Traumdeutung spielt auch im Volks- und Aberglauben eine Rolle. Dabei werden einzelne Traumsymbole meist mit einer mehr oder weniger festen Bedeutung verknüpft. Die Deutung verschiedener Traumsymbole erfolgt dabei weniger individuell, sondern eher nach populären Deutungsschemata.

Die Traumdeutung in der Psychologie

Mit der Analyse von Träumen haben sich vor allem Vertreter der Tiefenpsychologie und Psychoanalyse auseinandergesetzt. In der Tiefenpsychologie gelten die unbewussten Anteile der menschlichen Psyche als entscheidender Faktor für das individuelle Denken und Handeln. Ihnen auf die Spur zu kommen, soll helfen, psychische Probleme, wie etwa Komplexe, zu erklären und bestenfalls aufzulösen. Als bedeutendster Vertreter dieses Ansatzes und Begründer der Psychoanalyse gilt Sigmund Freud. Träume und deren Interpretation sah er als einen entscheidenden Zugangsweg zum Unbewussten an.

Auch der Begründer der analytischen Psychologie C.G. Jung maß Träumen in dieser Hinsicht Bedeutung zu. Er unterschied dabei auch zwischen unterschiedlichen Arten von Träumen:

  • Wiederholungsträume: Eine Erfahrung oder ein Problem dringt durch den Traum wiederholt ins Bewusstsein, um aufgearbeitet zu werden.
  • Kompensatorische Träume: Der Traum stellt eine Gegenwelt zur nicht zufriedenstellenden Realität dar.
  • Archetypische Träume: Träume, die nicht im individuellen, sondern im kollektiv Unterbewussten verankert sind.
  • Präkognitive Träume: Traumwahrnehmungen, die durch bekannte Wissensquellen nicht erklärt werden können.

Jung schrieb Träumen eine bewusstseinserweiternde Kraft zu, die Potenziale eröffnet, die im Wachzustand nicht ausgeschöpft werden können.

Ein weiterer bekannter psychologischer Ansatz zur Traumdeutung ist die Traumbearbeitung in der Gestalttherapie nach Fritz Perls. Dabei wird in mehreren Schritten vor allem das szenische Erleben des Traums entschlüsselt, um dessen Botschaft auf die Spur zu kommen. Perls Herangehensweise legt Wert auf die Unterscheidung zwischen dem erfahrenen Trauminhalt und dem zugrunde liegenden Traumgedanken.
Von den tiefenpsychologischen Ansätzen ist die Psychologie heute großteils abgerückt. Dennoch kommt der Interpretation von Träumen mitunter eine Bedeutung zu, da das Traumerleben häufig mit tatsächlichen Erfahrungen und Emotionen verknüpft ist und somit der Selbstreflexion dienen kann.

Alltagsdeutung von Träumen

Bei der Alltagsdeutung von Träumen liegt der Fokus meist auf der Betrachtung bestimmter Traumbilder, denen eine symbolische Bedeutung zugeschrieben wird. Sie können in zahlreichen Traumlexika und Glossaren nachgeschlagen werden oder werden von Mund zu Mund überliefert. So wird beispielsweise das Träumen von einer Spinne als Zeichen für eine Intrige interpretiert oder das Träumen von einem ausfallenden Zahn als bevorstehender Todesfall.

Aus wissenschaftlicher Sicht fällt diese Art der Traumdeutung häufig eher in den Bereich des Aberglaubens, da das Träumen ein sehr individueller Vorgang ist, der sich kaum allgemeingültig deuten lässt. Unter anderem ist das sozio-kulturelle Umfeld entscheidend dafür, welche (Be-)Deutung bestimmten Dingen und Ereignissen beigemessen wird. Auch individuelle Erfahrungen und Gefühle lassen sehr unterschiedliche Interpretationen zu. Träumt beispielsweise ein Metzger davon ein Schwein zu zerlegen, lässt sich das nicht auf die gleiche Weise interpretieren, wie wenn ein überzeugter Vegetarier denselben Traum hat.

Allerdings sehen auch einige Psychologen Muster in bestimmten Traumbildern, die sich relativ verlässlich deuten lassen. Ein Beispiel dafür wäre das Verfolgtwerden im Traum als Ausdruck dafür einer Situation oder einem Problem ausweichen zu wollen.

Erkenntnisse der Traumforschung

Träume werden nicht nur psychologisch, sondern in jüngerer Zeit auch neurowissenschaftlich erforscht. Moderne Technik macht das möglich. So werden beispielsweise in Schlaflaboren die Gehirnströme Träumender aufgezeichnet.

Dennoch gibt es zur Funktion, Bedeutung und möglichen Deutung von Träumen bislang wenig eindeutige Erkenntnisse. Und so ist auch die Oneirologie bis heute wissenschaftlich umstritten.

Es gibt verschiedene Theorien, warum Träume entstehen. Während einige Wissenschaftler glauben, Träume seien möglicherweise nur zufällig Begleiterscheinungen des Schlafens, sind andere Forscher der Meinung, dass im Traum Erlebnisse und Erfahrungen verarbeitet werden. Eine weitere Theorie sieht Träume als eine Art Trainingssimulation für das Gehirn an, die dann im realen Leben dabei hilft, bestimmte Situationen zu meistern.

Es ist wahrscheinlich, dass das Träumen letztendlich mehrere Funktionen erfüllt.

Hirnscans zeigen, dass während des Träumens insbesondere die für Emotionen zuständigen Regionen des Gehirns besonders aktiv sind. Das emotionale Erleben und Verarbeiten scheint also eine entscheidende Rolle zu spielen. Der frontale Cortex, unter anderem zuständig für das logische Denken, ist hingegen im Schlaf meist weitgehend inaktiv. Das liefert eine Erklärung dafür, warum Traum und Realität im Schlaf normalerweise nicht auseinandergehalten werden können.

Luzides Träumen – Was ist dran?

In jüngster Vergangenheit macht des Öfteren das Phänomen des sogenannten luziden Träumens von sich reden. Es ist bereits seit den 1980er Jahren bekannt, durch neueste Untersuchungen aber wieder ins Forschungsinteresse gerückt. Beim luziden Träumen oder auch Klarträumen soll es möglich sein, Träume bewusst als solche wahrnehmen und sie mitunter sogar beeinflussen und steuern zu können. Das soll durch gezieltes Training möglich sein und entwickelt sich zu einem regelrechten Trend.

Traumforscher haben auch dieses Phänomen untersucht und die Ergebnisse weisen darauf hin, dass Menschen offenbar tatsächlich einen gewissen Zugang zu ihren Träumen bekommen können.

Messungen zeigten beispielsweise, dass bei dieser Art des Träumens der frontale Cortex aktiver ist als bei normalen Schläfern. Geübte Klarträumer könnten also tatsächlich ihre Traumerlebnisse reflektiert betrachten. Andere Untersuchungen legen nahe, dass auch das bewusste Eingreifen in das Traumerleben möglich zu sein scheint.

Nun wird erforscht, wie und ob sich das luzide Träumen vielleicht nutzbar machen lässt. Menschen mit Prüfungsangst könnten dann zum Beispiel Prüfungssituationen im Traum bewusst trainieren, um ihre Angst abzulegen.

Inwiefern jeder mit entsprechenden Techniken das luzide Träumen lernen und es sich vielleicht sogar zunutze machen kann, ist unklar. Viele Traumforscher sehen hier aber interessantes Potenzial für die Forschung und Psychologie.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung


Kollagenpeptide werden auch als Kollagen-Hydrolysate bezeichnet. Es handelt sich hierbei um sogenannte Struktur-Proteine, also Eiweiße, die für Zellen und generell dem Gewebe des Körpers struktur-/formgebend sind. Diese werden aus Kollagen-Proteinen gewonnen und sind für die Flexibilität wie auch Festigkeit sämtlicher Zellen, Muskeln und Sehnen sowie des Bindegewebes im Körper verantwortlich.

Der Unterschied von Kollagen-Proteinen und Kollagenpeptiden (reines Kollagen) besteht darin, dass Kollegen-Proteine aufgrund einer Hydrolisierung wasserlöslich sind. Für Kollagenpeptide wird dafür während der Herstellung ein bestimmtes Enzym zugefügt.

Was sind Kollagenpeptide? Bedeutung, Definition, Erklärung

Kollagenpeptid (Kollagen-Hydrolysat) ist also prinzipiell Kollagen, welches durch die Beimischung von ausgewählten Enzymen in ein wasserlösliches Präparat verwandelt wird.

Kollagenpeptide stehen in drei unterschiedlichen Ausführungen zur Verfügung:

  • trinkbares, flüssiges Kollagen-Hydrolysat
  • Kapseln beziehungsweise Tabletten
  • Pulver.

Kollagen-Hydrolysate können den Körper auf sehr vielfältige Weise positiv beeinflussen. Das Eiweiß kann unter anderem bei Arthrose und deren unterschiedlichen Varianten, bei Sportverletzungen sowie gegen Hautfalten verwendet werden. Durch zahlreiche wissenschaftliche Studien konnte die Wirksamkeit der Kollagenpeptide bereits bestätigt werden.

Wasserlösliche Kollagenpeptide lassen sich problemlos oral einnehmen. Dadurch kann das Eiweiß direkt vom Körper aufgenommen werden. Dieser Vorteil wird genutzt, um viele Lebensmittel sowie wie auch Produkte aus dem Gesundheits- und Kosmetikbereich, welche täglich verwendet werden, damit anzureichern. Ein sehr wichtiger und wertvoller Vorteil der Kollagen-Hydrolysate ist zudem, dass diese so gut wie kein Risiko für Allergiker darstellen.

Daher beinhalten beispielsweise etliche Proteinpulver, Proteinriegel sowie weitere eiweißhaltige Supplements Kollagenpeptide. Dadurch können wiederum schwache oder angegriffene Zellen und körperliches Gewebe an sich gestärkt und neu aufgebaut werden.

Wie wirken sich Kollagen-Hydrolysate im Körper aus? Wirkung

Durch die orale Einnahme von Kollagenpeptiden sind diese für den körperlichen Stoffwechsel sofort verfügbar (Bio-Verfügbarkeit). Dadurch kann der körpereigene Vorrat von Kollagen erhöht und verbessert werden. Dies ist ein wichtiger Faktor, denn Kollagen kann beispielsweise bei gewissen körperlichen Symptomen, spezifischen Verletzungen sowie bei vielen anderen Zwecken verschiedene Wirkungen zeigen.

Die Wirksamkeit der Kollagenpeptide ist in diversen Studien dokumentiert. Dadurch ist ein sehr umfangreiches Spektrum der Wirkungsweise bekannt. Trotzdem stehen immer noch kritische Meinungen im Raum, welche die positiven Ergebnisse der Forschungen hinterfragen.

Kollagen-Hydrolysate – wer und wann sollte das Präparat konsumieren?

Diverse Unternehmen und Marken bewerben Kollagenpeptide speziell für ältere Personen. Denn im Verlauf des Lebens nimmt die körpereigene Produktion von Kollagen stetig ab. Jüngere Personen, die noch keine 25 Jahre alt sind, benötigen normalerweise keine zusätzlichen Kollagenpeptide. Wichtig ist allerdings, dass eine eiweißhaltige, ausgewogene Ernährung stattfindet, die bewirkt, dass der Körper seine Kollagenfasern eigenständig elastisch erhält.

Kollagen-Hydrolysate empfehlen sich besonders dann, wenn gewisse Anzeichen beziehungsweise Symptome beispielsweise von Arthrose und Osteoporose, vermehrtem Haarausfall und Falten auftreten/diagnostiziert werden.

Wirkung bei Osteoporose und Arthrose

Kollagen-Hydrolysate beziehungsweise Kollagenpeptide sind durch zuständige Behörden anerkannt. Dadurch haben sich die Präparate bereits seit geraumer Zeit unter anderem zur nachhaltigen Therapie von Osteoporose wie auch Arthrose etabliert.

Im Rahmen dieser Behandlung stimulieren Kollagenpeptide die Produktion neuer Zellen innerhalb der sogenannten extra-zellulären Matrix (kollagenhaltige Knorpelschicht). Diese ist für eine schmerzfreie Gelenkfunktion essenziell. Während einer langfristigen Einnahme von Kollagenpeptiden bei Osteoporose/Arthrose können sich allerdings teilweise Magen-Darm-Beschwerden zeigen.

Kollagenpeptide für eine gesunde Kopfhaut

Die derzeitige Forschung ist, wenn es um Kollagen-Hydrolysate zum verbesserten Haarwuchs geht, oft unterschiedlicher Meinung. Denn einerseits kann Kollagen eine verletzte Kopfhaut positiv beeinflussen, sodass sich wieder mehr neue Haarfollikel (Basis der Haarwurzeln) bilden können.

Andererseits kann ein Mangel oder das Nichtvorhandensein des Kollagen VI (spezielles Kollagen) für Haarausfall verantwortlich sein. Diese Art Kollagen lagert sich in Haarwurzeln ab und kann zudem in Kollagenpeptiden vorhanden sein. Das Haarwachstum wird dadurch enorm beeinträchtigt. Die Wirkung ist also auch aus wissenschaftlicher Sicht noch nicht vollständig erforscht.

Um letztendlich gesunde Haarfollikel auszubilden, ist eine intakte Kopfhaut essenziell. Diese kann durch die Einnahme von Kollagenpeptide erheblich unterstützt werden.

Kollagenpeptide für eine Reduzierung der Falten

Die Alterung der Haut beginnt normalerweise ab dem 30. Lebensjahr. Somit kann durch die Einnahme der Kollagen-Hydrolysate eine beginnende Faltenbildung abgemildert werden. Bereits vorhandene Falten können in gewissem Maße deutlich verringert werden.

Kollagenpeptide beziehungsweise Kollagen-Hydrolysate können die sogenannte extra-zellulare Matrix also äußerst positiv unterstützen, um Alterserscheinungen zu reduzieren. Kollagenpeptide sind im Vergleich mit Kollagen-Hautcremes wesentlich effizienter, da sie unmittelbar im Körper wirken, Cremes dagegen lediglich auf der Hautoberfläche aufgetragen werden.

Kollagen-Hydrolysate bei Sportverletzungen

Ein wichtiger Bereich für den Einsatz der Kollagenpeptide sind speziell Verletzungen durch Sportunfälle und allgemeine Beschwerden, unter denen Sportler leiden. In Studien haben sich Kollagenpeptide als hochaktiv gezeigt, wenn es um die Wirkung auf Sprunggelenke geht. Die Einnahme der Kollagen-Hydrosylate kann als Prävention gegen Verletzungen also sehr hilfreich sein. So werden Kollagenpeptide mittlerweile unter anderem beim Bodybuilding vermehrt eingesetzt. Verbände sowie Sportler selbst kommunizieren die Verwendung des Supplements allerdings nicht.

Gibt es Nebenwirkungen durch Kollagenpeptide?

Die Forschung kann derzeit allerdings nicht gänzlich beantworten, ob Kollagen-Hydrolysate gesundheitlich völlig unbedenklich sind. Die aktuellen wissenschaftlichen Ergebnisse zeigen jedoch generell, dass sich eine bemerkenswert hohe Verträglichkeit zeigt.

Zudem sind derzeit keinerlei Wechselwirkungen bekannt, die eventuell durch Kollagenpeptide auftreten können. Allerdings ist es bei einer langfristigen Einnahme möglich, dass sich bei einigen Personen Magen-/Darmbeschwerden zeigen können.

Während einer Schwangerschaft gelten laut Wissenschaftler Kollagenpeptide als unbedenklich. Allerdings sollten Schwangere eine Supplement-Einnahme generell mit ihrem Frauenarzt besprechen.

Tagesdosis für Kollagen-Hydrolysate

Empfehlungen für eine exakte tägliche Dosierung der Kollagenpeptide steht derzeit nicht zur Verfügung. Aktuelle Studien über Kollagen-Hydrolysat beinhalten Informationen, welche meistens eine Tagesdosis zwischen 2 und 12 Gramm bei den Probanden nachweist.

Handelsübliche Trinkampullen mit Kollagenpeptid enthalten bereits eine Tagesdosis. Das Präparat als Pulver steht ebenfalls in einzeln dosierten Tagesdosen zur Verfügung. Grundsätzlich wird empfohlen, dass unbedingt die Herstellerhinweise zur Dosierung auf den Präparaten selbst beachtet werden sollten!

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung


Das Kollagenhydrolysat ist Bestandteil von Kollagen und wird aus rechtlicher Sicht als Nahrungsmittel eingestuft. So kommen spezielle Kollagenhydrolysatformen oft in Nahrungsergänzungsmitteln vor. Auch in Kosmetika ist das Hydrolysat häufig enthalten. Seine Gewinnung erfolgt aus Kollagen. Bei Kollagen handelt es sich um ein Strukturprotein (Eiweiß), das wichtig für die Festigkeit und Struktur des Bindegewebes ist. Ungefähr 30 Prozent des Proteins setzen sich aus Kollagen zusammen. Vor allem Haut und Gelenkknorpel profitieren vom Kollagen, dessen Herstellung durch den Körper selbst stattfindet.

Was ist Kollagenhydrolysat? Bedeutung, Definition, Erklärung

Wird der Mensch älter, geht die Produktion des Kollagens allmählich zurück. Die Folge davon können Beschwerden wie die Bildung von Orangenhaut (Cellulite), eine Verschlechterung des Hautbildes oder sogar Schmerzen an den Gelenken sein. Als Mittel dagegen gilt die Zufuhr von Kollagenhydrolysat.

Die Entstehung des Kollagenhydrolysats geschieht durch das Aufspalten von Kollagen in mehrere Fragmente. In aufgespaltener Form gilt das Kollagen als gut wasserlöslich und verdaulich. Die Haut und der Darm des Menschen können es besser aufnehmen. Außerdem sinkt das Risiko von allergischen Reaktionen. Zusätzliche Eigenschaften sind stärkere antioxidative Effekte sowie ausgeprägte antimikrobielle Funktionen.

Bekannt ist das Kollagenhydrolysat auch als vorverdautes oder hydrolisiertes Kollagen. Manche Produkte tragen zudem die Bezeichnung Kollagenpeptide.

Wirkung des Kollagenhydrolysats

In Nahrungsergänzungsmitteln sind Kollagenhydrolysate zu finden, in denen Kollagenpeptide vorkommen. Sie gelten als essentielle Nährstoffe. Durch ihre Einnahme sollen sie in Mitleidenschaft gezogenes Knorpelgewebe aufbauen, erhalten und regenerieren. Durch das besondere Kollagenhydrolysat lassen sich die Knorpelzellen des Körpers zur verstärkten Bildung von Knorpelgewebe stimulieren.

Der Verlust an Kollagen setzt bereits ab einem Alter zwischen und 18 und 29 Jahren ein. Ungefähr ab dem 40. Lebensjahr büßt der Mensch pro Jahr ca. 1 Prozent an Kollagen ein. Bei Menschen über 80 Jahren ist ein Absinken der Kollagenherstellung, verglichen mit jungen Menschen, um bis zu 75 Prozent möglich.

Zu welchen Zwecken lässt sich Kollagenhydrolysat verwenden?

Das in Nahrungsergänzungen enthaltene Kollagenhydrolysat soll sich positiv auf Haut und Gelenke auswirken. So dienen Kollagenhydrolysate zur Vorbeugung und Behandlung von Knorpelverschleiß innerhalb der Gelenke. Sie lindern Schmerzen und verbessern die Beweglichkeit der Gelenke.

Ebenfalls zu den Indikationen von Kollagenhydrolysat gehört das Anregen der Hautregeneration. Dabei kommen Kollagenhydrolysate mit kurzkettigen Kollagenpeptiden zur Anwendung, die die Gesundheit und Erscheinung der Haut verbessern. Zum Beispiel wird die Bildung von Falten bekämpft.

Eine andere positive Eigenschaft des Kollagens ist seine Auswirkung auf den Stoffwechsel. Durch die Einnahme von Nahrungsergänzungsmitteln sollen Körpergewicht und Blutzuckerspiegel stabil bleiben. Von seinen antioxidativen Effekten können zudem Knorpel, Knochen, Muskeln sowie die Herzgesundheit profitieren.

Zur Anwendung gelangt Kollagenhydrolysat mitunter, um den Heilungsverlauf bei Verbrennungen und Wunden zu unterstützen. Aber auch in verarbeiteten Nahrungsmitteln wie Suppen, Fleischerzeugnissen oder Getränken ist das Kollagenhydrolysat zu finden. Dort verbessert es Eiweißgehalt und Stabilität. Darüber hinaus vermindert es den Fettgehalt.

Herstellung von Kollagenhydrolysat

Es kommen unterschiedliche Verfahren zur Kollagenhydrolysatherstellung infrage. Natives Kollagen lässt sich mit bestimmten Säuren wie Salzsäure, Essigsäure oder Phosphorsäure behandeln. Gleiches gilt für Basen, Enzyme, Druck oder hohe Temperaturen.

In der Regel wird das angebotene Kollagenhydrolysat durch das Denaturieren von nativem Kollagen hergestellt. Dabei findet eine Enzym-Behandlung statt, zu deren Zweck Enzyme wie zum Beispiel Pepsin, Alkalase oder Papain Verwendung finden.

Mit dem enzymatischen Abbau kommt es zu hydrolisiertem Kollagen. Es setzt sich aus Peptiden, bei denen es sich um Proteinfragmente handelt, zusammen.

Aus welchen Quellen stammt das Kollagen?

Kollagenpeptide entstammen ausschließlich Tieren. So gibt es keinerlei Kollagen aus Pflanzen. Die Gewinnung des Kollagens erfolgt in den meisten Fällen aus Lebensmittelindustrieabfällen. Dazu zählen u. a. Knochen, Knorpel, Haut und Sehnen. Zu differenzieren ist zwischen Hühnerkollagen, Rinderkollagen, Schweinekollagen und Fischkollagen.

In früheren Jahren wurde das Kollagen für Nahrungsergänzungsmittel aus Schlachtabfällen von Rindern und Schweinen entnommen. Aus Gesundheitsgründen wie zum Beispiel BSE kam es allerdings zu Beschränkungen bei der Gewinnung von hydrolisiertem Kollagen aus Rindern und Schweinen. Ebenso spielten religiöse Aspekte eine Rolle.

Gestiegen ist dagegen die Nachfrage nach Fischkollagen oder Meereskollagen. Dabei lassen sich Bestandteile von Süß- und Salzwasserfischen wie Schuppen, Haut oder Gräten verwenden. Als Alternativen gelten überdies Schwämme oder Quallen. Sie werden als wirbellose Meerestiere eingestuft.

Unterschieden wird beim Kollagen weiterhin nach Typ 1 und Typ 2. Quellen wie Fisch, die reichlich Typ-1-Kollagen enthalten, gelangen für kosmetische Produkte zur Anwendung. Knorpel vom Huhn, Rind oder Schwein zählen zum Typ-2-Kollagen. Dieses findet für therapeutische Produkte für Gelenke Verwendung.

Aufnahme des Kollagenhydrolysats

In mehreren Studien stellte sich heraus, dass der menschliche Organismus hydrolisiertes Kollagen einfacher aufnimmt, als dies bei nativem Kollagen der Fall ist. Während der Verdauung wird das Kollagen in kleine Peptide und Aminosäuren aufgespalten. Im Anschluss an seine Resorption lässt es sich zum neuerlichen Aufbau von Kollagen oder anderen Eiweißen nutzen.

Vorteile von Kollagenhydrolysat

Durch die Aufnahme von Kollagenhydrolysat durch die Darmschleimhaut lassen sich die Peptide zu den unterschiedlichen Gewebearten weiterleiten. An diesen Stellen erfolgt ihre Umwandlung durch Spezialzellen in Spiralen. Diese Spiralen sind wichtig zum Regenerieren der extrazellulären Gewebematrix. Außerdem ersetzen sie zerstörte Kollagenfasern. Die Kollagenfasern werden zu den wichtigsten Hautbestandteilen gerechnet. Sie sind in der Demis (Lederhaut) vorhanden, die sich zwischen Ober- und Unterhaut befindet.

Kollagenhydrolysat in Nahrungsergänzungsmitteln

Kollagenhydrolysat, das in Nahrungsergänzungsmitteln enthalten ist, soll vor allem bei Arthrose eine positive Wirkung erzielen. Ebenso verbessert sich das Bindegewebe. Anwenden lässt sich das Kollagenhydrolysat in Form von Pulver oder als Tablette. Das geschmacksneutrale Pulver wird mit Wasser oder Fruchtsaft vermischt und anschließend verabreicht.

Eine wichtige Rolle bei der Auswahl des Pulvers spielt dessen Qualität. Als Qualitätsmerkmale gelten eine enzymatische Herstellung, gute Löslichkeit, die Weidehaltung der Tiere sowie die Reinheit des Produktes.