Creative Commons

Gegründet wurde die Creative Commons Initiative in den USA, wobei der maßgebliche Kopf hinter der Initiative Lawrence Lessig war, damals Rechtsprofessor an der Stanford Law School (heute Harvard) zusammen mit Hal Abelson, Eric Eldred und mit Unterstützung des Center for the Public Domain.

February 8th , a massive reddish-brown cloud advanced on the city of Melbourne. Auch die Stadt Montreuil von den neuen geothermischen Brunnen profitieren. Einsitziges Höhenforschungsflugzeug M "Geophysica" des Myasishev Design Bureau , ursprünglich als militärischer Höhenaufklärer konzipiert.

Globale Auswirkungen von ENSO

GAIA Künstlerische Darstellung der Astrometrie-Sonde Gaia vor dem Band der Milchstraße. Gaia soll über einen Zeitraum von mindestens fünf Jahren mehr als eine Milliarde Sterne vermessen und ihre Positionen, Entfernungen, Eigenbewegungen, Helligkeit, Farben und Temperaturen bestimmen.

Ferner sorgt die lange Signallaufzeit ms für eine Strecke für eine niedrige Dienstqualität. Auch die meisten kommerziellen Telekommunikation ssatelliten nutzen GEOs. Ebenso ist dieser Orbittyp für strategische Frühwarnsatelliten gut geeignet.

Eine geostationäre Transferbahn auch Geotransferorbit ; Abk. Geostationary Transfer Orbit ist eine Erdumlaufbahn , auf der Satelliten von Trägerraketen ausgesetzt werden, um danach endgültig auf einer geostationären Umlaufbahn GEO positioniert zu werden.

Dem dazu erforderlichen Bahnmanöver geht eine genaue Bahnbestimmung voraus. Der am weitesten von der Erde entfernte Punkt — das Apogäum — liegt meist in der Nähe des geostationären Orbits in Normalerweise setzt eine Rakete den Satelliten am oder in der Nähe des erdnächsten Punkts dem Perigäum der Ellipsenbahn aus. Einige Trägerraketen fliegen zuerst eine niedrige Parkbahn an und starten von dort meist einen Hohmann-Transfer , dessen elliptischer Teil die geostationäre Transferbahn ist.

Einige Trägerraketen, die auf einem sehr hohen Breitengrad starten, z. Wegen der dort geringen Bahngeschwindigkeit können sie die hohe Inklination mit weniger Energieaufwand abbauen bi-elliptischer Transfer. Zu diesem Zweck erhält der Flugkörper beim Überqueren der Äquatorebene eine Querbeschleunigung in seiner Bahnebene, die deren Neigung auf Null umlenkt. Die Mission wird einen hochentwickelten Infrarot-Spektrographen einsetzen, der kostengünstig als Beiladung einem kommerziellen geosynchronen Satelliten aufmontiert wird.

GeoCarb wird voraussichtlich starten und über Amerika positioniert, wo er mit einer Auflösung von 5 - 10 km den Bereich vom Südende der Hudson Bay bis zur Südspitze Südamerikas beobachtet. Bezeichnung für eine frühere Serie japanischer geostationärer Wettersatelliten. Januar die amerikanische Ostküste entlang bewegte. Der mächtige nor'easter beutelte die Küstenregionen von Maine bis Florida mit kräftigem Schneefall und starken Winden.

Beachtenswert ist das lange Wolkenband, das sich vom Sturmzentrum über tausende Meilen bis tief in die Karibik erstreckt.

Umgangsprachlich sprechen Meteorologen von Bombengenese engl. Genauer ausgedrückt handelt es sich um eine Zyklone Tiefdruckgebiet der Mittelbreiten, deren Kerndruck innerhalb von 24 Stunden um 24 hPa oder mehr sinkt. Im Winter bringen derartige Druckgebilde an der nordamerikanische Ostküste typischerweise kräftigen Niederschlag, starke Winde und Sturmfluten mit sich. Die beiden Hauptinstrumente der aktuellen Satelliten sind eine Kamera und ein Radiometer , die hochauflösende Bilder sowohl im sichtbaren, als auch im infraroten Bereich des elektromagnetischen Spektrums liefern.

Zudem können Temperatur- und Feuchtigkeitsverteilungen in der Atmosphäre gemessen werden. Die Auflösung im sichtbaren Bereich beträgt 1 km, im infraroten Bereich 4 km. Künftige Missionen erfahren eine deutliche Leistungssteigerung. Januar abgeschaltet, kann aber reaktiviert werden, wenn ein operationeller oder Reservesatellit ausfallen sollte. Es wird drei Partikel-Sensoren enthalten, einer wird Magnetpartikel registrieren, ein anderer solare und galaktische Protonen und ein weiterer hochenergetische Ionen.

November mit einer Atlas V. Im Dezember nahm der Satellit seine operationelle Arbeit auf, zuvor wurden seine sechs neuen Instrumente überprüft und validiert. Mit diesen Missionen werden full-disc-Aufnahmen alle 5 Minuten möglich und dies bei doppelt so hoher Auflösung. Die Darstellung der beleuchteten Erde reicht bis zu beiden Polen, da die ganze Hemisphäre gleich weit beleuchtet ist. Nach diesem Tag wird die Nordhalbkugel stärker beschienen werden als die Südhalbkugel, es geht auf Frühjahr und Sommer zu.

Die Sonne in diesem Bild ist künstlich eingefügt, auch wenn der Satellit Sensoren hat, um die Sonne hinsichtlich ihrer Sonnenaktivität kontinuierlich zu überwachen. Bezeichnung für die neueste Generation geostationärer Wettersatelliten. Diese Serie ist insofern leistungsfähiger als die bsherige GOES-Flotte, als die Satelliten die Erde fünfmal schneller scannen können, und dies mit viermal höherer Bildauflösung.

Sie haben dreimal so viele Kanäle für noch genauere, verlässlichere Wettervorhersagen und Unwetterprognosen. Sie ermöglichen auch wichtiges Sonnen-Monitoring und Beobachtungen des Weltraumwetters. Die moderne Technologie des Satelliten und seiner Instrumente führt zu rascheren und genaueren Vorhersagen und Unwetterwarnungen. Man erwartet eine verbesserte Erkennung und Beobachtung von Wetterphänomen, die sich direkt auf die öffentliche Sicherheit, den Schutz von Eigentum und letztlich den Wohlstand und die wirtschaftliche Entwicklung auswirken können.

Ein geosynchroner Orbit tritt demnach auf, wenn die Umlaufbahn eine Periode von Sekunden 23 Stunden, 56 Minuten, 4 Sekunden , der Dauer eines Sterntages entspricht.

Ein Spezialfall ergibt sich, wenn der Orbit kreisförmig ist und in der Äquatorebene liegt. Der Satellit erscheint also einem Beobachter auf der Erde immer am gleichen Ort. Diese spezielle Umlaufbahn hat sich für die Telekommunikation bewährt, weil insbesondere die Antennen immer auf einen bestimmten Punkt ausgerichtet bleiben. Von dieser Höhe kann der Satellit auf ca. Die geowissenschaftliche Fernerkundung ist eine junge Fachdisziplin der Geowissenschaften, die seit dem Start des ersten Erdbeobachtungssatelliten im Jahr zunehmend Bedeutung innerhalb der Geowissenschaften gewinnt.

Die geowissenschaftliche Fernerkundung beschäftigt sich mit der Gewinnung von Daten der Erdoberfläche mit Hilfe von abbildenden Beobachtungssystemen. Diese überwinden das Problem der Punktmessungen und erzeugen flächendeckende synoptische Datenfelder der elektromagnetischen Eigenschaften der Oberfläche, aus denen dann auf den Zustand bzw.

Auch geophysikalische Parameter wie das Erdmagnetfeld und das Schwerefeld stehen im Blickfeld der Fernerkundung. Satelliten bewegen sich den verschiedensten physikalischen Einflüssen und Feldern ausgesetzt. Ein für globale und regionale geophysikalische Phänomene, darunter auch globale Klimaindikatoren , wichtiges Feld wird durch die Gravitation beschrieben.

Massen und Massenbewegungen deformieren das sog. Geoid , die Fläche gleicher Schwere. Da sich die Bahnen von Erdsatelliten nach dem lokalen Schwerefeld ausrichten, erzeugen kleine Änderungen des Schwerefeldes auch minimale Änderungen der Satellitenbahn. Als Messmethode steht z. Am Satelliten befestigte Reflektoren spiegeln vom Boden ausgesandte Laserimpulse wieder zurück.

Umgekehrt geht die genaue Kenntnis des Schwerefeldes auch wieder in die Berechnung von Satellitenbahnen ein. Die hochgenaue Lagebestimmung und damit die genaue Verortung von Bildpunkten am Boden bei Daten optischer Satelliten ist damit auch der Schwerefeldmessung zu verdanken.

Aber auch klimatische Veränderungen, z. Damit sind diese durch die Methoden der Satellitengeodäsie nachweisbar. Im geowissenschaftlichen Sinn ermöglicht die FE in verschiedensten Bereichen die Entwicklung neuer Modellvorstellungen. Dies gilt beispielhaft für hochpräzise flächendeckende Vermessung mit Hilfe der Interferometrie , die die Dynamik von Oberflächenveränderungen z.

In der Landschaft bestehen zwischen den Oberflächenformen, anderen Erscheinungen und dem geologischen Unterbau enge Zusammenhänge. Daher ist es der Geologie möglich, aus den in Luft- und Satellitenbildern sichtbaren Formen und Merkmalen der Erdoberfläche vielfältige Rückschlüsse auf die Gesteinstypen und den tektonischen Aufbau der Erdoberfläche zu ziehen.

Dies gilt insbesondere für aride und semiaride Regionen, in denen die Oberflächenformen kaum durch Pflanzenbewuchs bedeckt werden. Luftbilder sind deshalb in der Geologie seit langem eine nicht mehr weg zu denkende Informationsquelle. Die geologische Auswertung von Luft- und Satellitenbildern interpretiert dabei, neben den verschiedenen Grau- und Farbtönen, vor allem morphologische Eigenheiten, Entwässerungsnetze, Texturen, Vegetation und Landnutzung.

Dadurch besteht die Möglichkeit, Berg- und Talformen, Hangneigungen etc. Mit Flugzeugscannern aufgenommene Thermalbilder verwendet die Geologie oft zur Lösung spezieller Probleme. Diese beinhalten die Unterscheidung von lockeren und festen Gesteinen aufgrund ihres unterschiedlichen Thermalverhaltens, die Kartierung von tektonischen Störungen, an denen durch Feuchtigkeitsunterschiede stärkere Verdunstung auftritt, die Erfassung geothermaler Anomalien sowie die Beobachtung aktiver Vulkane.

Die Ergebnisse der geologischen Interpretation von Luft- und Satellitenbildern werden in vielen Fällen zu thematischen Karten ausgearbeitet. GERB ist ein abtastendes Radiometer mit zwei Breitband-Kanälen, von denen einer die gesamte von der Erde ausgehende Strahlung und der andere lediglich einen kurzen Wellenbereich erfasst.

Durch die Differenz der auf den beiden Kanälen ermittelten Werte kann die von der Erde in den Weltraum reflektierte Strahlung geschätzt und damit die das Klimasystem der Erde beeinflussende Energie gemessen werden. Ein Spiegel reflektiert Strahlung ain Richtung auf eine Detektorreihe, welche Messungen entlang eines Nord-Süd gerichteten Beobachtungsstreifens durchführt. Der Spiegel ist so konzipiert, dass jede Messfolge von Osten nach Westen weiterrückt, so dass die komplette Erdscheibe im Verlauf von 5 Minuten und mit einer räumlichen Auflösung von ca.

Aufzeichnende Erkundung von Objekten aus der Ferne, ohne mit ihnen direkten Kontakt zu haben, besitzt eine lange Tradition und ist mit unterschiedlichen Motiven verbunden. Das interessierende Objekt Erdoberfläche , Atmosphäre , Weltraum ist dabei möglicherweise nicht erreichbar oder der Beobachter will unbemerkt bleiben und hält Distanz.

Die Qualität von Fernerkundungsergebnissen war und ist stark abhängig vom jeweiligen Stand der Technik. Bezieht man ihre Vorformen mit ein, so reichen die Technologien der Fernerkundung von der Schaffung erhabener Beobachtungspunkte Wachtürme und dem Gebrauch einfacher Ferngläser bis zu hochkomplexen Satellitensystemen.

Auch wenn die ersten, noch recht einfachen Photos vom Boden aus aufgenommen wurden, machte man bereits in den 40er Jahren des Jahrhunderts Aufnahmen zu Kartierungszwecken von Fesselballons aus.

Revolutionär war die berühmte bayerische Taubenflotte gegen Ende des Jahrhunderts. Erst mit Beginn der Luftfahrt im ausgehenden Jahrhundert, welche unabhängig aber etwa zeitgleich zur Entwicklung der Photographie erfolgte, fand die moderne analoge Geofernerkundungsmethodik ihren Ursprung.

Hierbei handelte es sich meist um Einzelaufnahmen, die in keinem systematischen Schema untergebracht waren und nur wenig wissenschaftlich ausgewertet wurden. Im ersten Weltkrieg leisteten auf Flugzeugen montierte Kameras unschätzbare Dienste für die militärische Aufklärung. Die kontinuierliche photographische Reihenaufnahme aus der Luft von strategisch wichtigen Geländabschnitten von allen Kriegsparteien vorangetrieben.

Nach Kriegsende flossen die gesammelten Erfahrungen in das auflebende zivile Luftbildwesen ein, welches ab ca. Landesaufnahmen, Expeditionen, Erkundung, Kartographie der Kolonien, etc. Der wissenschaftliche Nutzen der Luftbildtechnik wurde erstmals systematisch durch Troll in Deutschland untersucht. Weltkrieges dominierten erneut militärischen Fragestellungen das Luftbildwesen.

Wichtige taktische Operationen konnten ohne Aufklärungsflüge und dem Einsatz von Reihenmesskameras nicht mehr vorbereitet oder nachträglich auf Erfolg überprüft werden. Es wurde so erstmals die Herstellung von Luftbildplanwerken umgesetzt, die eine systematische Fernerkundung ermöglichten und noch heute in Form von Befliegungsplänen realisiert werden.

Zugleich wurden erste Routineeinsätze mit Farbfilmen für die Luftbildaufnahme durchgeführt, wobei z. Vor der Landung der Alliierten in der Normandie wurden z.

Luftaufnahmen von der Küste gemacht, um geeignete Landepositionen ausfindig zu machen. Durch die Messung küstennaher Wellen konnte die Wellenlänge bestimmt und davon ausgehend die Wassertiefe berechnet werden. Es wurde Infrarotfilm eingesetzt, um grüne Vegetation zu erkennen und von Tarnnetzen zu unterscheiden. Satellitenbasierte Fernerkundung kann auf die Frühzeit des Weltraumzeitalters mit russischen und amerikanischen Programmen zurückgeführt werden. Diese Raketen trugen automatische Still- oder Fimkameras, die während des Aufstiegs Aufnahmen machten.

Sie erreichten aber nie eine Umlaufbahn. Colwell forcierte besonders die Verwendung von Farbinfrarotfilmen für die vegetationskundliche Forschung. Der Einsatz derartig neuer Techniken erwies sich auch für die anderen Geodisziplinen vorteilhaft Bodenkunde, Geologie, Geomorphologie, Kartographie etc. Mit fortschreitender technischer Entwicklung fanden in den sechziger Jahren neue Abtast-Systeme engl.: SAR zunehmend in der Geofernerkundung Anwendung.

Etwa 10 Jahre später wurden experimentell Computer zur einfachen Bildanalyse eingesetzt. Die traditionelle analoge Luftbildinterpretation war somit nur noch eine Teildisziplin der zunehmend digitaler werdenden Geofernerkundungsmethodik. Heute werden ein Grossteil der Standard-Luftaufnahmen bereits durch digitale Reihenmesskameras gewonnen.

Ebenfalls Anfang der 60er Jahre des vorigen Jh. Für nicht an wetterkundlichen Informationen interessierte begann diese Ära - und damit auch bald die allgemeine Verwendung der Begriffe " Remote Sensing " bzw. Seitdem folgten eine Vielzahl unterschiedlichster Spezialsatelliten, welche z. Mit dem Einsatz von Satelliten wurde parallel auch die Kommunikationstechnik revolutioniert, welche es erlaubt, die vom Erderkundungssatelliten gewonnen Daten rasch nahezu überall auszuwerten.

Heute werden fast monatlich neue Satelliten in ihre Umlaufbahnen gebracht, von denen man sich Aufschlüsse über komplexe Umweltpobleme erhofft - in einer Zeit der zunehmenden Globalisierung von Umweltproblemen wird dieser Ansatz immer wichtiger.

Aber ohne Zweifel spielte schon sehr früh der militärische Einsatz von Fernerkundungsdaten eine wichtige Rolle bei der technologischen Entwicklung. Die Beobachtung und Einschätzung gegnerischer Streitkräfte, die Überwachung eigener, im Ausland stationierter Truppen, die Kontrolle von Abrüstungsvereinbarungen beeinflussten taktisch-strategische, wie auch politische Entscheidungen.

Auf eine Phase euphorischer Überschätzung der Möglichkeiten der damaligen FE folgte zunächst eine Ernüchterung angesichts der tatsächlich noch vorhandenen Nutzungsprobleme. Hinzu traten die Verknüpfungsmöglichkeiten verschiedener FE -Daten untereinander und mit anderen Daten in geographischen Informationssystemen sowie die Schaffung abgeleiteter Produkte. Gleichzeitig erfolgte der Übergang von experimenteller zu operationeller und damit wirtschaftlicher Datennutzung.

Aktuell sind zwei Trends auszumachen, die einen zunehmend vielseitigen Einsatz erlauben:. Zur Bildergalerie Geschichte der Fernerkundung. Schlüsselvariablen für die Beeinträchtigung der menschlichen Gesundheit sind u. Dürren können zu Unterernährung und zu lebensbedrohlichen Wald- und Buschbränden führen, Staubstürme und Smog verursachen oft Atemwegserkrankungen, Algenblüten verunreinigen Nahrungsmittel aus dem Meer.

Ferner sind Klimawandel und extreme Wetterereignisse mit einer Vielzahl von Gesundheitsrisiken verbunden. Dazu treten zivilisatorisch bedingte Gesundheitsrisiken wie Ölunfälle, Brände aufgrund kriegerischer Auseinandersetzungen usw.

Beispielsweise lassen sich georäumliche Informationen bezüglich vektorübertragener Krankheiten, bei denen die Krankheitsvektoren bestimmte Ansprüche an ihre Lebensräume stellen - so Anopheles-Arten für Malaria und Dengue oder das Verbreitungsgebiet für Zecken Feuchte, Defragmentation von Waldgebieten - mittels Fernerkundung ermitteln.

Die Fernerkundungsdaten können dann neben anderen Daten zur Modellierung herangezogen werden. So leisten Anwendungen von z. Hierbei kann es sich um die Beschreibung und Erklärung raumbezogener Variationen von Krankheit, um die Planung von Gesundheitseinrichtungen handeln oder oder um eine verbesserte Gesundheitsprävention handeln. Durch Nutzung von Erdbeobachtung kann man z. Im Kontext Allergien erlaubt die Fernerkundung die Charakterisierung des Beginns der Pollenflugsaison und zeigt zudem regionale Differenzen eindeutig auf.

Ziel ist es durch die Verschneidung unterschiedlicher Informationen Pollenflugvorhersagen zu erstellen, um hierdurch die Patienten effektiv warnen zu können. Im Bereich Asthmaprävention kann die Fernerkundung zudem wichtige Informationen über die Feinstaubbelastung liefern. In der Krankheitsökologie, die auch als geographische Epidemiologie bezeichnet wird, werden GIS zur Identifizierung möglicher Gesundheitsprobleme, zum Nachweis signifikanter räumlicher Muster von Krankheitsfällen sowie zur geographisch-ökologischen Analyse, bei der Gesundheitsdaten und Risikofaktoren der physikalischen, chemischen, biologischen oder sozialen Umwelt räumlich miteinander verknüpft werden, genutzt.

Die wohl bekannteste historische Karte zur Aufklärung von Krankheitsverbreitungen ist die des Arztes John Snow Anhand der Kartierung der örtlichen Wasserversorgungsverhältnisse konnte im Jahr die Ursache der Cholera in London, in diesem Fall die Kontamination einer öffentlichen Pumpe, enthüllt werden. Heute werden GIS im Rahmen der Krankheitsökologie zur Überwachung von Infektionskrankheiten, in der Krebsepidemiologie oder eben auch beispielsweise zur Analyse von Mortalitätsunterschieden in der Bevölkerung genutzt.

Insofern berühren hydrologische Fragestellungen Bereiche wie Trink- Wasserwirtschaft, Energiewirtschaft, Landwirtschaft, Schifffahrt z.

Eisbergwarnung , Raumplanung, Umweltschutz, Erosionsschutz und Katastrophenmanagement, z. Die zur Bearbeitung der Fragestellungen und zur Entwicklung von Simulationsmodellen nötigen Datengrundlagen können durch unterschiedlichste Mess- und Analysemethoden konventionelle Pegelmessungen, Niederschlagsmessungen, Geophysik, Gravimetrie , Fernerkundung , Geochemie usw.

Neben hydrologisch-meteorologischen Variablen sind dabei auch Hintergrundinformationen über Relief, Landnutzung, Gewässernetz essentiell. Ein Teil davon verdunstet als Wasserdampf und gelangt in die Atmosphäre.

Ein vergleichsweise kleiner Teil wird durch Sublimation zu Wasserdampf, wenn es aus Eis oder Schnee direkt vom festen in den gasförmigen Zustand Wasserdampf übergeht.

Dazu tritt Wasserdampf, der von Pflanzen abgegeben wird Evapotranspiration oder aus Böden verdunstet. Die aufsteigende Luft verbreitet den Wasserdampf in der Atmosphäre, wo die kühlere Temperatur den Waserdampf zur Kondensation, zur Eis- und zur Wolkenbildung bringt. Luftströmungen sorgen für globale Wasserdampftransporte, Wassertröpfchen und Eiskristalle in den Wolken kollidieren, wachsen und fallen als Niederschlag aus den Wolken.

Ein Teil des Niederschlags fällt als Schnee und kann in Eiskappen und in Gletschern akkumulieren und so gefrorenes Wasser für Tausende von Jahren speichern. In wärmeren Klimaten bilden sich nur saisonale Schneedecken, die im Frühjahr abtauen und über Flüsse ins Meer gelangen. An bestimmten Stellen kann Grundwasser als Quellen den Untergrund verlassen. Der globale Wasserkreislauf ist ein zentraler Prozess des Systems Erde , da er jede physikalische, chemische und ökologische Komponente betrifft.

Klimawandelbedingte oder durch Landnutzungsänderungen verursachte Veränderungen in diesem Kreislauf gehören zu den wichtigsten Themen, denen sich die Geowissenschaftler und Umwelt-, wie auch Sozialpolitiker gegenüber sehen. Wasserbezogene politische Entscheidungen werden häufig getroffen, ohne alle Folgen zuverlässig abschätzen zu können. Die Kreisläufe von Energie und Wasser haben offensichtliche und bedeutende Auswirkungen auf die Gesundheit und den Wohlstand der Gesellschaft.

Das gesamte Programm umfasst den Transfer von wissenschaftlichen Erkenntnissen und neuen Einsatzmöglichkeiten hin zur akademischen und auch allgemeinen Bildung sowie zu praktischen Anwendungen. Wegen der Komplexität des globalen Wasserkreislaufes sind langfristige Beobachtungsreihen nötig, um sein Verhalten zu charakterisieren.

Eine Anzahl wichtiger Parameter muss erfasst werden:. Chinas Huanghe ist der sedimentreichste Flus der Erde. Dieses gering verfestigte Sediment kann leicht erodiert werden, und so werden jährlich Millionen von Tonnen vom Huanghe weggetragen. Während der vergangenen 2. Seit der Mitte des Zwischen und ist das Delta länger und enger geworden, einer nach SO gerichteten Biegung folgend.

Um mittleres Bild haben Erosion und Ablagerungen entlang des alten Kanals dazu geführt, dass sich die Spitze des Deltas zurückbildete, während sich im NO eine neue Halbinsel bildete. Die neue Halbinsel wuchs im nächsten 5-Jahresintervall in die Breite, und Aquakulturen, die als dunkle Rechtecke erkennbar sind, expandierten deutlich in Gebieten südlich des Flusses.

Bis war der Küstenbereich nordwestlich der neuen Mündung deutlich aufsedimentiert. Das war wohl das Ergebnis, das die Ingenieure erzielen wollten: Im Gebiet nordwestlich der frisch gesicherten Küstenlinie liegen ausgedehnte Öl- und Gasfelder, und deren Schutz ist ein vorrangiges Anliegen.

Der Wasser- und Sedimentzustrom in das Delta ist seit den er Jahren deutlich zurückgegangen, was sowohl auf geringere Niederschläge zurückzuführen ist, wie auch auf den explosionsartig gestiegenen Wasserbedarf durch Landwirtschaft und Siedlungen in den flussaufwärts liegenden Gebieten. In den er Jahren fiel der Fluss häufig trocken, bevor er das Delta erreichte. Sie schädigen Feuchtgebiete und Aquakulturen schwer und verschlimmern das ohnehin schon ernsthafte Problem der Wasserverschmutzung. Ironischerweise verstärken sie auch das Hochwasserrisiko, denn bei niedrigem Wasserstand lagern sich im Flussbett leichter Sedimente ab.

Dadurch erhöht sich das Flussbett. In manchen Abschnitten liegt es bis zu 10 m über der umgebenden Flussaue. Ein Dammbruch bei hohem Wasserstand hätte hier verheerende Wirkungen. Die Rolle von Erdbeobachtungssatelliten bei der Gewässerfernerkundung Erdbeobachtungssatelliten spielen eine wesentliche Rolle in der Bereitstellung von Informationen zur Untersuchung und zum Monitoring des Wasserkreislaufes und sind ein wichtiges Element der Beobachtungsstrategie.

Satellitendaten schaffen viele Möglichkeiten, die Menge und Qualität an Informationen zu erhöhen, die für die Wasserwirtschaft nötig sind.

Ihre globale Natur trägt auch dazu bei, die Datenkontinuität für grenzüberschreitende Einzugsgebiete zu gewährleisten, wo vollständige, gemeinsame und einheitliche Informationen möglicherweise schwer zu erhalten sind. Daten zu Lufttemperatur, Wasserdampf und Wolken werden seit Jahrzehnten operationell von polarumlaufenden Satelliten geliefert.

Temperaturkarten der Wasseroberfläche helfen bei der Einschätzung des hydrodynamischen und biologischen Zustands, der Wettervorhersage, der Lokalisierung von Frontensystemen, der Beladung von Schiffen Tiefgang abhängig von Dichte , der Suchdauer nach Schiffbrüchigen, der Erfassung langfristiger globaler Klimatrends und vielem mehr. Jeder Körper emittiert Strahlung entsprechend seiner Temperatur.

Die Meeresoberfläche emittiert im thermalen Infrarot- und im Mikrowellenbereich. Zur Bestimmung der Meeresoberflächentemperatur werden diese Emissionen von passiven hochauflösenden Radiometern gemessen. IR-Sensoren und Mikrowellenradiometer sind beide unabhängig von der Tageszeit einsetzbar. Während IR-Sensoren Wolken nicht durchdringen können, arbeiten Mikrowellenradiometer nahezu unabhängig von den Wetterverhältnissen Ausnahme starker Regen.

Höhere Flächenauflösungen werden jedoch von IR-Sensoren bzw. Gleichzeitig soll ein optimales und aktuelles SST-Produkt für den allg.

Gegenüber den längst etablierten Wettervorsagemodellen haben die Ozeanmodelle noch deutlichen Nachholbedarf. Dies liegt nicht zuletzt an der Uneinheitlichkeit der Datensätze von unterschiedlichen Satellitensystemen mehrerer Weltraumagenturen.

Keiner dieser Datensätze alleine genügt den Qualitätsanforderungen der Modelle. Dies ist nur möglich durch die Kombination der Leistungsfähigkeit von verschiedenen Sensortypen. Niederschlag ist ein Schlüsselparameter innerhalb des Wasserkreislaufs.

Wolken- und Niederschlagssysteme haben einen eher zufälligen Charakter und entwickeln sich sehr schnell, besonders im Bereich sommerlicher Konvektionszellen. Diese Faktoren machen eine Quantifizierung der Wolkenbildung und des Niederschlags schwierig.

TRMM war der erste für Niederschlagsmessung konzipierte Satellit und ist gegenwärtig der einzige Satellit, der ein Wetterradar trägt. All diese Missionen wenden Mikrowellen-basierte Technologien an, entweder passive Fernerkundungssensoren oder Wetterradar. Bodenfeuchte und Ozeansalinität sind wichtige Parameter, da sie wesentlich zum Verständnis der Energiebilanz zwischen der Erdoberfläche und der Atmosphäre beitragen. Bislang werden Oberflächensalzgehalte durch in situ- Messungen an Messstationen, Bojen und Floatern geliefert.

Die Bestimmung erfolgt über die Leitfähigkeit oder durch Refraktometer. Informationen zur Evapotranspiration werden von einer Reihe von Satellitendaten-gestützten Modellen abgeleitet, die den Austausch von Wasser und Energie zwischen Erdoberfläche und Atmosphäre beschreiben. Dabei werden in die Modelle Daten von Sensoren eingegeben , die im sichtbaren und thermalen Bereich arbeiten.

Radaraltimetrie wird zunehmend zur Messung des Wasserspiegels in Seen und Flüssen eingesetzt werden. Bis zum Anfang des Aufwändige Messfahrten lieferten einen kleinen Einblick in die topographischen, physikalischen, chemischen und biologischen Verhältnisse in den Weltmeeren. In Luft- und Raumfahrt wurden Sensoren entwickelt, die keinen direkten Kontakt zum untersuchten Objekt mehr benötigen, sondern dieses berührungsfrei nach diversen Parametern "aus der Ferne erkunden".

Über dem Wasser können Fernerkundungsinstrumente an der Küste oder auf Meeresplattformen, Schiffen, Hubschraubern, Flugzeugen oder Satelliten installiert sein.

Zu den marinen Fernerkundungsmethoden zählt neben der Messung elektromagnetischer Strahlung auch die Vermessung des Ozeans mit akustischen Instrumenten, die sich im Wasser befinden und über Schallwellen arbeiten Hydrophone; Ocean Acoustic Tomography.

Meereis emittiert signifikant mehr EM-Strahlung als der umgebende Ozean; die Helligkeitstemperatur ist in allen Frequenzen höher. Auch kann das Alter des Meereises aufgrund von Veränderungen der Oberflächenrauhigkeit und des Salzgehaltes, bedingt durch Tau- und Gefrierprozesse, in neues, einjähriges und mehrjähriges Eis eingeteilt werden. In mehrjährigem Eis sind mehr Luftblasen eingeschlossen, welche die Streuung erhöhen und das Signal stärker depolarisieren. Ebenfalls kann mit passiven Sensoren die Eisdicke bis etwa cm geschätzt werden, und es können Aussagen über die prozentual von Eis bedeckte Fläche, z.

Schwierigkeiten bei der Eisbestimmung erfolgen, wenn sich Schmelzwasser auf dem Eis bildet oder eine Schneedecke auf dem Eis aufliegt. Häufig werden Messungen aus mehren Systemen kombiniert, um detaillierte Eiskarten zu erstellen. Die Karte zeigt das Meereis-Minimum des Jahres , welches am 8. Zum Vergleich sind die Meereis-Minima vom September und die durchschnittlichen Minima der Jahre bis als rote bzw.

Die Ausdehnung des Meereises im Jahr ist nur ca. Neben der Bestimmung von Oberflächentemperatur, Salzgehalt, Eisbedeckung, Meeresspiegel und Wellenhöhe lassen sich über Messung der Oberflächenrauigkeit Erkenntnisse über Wind- und Strömungsverhältnisse erzielen. Es gibt drei Gruppen von fernerkundbaren Wasserinhaltsstoffen:. So umfangreich wie Datenerfassung und -verarbeitung sind auch die Möglichkeiten der Nutzung: Der Ölaustritt ist als verquirlte dunkelgraue Fläche rechts unten erkennbar.

April um Oberflächenfilme sind dünne Schichten von Materie auf der Meeresoberfläche. Diese können natürlichen Ursprungs sein, beispielsweise durch Algenblüten produziertes organisches Material, oder künstlichen Ursprungs Schifffahrt, Bohrungen.

Ihr häufiges Auftreten und ihr ökologischer Einfluss rücken sie in den Mittelpunkt der Forschung. Kapillarwellen werden durch Ölfilme abgedämpft und die Oberfläche geglättet. Die Rückstreuung von Radarstrahlen wird massiv verringert, so dass Ölfilme im Radarbild als dunkle Flecken erscheinen. Bei geignetem Sonnenstand können auch optische Sensoren Aufschluss über Ölverschmutzungen geben.

Die Genauigkeit der Satellitenmessungen reicht noch nicht an die von in situ - Messungen heran, doch die Verfügbarkeit von kontinuierlich und erdumspannend messenden Systemen wiegt diesen Nachteil auf. Steckt beispielsweise die Bestimmung des Oberflächensalzgehaltes mittels Fernerkundung noch in den Kinderschuhen, so wird sie bei der Bestimmung von ozeanischer Oberflächentemperatur, Topographie, Wellenhöhe und Wasserinhaltstoffe etc.

Für die Bestimmung der Eisbedeckung und für die Detektion von Oberflächenfilmen z. Öl ist die Fernerkundung nahezu unersetzlich. Färbung der Ozeane , Temperatur , Rauhigkeit und Höhe. Die Färbung ist bis wenige Meter Tiefe messbar, die drei anderen Parameter werden nur an der Oberfläche selbst definiert. Obwohl die Möglichkeiten der Fernerkundung dadurch beschränkt erscheinen, haben viele Phänomene in tieferen Schichten des Ozeans Auswirkungen auf diese Parameter und hinterlassen eine erkennbare Oberflächensignatur.

Fernerkundungssensoren sind spezifisch auf einen kleinen Aspekt der Informationsgewinnung beschränkt. Die Güte und Bandbreite der Informationen, die aus Fernerkundungsdaten gezogen werden können, sind direkt abhängig von der Genauigkeit und Charakteristik der Messinstrumente. Zur Datenanalyse und Interpretation werden ferner Kenntnisse über den Weg des Informationsflusses benötigt: In Deutschland befasst sich neben privaten Firmen, wie z. Dabei ist sie im Rahmen ihrer wissenschaftlichen Arbeiten und durch Forschungs- und Anwendungsprojekte mit einer Vielzahl von Partnern, darunter wissenschaftlichen Einrichtungen, wie auch Anwenderinstitutionen, vernetzt.

Als Datenquellen werden verschiedene spektral hochaufgelöste und hyperspektrale optische Sensoren und Synthetik-Apertur-Radar auf nationalen und internationalen Fernerkundungssatelliten genutzt. Aus diesem Grund können aus optischen Fernerkundungsdaten Aussagen über die Eigenschaften des Wasserkörpers, genauer Art und Konzentration verschiedener Wasserinhaltsstoffe, bzw.

Eigenschaften des Untergrundes abgeleitet werden. Dazu müssen feine "Farb"-Nuancen festgestellt und quantifiziert werden. Dies geschieht durch Vermessung der Strahlung in hinreichend vielen, schmalen Spektralkanälen mittels Spektrometern.

Während an Bord von Schiffen oder im Wasser selbst nicht abbildende Sensoren zum Einsatz kommen, werden auf Flugzeugen und Satelliten sogenannte abbildende Spektrometer eingesetzt, die für jeden Spektralkanal auch ein Bild über eine räumliche Abbildung liefern.

Die Fernerkundung ist hierbei die einzige Technologie um die hohe räumliche und zeitliche Dynamik von Gewässern beobachten zu können. Eine hinreichend dichte und gleichzeitig flächendeckende Beobachtung mittels Bojen oder Schiffen ist praktisch nicht realisierbar.

Je nach Art und Konzentration dieser Stoffe verändert sich das Spektrum. Die Hauptgruppen fernerkundbarer Wasserinhaltsstoffe sind Phytoplankton an Hand verschiedener Pigmente , organischer und anorganischer Schwebstoff sowie gelöste organische Substanzen.

Dies geschieht durch die Nutzung von Strahlungstransportmodellen. Mit diesen Modellen lassen sich die erwarteten Messdaten je nach Situation oder Beobachtungsgeometrie simulieren und können zur Entwicklung und Optimierung von Fernerkundungsalgorithmen genutzt werden. Radar ist ein aktives Instrument, ein Allwetterauge. Die Ergebnisse werden in Experimenten und Schiffsexpeditionen z. Seewettervorhersage zu verbessern und die Anzahl oder die Schwere von Schiffsunfällen zu vermindern. Dies wird zur Ölerkennung genutzt.

Radar-Überwachung auch vom Satelliten hat wesentlich dazu beigetragen, dass die Ölverschmutzung in europäischen Gewässern zurück gegangen ist. Differentielle Veränderung des Gravitationsfeldes an einem ausgedehnten Himmelskörper wie der Erde - zu beobachten mittels einer Probemasse - durch eine 'dritte Masse'. So sind die Flieh- und Anziehungskräfte der sich gegenseitig umlaufenden Erde, Sonne, Mond insgesamt im Gleichgewicht, variieren jedoch über die Erde und wegen des Umlaufes auch mit der Zeit Lunisolargezeiten ; dabei treten etwa halbtägige und ganztägige Gezeitenwirkungen hervor.

Eine quantitative Beschreibung bedient sich insbesondere des Gezeitenpo-tentials und der spezifischen Gezeitenkräfte in Schwereeinheiten. Die Gezeitenwirkung kann man direkt aus der Position der Himmelskörper relativ zum Ort auf der Erde zu einem Zeitpunkt berechnen, meist benutzt man jedoch Kugelfunktionsentwicklungen in Gezeitenmodellen. Über die gravitative Kopplung von Mond und Erde bzw.

In diesem niedrigen Orbit reagierte seine Flugbahn sehr empfindlich auf Änderungen der Anziehungskraft. Seine Positionsbestimmung erfolgte mit dem hochempfindlichen SLR. Mit Hilfe verschiedener aktueller und frei zugänglicher Publikationen werden Informationen für ggf.

It precisely measured the time it took for a short pulse of laser light to travel to the reflecting object and return to the satellite. Aus zunächst staatlichen oder regionalen Initiativen zum Gletschermonitoring besonders in der Schweiz und Österreich entwickelten sich im Staatliche Einrichtungen und geowissenschaftliche Institute komplettieren heute die Beobachtungsnetzwerke.

Bezüglich der Längenmessungen werden beispielsweise von über österreichischen Gletschern vom Österreichischen Alpenverein auch heute noch an rd. Die Methode ist einfach und erfordert keine aufwändigen Instrumente. Gletscher sind durch Änderungen ihres Massenhaushaltes im Zeitrahmen von wenigen Jahren bis zu einigen Dekaden gute Indikatoren für Klimaveränderungen.

Sie sind daher ein wichtiger Forschungsgegenstand der Klimaforschung. Eine vollständige Inventarisierung der Landeismassen und eine systematische Beobachtung des Gletscherverhaltens hat bislang jedoch nur in einigen Teilen der Welt Europa, Nordamerika und Grönland stattgefunden. Die weltweite Sammlung von Informationen über Gletscheränderungen wurde mit der Gründung der Commission Internationale des Glaciers beim 6.

Internationalen Geologie-Kongress in Zürich begonnen. Er unterhält ein Netz von lokalen Beobachtern und nationalen Korrespondenten in allen Ländern, die sich mit Gletschermonitoring befassen.

Ein erster Versuch ein weltweites Gletscherinventar zusammenzustellen begann in den siebziger Jahren des vergangenen Jahrhunderts vor allem auf der Basis von Luftaufnahmen und Karten. Bis heute erwuchs daraus ein detailliertes Inventar von mehr als Die nicht erfasste Fläche wird auf ca.

Heute wird die Inventurarbeit vornehmlich mit Hilfe von Satellitenbildern fortgesetzt. Die Forscher stützten sich auf Bildmaterial von mehreren Satelliten wie Landsat, Terra und Aqua um eine umfassende Vorstellung von den Veränderungen der Eismassen an beiden Polen zu erhalten.

Er hat sich über die vergangenen Jahre mehr als 45 km zurückgezogen, 10 km alleine in der letzten Dekade. Beim Zurückweichen zerbrach er in einen nördlichen und einen südlichen Zweig.

Wissenschaftler gehen davon aus, dass ca. Im Übrigen sorgen sich die Wissenschaftler mehr um die Verluste des südlichen Zweiges des Jakobshavn-Gletschers, da die Topographie hier flacher und tiefer ist als beim nördlichen Zweig. Das Hauptinteresse im Gletscher-Monitoring liegt dabei nicht nur auf der räumlichen Ausdehnung eines Gletschers, sondern auch auf dessen Topographie.

Digitale Geländemodelle können aus diversen Daten abgeleitet werden, wie z. Die wichtigsten Bänder für glaziologische Anwendungen sind die im sichtbaren Bereich, im nahen und im kurzwelligen Infrarot.

Sie ermöglichen die automatisierte Kartierung von Eis- und Schneeflächen. Zusätzlich zu diesen Bändern, die im Senkrechtaufnahme-Modus arbeiten, hat ASTER auch einen rückwärts blickenden Stereosensor, der zusammen mit den Daten der Senkrechtaufnahmen eine photogrammetrische Darstellung der Gletschertopographie und ihre zeitliche Entwicklung ermöglicht.

In jüngerer Zeit rückt verstärkt die Beobachtung von unterschiedlichen Arten eisfremden Materials auf den Gletscheroberflächen in den Fokus. Solche Informationen über die geochemische Zusammensetzung von Debris im weiteren Sinne können möglicherweise helfen, Fragen über die Auswirkung des Klimawandels auf Gletscher zu beantworten s.

Seine Fähigkeit, auch Infrarotstrahlung zu erfassen, erweitert die Arbeitsbereiche auf Chlorophyllgehalt, organische Substanz, Vegetationsindex, Temperatur, Schnee- und Eisbedeckung und Wolkenverteilung. Diese Daten dienen dem Verständnis des globalen Kohlenstoffkreislaufes und von Klimaänderungen. Diese vermögen wichtige Einzelheiten von Naturgefahren darzustellen, z.

Lawinen- und Schuttstromspuren, Gletscherspalten, Seen und die zeitlichen Veränderungen dieser Erscheinungen. Die satellitengestützten Beobachtungen werden durch flugzeuggetragene Systeme und in situ -Beobachtungen z.

Die aktuellen Satellitenbilder werden verglichen mit topographischen Karten und anderen Dokumenten über Gletscherstände. Die Aufnahmen erfolgen vorwiegend vom mittleren bis zum späteren Teil der Abschmelzsaison, dann ist das permanente Eis exponiert und dokumentierbar. Die Gletscherseen sind Beleg für den alarmierend raschen Rückgang der Himalayagletscher. Die Seen haben für den Schmelzvorgang einen selbstverstärkenden Effekt: Eis reflektiert die Sonnenstrahlen, wohingegen das Wasser die Wärme absorbiert, zum unterliegenden Eis überträgt und so weiteres Abschmelzen bedingt.

Veränderungen der Gletscher können Gefahren für nahegelegene menschliche Gemeinschaften darstellen. Es ist noch ungeklärt ob einige dieser Gefahren zum normalen Verhalten von Gletschern gehören oder ob sie dramatische neue Bedrohungen von Seiten einer sich verändernden Kryosphäre ankündigen. Das System betreibt kein eigenes Beobachtungsnetz, sondern besitzt eher Impuls gebenden und koordinierenden Charakter.

Es gibt weitere Klimavariablen, die für das umfassende Verständnis des Klimasystems nötig sind, und die auch Gegenstand aktueller Forschung sind, die aber noch nicht auf systematischer Basis in die weltweite Datenerhebung eingebunden werden können.

Zusätzlich zur Wetterbeobachtung durch Satelliten bedarf das GCOS der Beobachtung von boden- und luftgestützten Plattformen aus, die sowohl in situ beobachten, wie auch mit Fernerkundungsmethoden arbeiten. Diese Informationen führen dann durch Analyse und zeitliche wie auch räumliche Integration zu meteorologisch-klimatologischen Produkten.

Measurements of variables in bold type are largely dependent on satellite observations. Die GCW liefert zuverlässige, klare und direkt verwendbare Daten, Informationen sowie Analysen des vergangenen, aktuellen und künftigen Zustands der Kryosphäre , wobei sie verschiedene Dienste für die Nutzer der Daten, für Medien, die Öffentlichkeit und für Entscheidungsträger bereitstellt und so den Bedürfnissen der Mitglieder und Partner der WMO entspricht.

Timeline of satellites used for measuring and monitoring the cryosphere, as of January GCW data include basic measurements and higher-level products, both satellite and in situ.

The satellite observing system for the cryosphere is robust, as shown in the figure to the right. GCW is utilizing the many satellite products that exist in order to provide higher-level information and services. Although there are many satellites and sensors that measure the cryosphere, not all methods for estimating snow, ice, and permafrost properties are mature.

The list to the left gives a qualitative assessment of current capabilities for measuring the cryosphere from space. Die von 61 Staaten und 40 Internationalen Organisationen getragene Gründung des Gremiums folgt der Einsicht, dass einzelne Staaten, Agenturen oder Programme den Bedürfnissen der Erdsystemforschung und deren gesellschaftsorientierter Nutzanwendung nicht getrennt entsprechen können.

Der Aufbau von GEOSS unterstützt administrative und politische Entscheidungen, wissenschaftliche Forschung sowie öffentliches und privatrechtliches Handeln bei der nachhaltigen Entwicklung. Ein zehnjähriges Umsetzungsprogramm wurde im Februar auf dem 3. Erdbeobachtungsgipfel in Brüssel beschlossen. Es erfolgt eine enge Zusammenarbeit mit dem Deutschen Wetterdienst. Sie bündelt und vertritt die europäischen Gemeinschaftsinteressen in der GEO. Das globale geodätische Beobachtungssystem der Internationalen Assoziation für Geodäsie IAG ist ein begonnenes internationales Projekt der Geodäsie und anderer Geowissenschaften, das auf ein konsistentes interdisziplinäres Erdmodell und eine Vernetzung verschiedener satellitengestützter Methoden der Erdbeobachtung hinzielt.

Es soll unser Verständnis des dynamischen Systems Erde zu befördern, indem es dazu beiträgt, die Veränderungen unseres Planeten in Raum und Zeit zu quantifizieren. Dazu hat es sich folgende Aufgaben gegeben:. Hier sind zum einen die geodätischen Beobachtungsverfahren zu nennen.

Wichtige Gruppen sind die sogenannten geometrischen Raumbeobachtungsverfahren, z. Dritter Bestandteil sind die Modelle der Dynamik des Systems Erde und seiner Teilsysteme, die sich je nach Sensitivität in den geodätischen Parametern abbildet. Beispiele sind die Variationen der Erdrotationsparameter, die unter anderem auf Meeresströmungen zurückzuführen sind, und die Variationen der Erdschwerefeldparameter, an denen sich hydrologische Veränderungen erkennen lassen.

Neben der wissenschaftlich-modellhaften Verknüpfung der drei genannten Elemente ist auf technologisch-organisatorischer Ebene deren Abbildung in geeigneter Prozesse Workflows erforderlich.

In Deutschland wird eine andere Variante als Unbemanntes Luftfahrzeug engl. Beide Exemplare sind auf dem Neil A. Zur Erreichung der Ziele ist der Aufbau eines Systems von ca. Dies führt zu einem effektiveren und umfassenderen Informationsgewinn. Darüber hinaus werden neue Satelliten, aber auch erd- und luftgebundene Kapazitäten, mit unterschiedlichen Spezialfähigkeiten für die Erdbeobachtung entwickelt.

Globales Navigationssatellitensystem ; allgemeine Bezeichnung für ein weltweit verfügbares System zur Positions- und Zeitbestimmung und Navigation auf der Erde und in der Luft durch den Empfang der Signale von Navigationssatelliten und Pseudoliten.

GNSS ist ein passives System, d. Das chinesische System BeiDou befindet sich im Aufbau. Schon bevor das amerikanische GPS im Jahr voll funktionstüchtig war, wurden die global und kontinuierlich verfügbaren Signale für geowissenschaftliche Anwendungen eingesetzt. Beispiele dafür sind das präzise Aufzeichnen der Bewegung der Kontinentalplatten mit einer Genauigkeit von einigen Millimetern pro Jahr, regionale und globale Atmosphärensondierung zur Verbesserung von Wetter- und Klimavorhersagen sowie die Fernerkundung von Wasser-, Eis- und Landoberflächen.

In den Seegebieten wurden vermehrt automatische Messstationen auf Boje n verankert oder driftend eingesetzt. The coordinated system of methods and facilities for making meteorological and other environmental observations on a global scale in support of all WMO Programmes; the system is comprised of operationally reliable surface-based and space-based subsystems.

The GOS comprises observing facilities on land, at sea, in the air and in outer space. These facilities are owned and operated by the Member countries of WMO each of which undertakes to meet certain responsibilities in the agreed global scheme so that all countries can benefit from the consolidated efforts.

Bodennahe Wetterbeobachtung in ca. Wetterbeobachtung auf den Ozeanen erfolgt von Schiffen aus, sowie von verankerten oder frei treibenden Bojen und stationären Plattformen. Die Datenbereitstellung dient insbesondere der Entwicklung von globalen und regionalen Modellen.

Die Endausbaustufe wurde erreicht. Die Lebensdauer der Satelliten ist auf 10 Jahre ausgelegt, sie werden bei Bedarf ersetzt. Das Messprinzip ermöglicht den Einsatz sowohl für feste Beobachtungsaufstellung, als auch für bewegte Messträger wie Personen, Fahrzeuge und Satelliten. Die Satellitenkonfiguration besteht nominell aus 24 Satelliten in einer Bahnhöhe von Die Satelliten vollziehen zwei komplette Erdumläufe in weniger als 24 h.

Das Navigationsprinzip beruht auf der gleichzeitigen Messung sog. Dazu senden die Satelliten auf zwei Trägerfrequenzen kodierte Signale sowie die vom Kontrollsegment bestimmten Broadcastephemeriden zur Berechnung der Satellitenpositionen aus. Aus den jeweiligen Satellitenpositionen und den aus der Laufzeitmessung durch Multiplikation mit der Ausbreitungsgeschwindigkeit ermittelten Pseudoentfernungen wird empfängerintern in Echtzeit oder durch nachträgliche Bearbeitung der aufgezeichneten Daten die Nutzerpositionen berechnet.

Wegen der Bedeutung der genauen Laufzeitmessung der Satellitensignale sind die Satelliten mit hochpräzisen Uhren ausgestattet, die eine Genauigkeit von unter 3 Nanosekunden besitzen. Je nach Messanordnung, Satellitenkonfiguration, Signalnutzung und Fehlermodellierung lassen sich sehr unterschiedliche Genauigkeiten erzielen.

Wesentliche Fehlerquellen sind die verfügbaren Bahninformationen, die Signalausbreitung in der Atmosphäre sowie in der Antennenumgebung und die aus militärischen Gründen eingeführte Signalverschlechterung. Mit einem einzelnen Empfänger wird für zivile Nutzer Handgerät meist eine Genauigkeit von ca.

Mit der Verarbeitung von mindestens 3 Satellitensignalen kann eine Standortbestimmung erfolgen. Mindestens 4 Signale sind erforderlich, um zusätzlich die aktuelle Höhe über Null zu bestimmen.

Flächenvermessung, Positionsbestimmungen zur GPS-gestützten Bodenprobenahme, Bonitierungen in Flächen oder Unkrautkartierungen, Routenplanung und Flottenmanagement, exaktes Anschlussfahren oder Fahrspuraufzeichnung zur Dokumentation von Arbeiten sind denkbare Anwendungen in der Landwirtschaft. Differentielle Korrekturdaten werden von einer sog.

Internationales Programm, das weltweit Pegelstationen zur Messung des Meeresspiegels vernetzt. Die standardisierten Informationen über die Meeresspiegelhöhe sind ein wichtiger Indikator für den Wärmegehalt des Ozeans, der seinerseits das Weltklima beeinflusst.

Programm zur Erforschung und Dokumentation der terrestrischen Ökosysteme in ihrer Dynamik. Es hat das Ziel, Wissenschaft und Politik die für eine nachhaltige Entwicklung nötigen Informationen bereit zu stellen. Dies war nur möglich, da das Satellitengespann auch durch Wolken hindurch und selbst nachts aussagekräftige Daten aufzeichnen kann.

Bisher gibt es keine andere globale Erfassung von Siedlungsstrukturen in dieser räumlichen Genauigkeit. Kleinere Dörfer sind bislang bei weltumspannenden Auswertungen nie erfasst worden, denn die eingesetzten Satelliten boten eine Auflösung von maximal Metern.

Dabei sind kleinteilige Strukturen sehr wichtig, da die zunehmende Zersiedelung in ländlichen Räumen fruchtbare Ackerflächen und Naturräume zerstört. Nach bisherigen Schätzungen sind etwa ein bis drei Prozent der Landoberfläche von Siedlungen bedeckt. Die ersten Ergebnisse der Radardaten-Auswertung zeigen jedoch, dass der Anteil der besiedelten Flächen vielfach unterschätzt wird. Als Ergebnis dieser komplexen, vollautomatischen Auswertung wird die Erdoberfläche in drei wesentliche Bedeckungstypen untergliedert: Durch diese Reduzierung werden die Siedlungsmuster sichtbar und können somit eindeutig auf ihre Eigenschaften und Charakteristika hin untersucht und beschrieben werden.

Die dargestellte Region ist auch in den ländlichen Gebieten zwischen den Städten besiedelt. Optimale Auflösung über Link unten Quelle: Der Datensatz kann zugleich als Ausgangspunkt für ein weltweites Monitoring der historischen sowie der zukünftigen Siedlungsentwicklung dienen. Dies ermöglicht, unter anderem, vergleichende Analysen der Siedlungsdynamik zwischen verschiedensten Regionen der Erde.

Gesamtheit der in den er Jahren von mehreren UN-Organisationen angeregten Programme zur umfassenden und globalen Langzeitbeobachtung von klimabezogenen Phänomenen. Die Fouriertransformation ist ein Beispiel für eine globale Bildverarbeitungsoperation. Beschleunigt werden diese Eingriffe in die natürliche Umwelt durch die anhaltende Ausbreitung nicht nachhaltiger Lebensstile, die anhaltende absolute Armut sowie das Bevölkerungswachstum.

Umweltzerstörung ist daher auch zu einer Sicherheitsfrage geworden. Mit globaler Umwelt- und Entwicklungspolitik, die sich am Leitbild der nachhaltigen Entwicklung orientiert, sollen diese Probleme bewältigt werden.

Das Monitoring des globalen Wandels ist ein ideales Einsatzfeld für Fernerkundungsverfahren s. Fernerkundungsverfahren werden diesen Anforderungen aus mehreren Gründen in besonderer Weise gerecht und sind daher besonders zur Beobachtung von globalen Veränderungen der Erdoberfläche geeignet.

Durch geeignetes Design ihrer Satellitenorbits können Fernerkundungssysteme lange Zeitserien systematisch gemessener globaler Wiederholaufnahmen bereitstellen, die sich ideal zur Identifizierung dynamischer Prozesse eignen. Die Kalibrierung moderner Fernerkundungssysteme ermöglicht es weiterhin, diese dynamischen Prozesse nicht nur zu erkennen, sondern zusätzlich mit geodätischer Genauigkeit zu quantifizieren.

Die Verfügbarkeit globaler Beobachtungssysteme ist eine Grundvoraussetzung für die globale Analyse dynamischer Umweltparameter. Zur Koordinierung dieser global verteilten Beobachtungsprogramme wurden eine Reihe internationaler Gremien und Organisationen ins Leben gerufen, deren Ziel es ist existierende Satellitensysteme zu integrieren, und zukünftige Beobachtungssysteme international aufeinander abzustimmen.

Meyer gibt anhand dreier Beispielstudien einen Einblick in die Bandbreite dieses Themas sowohl in der Fernerkundungsmethodik als auch in der geophysikalischen Anwendung: International übergreifendes Phänomen, welches globale Umweltveränderungen, ökonomische Globalisierung, kulturellen Wandel und ein zunehmendes Nord-Süd-Gefälle umfasst.

Sie unterliegt starken regionalen Unterschieden, da die diffuse Reflexion und selektive Absorption von der Ausprägung unterschiedlicher Faktoren gesteuert wird. Wesentliche Parameter sind die breitenabhängige Länge des Strahlungsweges, der unterschiedliche Gehalt an Wasserdampf und Aerosol in der Atmosphäre sowie der wechselnde Bewölkungsgrad.

Obwohl sich beide Komponenten mit atmosphärischen Bedingungen und Bewölkung stark ändern, ist das Spektrum ihrer Summe für wolkenfreien und bewölkten Himmel relativ konstant. GlobCover ist ein Zweijahresprojekt mit dem Ziel, die mit m Bodenauflösung detaillierteste, frei verfügbare Karte der globalen Landbedeckung zu entwickeln.

Täglich fertigt es durchschnittlich Minuten Bildmaterial mit einer Raumauflösung von Metern an. Mit mehr als 20 unterschiedlichen Oberflächenklassen soll sie auf einzigartige Weise das Antlitz unseres Planeten abbilden. Man rechnet mit einer Datenmenge von ca. Die Daten werden seit September der Öffentlichkeit zugänglich gemacht.

Für dieses Mosaik wurden die wolkenfreien Aufnahmen von Orbits verwendet, die im Mai, Juli, Oktober und November stattfanden. Schüler, Lehrer sowie Wissenschaftler arbeiten gemeinsam daran, durch langfristige Beobachtung umweltrelevanter Parameter ein tieferes Verständnis über das Zusammenwirken der einzelnen Umweltkompartimente Klima, Gewässer, Boden und Vegetation zu erreichen.

Die Erhebung und Auswertung von Umweltdaten erfolgen nach genau definierten Protokollen. Diese wurden von den beteiligten Wissenschaftlern für die Schüler ausgearbeitet. Die politische Zusage Deutschlands erfolgte im gleichen Jahr. Inzwischen beteiligen sich ca. Seine Ziele und Aktivitäten sind nachzulesen auf www. Akronym für G imballed L imb O bserver for R adiance I maging of the A tmosphere; neuartige Infrarot-Kamera, die die von den atmosphärischen Gasen ausgesandte Wärmestrahlung in ihre Spektralfarben zerlegt.

Es ist weltweit das erste einer neuen Generation von Messinstrumenten, die in Zukunft auch auf Satelliten eingesetzt werden sollen. Die Infrarot-Kamera registriert in zehn bis 20 Kilometern Höhe zahlreiche klimarelevante Spurengase, die hier durch atmosphärische Austauschprozesse vertikal und horizontal vermischt werden.

Das Gerät misst diese Prozesse erstmals mit einer sehr hohen räumlichen Auflösung. So wird es für die Forscher möglich, aktuelle Klimamodelle zu testen und zu verbessern. Sichtbare Photonen können nur mit einer begrenzten Menge an Energie zu chemischen Reaktionen beitragen. Diese Energie wird durch Elektronen absorbiert, die an der Reaktion beteiligt sind. Reaktionen jedoch, die weit mehr Energie benötigen, wie die Synthese von Kohlenhydraten beispielsweise, können nur dann stattfinden, wenn mehrere ladungstragende Elektronen zur Verfügung stehen.

Bislang ist es jedoch noch niemanden gelungen, ein synthetisches Mehrfach-Elektronen-System herzustellen, das die notwendige Energie für eine künstliche Photosynthese liefern könnte.

Ein solches System würde aus einem Geber-Molekül, das sichtbares Licht absorbieren und viele Elektronen emittieren kann, sowie einem Empfänger-Molekül bestehen, das in der Lage ist, diese Elektronen zu empfangen und zu speichern.

Bestehende Systeme können nur jeweils ein Elektron nach dem anderen aussenden bzw. Das chinesische Team entscheidet sich dafür, zur Lösung dieses Problems das Elektronen-Empfänger-Molekül in der Photosynthese durch einwandige Kohlenstoff-Nanoröhren zu ersetzen.

Dabei kann ein einzelnes Nanoröhrchen für jeweils 32 Kohlenstoffatome, aus denen es besteht, ein Elektron aufnehmen, wodurch auch ein kurzes Nanoröhrchen eine beträchtliche Anzahl von Elektronen aufnehmen und daher als Empfänger-Molekül einer künstlichen Photosynthese agieren kann. Da aber auch ein Molekül benötigt wird, das Elektronen freisetzt, wenn es sichtbarem Licht ausgesetzt wird, verbinden sie eine Reihe von Phthalocyaninen PCs , von denen jedes ein Elektron freisetzt, nachdem es Licht absorbiert hat, mit den Nanoröhrchen.

Zuerst modulieren sie mit modifizierten Chlorophyll-Molekülen der Spirulina ein halb synthetisches Modell, das einer bakteriellen Lichtantenne ähnelt. Damit erlangen sie eine molekulare Blaupause, welche den effizientesten Licht- Sammler in der Natur imitiert. Der nächste Schritt ist nun einen Weg zu finden, das Licht in Energie umzuwandeln. Hierfür konstruieren die Wissenschaftler eine Elektrode mit einem Enzym, das Glucosemoleküle chemisch oxidiert und einem weiteren Enzym, das Sauerstoff zu Wasser reduziert.

Durch den Versuchsaufbau gelingt es auch erstmals, den Verlauf der Glucosekonzentration während der Photosynthese zu beobachten. Pro Quadratzentimeter sind bei einem Kaktusblatt bis zu 9 W erreichbar, wobei die Ausbeute mit der Lichtintensität steigt.

Den Forschern schwebt nun die Schaffung einer Biotreibstoff-Zelle für medizinische Anwendungen vor, die, unter die Haut eingesetzt, die chemische Energie des Sauerstoffs und der Glucose nutzt, die in Körperflüssigkeiten vorhanden sind, um Strom zu erzeugen. Dies wäre beispielsweise für Sensoren praktisch, die im Körper die Glucose-Werte von Diabetikern mitverfolgen und ein Warnsignal geben, sollte dies erforderlich werden.

Über die Arbeiten von Daniel G. Noceras Credo ist ausgesprochen pressewirksam: Die Öffentlichkeit hört erstmals etwas von dieser Entwicklung, die finanziell von der amerikanischen National Science Foundation und der Chesonis Family Foundation gefördert wird, die im Frühjahr einen Betrag von 10 Mio.

Im Mai wird über die Arbeiten einer interdisziplinären Arbeitsgruppe der University of Miami und der Universidad de los Andes Kolombien um Neil Johnson berichtet, welche das natürliche Design von Purpurbakterien untersuchen, da es die beste strukturelle Lösung zum Ernten von Sonnenlicht zu sein scheint.

Die mikroskopisch kleinen einzelligen Organismen gehörten zu den ersten Lebensformen auf der Erde und leben auf dem Grund flacher Gewässer. Statt dessen wird in jeder Generation ein Design geschaffen, das die Notwendigkeit, die Anzahl der eingefangen und in chemische Energie umgewandelten Photonen zu maximieren, mit der Notwendigkeit ausgleicht, die Zelle von einem Überangebot an Energie zu schützen, durch welches sie beschädigt werden könnte.

Auch wie der Katalysator die Wasserspaltung bewerkstelligt, ist noch unbekannt. Nocera zufolge kann der Katalysator in nur vier Stunden und mit sehr niedrigen Kosten 30 kWh Strom produzieren. Im März werden die Forschungen Noceras mit 4 Mio. Damit soll der bestehende Prototyp weiterentwickelt und marktreif gemacht werden. Auf dem Jahrestreffen der American Chemical Society im März in Kalifornien kann die Arbeitsgruppe schon über einen entsprechend weiterentwickelten Prototypen der 2.

Er besteht aus einer handelsüblichen Solarzelle, bei welcher der neue Katalysator einfach auf der Rückseite aufgebracht worden ist. Sobald dieses flache Modul, die erstmalige Verschmelzung von Lichteinfang und Wasserspaltung in einer einzigen technischen Einheit, in ein Wasserglas gehängt wird, das in der Sonne steht, steigen umgehend kleine Gasperlen auf, wobei weder eine externe Stromquelle noch irgendeine Verkabelung mehr notwendig sind. Der Prototyp soll bereits zehnmal mehr Wasser in Sauerstoff und Wasserstoff aufspalten als ein natürliches Blatt.

Mit Unterstützung des indischen Milliardärs Ratan Tata will Nocera noch erste Prototypen auf indische Dächer bringen, wo vier Liter Wasser und ausreichender Sonnenschein genügen sollen, um den täglichen Energiebedarf einer Familie zu decken. Der Strom hierfür soll aus billigen Solarzellen stammen, da diese völlig ausreichen, um die benötigten, recht schwachen Ströme zu liefern.

Im November präsentieren der Chemiker Frank Würthner und sein Team von der Universität Würzburg eine komplexe Struktur, bei der es sich um künstliche Sammelantennen handelt, die sich selbst zu Aggregaten zusammenlagern. Die chemisch synthetisierten Moleküle absorbieren Lichtenergie und geben einen Teil davon in Form von Fluoreszenzlicht wieder ab.

Den Rest übertragen sie mittels Energietransfer auf die Kapselmoleküle, die daraufhin ebenfalls Fluoreszenzlicht aussenden. Die Nanokapseln sollten sich als Bausteine für eine künstliche Photosynthese-Maschine gut eignen und das Licht sogar wesentlich effizienter nutzen können als Pflanzen, da ihre synthetischen Doppelschichtmembranen zu hundert Prozent aus photoaktivem Material bestehen.

Die Nanokapseln werden auf der Basis so genannter amphiphiler Perylenbisimide entwickelt, während die Füllung, ein Projekt des chinesischen Gastwissenschaftlers Xin Zhang, aus photoaktiven Bispyren-Moleküle besteht. Diese verändern ihre Gestalt in Abhängigkeit von der Umgebung. Bei niedrigem pH-Wert, d.

Regt man sie mit UV-Licht an, strahlen sie blaues Fluoreszenzlicht aus. Steigt der pH-Wert, klappen sich die Moleküle zusammen und geben in dieser Gestalt grünes Fluoreszenzlicht ab. Die Arbeiten von Würthner werden von der Deutschen Forschungsgemeinschaft gefördert.

Im Vergleich zu nicht-bioimplantierten TiO 2 ist die Ausbeute sogar achtmal so hoch. Als nächstes wollen die Wissenschaftler Nanopartikel aus Platin in die Blattoberfläche einbetten, welches zusammen mit dem im natürlichen Blatt vorkommenden Stickstoff dabei hilft, die Aktivität der künstlichen Blätter um einen zusätzlichen Faktor von zehn zu steigern.

Die Ingenieure erzeugen ein künstliches Photosynthesematerial aus einem Schaum, der mit Enzymen injiziert wird, die in Kombination mit Sonneneinstrahlung CO 2 in Sauerstoff und Zucker umwandeln. Dieser könnte dazu verwendet werden, um Ethanol oder Biokraftstoff ohne den Bedarf nach Pflanzen oder Ackerland herzustellen. Schaum wurde deshalb gewählt, weil sich die Enzyme darin effektiv einbetten lassen, während sie eine Menge Luft und Licht aufnehmen können. Die Ingenieure erreichen bei der Energieumwandlung sogar einen höheren Prozentsatz als den der natürlichen Photosynthese, da der Schaum, im Gegensatz zu pflanzlichen oder tierischen Organismen keine Energie abzapft, um Leben zu erhalten oder zu reproduzieren.

Die Elektronen bewegen sich daraufhin durch den Draht zu einer Elektrode, welche die Energie produziert. Die Forscher glauben ihre Technik dafür einsetzen zu können, um leichte und höchst effiziente Photovoltaik-Geräte zu entwickeln. Dem Team gelingt die Lösung von zwei Problemen, welche die Entwicklung von effizienten und erschwinglichen Solarzellen in den letzten 20 Jahre lang entschieden behindert haben.

Marsan bezieht sich hier explizit auf die von Michael Grätzel entwickelten Farbstoffzellen s. Für den Elektrolyten werden daraufhin in Marsans Labor völlig neue Moleküle geschaffen, deren Konzentration durch die Mitarbeit von Livain Breau noch erhöht werden kann. Die resultierende Flüssigkeit oder das Gel ist transparent, nicht korrosiv und kann die Photospannung steigern, womit sie zur Verbesserung der Zellstabilität und Ausgangsleistung beiträgt. Das zweite Problem bildete die mit Platin beschichtete Kathode, denn das Metall ist selten, teuer und undurchsichtig.

Hier lautet die Lösung, das Platin durch Kobaltsulfid zu ersetzen, das viel billiger ist — und dazu auch noch effizienter, stabiler und im Labor leichter zu erzeugen. Die Idee hinter dem Konzept des YeZ chin. Zu den futuristischen Aspekten gehören weiterhin Räder, in denen kleine Windturbinen integriert sind, um Energie aus der Umgebung zu ernten und in der Fahrzeugbatterie zu speichern.

Schon bei ersten Versuchen liegt die Wasserstoffgewinnung um das vierfache über den früher erreichten Werten. Primäres Ziel dieser Forschung sind Katalysatoren und lichtabsorbierenden Materialien, die benötigt werden, um Wasser und Kohlendioxid zu spalten und daraus nutzbare Energieträger wie Wasserstoff, Methanol oder Methan zu machen.

Dabei nutzen sie Phthalocyanin , einen gewöhnlichen Farbstoff, der in Blue Jeans und zahlreichen anderen Produkten genutzt wird und eine dem Chlorophyll ähnliche Struktur aufweist. Die Cornell-Forscher erreichen dies durch die Anwendung eines einfachen Katalysators in Kombination mit einem anderen stabilen Molekül.

Das Ergebnis sind fein säuberlich geordnete zweidimensionale Blätter, die sich in einem Gittermuster übereinander stapeln. Die letzte Meldung stammt vom September. Forscher der North Carolina State University präsentieren das Konzept für ein weiteres künstliches Blatt, das im Grunde ein flexibles Gel auf Wasserbasis darstellt, welches mit lichtempfindlichen Molekülen kombiniert wurde. Diese Moleküle können zwar synthetisch hergestellt werden, das Forschungsteam nutzt in der Anfangsphase des Versuchs aber natürliches pflanzliches Chlorophyll — aus Kostengründen und zur Verringerung des Einsatzes von giftigen Materialien in Solarzellen.

Wenn das mit Gel gefüllte Gerät dem Sonnenlicht ausgesetzt wird, reagieren die eingebrachten Moleküle in ähnlicher Weise wie Pflanzen, wenn das Chlorophyll Sonnenenergie in Zucker umwandelt. In Bezug auf die Effizienz hat das Gerät noch einen langen Weg vor sich, aber die Forscher sehen schon jetzt das Potential für eine Optimierung sowohl des Gels als auch der Moleküle.

Im Januar publizieren Richard Watt ein Nachfahre des berühmten James Watt und sein Studententeam von der Brigham Young University ihre Experimente, denen zufolge ein einfaches Protein möglicherweise mit Sonnenlicht reagieren und dessen Energie ernten kann, ähnlich wie Chlorophyll bei der Photosynthese funktioniert. Das Team beginnt zunächst mit Zitronensäure aus Orangen, die es mit dem Protein vermischt, um dann in der Lösung Goldstaub aufzulösen.

Tatsächlich verändert sich die Farbe, und schon nach 20 Minuten ist die Lösung Lila. Bei der Umwandlung von Sonnenlicht zu chemischer Energie sei die Zelle bis zu 40 Mal effizienter als die meisten Pflanzen.

Derzeit gibt es noch keine kommerziellen Prozesse, um so etwas durchzuführen, doch Lewis hofft, trotzdem innerhalb von 5 Jahren einen funktionierenden Prototyp zu haben.

Im Mai wird über eine auf Melanin basierende Polihydroxyindol-Solarzelle berichtet, die der mexikanische Arzt Arturo Solis Herrera aus Aguascalientes entwickelt hat. Melanin ist die tierische Entsprechung des pflanzlichen Chlorophylls. Etwas fraglich sind allerdings einige Aussagen, zu denen Herrera im Zuge seiner medizinischen Arbeit gekommen sein mag, z.

Es mag interessant sein, die Implikationen zu diskutieren, jedoch nicht an dieser Stelle. Ich bin jedenfalls gespannt, ob sich bezüglich der Zelle noch etwas ergibt. Wobei die Zelle Jahren funktionieren würde…. Die in früheren Versuchen verwendeten Halbleiter z. Kupferoxid erwiesen sich in Gegenwart von Wasser und Sonnenlicht zur gleichen Zeit als instabil. Mittlerweile wird weltweit mit Nachdruck an Systemen der künstlichen Photosynthese geforscht. Ziel ist ein Lichteinfall-Chip, den man mit einem Katalyse-Chip kombinieren kann.

Die zukünftige Ausrichtung des Forschungsbereiches ist relativ klar: Entweder werden die Komponenten für künstliche Photosynthese-Systeme komplett künstlich nachgebaut oder es werden Teile von biologischen Systemen in synthetische Materialien eingebettet. Fotolyse versteht man die durch eine Bestrahlung mit Licht ausgelöste Spaltung eines Moleküls. Da es sich bei den Ergebnissen — neben Sauerstoff und Oxalsäure — um Wasserstoff handelt, behandle ich dieses Thema in dem entsprechenden Kapitel.

Um das Wasserspalten effektiver zu machen, wird dem Wasser als Sensibilisator für das einfallende Sonnenlicht Tetramethyl zugemischt. Des weiteren ist die Photokatalyse zu nennen, an der inzwischen diverse Teams arbeiten. Mit der freigesetzten Energie werden chemische Bindungen in den anhaftenden Schmutzpartikeln geknackt, ob diese nun Fett oder Staub, flüssig oder fest sind.

Nachdem auch die Photodegradation der NOx-Gase durch TiO 2 entdeckt wird, dauert es nicht lange, bis ab eine der ersten Umsetzungen in Form von antibakteriellen Fliesen erfolgt. Erst in den späten er Jahren stolpern die Japaner auch über einen passiven Reinigungseffekt: Diese Superhydrophilie macht zusammen mit der Photokatalyse aus der Titanverbindung das ultimative Reinigungsmittel. Erst nach diesen beiden Entdeckungen wird die Industrie auf den molekularen Saubermann aufmerksam.

Nach der Jahrtausendwende beginnt sich die Technologie rasant weiter zu verbreiten. Darauf aufbauend bietet das Unternehmen StoCretec GmbH aus Kriftel seit einiger Zeit eine Wandfarbe mit kohlenstoffdotiertem Titandioxid namens StoPhotosan an, die einen roten Farbstoff selbst bei schwachem Kunstlicht innerhalb von zehn Minuten zersetzt.

Auch Schadstoffe in der Raumluft werden vernichtet. Giftige chlorierte Phenole werden binnen fünf Stunden vollständig in ungefährliches Kohlendioxid und Wasser umgewandelt, und auch das krebserregende Formaldehyd sowie Dichlorethylen werden von der Wandfarbe aus der Raumluft gefiltert. Die Ergebnisse pdf sind positiv, quantitativ allerdings noch nicht sehr überzeugend. In einem selbstentwickelten Schlaufenreaktor wird der Fotokatalysator unter Einsatz von Luftsauerstoff und Licht direkt mit dem zu behandelnden Abwasser vermischt, wobei die Schadstoffe ohne den Zusatz von Chemikalien augenblicklich oxidieren und die vorhandenen Konzentrationen bis unter die geforderten Grenzwerte reduziert werden.

Ab etwa aktiv ist die Fraunhofer-Allianz Photokatalyse , deren Ziel es ist, neue Material- und Schichtkonzepte für leistungsfähigere Photokatalysatoren sowie deren Applikation auf unterschiedlichsten Substraten wie Glas, Kunststoffen und Metallen zu entwickeln. Dabei handelt es sich um ein Verfahren zur Herstellung nichtmetallischer anorganischer oder hybridpolymerer Materialien.

Als geeigneter Photokatalysator erweist sich Titandioxid in Form von Anatas, einem häufig vorkommendem Mineral. Ebenfalls im Jahr arbeiten Forscher im Arbeitskreis Photokatalyse und Nanotechnologie der Universität Hannover an sinnvollen Umsetzungen und initiieren eine Kooperation mit zwei Automobilunternehmen, um selbstreinigende Fahrzeugteile zu entwickeln.

Das Interesse erstreckt sich insbesondere auf die Frontscheibe sowie auf sicherheitsrelevante Teile, wie Rückspiegel, die Abdeckungen der Frontscheinwerfer oder Sensoren. Zu diesem Zeitpunkt arbeiten in Japan bereits mehr als 2. Der neu entstehende Photokatalyse-Markt wird in Japan derzeit auf — Mio. Um das Jahr herum scheint auch die gegründete A. Über klärende Beiträge der Leserschaft würde ich mich daher sehr freuen.

Zur Herstellung dieser Beschichtungen werden erstmals neuartige Heterocoagglomerate entworfen, die aus einem flächigen Träger und photokatalytisch aktivem, nanoskaligem Titandioxid bestehen und in einer wässrigen Lösung zusammengesetzt werden können.

Die neue Beschichtung eignet sich für Filter, Zeltbahnen, Markisen und textile Bespannungen und kann sowohl direkt auf das Substrat als auch auf bereits beschichtete Oberflächen appliziert werden. Ebenfalls wird eine vergleichende Untersuchung verschiedener Betonprodukte durchgeführt, um Effizienz ihrer luftreinigenden, photokatalytischen Oxidation PCO unter Laborbedingungen zu überprüfen.

Die Ergebnisse sollen im Erfolgsfall für die Planung eines Demonstrationsprojektes in der niederländischen Gemeinde Hengelo verwendet werden. Mitbesitzer dieser Patente ist interessanterweise die Präfektur Saga selbst. Denn während der TiO 2 -Kristall in der Natur nicht wasserlöslich ist, macht die patentierte Technologie eben dies möglich.

Was nicht nur gesünder ist, sondern auch den Einsatz stark vereinfacht. Das neue Verfahren verbindet die Photokatalyse mit der elektrochemischen Oxidation und soll sogar problematische Schadstoffe entfernen können, die biologisch nur schwer abbaubar sind. Sowohl Photokatalyse als auch elektrochemische Oxidation sind in der Wasseraufbereitung zwar schon gründlich untersucht worden, doch ihre Effizienz war bislang nicht hoch genug, um ihren Einsatz wirtschaftlich zu machen.

Um nun beide Methoden zu verbinden, konstruiert Chen eine Doppelelektrode, deren eine Seite mit einem Photokatalysator, die andere mit einem Elektrokatalysator beschichtet ist — was bislang noch niemand versucht hat. Damit gelingt es, Nitrophenole zu entfernen, organische Verbindungen, die häufig in der Industrieproduktion von Medikamenten, Pestiziden und Farbstoffen genutzt werden und ins Abwasser gelangen. Ein Patent wird ebenfalls angemeldet.

Charakteristisch für die rasante Entwicklung ist eine Stellenanzeige der Arbeitsgruppe Photokatalyse mit Halbleitern am Institut für Physikalische Chemie der Heinrich-Heine-Universität Düsseldorf, wo verschiedene Bachelor-, Master- Diplom- oder Postdocarbeiten ausgelobt werden, die sich um die wichtigsten Elemente und Schritte der Photokatalyse drehen, das das Arbeitsgebiet über den bisherigen Schwerpunkt der Herstellung neuartiger Solarzellen hinaus ausgebaut werden soll.

Die zu bearbeitenden Themen sind:.





Links:
Wie man nasdaq aus australien handelt | Wie viel in Aktien investieren | Falsche Darstellung im Vertragsrecht | Wie man eine modifizierte interne Rendite findet |