1 / 86

Luftbildanalyse und Fernerkundung 5. Einheit – 4. November 2004 + Beginn pünktlich 14:00 Uhr

Luftbildanalyse und Fernerkundung 5. Einheit – 4. November 2004 + Beginn pünktlich 14:00 Uhr + Folien zur Vorlesung unter http://homepage.univie.ac.at/thomas.engleder + Rückmeldungen, Anregungen, Kritik, Verbesserungsvorschläge, ...

fala
Download Presentation

Luftbildanalyse und Fernerkundung 5. Einheit – 4. November 2004 + Beginn pünktlich 14:00 Uhr

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Luftbildanalyse und Fernerkundung 5. Einheit – 4. November 2004 + Beginn pünktlich 14:00 Uhr + Folien zur Vorlesung unter http://homepage.univie.ac.at/thomas.engleder + Rückmeldungen, Anregungen, Kritik, Verbesserungsvorschläge, ... * persönlich nach der LV * per e-mail (thomas.engleder@univie.ac.at) * auf der Rückseite der Anwesenheitsliste

  2.  Auflösung  Aufnahmesysteme: + Foto + Scanner + Radar

  3. Auflösung in der Optik und der Fototechnik + das Auflösungsvermögen, nahe beieinanderliegende Objekte zu unterscheiden; + das Auflösungsvermögen von fotografischen Objektiven und fotografischem Film; + die Bildauflösung bei Digitalkameras; (absolut; 4,2 Megapixel) in der Computer- und Videotechnik + die Auflösung eines Bildschirms; (1024 x 768) im Druck + die Auflösung eines Druckers oder Belichters; (relativ, dpi)

  4. Erkennbarkeit von Objekten (Auflösungsvermögen) Wie groß muss ein Objekt sein, damit es in einem Luft- und Satellitenbild noch erkennbar ist?  einfache Frage  weniger einfache Antwort zahlreiche Einfluss-Faktoren: + Auflösungsvermögen des Aufnahmesystems (Aufnahme-Methode, techn. Parameter, verwendeter Sensor, ...) + Eigenschaften des Objekts und seiner Umgebung (Helligkeits- u. Farbkontrast: Objekt – Umgebung) + Maßstab

  5. Erkennbarkeit von Objekten (Auflösungsvermögen) Unterscheidung von: + analoger fotografischer Auflösung und + digitaler Auflösung

  6. Auflösung analoger fotografischer Bilder In einer fotografische Schicht können nicht beliebig kleine Details wiedergegeben werden. Die erreichbare Auflösung ist abhängig von: + Eigenschaften der fotograf. Schicht (Kornstruktur) + Objektiv, Bewegungsunschärfen, ...

  7. Auflösungvermögen analoger fotografischer Syteme kann standardisiert werden mittels Testtafel. Man fotografiert standardisierte Testtafel mit parallelen Linien mit verschiedener Frequenz und stellt fest wo die Linien gerade noch erkennbar sind. Linien/mm  Linienpaare/mm Umrechnung: analoge fotografische Auflösung in digitale Pixelauflösung: Auflösung m/lp = 2,8 x Auflösung [m/pixel] Bsp: fotograf. Sat.bild im Maßstab 1:800.000 und einem Auflösevermögen von 30 lp/mm hat an der Erdoberfläche eine Auflösung von etwa 27 m/lp oder etwas 10 m/pixel

  8. Bei Luftbildern liegt das Auflösungsvermögen häufig im Bereich von 20 bis 50 lp/mm. Das Auflösungsvermögen des menschlichen Auges liegt hingegen bei etwa 6 lp/mm. Daher macht es Sinn ... ... Luftbilder mit bis zu 6- oder 8facher optischer Vergrößerung zu betrachten. Stärkere Vergrößerungen machen dagegen keine zusätzlichen Details sichtbar.

  9. ... in der digitalen Fernerkundung spricht man besonders von: A) Geometrischer Auflösung (räumlicher Auflösung) B) Spektraler Auflösung C) Radiometrischer Auflösung D) Zeitlicher Auflösung

  10. A) Geometrische Auflösung(räumliche Auflösung, Bodenauflösung) … Instantaneous Field of View (IFOV) Das IFOV ist der Winkelbereich, der vom Sensor aufgenommen wird (A). Dieser Winkel legt die Fläche (B) auf der Erdoberfläche fest, die von einer Höhe (C) aus gesehen wird. Die Größe der Fläche (B) ergibt sich durch die Multiplikation von IFOV mit der Entfernung zum Objekt (C). Die Fläche (B) ist die größte geometrische (räumliche) Auflösung eines Sensors. Um ein Objekt im Bild identifizieren zu können, muss die geometrische Auflösung mindestens gleich oder größer als die Größe des Objekts sein.

  11. B) Spektrale Auflösung Die spektrale Auflösung beschreibt die Anzahl der Kanäle und die Bandbreiten der aufgenommenen Wellenlänenbereiche (des EMS) eines Sensors. Je feiner die spektrale Auflösung um so näher liegen die Kanäle beieinander und um so kleiner ist ihre Bandbreite

  12. C) Radiometrische Auflösung Die radiometrische Auflösung bezeichnet die Anzahl der Stufen (Graustufen, grayvalues), mit der ein Sensor reflektierte elektromagn. Strahlung aufzeichnet. generell gilt: je größer die radiometrische Auflösung (Anzahl der Graustufen), desto besser ist die Detailinformation Die Anzahl der Graustufen wird durch die Anzahl der bits ausgedrückt: 2 bit = 4 Graustufen (0-3) 4 bit = 16 Graustufen (0-15) 6 bit = 64 Graustufen (0-63) 8 bit = 256 Graustufen (0-255) … Standard, (mehr ist f. menschl. Auge nicht differenzierbar) 2 bit – Auflösung 8 bit - Auflösung

  13. D) zeitliche Auflösung Die Zeitspanne, in der ein bestimmtes Gebiet durch einen Sensor mit dem selben Blickwinkel zweimal aufgenommen wird, wird als Aufzeichnungsperiode (revised period) bezeichnet. wichtig bei: + Wolken, + kurzlebigen Phänomene (Ölleck, Überschwemmungen, …) + multi-temporalen Vergleichen (Waldzustand über Jahre, …) + Landwirtschaft (Ernteabschätzungen, …)

  14. ad Spatial Resolution – Räumliche Auflösung What is Resolution? In a practical sense, spatial resolution describes how much detail in a photographic image is visible to the human eye. High-resolution images are sharp, and many small details can be seen, but even the best pictures have a limit to their resolution. If you wear glasses, you can experience the effect of reduced resolution simply by taking them off. Without glasses, the view gets fuzzier and small details blend together, don't they? The ability to "resolve," or separate, small details is one way of describing what we call spatial resolution.

  15. These images of the toucan demonstrate the effects of different spatial resolutions. Each higher level of resolution allows you to distinguish more detail. At lowest resolution, it doesn't look much like a bird, does it? As the spatial resolution is increased, you can see a bird and a beak, but exactly where is the eye? At the highest resolution, more details become clear, and the image is sharper, isn't it? Can you see additional details around the eye?

  16. The spatial resolution of images acquired by satellite sensor systems is usually expressed in meters. For example, we often speak of one of the imaging systems on Landsat as having "thirty-meter" resolution. This means that two objects, thirty meters long or wide, sitting side by side, can be separated (resolved) on a Landsat image. Other satellite imaging systems have higher or lower resolutions. Typical Spatial Resolution Values of Some Remote Sensing Instruments Satellite & SensorSpatial Resolution IRS-1C Panchromatic … 6 meters SPOT Panchromatic … 10 meters Seasat Radar … 25 meters Landsat Thematic Mapper … 30 meters IRS-1B LISS-II … 36 meters Landsat Multispectral Scanner … 80 meters Advanced Very High Resolution Radiometer … 1,100 meters

  17. Note that although we say "can be seen," that doesn't mean that resolution denotes the size of the smallest object that can be detected. It is possible to "detect" an object (record its presence or absence) that is much smaller than the stated resolution of the image. Similarly, objects can be detected and resolved, yet still not be identifiable. For example, we may see lines on an image that could be roads, rails, fences, rivers, and so on, but we can't, without other information, tell which is which (or which is what). Note also that we have been talking only about spatial resolution, and in the context of images that are mainly photographic. There are other types of resolution (spectral, temporal) that we discuss elsewhere.

  18. Unterschiedliche Bodenauflösung 10 cm – Bodenauflösung 50 cm - Bodenauflösung Die beiden Orthofotos zeigen den gleichen Ausschnitt, um die unterschiedlichen Bodenauflösungen deutlich zu machen.

  19. Drei Bilder (Orthofotos) mit demselben Geländeausschnitt Die drei Bilder zeigen denselben Geländeausschnitt von 80 x 60 m. Sie haben auch dieselbe Größe in Pixeln. Im Original haben die Bilder mit der geringeren Bodenauflösung (0,29 m und 0,40 m) natürlich erheblich weniger Pixel als das Bild mit der hohen Bodenauflösung (0,10 m). Damit man die Bilder vergleichen kann, wurden die Bilder mit der geringeren Bodenauflösung so umgerechnet, dass alle Bilder dieselbe Größe in Pixeln haben. Auf diese Weise kann man gut erkennen, wie die Bildschärfe bei geringerer Bodenauflösung abnimmt. Bodenauflösung: 0,1 m Bodenauflösung: 0,29 m Bodenauflösung: 0,4 m

  20. Drei Bilder (Orthofotos) mit derselben Größe in Pixeln Die drei Bilder haben dieselbe Größe in Pixeln. Sie zeigen einen unterschiedlich großen Geländeausschnitt. Die Bilder mit der geringeren Bodenauflösung (0,29 m und 0,40 m) erfassen einen erheblich größeren Geländeausschnitt als das Bild mit der hohen Bodenauflösung (0,10 m).  Bodenauflösung: 0,1 m Bodenauflösung: 0,29 m Bodenauflösung: 0,4 m

  21. Bodenauflösung von 0,10 m

  22. Geometrische Auflösung(Instantaneous Field of View … IFOV)

  23. Repetitionsrate und Bodenauflösung

  24. Aufnahmesysteme In der Geofernerkundung werden mit dem Fortschreiten der technischen Entwicklung immer speziellere satelliten- oder flugzeuggestützte Sensoren zur Erkundung der Erde bzw. benachbarter Planeten und Monde eingesetzt. Im Folgenden werden deshalb nur einige wichtige Aufnahmensysteme skizziert und stellvertretend erläutert. + Foto + Scanner + Radar

  25. Fotografische Aufnahmesysteme Die klassische fotografische Aufnahme von Luft- und Satellitenbildern beruht auf der bekannten Methode der Fotografie, wobei die fotografische, lichtempfindliche Schicht eines Filmes als analoges Speichermedium dient. Sie ist somit ein passives Verfahren, welches die Strahlung im VIS und NIR (400-1000 nm) je nach Filmempfindlichkeit über eine chemische Reaktion optisch aufnimmt.  Die klassische Luftbildtechnik bietet den Vorteil relativ preisgünstig und individuell Flächen zu erfassen.

  26. Allerdings gibt es auch gewichtige Nachteile, wie + die schwierige radiometrische Kallibrierung photographischer Systeme, + die geringe spektrale Bandbreite und + ggf. der analoge Primärzustand der Daten (Negativ/Positiv), welche zur digitalen Weiterverarbeitung erst aufwendig gewandelt werden müssen. Es werden jedoch zunehmend digitale Kameras eingesetzt, wobei die Bilder über eine CCD-Optik direkt in digitale Bildformate umgewandelt werden.

  27. Üblicherweise werden in Flugzeugen fest montierte Reihenmeßkammern (RMK) in dem + Bildformat 23 cm x 23 cm und + wechselden Brennweiten für die + systematische Aufnahme von Geländeabschnitten im + Maßstab zwischen 1:10.000 bis 1:30.000 verwendet. Daneben gibt es noch spezielle Handkammern für die lokale Schrägaufnahme.

  28. Reihenmeßkammer RMK 15/23 der Firma CARL ZEISS mit Überdeckungsregler

  29. Fotografische Filme: Schwarz-Weiss (SW): beste Auflösung; Anwendung bei hohen Genauigkeitsansprüchen an geometrische Information. Farbe (F): schlechtere Auflösung als SW, bessere Interpretierbarkeit. Falschfarben-Infrarot (FIR): gute Interpretierbarkeit (Vegetation).

  30. Panchromatische Filme Die spektrale Empfindlichkeit der fotografischen Schichten reicht vom VIS bis in das NIR. Man unterscheidet in der Fernerkundung panchromatische, chromatische und infrarotempfindliche Schichten, auf denen der Reflexionsgrad in Farb- bzw. Graustufen abgelichtet wird. Aufgesetzte Objektivfilter erlauben bei der Aufnahmen das gezielte Ausblenden von einzelnen Spektralbereichen. Unterhalb von 400 nm wird die Energie der Strahlung durch das Objektivglas absorbiert. Panchromatische Schichten sind bis etwa 700 nm empfindlich, also für den gesamten Bereich des VIS. Da sie alle Reflexionswerte in abgestuften Grautönen wiedergeben, sind sie am weitesten verbreitet und dienen allgemein als Aufnahmemedium (sog. S/W-Film).

  31. Infrarotempfindliche Schichten gehen mit ihrer Empfindlichkeit über 700 nm hinaus. Dies hat zur Folge, daß die abgelichteten Grautöne von dem Reflexionssempfinden des Menschen abweichen, wenn die Objekte im NIR wesentlich anders reagieren, als im VIS (z.B. Vegetation). Deshalb blendet man häufig kurzwelligere Strahlung durch geeignete Filter aus um so nur den NIR-Informationsgehalt abzulichten. IR-Bilder eignen sich z.B. besonders zur Unterscheidung von Laub- und Nadelbäumen, zur Ermittlung des Verlaufes von Wasserflächen und Uferlinien. Weiterhin wirken sie wegen der kräftigeren Schatten oft kontrastreicher als panchromatische Aufnahmen i.e.S..

  32. Farbfilme Farbfilme müssen stets aus drei Schichten aufgebaut sein, da sich die Farben aus den den drei Grundfarben des additiven Farbsystems Rot- Grün-Blau (RGB) zusammensetzen. Die belichteten Schichten spiegeln dann das Reflexionsmaß in den drei Wellenlängenbereichen des VIS wieder. Bei Farbinfrarotfilmen wird eine der Schichten (meist Rot) durch eine IR-sensible Schicht ausgetauscht, so daß der Reflexionsgrad im NIR aufgenommen und zur Endfarbabmischung herangezogen wird.

  33. IR-Farbfilme finden fast ausschließlich in der Vegetationsuntersuchung eine Rolle (z.B. Waldschadenskartierungen), da sich über den IR-Reflexionsgrad eine Aussage über Typ und Vitalitätsgrad der Vegetation ableiten läßt. Die resultierenden Bilder werden oft auch als Falschfarbenaufnahmen bezeichnet, da die Farbwiedergabe der Objekte für das menschliche Auge ungewohnt ist.

  34. Panchromatisches Luftbild / Infrarotluftbild s/w Panchromatisches Luftbild links, rechts dieselbe Region als Infrarot- Luftbild.

  35. Farb-IR (falschfarben) Farb-Echtfarben

  36. Spektrale Empfindlichkeit fotografischer Schichten Unsensibilisierte und orthochromatische Schichten sind bis etwa 0,5 µm (nur für blaues Licht) bzw. 0,58 µm (nur für blaues und grünes Licht) empfindlich und kommen als Positivmaterial vor, sind aber zur normalen photographischen Aufnahme nicht geeignet.Panchromatische Schichten sind bis etwa 0,7 µm empfindlich, also für den gesamten Bereich des sichtbaren Lichts. Sie geben alle Farben in angemessenen Grautönen wieder und sind dadurch am weitesten verbreitet.Infrarotempfindliche Schichten sind über 0,7 µm hinaus (für sichtbares und nahes IR-Licht) empfindlich. (Um reine IR-Aufnahmen zu erhalten, nutzt man Filter für das sichtbare Licht.) Die enstehenden Grautöne weichen vom Helligkeitsempfinden des Menschen ab, weil die Objekte im Infraroten wesentlich anders reflektieren als im sichtbaren Licht. Infrarotbilder wirken wegen der kräftigen Schatten besonders kontrastreich, sie eignen sich z.B. zur Unterscheidung von Laub- und Nadelbäumen.

  37. Filme für die Luftbildaufnahme (Auswahl 1)

  38. Filme für die Luftbildaufnahme (Auswahl 2)

  39. unterschiedliche Fotomaterialien und ihre Auswirkungen Auf diesen beiden Bildern erkennen Sie die Auswirkung verschiedener Gradationen (Schwärzungen). Links erfolgte die Bildwiedergabe auf weich arbeitendem und rechts auf hart arbeitendem Fotomaterial.

  40. Scanner (Abtastsysteme) & Digitale Fotosysteme (CCD) Im Gegensatz zur optischen Fotografie wird das Maß der Reflexion bei digitalen Systemen nicht auf einem Film festgehalten, sondern direkt als elektrischer Impuls zeilenweise gespeichert. Als Speichermedium dient also ein externes Speichermodul , welches regelmäßig geleert werden muss. Man unterscheidet optoelektronische Scanner (z.B. beim SPOT-Satelliten) und optisch-mechanische Scanner (z.B. bei  LANDSAT). Beide Scanner-Typen arbeiten passiv und finden sowohl in der Flugzeug-gestützten Geofernerkundung als auch in der Satelliten-getragenen Geofernerkundung Anwendung.

  41. Die Funktionsweise eines optoelektronischen Scanners soll am Beispiel des französischen SPOT-Satelliten (Systeme Probatoire d'Oberservation de la Terre) erläutert werden. Hier erzielt man die Bildaufnahme mittels zeilenweise angeordneter Halbleiter-Bildsensoren ; dies sind hochintegrierte Schaltungen auf Silicium-Chips, die für jeden Bildpunkt (Pixel) einen Photosensor enthalten. Hier sind besonders die Charge Coupled Devices (CCD) von Bedeutung, welche aus Ketten von Kondensatoren bestehen und durch Belichtung Ladungen freisetzen. Dieser Entladungsimpuls wird zeilenweise abgespeichert. Moderne CCD-Kameras verfügen über eine flächenhafte CCD-Anordnung (Zeilen x Spalten).

  42. Zur CCD-Bildaufnahme vom Flugzeug oder Satelliten werden die CCD-Zeilen in der Bildebene eines Objektes angeordnet. Damit ist es möglich, alle Pixel einer quer zur Flugrichtung orientierten Bildzeile gleichzeitig zu erfassen. Durch die Eigenbewegung des Sensorträgers wird bei entsprechender Aufnahmefrequenz ein Geländestreifen zeilenweise abgebildet (oder auch 'gefegt', deshalb engl.: pushbroom scanner). Optoelekronische Bildaufnahme (Pushbroom Scanner) mit einem CCD-Sensor

  43. Vorteile der CCD-Technik sind die + fehlenden mechanischen Bewegungen des Systems, + die simultane Aufnahme der Reflexionswerte pro Zeile und + die veränderbare geometrische Auflösung (über wechselnde Brennweiten der Optik!). Bei SPOT (SPOT-1 1986; SPOT-2 1990, -3 bis -4 ab 1994) befinden sich je zwei identische Sensorsysteme, die offiziell die Bezeichnung Haute Resolution Visible (HRV) tragen und wahlweise im sogenannten XS-Modus (3 Spektralkanäle: blau-grün-rot/IR) oder P-Modus (panchromatisch) aufnehmen. Die geometrische Auflösung liegt im P-Modus bei 10m/Pixel, im XS-Modus bei 20m/Pixel.

  44. Zudem kann der Aufnahmewinkel über Fernsteuerung geneigt werden, so daß auch Regionen neben der Bodenspur des Satelliten aufgenommen werden können. Durch Mehrfachbefliegung können so die gleichen Gebiete unter verschiedenen Blickwinkeln aufgenommen und Stereobildpaare erzeugt werden (wichtig für Geländemodelle). Mit drei Spektralkanälen ist SPOT allerdings für eine multispektrale Analysen der Daten nur eingeschränkt tauglich.

  45. Schematische Darstellung der Aufnahmemöglichkeiten des SPOT-Satelliten

  46. Schematische Darstellung der Stereo-Aufnahmemöglichkeiten des SPOT-Satelliten

  47. Optisch-mechanische Scanner, wie z.B. der LANDSAT TM-Scanner, tasten die Erdoberfläche über ein rotierendes spiegeloptisches System zeilenweise ab. Die ankommende Strahlung wird auf Detektoren focussiert und in digitale Signale umgewandelt. Dabei rotiert der Einfangspiegel um eine zur Flugbahn parallele Achse und somit wandert das Flächensegment (Pixel) quer zur Flugrichtung über das Gelände. Da sich der Sensorträger zusätzlich in Flugrichtung bewegt, wird ein breiter Geländestreifen zeilenweise hintereinander aufgenommen.

  48. Meistens erfolgt die Aufnahme in unterschiedlichen Bändern (multispektral) , wobei die reflektierte Strahlung über ein Prisma in die einzelnen Wellenlängen zerlegt und auf einzelne Kristallsensoren dedektiert wird. LANDSAT TM 5 ( Thematic Mapper ) verfügt über sieben Kanäle mit geometrischen Auflösungen von 30m/Pixel im reflektiven Bereich (Band 1, 2, 3, 4, 5, 7) und 120m/Pixel im emissiven/thermalen Bereich (Band 6). Der ältere Vorgänger, LANDSAT MSS (Multispectral Scanner) besitzt vier Kanäle und arbeitet seit 1972 nach dem gleichen Prinzip. Der neue Landsat TM-7 hat gegenüber TM-6 eine verbesserte Geometrische Auflösung von 20m/Pixel und einen zusätzlichen panchromatischen, hochauflösenden Kanal (15m/Pixel) -- die Spektralbereiche sind jedoch weitgehend gleichartig geblieben.

More Related