Es wird Zeit, einmal etwas von der Methode zu berichten, mit der ich mich hauptsächlich in meiner Arbeit befasse. Zunächst nur als grundsätzliche Erklärung, aber da wir letzte Woche eine Feldmessung hatten, kann ich auch noch ein angewandtes Beispiel zeigen in einem Folgepost.

Die Problematik ist diese: Wir haben einen Boden bzw eine Oberfläche
in die wir hineinsehen wollen. Beispiele gibt es viele: Die
geophysikalischen Methoden kommen weitgehend aus der Suche nach
Ölvorkommen, aber das ist eine andere Skala und erfordert andere
Methoden als oberflächennahe Methoden mit denen ich mich befasse.
Außerdem würde ich als Umweltphysiker nie nach Öl suchen!

Bodennah gibt es auch Anwendungen, die meistens mit einer
Strukturerkundung des Untergrundes befasst sind. Das kann z.B. die
Suche nach vergrabenen Gegenständen sein wie Rohren oder
archäologischen Funden, oder nach Hohlräumen oder Höhlen, oder einfach
eine Erkundung der Schichten im Untergrund. Meine Interesse liegt bei
Flüssigkeiten im Boden. Da kann man ein Interesse haben,
Schadstoffausbreitung im Boden zu beobachten, oder Untersuchungen an
einem Grundwasserleiter durchführen. Oder einfach den Wassergehalt des
Bodens ermitteln.

Messmethode

Das grundsätzliche Prinzip der Electrical Resistivity Tomography (ERT) oder einfach Geoelektrik ist einfach zu beschreiben:

i-a49d352c5cfb33924c87d9d5fd9062e5-geoelectric-principle-thumb-350x219.png

Man steckt vier Elektroden in den Boden. Dann speist man an zwei
Elektroden, die man im Allgemeinen mit A und B bezeichnet, einen Strom
in den Boden ein. Die roten Linien deuten die Stromlinien an, entlang
denen der Strom fließt. Man arbeitet hier mit Gleichstrom (es gibt auch
die Variante der Induzierten Polarisation, die auch frequenzabhängig
misst). An den weiteren zwei Elektroden misst die Spannung und kann
daraus den Wert des elektrischen Widerstandes ermitteln.
Im
Bild sieht man einen homogenen Untergrund, aber natürlich ist ein Boden
nicht homogen. Daher reicht nicht eine Messung dieser Art. Den
gemessenen elektrischen Widerstand ordnet man hier einer (Pseudo)tiefe
zu, die ungefähr 1/5tel der Distanz zwischen den äußeren Elektroden
entspricht. Dann misst man mit anderem Abstand zwischen den Elektroden
nochmal und erreicht eine andere Tiefe. So setzt man sich nach und nach
ein Tomogramm des Untergrundes zusammen.
Das geht aber heutzutage
einfacher als die Elektroden umzustecken und immer einzeln zu messen.
Stattdessen steckt man eine ganze Reihe von Elektroden, und misst für
alle möglichen Kombinationen von Elektroden auf diese Art. Dazu gibt es
Multiplexer-Kabel, die eine große Anzahl Elektroden verbinden (z.B. 24
oder 48) und eine Messbox, die automatisch die richtigen Elektroden
ansteuert.
Man misst nicht alle Kombinationen, das würde zu viel
werden bei großen Arrays. Es gibt einige etablierte Arrays, am
häufigsten trifft man diese an:

i-ca71df684db5666a4fd1fd3e456a087b-geo-arrays-thumb-350x297.png
Beim
Wenner-Schlumberger befinden sich die Einspeiseelektroden A und B
außen. Die Potentialelektroden M und N sitzen in der Mitte, und der
Abstand von A nach M und B nach N ist gleich, und jeweils ein ganzes
Vielfaches des Abstandes a zwischen M und N.
Dipol-Dipol sieht
anders aus, hier ist der Abstand jeweils zwischen A und B und M und N
klein, also man hat jeweils einen Einspeise-Dipol und einen
Potential-Dipol mit einer Entfernung n*a.

Eine typische Messung mit 24 Elektroden hätte z.B. zwischen 300 und 400 dieser Quadrupole.

Inversion

Aber
damit ist man (leider) nicht fertig, denn man hat dann kein Bild der
Widerstandsverteilung im Untergrund. Stellt euch vor, jetzt haben wir
für jede unserer z.B. 300 Messungen zwar diese Messung einem Punkt im
Untergrund zugewiesen, aber wir haben angenommen dass die Stromlinien
so schön verlaufen wie beim homogenen Untergrund. Das stimmt natürlich
nicht, weil genau die Widerstandsvertielung, bzw die elektrischen
Leitfähgikeitsstrukturen im Boden, die uns interessieren, die
Stromlinien beeinflussen.
Daher müssen wir auf ein mathematisches
Verfahren zurückgreifen, um ein Modell der Widerstandsverteilung  im
Untergrund zu erzeugen. Stellen wir uns dafür vor, dass wir den Boden
in kleine Einheiten aufteilen, die je einen einheitlichen elektrischen
Widerstand haben, und versuchen diesen Wert anzupassen. Wir können
Dreiecke wählen oder einfach rechteckige Kistchen.
Fangen wir mit
einem einfachen Versuch an: Wählen wir den gleichen Widerstand für alle
Kisten. Jetzt kann man einen Schritt machen, den man Vorwärtsmodellierung
nennt. Die Daten, das ist unsere Messung. Das Modell, das ist die Liste
der Widerstände unserer Blöcke. Wenn wir jetzt ausrechnen (durch ein
Computermodell), was wir messen würden, wenn wir tatsächlich auf einer
solchen Widerstandsverteilung messen würden, dann erhalten wir
modellierte Daten.
Die Aufgabe der Inversion ist es, den
Unterschied zwischen modellierten und gemessenen Daten zu minimieren.
Dazu macht sie immer wieder solche Vorwärtsmodellierungen und ändert
nach jeder das Modell, also die Widerstände pro Kiste, passend um,
sodass der Abstand zwischen modellierten und gemessenen Daten kleiner
wird.
Eine klassische least-squares-Minimierung setzt z.B. auf
diese Art an (ich erspare mir mal die Formel): Man verwendet sogenannte
Jacobi-Matrizen, die partielle Ableitungen der Daten nach den
Modellparametern enthalten. Das heißt nichts anderes als: Ich suche die
Richtung in die ich besonders an dem Modellparametern (den Widerständen
der Blöcke in meinem Modell des Untergrundes) drehen muss, um eine
bessere Anpassung zu erreichen.
Leider ist das Problem nicht
eindeutig, im Gegenteil, es existieren unendlich viele Lösungen. Manch
ein Block mag die Messung an vielen Quadrupolen beeinflusst haben,
manch einer gar keine oder zu wenige für eine eindeutige Lösung. Das
nennt man ein gemischt-bestimmtes Problem. Man muss zusätzliche
Annahmen hineinstecken, um den Prozess der Inversion, also die Rechnung
die der Computer durchführt, numerisch stabil zu halten. Eine beliebte
Annahme ist die der Glattheit, dass also keine großen Sprünge zwischen
benachbarten Blöcken auftauchen. Diese Annahme ist beliebig schlecht,
für qualitative Anwendungen aber völlig ausreichend gut. Für eine
Quantifizierung der Widerstände, die man beispielsweise braucht wenn
man Wassergehalte messen will, kann man damit aber Probleme bekommen.
Weswegen ich Forschungsarbeit habe.

Im nächsten Teil zeige ich dann Beispiele dazu!

Kommentare (6)

  1. #1 beka
    06/02/2009

    Also führen Sie eine Gradientenbildung durch, Sie bestimmen wie bei einer Landkarte die Höhenlinien; je dichter die Höhenlinien, desto steiler der Hang.

  2. #2 Ludmila
    06/03/2009

    @beka: Das halte ich für eine falsche Analogie. Nicht jede Karte ist ein Höhenprofil und braucht Gradienten.

    Es ist so:
    Man berechnet aufgrund eines Modells eine Karte mit elektrischen Leitwerten, wie die aussähen würde, wenn man da Elektroden in den Boden stecken würde. Diese Karte sieht eher buntgscheckt aus, wobei verschiedene Farben verschiedene Leitwerte angeben.

    Man kann z.B. sagen, hmm hier müsste in 2m Tiefe eine Salzwasserschicht verlaufen. Wenn man z.B. an der Nordsee misst.

    Stimmt diese Annahme mit den tatsächlich gemessenen Leitwerten überein, hat man ein gutes Modell. Dann ist da wahrscheinlich wirklich eine Salzwasserschicht.

    Wenn nicht, dann muss man sich ein anderes Modell bauen. Oder aber kann eben ausschließen, dass es da Salzwasser gibt. Kein Ergebnis ist ja manchmal auch eins. Wenn das Modell nicht ganz stimmt, dann muss man schauen, wie man das Modell ändert, damit es passt.

  3. #3 Schlotti
    06/03/2009

    @Ludmila:

    Ein guter Einwand.

    Diese Methode, nämlich ein Modell zu erstellen und dann die gemessenen Daten mit dem Modell zu vergleichen, lässt Schlüsse über die Gültigkeit des Modells zu.

    Eigentlich ganz einfach zu verstehen.

    Allerdings ist diese Denkweise Menschen, die nicht Wissenschaftler sind, üblicherweise recht fremd. Ich habe durchaus eine Affinität zu den Naturwissenschaften, jedoch wurde mir erst durch diesen kleinen Einwand die Bedeutung dieser Methodik wirklich klar.

    Ich habe diesen Artikel und Deinen Einwand auf bekas Kommentar als erhellend wahrgenommen.

    Ich werde mir das merken.

    p.S.:
    Nach den ganzen ewiglangen Disskussionen auf scienceblogs.de mit irgendwelchen Esospinnern in der letzten Zeit konnte ich konnte ich endlich mal wieder was lernen.

    Erfreulich!

  4. #4 JörgR
    06/03/2009

    Also doch, eigentlich stimmt bekas Bild genau – wenn man zwei Parameter hat. Würde ich den Untergrund in zwei Blöcke aufteilen und 1893 Messungen durchführen, hätte ich wahrscheinlich eine sehr schöne Höhenkarte. Die x- und y-Richtung sind die Parameter und die Höhe die Diskrepanz zwischen gemessenen und modellierten Werten. Zwar würde mir auch hier die Messungeneuaigkeit unmöglich machen, genau das Tal zu finden, aber man käme einfach auf richtige Werte.
    Leider ist der Untergrund konitnuierlich vertielt, und man teilt ihn in kleine Blöcke auf. Dann hat man plötzlich 800 Modellparameter (z.B.) und sucht nach dem tiefsten Tal in einem 800-dimensionalen Parameterraum…das ist nicht mehr so leicht, daher die Regularisierung/Dämpfung/Glättung, die annimmt dass sich benachbarte Zellen wenig gegeneinander verändern.
    Es kommt ja auch hinzu – an der Oberfläche habe ich viele Messungen und nach unten nimmt die Sensitivität weiter ab – daher “gemischt-bestimmtes Problem”. Wenn ich eine Probe im Computertomographen drehe, habe ich z.B. besonders viele Strahlen durch die Zellen in der Mitte, weniger am Rand.
    Dadurch gibt es unendliche viele Lösungen immer – eine Schicht könnte ein wenig dicker sein und/oder weniger leitfähig und dafür die benachbarte dünner und/oder leitfähiger. Wenn man viele Messungen schafft, kann man trotzdem gute Ergebnisse erhalten, aber ist natürlich meistens nicht gut genug möglich, aus Problem von Zeit, Platz und Material.

  5. #5 Ludmila Carone
    06/03/2009

    @JörgR, Beka: Na ja vielleicht eingeschränkt.
    Wichtig finde ich aber auch die Unterscheidung, dass man bei einer Höhenkarte draufschauen kann und man direkt eine Aussage über das Gelände erhält. Ist ja auch easy. Hier ist es hoch, da ist es Tal.

    Bei einer Leitwertkarte sieht es dann doch anders aus. Da brauchst Du eben das Modell, damit das Dir sagt, was Du da eigentlich siehst.

    Die Veranschaulichung mit der Höhenkarte finde ich hier einfach ein bisschen zu einfach. Ok, einigen wir auf folgendes: Ungefähr wie eine Höhenkarte, nur sehr viel komplizierter 😉

  6. #6 JörgR
    06/03/2009

    Naja ich meine eine Höhenkarte im Parameterraum. Wenn es z.B. nur ein homogener Untergrund ist, und ich eine Menge Widerstände dafür rate und dann jeweils den Unterschied zum gemessenen Wert modelliere, und dann Parameterwert gegen Diskrepanz auftrage, dann sehe ich das Tal.
    Ja, aber nur wenn ich das Modell auf meine Parameter anwende.