Hinweis: Sie werden im Titel des Parameter Manager Fensters einen beta-Vermerk sehen. Der Parameter Manager wurde projektspezifisch entwickelt, enthält jedoch viele sehr flexibel einsetzbare Funktionen. Diese konnten noch nicht in voller Gänze getestet werden. Wir haben darüber hinaus Tools zur Verfügung gestellt, deren Basis im Forschungsprojekt goCAM gelegt wurde. Wir erhoffen uns durch die Bereitstellung an weitere Anwender des SubsurfaceViewer einen größeren Erfahrungsschatz zur Verbesserung dieser Funktionen. Daher treten Sie gerne mit uns in Kontakt, um darüber ins Gespräch zu kommen und eine Weiterentwicklung eventuell voranzutreiben.
Wichtiger Hinweis: Manche der hier implementierten Funktionen nutzen Python. Am einfachsten für Sie ist es bei der SubsurfaceViewer Installation auch gleich die Python-Installation zuzulassen. Das garantiert Ihnen auch die Einbindung aller benötigten Bibliotheken. Außerdem sollten Sie unter Programmeinstellungen den python.exe-Pfad definiert haben.
Der Parameter Manager dient der Integration von Parametern in die Visualisierungsoptionen der SubsurfaceViewer-Benutzeroberfläche (z.B. LocViewObject). Zusätzlich stellt er vielfältige Preprocessing-Optionen für Ihren Datensatz bereit, wie Tabellenverknüpfungen, Zusammenführung von Daten an gleichen Standorten, Parser für Bohrungsbeschreibungen, Parameter-Analyse und erweiterte Klassifikationstools. Des Weiteren sind erweiterte Funktionen zur Analyse der Lithologie integriert. Wir haben ein Praxisbeispiel in dem Artikel Parameter integrieren zusammengetragen.
Hier finden Sie die Erklärungen zu den Funktionalitäten.
Den Parameter Manager finden Sie in der Hauptmenüleiste unter Tools -> Advanced Tools -> For parameter.
Es wird sich das untenstehende Fenster öffnen.
Die einzelnen Fensterabschnitte können Sie durch einen Mausklick auf die Stege und dann ziehen, in ihrer Größe auf Ihre aktuelle Aktivität anpassen.
Im oberen linken Abschnitt finden Sie Möglichkeiten Tabellen in verschiedenen Formaten einzuladen. Hier befindet sich auch die Parser-Funktion für *.blg-Dateien. Details hierzu sind in dem Abschnitt Tabellen laden -> Parser für Schichtbeschreibungen für Sie zusammengefasst.
Im oberen rechten Fenster werden Sie die Tabellen sehen, sobald Sie sie geladen haben. Jede Tabelle erscheint mit einem eigenen Reiter, mit denen Sie auch zwischen den geladenen Tabellen hin und her schalten können. Sie haben eine Werkzeugleiste zur Verfügung, die Ihnen vielfältige Analyse- und Preprocessing-Optionen für Ihre Tabelle(n) anbietet. Details hierzu finden Sie zusammengefasst in dem Abschnitt Mit Tabellen arbeiten.
Im linken unteren Abschnitt des Fensters sehen Sie verschiedene Knöpfe, mit denen Sie fortgeschrittene Analyse- und Preprocessing- sowie Klassifizierungsverfahren durchführen können. Von hier bereiten Sie Ihre Parameter für die Visualisierung in der Standard-Benutzeroberfläche des SubsurfaceViewer vor. Exportfunktionen in Vorbereitung auf eine Parameter-Interpolation mit 3D-IDW und 3D-Kriging sind ebenfalls integriert. Manche der Funktionen sind noch nicht aktiv, sofern Sie keinen Datenbaum aus Ihren Tabellen erstellt haben. Sie finden eine Zusammenfassung all dieser Funktionen in dem Abschnitt Parameter Funktionen.
Das rechte untere Fenster zeigt Ihnen die Benutzeroberflächen derjenigen Funktionen, die Sie links angeklickt haben.
Der Parameter Manager führt georeferenzierte Daten aus Tabellen im sogenannten Datenbaum (DataTree) zusammen.
Wenn Sie den Knopf DataTree im unteren linken Bereich drücken, wird der Datenbaum erzeugt.
Wichtig:
Der Datenbaum ist die wichtigste Grundlage für das vertiefende Arbeiten mit dem Parameter Manager. Wenn Sie also nicht einfach „nur“ auf Tabellen-Basis einige wenige Funktionen nutzen wollen, sollten Sie ihn unbedingt erstellen, auch wenn er bei datenintensiven Tabellenverknüpfungen (z.B. > 10 000 Bohrungen oder > 500 000 Punktdaten) etwas Zeit in Anspruch nimmt.
Sie müssen für den Aufbau des Datenbaums georeferenzierte Daten aus Tabellen geladen und ggfls. miteinander verknüpft haben.
Sein Aufbau ist hier symbolisch dargestellt.
Zunächst einmal werden sogenannte flüssige (fluent) Koordinaten aus denjenigen Spalten der geladenen Tabellen gelesen, die einen Raumbezug definieren. Wie Sie den Raumbezug der Tabellen dem System übergeben, können Sie hier nachlesen. Es geht dabei also um X-, Y- und Z-Koordinaten, aber auch relative Tiefen mit einem Top und einer Basis, wie das beispielsweise bei Kernproben vorkommen kann.
Die XY-Koordinaten bilden dabei den „Hauptstamm“ und die Z-Koordinaten die „Verzweigungen“. Alle Parameter, die durch Ihre Tabellenverknüpfungen und dem Tabellenstandort auf diese Koordinaten Bezug nehmen, bilden die „Blätter“ des Datenbaums. Sie werden gemäß Ihrer Spalteneinträge zu Attributen zusammengefasst, dem „Netzwerk“.
Die Attribute erhalten dabei den Namen der Tabellenkopfzeile in der entsprechenden Spalte, aus der der Parameter gelesen wurde, gefolgt von einem „@“-Symbol, und dahinter den Kurznamen der Ursprungstabelle. Das gewährleistet die Eindeutigkeit bei gleichen Spaltentiteln aus unterschiedlichen Tabellen.
Die flüssigen Koordinaten sind lediglich Tabellenreferenzen, genauso wie die Parameter-Werte. Sie werden stets direkt aus der Ursprungstabelle gelesen. D.h. wenn Sie beispielsweise eine X-Koordinate in der Tabelle ändern, dann ändert sich sofort auch die Position aller damit verknüpften Parameter im flüssigen Datenbaum. Sie werden eine mögliche Nutzung des flüssigen Datenbaums auch in der Erläuterung des LocView Objektes wiederfinden. Er dient zunächst aber zur Analyse Ihres Eingangsdatensatzes im Gegenzug zum eingefrorenen Datenbaum, den wir im Folgenden erläutern.
Der eingefrorene (frozen) Datenbaum erstellt Koordinatenstämme mit den konkreten Koordinateneinträgen als feste Zahlenwerte ohne Tabellenreferenzen. Sie sind nicht beim Bearbeiten veränderlich, solange Sie nicht einen neuen Datenbaum erstellen. Standorte mit der gleichen Koordinate, aber aus unterschiedlichen Tabellen oder doppelte Koordinateneinträge, werden hier zusammengelegt.
Hinweis: Die horizontale Toleranzdistanz für die Zusammenfassung bzw. zum "Einfrieren" der XY-Koordinaten entspricht der in den Projekteinstellungen definierten minimalen Punktdistanz. In der Vertikalen, also für die Tiefen, beträgt die Toleranz ein Millimeter.
Alle Parameterwerte aus den Attributen, die diesen Raumbezug erfüllen, werden mit der gefrorenen Koordinate verknüpft. Die Datenbaum-Erstellung mit der Anzahl der Koordinaten im flüssigen sowie im gefrorenen Datenbaum und der Attribute wird im Info-Fenster protokolliert, welches sich auch automatisch zu Ihrer Hilfestellung öffnet, wenn Sie den Datenbaum erstellen.
Der Datenbaum gewährleistet, kurz zusammengefasst, die richtige räumliche Verknüpfung von georeferenzierten Daten bzw. Parametern aus unterschiedlichen Tabellen. Dies kommt in der Praxis häufiger vor, denn Feld- oder Laborarbeiten werden oft durch unterschiedliche Firmen erstellt.
Tabellen mit georeferenzierten Label aus dem LogExplorer oder Drittquellen, lassen sich hier in gleicher Weise einspeisen, damit Sie mit weiteren Felddaten räumlich verknüpft und ggfls. auf Plausibilität getestet werden können.
Übrigens: Der Datenbaum speichert auch erzeugte SoilType-Objekte für die Lithologie, sowie erstellte lithologische Klassen.
Bitte beachten Sie, dass nur mit einem erstellten Datenbaum die Funktionen Filter & Statistics, Project View, Lithological Analysis und Table extraction zur Verfügung stehen. Alle anderen Funktionen können Sie direkt auf den eingeladenen Tabellen nutzen.
Des Weiteren werden alle geladenen Tabellen nur mit einem erstellten Datenbaum in der Projektdatei abgespeichert.
Hier finden Sie alle Informationen zum Laden von Tabellen in den Parameter Manager. Sie konzentrieren sich hierfür auf den linken oberen Abschnitt der Benutzeroberfläche.
Die Tabellen werden im Parameter Manager auf der linken oberen Seite über die zur Verfügung stehenden Buttons geöffnet. Die meisten Formate hierzu sind in diesem Artikel bereits zusammengefasst. Der Abschnitt Parser wird in einem eigenen Unterkapitel behandelt.
Wir haben in dem Beispiel eine beliebige ASCII-Text-Tabelle mit der Endung *.dat geladen. Bevor die Tabelle final importiert wird, legen Sie über die hier dargestellte Benutzeroberfläche noch die Einstellungen zum Import fest:
Wenn die Tabelle erfolgreich geladen wurde, dann sehen Sie sie nun auf der rechten oberen Fenster-Seite mit einem neuen Reiter. Der Reiter trägt den Kurznamen der Tabelle. Wenn Sie mit der Maus über den Titel fahren, können Sie einen Tooltip sehen, der die Anzahl der Zeilen und Spalten in der Tabelle anzeigt.
Auch in dieser Ansicht sind alle numerisch geladenen Spalten in weiß und alle Text-Spalten in grau angezeigt. Sie können die Spalten miteinander tauschen ohne den Datensatz selbst zu verändern. Sie nutzen dazu einfach die Drag&Drop-Funktion mit der Maus an der Kopfzeile. Wenn Sie mit der Maus auf die Kopfzeile einer Spalte klicken, dann wird sich die Ansicht der Tabelle nach dem Inhalt dieser Spalte sortieren – immer abwechselnd aufsteigend und absteigend. Auch das hat nur visuellen Einfluss und verändert Ihren eingeladenen Datensatz nicht.
Hinweis: Sie können immer nur eine Tabelle unter dem gleichen Pfad laden. Wenn Sie zum Beispiel nur einen Teil der Tabelle importiert haben und nun einen anderen Teil aus der gleichen Quelle dazu laden wollen, dann sollten Sie den zuerst geladenen Teil unter einem neuen Pfad erstmal abspeichern. Dazu verwenden Sie einfach das Speichern-Symbol unten auf der Tabellen-Werkzeugleiste.
Der Parser für Schichtbeschreibungen übersetzt, strukturiert und sortiert bestimmte Sedimenteigenschaften in ein neues Tabellenformat mit dem Sie vereinfachter Analysen während Ihrer Modellierung durchführen können. Er ist im Rahmen des goCAM-Forschungsprojektes entstanden. Dort wurden die erzeugten Tabellen für ein Machine Learning-gestütztes Labeling von Sedimenten genutzt.
Sie finden diese Funktion in dem blau gerahmten Abschnitt auf der linken oberen Seite des Parameter Managers.
Er kann auf die Übersetzung von Schichtbeschreibungen mit englischer Syntax oder mit (SEP1/)SEP3 Syntax unter Format eingestellt werden.
Wichtiger Hinweis: Sie müssen ausprobieren, ob die Syntax Ihrer Schichtbeschreibungen zum Parser passend ist. Falls dies noch nicht der Fall sein sollte und Sie die Syntax Ihrer Schichtbeschreibungen beispielhaft mit uns teilen können, dann schreiben Sie uns gerne. Wir möchten den Parser in unseren weiteren Entwicklungen verbessern und auf multiple Anwendungsfälle hin ausbauen. Des Weiteren sollten Sie im Hinterkopf behalten, dass wir uns in unserer Entwicklung auf den Lockersedimentbereich konzentriert haben. Es ist möglich, dass Sie diese Funktionalität nicht oder nur mit großer Vorsicht für Ihre Arbeit mit Festgestein nutzen können.
Um den Parser überhaupt verwenden zu können, müssen Sie Python installiert haben. Lesen Sie die Hinweise dazu oben in der Einleitung.
Des Weiteren benötigen Sie eine geladene *.blg-Tabelle. Diese Tabelle wird übersetzt werden. Sie sollten sich für die *.blg-Tabelle an die im verlinkten Artikel beschriebene Format-Vorlage halten. Zuletzt werden Sie noch ein Dictionary einladen müssen. Wir bieten Ihnen eine Vorlage dazu auf Anfrage an. Schreiben Sie uns dafür einfach eine kurze Email.
Sie starten den Parser mit dem großen Knopf auf der rechten Seite im Feld. Wenn Sie noch keinen Python-Pfad in den Programmeinstellungen definiert haben, erhalten Sie eine Fehlermeldung. Sollte der Start gut verlaufen sein, öffnet sich das Info-Fenster. Sie erhalten hier einige Information zum Python-Prozess. Meistens werden diese jedoch erst gerendert, wenn der Prozess abgeschlossen wurde. Bitte beachten Sie, dass es bei mehreren 10er-tausend Einträgen von Schichtbeschreibungen ein wenig dauern kann bis die Übersetzung abgeschlossen ist. Sie erhalten im Anschluss außerdem noch ein Popup-Fenster mit der Information über den abgeschlossenen Prozess.
Die übersetzte *.blg-Datei finden Sie stets im gleichen Ordner Ihrer Eingabedatei. Zur Ablage wird der gleiche Dateiname mit der Zugabe _parsed abgelegt. Darüberhinaus wird noch eine Datei mit gleichem Namen und dem Zusatz _unknownWords ausgegeben. Das ist eine einfache Tabelle mit zwei Spalten. Sie listet in der ersten Spalte die Wörter, die keine Übersetzung fanden, und in der zweiten Spalte den Namen der Bohrung, wo dieses Wort aufgetaucht ist. So haben Sie einerseits die Möglichkeit das Dictionary aufzurüsten oder aber ggfls. Korrekturen in der Eingabedatei vorzunehmen. Sie werden so auch auf eventuelle Rechtschreibfehler in den Schichtbeschreibungen stoßen, die es verhindert haben ein Information richtig abzuleiten. Auch diese können Sie dann im Dictionary nachrüsten.
Die Ausgabe des Parsers ist eine einfache TAB-getrennte strukturierte Tabelle im *.blg-Format. In der ersten Spalte steht der Name der Bohrung bzw. der Schlüssel der Schichtbeschreibung und in der zweiten Spalte die Tiefe in Bezug auf die Geländeoberkante in Meter. In der dritten Spalte finden Sie den Text der Schichtbeschreibung im Original, wie er in die Übersetzung eingeflossen ist. Finden Sie in dem Text ein "False", dann hat es keine gleichen Schichtbeschreibungen in der Datei gegeben. Ein "True" deutet auf ein Duplikat hin. Darauf folgen Spalten, die in den folgenden Unterkapiteln besprochen werden.
Darunter werden Sie allerdings auch noch die Spalte WARNINGS und FeatureDensity finden. In WARNINGS werden alle Warnungen des Parsers gespeichert. Sie sollten diese Spalte also lesen und die Ausgabe auf den dort erwähnten Hinweis hin prüfen. Die Spalte FeatureDensity zeigt die Anzahl der Einträge in der Schichtbeschreibung aus der sich eine Information ableiten ließ. Eine hohe Zahl deutet also auf eine detaillierte Beschreibung hin, während einer geringen Zahl eine grobe Schichtbeschreibung zugrundeliegen kann.
Das Dictionary ist eine vereinfachte XML-Datei. Sie beinhaltet die obligatorischen Kategorien in Tags, die sich aus Schichtbeschreibungen regulär auslesen lassen würden.
Pro Kategorie gibt es einen bestimmten Übersetzungsweg mit Regeln und ein Zielformat der Ausgabe.
Innerhalb der Tags des Dictionary werden Sie einfache zweispaltige Tabellen finden, deren Spalten TAB-getrennt werden. In der ersten Spalte steht immer das gesuchte Wort oder Kürzel, welches zur Kategorie zugeordnet und ggfls. übersetzt werden soll. In der zweiten Spalte steht die Übersetzung, teils mit spezifischen Regeln verbunden. In vielen Kategorien darf die zweite Spalte auch leer bleiben. Lesen Sie einfach den unteren Abschnitt.
Die Tags der Kategorien lassen Sie in jedem Fall in jeder Dictionary-Datei stehen. Die Inhalte, also die Tabellen unter den Tags, dürfen jedoch bearbeitet werden oder leer sein. Die zweite Spalte kann zur Zusammenfassung von Begriffen und Kürzeln mit gleicher oder ähnlicher Bedeutung dienen. Das hat große Vorteile in der Auswertung oder für eine Verwendung im Machine Learning-gestützten Labeling-Verfahren (z.B. "partienweise", "Partien von" kann zu "partienweise", oder "Holzstücke", "Holzreste", "Holz" zu "Holz" zusammengefasst werden).
Tipp:
Sie können der *.blg-Datei eine funktionale Kopfzeile geben, mit der Sie weitere Bedingungen an den Parser stellen.
Sind die Namen in der Kopfzeile der Spalten in der *.blg-Kopfzeile allesamt unterschiedlich zu den Tag-Namen des Dictionary, werden für jede *.blg-Spalte auch alle Kategorien des Dictionary auf Übersetzung getestet.
Ein Tag-Name in der Kopfzeile einer bestimmten Spalte bedeutet, dass für diese Spalte auch explizit diese Kategorie zur Übersetzung zugeordnet wurde. Keine andere Spalte würde noch mit dieser Kategorie getestet werden.
Wird der Tag-Name mit einem vorgestellten * in der Kopfzeile eingetragen, wird die Spalte auf diese Kategorie hin geprüft, nachfolgende Spalten können jedoch auch auf diese Kategorie getestet werden.
Die Zuordnung mehrerer Kategorien zu einer Spalte bewerkstelligen Sie mit den Einträgen der Namen begleitet von einer /-Trennung.
Im Folgenden sind die Bedeutungen der Dictionary-Kategorien mit Ihren Regeln und Ausgabeformaten gelistet:
Regel und Zielformat der Übersetzung:
Die Stratigraphie wird im Parser dreiteilig behandelt, was bedeutet, dass zur Übersetzung drei Spalten in der Ausgabe entstehen:
Im Wörterbuch müssen die IDs für SYSTEM und SERIES durch einen Punkt zusammengefasst werden, z.B. 1.2, 2.2, 2.3, usw.. STAGE wird durch ein Semikolon ; getrennt.
Die Regel für eine Übersetzung der Stratigraphie sieht also beispielsweise so aus: qhKh TAB 1.1;Kuestenholozaen.
Nutzen des Zielformats:
Die Übersetzung des stratigraphischen Systems und der Serie in Ganzzahlen, bzw. gglfs. in Dezimalzahlen mit einer Stelle, ermöglicht es Ihnen computergestützten Funktionen die stratigraphischen Zuordnungen in ihrer chronologische Reihenfolge mitzuteilen. So lässt es sich leichter von Jung nach Alt oder umgekehrt sortieren. Die Dreiteilung ermöglicht den Aufbau einer Hierarchie.
Hier werden die Wörter und Kürzel zur Beschreibung der Korngrößengruppe im Hauptanteil (MAINLITH) und im Nebenanteil (ACCESSORYLITH) des Sediments gelistet. Diese Kategorien sind wichtigster Bestandteil der lithologischen Beschreibung.
Regeln:
Die Lithologie ist ausschlaggebend für eine Vielzahl von Sedimentparametern, die sich aus ihr ableiten lassen, z.B. das Porenvolumen, die hydraulische Durchlässigkeit, die Bindigkeit, das relative Quellvermögen und weitere. Daher sind für diese Kategorien (gemeinsam mit ACCESSORYMIXED und SOILTYPESWITHLITH) besondere Regeln und Zielformate vorgesehen.
Die Lithologie kann in der ersten Spalte einfach als Wort oder Kürzel eingetragen werden. Beispielsweise finden Sie in der SEP3-Syntax "T" für "Ton". Sie können aber auch das Wort "Ton" hier direkt eintragen. In Schichtbeschreibungen kommen auch hin und wieder nicht konforme Wörter oder Wörter mit Rechtschreibfehlern vor. Wenn Sie das entdeckt haben, können Sie diese hier auch eintragen und dennoch richtig übersetzen lassen.
Die zweite Spalte muss besetzt sein. Die Übersetzung orientiert sich diesmal tatsächlich an den Kürzeln aus der SEP3-Syntax und erfolgt so:
Bedeutung Deutsch | Bedeutung englisch | Übersetzungsregel Dictionary |
---|---|---|
Ton | Clay | T |
Schluff | Silt | U |
Sand | Sand | S |
Kies | Gravel | G |
Steine | Stones | X |
Blöcke | Blocks | Bloecke |
Große Blöcke | Great blocks | Grossbloecke |
_____________________________ | _____________________________ | ________________________________ |
feinster (nur Sand) | finest (sands only) | ff |
fein (nur Sand und Kies) | fine (sand & gravel only) | f |
mittel (nur Sand und Kies) | medium (sand & gravel only) | m |
grob (nur Sand und Kies) | coarse (sand & gravel only) | g |
_____________________________ | _____________________________ | ________________________________ |
tonig | clayey | T |
schluffig | silty | U |
sandig | sandy | S |
kiesig | gravelly | G |
steinig | stoney | X |
Beachten Sie, dass in der SEP3-Syntax die Buchstaben für die Nebengemengteile klein geschrieben werden, Sie in diesem Dictionary es jedoch bei Großbuchstaben belassen. Ob etwas Nebengemengteil ist, erschließt sich durch die Regeln des Parsers und den Wörtern, die Sie jeweils in MAINLITH oder ACCESSORYLITH zuordnen.
"Mittelsand" würde mit "mS" eingetragen werden, und "Feinkies" mit "fG", genauso wie "mittelsandig" und "feinkiesig"
Intern werden die Lithologie-Beschreibungen außerdem auf Intensitäten überprüft. Für SEP1/SEP3 werden die Ganzzahlen im Anhang eines Lithologie-Kürzels verarbeitet. Für die englische Syntax wird die Position der betreffenden Stichwörter, die Sie unten in der Tabelle beispielhaft sehen, überprüft und zugeordnet. Auf from-to-Fälle wird ebenfalls geprüft.
Bedeutung Deutsch (SEP3) | Bedeutung englisch | Übersetzungsregel Dictionary |
---|---|---|
sehr stark (5) | very strong | 5 (35 - ~60 % -> 39.99 %) |
stark (4) | strong | 4 (25 - 35 % -> 30 %) |
mittel (3) | medium | 3 (15 - 25 % -> 20 %) |
schwach (2) | slightly | 2 (7.5 - 15 % -> 10 %) |
sehr schwach (1) | very slightly | 1 (2.5 - 7.5 % -> 5 %) |
Eine lithologische Beschreibung, die beispielsweise "Mittelsand, schluffig, feinkeisig" ("medium sand, silty, fine gravelly") lautet, würde mit "mS(6), U(3), fG(3)" übersetzt werden. Das ist aber noch nicht alles. Intern finden weitere Prozesse mit dieser Information statt. Lesen Sie hierzu einfach weiter.
Zielformat: Die übersetzte Lithologie wird in der Ausgabetabelle folgend ausgegeben:
LITHOLOGY: hier steht ein Text in Array-Form mit folgender Ordnung -> [clay, silt, finest fine sand, fine sand, medium sand, coarse sand, fine gravel, medium gravel, coarse gravel, stones, blocks, great blocks]. Eingetragen in dieser Liste sind geordnete Ganzzahlen für die Intensität des Vorkommens im Sediment. Die Zahlen entsprechen der oben angeführten Tabelle (1-5). Hauptanteile des Sediments erhalten eine 6. Es kann vorkommen, dass in der Schichtbeschreibung nur "Sand" oder "Kies" ohne weitere Unterteilung in "fein, mittel, grob" angegeben wird. Wenn das der Fall ist, wird vereinfacht angenommen, dass alle drei Unterfälle zu gleichen Teilen im Sediment vorhanden sind. Das ist in der Regel nicht der Fall, jedoch wäre eine richtige Zuordnung von Untergliedern nur möglich, wenn sich dies aus einem genetischen Zusammenhang der Ablagerung erschließen würde. Und hier gibt es, je nach Sedimentgenese, Unterschiede. Daher kann der Parser eine "schlauere" Ableitung jetzt noch nicht leisten. Es wird aber in der Ausgabe-Spalte WARNINGS eine Warnung ausgegeben, dass hier eine grobe Sedimentbeschreibung vorlag, so dass Sie im Postprocessing diese Fälle rasch auffinden können und bei Bedarf nacharbeiten können.
PERCENT_GRAINSIZES: hier steht ein Text in Array-Form mit folgender Ordnung -> [clay, silt, finest fine sand, fine sand, medium sand, coarse sand, fine gravel, medium gravel, coarse gravel, stones, blocks, great blocks]. Anders als in der Spalte LITHOLOGY sind hier die abgeleiteten Prozentanteile einer Korngröße im Sediment gelistet. Hierfür wird konservativ der initiale Anteil der Korngröße am Sediment gemäß der obigen Tabelle angesetzt. Bei Über- oder Unterschreitung der Summe auf 100%, findet eine Korrektur statt. Hierbei wird gewährleistet, dass der Anteil einer Korngröße am Sediment mit der Intensität 1 (=sehr schwach) nicht die 5% Marke und die deklarierten Hauptanteile in Summe nicht die 60% Marke unterschreiten. Das Ergebnis in dieser Spalte lässt sich also vergleichen mit Ergebnissen einer Siebkornanalyse. Die Ableitung erfolgt mit konservativen Ansätzen aus den Schichtbeschreibungen.
Wichtiger Hinweis: Lesen Sie hierzu auch unbedingt die Abschnitte für ACCESSORYMIXED und SOILTYPESWITHLITH. Denn dies sind Kategorien, die ebenfalls einen Einfluss auf die Spalten LITHOLOGY und PERCENT_GRAINSIZES haben.
Wurden die Angaben für die Lithologie übrigens von einem Kürzel oder Wort einer Untereinheit begleitet, dann werden sie gesondert behandelt. Diese Angaben werden in den Spalten SU_LITHOLOGY und SU_PERCENT_GRAINSIZES gelistet. "SU_" steht also für "Subunit". Regeln für die Untereinheiten können dem Workflow-Chart des Parsers entnommen werden.
Nutzen des Zielformats: Vor allem das Zielformat PERCENT_GRAINSIZES wird im Parameter Manager an einigen anderen Stellen nutzbar. Hiermit können Sie Ihre abgeleiteten Sedimentzusammensetzungen in einem Ternärdiagramm darstellen lassen, Sedimenttypen manuell oder mit Clustering-Verfahren klassifizieren und hypothetische Verteilungen von hydraulischen Durchlässigkeiten ausgeben lassen. Diese Spalte dient auch als Basis zur Berechnung von Grobheitskurven, um die Lithologie als Downhole-Kurve in weiteren Plots darzustellen.
Hier werden die Wörter und Kürzel von Schichtbeschreibungen gelistet, die eine zusammenfassende oder indirekte Information zur Lithologie tragen. Es handelt sich um Wörter wie: "Lehm", "lehmig", "Löß", "Mergel", "Geschiebesand" etc. In ACCESSORYMIXED sind es die Beimengungen (z.B. lehmig) und in SOILTYPESWITHLITH sind es die Beschreibungen des Hauptsediments (z.B. Lehm).
Regeln:
Der Parser enthält für diese Stichworte einige konservative Annahmen zu den Korngrößenanteilen im Sediment, die wir aus der Literatur (insbesondere Quartär und Boden) entnommen haben. Die Ergebnisse werden dem Ausgabeformat für die Lithologie hinzugefügt, wobei Angaben zu MAINLITH und ACCESSORYLITH Vorzug haben.
Es kommt jedoch häufig vor, dass diese Stichwörter nicht von genaueren lithologischen Beschreibungen begleitet werden. Um Informationsverlust zu vermeiden, können Sie diesen Umstand mit dem Parser berücksichtigen. In den assoziierten Beschreibungen stecken zum Teil auch Hinweise auf andere Sedimentparameter, wie beispielsweise Karbonatgehalt (z.B. "Löß", "Mergel"). Auch diese Sedimenteigenschaften werden konservativ ins Regelwerk mit aufgenommen.
Wenn Sie keine Integration dieser Stichwörter wünschen, können Sie die beiden Kategorien im Dictionary auch einfach leer lassen.
Hinweis: Sie müssen für diese Kategorien die zweite Spalte nicht besetzen, wenn der Begriff der ersten Spalte für eine Übersetzung auch so verwendbar ist, wie z.B. Lehm, Mergel. Besorgen Sie sich am besten unsere Vorlage des Dictionary.
Zielformat: Die übersetzte Lithologie, sowie der Karbonatgehalt wird in der Ausgabetabelle folgend ausgegeben:
Wichtiger Hinweis: Schauen Sie sich unbedingt auch die Abschnitte MAINLITH, ACCESSORYLITH und CARBONATE an.
Wurden die Angaben für diese Kategorien übrigens von einem Kürzel oder Wort einer Untereinheit begleitet, dann werden sie gesondert behandelt. Diese Angaben werden in den gleichnamigen Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats: Vor allem das Zielformat PERCENT_GRAINSIZES wird im Parameter Manager an einigen anderen Stellen nutzbar. Hiermit können Sie Ihre abgeleiteten Sedimentzusammensetzungen in einem Ternärdiagramm darstellen lassen, Sedimenttypen manuell oder mit Clustering-Verfahren klassifizieren und hypothetische Verteilungen von hydraulischen Durchlässigkeiten ausgeben lassen. Diese Spalte dient auch als Basis zur Berechnung von Grobheitskurven, um die Lithologie als Downhole-Kurve in weiteren Plots darzustellen.
In dieser Kategorie listen Sie Kürzel und Begriffe, die das Vorkommen einer Untereinheit kennzeichnen. Die Einträge sind wichtig, um zu verhindern, dass lithologische Angaben zum Hauptsediment mit Angaben zu Untereinheiten vermischt werden.
Regeln:
Die Regeln für die Ableitung einer Untereinheit sind vor allem für die SEP1/SEP3-Syntax komplexer. Sie können dem Workflow-Chart entnommen werden.
Die zweite Spalte darf in dieser Kategorie auch leere Einträge enthalten. Dann weisen Sie lediglich auf die Suche nach dem Begriff hin, ohne dass dieser übersetzt wird. Die zweite Spalte kann zur Vereinheitlichung von ähnlichen Begriffen dienen, z.B. "partienweise", "Partien von", "stellenweise" -> "partienweise". Wenn Sie diese Option nutzen, werden Sie später in der Auswertung deutliche Vorteile bemerken, da Sie eine Vielfalt von Begriffen mit gleicher oder ähnlicher Bedeutung gemeinsam visualisieren und auswerten können. Auch für Machine Learning-gestütztes Labeling kann das große Vorteile haben.
Wichtiger Hinweis: Aufgrund der Vielfalt im Vorkommen möglicher Schichtbeschreibungen ist es mit einem Übersetzungsregelwerk nicht möglich alle Fälle für Untereinheiten per se abzudecken, auch wenn wir schon viele Fälle aufnehmen konnten. Grundsätzlich ist eine Übersetzung umso sauberer, je konsistenter die Schichtbeschreibungen selbst schon vorliegen und gewissen Regeln untergeordnet sind. Eine konsistente Schichtdatenbank hat also in jedem Fall Vorteile. Dennoch können wir eventuell neue Regeln aufnehmen, falls Sie eine entdecken, die bisher durch den Parser noch nicht verfolgt wurde. Schreiben Sie uns in diesem Fall doch gerne an.
Zielformat und Nutzen des Zielformats:
Alle als Untereinheiten aufgefundenen und gglfs. übersetzten Begriffe werden in der Ausgabetabelle mit der Spalte SU_SUBUNITLABEL gelistet. Wenn es mehrere Angaben gab, werden Sie durch ein ; getrennt.
Alle Merkmale, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet. "SU_" steht also für "Subunit".
Die Inhalte der Spalte SU_SUBUNITLABEL können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Das Vorkommen von Untereinheiten kann in der Modellierung zum Beispiel Hinweise auf eine Umlagerung von Sedimenten offenlegen. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen.
Diese Kategorie listet separat Kürzel oder Begriffe, die Festgestein beschreiben.
Regeln:
Tragen Sie hier einfach die Suchbegriffe für Beschreibungen des Festgesteins in der ersten Spalte ein. Mit der zweiten Spalte können Sie ähnliche oder gleiche Bedeutungen unterschiedlicher Beschreibungen zu einem Zielwort zusammenfassen.
Zielformat und Nutzen des Zielformats:
Die Übersetzung dieser Kategorie befindet sich in der Ausgabe-Tabelle in der Spalte SOLIDLITHS. Bei multiplen Einträgen in einer Schicht, werden die Ergebnisse mit einem ; getrennt gelistet.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Die Inhalte der Spalte SOLIDLITHS können gefiltert visualisiert werden. Befinden Sie beispielsweise Findlinge bestimmter Gesteinsart in einer eiszeitlichen Ablagerung, geben sie vielleicht wertvolle Hinweise auf die Transportwege bzw. die Eisbewegung. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen.
Diese Kategorie listet separat Kürzel oder Begriffe, die Organik (ORGANICS) oder organische Beimengungen (ORGANICSIN) beschreiben.
Regeln::
Tragen Sie hier einfach die Suchbegriffe für Beschreibungen der Organik oder organischer Beimengungen in der ersten Spalte ein. Mit der zweiten Spalte können Sie ähnliche oder gleiche Bedeutungen unterschiedlicher Beschreibungen zu einem Zielwort zusammenfassen.
Zielformat:
Die Übersetzung dieser Kategorie befindet sich in der Ausgabe-Tabelle in den Spalten:
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet. "SU_" steht also für "Subunit".
Nutzen des Zielformats:
Die Inhalte der Spalte ORGANICS können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen. Die Spalte ORGSUM gibt Ihnen einen relativen Eindruck des Organikgehalts in einem numerischen Format. Auch das lässt sich in bestimmten Fällen und bei guter Übersetzung vorteilhaft auswerten.
In dieser Kategorie können Sie alle Wörter und Kürzel der Sedimentbeschreibung hinzufügen, die zu keiner der anderen Kategorien zugeordnet werden konnten.
Regeln:
Sie tragen in der ersten Spalte einfach den Suchbegriff ein, den Sie auch in der Ausgabe-Tabelle wiederfinden möchten. Die zweite Spalte dient der Übersetzung und ist ebenfalls, je nach Wunsch, ein Wort oder Kürzel. Sie können mit der zweiten Spalte auch Wörter mit ganz ähnlicher oder derselben Bedeutung zu einem Zielwort zusammenfassen. Die zweite Spalte darf auch leer bleiben, dann wird nur gesucht und der Kategorie zugeordnet, jedoch nicht übersetzt.
Zielformat:
Sie finden das Ergebnis der Übersetzung in der Spalte OTHERATTR. Gibt es multiple Einträge hierzu aus der Schichtbeschreibung, werden die Begriffe mit einem ; getrennt.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats:
Die Inhalte der Spalte OTHERATTR können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen.
In dieser Kategorie werden die beschriebenen Begriffe zum Mineralgehalt und Fossilgehalt des Sediments zusammengefasst.
Regeln:
Sie tragen in der ersten Spalte einfach den Suchbegriff ein, den Sie auch in der Ausgabe-Tabelle wiederfinden möchten. Die zweite Spalte dient der Übersetzung und ist ebenfalls, je nach Wunsch, ein Wort oder Kürzel. Sie können mit der zweiten Spalte auch Wörter mit ganz ähnlicher oder derselben Bedeutung zu einem Zielwort zusammenfassen. Die zweite Spalte darf auch leer bleiben, dann wird nur gesucht und nicht übersetzt.
Zielformat:
Sie finden das Ergebnis der Übersetzung in der Spalte MINERALFOSSIL. Die Ausgabe von Mineral- und Fossilgehalt ist ein Text im Python-Dictionary-Format. Wer jemals ein Python Dictionary mit Pandas in einen Text zurückgeschrieben hat, der ist mit diesem Format vertraut. Die Information wird stets geschwungen geklammmert. Leere Dictionaries sehen so {} aus. Der Suchbegriff bzw. der übersetzte Begriff steht in einfachen Anführungszeichen '. Dahinter finden Sie einen Doppelpunkt :. Dann folgt eine Liste in Array-Form mit einer eckigen Klammer und darin Ganzzahlen gelistet. Meistens ist es nur eine Ganzzahl. Dies sind die in den Beschreibungen aufgefundenen Intensitäten des Mineral- bzw. Fossilgehalts. Wurde im Grunde keine Intensitätsangabe in der Beschreibung gefunden, wird automatisch eine 3 für mittel zugeordnet.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet. "SU_" steht also für "Subunit".
Nutzen des Zielformats:
Die Inhalte der Spalte MINERALFOSSIL können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen. Sofern bestimmte geologische Einheiten auffälliges Vorkommen von bestimmten Mineral- oder Fossilgehalte zeigt, wird sich dies auch im Ergebnis eines Machine Learning-gestützten Labeling widerspiegeln.
In dieser Kategorie können Sie Wörter oder Kürzel mit Hinweisen zum Karbonatgehalt des Sediments eintragen.
Regeln:
Sie geben in der ersten Spalte, wie gewohnt, das Kürzel oder Wort ein, nachdem gesucht bzw. welches übersetzt werden soll. Beachten Sie, dass bei dem Kürzel "k" in der SEP1/SEP3-Syntax eine Intensitätszahl nachgestellt sein kann. Das wird automatisch im Parser berücksichtigt, so dass Sie hier nur das "k" eintragen müssen. Das "k" sollten Sie auch in der zweiten Spalte der Übersetzung aufführen, wenn Sie Intensitätsangaben zum Karbonatgehalt erwarten. Soll bloß in "karbonatisch" mit Intensität = 3 übersetzt werden, dann tragen Sie auch in der zweiten Spalte "karbonatisch" ein.
Ähnlich verhält es sich für englischsprachige Übersetzungen: hier tragen Sie das Wort "calcareous" ein.
Für die Bedeutung "kalkfrei" müssen Wörter mit diesem Stichwort, also "kalkfrei", übersetzt werden. Für die englischsprachige Übersetzung tragen Sie die Wörter "non-calcareous" oder "carbonate-free" in der zweiten Spalte ein.
Angaben wie "frei von Kalk" oder "non calcareous" werden Ihnen in der Übersetzung Schwierigkeiten bereiten, da sie mit einem Leerzeichen getrennt sind und es möglich sein kann, dass der Parser den Zusammenhang nicht erkennt. Sie sollten solche Fälle vor des Parser-Laufs in Ihrer Eingabedatei abfangen, um eine richtige Übersetzung zu erhalten.
Angaben wie "Kalk", "Kalkmudde" oder ähnliches funktionieren ebenfalls und erkennen das Sediment als deutlich kalkhaltig an. Wie sich das auswirkt lesen Sie in den Angaben zum Zielformat.
Zielformat:
Die Übersetzung finden Sie in der Spalte CARBONATE der Ausgabe-Tabelle. Es handelt sich hier um einen numerischen Eintrag. Suchwörter für einen existierenden Karbonatgehalt mit Intensitäten erhalten die entsprechende Intensitätszahl, wie das auch bei der LITHOLOGY der Fall ist. Sind keine Angaben zur Intensität und/oder die Stichwörter "calcareous", "karbonatisch", "Mergel" oder "Löß" vorhanden, wird obligatorisch eine 3 gesetzt. Beachten Sie, dass "Mergel" und "Löß" aus der Kategorie SOILTYPESWITHLITH oder ACCESSORYMIXED ("mergelig") stammen können. Angaben mit "kalkfrei" oder "non-calcareous"/"carbonate-free" erhalten eine 0 als numerisches Äquivalent. Alle anderen Einträge in dieser Kategorie werden eine 5 erhalten. Kommen mehrere Angaben in einer Schichtbeschreibung vor, wird ein Mittelwert gebildet. Sind keine Angaben zum Karbonatgehalt vorhanden, findet sich in der entsprechenden Zeile der Ausgabe auch kein Eintrag, also keine Zahl.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats:
Die Inhalte der Spalte CARBONATE können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen.
In dieser Kategorie speichern Sie Suchwörter und Kürzel, die auf einen Eisengehalt im Sediment hinweisen.
Regeln:
Sie geben in der ersten Spalte, wie gewohnt, das Kürzel oder Wort ein, nachdem gesucht bzw. welches übersetzt werden soll. Die zweite Spalte muss eingetragen werden und erhält immer eine Ganzzahl. Sie können sich hier an den im Parser an anderer Stelle verwendeten Intensitätszahlen richten. In unserer bisheriger Arbeit war es aber auch ausreichend nur die 1 als Übersetzung zu verwenden, um das Vorhandensein bloß zu kennzeichnen, da eine Intensität nicht wirklich ableitbar war.
Zielformat:
Die Übersetzung finden Sie in der Spalte IRON der Ausgabe-Tabelle. Es handelt sich hier um einen numerischen Eintrag und entspricht der Zahl, die Sie in der zweiten Spalte des Dictionary eingetragen haben. Ist keine Angabe zum Eisengehalt vorhanden gewesen, wird hier, anders als beim Karbonatgehalt, eine 0 gesetzt, da uns die Angabe "eisenfrei" noch nicht untergekommen ist.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet. "SU_" steht also für "Subunit".
Nutzen des Zielformats:
Die Inhalte der Spalte IRON können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionelle Modelle helfen.
Hier übersetzen Sie Angaben zur Konsistenz oder Dichte des Sediments.
Regeln:
Sie geben in der ersten Spalte, wie gewohnt, das Kürzel oder Wort ein, nachdem gesucht bzw. welches übersetzt werden soll. Die zweite Spalte muss eingetragen werden und kann eine Ganzzahl oder ein Wort enthalten. Werden Wörter eingetragen, gehen wir immer von einer Intensitätsangabe in der Schichtbeschreibung aus. Die Beschreibung sollte also von einer solchen begleitet werden. Ist keine Intensität aufzufinden, wird automatisch mit 3 übersetzt. Wir können Ihnen an der Stelle aber ein sinnvolles ordinales Zahlenschema empfehlen, z.B. aufsteigend für größere Dichten oder festere Konsistenzen.
Zielformat:
Die Übersetzung finden Sie in den Spalten CONSISTENCY und DENSITIES der Ausgabe-Tabelle. Es handelt sich hier i.d.R. um einen numerischen Eintrag und entspricht der Zahl, die Sie in der zweiten Spalte des Dictionary eingetragen haben. Konnten "from - to-Angaben ermittelt werden, werden Mittelwerte ausgegeben. Andersartige Mehrfachangaben werden mit einem ; getrennt gelistet. In diesen Spalten können also sowohl numerische Daten, wie auch Text-Daten durch die Semikolon-Trennung enthalten sein.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats:
Die Inhalte der Spalte CONSISTENCY und DENSITY können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Allerdings sind die Angaben in Schichtbeschreibungen, die aus Bohrarchiven stammen, aus unserer Erfahrung heraus meist recht ungenau. Für eine Untersuchung von Sedimentkonsistenzen und -dichten empfehlen wir also geotechnische Felddaten zu Rate zu ziehen.
Mit COLORS übersetzen Sie Angaben zur Sedimentfarbe in RGBA-Äquivalente.
Regeln:
Sie nutzen für die erste Spalte des Dictionary die Kürzel oder Wörter der Grundfarben und Farbattribute, die typischerweise für Sedimentbeschreibungen erwähnt werden. Die Grundfarben sind beispielsweise "grau", "beige", "gelb", "grün", "schwarz" usw.. Die Farbattribute sind Zusätze, die die Ausprägung der Farbe beschreiben, wie beispielsweise "dunkel", "hell", "-lich" usw.
In der zweiten Spalte tragen Sie für die Grundfarben die RGBA-Werte (Rot, Grün, Blau, Alpha) im Zahlenschema 0-255 ein. Sie müssen sie Komma-(,)getrennt listen. Wir empfehlen Ihnen Farbwerte auszuwählen, die auch tatsächlich der Sedimentfarbe nahe kommen. Ein als "gelb" bezeichnetes Sediment ist eben nicht "quietsch-gelb". Sie können beispielsweise das Farbauswahlwerkzeug des Legenden-Editors nutzen, um einen realistischen gelben Sedimentton in RGB herauszusuchen.
Normalerweise sind die Sedimentfarben in den Beschreibungen zusammengesetzte Wörter, wie z.B. "graugelb" oder "gelblichgrau". Die Zusammensetzung wird vom Parser detektiert. Daher brauchen Sie sich hierzu keine Gedanken mehr machen. Etwas komplexer ist dagegen die Auswahl für die Farbattribute "dunkel", "hell" usw. Hier haben Sie die Möglichkeit selbst eine Rechenoperation dafür einzugeben, um beispielsweise den Einfluss des Attributs "dunkel" mit den RGB-Werten zu verrechnen.
Grundsätzlich kann man als Faustregel sagen, dass höhere RGB-Werte bzw. höhere Summen aus den RGB-Werten helleren Farben entsprechen als niedrige Werte.
Die Rechenoperationen können mit einfachen Operatoren, * für Multiplikation, + für Addition und - für Subtraktion, und einem nachfolgenden Faktor eingetragen werden. Sie können dem Faktor auch die Markierung % hinzufügen, wenn der Faktor ein prozentualer Anteil der vorliegenden Farbwerte zwischen 0 und 255 sein soll. Sie können Vorschläge für solche Faktoren gerne unserer Dictionary-Vorlage entnehmen. Wir empfehlen, dass Sie ein paar Farbkodierungen und dessen Ergebnisse austesten, um an die für Sie realistischsten Farbübersetzungen aus den Beschreibungen heranzukommen.
Zielformat:
Die Übersetzung der Ausgabe für die Sedimentfarben finden Sie in der Ausgabe-Tabelle unter COLORS sowie, für Untereinheiten, in SU_COLORS. Das Format ist ein Text in Array-Form, d.h. die RGBA-Werte sind mit einer eckigen Klammer umgeben und innerhalb befinden sich kommagetrennt die Werte zwischen 0 und 255 gelistet. War keine Farbkodierung oder -beschreibung in der Schichtbeschreibung vorhanden, wird an dieser Stelle die RGBA-Kodierung für reines Weiß "[255, 255, 255, 255]" gesetzt.
Nutzen des Zielformats:
Sie können im Parameter Manager die übersetzte Lithologie im Ternärdiagramm darstellen lassen. Wenn Sie in diesem Fenster die Spalte COLORS als Farbattribut der Darstellung auswählen, werden Ihnen die Punkte im Ternärdiagramm anhand der RGBA-Werte in der Spalte COLORS angezeigt. Sie sehen also im Idealfall die Verteilung der Korngrößen gemeinsam mit der assoziierten Sedimentfärbung. Des Weiteren steht Ihnen diese Spalte auch für Machine Learning-gestütztes Labeling zur Verfügung. Hier haben wir gute Erfahrungen mit einer Dimensionsreduktion mittels einer eindimensionalen Principal Component Analyse gemacht. Diese kann als Labeling-Merkmal oder als Downhole-Kurve gemeinsam mit der Lithologie-Kurve weiter verwendet werden.
In dieser Kategorie werden die beschriebenen Begriffe zu Sedimentgenese zusammengefasst.
Regeln:
Sie tragen in der ersten Spalte einfach den Suchbegriff ein, den Sie auch in der Ausgabe-Tabelle wiederfinden möchten. Die zweite Spalte dient der Übersetzung und ist ebenfalls, je nach Wunsch, ein Wort oder Kürzel. Sie können mit der zweiten Spalte auch Wörter mit ganz ähnlicher oder derselben Bedeutung zu einem Zielwort zusammenfassen. Die zweite Spalte darf auch leer bleiben, dann wird nur gesucht und nicht übersetzt.
Zielformat:
Sie finden das Ergebnis der Übersetzung in der Spalte GENESIS. Sind multiple Angaben vorhanden, werden sie ;-getrennt gelistet.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats:
Die Inhalte der Spalte GENESIS können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eine rasche, übersichtliche Visualisierung wird Ihnen also bei der Konstruktion Ihrer konzeptionellen Modelle helfen.
In dieser Kategorie werden Hinweise oder Kürzel zum Wassergehalt eingetragen.
Regeln:
Sie tragen in der ersten Spalte einfach den Suchbegriff ein, den Sie auch in der Ausgabe-Tabelle wiederfinden möchten. Die zweite Spalte dient der Übersetzung und ist ebenfalls, je nach Wunsch, ein Wort oder Kürzel. Die zweite Spalte darf auch leer bleiben, dann wird nur gesucht. Entscheidend für den Parameter WATER ist hingegen eigentlich nur die Tatsache ob etwas wasserführend ist oder nicht und falls ja, wie stark. Daher kann in der SEP1/SEP3-Syntax hinter dem Kürzel für die Wasserführung eine Intensitätszahl stehen, ähnlich wie Sie das bereits für die Lithologie weiter oben bereits lesen konnten. Diese wird primär für die Übersetzung verwendet, denn entweder ist etwas wasserführend oder nicht.
Beschreibungeen, deren Bedeutung "trocken" ist, sollten mit "trocken" oder "dry" übersetzt werden, was dann der Intensitätszahl 0 entspricht.
Zielformat:
Sie finden das Ergebnis der Übersetzung in der Spalte WATERCONTENT. Hier werden die Intensitätszahlen eingetragen, die in den Schichtbeschreibungen zu den Stichworten oder Kürzeln ausgelesen wurden. Waren keine Intensitäten angegeben, dann wird obligatorisch eine 3 gesetzt. Bei "trocken" oder "dry" wird 0 eingetragen. Werden from-to-Fälle aufgefunden, wird ein Mittelwert der Intensität gebildet. Sind keine Angaben zum Wassergehalt vorhanden gewesen, wird auch keine Zahl gesetzt.
Alle Angaben, die durch ein SUBUNITLABEL begleitet werden, werden in den Ausgabe-Spalten mit vorangstelltem SU_ gelistet.
Nutzen des Zielformats:
Die Inhalte der Spalte WATERCONTENT können gefiltert visualisiert werden. Die räumliche Verteilung und die deskriptive Statistik kann mit dem Parameter Manager untersucht werden. Eventuell können Zusammenhänge zu weiteren beschriebenen Sedimentmerkmalen und dem Wasser- bzw. Feuchtegehalt des Sediments abgeleitet werden.
Der Workflow-Chart soll Ihnen helfen die grundlegenden Regeln zur Zerlegung und Interpretation der Schichtbeschreibungen nachvollziehen zu können. Da die SEP1/SEP3-Zerlegung am komplexesten ist, sind die meisten Schritte dieser Syntax zugeordnet.
Die eingeladenen Tabellen können Sie im rechten oberen Abschnitt des Parameter Managers sehen. Die Tabellen sind in Reiter sortiert. Klicken Sie auf den Reiter Ihrer Zieltabelle, so kommt sie in den Vordergrund und wird somit aktiv für Analyse- und Bearbeitungsoptionen.
Tipp: Bitte beachten Sie die Scrollbalken rechts und unten. Bei manchen Fenstergrößen kann es vorkommen, dass Sie den Abschnitt für die Tabellen vergrößern müssen, damit Sie mit den Scrollbalken der Tabellen arbeiten können.
Sie haben unter den Tabellen eine Werkzeugleiste, mit der Sie Tabellen verknüpfen, bearbeiten, analysieren, speichern und entfernen können.
Hinweis: Die hier integrierten Werkzeuge dienen der raschen Bearbeitung in typischen Prozessen konzeptioneller geologischer Modellierung. Der Parameter Manager ist jedoch bezüglich des Umfangs nicht mit einem Tabellenkalkulationstool oder einem Datenmanagementsystem zu vergleichen.
Wenn Sie eine Tabelle zu einem bestimmten Parameter sortieren wollen, klicken Sie einfach auf die Kopfzeile der betreffenden Spalte. Bei erneutem Klick wird die Sortierung invertiert. Sie können die Spaltengröße bei Bedarf anpassen. Auch hier gehen Sie mit der Maus in die Kopfzeile und schieben dort den rechten Rand. Mit Drag&Drop in den Kopf einer Zeile können Sie auch ganze Spalten tauschen. Sie verändern dabei nur die Ansicht der Tabelle, nicht jedoch den Datensatz selbst.
Sie haben vielleicht bereits bemerkt, dass es in Ihrer Tabelle weiß und grau gerenderte Spalten gibt. Die Daten in den weißen Spalten wurden intern als numerische Datenreihe erkannt, die grauen Spalte entsprechen Text-Daten (Datentyp: String). Wenn eine Datenreihe als Datentyp:Integer, also Ganzzahlen, erkannt wurde, wird -99999 als NoData-Wert eingesetzt, falls in der Zeile der Eintrag leer war.
Link tables: Hier setzen Sie Tabellenverknüpfungen. Sie laden dazu erst einmal alle Tabellen ein, die Sie benötigen. Es ist vorteilhaft, wenn Sie vor dem Verknüpfen von Tabellen auch gleich die Spalten für die Georeferenzierung definiert haben (lesen Sie dazu hier) oder mit Punkt 2 gearbeitet haben. Es öffnet sich ein Fenster, welches zunächst leer ist, da es zu Beginn noch keine Verknüpfungen gibt. Mit Add link fügen Sie ein kleines Feld mit weiteren Buttons hinzu.
Jedes Feld stellt eine Verknüpfung dar. Mit dem roten X ganz oben dieses Feldes können Sie die Verknüpfung wieder löschen. Ansonsten sehen Sie die Buttons Choose table 1 und Choose table 2. Hier wählen Sie die beiden Tabellen aus, die Sie miteinander verknüpfen wollen. Sobald Sie Tabellen ausgewählt haben, werden die Dropdown-Listen darunter mit den Spaltentiteln gefüllt. Hier wählen Sie jetzt für jede Tabelle die Spalte, wo der Schlüssel für die Verknüpfung enthalten ist. Wenn Sie fertig mit allen Tabellen sind, drücken Sie OK & Close und Ihre Verknüpfungen werden gespeichert. Sie können bis zu einer Tiefe von theoretisch 10 Tabellen Verknüpfungen erstellen. Mit Tiefe sind die Anzahl der Tabellen gemeint, die von der Tabelle mit dem Zielparameter bis zur Tabelle mit der Georeferenzierung als Verknüfpung dazwischen stehen können. Normalerweise liegen jedoch maximal drei Verknüpfungsebenen vor. In dem Artikel Parameter integrieren haben wir ein Praxisbeispiel erstellt, was Ihnen diesen Punkt verdeutlichen kann.
Allocate columns anew: Mit diesem Tool öffnen Sie ein kleines Fenster mit dem Sie die Tabelleninhalte mit Georeferenzierung dem System neu übergeben können. Wenn Sie also beim Laden einer Tabelle diesen Schritt vergessen haben sollten, können Sie das jetzt hiermit nachholen.
Convert column(s) to numeric: Wenn Sie diesen Button verwenden, dann erscheint ein kleines Fenster mit einer Liste derjenigen Spalten, die zur Zeit als Text gespeicherte Daten enthalten. Mit Auswahl der betreffenden Spalten können Sie hier eine Konvertierung in eine numerische Datenreihe vollziehen. Dies ist sinnvoll, wenn Sie eine Datenreihe haben, die eigentlich überwiegend einer Zahlenreihe entspricht, aber durch einen Rechtschreibfehler in einer Zeile beispielsweise die gesamte Datenreihe als Text interpretiert wurde. Text, der sich nicht in Zahlen konvertieren lässt, wird als NoData-Wert übersetzt. Bitte beachten Sie, dass es hierzu kein Zurück gibt. Sollte Ihnen das Ergebnis nicht gefallen, müssen Sie leider die Tabelle entfernen und neu laden.
Convert column(s) to text: Dieses Tool ist das umgekehrte Pendant zu 3. Hiermit konvertieren Sie also eine als Zahlenreihe integrierte Datenreihe im System in eine Text-Datenreihe. Das kann beispielsweise sinnvoll sein, wenn Sie ein Reihe mit Label-IDs geladen haben und diese nicht mit einer numerischen, sondern mit einer quantitativen deskriptiven Statistik untersuchen möchten. Auch wenn Sie die Spalte mit den Bohrlokationsnamen nicht als numerische Werte integriert haben wollen, weil dies für eine saubere Tabellenverknüpfung störend wäre, könnte eine Text-Konvertierung Sinn machen.
Editing column: Dieses Tool schaltet eine Spalte zum Editieren frei. Anders als in einschlägigen Tabellenbearbeitungsprogrammen können Sie im Parameter Manager nicht direkt in die Datenreihen schreiben. Wir haben das zugunsten der Verknüpfungen und des Datenbaums beschränkt. Wenn Sie also Werte hier ändern wollen, müssen Sie aus dem Dialog, der bei Nutzung des Buttons erscheint, eine Spalte auswählen. Die aktive Spalte wird gelb markiert und Sie ist aktiv zum Editieren. Klicken Sie einfach in die entsprechende Zelle, die Sie verändern wollen. Beachten Sie, dass Sie in numerische Datenreihen (weiße Spalten) auch nur Zahlen einfügen können. Mit STRG-Z können Sie wieder zum Origingalwert zurück, falls Sie sich vertippt haben.
Delete chosen column(s): Hier können Sie aus einer Liste von Spalten der aktiven Tabelle auswählen, welche Sie löschen möchten. Spalten, die dem System als relevant für die Georeferenzierung übergeben wurden, können nicht gelöscht werden und erscheinen daher auch nicht in der Liste.
Split text column:
Hier können Sie Spalten deren textliche Inhalte noch einmal konvertiert werden sollen, beispielsweise in der Vorbereitung auf ein Machie Learning-gestütztes Labeling, ausgewählt werden. Die Konvertierungs- und Splitting-Optionen sind:
Standardize selected column: Hier wählen Sie über den Dialog eine Spalte mit numerischen Inhalten aus. Die Daten werden dann mit einer z-score-Konvertierung in eine neue gleichname Spalte mit dem Zusatz _standardized übertragen.
Scale column with minmax: Hier wählen Sie über den Dialog eine Spalte mit numerischen Inhalten aus. Die Daten werden dann mit einer Min-Max-Skalierung in eine neue gleichname Spalte mit dem Zusatz _minmaxScale übertragen.
Log-ratio Transformation:
Hier wählen Sie über den sich öffnenden Dialog mehrere numerische Spalten aus, die jeweils Anteile einer ansonsten in sich geschlossenen Summe sind. Ein gutes Beispiel bilden die Spalten einer Siebkornanalyse, deren Inhalt der jeweilige prozentuale Anteil einer Korngröße am Sediment wiedergibt. Die Summe einer jeden Zeile aus diesen Spalten ist dann immer 100%. Verwenden Sie diese Funktion mit Bedacht - wir prüfen nicht auf die Plausibilität Ihrer Spalten-Auswahl. Sie können zwischen drei verschiedenen Methoden auswählen:
Die Ergebnisse bzw. die transformierten Daten sehen Sie je nach Auswahl in den angefügten Spalten mit den Zusätzen alr, clr oder ilr. Bitte beachten Sie, dass bei der additiven sowie bei der isometrischen Log-Ratio-Transformation im Grunde eine Dimensionsreduktion um 1 stattfindet. Bei der additiven Transformation ist diejenige Spalte, die zur Basis genommen wurde, nach der Transformation überall 0. Bei der isometrischen Transformation ist es die Spalte, die in der Hierarchie ganz unten steht, die überall 0 nach der Transformation enthält. Wir haben diese Spalten der Vollständigkeit halber und für eine bessere Nachvollziehbarkeit dennoch hinzugefügt.
Show statistics to the column:
Dieser Knopf öffnet eine Liste aller Spalten der aktiven Tabelle. Es können numerische wie auch Text-Datenreihen auf deskriptive Statistik überprüft werden. Sie wählen hier einfach die Spalte aus, die Sie untersuchen wollen und drücken OK. Dann öffnet sich das bekannte Fenster zur deskriptiven Statistik. Details zu den Darstellungen lesen Sie in diesem Artikel.
Correlate columns:
Hiermit öffnen Sie ein Fenster mit dem Sie die Korrelation zwischen Parametern aus Ihrer aktiven Tabelle prüfen können. Sie sehen oben zwei Listen. Auf der linken Seite sind numerische Spalten und auf der rechten Seite Text-Spalten gelistet. Wenn Sie mit der Maus in die linke oder rechte Liste klicken, können Sie unter Nutzung der STRG-Taste die Zielparameter aussuchen. Für die linke Liste werden auch die Optionen Pearson und Spearman sowie Ignore rows with noData values in standardization zur Auswahl aktiv.
Bei Pearson und Spearman wählen Sie die Ausgabe des Pearson- oder des Spearman-Korrelationskoeffizienten. Bei Ignore rows with noData values in standardization legen Sie fest, ob die mit der Berechnung begleitete z-score-Standardisierung mit allen Werten einer Spalte oder nur denjenigen vollzogen werden soll, in dem alle Parameter, deren Korrelation geprüft werden soll, auch Daten enthalten, also keine NoData-Werte vorkommen.
Wählen Sie Spalten aus der rechten Liste, werden die Stichwörter aus den Textspalten auf paarweises Vorkommen hin geprüft und in eine Matrix eingefügt. Haben Sie dabei Text-Spalten ausgewählt, die ;-getrennte Wortlisten oder dem Parser für Schichtbeschreibungen entsprungenene Texte im Dictionary-Format enthalten, wird ein internes String-Splitting verwendet, um die Stichwörter korrekt auf paarweises Vorkommen zu prüfen. Für solche Spalten kann es also Sinn machen nur eine dieser Spalten für die Analyse auszuwählen.
Sie können immer nur entweder numerische Korrelation oder paarweises Vorkommen von Textinhalten auswählen. Mit "OK" bestätigen Sie. Bei Vorhandensein bzw. Auswahl mehrerer Parameter entsteht in beiden Fällen eine diagonal geteilte Matrix, die sich aus Feldern aufbaut. Die beiden Dialog-Eingabefelder Field: Width/Elevation bestimmen die Größe der Felder, die die Information der Ausgabe beinhalten. Die Feldgröße können Sie jederzeit ändern, indem Sie in den vorgesehenen Text-Feldern einen neuen Wert eingeben und dann ENTER drücken.
Der äußere untere und rechte Rand enthält dabei immer die Namen des Parameterpaars oder des Wortpaars zu dessen Korrelationswert/Vorkommen jeweils das Feld in der entsprechenden Zeile und Spalte zu finden ist. Der obere diagonale Rand beinhaltet bei numerischen Daten immer eine 1, denn der Parameter mit sich selbst ist selbstverständlich perfekt positiv korreliert, was einem Korrelationskoeffizienten von 1 entspricht. Bei der paarweisen Betrachtung steht hier die Summe aller paarweisen Vorkommen dieses Wortes. In den Feldern innerhalb lesen Sie im numerischen Fall die gewählten Korrelationskoeffizienten ab. Im Text-Fall finden Sie hier schlicht die Anzahl der paarweisen Vorkommen des jeweiligen Wortpaars.
Im numerischen Fall sind Korrelationskoeffizienten, die auf eine positive Korrelation hinweisen, blau markiert. Die Farb-Sättigung deutet auf die Stärke der Korrelation hin. Negative Korrelationen werden entsprechend rot markiert. Ein "*" vor der Zahl zeigt einen positiv ausgefallen Signifikanztest (p-Wert, zweiseitiger t-Test). Bei der paarweisen Analyse von Wörtern, werden Ihnen die Anzahl von Paaren mit hohem Gewicht stärker rötlich markiert, damit Sie sie rasch auffinden können.
Wenn Sie mit der Maus über eines der Felder in der Matrix schweben, dann erhalten Sie noch weitere Informationen in einem Tooltip. Im numerischen Fall sehen Sie zusätzlich zum Korrelationskoeffizienten den konkreten p-Wert, der berechnet wurde. Bei der paarweisen Wort-Betrachtung sehen Sie hier den prozentualen Anteil der Zählung an der Summe der paarweisen Vorkommen beider Werte. Dabei ist die erste Prozentzahl immer auf die Spalte und die zweite Prozentzahl immer auf die Zeile bezogen.
Sollten bei der Auswahl Ihrer Text-Spalten für die paarweise Betrachtung mehr als 200 Wortpaare entstehen, erhalten Sie eine Warnung. Denn mehr als 200 Paare kann die Matrix nicht darstellen und wäre für einen Nutzer auch äußerst unpraktisch zu analysieren.
Save table: Sie speichern hier einfach die aktive Tabelle in eine neue Datei. Die Auswahl der Endung dient nur zu Ihrer Hilfestellung für die Tabellen-Verwaltung. Es werden beim Abspeichern keine Formatänderungen aufgrund einer Endung durchgeführt. War das Speichern erfolgreich, dann werden Sie im Kopf des Tabellenreiters den neuen Tabellen-Namen finden. Sollten Sie Tabellen miteinander bereits verknüpft haben oder einen Datenbaum erstellt haben, empfehlen wir die Verknüpfungen noch einmal zu überprüfen und den Datenbaum neu zu erstellen.
Delete table: Hier entfernen Sie eine Tabelle aus dem Parameter Manager. Sollten Sie Tabellen miteinander bereits verknüpft haben oder einen Datenbaum erstellt haben, empfehlen wir die Verknüpfungen noch einmal zu überprüfen und den Datenbaum neu zu erstellen.
Wichtiger Hinweis: Haben Sie Verknüpfungen und Datenbaum bereits erstellt und verwenden jedoch Editier- und Konvertierungsfunktionen in den Tabellen, empfehlen wir gründsätzlich noch einmal die Verknüfpungen zu prüfen und den Datenbaum neu zu erstellen.
Die Parameter Funktionen finden Sie im Parameter Manager Fenster auf der rechten unteren Seite als Buttons. Im linken unteren Fenster erscheint jeweils die Benutzeroberfläche der angewählten Funktion. Sie sind in vier Themen unterteilt:
Dies sind die allgemeinen Funktionen, die sich auf die Erstellung und Nutzung des Datenbaums beziehen.
Das ist der Knopf, den Sie betätigen müssen, um einen Datenbaum zu erstellen. Es ist die einzige Funktion ohne Benutzeroberfläche. Da der Datenbaum sehr essentiell für viele weitere Funktionen für Parameter, sollten Sie den verlinkten Artikel dazu unbedingt lesen. Das Icon hat einen blauen Rand, wenn ein Datenbaum im System vorhanden ist und keine Änderungen vorliegen oder vermutet werden. In letzterem Fall ist der Rand rot.
Dies öffnet die Benutzeroberfläche der Filterfunktion für Parameter. Der Filter ist mit gleichem Aufbau auch für Raster- und Voxelobjekte integriert. Daher erhält er einen eigenen Artikel, den Sie hier lesen können.
Mit dieser Funktion öffnen Sie die Benutzeroberfläche zum Erstellen eines LocView-Objektes. Was das genau ist und wie Sie es erstellen, lesen Sie im verlinkten Artikel. Sie legen hier auch die Legenden zur farblichen Darstellung der geladenen Parameter fest, was sich unter anderem auf die Darstellungen in den Graphiken des Parameter Managers auswirkt. Der Einfachheit halber haben wir die Farbverwaltung mit dem oben verlinkten Artikel zusammengefasst.
Hier können Sie weitergehende lithologische Analyse betreiben und hydraulische Durchlässigkeiten abschätzen lassen.
Diese Funktion ist nur verfügbar, wenn ein Datenbaum im System existiert.
In der Benutzeroberfläche sehen Sie zwei Abschnitte links und rechts.
Links weisen Sie dem System Parameter zu, die lithologische Informationen, genauer gesagt, die prozentualen Anteile von Korngrößen im Sediment enthalten. Für eine richtige Verarbeitung muss die Summe der ausgewählten Parameter natürlich 100% ergeben.
Wenn Sie mit dem Parser für Schichtbeschreibungen gearbeitet haben und gar keine Siebkornanalysen vorliegen, dann können Sie das Häkchen Choose attribute with string array format setzen. Die darunterliegende Dropdown-Liste wird aktiv und Ihnen diejenigen Parameter anzeigen, die Texte im Array-Format enthalten. Sobald Sie den Parameternamen PERCENT_GRAINSIZES auswählen, werden die Buttons unter Fines, Sand und Gravel blau, die der Belegung durch den Parser entsprechen. Lesen Sie gglfs. nochmal den Abschnitt zur Lithologie dazu. Rot verbliebene Buttons haben keine Entsprechung erhalten. Sie können auch eigene Text-Array-Formate extern erstellen und dann mit Nutzung der Buttons unter Fines, Sand und Gravel die jeweiligen Positionen im Array zuweisen. Hierzu drücken Sie einfach auf den Button dessen Korngröße gesetzt werden soll und wählen die Zahl zur Position im Array aus der Liste aus. Sie bestätigen hier immer mit New selection. Falls Sie New selection drücken, aber keine aktive Selektion vorliegt, wird der Button wieder auf rot gesetzt, um Ihnen zu zeigen, dass die Zuordnung so gelöscht wurde.
Haben Sie Parameter im Datenbaum, die aus einer oder mehreren Siebkornanalyse(n) stammen, dann können Sie ebenso mit den Buttons unter Fines, Sand und Gravel die entsprechenden Parameter aus einer Liste den entsprechenden Korngrößen zuweisen. Mehrfachselektionen in den Auswahldialogen sind möglich und werden am besten mit einem Klick und STRG angewählt.
Wenn Sie anschließend mit Confirm bestätigen, werden die Lithologie-Informationen dem System übergeben. Dabei werden intern SoilType-Objekte an den entsprechenden Koordinaten erstellt, die im Datenbaum die lithologischen Informationen enthalten. Das SoilType-Objekt führt verschiedene Schritte aus:
Rechts sehen Sie ein initial leeres Ternärdiagramm und links der Graphik einige Einstellungsoptionen. Mit den Dropdown-Listen Left, Right und Below definieren Sie die Korngrößengruppe an den Achsen des Ternärdiagramms. Das Diagramm ist immer im Uhrzeigersinn orientiert, was Sie an der Achsenbeschriftung ablesen können. Unter Color of variable wählen Sie einen Parameter aus dem Datenbaum, der für eine Färbung der Punkte im Ternärdiagramm zuständig ist. Zur Färbung muss der Parameter eine frozen Koordinate besitzen, die dem SoilType-Objekt entspricht, welches als Punkt im Ternärdiagramm dargestellt werden soll. Wenn Sie eine Tabelle des Parsers geladen haben, können Sie hier auch die Spalte COLORS wählen, damit die Punkte mit den resultierenden RGB-Farben des Parsers dargestellt werden, was ja im Idealfall der Sedimentfärbung entspricht. Selbstverständlich können Sie auch eine extern erstellte RGBA-Datenreihe zu den lithologischen Koordinaten anlegen, wenn Sie das wünschen. Wählen Sie einen anderen Parameter zur Färbung aus, werden die assoziierten Punkte der Lithologie mit der intern vordefinierten oder der im Project View-Fenster manuell definierten Legende dargestellt. Der Button Legend öffnet ein Fenster mit der Darstellung dieser Legende. Mit Color palette und den nachfolgenden drei Farb-Buttons können Sie auch eine speziell für diesen Plot zugeschnittene dreistufige Farbpalette anlegen und hier zur Darstellung bringen. Mit Pointsize passen Sie auf Bedarf schließlich noch die Größe der Punkte im Ternärdiagramm an. Drücken Sie Plot, um die Lithologie im Ternärdiagramm zu sehen. In dem Textfeld Graph coordinates aktualisieren sich die Koordinaten Ihrer Mausposition, wenn Sie sie im Diagramm bewegen. Dabei gilt hier die gleiche Reihenfolge, wie sie oben mit den Dropdown-Listen der Achsen definiert wurden.
Der Knopf Define classes öffnet einen neuen Dialog mit dem Sie manuell Lithologien klassifizieren können. Details hierzu finden Sie allerdings in diesem Artikel.
HCE steht für Hydrological Conductivity Estimation. Es leitet aus erstellten SoilType-Objekten mit Klassenzuordnung mögliche Verteilungen von hydraulischen Durchlässigkeiten ab.
ACHTUNG: Das HCE-Modul befindet sich momentan in der Verbesserung. Die Samplingmethode muss verbessert werden, um die Aussage zu verbessern. Bitte fragen Sie unbedingt nach dem nächsten Update, wenn Sie diese Funktion nutzen wollen.
Die Idee entspringt dem goCAM-Forschungsprojekt und wurde für die Implementierung in den SubsurfaceViewer zugunsten der Handhabbarkeit und Performance etwas vereinfacht. Kurz gesagt, werden aus Daten von Korngrößenanteilen (Prozentanteil für Ton, Schluff, Sand usw.) mögliche Verteilungen von konkreten Korngrößen (mm) für die Perzentile d10, d20 und d60 mittels eines Zufallsgenerators und einstellbaren Bedingungen gesampelt.
Ein Sample entspricht dabei einem Vektor mit jeweils einem Korndurchmesser-Wert für d10, d20 und d60 mit den Bedingungen einer Kornsummenkurve, d.h. d10<d20<d60.
Die Zuordnung von Korngrößen in mm zu den Korngrößen-Gruppen Ton, Schluff, Feinsand, Mittelsand, usw. orientiert sich an der DIN 4022.
Aus diesen gesampelten theoretischen Korngrößenperzentilen werden anschließend mit einschlägigen Formeln die hydraulischen Durchlässigkeiten als kf-Wert in m/s für jedes "künstlich" erzeugte Sample berechnet. Die Wahl der verwendeten Formeln sind abgeleitet aus der Programmanleitung des UK32, erstellt durch die Autoren: Dr. P. Szymczak, G.E.O.S. Freiberg Ingenieurgesellschaft mbH, M. Wassiliew, A. Behnke, HGC Hydro-Geo-Consult GmbH, Freiberg; Stand: Version 1.2, August 2012, und veröffentlicht durch das Sächsische Landesamt für Umwelt, Landwirtschaft und Geologie (Wittmann wurde vernachlässigt mangels zuverlässiger Porositätsdaten).
Hinweis: Das HCE-Modul kann weiterentwickelt werden. Wir kommen mit Ihnen gerne ins Gespräch, wenn Sie Verbesserungsvorschläge oder Fragen haben sollten. Uns kam es erstmal darauf an eine hohe Menge von Schichtinformationen im regionalen Maßstab auf diesen Parameter hin rasch und einfach auszuwerten. Daher haben wir auch das Sampling über die Perzentile gewählt, anstatt hypothetische Kornsummenkurven im Ganzen zu simulieren.
Die Benutzeroberfläche ist zweigeteilt. Links sehen Sie Optionen zur Schätzung und rechts werden Ihnen Graphiken zu den Ergebnissen angezeigt.
Schauen wir uns zunächst die linke Seite an. Das für Sie inaktive Feld Filtered lithology dient lediglich zu Ihrer Information. Ist das Häkchen gesetzt, dann haben Sie zuvor einen Filter auf den Datenbaum angewendet.
Der prinzipielle Ablauf für eine Schätzung der hydraulischen Durchlässigkeiten ist so:
Sie legen fest, ob es eine lithologische Klassifizierung geben soll. Mit Classify lithology with wählen Sie ein Attribut, welches an die Lithologie gekoppelt ist, d.h. an den gleichen frozen Koordinaten im Datenbaum stehen. Das kann z.B. das Ergebnis eines Clusterings über die Korngrößengruppen sein. Wählen Sie LITH_CLASS, dann wird die gerade im Datenbaum aktive Sedimentklassifikation verwendet. Wenn Sie "-" auswählen, wird der Lithologie-Datensatz, ggfls. vorab gefiltert, als Ganzes betrachtet. Bitte beachten Sie unbedingt, dass Sie bei Neuauswahl eines Attributs eine manuelle Sedimentklassifikation, die in LITH_CLASS gespeichert wurde, überschreiben. Sie sollten also Ihre manuellen Klassifikationen am besten speichern, damit Sie sie ggfls. wieder zurücksetzen können. Wie das geht, erfahren Sie in dem Artikel zur Klassifikation. Sie erhalten zu Ihrer Unterstützung eine Warnung, wenn eine Klassifikation vorliegt.
Sie legen unter Minimum number of samples in class or lithology fest, welche Anzahl von Samples (SoilType-Objekte) mindestens in einer Gruppe/Klasse vorhanden sein soll. Initial wird hier eine Anzahl von 100 vorgeschlagen. Der Vorschlag ist zurückhaltend gewählt. Diese Auswahl macht jedoch z.B. Sinn, wenn Sie die Gruppierung über eine Schicht-ID vornehmen, also im Grunde eine Schichtbeschreibung auch jeweils eine Gruppe bildet. Für ein Zufalls-Sampling von gruppierten Lithologien, und damit mehrerer Schichtbeschreibungen bzw. Siebkornproben zusammen, ist es i.d.R. besser mehrere tausend bis hunderttausend Samples zu nutzen. Probieren Sie es aus und wählen Sie das im Hinblick Performance und Ergebnis beste Verhältnis. Beinhaltet also eine lithologische Klasse weniger Samples als die von Ihnen festgelegte minimale Anzahl, wird der Datensatz im Ganzen dupliziert bis die minimale Anzahl überschritten wurde.
Jetzt müssen Sie sich entscheiden, wie eine Verteilung von möglichen Korngrößen innerhalb einer hydraulisch wirksamen Korngrößen-Gruppe (Ton, Schluff, Feinsand, Mittelsand usw.) aussehen soll. Als hydraulisch wirksam verstehen wir aufgrund der verwendeten Formeln die Perzentile für die Korndurchmesser d10, d20 und d60. Wenn Sie alles in den Standard-Einstellungen lassen, dann werden mit einem Zufallsgenerator alle zugehörigen Korngrößen der entsprechenden Korngrößengruppe mit der gleichen Wahrscheinlichkeit für diese Perzentile gesampelt. Es handelt sich also dann um jeweils uniforme Verteilungen. Wenn Sie den Regler Distribution width von uniform wegbewegen, dann wird aus einer Normalverteilung gesampelt. Die Prozentanteile des Reglers beziehen sich dabei auf eine Annahme für die Breite der Verteilung. Bei 100%-Öffnung ist die Standardabweichung der Normalverteilung die Hälfte der angesetzten Reichweite zwischen der minimal und der maximal möglichen Korngröße. Wenn Sie den Regler Overlap of nearby grainsize classes von 0 wegschieben, dann setzen Sie die minimalen und maximalen Grenze für Korngrößen einer Gruppe auf einen prozentualen Überlappungsanteil mit den Gruppen links und rechts. Eine Überlappung größer 0 erweitert somit automatisch auch die Breite der Verteilung, die Sie oben anteilig auf die Reichweite zwischen Minimum und Maximum festgelegt haben. Ein Überlappungswert von 1 bedeutet also, dass alle Korngrößen aus den benachbarten Korngrößengruppen gemäß der angesetzten Verteilung eine Wahrscheinlichkeit erhalten auch gesampelt zu werden. Mit dem Regler unter Skewness geben Sie dem System dann noch eine Schiefe der Verteilung mit. Sobald Sie Grainsize Distribution anklicken, erhalten Sie rechts eine Graphik über das Ergebnis in Form von Histogrammen. Bitte beachten Sie, dass die Graphiken rechts logarithmisch aufgebaut sind und daher eine Normalverteilung nicht in der gewohnten Form erscheint.
Nun müssen Sie nur noch den Button Hydraul. conductivity drücken, um die Berechnung abzuschließen. Sie erhalten ein Protokoll dessen im Info-Fenster und das Histogramm über die logarithmierten kf-Werte aus der Berechnung wird Ihnen auf der rechten Seite dargestellt.
Wenn Sie die Ergebnisse in Tabellen-Form archivieren oder weiterverwenden möchten, exportieren Sie einfach eine Datei mit Save table. Hier werden Ihnen die wichtigsten Parameter der errechneten kf-Wert-Verteilung in m/s (Mittelwert, Median, IQR-Grenzen, Minimum und Maximum) in den entsprechenden Spalten mit Koordinaten und Tiefen ausgegeben.
Tipp: Die exportierte Tabelle mit den kf-Werten könnten Sie wieder in den Parameter Manager einladen und so Ihren Datenbaum aufstocken. Dann haben Sie für die kf-Werte auch räumliche Filter und Visualisierungen zur Verfügung, was Ihnen vielleicht bei der Kalibrierung von Grundwassermodellen behilflich sein könnte.
Hier extrahieren Sie Tabellen aus dem Datenbaum mit entsprechenden Verschneidungen der Parameter und können eine einfache Parameteranalyse mittels eines zweidimensionalen Scatterplots durchführen.
Die Tabellenextraktion erfolgt direkt auf dem Datenbaum und lässt, über die Datenbaum-Funktionalitäten hinaus, Verschneidungen an Primärattributen zu.
Des Weiteren extahiert sie bei aktivem Filter nur die selektierten Parameter.
Am einfachsten ist das am Beispiel eines Labelings von Schichtbeschreibungen zu erklären:
Nehmen wir einmal an, dass Sie extern oder aus dem SuburfaceViewer heraus eine Tabelle mit den Koordinaten und Tiefen eine bestimmten Markerhorizontes vorliegen haben. Darüberhinaus haben Sie bereits eine Tabelle mit Schichtbeschreibungen (*.blg) und den zugehörigen Stammdaten (*.bid) geladen. Da das Labeling unabhängig von der Schichtbeschreibungstabelle erfolgte, müssen die Koordinaten, und hier vor allem die Tiefenintervalle, der Label nicht unbedingt mit den Koordinaten der Schichtbeschreibungen zusammen liegen. Das kommt vor allem dann vor, wenn das Label aus einem geologischen konzeptionellen Modell stammt, wo vielleicht nicht alle archivierten Bohrungen berücksichtigt werden konnten oder wo grob aufgenommene Bohrdaten vernachlässigt wurden, oder neue Bohrungen jetzt hinzugekommen sind, oder die Modellierung sogar auf ganz anderer Datenbasis (z.B. Seismik) erfolgte. Nun möchten Sie aber dennoch Ihren gesamten Datensatz an Schichtbeschreibungen mit dem Label in einer Tabelle weiter verarbeiten und analysieren. Hierzu haben Sie alle zugehörigen Tabellen in den Parameter Manager geladen und ggfls. verlinkt. Darüberhinaus haben Sie den Datenbaum erstellt. Nun möchten Sie an den Schichtbeschreibungen eine neue Spalte mit dem Label aus der externen Tabelle hinzufügen.
Selbstverständlich können Sie diese Tabelle auch exportieren. Hierfür sehen Sie in der rechten unteren Ecke der Benutzeroberfläche drei Optionen zur Auswahl.
Standardmäßig (BID/PLG) exportieren Sie das Ergebnis der Extraktion in zwei Dateien im *.bid- und *.plg-Format. Das ist das SubsurfaceViewer übliche Format für Parameter, welches Sie auch bereits aus den Projekteinstellungen kennen.
Beachten Sie, dass die *.bid-Datei nun aus dem Datensatz erzeugt wurde und die Z-Werte immer dem höchstgelegenen detektierten Wert am Standort entspricht. Je nachdem, welches Primärattribut Sie gewählt haben, entspricht das nicht mehr unbedingt die Bohransatzhöhe Ihres Originaldatensatzes der Schichtbeschreibungen.
Mit XYZW exportieren Sie den Datensatz in ein für die 3D-IDW-Interpolation oder 3D-Kriging-Schätzung nutzbares Format. Dieser Export beinhaltet ein vertikales Gridding, dessen Schrittweite Sie in dem Textfeld rechts eingeben. Das ist vorteilhaft, da Sie so Parameter, die über unregelmäßig lange Tiefenintervalle definiert sind, in ein für eine Interpolation passende vertikale Dichte bringen.
Mit GVMD exportieren Sie die Inhalte der extrahierten Tabelle in ein irreguläres Voxelmodell. Dabei geben Sie rechts den Wert der maximalen XY-Ausdehnung der Voxel ein. Wenn das Primärattribut einen Text-Datentyp hat, dann haben alle Voxel die gleiche XY-Ausdehnung. Wenn das Primärattribut numerisch ist, wird die horizontale Voxelausdehnung auf den Parameter skaliert, so dass hohe Werte durch breitere und niedrige Werte durch schmale Voxel-Säulen repräsentiert werden. Die Tiefenintervalle werden im irregulären Voxelmodell unverändert übertragen. Voxel in irregulären Voxelmodellen dürfen sich auch durchdringen.
Die Scatterplot-Funktion können Sie auch ohne Datenbaum nutzen, denn sie nutzt ausschließlich Tabellen.
Für einen Scatterplot wählen Sie einfach mit Choose table eine Tabelle aus, die Sie entweder geladen oder mit dem Table extraction-Tool erzeugt haben. Dabei werden die Dropdown-Listen für die X- und Y-Variable des Scatterplots mit den Namen der numerischen Datenreihen aus der Kopfzeile der Tabelle gefüllt. Unter Colorize with variable sehen Sie die vollständige Liste der Kopfzeile, nur dass Sie hier die farbgebende Variable aussuchen. Sie können die Farben für diese Variable entweder mit der darunter liegenden Color palette dreiteilig festlegen oder aber über Project View eine Legende für diese Variable definieren, die dann auch hier Verwendung findet. Wenn Sie die Variable COLORS aus dem Parser für Schichtenbeschreibungen wählen, werden Ihnen die Punkte in den übersetzten Sedimentfarben dargestellt. Eine Datenreihe in demselben Format, und extern von Ihnen erstellt, kann hier natürlich auch Verwendung finden.
Mit dem darunter befindlichen Schieber legen Sie schließlich noch die Punktgröße im Scatterplot fest.
Mit Plot bestätigen Sie und die Graphik wird für Sie auf der rechten Seite fertig gestellt. Wenn Sie sich im Plot besser orientieren möchten, können Sie einfach mit der Maus drüber fahren und dann unter Graph coordinates die Daten der x- und y-Achse ablesen.
Tipp: Sie können den Scatterplot auch speichern. Dazu doppelklicken Sie einfach mit der Maus in die Zeichnung. Es wird Ihnen der Export einer SVG-Datei angeboten.
Unter dieser Kategorie finden Sie ausschließlich Funktionen, die auf Tabellen-Basis durchgeführt werden. D.h. zur Nutzung benötigen Sie nicht zwingend den Datenbaum. Sie müssen lediglich Tabellen im System geladen haben.
Das ist ein einfacher Rechner mit dem Sie auch im Parameter Manager rasch numerische Parameter miteinander verrechnen können, wenn Sie das wünschen.
Sie wählen in der oberen Dropdown-Liste einfach die entsprechende Tabelle aus. Dann können Sie in dem Textfeld new calculation einen Namen für die Ergebnis-Spalte auswählen. Sie tragen dann im Formelfenster Ihre Berechnung ein und drücken Confirm um die Rechnung durchzuführen. Das Ergebnis erscheint dann oben in der neuen Spalte Ihrer ausgewählten Tabelle.
Es scheint hin und wieder vorzukommen, dass die neue Spalte nicht gerendert wird. Dann speichern Sie bitte einfach die Tabelle ab. Sie werden sehen, dass die neue Spalte in der gespeicherten Tabelle vorhanden ist. Leider müssten Sie diese Tabelle in dem Fall neu laden.
Wichtiger Hinweis: Diese Funktion nutzt Python. Am einfachsten für Sie ist es bei der SubsurfaceViewer Installation auch gleich die Python-Installation zuzulassen. Das garantiert Ihnen auch die Einbindung aller benötigten Bibliotheken. Außerdem sollten Sie unter Programmeinstellungen den python.exe-Pfad definiert haben.
Mit dieser Benutzeroberfläche können Sie auf vereinfachte Weise ein Clustering auf numerischen Spalten Ihrer ausgewählten Tabelle durchführen. Eine Oberfläche und entsprechende Berechungen zur Ermittlung der günstigsten Cluster-Anzahl sind ebenfalls integriert. Wenn Sie Python-Scripting beherrschen, können Sie natürlich tiefer in die Materie einsteigen und selbst entsprechende Bibliotheken über Python bedienen. Dann haben Sie auch mehr Einstellungsmöglichkeiten. Die Einbindung in den SubsurfaceViewer soll den Einstieg erleichtern und die Clustering-Verfahren auch denjenigen zugänglich machen, die nicht die Zeit haben sich tiefergehend mit Python zu befassen. Clustering ermöglicht bei der konzeptionellen Modellierung eine rasche intuitive Büdenlung von Informationen, was insbesondere bei hoher Datenlast ein großer Vorteil ist, um Überblick zu erhalten und so die richtigen Interpretationen folgen zu lassen.
Die Clustering-Funktion greift auf die Python-Bibliothek sklearn zu und nutzt hier wahlweise K-means, Mini-Batch K-means oder Gaussian Mixture Models. Sie können in der Benutzeroberfläche entweder K-means oder Gaussian Mixture Model als Methode auswählen. Mini-Batch K-means wird automatisch durchgeführt, wenn der Datensatz eine Anzahl von 25000 Einträgen übersteigt. Sie werden dazu dann im Info-Fenster informiert. Gaussian Mixture wird mit dem Kovarianz-Modell full durchgeführt. K-means mit dem Algorithmus "lloyd". Details zu den Clustering-Verfahren entnehmen Sie am besten den oben verlinkten Seiten von sklearn.
Tipp: Lesen Sie nach Durchführung eines Clusterings das Protokoll im Info-Fenster. Hier sehen Sie beispielsweise auch, ob der Algorithmus konvergierte oder ob es irgendwelche Probleme bei der Durchführung gab.
Die Benutzeroberfläche ist zweigeteilt. Links sehen Sie das Feld für die Optionen. Hier legen Sie im oberen Bereich die allgemeinen Clustering-Einstellungen fest. Mittig führen Sie das Clustering in seiner finalen Version aus. Unten sehen Sie ein blaues Feld. Hier können Sie Einstellungen vornehmen, die eine Analyse zur optimalen Anzahl von Clustern führen. Die Ergebnisse werden Ihnen graphisch auf der rechten Seite dargestellt.
Neben der Dropdown-Liste zur Auswahl der Tabelle, auf deren Inhalten das Clustering durchgeführt werden soll, sehen Sie einen Knopf mit der Aufschrift Choose parameter -> Selection. Hier öffnen Sie ein Fenster mit einer Liste der numerischen Spalten Ihrer ausgewählten Tabelle. Sie selektieren mittels Mausklick und STRG die entsprechenden Eingabeparameter aus und drücken New selection. Sogleich werden Ihnen die ausgewählten Parameter in der Liste Selected parameters mittig dargestellt. Der Name der Ausgabespalte wird automatisch erstellt und kann unter Name of new column eingesehen werden. Ein "KM_" am Anfang steht für das Ergebnis aus dem K-means Clustering. Haben Sie die Gaussian Mixture Model-Methode gewählt, dann wird dem Namen ein "GMM_" vorangestellt.
Unter der Selektion der Methode (Selection of clustering method) finden Sie ein Eingabefeld für Count of iterations. Es kann zu leichten Unterschieden pro Clustering-Lauf bei gleichen Einstellungen kommen, da diese Algorithmen mit bedingten zufälligen Startbedingungen starten und dann eine Fehlerminimierung durch eine interne Iteration verfolgen. Hat der ermittelte Fehler einen Toleranzwert unterschritten oder lässt sich nicht mehr minimieren, wird der Lauf abgeschlossen (das System ist konvergiert). D.h. aber noch nicht, dass es nicht noch "besser" geht. Zu diesem Thema können Sie sich im Internet mit dem Stichwort "error minimization", "overfitting" und "underfitting" in Machine Learning Methoden befassen. Da es dieses Phänomen gibt, haben Sie in dem Eingabefeld Count of iterations also die Möglichkeit mehrmals mit denselben Einstellungen zu clustern. Das System stellt Ihnen dann am Ende des Prozesses das beste Ergebnis im Hinblick auf das Fehlerkriterium zur Verfügung. Das ist im Falle des K-means der sogenannte Silhouette-Wert. Der Lauf mit einem Silhouette-Wert näher 1., wird zum besten Lauf erklärt. Sie finden den Silhouette-Wert auch im Protokoll des Clusterings im Info-Fenster und unter der Graphik rechts im kleinen Textfeld. Im Falle des Gaussian Mixture Models wird sowohl das Akaike Information Criterion (AIC) und das Bayesian Information Criterion (BIC) berechnet. In beiden Fällen ist ein niedrigere Wert entscheidend. Für die graphische Ausgabe sowie die finale Selektion des besten Laufs wird jedoch der niedrigste BIC gesucht. Das beruht auf unseren bisherigen Erfahrungen. Im Info-Fenster sehen Sie im Protokoll dennoch auch die Ausgabe des AICs.
Wenn Ihnen die Anzahl der Cluster, die Sie im Ergebnis sehen wollen, bekannt ist, können Sie direkt mit dem Feld Start clustering fortfahren. Hier geben Sie in das Textfeld die Anzahl der Cluster ein und drücken nur noch Start.
Hinweis: Das Werkzeug nutzt das temporäre Verzeichnis zur Ablage der Berechnung. Bei Bedarf können Sie mit den Programmeinstellungen den Pfad dieses Verzeichnisses anpassen.
Wichtiger Hinweis: Diese Funktion nutzt Python. Am einfachsten für Sie ist es bei der SubsurfaceViewer Installation auch gleich die Python-Installation zuzulassen. Das garantiert Ihnen auch die Einbindung aller benötigten Bibliotheken. Außerdem sollten Sie unter Programmeinstellungen den python.exe-Pfad definiert haben.
Mit dieser Benutzeroberfläche können Sie auf vereinfachte Weise eine Principal Component Analyse auf numerischen Spalten Ihrer ausgewählten Tabelle durchführen. Die Benutzeroberfläche ist sehr einfach aufgebaut. Auf der linken Seite wählen Sie die Tabelle aus, aus deren Parameter Sie ein PCA erstellen möchten. Mit dem Knopf Choose parameter -> Selection wählen Sie die Spalten der Zielparameter aus der Liste mit Mausklick und STRG und bestätigen mit New selection. Dann erscheinen die ausgewählten Parameter in der Liste rechts.
Mit Number of components legen Sie die Anzahl der Komponenten fest. Diese sollte kleiner sein, als die Anzahl der eingegebenen Parameter. Wenn Sie also eine Komponenten-Zahl von 1 eingeben, wird im Grunde die Information aus allen ausgewählten Parametern von multidimensional auf eindimensional mit PCA reduziert.
Wir haben diese Methode in der Praxis zur Generierung von Downhole-Kurven für eine automatische multikriterielle Analyse von Sedimenteigenschaften in die Tiefe genutzt. So konnten wir beispielsweise die RGBA-Werte in einen eindimensionalen PCA-Wert überführen und somit ein Äquivalent zu einer "Farbkurve" erstellen, die sich leichter mit Messungen am Bohrloch oder den lithologischen Kurven vergleichen ließ. Zudem wird PCA häufiger in geostatistischen Analysen verwendet.
Das Ergebnis wird immer jeweils in eine Spalte mit dem Titelschema "PCA_" + "ID der Komponente" gespeichert. Sie finden auch ein paar Informationen zu dem Prozess im Protokoll des Info-Fensters.
Hinweis: Das Werkzeug nutzt das temporäre Verzeichnis zur Ablage der Berechnung. Bei Bedarf können Sie mit den Programmeinstellungen den Pfad dieses Verzeichnisses anpassen.
Wichtiger Hinweis: Diese Funktion nutzt Python. Am einfachsten für Sie ist es bei der SubsurfaceViewer Installation auch gleich die Python-Installation zuzulassen. Das garantiert Ihnen auch die Einbindung aller benötigten Bibliotheken. Außerdem sollten Sie unter Programmeinstellungen den python.exe-Pfad definiert haben.
Mit dieser Benutzeroberfläche können Sie auf vereinfachte Weise eine Shallow Machine Learning (ML)-Klassifikation auf numerischen Spalten Ihrer ausgewählten Tabelle durchführen. Sie können hier also nur klassifizieren, jedoch keine Regression durchführen.
Falls Sie über Python-Scripting-Fähigkeiten verfügen, können wir Ihnen empfehlen sich mit diesem Thema tiefergehender zu befassen und dann direkt auf den Python-Bibliotheken, die wir Ihnen jeweils im Titel der Benutzeroberflächer verlinkt haben, zu arbeiten. Die hier implementierte Benutzeroberfläche soll denjenigen Anwendern während Ihrer Modellierung eine Unterstützung sein, die entweder nicht die Zeit oder noch nicht die Fähigkeiten von Python-Scripting zur Verfügung haben.
Das automatische Labeln kann im Preprocessing und zur Validierung Ihres konzeptionellen Modells sehr hilfreich sein und wurde aus diesem Grund vereinfacht hier eingeführt. Wir haben ein Anwendungsbeispiel in dem Artikel Erweiterte Klassifikationen erklärt.
Die Benutzeroberfläche ist sehr simpel aufgebaut. Sie haben die ML-Methoden Random Forest Classification und XGBoost Classification zur Verfügung, welche Sie unter Betätigung der jeweiligen Buttons in der oberen Leiste der Benutzeroberfläche freischalten.
Auf der linken Seite sehen Sie Optionen zu den jeweiligen Methoden, sowie Speicher- und Lademöglichkeiten von trainierten Modellen. Auf der rechten Seite sehen Sie die ausgewählten Parameter, das ausgewählte Label mit dem ggfls. trainiert werden soll, eine Graphik zu den Merkmalsgewichten (Feature importance) und einem Knopf mit dem Sie das Protokoll des Python-Prozesses noch einmal als Text lesen und gglfs. kopieren können.
Beginnen wir mit der linken Seite:
Sie suchen unter Choose table die Tabelle aus, mit der Sie eine Klassifikation bzw. ein Labeling durchführen möchten. Das kann auch der DataTreeExtract sein, eine Tabelle, die Sie bereits aus einem Datenbaum extrahiert haben. Mit Choose features öffnet sich ein kleiner Dialog, der die numerischen Spalten Ihrer ausgewählten Tabelle listet. Hier wählen Sie mit Mausklick und STRG die Parameter aus, die Sie als Merkmale verwenden möchten.
Im blauen Feld darunter haben Sie die Möglichkeit das Labeling etwas zu modifizieren. Mit all vs all werden alle zum Training verwendeten Label gegen alle anderen getestet. Diese Einstellung kann auch ohne Training (With training) gewählt werden, um ein bereits trainiertes Modell für das Labeling eines unbekannten Datensatzes zu verwenden. Bei Abschluss des Prozesses entstehen immer zwei Spalten mit dem wahrscheinlichsten Label als Ergebnis der Schätzung - einmal als ID und einmal als Volltext. Daran anschließend sehen Sie genauso viele Spalten, wie es Label gab, mit den IDs dieser Label als Header und darunter die Eintrittswahrscheinlichkeit, die die Maschine für diese Label geschätzt hat. Hier befinden sich also nur Zahlen zwischen 0 (gar nicht wahrscheinlich) und 1 (zu 100% wahrscheinlich). Mit one vs rest haben Sie eine besondere Option, die wir für eine Validierung eines konzeptionellen Modells bereits gut verwenden konnten. Diese Einstellung kann nur im Trainingsmodus (With training ist aktiv und es gibt bereits Label in Ihrer Tabelle) verwendet werden. Wenn Sie also one vs rest aktivieren, wird Ihnen noch eine Dropdown-Liste angezeigt, die die Inhalte der einheitlichen Wörter Ihres rechts ausgewählten Labels anzeigen. Wählen Sie hier ein Wort aus, dann wird der Labeldatensatz binär kodiert, d.h. Positionen, die das in dieser Dropdown-Liste angezeigte Wort als Label enthalten, erhalten eine 1 und alle anderen eine 0. Sie triggern die Maschine also zu einer Bist du...? Ja oder Nein-Anwort. Wenn Sie unter dieser Bedingung die Merkmalsgewichte bei solider Schätzung (Kreuzvalidierung ist in Ordnung) anschauen, sollten Sie die Faustregeln, die zur Unterscheidung dieses Labels von anderen verwendet wurden, hier wiedergespiegelt bekommen. So lassen sich ggfls. auch unbekannte oder bislang unentdeckte Regelwerke durch die Bearbeitung Dritter herausfinden. Es kann aber auch dazu dienen die eigene qualitative Unsicherheit der Einschätzung, die zum jeweiligen Label führte (beispielsweise geologische Schichtzugehörigkeit aus einem konzeptionellen Modell), anhand der Eintrittswahrscheinlichkeiten für die Antwort Ja/Nein in einer Zahl zu fassen und zu prüfen. Wir haben ein entsprechendes Praxisbeispiel in diesem Artikel für Sie bereit gestellt.
Haben Sie die DataTreeExtract-Tabelle ausgewählt, sehen Sie unter dem blauen Feld nun einige Kästchen, die Sie an- und abwählen können. Da diese Tabelle aus dem Datenbaum stammt, ist Sie sicher georeferenziert und auch daraufhin bereits auf Duplikate geprüft. Deshalb können Sie als Merkmal hier auch die Koordinaten sowie die Tiefenintervalle und deren Mächtigket wahlweise als Merkmale in Ihre Maschinen-Schätzung integrieren. Haben Sie eine beliebige Tabelle aus dem Parameter Manager ausgewählt, dann werden Ihnen diese Felder nicht angezeigt.
Ist Random Forest Classification aktiv, dann haben Sie weiter unten noch die Möglichkeit erweiterte Einstellungen gemäß der sklearn-Bibliothek für den Random Forest-Algorithmus einzustellten. Die Bedeutungen und Eingabemöglichkeiten haben wir Ihnen als Kurzversionen in Tooltips zur Anzeige zur Verfügung gestellt. Wir empfehlen dennoch, dass Sie sich auf der oberhalb der Optionen angegebenen Internet-Seite diesbezüglich nochmal informieren. Wir haben die Standard-Einstellungen von Random Forest Clasification in den Textfeldern bereits als Vorschlag integriert.
Für die Benutzeroberfläche der XGBoost Classification haben wir zugunsten der Vereinfachung auf vertiefende Einstellungen verzichtet.
Wenn Ihre Schätzung vollendet ist, sehen Sie in der Graphik die resultierenden Merkmalsgewichte (Feature Importance). Sie ergeben in Summe immer 1, d.h. Sie sehen hier die Wichtigkeit einzelner Merkmale im Vergleich zu anderen, um zu dem entsprechenden Label zu gelangen. Wenn Sie diese Graphik speichern möchten, dann können Sie mit der Maus in die Graphik doppelklicken und es wird Ihnen das Speichern einer SVG-Datei angeboten.
Hinweis: Wir verwenden zum trainieren immer 75% Prozent des gelabelten Datensatzes. Die anderen 25% dienen der Validierung. Dennoch schätzen wir final mit der "trainierten Maschine" immer nochmal den gesamten Datensatz, also den gelabelten und den ungelabelten. Sie können so das Labeling leicht mit dem Original-Labeling vergleichen. Wenn Sie dies mit dem Protokoll und den resultierenden Merkmalsgewichten gemeinsam analysieren, können Sie eine bessere Einschätzung über die Qualität der Schätzung, die Qualität des Labels oder die Eignung der auserwählten Merkmale gewinnen und entsprechende Verbesserungen vornehmen.
Die abgespeicherten trainierten Modelle werden im Fall des Random Forest Classification-Tools als PMML abgespeichert; im Fall des XGBoost Classification-Tools ist das extra für diesen Algorithmus zugeschnittene *.xgboost-Format.
Tipp: Sie können eine trainierte Maschine abspeichern und auch für ein neues Training wieder laden oder es für einen unbekannten Datensatz verwenden. Dokumentieren Sie zu Ihren abgelegten trainierten Modellen immer sorgfältig die verwendete Label-Variable und die ausgewählten Merkmale, um nicht durcheinander zu kommen. Der SubsurfaceViewer wird nur prüfen, ob die Anzahl der verwendeten Merkmale noch mit der Anzahl der in der trainierten Maschine vorhandenen überein kommt. Andernfalls wird hier eine Fehlermeldung ausgegeben.
Hinweis: Das Werkzeug nutzt das temporäre Verzeichnis zur Ablage der Berechnung. Bei Bedarf können Sie mit den Programmeinstellungen den Pfad dieses Verzeichnisses anpassen.
Hin und wieder scheint die verwendete Tabelle, insbesondere DataTreeTableExtract die neu erstellten Spalten nicht zu rendern. Dann sollten Sie die Tabelle einfach exportieren. Dann sehen Sie, dass die Spalten hinzugefügt wurden und nur die Darstellung nich aktualisiert wurde.
Ganz unten finden Sie schließlich einen Button, um den LogExplorer zu öffnen. Da dieser ebenfalls etwas umfangreicher ist, haben wir hierzu einen eigenen Artikel verfasst.