Statusbericht über die Kern-Grid-Infrastruktur

Download:
Statusbericht über die Kern-Grid-Infrastruktur 01/09

07. August 2009

Dieser Fortsetzungsbericht basiert auf dem zweiten Statusbericht über die Kern-Grid-Infrastruktur vom 10. Februar 2009. Informationen aus dem ersten Bericht werden nur wiederholt, wenn sich in diesem Bereich etwas geändert hat.

Fachgebiet 1

Die durch Fachgebiet 1 derzeitig betreuten und zur Verfügung gestellten Versionen der Middleware-Komponenten sind in folgender Tabelle dargestellt.

Tabelle 1:Durch Fachgebiet 1 betreute Middlewarekomponenten   öffnen/Schließen

Die Referenzinstallation (1) läuft auf aus Sonderinvestitionen beschaffter Hardware am Forschungszentrum Karlsruhe und ist unter http://dgiref.d-grid.de/ detailliert dokumentiert. Aktualisierungen der Referenzinstallation werden halbjährlich in Abstimmung mit dem D-Grid TAB vorgenommen. Die Aufgaben des TAB sowie Sitzungsprotokolle sind unter http://www.d-grid.de/tab/ zu finden.
Die Ansprechpartner für den Support bei Communities und Kompetenzzentren sind in der SuKo gebündelt und treffen sich halbjährlich in Karlsruhe (http://dgiwiki.d-grid.de/dgi/SuKo). Das D-Grid User Support Portal wurde basierend auf diesen Treffen weiterentwickelt und ist über http://dgus.d-grid.de/ zugreifbar.
Neben den internen Workshops und der SuKo wurde im Juni 2009 erstmals ein gemeinsamer Workshop mit Fachgebiet 1 und 2 veranstaltet, der die Abstimmung zwischen den Fachgebieten verbessert. Dies wird es künftig halbjährlich geben.
Das Arbeitspaket Univa Sun Grid Engine wurde in Abstimmung zwischen Zuwendungsempfänger und Zuwendungsgeber gestrichen.

Fachgebiet 2

Betrieb der VO- und Nutzerdienste im D-Grid

Die VO- und Nutzerdienste wurden am FZJ betrieben, insbesondere wurde für jede unterstützte VO ein VOMRS-Server betrieben und gewartet. Um neue Konfigurationen und neue Softwareversionen außerhalb der Produktionsumgebung testen zu können, wird eine zweite virtuelle Maschine als VOMRS-Server betrieben und aktualisiert. Die VOs wurden im Umgang mit VOMRS unterstützt, insbesondere bei der Änderung der VOMRS-Einträge zu Nutzer-Zertifikaten und bei der Verlängerung von Zertifikaten. Außerdem wurden Nutzer, deren von der alten DFN-CA „DFN-Verein User CA Grid - G01 “ ausgestellte Zertifikate durch Zertifikate der neuen DFN-CA „DFN-Verein PCA Grid – G01“ ersetzt wurden, unterstützt. Die neuen VOs bisgrid für das D-Grid Projekt BIS-Grid, bauvogrid für das D-Grid Projekt BauVOGrid, biz2grid für das D-Grid Projekt biz2grid, bioif für das Forschungsprogramm BioInterfaces des FZK, dgops zur Unterstützung des Accountings sowie ptgrid zur Unterstützung des Call 3 Projektes PT-Grid (Plasma-Technologie-Grid) wurden eingerichtet. Außerdem wurden Untergruppen zu VOs eingerichtet und neue Repräsentanten zugelassen. Durch periodisches Neustarten des Tomcat 6 Servers auf der VOMRS Server-Maschine und der Test-Maschine mittels Cron werden Abstürze von Tomcat durch Speicherlecks vermieden. In Mails mit den VOMRS-Entwicklern wurde die weitere Entwicklung von VOMRS diskutiert. DGUS-Tickets zu VOMRS wurden bearbeitet und gelöst. Es wurden Arbeiten und Tests zur Synchronisation des neuen VOMS-Servers durch die VOMRS-Server durchgeführt und der Betrieb auf die Synchronisation des neuen Servers umgestellt. Der Tomcat 6 Server wurde auf dem Test- und Produktionssystem zur Verwendung von mehr Arbeitsspeicher rekonfiguriert. Der MySQL-Server wurde auf beiden Systemen zur Unterstützung einer größeren Zahl von MySQL-Verbindungen neu konfiguriert. Alle am FZJ betriebenen D-Grid VOs wurden in den VOMRS-Servern zur Unterstützung der neuen Short Lived Credential Service Certificate Authority „DFN SLCS-CA“ des DFN konfiguriert.
Das FZK betreibt weiterhin den zentralen D-Grid VOMS Server. Dieser synchronisiert sich täglich mit dem VOMRS Server in Jülich. Des Weiteren wurden die neuen D-Grid VOs Aerogrid und DGCMS in VOMS eingerichtet.
Zur Einführung der Attribut-basierten Autorisierung in D-Grid wurde bis Q2/09 ein SAML-VOMS Server im FZK aufgebaut. Im Zusammenhang mit VOMS wurden insgesamt 10 Tickets vom FZK Help Desk bearbeitet und gelöst.
Insgesamt werden vom FZJ die VOMRS Server für die folgenden D-Grid VOs betrieben:
aerogrid, bauvogrid, bioif, bisgrid, biz2grid, bwgrid, c3grid, dgcms, dgops, dgtest, education, fingrid, gdigrid, hepcg, ingrid, kerndgrid, lifescience, medigrid, optinum, partnergrid, progrid, ptgrid, textgrid, wisent
AstroGrid-D betreibt für die VO astrogrid einen eigenen VOMRS Server.
Zurzeit gibt es folgende Gruppen innerhalb einzelner VOs:

  • bwgrid: hsesslingen, unifreiburg, uniheidelberg, unihohenheim, unikarlsruhe, unikonstanz, unimannheim, unistuttgart, unituebingen, uniulm
  • education: fzj, rrzn, tukaiserslautern, unigoettingen
  • ingrid: ingridcas, ingridform, ingridkop, ingridopt, ingridturb, ingridvis, ingridwas, ingridwfl, ingridwms
  • medigrid: md-bi, md-bv, md-kf, md-on, md-rp, md-sv

Seit Januar 2009 werden für alle neu eingerichteten VOs automatisch die folgenden Standard-gruppen und -rollen angelegt:

  • Gruppe: admin
    • Rolle: softwareadmin
    • Rolle: dataadmin
  • Gruppe: member
    • Rolle: developer

Betrieb der Ressourcen im D-Grid

Der zentrale GRRS-Server für D-Grid, das zentrale Gateway für UNICORE 5 und die UNICORE 6 Registry wurden betrieben. Ressourcenanbieter wurden bei der Anmeldung von Ressourcen zum GRRS bzw. bei der Änderung von Ressourcen-Einträgen unterstützt. dgridmap wurde zur Unterstützung von UNICORE 6 erweitert und die Dokumentation von dgridmap weiterentwickelt. DGUS-Tickets zu GRRS, zu Problemen von D-Grid-Ressourcen mit GRRS und zu den D-Grid Ressourcen dCache, Juggle und SoftComp des JSC wurden bearbeitet. Arbeiten zur Erweiterung des GRRS um die Möglichkeit, einzelne Gruppen von VOs auf Ressourcen zuzulassen, wurden durchgeführt. Eine eXist-Datenbank zur Entwicklung einer XML-Version des GRRS wurde eingerichtet. An dieser Datenbank wurde die Implementierung der Methoden für die Migration der Datenbestände aus dem jetzigen GRRS in die XML-Datenbank und zu deren Verwaltung in Zusammenarbeit mit FIRST getestet sowie eine Fehlersuche bei Fehlverhalten vorgenommen. Die GRRS-Datenbank wurde um den neuen Speicher-Middleware-Typen „generic SE“ erweitert und eine entsprechende Erweiterung des Interfaces zur Registrierung von Ressourcen durchgeführt.

Ausbau der Redundanz für die D-Grid Infrastruktur

Am JSC wurden virtuellen Maschinen-Umgebung zum Einrichten eines zum Karlsruher R-GMA-Server redundanten zentralen R-GMA-Servers, eines redundanten zentralen BDII-Servers und eines redundanten zentralen WMS-Servers aufgebaut.
Es wurden Arbeiten zum Einrichten des R-GMA-Servers ausgeführt. Die Arbeiten am redundanten R-GMA-Server wurden jedoch eingestellt, da inzwischen beschlossen wurde, dass in Zukunft kein zentraler R-GMA-Service mehr betrieben wird.
Außerdem wurden ein redundanter zentraler BDII-Server sowie ein redundanter zentraler WMS-Server eingerichtet.
Der Meilenstein M-2-5-1-1 wurde erreicht: der R-GMA-Server wurde eingerichtet, der BDII-Server und der WMS-Server wurden eingerichtet und in Betrieb genommen. Die redundanten Server sind erreichbar unter: dgrid-wms.fz-juelich.de, dgrid-bdii.fz-juelich.de bzw. ldap://dgrid-bdii.fz-juelich.de:2170/o=grid,mds-vo-name=local.
Das LRZ hat den Arbeitsbereich „Einheitliche Betriebsumgebung für Produktions-Jobs“ als Unterauftrag vom FZJ übernommen. Die Arbeiten im Berichtszeitraum fanden auf zwei Gebieten statt. Zum einen ist ProC, eine Grid-Workflow-Engine entwickelt am Max-Planck-Institut für Astronomie, als anspruchsvoller Anwendungsfall ausgewählt und vorbereitet worden.

  • Prinzipielle Übereinkunft mit MPA und AEI erzielt
  • Installation von ProC auf einem Rechner am LRZ
  • Sampling-Workflow im Grid zum Laufen gebracht
  • Als Demo auf Konferenzen vorgeführt
    • HPDC an der TUM in Garching am 11.-13. Juni
    • ISC09 in Hamburg am 23.-26. Juni

Zum anderen ist Inca, ein User Level Grid Monitoring System entwickelt im Rahmen von TeraGrid, als Software-Stack-Monitor ausgewählt und vorbereitet worden. Monitoring ist aus mehreren Gründen ein Schlüsselelement in der Entwicklung einer einheitlichen Betriebsumgebung. Es erlaubt eine Bestandsaufnahme der aktuellen Umgebungen der Rechenressourcen, ein intelligentes Brokering von Ressourcen, die in der Lage sind eine bestimmte Aufgabe durchzuführen, und eine Überprüfung, ob eine Ressource abmachungskonform konfiguriert ist. Die Ergänzung und Abgrenzung von Inca in bezug auf andere Monitoringsysteme, vor allem Nagios und D-MON, wurde ausführlich zwischen LRZ, FZK, und TU Dortmund diskutiert und wird ein wichtiges Thema bleiben. Die Stärke von Inca ist die zeitnahe Lieferung von umfassenden Informationen aus der User-Sicht über die Existenz, Version, und Funktionalität von Standard-Software.

  • Eine Instanz von Inca für D-Grid wurde auf einer neuen virtuellen Maschine installiert
  • Verschiedene Schwierigkeiten bezüglich Zertifikate und Firewalls wurden behoben
  • Standardmäßiger Zugang mit Grid-Methoden (gsissh) wurde als sehr wünschenswert identifiziert (das nächste Inca-Release soll dieses Feature beinhalten.)
  • Installation und Anzeige im Web von ersten Tests wurde auf einigen Ressourcen implementiert

Fachgebiet 3

Im FG-3.2 wurde in Zusammenarbeit mit FG-3.1 sowie den Fachgebieten für den D-Grid Betrieb und die D-Grid Referenzinstallation die Einführung Attribut-basierter Autorisierung begonnen. Aufgaben zur Evaluierung und der Erstellung von Konfigurationsvorschlägen für Middleware- und Storage-Systeme wurden an Institutionen mit entsprechender Kompetenz verteilt.
FG-3.2 (das RRZN) übernahm dies für das Globus Toolkit (2) sowie die weitere Koordinierung der für die Einführung notwendigen Arbeiten zusammen mit FG-3.1 (3). Neben den technischen Arbeiten wurde begonnen das D-Grid Betriebskonzept sowie die Referenzinstallation entsprechend zu erweitern. Informationen über die Erweiterung der AAI wurden beim All-Hands-Meeting, in Berichten und durch Informationsemails verbreitet. Die Installation notwendiger Dienste (SAML-VOMS) wurde koordinierend vorangetrieben (4). Bei Treffen anderer D-Grid Projekte (SLA4D-Grid, DGSI) informierte und beriet FG-3.2 über die aktuelle AAI des D-Grid.
Zur weiteren Anpassung der Firewall-Konfigurationen in D-Grid wurden in FG-3.3 „Firewalls“ die Sicherheits-Funktionen und Sicherheits-Modelle von UNICORE 6 untersucht. Außerdem wurden die wichtigsten Eigenschaften eines Werkzeugs zur Verifizierung von Firewall-Konfigurationen umfangreich dargelegt (5). Zusätzlich wurden die Untersuchung, die Spezifikation und die Standardisierung eines Verfahrens zur dynamischen Freischaltung-Verwaltung von Firewalls angefangen. Die Lieferung einer Software-Bibliothek, der diese Funktionalität anbietet, ist für das nächste Halbjahr vorgesehen. An der RWTH Aachen wurden neue dedizierte Firewall-Komponenten für den LHC Tier-2 Grid-Cluster beschafft und offiziell im Betrieb genommen.

Fachgebiet 4

Durch das Supportzentrum erfolgte die Bearbeitung von Tickets im DGUS und GGUS Portal. Ebenso wurde der Support für iRODS und Stellaris integriert.
Hinsichtlich dCache fanden die Weiterentwicklung sowie umfangreiche Tests der ACLs statt. Damit wird einerseits die Forderung einiger Communities nach feineren Autorisierungsmöglichkeiten erfüllt, andererseits der Zugriff auf Bandspeicher Ressourcen optimiert.

Die Arbeiten zur Bereitstellung von iRODS wurden fortgeführt. Dabei wurden die Anbindung an GSI, die Schnittstelle zu RDF und die automatische Replikation und Aktualisierung realisiert.
iRODS wurde auf SUN Standard X86 Server Hardware unter Solaris 10 und SLES 10 installiert und getestet. Es traten keine Probleme auf.
Der Metadateninformationsdienst Stellaris wurde komplett implementiert.
Für OGSA-DAI wurde eine dynamische Rechteverwaltung implementiert und dokumentiert.

Fachgebiet 5

Um Communities den Zugang und die Möglichkeiten eines VO-internen Accounting darzustellen wurde das D-Grid Accounting Konzept (4) veröffentlicht. In dem Konzept ist, neben den möglichen Architekturen für ein D-Grid Accounting, die aktuelle Umsetzung der Sicherheitsmaßnahmen für die Speicherung, den Transport und den Zugriff auf die Accounting-Daten beschrieben.
An das D-Grid Accounting sind Ende 2008 folgende Sites angeschlossen: RRZN (Uni Hannover), TU Dortmund , FZ Jülich, Offis Oldenburg, FZ Karlsruhe.
Um den Anschluss von Sites, unabhängig von der Middleware gLite, zu unterstützen, ist ein DGAS Stand-Alone Client Softwarepaket bereitgestellt worden, zu dem eine Installationsanleitung [14] vorhanden ist. Zusätzlich wurde ein Patch entwickelt, welcher die Nutzung des DGAS Clients auch auf der Linux Distribution SuSE Linux Enterprise (SLES) ermöglicht.

Sondermaßnahmen 2006, 2007 und 2008

Im Rahmen der D-Grid Projekte haben sich einzelne Institutionen bereit erklärt, eigene Ressourcen im D-Grid zur Verfügung zustellen. Allerdings wurden damit keine Verpflichtungserklärungen bezüglich der zu installierenden Softwarekomponenten abgegeben.
Die im Bereich DGI1-FG2 beteiligten Institutionen bildeten ursprünglich das so genannte Kern-D-Grid. Mit Hilfe dieser Institutionen wurde ein erstes Betriebsmodell erstellt. Unabhängig von der erklärten Verpflichtung dieser Institutionen, Ressourcen dem D-Grid zur Verfügung zu stellen, wird im diesem Bericht nur der Status der im Rahmen der Sondermaßnahmen 2006, 2007 und 2008 für das D-Grid erworbenen Ressourcen dargestellt.
Dabei ist zu berücksichtigen, dass die Antrag stellenden Institutionen auch explizite Verpflichtungen bezüglich dieser Ressourcen im Antrag akzeptiert haben. Diese Verpflichtungen betreffen die zu installierenden Softwarekomponenten, den Zeitpunkt der Betriebsbereitschaft, die Unterstützung des D-Grid Betriebsmodells sowie eine Bericht Erstattungspflicht gegenüber dem D-Grid Beirat. Diese Berichte werden in Tabelle 2 zusammengefasst. Bei Anforderung werden den Mitgliedern des Beirats auch Einzelberichte zur Verfügung gestellt.
Die in Tabelle 2 aufgestellte Hardware entspricht dem aktuellen Kenntnisstand des D-Grid. Serverknoten bleiben unberücksichtigt. Der Speicher ist zusammengefasst und soll nur einen Anhaltspunkt liefern. Es wird daher nicht zwischen Cache und Hauptspeicher unterschieden.

Tabelle 2:Sonderinvestitionen 2006 bis 2008 (DC= DualCore, QC= QuadCore, 8C= 8 Core, TB=TByte)   öffnen/Schließen

Tabelle 3:Ansprechpartner für die Sonderinvestitionen   öffnen/Schließen


Fußnoten:

Technical Advisory Board

Support Koordination

In Dortmund sind zwei Cluster installiert, die unabhängig voneinander Nutzungsdaten an das zentrale Accounting melden.

 

Abbildungen

Innerhalb des 1. Halbjahres 2009 sind ca. 70 Millionen CPU Stunden auf den Ressourcen der D-Grid Sonderinvestitionen gerechnet worden. Dies ist eine Steigerung von 22% im Vergleich zum 2. Halbjahr 2008. Ein ebenso positives Ergebnis ist der Anstieg des Anteils an CPU Stunden, die durch D-Grid Nutzer verbraucht wurden. Dieser Anteil stieg von 46% auf nun 58% (siehe Abbildung 1). Die restlichen 42% der verbrauchten CPU Stunden teilen sich gleichmäßig auf zwischen lokalen Anwendern und Nicht-D-Grid Virtuellen Organisationen (z.B. aus dem LHC Computing Grid).

verbrauchte CPUh

Abbildung 1 Verbrauchte CPUh gegliedert nach Nutzergruppen
Betrachtet man nur die Virtuellen Organisationen des D-Grid, so wurden ca. 40 Millionen CPU Stunden in Anspruch genommen; ein Großteil dieser CPU-Stunden entfällt auf die Virtuellen Organisationen AstroGrid-D, bwGrid, HEPCG und MediGrid. Abbildung 2 zeigt eine genaue Aufschlüsselung der angefallenen CPU Stunden nach Virtueller Organisation des D-Grid. Zur besseren Darstellung besitzt die x-Achse eine logarithmische Skala, Virtuelle Organisationen ohne Job Submission im Erhebungszeitraum sind ausgeblendet.

 

Nicht-niormalisierte CPUh
Abbildung 2 Nicht-normalisierte CPU Stunden gegliedert nach D-Grid VO

 

CPU Berichtszeitraum

Abbildung 3 zeigt die verbrauchten CPU Stunden über den Berichtszeitraum hinweg. Verbrauchte-CPU Stunden gegliedert nach Monat.
Neben der reinen Anzahl an CPU-Stunden wurde auch die Anzahl an submittierten Jobs festgehalten. Wie aus Abbildung 4 ersichtlich, ergibt sich ein kleines Übergewicht zugunsten der Non-D-Grid Nutzung. Von den mehr als 12 Millionen gerechneten Jobs stammen 41% bzw. 5 Millionen von D-Grid Nutzern.

 


Abbildung 4 D-Grid/ Non-D-Grid Anzahl Jobs . Untersucht man die Anzahl gerechneter Jobs und gliedert diese bzgl. der einzelnen Virtuellen Organisationen des D-Grid auf, so ergibt sich die in Abbildung 5 dargestellte Aufteilung. Virtuelle Organisationen, die im Erhebungszeitraum keine Jobs gerechnet haben, wurden in der Graphik nicht berücksichtigt.


Jobs D-Grid VO
Abbildung 5 Anzahl Jobs gegliedert nach D-Grid VO. Zum besseren Erkennen von Tendenzen ist in Abbildung 6 die Anzahl gerechneter Jobs nach Monaten dargestellt.


Jobs nach Monat
Abbildung 6 Anzahl Jobs gegliedert nach Monat

 

D-Grid Ressourcen

Abbildung 7 dCache Datenvolumen pro D-Grid VO [GByte] stellt die bereits auf den D-Grid Ressourcen gespeicherten Datenvolumens bezogen auf die beiden Middlewares dCache dar. Eine Nutzung des über OGSA-DAI angebotenen Speichers erfolgte durch die MediGrid und die TextGrid VO.
Neben dCache und OGSA-DAI wurden weitere Formen von Storage Elementen durch Communities verwendet. Die Nutzung dieser teils Community-spezifischen Storage Elemente ist in Abbildung 8, Abbildung 9 und Abbildung 10 dargestellt. Das IZBI stellte zudem mehrere Datenbanken/ Ontologien wie SwissProt, D-Grid Ontology und Ensembl Homo Sapiens bereit.


8,9,10
Abbildung 8 C3 Storage Element Datenvolumen pro D-Grid VO [GByte]

Abbildung 9 AstroGrid-D Storage Element Datenvolumen pro D-Grid VO [GByte]

Abbildung 10 SRB/ iRODS Datenvolumen pro D-Grid VO [GByte]


Literaturverzeichnis

1. D-Grid Referenz-Installation. [Online] [Zitat vom: 13. Juli 2009.]
2. Henne, Benjamin. VO-Attribut-basierte Autorisierung mit dem Globus Toolkit. [Online] 18. März 2009. [Zitat vom: 31. Juli 2009.]
3. Henne, Benjamin und Piger, Stefan. Attribut-basierte Autorisierung im D-Grid. [Online] 28. April 2009. [Zitat vom: 31. Juli 2009.]
4. Henne, Benjamin. Test des VOMS-SAML-Services des DGrid VOMS. [Online] 15. Juni 2009. [Zitat vom: 31. Juli 2009.]
5. Volpato, Gian Luca. Definition of a Firewall Verification Tool. [Online] 2009.
6. Brenner, Michael und Wiebelitz, Jan. Konzept für das Accounting. [Online] 1. August 2008. [Zitat vom: 13. Juli 2009.]
7. Fieseler, Thomas, et al. Konzept für die Mehrfachmitgliedschaft in Virtuellen Organisationen im D-Grid. [Online] 30. Juni 2008. [Zitat vom: 13. Juli 2009.]
8. Fieseler, Thomas, et al. Konzept für die Rechtevergabe an Untergruppen im D-Grid. [Online] 30. Juni 2008. [Zitat vom: 13. Juli 2009.]
9. Brenner, Michael und Wiebelitz, Jan. Installation des DGAS Standalone Clients. [Online] 23. Juli 2008. [Zitat vom: 13. Juli 2009.]

 

Anhang

Tabelle 4:D-Grid/ Non-D-Grid CPU Stunden Gesamtübersicht   öffnen/Schließen

Tabelle 5: D-Grid/ Non-D-Grid Anzahl Jobs Gesamtübersicht   öffnen/Schließen

Tabelle 6: D-Grid/ Non-D-Grid akkumuliertes Datenvolumen dCache [GByte]   öffnen/Schließen

Tabelle 7:Tabelle 7: D-Grid/ Non-D-Grid akkumuliertes Datenvolumen OGSA-DAI [GByte]   öffnen/Schließen

Tabelle 8:D-Grid/ Non-D-Grid akkumuliertes Datenvolumen AstroGrid-D SE [GByte]   öffnen/Schließen

Tabelle 9: D-Grid/ Non-D-Grid akkumuliertes Datenvolumen C3 Grid SE [GByte]   öffnen/Schließen

Tabelle 10: D-Grid/ Non-D-Grid akkumuliertes Datenvolumen SRB/ iRODS [GByte]   öffnen/Schließen

 

Autoren:

Michael Brenner (Regionales Rechenzentrum für Niedersachsen)
Wilhelm Bühler (Forschungszentrum Karlsruhe)
Arthur Carlson (Leibniz-Rechenzentrum)
Thomas Fieseler (Forschungszentrum Jülich)
Stefan Freitag (Technische Universität Dortmund)
Benjamin Henne (Regionales Rechenzentrum für Niedersachsen)
Birgit Lewendel (DESY)
Uwe Schwiegelshohn (Technische Universität Dortmund)
Gian Luca Volpato (Regionales Rechenzentrum für Niedersachsen)
Das diesem Bericht zugrunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Bil­dung und Forschung unter den Förderkennzeichen 01AK800B und 01IG07014G gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autoren.