Labor für Werkstoffsimulation

Labor für Werkstoffsimulation

In unserem Labor für Werkstoffsimulation bündeln wir unsere Expertise in der Simulation. Diese erstreckt sich von der Mikro- über Meso- bis hin zur Makroskala. Die Erstellung von Simulationen in unterschiedlichen Skalenbereichen ist entscheidend um das Materialverhalten zu verstehen, Modelle zu verifizieren und mit Versuchen unterschiedlicher Skalenbereiche vergleichen zu können.

Anwendungsgebiete

Simulationen werden an unserem Institut in unterschiedlichsten Bereichen erstellt. Ob der Hydratationsprozess von Zement, der Wärmefluss durch unterschiedlichste Materialien, Transportmechanismen oder die Interaktion von Beton mit anderen Materialien untersucht werden sollen, jede Fragestellung kann nicht nur in unseren Laboren praktisch nachgewiesen sondern auch von Simulationen gestützt werden.

Diese Fragestellungen können individuell für sich oder in Kombination betrachtet werden.

Mit den Simulationen können wir unterschiedliche Einflüsse und Skalenbereiche verbinden. Hierfür kann ein Multiskalenmodell beispielsweise den Einfluss der Mikrostruktur auf meso- bzw. makroskopische Materialeigenschaften liefern.

Programme

Simulation eines Phasenwechselmaterials (1D)
Simulation eines Phasenwechselmaterials (1D)

Um dieses breite Spektrum abdecken zu können, sind auch sich den Herausforderungen anpassungsfähige Programme bzw. Entwicklungsumgebungen notwendig. Daher arbeiten wir mit auf die Fragestellungen zugeschnittenen Softwarelösungen.

Es können beispielsweise kommerzielle Softwareangebote wie Abaqus für direkte Nachweise und Überprüfungen herangezogen werden. Quelloffene Software kann andererseits bei der Forschung größere Freiheiten und Möglichkeiten zur kreativen Bearbeitung ungewöhnlicher Fragestellungen bieten.

Aber auch Umgebungen wie Matlab oder Python helfen bei Auswertung und Forschung.

Zum Betrachten von mehreren variablen Einflüssen oder der Anwendung der Phasenfeldmethode werden auch Multiphysics-Lösungen wie MOOSE Framework oder openFoam verwendet.

Erfahrungen mit verschiedenen Anwendungen:

Einige Anwendungen, die bereits in zum Teil unterschiedlichen Bereichen zum Einsatz gekommen sind, sind u.a.:

  • Abaqus
  • Hymostruc
  • MOOSE Framework
  • OpenFOAM
  • PHREEQC
  • LAMMPS Molecular Dynamics Simulator
  • Matlab

Diese Liste wird kontinuierlich erweitert, um so die besten Lösungen für unsere Forschung und für Untersuchungen zu erzielen.

Rechnerische Ressourcen

Je nach Fragestellung sind unterschiedliche Rechenleistungen notwendig.

Während bei statisch-linearen Berechnungen die Rechenleistung von auf dem Markt standardmäßig verfügbaren Computern ausreichend sein kann, können erhöhte Auflösungen oder Nichtlinearitäten diese Ressourcen bereits überschreiten.

Um hierauf vorbereitet zu sein, stehen Kapazitäten auf unterschiedlichen Stufen zur Verfügung:

Rechner am WiB

Neben den normalen Arbeitsplatzrechner stehen zusätzlich auch für numerische simulationen optimierte Rechner zur Verfügung.

Hierbei handelt es sich um Rechner mit:

  • 8-Kern Prozessoren
  • bis zu 128GB RAM für nichtlineare Berechnungen mit einer hohen Anzahl an Freiheitsgraden
  • NVIDIA Grafikkarten für GPU-Acceleration mittels Cuda

Hichleistungsrechner am WiB

Oben: Supermicro GPU Server; Unten: HPE ProLiant
Oben: Supermicro GPU Server; Unten: HPE ProLiant

Unser Institut besitzt einen eigenen Hochleistungsrechner (HPC). Das System ist mit der Leistung eines Supermicro GPU-Knotens mit zwei Sockeln, AMD EPYC™ Milan CPUs und 512 GB Speicher ausgestattet. Diese hochmoderne Technologie wird es uns ermöglichen, komplexe Berechnungen mit hoher Geschwindigkeit und Genauigkeit durchzuführen.

Die AMD EPYC™ Prozessoren mit einer hohen Kernanzahl wurden speziell für HPC-Arbeitslasten entwickelt und bieten eine hervorragende Leistung, Skalierbarkeit und Energieeffizienz.

Zusätzliche Grafikkarten (GPUs) beschleunigen rechenintensive Aufgaben wie maschinelles Lernen, Deep Learning und wissenschaftliche Simulationen. Die Kombination dieser leistungsstarken CPUs und GPUs ermöglicht eine schnellere Datenverarbeitung, was zu einer kürzeren Time-to-Intelligence und einer besseren Entscheidungsfindung führt.

Darüber hinaus sind beide Knoten mit insgesamt 768 GB DDR4-RAM ausgestattet, was eine effiziente Verarbeitung großer Datenmengen sowie die Berechnung großer Systeme mit einer hohen Anzahl von Knoten ermöglicht. Dies stellt auch sicher, dass selbst die anspruchsvollsten Anwendungen reibungslos laufen, ohne dass es zu Engpässen oder Verzögerungen kommt.

Mit dieser fortschrittlichen Hardwarekonfiguration ist unser HPC-System in der Lage, eine Vielzahl von Berechnungen durchzuführen, was es unserem Team ermöglicht, einige der anspruchsvollsten Probleme bewältigen zu können.

Diese Fähigkeiten erlauben uns die Simulation von

  • komplexer Systeme wie heterogener Materialien mit Millionen von Knotenpunkten
  • nichtlineares Materialverhalten, wo hohe Präzision erforderlich ist
  • Multiphysik-Simulationen, die die komplexe Kopplung einer eigenen Reihe von PDEs (partiellen Differentialgleichungen) beinhalten und die parallelen Verarbeitungsmöglichkeiten der CPU- und GPU-Architekturen nutzen
  • die Analyse riesiger Datenmengen oder die Entwicklung modernster KI-Modelle
  • usw.

Dies führt zu detaillierteren und realistischeren Simulationen von komplexen Systemen.

Der erste Knoten in unserem HPC-System wurde speziell für die Bewältigung großer Rechenlasten konzipiert und verfügt über erstklassige Komponenten, die auf maximale Leistung und Zuverlässigkeit ausgelegt sind.

Derzeit besteht der Knoten aus:

  • Supermicro GPU Knoten
  • AMD EPYC™ Milan CPUs mit 128 Kernen
  • 512 GB DDR4 ECC-Speicher
  • bis zu 8 GPUs mit doppelter Breite
  • Speicher mit hoher Bandbreite
CPU-Kühler des Supermicro GPU-Knotens
CPU-Kühler des Supermicro GPU-Knotens

Der zweite Knoten ist für die Datenverarbeitung, die Anbindung unserer Labore und virtuelle Desktops zum Auslagern von Aufgaben mit mittlerer Arbeitslast vorgesehen.

Die aktuelle Konfiguration besteht aus:

  • HPE ProLiant Basis
  • AMD EPYC™ CPUs 32 Kerne (Dual-Sockel)
  • 256 GB DDR4 ECC-Speicher
  • bis zu 3 GPUs mit doppelter Breite
  • Speicher mit hoher Bandbreite
Oben: Supermicro GPU Server; Unten: HPE ProLiant
Oben: Supermicro GPU Server; Unten: HPE ProLiant

Hochleistungrechner

Sollte die Rechenleistung nicht ausreichen haben wir bereits Erfahrungen am Lichtenberg-Hochleitungsrechner. Hier können zum Beispiel mittels Message Passing Interface (MPI) parallele Berechnungen mit einer großen Menge an Prozessoren parallel genutzt werden, sodass auch sehr komplexe Problemstellungen gelöst werden können.

Hierdurch ist die Rechenleistung am WiB kein limitierender Faktor.

Lichtenberg-Hochleistungsrechner an der TU Darmstadt

Der Lichtenberg-Hochleistungsrechner im Verbund des Hessischen Komptenzzentrum für Hochleistungsrechnen stellt den Nutzern große Rechenkapazitäten von bis zu 3,148 PFlop/s und 257 TByte RAM zur Verfügung.

Weitere Infos sind hier zu finden:

Zur Website des Lichtenberg Clusters

Vorstellung einiger Forschungsbereiche

Die Anwendung des PF-Modells.
Die Anwendung des PF-Modells.

Betonkonstruktionen werden durch verschiedene Umwelteinflüsse wie Temperatur- und Feuchtigkeitsschwankungen, äußere Lasten usw. beeinträchtigt, die Mikrorisse oder Schäden unterschiedlicher Form und Größe verursachen. Dadurch wird die Dauerhaftigkeit des Betons stark verringert. Der autogene Selbstheilungsmechanismus ist eine der Methoden, um die Lebensdauer von Beton effektiv zu verlängern. Ziel dieser Arbeit ist es, den autogenen Selbstheilungsprozess von kleinen Rissen mit einer Breite von weniger als 0,2 mm in Beton mit Hilfe einer numerischen Methode zu untersuchen. Die autogene Selbstheilung besteht aus der Auflösung von Calciumhydroxid und der Ausfällungsreaktion von Calciumcarbonat. Unter Einbeziehung der chemischen Reaktionskinetik, der Diffusion und der Thermodynamik wird ein Phasenfeldmodell entwickelt und mit der Finite-Elemente-Methode (FEM) im Rahmen von MOOSE numerisch implementiert. Um die Entwicklung der Chemie des Systems zu untersuchen, wird ein 1D-Reaktions-Diffusionsmodell mit Hilfe des geochemischen PHREEQC-Berechnungscodes verwendet. In diesem Modell wird das Kohlendioxid dem Wasser mit einem logarithmischen Partialdruck von -3,4 zugesetzt, um eine Situation mit unbegrenzter Zufuhr von Calciumhydroxid in die Wasserphase zu modellieren. Die Simulationsergebnisse in PHREEQC wurden zur Eingabe von Parametern in das Phasenfeldmodell verwendet. Wir untersuchen die mikroskopische Rissmorphologie weiter, indem wir mehrere Simulationen mit den aus den experimentellen Tests gewonnenen Parametern durchführen.

Das Hauptziel dieses Projekts ist die Anwendung von dem „kinetic Monte-Carlo“ Ansatz (KMC), um die Auflösungszeit von Portlandit und die Anfangsphasen von zementhaltigen Materialien wie Alit und Belit zu berechnen.

Bei der Modellierung von Kontaktflächen soll das Materialverhalten bei großen Steifigkeitssprüngen untersucht werden. Augenmerk liegt hierbei vor allem auf dem Beitrag zur Steifigkeit und des dynamischen Verhaltens im Verbund.

Hierdurch soll eine effizientere Nutzung von Materialien erreicht werden.

Das Ziel dieses Projekts ist die Arbeit an der Multiskalenmodellierung, um die mechanischen Eigenschaften der Geopolymer-Mikrostruktur auf Nano- und Mikroebene zu berechnen. Daher führen wir die Simulation der grobkörnigen Geopolymer/CNTs anhand der verfügbaren LAMMPS-Trajektorendatei (Large Scale Atomic/Molecular Massively Parallel Simulator) durch, die mit einem Molekulardynamik-Simulationsansatz berechnet wurde. Als nächster Schritt wird die Berechnung der mechanischen Eigenschaften durch Monte-Carlo-Ansätze definiert, die mit dem LAMMPS-Paket durchgeführt werden können.

Schematische Darstellung der Lösungskonzentration löslicher Mineralien in situ und adaptive Netzverfeinerung in der Simulation zur Mineralauflösung
Schematische Darstellung der Lösungskonzentration löslicher Mineralien in situ und adaptive Netzverfeinerung in der Simulation zur Mineralauflösung

Die Modellierung der Ausbreitung einer Reaktionsfront bei der Auflsösung von Mineralen ist in vielen wissenschaftlichen und technischen Bereichen von Interesse. Die Auflösung von Mineralen beinhaltet oft komplexe physikalisch-chemische Prozesse an der Fest-Flüssig-Grenzfläche (im Nanomaßstab), die im Mikro- bis Mesomaßstab auf das Problem der sich kontinuierlich bewegenden Grenzen vereinfacht werden können. In dieser Arbeit haben wir die diffusionsgesteuerte kongruente Auflösung von Mineralien aus der Perspektive des Phasenübergangs im Mesomaßstab untersucht. Die dynamische Entwicklung der Fest-Flüssig-Grenzfläche während des Auflösungsprozesses wird mit Hilfe der Finite-Elemente-Methode (FEM) und des Phasenfeldansatzes (PF) numerisch simuliert. Letzterer ist in der Open-Source-Software Multiphysics Object Oriented Simulation Environment (MOOSE) implementiert. Die Parametrisierung des numerischen PF-Ansatzes wird im Detail diskutiert und anhand der experimentellen Ergebnisse für einen kongruenten Auflösungsfall von NaCl (aus der Literatur) sowie anhand analytischer Modelle für einfache Geometrien validiert. Darüber hinaus wurde die Auswirkung der Form eines sich auflösenden Mineralpartikels analysiert, wodurch gezeigt wurde, dass der PF-Ansatz für die Simulation der mesoskopischen morphologischen Entwicklung beliebiger Geometrien geeignet ist. Schließlich zeigte der Vergleich der PF-Methode mit experimentellen Ergebnissen die Bedeutung der Auflösungsgeschwindigkeitsmechanismen, die durch die Grenzflächenreaktionsrate oder durch den diffusiven Transportmechanismus gesteuert werden können.

Am WiB durchgeführte Simulationen

Hier sehen Sie einige Beispiele von vergangenen und aktuellen Simulationen an unserem Institut: