Parallele Vorkonditionierung durch bestärkendes Lernen
Die spektrale verzögerte Korrekturmethode ist ein iterativer Löser für zeitabhängige partielle Differentialgleichungen. Sie kann als vorkonditionierte Picard-Iteration für das Kollokationsproblem interpretiert werden. Der Schlüssel zu einer effizienten Methode ist die Wahl des Vorkonditionierers: Er definiert die Konvergenzgeschwindigkeit und den Grad der Parallelität. Während der de-facto-Standard ein schnell konvergierender, serieller Vorkonditionierer ist, ist es unser Ziel, einen schnell konvergierenden, diagonalen und damit parallelen Vorkonditionierer zu finden. Um dies zu erreichen, setzen wir verstärktes Lernen ein, das durch differenzierbare Programmierung ermöglicht wird, wobei wir einen differenzierbaren Verlust verwenden, der auf dem Spektralradiuswert basiert, der aus der vorgeschlagenen Vorkonditionierer-Initialisierung erhalten wurde. Wir betrachten die Dahlquist-Gleichung und trainieren ein Netzwerk, um günstige, diagonale Vorkonditionierer in Abhängigkeit vom Parameter der Gleichung auszuwählen. Das trainierte Netzwerk kann dann direkt verwendet werden, um parallele Vorkonditionierer für komplexere Probleme vorzuschlagen: Mit Hilfe spektraler Methoden können wir dies auf partielle Differentialgleichungen mit einem linearen steifen Teil anwenden, den wir entkoppelt und implizit mit maßgeschneiderten Vorkonditionierern behandeln, die vom Netzwerk ausgewählt werden, während nichtlineare Teile explizit im realen Raum behandelt werden. In diesem Vortrag stellen wir den Gesamtansatz und die Trainingstechnik vor und zeigen erste Ergebnisse für lineare und nichtlineare PDEs.