2005 guest student programme

The 2005 guest student programme ran from 8 August to 14 October 2005 with 13 students.

Group Photo

Guest students 2005 and some of their advisers
Guest students 2005 and some of their advisers
Forschungszentrum Jülich


Persons on the photo, left to right, front to back:
1. row: Sonja Dominiczak (ZAM), Christoph Junghans (Leipzig), Bernhard Steffen (ZAM), Claudia Albrecht (Dresden), Quang Minh Bui (Düsseldorf), Britta Hennecken (Koblenz), Rüdiger Esser (ZAM)
2. row: Jens Grieger (Berlin), Dirk Elbeshausen (Münster), Karsten Kahl (Wuppertal), Jens Doleschal (Dresden), Marc-André Hermanns (ZAM), Bernd Mohr (ZAM)
3. row: Robert Speck (Trier), Boris Orth (ZAM), Wolfgang Frings (ZAM), Jan Meinke (NIC), Herwig Zilken (ZAM), Björn Kuhlmann (Aachen)
4. row: Matthias Bolten (ZAM), Aiko Voigt (Berlin), Tobias Hertkorn (Bayreuth), Norbert Eicker (ZAM)

Proceedings

Esser, Rüdiger (Hrsg.) (2005):
Beiträge zum Wissenschaftlichen Rechnen - Ergebnisse des Gaststudentenprogramms 2005 des John von Neumann-Instituts für Computing
 (PDF, 2 MB),
Technical Report FZJ-ZAM-IB-2005-13

Abstracts

Automatisierte Daten-Transformation im GALA-Projekt

Claudia Albrecht, Technische Universität Dresden
Adviser: Wolfgang Meyer, ZAM
Heutzutage werden immer größere Datenbestände bei der Planung neuer oder der Verbesserung bereits vorhandener Produkte in der Industrie erhoben. Eine wichtige Aufgabe besteht nun darin, die verborgenen Informationen innerhalb dieser Daten zu erkennen und auszuwerten. Im Rahmen des GALA-Projektes (Grünenthal Applied Life Science Analysis) wurden für die automatisierte Datenauswertung Programme zur Transformation von Originaldaten implementiert. Eine sehr nützliche und häufig angewendete Familie ist die der Box-Cox-Transformation.

Evaluation of Hybrid Parallelization for Reconstruction of Large Phylogenies with MPI/OpenMP

Bui Quang Minh, Albert Ludwigs University of Freiburg
Adviser: Marc-André Hermanns, ZAM
Understanding phylogenetic relationship among species has been of tremendous interest since 's invention of evolutionary theory (1859). Moreover, the recent boom in molecular sequence data has caused troubles with the efficiency of various phylogenetic reconstruction methods. Hence, a series of heuristics have been proposed trying to analyze the data in reasonable time. Recently, the IQPNNI algorithm, based on the maximum likelihood principle, has successfully combined several heuristics together. However, its running time is still not satisfactory.
Against this background, we propose a hybrid parallelization scheme for the IQPNNI algorithm using MPI/OpenMP, ensuring the scalability on hybrid parallel architectures, such as clusters of SMPs. Experiments on large datasets showed improved performance over a pure MPI parallelization. Specifically, the hybrid parallelism scaled well as the number of processors increases, while the pure MPI presented a saturation effect. The runtime reduction and parallel scaling behavior suggest that hybrid parallelized IQPNNI is well suited to reconstruct large phylogenies.

Automatic Performance Analysis of Parallel Programs with KOJAK

Jens Doleschal, Dresden University of Technology
Adviser: Bernd Mohr, ZAM
A reason why performance analysis of parallel programs is a difficult task is that users frequently cannot predict the performance of their application because of the very large and complex tracing data set produced by conventional parallel performance tools. As a consequence, automatic analysis tools are required to identify frequently occurring and well-defined performance problems automatically. The automatic performance analysis toolset KOJAK provides a complete tracing-based solution for MPI, OpenMP or hybrid parallel applications. To evaluate its usability and effectiveness for larger applications, two complex ASCI benchmarks (UMT2K and SMG2000) and a very large community chemistry application (CP2K) have been instrumented and analyzed with KOJAK. During instrumentation of an executable with KOJAK several common problems can appear. This report describes them and gives solution hints. For securing that KOJAK runs correctly with Fortran MPI applications on different systems, the KOJAK C MPI testsuite has been extended to Fortran.

Online-Visualisierung und Steuerung Geodynamischer Simulationsrechnungen

Dirk Elbeshausen, Institut für Geophysik der Westfälischen Wilhelms-Universität
Adviser: Wolfgang Frings, Sonja Dominiczak, ZAM
Durch die stetige Weiterentwicklung von Algorithmen werden wissenschaftliche Simulationsrechnungen immer aufwendiger. Viele naturwissenschaftliche Disziplinen, darunter auch die Geodynamik, sind heutzutage auf massiv parallele Rechnerarchitekturen angewiesen. Da Rechenzeit auf solchen Hochleistungsrechnern nur begrenzt zur Verfügung steht, ist eine regelmäßige Kontrolle des laufenden Simulationsprogramms unerlässlich. Um diese auf eine effiziente Art zu ermöglichen, wurde eine Schnittstelle zur Kommunikation zwischen einer geodynamischen Simulationsrechnung und der entsprechenden Visualisierungssoftware entwickelt. Dabei wird die Visualisierungssoftware mit dem Simulationsprogramm gekoppelt und eine direkte Kommunikation ermöglicht. Dadurch können sämtliche Daten von der Simulation zur Visualisierung gesendet und dort graphisch dargestellt werden (Online-Visualisierung). Die Kommunikation zwischen beiden Seiten ermöglicht weiterhin eine deutliche Reduzierung des Datentransfers. Indem die Visualisierung gezielt von der Simulation Daten anfordert, kann dort vor dem Versenden der Daten eine Selektion durchgeführt werden. Somit werden nur die Daten transferiert, die zur Visualisierung momentan erforderlich sind. Des weiteren wurde dem Benutzer die Möglichkeit eröffnet, direkten Einfluss auf die Simulationsrechnung zu nehmen und ausgewählte Parameter noch während des Rechenvorgangs zu verändern (Computational Steering).

Autokorrelationsanalyse Symplektischer Integratoren in der Gitter-Quantenchromodynamik

Jens Grieger, Institut für Physik der Humboldt Universität zu Berlin
Adviser: Boris Orth, ZAM
In dieser Arbeit werden zwei symplektische Integratoren für den in der Gitter-Quantenchromodynamik verwendeten Hybrid-Monte-Carlo-Algorithmus verglichen. Die beiden Integratoren sind der Minimum-Norm-Integrator 2. Ordnung (2MN) nach Omelyan et al. und der Leap-Frog-Integrator 2. Ordnung (2LF). Die Energiedifferenz (ΔH2)1/2, d.h. der Fehler, der bei der Integration gemacht wird, ist mit dem 2MN etwa zehnmal kleiner als der Fehler bei der Integration mit dem 2LF. Man erwartet somit, dass bei gleichem Fehler die Schrittweite Δτ bei der Integration mit dem 2MN um etwa einen Faktor 3 größer gewählt werden kann als mit dem 2LF. Es wird der potentielle Geschwindigkeitsvorteil beim Erzeugen von dynamischen Eichfeldkonfigurationen untersucht und dabei die Autokorrelation berücksichtigt, um eine Aussage über die effektiv erzeugten, d.h. statistisch unabhängigen Konfigurationen zu machen. Die Simulationen wurden mit dem frei verfügbaren Code der MILC Kollaboration durchgeführt. Auf Grundlage der durchgeführten Simulationen kann der theoretische Geschwindigkeitsvorteil des 2MN gegenüber der Simulation mit dem 2LF nicht bestätigt werden. Ein signifikanter Unterschied in den Zahlen statistisch unabhängiger Konfigurationen, die mit den beiden Integratoren in gleicher Zeit erzeugt wurden, lässt sich nicht nachweisen.

Paralleles Rendering unter Verwendung eines Linux-Clusters

Britta Hennecken, Universität Koblenz
Adviser: Herwig Zilken, ZAM
Der Betrieb heutiger Graphikanwendungen übersteigt das Rechenvolumen handelsüblicher PCs und Workstations um ein Vielfaches. Aus diesem Grund wurden in der Vergangenheit spezielle Graphik-Rechner entwickelt, die die nötige Rechenleistung auf einer Maschine zur Verfügung stellen. Mehrere CPUs und GPUs (Graphics Processing Unit) sind in einem System vereint und arbeiten auf einem gemeinsamen Speicher. Der Betrieb rechenintensiver Graphikanwendungen kann mit Hilfe eines solchen Shared-Memory-Systems stabil und performant gewährleistet werden. Diese Graphikrechner bringen, neben ihren leistungsorientierten Vorzügen, gravierende ökonomische Nachteile mit sich. Die Anschaffung, Wartung und der Unterhalt einer solchen Maschine sind sehr kostenintensiv.
Eine geeignete Alternative bieten sogenannte Render-Cluster. Es handelt es sich um den Zusammenschluss leistungsstarke PCs oder Workstations zu einem Netzwerk, das Graphikanwendungen verteilt berechnet. Im Vergleich zum speziellen Graphikrechner ist dies eine kostengünstige und leistungsstarke Alternative zum Betrieb von VR-Systemen. Da ein Cluster nahezu beliebig erweiterbar ist, kann sehr hohe Rechenleistung erzielt werden. Die Holobench des Forschungszentrums Jülich wird derzeit mit einer SGI-Onyx2 betrieben. Dieser Graphikrechner soll zukünftig durch ein Render-Cluster ersetzt werden. In dieser Ausarbeitung werden die Probleme und Möglichkeiten, die ein Render-Cluster mit sich bringt, betrachtet.

Erweiterung der Cluster-Middleware ParaStation zum Ressourcenmanager in UNICORE

Tobias Hertkorn, Universität Bayreuth, Fachbereich Physik
Adviser: Norbert Eicker, ZAM
Der Gedanke hinter Gridsystemen ist, dass Computing Grids die Bereitstellung von Rechenkapazität so einfach machen soll, wie das ''power grid'', also das Stromnetz, die Bereitstellung von Strom gemacht hat. Angepasste und für ein Grid geschriebene Programme sollen an jeder ''Steckdose'' im Grid funktionieren. Ziel der Arbeit am Projekt ''ParaMeta'' war die Cluster-Middleware ParaStation möglichst einfach über die Grid-Software UNICORE ansprech- und nutzbar zu machen.

Simplified Certificate Management in Grid PKIs

Martin Hoch, University of Applied Sciences Würzburg
Adviser: Bernd Schuller, ZAM
This paper deals with a simplified certificate management approach for the purpose of authenticating Grid participants. After introducing some basics of security, authentication and certificate management, we analyse the authentication and registration system used in a present-day Grid system such as UNICORE. We present a simplified certificate authentication and registration system (SCAR). This solution is simpler, easier to use, more manageable, offers fewer possibilities for human mistakes and therefore improves the system as a whole.

Modern Methods in Protein Simulations

Christoph Junghans, Institute of Theoretical Physics
Adviser: Ulrich Hansmann, NIC
I study a realistic protein model using four advanced Monte Carlo techniques: multicanonical Monte Carlo, parallel tempering, Wang-Landau sampling and simulated tempering. The comparison showed that there are problems with ergodicity in the small energy region of big peptides due to the size of the configuration space and the high energy barriers. I discuss modifications of these algorithms that partly overcome these problems.

Multilevel Präkonditionierung für Ungeordnete Systeme

Karsten Kahl, Universität Wuppertal
Adviser: Bernhard Steffen, ZAM
Motiviert durch physikalische Probleme in der QED und QCD, bei der große ungeordnete Systeme zu lösen sind, das heißt Systeme bei denen die Kopplungen im Gitter auch einen zufälligen Charakter besitzen, wird versucht, über das Schur-Komplement ein Multilevel Verfahren zu entwerfen. Dieses sollte in der Lage sein, Probleme effizient zu lösen, denen es an genügend geometrischer Information mangelt, um die bekannten Mehrgitter/Multilevel Verfahren anzuwenden. Hierbei wird, wie in traditionellen Multilevel-Verfahren, zunächst eine Vergröberung des zugrundeliegenden Gitters vorgenommen, um dann eine Approximation des Schur-Komplementes als Teil eines Präkonditionierers für ein CG-Verfahren zu verwenden.

Ein Kollaborativer Ansatz für die GUI-Programmierung

Björn Kuhlmann, RWTH Aachen
Adviser: Thomas Düssel, ZAM
Es wurde ein Ansatz für die kollaborative Nutzung von GUI-Kontrollelementen entwickelt und erprobt. Der Ansatz wurde auf Basis einer vorhandenen Programmbibliothek für die Publikation von Events im Netzwerk (Event-Heap) sowie eines frei verfügbaren Toolkits für die GUI-Programmierung (FOX-Toolkit) entwickelt. Besonderes Augenmerk wurde auf die saubere Implementierung eines Listener-Threads auf Seite der zu vernetzenden Clients sowie auf die Entwicklung eines konsistenten Locking-Modells gelegt. Es wurde eine kleine Klassenbibliothek entwickelt, mit der vorhandene FOX-Applikationen ohne größeren Aufwand instrumentiert und zu einem kollaborativen Gesamtsystem vernetzt werden können

Performance of the ScaLAPACK Eigensolver PDSYEVX on IBM Blue Gene/L - First Results

Robert Speck, University of Trier, Department of Mathematics
Adviser: Inge Gutheil, ZAM
The 2048 processor IBM Blue Gene/L system at the John von Neumann Institute, Research Center Juelich, is the first installation of this innovative and powerful computer architecture in Germany. It aims at the investigation of highly scalable simulation problems like quantum chromodynamics (QCD) and other high-performance applications. In this project the performance of Blue Gene/L regarding the important and fundamental ScaLAPACK routine PDSYEVX is analyzed and discussed. Furthermore comparisons of the p690 IBM eServer Cluster 1600 and Blue Gene/L are drawn and complications are examined.

Arnoldi-Verfahren für Staggered Fermionen in der Gitter-Quantenchromodynamik

Aiko Voigt, Institut für Physik der Humboldt Universität zu Berlin
Adviser: Stefan Krieg, ZAM
Ziel dieser Arbeit ist die numerische Bestimmung der Eigenwerte und Eigenvektoren der masselosen One Link Staggered Fermion Matrix, wie sie in numerischen Simulationen der Gitter-Quantenchromodynamik verwendet wird. Dazu wird das Fortran 77 Paket P_ARPACK genutzt. Dieses implementiert die Implicitly Restarted Arnoldi Methode (IRAM).

Last Modified: 08.02.2022