Sprachen

3D-AugTracer - WS 2005/2006, SS 2006

Thema: 
Immersive dreidimensionale Visualisierung von Sprühkegeln in einer erweiterten Realität
Zeitraum: 
WS 2005/2006, SS 2006
Umfang: 
8 SWS pro Semester
Veranstalter: 

Prof. Dr. Heinrich Müller, Informatik VII (Graphische Systeme),
OH16, R.124, Tel.:6324, E-Mail: mueller@ls7.cz.uni-dortmund.de
Frank Weichert, Informatik VII (Graphische Systeme),
OH16, R.121, Tel.: 6122, E-Mail: weichert@ls7.cs.uni-dortmund.de

Einzelpräsentation: 

Mittwoch, 22.06.05, 13.00 Uhr, GB V, Raum 324

Materialien: 

PG-Antrag im PDF-Format (aktiv nach der PG-Vorstellung)

Thematik: 

Die in den letzten Jahren aufkommende Debatte über die Reduzierung des Kraftstoffverbrauchs von PKW’s sowie die zusätzliche Reduzierung des Schadstoffausstoßes haben die Entwicklung moderner Direkteinspritzmotore vorangetrieben. Besonders die Entwicklung auf dem Gebiet der Direkten-Diesel-Einspritzung, allgemein bekannt als DDI oder TDi Motoren, hat eine rasante Entwicklung genommen und führte zu einer Kraftstoffeinsparung von ca 45% [Kawa03].

(a) (b) (c)

Abbildung 1: (a) Darstellung der Lamelle. (b) Sprühkegel zu verschiedenen Zeitschritten. (c) Stroboskopische Darstellung des Sprühkegels.

Zurückzuführen ist dies auf das gewachsene Verständnis über die Vorgänge des Zerfalls von Flüssigkeiten zu Tropfen definierter Größe und Verteilung während des Austritts aus einer Düse (s. Abb. 1a). Die ausgestoßene Flüssigkeit wird aufgrund ihrer Form und Eigenschaften auch kurz als Lamelle bezeichnet. Gewonnen werden konnten diese Erkenntnisse durch eine stark verbesserte Messtechnik, die es ermöglicht Anregungs- und Zerfallsprozesse (s. Abb. 1b) dieser so genannten Mehrphasenströmungen messtechnisch zugänglich zu machen [Fegg04].

In Zusammenarbeit mit dem Lehrstuhl für Mechanische Verfahrenstechnik (Fachbereich Bio- und Chemieingenieurwesen) wird die Grundlagenforschung zum Verständnis von Zerfallsprozessen der Lamelle im Hinblick auf praktische Anwendungsmöglichkeiten (z.B. Motoren, medizinische Sprühgeräte, Lackspritzanlagen) untersucht (s. Abb. 1c).

Für weitergehende Untersuchungen, die zu einer Verbesserung der bisherigen Modelle führen sollen, ist eine exakte dreidimensionale Visualisierung der Flüssigkeit und ihres Verhaltens nach dem Austritt aus der Düse notwendig. Hier setzt die Aufgabe der Projektgruppe an. Innerhalb dieser soll die Form und Bewegung der Lamelle in einer erweiterten dreidimensionalen Realität (Augmented Reality, kurz AR) visualisiert werden [Azuma97]. Augmentierte Wirklichkeit bedeutet in diesem Zusammenhang, dass Videodaten (realen Daten) der ausströmenden Flüssigkeit mit virtuellen, rechnergenerierten Daten in einer "Welt" dargestellt werden. Durch diesen Ansatz ist es möglich, Informationen über den Verlauf der Bewegung (Stromlinien) und die Geschwindigkeit einzublenden. Gewonnen werden diese ergänzenden Informationen durch flureszierende Tracerpartikel, welche in die Flüssigkeit eingebracht werden und sich konform zu dieser bewegen (Particle Image Velocimetry, kurz PIV)[Ikeda00]. Zur Verstärkung des immersiven Eindrucks und damit auch zum besseren Verständnis dieser komplexen Vorgänge soll die Darstellung primär auf einer Rückprojektionswand, welche "echte" Dreidimensionalität ermöglicht, dargestellt werden.

Abbildung 2: Schematischer Versuchsaufbau.Abbildung 2: Schematischer Versuchsaufbau.

Der Prozess der Entwicklung von der Aufnahme zur erweiterten virtuellen Realität lässt sich in folgende Phasen aufteilen:

  • Akquisition:Der Sprühkegel wird von zwei Hochgeschwindigkeitskameras als Folge von Einzelbildern aufgezeichnet, die digital an den Rechner übertragen werden (s. Abb. 2). Aus den paarweisen, synchronisierten Folgen von Einzelbildern sind zwei zugehörige Videostreams zu erzeugen.
  • Datenaufbereitung:Bedingt durch die Kameraoptik kommt es zu Verzerrungen innerhalb der Aufnahmen, wodurch diese nicht direkt verwendbar sind. Unter Verwendung von eingebrachten Markierungsgittern kann zunächst eine Kalibierung der Kameras erfolgen [Zhang98] und basierend auf diesen Daten eine Entzerrung (Dewarping) der Videodaten [Rupr95]. Obwohl die resultierende augmentierte Darstellung Off-Line erfolgen soll, wird eine effiziente algorithmische Umsetzung angestrebt.
  • Segmentierung: In den Videosequenzen sind nun die flureszierenden Tracerpartikel zu segmentieren, welche als deformierte, helle Punkte zu erkennen sind. Hier bieten sich Methoden der digitalen Bildverarbeitung an, welche auf geometrischen und texturellen Merkmalen beruhen [Gonz03]. Aufgrund der bekannten Gestalt der Tracerpartikel (Kugeln) erscheinen auch modellbasierte Algorithmen opportun [Sonka99].
  • Rekonstruktion der synthetischen Daten:Für die im vorhergehenden Schritt segmentierten Tracerpartikeln ist nun die tatsächliche räumliche Lage zu bestimmen. Dieses ist möglich, da zu jedem Zeitpunkt zwei Aufnahmen unter einem vorgegeben Winkel vorliegen und die korrelierenden Aufnahmen in einem geometrischen Zusammenhang (epipolare Geometrie) stehen [Zhang96]. Aus den dreidimensionalen Informationen, zu verschiedenen Zeitpunkten, kann anschließend die "Flugbahn" der Tracerpartikel berechnet werden.
  • Kalibrierung und Synthese der AR-Szene:Zur konsistenten Darstellung der realen Videodaten und zusätzlicher synthetischer (computergenerierter) Daten innerhalb einer dreidimensionalen Darstellung ist es notwendig, die jeweiligen Koordinatensysteme der beteiligten Komponenten zueinander in Beziehung zu setzen [Azuma97].
    Da nicht garantiert ist, dass die Tracerpartikel in allen Frames zu detektiert sind (Verdeckung), muss eine Kalibierung der Videosequenzen ohne explizite Marker erfolgen. Hierzu sind automatische Feature-Tracking Algorithmen, welche sich beispielsweise an prägnanten Farb- und Kontrastveränderungen orientieren, an die Problemstellung anzupassen. Unter Verwendung der identifizierten Marker kann eine projektive Rekonstruktion der realen und künstlichen Daten zu einer dreidimensionalen Darstellung erfolgen (Merging-Based Projektion Reconstruction) [Gibs02].
  • Visualisierung der erweiterten virtuellen Welt: Konform zu den dreidimensionalen Daten soll die Darstellung primär auf einer Rückprojektionswand erfolgen, die durch eine dreidimensionale stereographische Projektion eine immersive Visualisierung erlaubt [Light02].

Die aus dieser Problemstellung resultierende prototypische Realisierung ist aber nicht auf die einleitend aufgezeigte Anwendung spezifiziert, sondern erlaubt eine generalisierte Nutzung und Erweiterung der Erkenntnisse der Projektgruppe. Zum einen findet sich das prinzipielle Anwendungsszenarium in vielfältigen Bereichen wieder, sei es in der Autoindustrie bei der Lackierung oder in der Medizin bei Mikrozerstäubern - die Fragestellung der Lamellenform und somit der effektiven und richtigen Nutzung bleibt bestehen [Lefe89]. Aber auch allgemeine "Fluss"- assoziierte Darstellungen können mit diesem Ansatz erweitert visualisiert werden. Zudem kann die augmentierte Realität in eine multimediale Lernumgebung eingebettet werden, in der eine Visualisierung höherdimensionale Daten mit realen Daten, in einer immersiven 3D-Umgebung, erfolgt.

Aktuelle Umsetzung der angeführten Aufgabe visualisieren derartige Strömungen nur in simulierten Darstellungen in Form von Einzelbildern. Diese Darstellungen erlauben keine weitergehenden Untersuchungen zum besseren Verständnis der komplexen Vorgänge. Das von der Projektgruppe zu entwickelnde System soll durch einen modularen Aufbau gewährleisten, dass sich Fragestellungen aus unterschiedlichen Anwendungsgebieten integrieren lassen. Da die Nutzung des Systems vorwiegend von Nicht-Informatikern erfolgen wird, ist auf eine intuitive Benutzerführung zu achten. Bei der objektorientierten Umsetzung dieser Anforderungen in ein Softwaresystem sollen die Entwurfsphasen des Software-Engineering beachtet werden [Balz99].

Obwohl die Implementierung des Systems primär unter WindowsXP erfolgen soll, ist eine mögliche Portierbarkeit auf Linux zu beachten. Das immense Datenvolumen, als auch die zeitkritischen Berechnungen, können nur durch eine effiziente Software gewährleistet werden, welche sich auf Basis von C++ realisieren lässt. Die Entwicklung der Augmented Reality soll basierend auf dem Softwaresystem ARToolkit1 implementiert werden.

Forum: 
Hier wird alles besprochen

Minimalziele: 
  • Dokumentierter Systementwurf.
  • Dokumentierte Implementierung eines Prototypen zur Realisierung einer erweiterten Realität.
  • Implementierung des Software-Systems in einem Umfang, der die Tragfähigkeit des Entwurfs erkennen lässt und das System prinzipiell anwendbar macht.
  • Demonstration der Grundfunktionalität der einzelnen Module am Beispiel einer realen Videosequenz, visualisiert auf der Rückprojektionswand.
Teilnahmevorraussetzungen: 
  • Eine der Vorlesungen Mensch-Maschine-Interaktion (Graphische Systeme), Softwarekonstruktion (Softwaretechnologie) oder Systemanalyse. [V]
  • Spezialvorlesung Digitale Bildverarbeitung, Digitale Bilderzeugung, Geometrisches Modellieren oder Datenvisualisierung. [W]
  • Kenntnisse in objektorientierter Programmierung und einer einschlägigen Programmiersprache, z.B. Java oder C++. [W]
  • Kenntnisse von einer MS Windows-Version oder Linux. [W]

Legende: [V] vorausgesetzt, [W] wünschenswert

Literatur: 

[Kawa03] N. Kawahara, E. Tomita, T. Nakayama, M. Sumida, Microscopic Observation of Primary Spray Structure of High-Pressure Swirl Injector for Gasoline Direct Injection Engine, The 9th Int. Conf. on Liquid Atomization and Spray Systems, ICLASS, 2003.
[Fegg04] D. Feggeler, F. Landwehr, P. Walzel, Experimental Investigation on Surface Waves at the Exit of Hollow Cone Nozzles, ILASS, 2004.
[Lee03] K. Lee, C. Lee, Y. Joo Application technique of particle image velocimetry and entropy analysis to investigate spray structure for gasoline direct injection injector, Meas. Sci. Technol., No. 14, 953-964, 2003.
[Azuma97] R. T. Azuma, A survey of augmented reality, Presence: Teleoperators and Virtual Environments, Vol. 6, No. 4, 355-385, 1997.
[Ikeda00] Y. Ikeda, N. Yamada, T. Nakajima, Multi-intensity-layer particle-image velocimetry for spray measurement, Meas. Sci. Technol., No. 11, 617-626, 2000.
[Zhang98] Z. Zhang, A Flexible New Technique for Camera Calibration, Technischer Bericht MSR-TR-98-71, Microsoft Research, 1998.
[Rupr95] D. Ruprecht, H. M¨uller, Image Warping with Scattered Data Interpolation Methods, IEEE Computer Graphics and Applications, Volume 15 (2), 37-43, 1995.
[Gonz03] R. C. Gonzales, R. Woods, Digital Image Processing, Addison-Wesley Pub. Comp., 2. Aufl., 2003.
[Sonka99] M. Sonka, V. Hlavac, R. Boyle, Image, Processing, Analysis and Machine Vision, 2nd Edition, PWS Publishing, 1999.
[Zhang96] Z. Zhang, Determining the Epipolar Geometry and its Uncertainty: A Review, INRIA, France, No. 2927, 1996.
[Gibs02] S. Gibson, J. Cook, T. Howard, R. Hubbold, D. Oram, Accurate camera calibration for off-line, video-based augmented reality, In IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR 2002), 37-46, 2002.
[Light02] LightWorld, Endbericht der Projektgruppe 383, Informatik VII, Universit¨at Dortmund, 2002.
[Lefe89] A. H. Lefebvre, Properties of Sprays, Particle and Particle Systems Characterization, Volume 6, Issue 1-4, 176-186, 1989.
[Balz99] H. Balzert, Lehrbuch der Software-Technik, Spektrum Verlag, 1999.

Rechtliche Hinweise: 
Die Ergebnisse der Projektarbeit inklusive der dabei erstellten Software sollen der Fakultät für Informatik uneingeschränkt zur freien Forschung zur Verfügung stehen. Darüber hinaus sind keine Einschränkungen der Verwertungsrechte an den Ergebnissen der Projektgruppe und keine Vertraulichkeitsvereinbarungen vorgesehen.