
Surface Gradient Based Bump Mapping Framework
Morten Mikkelsen 2020
Multi-Stylization of Video Games in Real-Time guided by G-buffer Information
Adèle Saint-Denis, Kenneth Vanhoey, Thomas Deliot HPG 2019
We investigate how to take advantage of modern neural style transfer techniques to modify the style of video games at runtime. Recent style transfer neural networks are pre-trained, and allow for fast style transfer of any style at runtime. However, a single style applies globally, over the full image, whereas we would like to provide finer authoring tools to the user. In this work, we allow the user to assign styles (by means of a style image) to various physical quantities found in the G-buffer of a deferred rendering pipeline, like depth, normals, or object ID. Our algorithm then interpolates those styles smoothly according to the scene to be rendered: e.g., a different style arises for different objects, depths, or orientations.
Plakat
?

Distributing Monte Carlo Errors as a Blue Noise in Screen Space by Permuting Pixel Seeds Between Frames
Eric Heitz, Laurent Belcour – EGSR? 2019
We introduce a sampler that generates per-pixel samples achieving high visual quality thanks to two key properties related to the Monte Carlo errors that it produces. First, the sequence of each pixel is an Owen-scrambled Sobol sequence that has state-of-the-art convergence properties. The Monte Carlo errors have thus low magnitudes. Second, these errors are distributed as a blue noise in screen space. This makes them visually even more acceptable. Our sam-pler is lightweight and fast. We implement it with a small texture and two xor operations. Our supplemental material provides comparisons against previous work for different scenes and sample counts.

A Low-Discrepancy Sampler that Distributes Monte Carlo Errors as a Blue Noise in Screen Space
Eric Heitz, Laurent Belcour – ACM SIGGRAPH Talk 2019
Wir führen einen Sampler ein, der Pro-Pixel-Sample generiert und dank zwei wesentlicher Eigenschaften in Zusammenhang mit den erzeugten Monte-Carlo-Fehlern eine hohe Grafikqualit?t erreicht. Erstens ist die Sequenz jedes Pixels eine Sobol-Sequenz mit Owen Scrambling, die erstklassige Konvergenzeigenschaften aufweist. Die Monte-Carlo-Fehler haben demnach eine geringe Gr??enordnung. Zweitens werden diese Fehler als blaues Rauschen über die Bildschirmfl?che verteilt. Das macht sie visuell noch angenehmer. Unser Sampler ist schlank und schnell. Wir implementieren ihn mit einer kleinen Struktur und zwei XOR-Operationen. Unsere erg?nzenden Materialien bieten Vergleiche mit vorherigen Arbeiten für verschiedene Szenen und Sample-Zahlen.

A Low-Distortion Map Between Triangle and Square
Eric Heitz – Tech Report 2019
We introduce a low-distortion map between triangle and square. This mapping yields an area-preserving parameterization that can be used for sampling random points with a uniform density in arbitrary triangles. This parameterization presents two advantages compared to the square-root param-eterization typically used for triangle sampling. First, it has lower distortions and better preserves the blue-noise properties of the input samples. Second, its computation relies only on arithmetic operations (+, *), which makes it faster to evaluate.
Sampling der GGX-Verteilung sichtbarer Normals
Eric Heitz?– JCGT 2018
Importance Sampling von Mikrofacetten-BSDF mittels ihrer Verteilung von sichtbaren Normals (Distribution of Visible Normals (VNDF)) bringt betr?chtliche Varianzverringerung beim Monte-Carlo-Rendering. In diesem Artikel beschreiben wir eine effiziente und pr?zise Sampling-Routine für die VNDF der GGX-Mikrofacettenverteilung. Die Routine nutzt dafür die Eigenschaft, dass die GGX die Verteilung der Normals eines abgeschnittenen Ellipsoids ist, und das Sampling der GGX VNDF ?quivalent zum Sampling einer 2D-Projektion dieses abgeschnittenen Ellipsoids darstellt. Dazu vereinfachten wir das Problem mittels linearer Transformation, die das abgeschnittene Ellipsoid auf einer Halbkugel abbildet. Da lineare Transformationen die Uniformit?t der abgebildeten Bereiche erhalten, erzeugt das Sampling in einer Halbkugelkonfiguration und Transformation der Samples zurück in die Ellipsoidkonfiguration korrekte Samples von den GGX VNDF.

Analytische Berechnung eines Raumwinkels, der von einem beliebig gesetzten Ellipsoid bei einer Punktquelle geschnitten wird
Eric Heitz?– ?Kerntechnische Messger?te und -methoden in der Physikforschung 2018
Wir pr?sentieren ein geometrisches Verfahren für die Berechnung einer Ellipse, die denselben Raumwinkelbereich wie ein beliebig gesetztes Ellipsoid schneidet. Damit wird es m?glich, existierende analytische Raumwinkelberechnungen von Ellipsen auf Ellipsoide anzuwenden. Unser Ansatz besteht in der Anwendung linearer Transformation am Ellipsoid, sodass dieses zu einer Kugel umgeformt wird, von welcher eine Scheibe berechnet werden kann, die denselben Raumwinkel einnimmt. Wir demonstrieren, wie die Anwendung einer invertierten linearen Transformation auf diese Scheibe eine Ellipse erzeugt, die denselben Raumwinkelbereich wie das Ellipsoid schneidet. Wie stellen eine MATLAB-Implementierung unseres Algorithmus bereit und k?nnen ihn mathematisch validieren.
Eine Beobachtung zum Streckenl?ngen-Sampling mit nicht-exponentiellen Verteilungen
Eric Heitz, Laurent Belcour - Tech Report 2018
Beim Streckenl?ngen-Sampling handelt es sich um den Vorgang des Samplings zuf?lliger Intervalle gem?? einer bestimmten?Entfernungsverteilung. Das bedeutet, dass keine punktuelle Entfernung von der?Entfernungsverteilung bestimmt wird, sondern ein Intervall m?glicher Entfernungen. Der Streckenl?ngen-Sampling-Prozess ist korrekt, wenn die erwarteten Intervalle der?Zielentfernungsverteilung entsprechen. Anders ausgedrückt: Der Durchschnittswert der Sample-Intervalle sollte zum Wert der Entfernungsverteilung?tendieren, je mehr Sample-Intervalle bestimmt werden. Hier muss deutlich angemerkt werden, dass die Entfernungsverteilung, die für die Bestimmung von punktuellen Entfernungs-Samples verwendet wird, und die Streckenl?ngenverteilung, die für die Bestimmung von Sample-Intervallen verwendet wird, nicht dasselbe sind. Der Unterschied kann überraschend sein. Unseres Wissens nach wurde das Streckenl?ngen-Sampling haupts?chlich im Transportwesen studiert, wo die Entfernungsverteilung exponentiell ist: In diesem Fall ist sowohl die Entfernungsverteilung als auch die Streckenl?ngenverteilung dieselbe exponentielle Verteilung. Im Allgemeinen sind sie jedoch nicht gleich, wenn die Verteilung nicht exponentiell ist.

Kombination analytischer Direktbeleuchtung und stochastischer Schatten
Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA)?- I3D 2018 (Short Paper) (Preis für beste Paper-Pr?sentation)
In diesem Paper schlagen wir einen Verh?ltniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten k?nnen. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten Beleuchtung und beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme k?nnen separat berechnet werden, m?glicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeintr?chtigen. Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken?auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschr?nkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich?sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten überm??ig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet l?sst.

Nicht-periodische Kachelung von prozeduralen Rauschfunktionen
Aleksandr Kirillov?– HPG 2018
Funktionen für prozedurales Rauschen haben viele Anwendungen in der Computergrafik von Textursynthese bis hin zur Simulation atmosph?rischer Effekte und Landschaftssymmetriespezifizierung. Rauschen kann man entweder im Vorausberechnen und als Werte in der Textur speichern oder direkt w?hrend der Nutzung der Anwendung ermitteln lassen. Diese M?glichkeit bietet einen Kompromiss zwischen Bildvarianz, Speicherverbrauch und Leistung.
Fortschrittliche Kachelungsalgorithmen k?nnen dazu verwendet werden, visuelle Musterwiederholung zu verringern. Mit der Wang-Kachelung kann eine Ebene auch mit wenigen Texturen nicht-periodisch in verschiedene Kacheln unterteilt werden. Die Kacheln k?nnen auf einer einzigen Texturkarte angeordnet werden, damit die GPU Hardware-Filterung nutzen kann.
In dieser Ver?ffentlichung stellen wir Modifikationen an mehreren g?ngigen prozeduralen Rauschfunktionen vor, die direkt Texturkarten mit dem kleinsten kompletten Wang-Kachelsatz erzeugen. Die in diesem Beitrag vorgestellten Ergebnisse erm?glichen eine nicht-periodische Kachelung dieser Rauschfunktionen und darauf aufbauenden Texturen, sowohl zur Laufzeit als auch als Vorverarbeitungsschritt. Diese Ergebnisse erm?glichen es auch, die Wiederholung von rauschbasierten Effekten in computergenerierten Bildern bei geringen Leistungskosten zu reduzieren und gleichzeitig den Speicherverbrauch zu erhalten oder sogar zu reduzieren.

Leistungsf?higes Nach-Beispiel-Rauschen durch Einsatz eines Histogramm-erhaltenden Blending-Operators
Eric Heitz, Fabrice Neyret (Inria) – HPG 2018 (Preis für bestes Paper)
Wir schlagen einen neuen Nach-Beispiel Rauschen-Algorithmus vor, der als Eingabe nur eine kleine Beispielanzahl von stochastischen Texturen ben?tigt, und daraus unendlich viele Ausgaben mit demselben Erscheinungsbild synthetisiert. Der Algorithmus funktioniert bei beliebigen Zufallsphasen-Eingaben und vielen Nicht-Zufallsphasen-Eingaben, die aber stochastischer und nicht-periodischer Natur sind (typischerweise Texturen aus der Natur wie Moos, Granit, Sand, Rinde und so weiter). Unser Algorithmus erstellt hochwertige Ergebnisse, die vergleichbar sind mit aktuellen Techniken zur Erstellung von prozeduralem Rauschen. Dabei ist er allerdings mehr als 20 Mal so schnell.

Nichtüberwachte intrinsische Einzelbild-Tiefendekomposition mit Bildsequenzen variierender Illumination
Louis Lettry (ETH Zürich), Kenneth Vanhoey, Luc Van Gool (ETH Zürich)?– Pacific Graphics 2018 / Computer Graphics Forum
Intrinsische Dekomposition zerlegt eine fotografierte Szene in Albedo- und Schattierungs-Werte. Durch Entfernen von Schatten?k?nnen Bilder ?entlichtet“ werden, um sie dann für virtuelle Beleuchtungsszenen zu verwenden. Wir schlagen eine nichtüberwachte Lernmethode vor, um dieses Problem zu l?sen.
Aktuelle Techniken setzen auf überwachtes Lernen: Dafür werden riesige Mengen an bekannten Dekompositionen ben?tigt, die schwer zu beschaffen sind. Wir trainieren stattdessen mit unmarkierten Bildern, die wir aus Zeitrafferaufnahmen von statischen Webcams erhalten. Wir setzen dabei voraus, dass Albedo per Definition ein statischer Wert ist und die Schattierung je nach Beleuchtung variieren. Diesen Sachverhalt übertragen wir in ein eng verknüpftes Training für Deep Learning.
Ver?ffentlichung
Zusatzmaterial
Zus?tzlicher Code
Bibliografie
Folien
?

Effizientes Rendern von geschichteten Materialien mittels atomischer Dekomposition mit statistischen Operatoren
Laurent Belcour?– ACM SIGGRAPH 2018
Wir haben einen neuartigen Arbeitsrahmen für die effiziente Analyse und Berechnung des Lichttransports in geschichteten Materialien abgeleitet. Unsere Ableitung besteht aus zwei Schritten: Zuerst zerlegen wir den Lichttransport in ein Set aus atomischen Operatoren, die auf den direktionalen Statistikwerten des Lichts basierend agieren. Im Speziellen bestehen unsere Operatoren aus Reflexion, Brechung, Streuung und Absorption. Die Kombination aus diesen Werten erm?glicht die Beschreibung der mehrfachen Lichtbrechung in geschichteten Materialien. Wir zeigen, dass die ersten drei direktionalen Momentumwerte (Energie, Mittelwert und Varianz) bereits eine zufriedenstellend genaue Zusammenfassung zulassen. Zweitens erweitern wir die Verdopplung-hinzufügen-Methode so, dass sie willkürliche Kombinationen dieser Operationen effizient zul?sst. W?hrend der Schattierung erfassen wir die direktionalen Momentumswerte in BSDF-K?rpern. Wir verifizieren auf effiziente Weise, dass die entstehenden BSDF weitestgehend mit den tats?chlichen K?rpern übereinstimmen. Im Gegensatz zu früheren Methoden unterstützen wir eine willkürliche Anzahl an Texturebenen und k?nnen auch das praktisch anwendbare und pr?zise Rendern von geschichteten Materialien sowohl in Offline- als auch Echtzeit-Implementierungen demonstrieren, die keine Vormaterialvorberechnung ben?tigen.
Ver?ffentlichung
Zusatzmaterial
Zus?tzlicher Code
Bibliografie
Video
Folien

Eine adaptive Parametrisierung zur Materialbeschaffung und zum Rendern
Jonathan Dupuy and Wenzel Jakob (EPFL)?– ACM SIGGRAPH Asia 2018
Eines der Schlüsselelemente für Physik-basierte Render-Systeme ist die detaillierte?Spezifikationscharakterisierung der Interaktion von Licht und Materie für alle Materialien in einer Szene. Das wird typischerweise mit einer Bidirectional Reflectance Distribution Function (BRDF) erreicht. Trotz deren Vielseitigkeit bleibt der Zugang zu BRDF-Datens?tzen aus der realen Welt begrenzt: Das liegt unter anderem daran, dass die Messungen das Scannen einer Dom?ne in 4 Dimensionen?und in ausreichend hoher Aufl?sung erfordern. Ein sehr aufwendiger und oftmals unm?glich zeitraubender Prozess. Wir schlagen eine neue Parametrisierung vor, die sich automatisch an das Materialverhalten?anpasst und die zugrundeliegende 4D-Dom?ne so verzerrt, sodass fast das gesamte Volumen in Regionen übertragen werden kann, in denen BRDF nicht-vernachl?ssigbare Werte annimmt und irrelevante Regionen stark komprimiert werden. Die Adaption erfordert lediglich eine schnelle 1D- oder 2D-Messung der retroreflektiven Werte der Materialien. Unsere Parametrisierung ist vereinheitlicht, da sie verschiedene Schritte kombiniert, die früher mehrfache Datenumwandlung erforderten: Dieselbe Kartierung kann gleichzeitig für die BRDF-Beschaffung, Speicherung verwendet werden und unterstützt Monte-Carlo-Beispielerzeugung.
Ver?ffentlichung
Video
Datenset Isotropes BRDF
Datenset Anisotropes BRDF
MERL-Datenbankvalidierung
C++ und Python-Code
Materialiendatenbank

Stochastische Schatten
Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA)?
In dieser Ver?ffentlichung schlagen wir einen Verh?ltniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten k?nnen. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten?Beleuchtung?und?beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme k?nnen separat berechnet werden, m?glicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeintr?chtigen.
Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschr?nkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten überm??ig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet l?sst.

Adaptive GPU-Tessellation mit Compute Shaders
Jad Khoury, Jonathan Dupuy, and Christophe Riccio - GPU Zen 2
GPU rasterizers are most efficient when primitives project into more than a few pixels. Below this limit, the Z-buffer starts aliasing, and shading rate decreases dramatically [Riccio 12]; this makes the rendering of geometrically-complex scenes challenging, as any moderately distant polygon will project to sub-pixel size. In order to minimize such sub-pixel projections, a simple solution consists in procedurally refining coarse meshes as they get closer to the camera. In this chapter, we are interested in deriving such a procedural refinement technique for arbitrary polygon meshes.

Linien- und Scheiben-Licht-Schatten-Effekte in Echtzeit mit linear transformiertem Cosinus
Eric Heitz (Unity Technologies) and Stephen Hill (Lucasfilm)?– ACM SIGGRAPH Courses 2017
Vor Kurzem haben wir eine neue Echtzeit-Schattierungstechnik bei Fl?chenbeleuchtung vorgestellt, die bestimmt war für Lichter mit polygonen Formen. In dieser Gespr?chsrunde wollen wir diese Fl?chenbeleuchtungsarbeitsumgebung erweitern, damit sie auch Lichter in Linien-, Kugel-, und Scheibenformen unterstützen kann.
Folien
Demo-Code
WebGL Demo fürQuadrat,Linie und Scheibenlichter

Mikrofacetten-Normal-Mapping für robustes Monte Carlo Path Tracing
Vincent Schüssler (KIT), Eric Heitz (Unity Technologies), Johannes Hanika (KIT) and Carsten Dachsbacher (KIT)?– ACM SIGGRAPH Asien 2017
Normal-Mapping imitiert visuelle Details auf Oberfl?chen durch Verwendung von unechten Schatten-Normals. Das daraus entstehende Oberfl?chenmodell ist allerdings geometrisch unm?glich, weshalb Normal-Mapping oftmals als fundamental falscher Ansatz mit unvermeidbaren Problemen für das Monte-Carlo-Pathtracing betrachtet wird: Es zerst?rt entweder das Erscheinungsbild (schwarze R?nder, Energieverlust) oder den Integrator (unterschiedlicher Lichttransport nach vorn und nach hinten). In dieser Ver?ffentlichung pr?sentieren wir Normal-Mapping basierend auf Mikrofacetten, einem alternativen Weg, um geometrische Details vorzut?uschen, ohne die Robustheit des Monte-Carlo-Pathtracing zu beeintr?chtigen, wodurch die genannten Probleme vermieden werden.

Ein sph?risches, cap-erhaltendes Parametrisierungsverfahren für sph?rische Verteilung
Jonathan Dupuy, Eric Heitz and Laurent Belcour?– ACM SIGGRAPH 2017
Wir stellen ein neuartiges Parametrisierungsverfahren für sph?rische Verteilung vor, das von einem Punkt innerhalb der Sph?re ausgeht, dem sogenannten Pivot. Der Pivot dient als zentraler Punkt für eine geradlinige Projektion, die solide Winkel auf die andere Seite der Sph?re projiziert. Durch diese sph?rische?Verteilung k?nnen wir eine neuartige parametrische Sph?renverteilung ableiten, die mittels einfacher, geschlossener Ausdrücke anhand der originalen Verteilung ausgewertet und durch Importance Sampling geprüft werden kann. Weiterhin zeigen wir, dass im Falle der erfolgreichen Beispielerzeugung und Integration der Originalverteilung über ein sph?risches Cap auch die transformierte Verteilung so gehandhabt werden kann. Wir nutzen dafür die Eigenschaften unserer Parametrisierung aus, um effiziente sph?rische Beleuchtungstechniken abzuleiten, die robust, schnell und einfach zu implementieren sind und qualitativ hochwertigere Ergebnisse als frühere Arbeiten erzielen.

Eine praktische Erweiterung der Mikrofacetten-Theorie für die Modellierung variierender Schillereffekte
Laurent Belcour (Unity), Pascal Barla (Inria)?– ACM SIGGRAPH 2017
Dünnfilm-Schillereffekte erlauben die Reproduktion der Lichteffekte von Leder. Für diese Theorie ist allerdings eine spektrale Render-Engine (zum Beispiel Maxwell Render) erforderlich, um die korrekte Integration der Erscheinungsbild?nderungen abh?ngig vom Blickwinkel (dem sogenannten Goniochromatismus) sicherzustellen. Das liegt an der Kantenentstehung in der Spektraldom?ne, da Echtzeit-Rendern nur mit drei Komponenten (RGB) für die gesamte Bandbreite des sichtbaren Lichts funktioniert. In dieser Arbeit zeigen wir, wie Sie Kanten von einem Dünnfilm-Modell entfernen, wie Sie die Mikrofacetten-Theorie einbinden und wie Sie alles in eine Echtzeit-Rendering-Engine integrieren. Damit wird die Anzahl reproduzierbarer Erscheinungsbilder mit dem Mikrofacettenmodell erweitert.
Ver?ffentlichung
Zus?tzliches Material
Bibliografie
Video
Code
Folien

Lineare Licht-Schatten-Effekte mit linear transformiertem Cosinus
Eric Heitz, Stephen Hill (Lucasfilm)?– GPU Zen (Buch)
In diesem Buchkapitel erweitern wir unsere Fl?chenbeleuchtungsarbeitsumgebung, die auf linear transformiertem Cosinus basiert, sodass sie auch lineare Lichter (oder Linienlichter) unterstützt. Linienlichter sind eine gute Ann?herung an zylindrische Lichter mit einem kleinen, aber nicht vollst?ndigem Null-Radius. Wir beschreiben, wie die Ann?herung an diese Lichter mit linearen Lichtern erreicht wird, die eine ?hnliche Leistungsf?higkeit haben und ?hnliche Schatteneffekte erzeugen. Weiterhin diskutieren wir die Validit?t dieser Ann?herung.

Eine praktische Einführung in die Frequenzanalyse des Lichtteilchentransports
Laurent Belcour?– ACM SIGGRAPH Courses 2016
Frequenzanalyse des Lichtteilchentransports ist Teil des physikbasierten Renderns (PBR) mit Singalverarbeitungswerkzeugen. Daher ist es darauf ausgerichtet, die Sampling-Rate vorauszusehen, Entrauschen durchzuführen, Kantengl?ttung durchzuführen und so weiter. Viele Methoden wurden vorgeschlagen, um spezifische F?lle des Lichtteilchentransports (Bewegung, Linsen usw.) anzugehen. Dieser Kurs zielt darauf ab, Konzepte vorzustellen und praktische Anwendungsszenarien für die Frequenzanalyse des Lichtteilchentransports in einem einheitlichen Kontext zu pr?sentieren. Für ein einfacheres Verst?ndnis der Theorie wird die Frequenzanalyse gekoppelt mit praktischer Implementierung vorgestellt.

Polygonale Licht-Schatten-Effekte in Echtzeit mit linear transformiertem Cosinus
Eric Heitz, Jonathan Dupuy, Stephen Hill (Ubisoft), David Neubelt (Ready at Dawn Studios)?– ACM SIGGRAPH 2016
Shading mit Fl?chenbeleuchtung verleiht CG-Rendern ungeahnt realistische Effekte. Dazu müssen allerdings sph?rische Gleichungen verwendet werden, die für Echtzeit-Rendering eine Herausforderung darstellen. In diesem Projekt entwickeln wir eine neue sph?rische Verteilung, die es uns erlaubt physikalische Materialien mit polygonalen Lichtern in Echtzeit zu schattieren.
Ver?ffentlichung
Folien
MATLAB
Plots und Validierung
Vergleich mit der Technicolor-Technik
Demo
WebGL-Demo
BRDF-f?higer Code
Video

Weiterer Fortschritt hin zur Vereinigung der Mikrofacetten- und Mikroschuppen-Theorien
Jonathan Dupuy and Eric Heitz?– EGSR 2016 (E&I)
Wir studieren die Verbindungen zwischen Mikrofacetten- und Mikroschuppen-Theorien aus der Perspektive der linearen Transporttheorie. Auf diese Weise k?nnen wir zus?tzliche Einblicke gewinnen, mehrere Vereinfachungen identifizieren, verschiedene noch ungekl?rte Fragen angehen und m?gliche Wege in die Zukunft aufzeigen mit der Erweiterung der Vereinigung von Oberfl?chen- und Volumen-Streuungsmodellen. Zuerst stellen wir ein halb-unendliches,?homogenes, Exponential-Freipfad-Medium vor, das (a) exakt denselben Lichttransport wie das Smith-Mikrooberfl?chenmodell und das inhomogene Smith-Medium produziert, welche kürzlich von Heitz et al. vorgestellt wurden, und (b) es uns erlaubt alle Smith-Maskierungs- und Schatteneffektfunktionen auf einfachere Weise abzuleiten. Zweitens untersuchen wir detailliert, welche neuen Aspekte der linearen Transporttheorie ein Volumen erm?glichen, das sich wie eine raue Oberfl?che verh?lt. Wir zeigen, dass dies haupts?chlich aufgrund der Verwendung von asymmetrischen Verteilungen der Normals geschieht und erkunden, wie die Nichteinhaltung der Symmetrie den Lichtteilchentransport im Mikroschuppenvolumen beeinflusst, ohne die globale Wechselwirkung zu zerst?ren. Abschlie?end argumentieren wir, dass die Oberfl?chenprofile, die mit sehr rauen Smith-Mikrooberfl?chen konsistent w?ren, geometrisch unplausible Formen h?tten. Um das zu überwinden, diskutieren wir eine Erweiterung der Smith-Theorie in den Volumenbereich, die NDF auf der gesamten Sph?re einschlie?t, um so ein einheitliches Reflexionsmodell zu erschaffen, das alles beschreiben kann von glatten Spiegeloberfl?chen bis hin zu halb-unendlichen, isotropen Streuungsmedien mit geringer und starker?Rauheit.