MENÜ MENÜ  

cover

Modellierung der Farberscheinung mit Hilfe einer wissensbasierten, an neuronalen Netzen orientierten Struktur

Ulrich Eisemann

ISBN 978-3-8325-0694-0
170 pages, year of publication: 2004
price: 40.50 €
Eines der wichtigsten ungelösten Probleme im Bereich der elektronischen Farbbildverarbeitung stellt die Entwicklung eines umfassenden Modells für das Farbsehverhalten des Menschen dar. Ein solches sogenanntes Farberscheinungsmodell sollte in der Lage sein, die Farbwahrnehmung fixierter Objekte in unterschiedlichsten Szenen korrekt zu beschreiben. Da das visuelle System komplexe Adaptationsmechanismen aufweist und sich ständig selbst an Helligkeits- und Farbverteilungen innerhalb des Gesichtsfeldes anpasst, ist es nur bedingt mit einer elektronischen Kamera zu vergleichen.

Vielmehr ist die Farberscheinung als örtliches Phänomen immer das Resultat eines komplizierten Vergleiches des fixierten Objektes mit allen in einer Szene auftretenden Farben. Die bisherigen Ansätze beschreiben die Farberscheinung entweder nur sehr unzureichend oder erfordern die Vorgabe von zusätzlichen, nicht in der Szene beobachtbaren Hilfsgrößen, welche die Leistungsfähigkeit der Modelle vom Anwender abhängig machen. Das in dieser Arbeit entwickelte Modell baut ausschließlich auf innerhalb der jeweiligen Szene beobachtbaren farb- bzw. photometrischen Größen auf und stellt daher ein reines Computermodell der Farberscheinung dar. Aufgrund der Form der Eingangsdaten ist es zudem sehr flexibel auf unterschiedlichste geometrische Szenenkonfigurationen anwendbar. Strukturell unterteilt sich das Modell in eine Vorverarbeitungseinheit zur Extraktion eines Merkmalsvektors in Form von regionenspezifischen Histogrammen sowie einer darauf operierenden multivariaten Abbildungseinheit zur Charakterisierung der Farberscheinung. Der Vorteil dieses Ansatzes liegt in seiner guten Parametrierbarkeit, wodurch das Modell die notwendigen Freiheitsgrade zur Anpassung an experimentelle Daten aufweist. Zur Implementation der Abbildungseinheit wurde ein an neuronalen Netzen orientiertes Funktionensystem entwickelt, welches das Einbringen von a priori Wissen zur Modellierung bekannter Farberscheinungsphänomene gestattet. Dies wird im Wesentlichen durch die Begrenzung des Modellparameterraumes erzielt, wodurch ein vorgegebenes Monotonieverhalten künstlich erzwungen und die erforderliche Invertierbarkeit sichergestellt wird. Experimentelle Daten wurden aus umfangreichen Farbversuchen sowie aus standardisierten Datensätzen gewonnen und liegen in Form korrespondierender Farben für komplexe Szenen sowie einfache Infeld-Umfeld-Geometrien vor. Hierauf basierend erfolgte die Optimierung der Modellparameter, für die sich ein sogenanntes projiziertes BFGS-Verfahren als besonders leistungsfähig erwiesen hat.

Verglichen mit bisherigen Modellen ergibt sich für den neuen Ansatz eine deutliche Reduktion der Abweichungen zwischen experimentellen Werten und Modellvorhersagen, wobei die Verbesserung vor allem in der präziseren Modellierung der Helligkeits-Adaptation bzw. des Simultankontrastes begründet ist. Insbesondere zeigt sich, dass das entwickelte Funktionensystem den antagonistischen, gegensätzlichen Einfluss einzelner Farben gut widerspiegelt. Bezüglich der Modellierung der chromatischen Adaptation ergeben sich ähnliche Resultate wie mit bisherigen Modellen, die speziell hierauf ausgerichtet sind. Im Sinne größtmöglicher Flexibilität gestattet das neue Modell ferner zwei unterschiedliche Varianten zur Berechnung korrespondierender Farben, die vergleichbar gute Resultate liefern. Für die hierzu erforderlichen Modellinversionen haben sich Pegasus- bzw. Quasi-Newton-Solver als besonders zuverlässig erwiesen. Insgesamt stellt der neue Ansatz somit ein leistungsfähiges Instrumentarium zur Verfügung, um auf Basis weiterer experimenteller Daten ein allumfassendes Farberscheinungsmodell zu entwickeln.

Keywords:
  • Farberscheinung
  • FarberscheinungsmodelL
  • Adaptation
  • Adaptations-Transformation
  • Neuronale Netze

BUYING OPTIONS

40.50 €
in stock
cover cover cover cover cover cover cover cover cover