Frage:
Warum erfassen Kameras nicht mit dem CIE XYZ-Farbmodell?
Vivek
2015-09-12 10:26:40 UTC
view on stackexchange narkive permalink

Wenn das CIE XYZ-Farbmodell eine bessere Darstellung dessen ist, was Menschen sehen, warum erfassen CCD-Arrays in Kameras dann Daten nicht auf eine Weise, die ihr zugeordnet ist, und nicht dem RGB-Modell?

Es scheint mir besonders seltsam, da der RGB-Raum eine richtige Teilmenge von CIE XYZ ist, was bedeutet, dass es Farben gibt, die Menschen sehen können und die mit RGB nicht darstellbar sind, oder?

Wenn der Grund angezeigt wird, gilt dieselbe Frage für Anzeigen. Warum werden sie nicht mit dem CIE XYZ-Modell angezeigt?

Die meisten Kameras, die heutzutage für Standbilder verwendet werden, haben keine CCD-Arrays - sie haben CMOS-Sensoren.
Mit ARGYLL können Sie Ihre RAW-Datei im XYZ-Farbraum entwickeln.
Vier antworten:
Iliah Borg
2015-09-12 18:47:30 UTC
view on stackexchange narkive permalink

Derzeit werden XYZ-Filter in Dünnschichttechnologie hergestellt. Es ist nicht sehr billig und für Multimegapixel-Sensoren nicht sehr geeignet. Dies führt auch zu etwas stacheligen spektralen Antwortkurven, was besonders problematisch ist, wenn die Lichtquelle ein stacheliges Spektrum aufweist, wie Leuchtstoffröhren und einige Blitze. Ein weiterer Grund wären höhere Rauschpegel, da XYZ-Filter in bestimmten Bereichen des Spektrums nur eine sehr geringe Durchlässigkeit zulassen.

Bei Anzeigen ist das Problem auch die Lichtquelle. Um XYZ-Filter effizient anwenden zu können, muss die Lichtquelle eine sehr gleichmäßige spektrale Leistungsverteilung aufweisen und nahe an der eines schwarzen Körpers bei etwa 5500 K liegen, was derzeit keine Option ist.

AFAIK, "XYZ-Filter" existieren nicht, da XYZ keine Farben sind; Es handelt sich um methematische Konstrukte, die von CIE RGB abgeleitet sind.
Alan P
2015-09-14 00:44:15 UTC
view on stackexchange narkive permalink

Sehen Sie sich eine Kopie des Farbdiagramms an. Beachten Sie, dass entlang der X- oder Y-Achse keine Farben vorhanden sind. XYZ steht für imaginäre Farben, nicht für echte Farben. Es ist unmöglich, einen XYZ-Sensor herzustellen.

Der Ursprung des XYZ-Raums stammt aus den Standard-Beobachter-Experimenten. Bei der Kombination der Testfarben Rot, Grün und Blau, um die Farben des Spektrums zu erhalten, gab es viele Fälle, in denen keine Übereinstimmung erzielt werden konnte. Um eine Übereinstimmung zu erhalten, wurde eine der Testfarben zur Spektralfarbe hinzugefügt und die anderen beiden Testfarben wurden angepasst, um übereinzustimmen. Dies entspricht dem Hinzufügen eines negativen Werts dieser Testfarbe. Für CIE-Zwecke waren die negativen Werte kein Problem, aber dies war vor Computern, als alle Berechnungen von Hand durchgeführt wurden. Die negativen Werte führten zu menschlichen Fehlern. Die Lösung bestand darin, die RGB-Werte in einen anderen Farbraum umzuwandeln, der keine negativen Werte enthielt. Dies ist der XYZ-Farbraum. Rein mathematisches Konstrukt zur Reduzierung menschlicher Fehler bei mathematischen Problemen.

XYZ wird heute verwendet, da es sowohl ein Farbmodell als auch ein Farbraum ist. Ein gegebener Satz von Zahlen stellt eine bestimmte Farbe dar, wenn er mit den im Farbdiagramm festgelegten Grenzen übereinstimmt. RGB ist ein Farbmodell, kein Farbraum. ARGB und sRGB sind Farbräume.

XYZ-Sensor: http://www.mazet.de/de/products/jencolor/true-color-sensors#.VfXcSWRVhBc
Seite 11. Sie konvertieren zu XYZ
Um das Datenblatt zu zitieren: "Die Filterantwortkurven basieren auf dem CIE 1931-Standard. Weitere Informationen zur Farbanpassungsfunktion finden Sie beispielsweise unter: http://en.wikipedia.org/wiki/CIE_1931_color_space". Wenn Sie eine Konvertierungsmatrix wie "Ausgabe in XYZ" haben und diese eindeutig nicht einheitlich ist, würde ich Ihnen gerne bei Ihrem elektronischen Design helfen.
Downvote, da XYZ auf imaginären Farben basiert, bedeutet nicht, dass es unmöglich ist, einen XYZ-Sensor herzustellen, ein menschliches Auge ist ein Beispiel dafür (Google LMS Space).
JDługosz
2015-09-12 10:30:43 UTC
view on stackexchange narkive permalink

Bei der Erfassung werden die tatsächlichen Transmissionskurven der zur Herstellung der Filter verwendeten Pigmente verwendet.

Eine Rohdatei ist that mit dem impliziten Gerät "Eingabefarbraum". Dies in sinnvolle Werte in einigen Standard-SPQCE umzuwandeln, ist das, was Raw-Konverter tun. Sie können mit einem Farbprüfer und einer Software von X-rite kalibrieren oder darauf vertrauen, dass die Profile des Herstellers oder von Adobe nahe genug sind.

Siehe Diese Antwort, in der ich danach gefragt habe: nicht Angenommen, es handelt sich um RGB, aber was sind sie?

Ich bin beeindruckt von der Ähnlichkeit zwischen den Sensorfiltern und dem menschlichen Auge. Das ist die eigentliche Antwort: Unter verschiedenen Lichtbedingungen genauso zu reagieren wie wir, um unter verschiedenen Lichtarten keine lustigen Farbverschiebungen zu bekommen.

Jeroen van Duyn
2019-04-02 12:32:56 UTC
view on stackexchange narkive permalink

Um genaue Farben zu erfassen, müssen Kameras nach XYZ- oder LMS-Gewichtskurven filtern. Jede andere lineare Kombination von LMS-Filtern mit nicht negativen Gewichten ist akzeptabel, wenn Sie ein besseres Signal-Rausch-Verhältnis als LMS erhalten.

Es sind die RGB-Filter, die unmöglich zu realisieren sind, da sie entlang der Kurven (Wellenlänge) einige negative Gewichte aufweisen. Wenn Sie versuchen, einen RGB-Farbraum direkt auf dem Sensor (d. H. Mit den Bayer-Filtern) zu realisieren, werden Sie garantiert kolorimetrische Fehler machen. Sie können keine optischen Filter mit negativer Verstärkung herstellen.

Unsere Augen haben die LMS-Filter (lang-mittel-kurz, ungefähr gleichbedeutend mit rot-grün-blau). CIE XYZ werden daraus abgeleitet, um nur nicht negativ zu sein, und so dass die Luminanz nur durch Y definiert wird. Dies ist für die Farbwissenschaft bequemer. ACES RGB ist eine weitere perfekte Konvertierung, die für die digitale Filmproduktion geeignet ist.

Daten in einem anderen RGB-Farbraum (wie sRGB = Rec.709, Adobe, DCI P3, UHD = Rec.2020) können durch eine 3x3-Matrix in linearem Licht rechnerisch aus XYZ oder ACES abgeleitet werden. Eine solche Matrix hat bis zu 6 negative Koeffizienten, so dass Farben außerhalb des Farbumfangs einige negative RGB-Werte erzeugen. Diese können von der OECF (Gammafunktion) nicht verarbeitet werden. Wenn Sie also keine vorzeichenbehafteten linearen Lichtwerte speichern, müssen sie durch Gamut-Mapping (oder einfach durch Abschneiden auf 0) entfernt werden. Die In-Gamut-Farben können immer noch genau sein, da die Mathematik genau ist.

Je größer der Farbraum im Verhältnis zum Farbumfang Ihrer Szene ist (der größte Teil der Welt ist nicht so breit), desto weniger Probleme haben Sie mit dem Abschneiden des Farbumfangs. Für wissenschaftliche Zwecke existieren XYZ-Kameras, die genau das reproduzieren können, was die Augen sehen. Multispektralkameras mit mehr als 3 Primärfarben können sogar mehr sehen, als das menschliche Auge unterscheiden kann. Sie enthüllen buchstäblich das Unsichtbare.

Kurz gesagt: Ein XYZ-Sensor ist eine hervorragende Idee. Ich vermute, dass Sie dies im RAW-Modus erhalten sollten. Die Konvertierung in einen begrenzten RGB-Farbraum erfolgt dann während der Rohverarbeitung. In diesem Fall verlieren Sie möglicherweise einen gewissen Farbumfang.

PS: Verwechseln Sie das Kameradesign nicht mit dem Design des Farbdisplays. Eine XYZ-Anzeige ist nicht möglich, eine Anzeige mit sehr großem Farbumfang benötigt viele Primärfarben (z. B. 2 Grüns). Eine Kamera mit großem Farbumfang ist trivial einfach, gibt jedoch Signale mit schwachen Farben aus, sodass möglicherweise Rauschprobleme auftreten.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...