Frage:
Was sind die RGB-Vorwahlen in einer Kamera?
JDługosz
2015-05-26 03:05:16 UTC
view on stackexchange narkive permalink

Wie sieht die Farbskala im Allgemeinen aus? Primärfarben als Spitzenempfindlichkeit verhalten sich nicht wie Primärfarben für das Mischen der Ausgabe.

Ich nehme an, dass dies für den RAW-Import erforderlich ist und in einer DNG-Datei explizit angegeben wird. Unterscheiden sie sich stark zwischen den Kameras?

enter image description here

Ich frage mich, ob Lightroom jetzt ProPhoto verwendet, weil die Primärfarben (und damit der native Farbumfang) außerhalb von AdobeRGB liegen ? Seit Kameras AdobeRGB für das In-Camera-JPEG anbieten, vermute ich, dass es deutlich größer als sRGB ist. Wie wird ein Filter (auf dem Pixel) einem Punkt im Diagramm zugeordnet? Würde es sich interier zum reinen Farbtonumfang bewegen, oder wie wirkt sich die Bandbreite im Filter aus? Wenn es keine Probleme hat, 520-nm-Grün zu erkennen, befindet es sich außerhalb eines RGB-Bereichs. oder wenn die Reaktion des Sensors (hinter dem Filter) einen Kreis um die Primärseite beschreibt, ist die Farbskala kein Dreieck, das auf das Innere des Rumpfs beschränkt ist, der die Primärfarben verbindet, wie bei Ausgabe unter Verwendung von Primärfarben.

Die Hufeisen-CIE-Form (in 3 Dimensionen), die alle Farben zeigt, die ein standardisiertes Auge sehen kann: Wie heißt das eigentlich? Die Kamera könnte ein ähnliches Diagramm haben.
Die Form wird als "Spectrum Locus" bezeichnet. Genau genommen bezieht sich das nur auf die gekrümmte Kante. Die untere gerade Linie ist die "lila Grenze". Umgangssprache wird jedoch der "Specturm Locus" verwendet, um die gesamte hufeisenförmige Handlung zu beschreiben.
Drei antworten:
agf1997
2015-05-26 08:15:12 UTC
view on stackexchange narkive permalink

Digitalkameras und Filme dürfen keine "Vorwahlen" haben. Die spektralen Empfindlichkeiten von Digitalkameras und Filmen bestimmen ihre Reaktion auf verschiedene Wellenlängen des Lichts. Diese nativen Antworten werden manchmal relativ zu einer Reihe von Codierungsprimären wie rec709, adobeRGB, Kodak ProPhoto (auch bekannt als RIMM / ROMM) oder ACES codiert. Diese Codierungsprimären haben jedoch nichts mit der Fähigkeit der Kamera zu tun, Licht einer bestimmten Wellenlänge zu erfassen.

Typischerweise sind die in einer RAW-Kameradatei gefundenen RGB-Werte diejenigen Antworten, die durch die spektralen Empfindlichkeiten der Kamera bestimmt werden. Diese werden häufig in CIEXYZ umgewandelt, dann in einen codierenden RGB-Raum wie den oben beschriebenen, basierend auf einer sorgfältigen Charakterisierung der Reaktion der Kamera auf bekannte spektrale Stimuli.

Der Grund, warum Adobe Camera RAW und Lightroom RIMM / ROMM als internen Codierungsbereich verwenden, liegt in seiner Natur als guter Bereich für die Anwendung von Tonkurven. Siehe http://www.photo-lovers.org/pdf/color/romm.pdf

Wenn eine Kamera eine Reihe von Primärfarben hätte, würde sie einen Farbumfang in einer Farbmetrik bilden Raum wie CIE xy, CIE u'v 'oder CIELAB. Dies würde bedeuten, dass die Kamera keine kolorimetrischen Werte außerhalb dieser Farbskalen erfassen kann. Dies ist eindeutig nicht der Fall. Der Begriff "Gamut" ist ein für ein Ausgabegerät spezifischer Begriff, der sich auf die Fähigkeit eines Ausgabegeräts bezieht, einen bestimmten Satz von Farben zu reproduzieren.

Hinweis: Der Begriff "Gamut Color Analysis Gamuts" wurde früher von Jack Holm eingeführt von HP. Während das Konzept, das Holm in diesem Artikel vorstellt, nützlich ist, um die spektralen Empfindlichkeiten der Kamera zu verstehen und zu vergleichen, ist es kein "Gamut" im herkömmlichen Sinne.

http://www.color.org/documents/CaptureColorAnalysisGamuts.pdf

JDługosz
2015-05-26 06:41:45 UTC
view on stackexchange narkive permalink

Ich habe diese Seite gefunden, die die folgende Abbildung enthält: enter image description here

Sie erinnert mich an die Funktionsweise des menschlichen Auges, was sicher kein Zufall ist.

enter image description here

Die Ähnlichkeit besteht darin, dass der Unterschied zwischen Rot und Grün den größten Teil davon umfasst, wobei Blau die Krawatte bricht, indem es die linke Seite auswählt. Der grüne rechte Hang fällt um 630 ab und Blau nimmt die Hälfte links vom grünen Gipfel heraus.

Die auffälligen Unterschiede bestehen darin, dass das Rot auf der linken Seite stark zerschlagen ist und Grün wieder aufnimmt, was Rot erfordert brechen Sie die Krawatte.

Ein Wesen mit solchen Augen hätte keinen Farbtonkreis, der Rot und Blau miteinander verbindet. Es würde Rot und Grün als einen Zyklus wahrnehmen, bei dem Rot nahtlos in Grün übergeht, was für uns nur leicht entsättigt ist.

Natürlich hat jede reine Spektralfarbe einen einzigartigen Tristimulus. Entsättigte Farben kommen jedoch unterschiedlich heraus und es gibt verschiedene Metamere für ungerade Beleuchtungsspektren und / oder Pigmente, die keine breiten flachen Kurven sind.

Dies würde erklären, warum nicht-thermische Beleuchtung Ergebnisse liefern kann, die keine einfache Anpassung von der Fixierung sind. Das Lesen für Rot, das höher als Grün und kein Blau ist, kann bei einer Helligkeit leicht entsättigtes Gelb oder bei einer niedrigeren Helligkeit lebhaftes Rot sein. Es müssen Annahmen getroffen werden, die auf Beleuchtungsspektren und möglicherweise anderen Hinweisen im Inhalt basieren?

thomasrutter
2015-05-28 11:53:14 UTC
view on stackexchange narkive permalink

Wie sieht die Farbskala im Allgemeinen aus? Primärfarben als Spitzenempfindlichkeit verhalten sich nicht wie Primärfarben für die Mischausgabe.

Ich nehme an, dass dies für den RAW-Import erforderlich ist und in einer DNG-Datei explizit angegeben wird. Unterscheiden sie sich stark zwischen den Kameras?

Die Ausgabe des Sensors basiert auf RGB. Wenn sie also einfach als drei Primärfarben interpretiert wird, ist ihre Farbskala dreieckig, wie Sie es für andere RGB-Farbskalen kennen.

Wenn Sie auf jeden der drei Farbfilter im Sensor anspielen, wird natürlich nicht nur eine einzelne Wellenlänge, sondern auch eine Kurve dargestellt. Für die Genauigkeit benötigt ein Farbprofil also nicht nur Primärfarben, sondern auch eine Farbnachschlagetabelle

Die Farbreaktionen variieren stark zwischen den Kameras, sodass Sie ein Eingabeprofil speziell für die Kamera benötigen. Ihre RAW-Konvertierungssoftware verfügt über integrierte Eingabeprofile von Hauptkameras und möglicherweise sogar über einen Mechanismus zum automatischen Herunterladen neuer Kameras. In einigen Fällen hat es möglicherweise kein vollständiges Profil, sondern nur eine Matrix (z. B. nur eine lineare Konvertierung von Primärdaten zu CIE XYZ) und arbeitet daraus mit weniger Genauigkeit. Und wenn Sie kein kameraspezifisches Profil oder keine kameraspezifische Matrix haben, sehen die Farben wahrscheinlich falsch aus.

Ich frage mich, ob Lightroom jetzt ProPhoto verwendet, weil die Primärfarben (und damit) die native Farbskala) liegen außerhalb von AdobeRGB?

Ja, viele Kameras erstrecken sich außerhalb von AdobeRGB, aber das ist nicht der einzige Grund für ProPhotoRGB.

ProPhotoRGB wird als guter Standard- / universeller "funktionierender" Farbraum angesehen. Das Besondere an einem funktionierenden Farbraum ist, dass Sie nach dem Ziehen aus der Kamera Filter auf Bilddaten anwenden, die die Farbsättigung noch weiter erhöhen oder die Farben verschieben können. Ab diesem Zeitpunkt ist der Farbumfang der Ausgabe des Kamerasensors irrelevant Sie möchten etwas, das groß und allgemein genug ist, um alle von Ihnen erstellten Farben darzustellen, damit Sie sich keine Gedanken über das Abschneiden von Farben machen müssen, selbst wenn Sie etwas Verrücktes tun, z. B. die Sättigung stark steigern und dann wieder reduzieren. Kurz gesagt, ProPhotoRGB bietet Ihnen Raum zum Atmen als "funktionierenden" Farbraum, aber Ihr Bild wird natürlich wieder auf ein Ausgabefarbprofil reduziert, um es auf dem Bildschirm anzuzeigen oder zu exportieren (es sei denn, Sie behalten beim Exportieren natürlich die große Bandbreite bei).

Die Konvertierung zwischen diesen Farbräumen erfordert die Art von Mathematik, die Sie im ersten Jahr eines Mathematikstudiums durchführen würden. Es genügt zu sagen, dass die meisten Konvertierungen von Farbraum A in Farbraum B von A in CIE XYZ erfolgen zuerst, dann von CIE XYZ nach B. CIE XYZ ist aufgrund seiner Ineffizienz und der einfacheren Anwendung von Filtern in einer RGB-Domäne oder einer auf Luminanz basierenden Domäne nicht praktisch als Arbeitsfarbraum zu verwenden.

Ich weiß nicht, wie gut ich Ihre Fragen beantwortet habe.

Ist das "Adobe Standard" -Profil in Lightroom / ACR, das zusammen mit den Kameraprofilen aufgeführt ist (die den JPEG-Stilen in der Kamera zu entsprechen scheinen), wirklich eine Datenbank pro Kamera?
Die Ausgabe eines Kamerasensors ist RGB, hat jedoch keine "Primärfarben" in dem Sinne, wie es ein Display oder ein RGB-Farbraum tut. Alle Kameras können ein RGB-Signal erzeugen, das von jeder einzelnen sichtbaren Wellenlänge eingestellt wird. Wenn die Kameras Sensoren hätten, die die Luther-Bedingung erfüllen, hätten sie eine Farbskala, die die gesamte CIEXY-Farbskala umfasst. Dies ist jedoch nicht der Fall, da solche Filter extrem teuer wären. Sensorfilter, die Luther nicht entsprechen, reagieren auch auf einzelne Wellenlängen. Das größere Problem ist, dass sie für viele verschiedene XYZs dieselben RGB-Werte erzeugen können. Siehe das von agf1997 verlinkte Papier.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...