Farbtiefe

Die Überschriften der Unterabschnitte beziehen sich auf Bits pro Pixel.

1-Bit-FarbeBearbeiten

Hauptartikel: Binäres Bild

2 Farben, oft schwarz-weiß (oder was auch immer die Farbe des CRT-Leuchtstoffs war) direkte Farbe. Manchmal bedeutete 1 schwarz und 0 weiß, also das Gegenteil des heutigen Standards. Die meisten der ersten Grafikbildschirme waren von diesem Typ, das X-Fenstersystem wurde für solche Bildschirme entwickelt, und dies wurde für einen 3M-Computer vorausgesetzt. In den späten 80er Jahren gab es professionelle Bildschirme mit Auflösungen von bis zu 300 dpi (das entspricht einem modernen Laserdrucker), aber Farbe erwies sich als beliebter.

2-Bit-FarbeBearbeiten

4 Farben, in der Regel aus einer Auswahl von festen Paletten. CGA, frühe NeXTstation mit Graustufen, Farb-Macintoshes, Atari ST mit mittlerer Auflösung.

3-Bit-FarbeBearbeiten

8 Farben, fast immer alle Kombinationen von Rot, Grün und Blau in voller Intensität. Viele frühe Heimcomputer mit TV-Displays, einschließlich des ZX Spectrum und des BBC Micro.

4-Bit-FarbeBearbeiten

16 Farben, in der Regel aus einer Auswahl von festen Paletten. Verwendet vom EGA und vom kleinsten gemeinsamen Nenner des VGA-Standards bei höherer Auflösung, Farb-Macintoshes, Atari ST mit niedriger Auflösung, Commodore 64, Amstrad CPC.

5-bit colorEdit

32 Farben aus einer programmierbaren Palette, verwendet vom Original Amiga Chipsatz.

8-bit colorEdit

Hauptartikel: 8-Bit-Farbe

256 Farben, normalerweise aus einer voll programmierbaren Palette. Die meisten frühen Farb-Unix-Workstations, VGA mit niedriger Auflösung, Super VGA, Farb-Macintoshes, Atari TT, Amiga AGA-Chipsatz, Falcon030, Acorn Archimedes. Sowohl X als auch Windows boten ausgeklügelte Systeme an, um jedem Programm die Möglichkeit zu geben, seine eigene Palette auszuwählen, was oft zu falschen Farben in anderen Fenstern als demjenigen, das den Fokus hat, führte.

Einige Systeme legten einen Farbwürfel in die Palette für ein direktes Farbsystem (so dass alle Programme dieselbe Palette verwenden würden). In der Regel wurden weniger Blaustufen als bei anderen Systemen bereitgestellt, da das menschliche Auge für die blaue Komponente weniger empfindlich ist als für die rote oder grüne (zwei Drittel der Rezeptoren des Auges verarbeiten die längeren Wellenlängen). 3 Bits von R und G, 2 Bits von B, der richtige Wert kann aus einer Farbe ohne Multiplikation berechnet werden. Wurde unter anderem in der MSX2-Systemserie von Computern Anfang bis Mitte der 1990er Jahre verwendet.

  • ein 6×7×6-Würfel, wobei 4 Farben für eine programmierbare Palette oder Grautöne übrig bleiben.
  • ein 6×8×5-Würfel, bei dem 16 Farben für eine programmierbare Palette oder Graustufen übrig bleiben.
  • 12-Bit-FarbeEdit

    4096 Farben, in der Regel aus einer voll programmierbaren Palette (obwohl diese oft auf einen 16×16×16-Farbwürfel eingestellt war). Einige Silicon Graphics-Systeme, Color NeXTstation-Systeme und Amiga-Systeme im HAM-Modus.

    High color (15/16-bit)Bearbeiten

    Hauptartikel: High Color

    Bei High-Color-Systemen werden für jedes Pixel zwei Bytes (16 Bit) gespeichert. Meistens werden jeder Komponente (R, G und B) 5 Bits zugewiesen, plus ein unbenutztes Bit (das für einen Maskenkanal oder zum Umschalten auf indizierte Farbe verwendet wird); so können 32.768 Farben dargestellt werden. Eine alternative Zuweisung, bei der das ungenutzte Bit dem G-Kanal zugewiesen wird, ermöglicht jedoch die Darstellung von 65.536 Farben, allerdings ohne Transparenz. Diese Farbtiefen werden manchmal in kleinen Geräten mit einem Farbdisplay, wie z. B. Mobiltelefonen, verwendet und werden manchmal als ausreichend für die Darstellung fotografischer Bilder angesehen. Gelegentlich werden 4 Bits pro Farbe plus 4 Bits für Alpha verwendet, was 4096 Farben ergibt.

    Der Begriff „High Color“ wird seit kurzem für Farbtiefen von mehr als 24 Bits verwendet.

    18-BitBearbeiten

    Mehr oder weniger teure LCDs (z. B. typische Twisted-Nematic-Typen) bieten 18-Bit-Farben (64×64×64 = 262.144 Kombinationen), um schnellere Farbübergangszeiten zu erreichen, und verwenden entweder Dithering oder eine Bildratensteuerung, um sich der echten Farbe mit 24 Bit pro Pixel anzunähern, oder sie verzichten ganz auf 6 Bit Farbinformationen. Teurere LCDs (in der Regel IPS) können 24-Bit-Farbtiefe oder mehr anzeigen.

    Echte Farbe (24-Bit)

    Alle 16.777.216 Farben (herunterskaliert, für volle Auflösung auf das Bild klicken)

    24 Bits verwenden fast immer jeweils 8 Bits von R, G und B (8 bpc). Im Jahr 2018 wird die 24-Bit-Farbtiefe von praktisch allen Computer- und Handydisplays sowie von der überwiegenden Mehrheit der Bildspeicherformate verwendet. In fast allen Fällen von 32 Bits pro Pixel werden 24 Bits der Farbe zugewiesen, und die verbleibenden 8 sind der Alphakanal oder ungenutzt.

    224 ergibt 16.777.216 Farbvariationen. Das menschliche Auge kann bis zu zehn Millionen Farben unterscheiden, und da die Farbskala eines Bildschirms kleiner ist als der Bereich des menschlichen Sehvermögens, bedeutet dies, dass er diesen Bereich mit mehr Details abdecken sollte, als er wahrnehmen kann. Bei Bildschirmen sind die Farben jedoch nicht gleichmäßig im menschlichen Wahrnehmungsraum verteilt, so dass Menschen die Veränderungen zwischen einigen benachbarten Farben als Farbstreifen wahrnehmen können. Bei monochromatischen Bildern werden alle drei Kanäle auf denselben Wert gesetzt, was zu nur 256 verschiedenen Farben und damit potenziell zu mehr sichtbaren Streifen führt, da das menschliche Auge im Durchschnitt nur zwischen etwa 30 Grautönen unterscheiden kann. Einige Software versucht, die Graustufen in die Farbkanäle zu dithern, um dies zu verbessern, obwohl dies in moderner Software häufiger für das Subpixel-Rendering verwendet wird, um die räumliche Auflösung auf LCD-Bildschirmen zu erhöhen, bei denen die Farben leicht unterschiedliche Positionen haben.

    Die DVD-Video- und Blu-ray Disc-Standards unterstützen eine Bittiefe von 8 Bit pro Farbe in YCbCr mit 4:2:0 Chroma-Unterabtastung. YCbCr kann verlustfrei in RGB umgewandelt werden.

    Macintosh-Systeme bezeichnen 24-Bit-Farben als „Millionen von Farben“. Der Begriff „True Color“ wird manchmal für das verwendet, was in diesem Artikel als direkte Farbe bezeichnet wird. Er wird auch oft verwendet, um sich auf alle Farbtiefen größer oder gleich 24 zu beziehen.

    Deep color (30-bit)Edit

    Deep color besteht aus einer Milliarde oder mehr Farben. 230 ist ungefähr 1,073 Milliarden. Normalerweise sind dies jeweils 10 Bit für Rot, Grün und Blau (10 bpc). Wenn ein Alphakanal derselben Größe hinzugefügt wird, benötigt jedes Pixel 40 Bits.

    Einige frühere Systeme platzierten drei 10-Bit-Kanäle in einem 32-Bit-Wort, wobei 2 Bits ungenutzt blieben (oder als 4-stufiger Alphakanal verwendet wurden); das Cineon-Dateiformat verwendete dies zum Beispiel. Einige SGI-Systeme verfügten über 10-Bit- (oder mehr) Digital-Analog-Wandler für das Videosignal und konnten so eingerichtet werden, dass sie auf diese Weise gespeicherte Daten für die Anzeige interpretierten. BMP-Dateien definieren dies als eines ihrer Formate, und Microsoft nennt es „HiColor“.

    Videokarten mit 10 Bits pro Komponente kamen in den späten 1990er Jahren auf den Markt. Ein frühes Beispiel war die Radius ThunderPower-Karte für den Macintosh, die Erweiterungen für QuickDraw und Adobe Photoshop-Plugins enthielt, um die Bearbeitung von 30-Bit-Bildern zu unterstützen. Einige Hersteller bezeichnen ihre 24-Bit-Farbtiefe mit FRC-Panels als 30-Bit-Panels; echte Deep-Color-Displays haben jedoch eine Farbtiefe von 10 Bit oder mehr ohne FRC.

    Die HDMI 1.3-Spezifikation definiert eine Bittiefe von 30 Bit (sowie 36- und 48-Bit-Tiefen).
    In dieser Hinsicht unterstützen die nach 2006 hergestellten Nvidia Quadro-Grafikkarten 30-Bit Deep Color und Pascal- oder spätere GeForce- und Titan-Karten, wenn sie mit dem Studio-Treiber gepaart sind, ebenso wie einige Modelle der Radeon HD 5900-Serie wie die HD 5970. Die ATI FireGL V7350-Grafikkarte unterstützt 40- und 64-Bit-Pixel (30- und 48-Bit-Farbtiefe mit einem Alphakanal).

    Die DisplayPort-Spezifikation unterstützt in Version 1 auch Farbtiefen von mehr als 24 bpp.3 durch „VESA Display Stream Compression, die einen visuell verlustfreien Algorithmus mit geringer Latenz verwendet, der auf prädiktiver DPCM und dem YCoCg-R-Farbraum basiert und höhere Auflösungen und Farbtiefen sowie einen geringeren Stromverbrauch ermöglicht.“

    Auf der WinHEC 2008 kündigte Microsoft an, dass Farbtiefen von 30 Bit und 48 Bit in Windows 7 unterstützt werden, zusammen mit dem breiten Farbraum scRGB.

    High Efficiency Video Coding (HEVC oder H.265) definiert das Main 10-Profil, das 8 oder 10 Bits pro Abtastung mit 4:2:0 Chroma-Subsampling ermöglicht. Das Main 10-Profil wurde auf der HEVC-Sitzung im Oktober 2012 auf der Grundlage des Vorschlags JCTVC-K0109 hinzugefügt, in dem vorgeschlagen wurde, HEVC für Verbraucheranwendungen ein 10-Bit-Profil hinzuzufügen. In dem Vorschlag hieß es, dies solle eine bessere Videoqualität ermöglichen und den Rec. 2020-Farbraum unterstützen, der von UHDTV verwendet werden wird. Die zweite Version von HEVC hat fünf Profile, die eine Bittiefe von 8 bis 16 Bit pro Abtastung ermöglichen.

    Ab 2020 verwenden einige Smartphones 30-Bit-Farbtiefe, wie das OnePlus 8 Pro, Oppo Find X2 & Find X2 Pro, Sony Xperia 1 II, Xiaomi Mi 10 Ultra, Motorola Edge+, ROG Phone 3 und Sharp Aquos Zero 2.

    36-BitBearbeiten

    Die Verwendung von 12 Bits pro Farbkanal ergibt 36 Bits, etwa 68,71 Milliarden Farben. Wenn ein Alphakanal derselben Größe hinzugefügt wird, gibt es 48 Bits pro Pixel.

    48-BitBearbeiten

    Bei Verwendung von 16 Bits pro Farbkanal ergeben sich 48 Bits, etwa 281,5 Billionen Farben. Wenn man einen Alphakanal derselben Größe hinzufügt, ergeben sich 64 Bits pro Pixel.

    Bildbearbeitungssoftware wie Photoshop hat schon früh damit begonnen, 16 Bits pro Kanal zu verwenden, um die Quantisierung von Zwischenergebnissen zu reduzieren (d. h. wenn eine Operation durch 4 geteilt und dann mit 4 multipliziert wird, gehen die unteren 2 Bits der 8-Bit-Daten verloren, aber wenn 16 Bits verwendet werden, gehen keine der 8-Bit-Daten verloren). Außerdem konnten Digitalkameras 10 oder 12 Bit pro Kanal in ihren Rohdaten erzeugen; da 16 Bit die kleinste adressierbare Einheit ist, die größer ist als diese, würde ihre Verwendung eine Manipulation der Rohdaten ermöglichen.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht.