Als Videosignal vorliegende Bilder können direkt elektronisch durch Analog-Digital-Wandler in Binärdaten umgesetzt werden.
Dieser Vorgang, die Digitalisierung besteht aus zwei Schritten, der Rasterung und der Quantisierung. Als Rasterung bezeichnet man die Zerlegung der Bildvorlage in kleine Flächenstücke, Bildpunkte oder Pixel genannt, die matrixartig in Spalten und Zeilen angeordnet sind. Ein Originalpunkt einer Vorlage (z.B.: Foto) wird dabei zu einem Bildpunkt (Pixel) einer Grafikdatei. Wegen der meist geringen Auflösung des Scanners werden nicht alle Originalpunkte umgesetzt, es kommt zu einer Auflösungsreduktion.
Bei der Quantisierung wird entschieden, welcher Wert einem Bildpunkt zugewiesen wird. Wenn nur zwischen zwei Werten, also schwarz oder weiß, unterschieden wird, entsteht ein Binärbild. Als Speicherplatz für diese Farbwerte wird pro Pixel ein Bit benötigt, man spricht von 1 Bit Farbtiefe. Bei mehreren unterschiedlichen Helligkeitsstufen spricht man von Grauwerten. Gängige Systeme arbeiten mit 256 Grauwerten. Das entspricht einer Farbtiefe von 8 Bit. (stimmt das?)
Das Vorgehen bei der Digitalisierung farbiger Bilder ist prinzipiell gleich, es werden jedoch pro Bild drei Farbauszüge getrennt digitalisiert.
Als Folge wird die Farbinformation eines jeden Pixels in 3 Bytes, also mit 24 Bit Farbtiefe gespeichert, was 2 hoch 64, also 16,7 Millionen Farbtöne ergibt. Diese Farbtiefe von 24 Bit wird als TrueColor bezeichnet, wobei jeder Grundfarbe (Rot, grün, Blau) genau 1 Byte zugeordnet ist. Meist muss diese hohe Farbenvielfalt aufgrund der Speicherkapazität der Grafikkarte verringert werden: Farbreduktion: z.B.: von TrueColor auf 256 Farbwerte (= 8 Bit Farbtiefe). siehe auch unter Grafikkarte
Eine Art der Digitalisierung ist die optomechenische Btastung von Vorlagen, das Scannen.
Ein Scanner erlaubt dem Anwender Vorlagen zu digitalisieren, um sie dann am PC weiter zu bearbeiten. Die Scanqualität wird von der Auflösung und der Farbtiefe bestimmt. Die meisten Scanner arbeiten mit CCD-Zeilen-Sensoren (Charge Coupled Device - ladungsgekoppelte Halbleiterbauelemente). Mehrere Tausend Halbleiter-Bauelemente (hier Silizium) sind zeilenförmig zusammengefasst und bilden die horizontale Auflösung. Die vertikale Auflösung hängt von der Schrittweite ab, mit der die CCD-Zeile die Vorlage abtastet. Ebenfalls sehr wichtig für die Qualität eines Scanners ist, wie viele Grau- oder Farbtöne die Sensoren unterscheiden können. Man spricht von der Farbtiefe, die in Bit angegeben wird.
Bildverarbeitung und Bildbearbeitung
I. Digitalisierung = Eingabemodi
Digitalisierung
Als Videosignal vorliegende Bilder können direkt elektronisch durch Analog-Digital-Wandler in Binärdaten umgesetzt werden.
Dieser Vorgang, die Digitalisierung besteht aus zwei Schritten, der Rasterung und der Quantisierung. Als Rasterung bezeichnet man die Zerlegung der Bildvorlage in kleine Flächenstücke, Bildpunkte oder Pixel genannt, die matrixartig in Spalten und Zeilen angeordnet sind. Ein Originalpunkt einer Vorlage (z.B.: Foto) wird dabei zu einem Bildpunkt (Pixel) einer Grafikdatei. Wegen der meist geringen Auflösung des Scanners werden nicht alle Originalpunkte umgesetzt, es kommt zu einer Auflösungsreduktion.
Bei der Quantisierung wird entschieden, welcher Wert einem Bildpunkt zugewiesen wird. Wenn nur zwischen zwei Werten, also schwarz oder weiß, unterschieden wird, entsteht ein Binärbild. Als Speicherplatz für diese Farbwerte wird pro Pixel ein Bit benötigt, man spricht von 1 Bit Farbtiefe. Bei mehreren unterschiedlichen Helligkeitsstufen spricht man von Grauwerten. Gängige Systeme arbeiten mit 256 Grauwerten. Das entspricht einer Farbtiefe von 8 Bit. (stimmt das?)
Das Vorgehen bei der Digitalisierung farbiger Bilder ist prinzipiell gleich, es werden jedoch pro Bild drei Farbauszüge getrennt digitalisiert.
Als Folge wird die Farbinformation eines jeden Pixels in 3 Bytes, also mit 24 Bit Farbtiefe gespeichert, was 2 hoch 64, also 16,7 Millionen Farbtöne ergibt. Diese Farbtiefe von 24 Bit wird als TrueColor bezeichnet, wobei jeder Grundfarbe (Rot, grün, Blau) genau 1 Byte zugeordnet ist. Meist muss diese hohe Farbenvielfalt aufgrund der Speicherkapazität der Grafikkarte verringert werden: Farbreduktion: z.B.: von TrueColor auf 256 Farbwerte (= 8 Bit Farbtiefe). siehe auch unter Grafikkarte
Eine Art der Digitalisierung ist die optomechenische Btastung von Vorlagen, das Scannen.
Der Scanner
Ein Scanner erlaubt dem Anwender Vorlagen zu digitalisieren, um sie dann am PC weiter zu bearbeiten. Die Scanqualität wird von der Auflösung und der Farbtiefe bestimmt. Die meisten Scanner arbeiten mit CCD-Zeilen-Sensoren (Charge Coupled Device - ladungsgekoppelte Halbleiterbauelemente). Mehrere Tausend Halbleiter-Bauelemente (hier Silizium) sind zeilenförmig zusammengefasst und bilden die horizontale Auflösung. Die vertikale Auflösung hängt von der Schrittweite ab, mit der die CCD-Zeile die Vorlage abtastet. Ebenfalls sehr wichtig für die Qualität eines Scanners ist, wieviele Grau- oder Farbtöne die Sensoren unterscheiden können. Man spricht von der Farbtiefe, die in Bit angegeben wird. (z.B.: 24 Bit entsprechen 16,7 Mio. Farben).
Nun zum Scan-Vorgang: Mit einer Leuchtstofflampe wird jeweils ein Streifen der Vorlage beleuchtet, das reflektierende Licht wird durch ein Spiegel- und Linsensystem auf die CCD-Zeile projiziert. Im Inneren der Hlableiterbauteile entstehen daraus kleine elektrische Ladungen, die im Verhältnis zur empfangenen Lichtmenge des jeweiligen Pixels stehen. Helle Bildpunkte reflektieren entsprechend mehr Photonen als dunkle. Diese Ladungen werden nun in Digitalwerte umgewandelt. Da CCD-Zeilen nur Helligkeitswerte unterscheiden können macht man sich zur Farberkennung ein Prinzip der Optik zunutze, die sogenannte additive Farbmischung, wonach rotes, grünes und blaues Licht zusammen weiß erscheinen. Die sogenannten 3-Pass-Scanner tasten die Vorlage je einmal in rotem, grünem und blauem Licht ab. Die Software setzt dann aus den Durchgängen mit jeweils mindestens 8 Bit Farbtiefe die 24 Bit Grafikdatei zusammen.
1-Pass-Scanner positionieren die CCD-Zeile erst dann auf die nächste vertikale Position, wenn die aktuelle Zeile in allen drei Grundfarben erfasst wurde.
Bei beiden Konzepten genügt eine CCD-Zeile, daher sind sie sehr günstig aber auch langsam. Ein weit schnelleres Ergebnis liefern Scanner mit dichoitischen Spiegeln oder Prisma, die die Farbwerte jeder Punktes in drei spektral unterschiedliche Farbauszüge zerlegen und durch ein Liniensystem auf drei getrennte CCD-Zeilen projizieren.
II. Speicherformen:
Datenreduktion und -kompression:
Ein Problem der Bildverarbeitung sind die anfallenden großen Datenmengen.
Es ist nicht immer notwendig, die gesamte Grauwertmatrix eines Bildes zu speichern, denn es gibt zwei Arten von Verfahren, die den Speicherbedarf verringern können.
Bei der Anwendung von Datenkompression können die Originaldaten wieder eindeutig rekonstruiert werden, bei der Datenreduktion wird auf unwesentliche Details verzichtet, es gehen Informationen des Originalbildes verloren.
Bei der Binärbilderzeugung wird die Menge aller Grauwerte auf zwei Werte abgebildet (schwarz und weiß). Bei Bildern in Grauwerten können niederwertige Bitebenen , die wenig Informationsgehalt besitzen, weggelassen werden, ebenso wie die höchstwertigen Bitebenen, die bei Bedarf rekonstruierbar sind.
Datenkompression
Die Komprinierungstechnik sucht nach wiederholten Mustern in der Quelldatei. Statt alle Daten der Quelldatei zu speichern, werden die Muster und die Anweisung, sie für die Rekonstruktion der Originaldatei zu kombinieren, gespeichert. Mit dieser Technik entspricht die rekonstruierte Datei genau der Originaldatei.
Datenreduktion:
Bei Anwendung der Datenreduktion - hin und wieder auch als Datenkompression mit Datenverlust (Lossy Compression) bezeichnet - wird eine mathematische Analyse der Quelldaten durchgeführt. Die am häufigsten unterstützte Methode für Datenreduktion wird JPEG genannt. (Joint Photographic Experts Group) Vereinfacht läuft die Kompression folgendermaßen ab: Neben der Komprimierung von RGB, also der Reduktion der Farbtiefe, ordnet JPEG die Farben in dem Bild so an, dass es entscheiden kann, welche davon am häufigsten verwendet werden. Durch die Angabe eines Q-Faktors kann der Benutzer angeben, wie viele der selteneren Farben vernachlässigt werden können, diese werden dann in die häufiger verwendeten Farben konvertiert. JPEG teilt das Bild in kleinere Blöcke und komprimiert jeden Block bevor es zum nächsten geht. Das Problem der Blockkompression ist, dass die Blockgrenzen leicht überbetont werden, so dass sie bei hoher Kompression das Bild zerstören. Weiters hat JPEG Schwierigkeiten mit der Zeit, die es für Farben mit höheren Frequenzen (z.B.:blau) braucht.. Das bedeutet,dass bläuliche Farben weniger Variationen haben. Weil diese Einschränkung aber der geringen Fähigkeit des menschlichen Auges entspricht, Blautöne zu unterscheiden, stellt sie in der Regel kein Problem dar. Der enorme Vorteil von Datenreduktion sind die hohen Komprimierungsraten, die mit 10:1 bis 40:1 denen von z.B.: Textdateien (2:1, 3:1) weit überlegen sind.
Die Komprimierung mir Datenverlust hat auch Probleme. Wenn ein wiederhergestellte Datei ein zweites Mal komprimiert wird (z.B. nach einer erneuten Bearbeitung), dann gehen noch mehr Daten verloren, und das Bild wird schlechter.
Auch erfordert diese Form der Komprimierung eine komplizierte Datenverarbeitung, die sehr zeitaufwendig ist. Einige Hersteller bieten Hardware an, die eingebaute Bildkomprimierung verwendet - diese ist dann um bis zu 20 mal schneller als Software. Komprimierung. Aber da die HardwareKomprimierung/Dekomprimierung nicht Bestandteil jedes Computers ist, muss die Komprimierung weiterhin von der Software erledigt werden.
Die Effektivität von Datenreduktionsverfahren hängt auch sehr stark von den Daten direkt ab. Es kann nämlich auch möglich sein, dass der erzeugte Code länger ist, als der bei der Speicherung der vollständigen Grauwertmatrix entstehende.
Vektor- und Rastergrafiken:
Grafische Systeme erzeugen Bilder von grafischen Objekten. Die Bildkomponenten sind mit bestimmten Eigenschaften versehen, z.B.: Sichtbarkeit, Farbe, Priorität, etc. Auf diese Objekte ist eine Anzahl grafischer Operationen ausführbar: z.B.: Erzeugen, Löschen, Kopieren eines Objektes. Ein grafisches Objekt kann aus mehreren kleineren, einfacheren Objekteinheiten aufgebaut sein. Die kleinsten Einheiten werden als grafische Primitive bezeichnet. Deren Darstellung ist je nach Art der grafischen Daten verschieden. Grundsätzlich gibt es zwei Arten der Computergrafik, die sich hauptsächlich in der Bilddarstellung unterscheiden.
1. Linienzeichnende Systeme, bekannt als Vektorgraphiken
2. Flächendarstellende Systeme, Rastergraphiken.
Beide Klassen unterschieden sich sowohl in der Darstellungsart als auch in der Aufbereitungsart der darzustellenden Bilder.
Ein linienzeichnendes System, z.B.: ein Displayfile für einen Videobildschirm enthält nur Informationen über die zu zeichnenden Linien und Zeichen. Der übrige Bildschirm bleibt dabei unberührt.
Bei Rasterbildschirmen dagegen werden alle Pixel der Bildschirms mit Informationen über die Intensität der Farben angesteuert.
Rastergrafik
Der Begriff Rasterung bedeutet, dass der Bildschirm in eine Abfolge von gelenkten Zeilen zusammengesetzt wird, ähnlich wie bei der Fernsehtechnik.
Bei der Aufbereitung von Flächen werden mit Hilfe von Algorithmen drei Pixeleigenschaften bestimmt:
- die Verdeckung: Dabei wird bestimmt, welche Pixel innerhalb einer Fläche liegen und welche außerhalb.
- die Schattierung: Diese Eigenschaft weist jedem Pixel des Rasterbildes eine Intensität zu. Dadurch werden Schatteneffekte erzielt, indem Objekte auf der einen Seite dunkler dargestellt werden als auf der anderen.
- die Priorität: Jedem Pixel wird noch eine Prioritätsinformation zugewiesen. Diese Information entscheidet darüber, ob die darzustellende Fläche von einer anderen überdeckt wird oder nicht.
Die Möglichkeit Informationen zu speichern ist bei der Rastergrafik gegenüber Vektorbildschirmen zusätzlich erweitert. Vor allem betroffen sind die Grauwert- bzw. Farbgebung. Die Definition gefüllter Flächen wird gerätetechnisch zusätzlich von Registern (?)unterstützt.
Die Rastergraphik wird immer häufiger der Vektordarstellung vorgezogen: Es gibt zwei Gründe für ihren zunehmenden Einsatz:
Die Nachfrage nach höherer Bildqualität steigt ständig. Computergrafiken erreichen mit Hilfe von Schattierungen bereits einen hohen Stand an Realität. Solche Bilder sind schwer auf Vektorbildschirmen abzubilden (Gründe siehe unter Vektorgraphik)
Durch die hohe Auflösung können Videobilder, die in Rasterform vorliegen, sehr realistisch wiedergegeben werden.
Der zweite Grund liegt in der rapiden Kostensenkung von Hardware durch die schnelle technologische Entwicklung der Mikroelektronik in den letzten zwei Jahrzehnten.
Die fallenden Preise für immer größer werdenden Speicherkapazitäten waren und sind noch immer ausschlaggebend für das zunehmende Interesse an der Rastergrafik.
Sie wird in vielen Bereichen angewendet: Rastergrafik wird erfolgreich eingesetzt in Flugsimulatoren und in der Werbegrafik. Eine Stärke von Rastergrafiken liegt im Zeichnen von Linien verschiedener Stärke und bei der Wiedergabe hochqualitativen Textes in verschiedenen Schriftarten. Diese Eigenschaft macht Rastergrafiken auch beim Drucken von Texten oder Plottern von Zeichnungen einsetzbar.
Eine Hauptanwendung der Rastergrafik liegt im Bereich des technischen Designs. Die realistische Wiedergabe von Maschinenteilen ist sehr hilfreich bei ihrem Entwurf.
Vektorgraphik:
Die Vektorgrafik bedient sich der Technik, Zeichnungen aus einzelnen Strichen zusammenzusetzen. Als Primitive für die grafische Darstellung werden ausschließlich Geraden herangezogen. Gespeichert werden nur deren Anfangs- und Endpunkte. Vektorbildschirme können realistische Bilder nur mangelhaft abbilden:
Zum einen flimmern sie bei der Anzeige komplexer Bilder und können keine wirklichkeitsgetreuen Bilder von gegenständlichen Objekten ausgeben.
Vor etwa zehn Jahren bildeten Vektorbildschirme die dominierende Methode, um sich ändernde Bilder darzustellen, heute sind Rasterbildschirme ebenfalls imstande, die geforderten Aufgaben zu erfüllen, sie bieten tausende Farben und könne auch komplexere Bilder flimmerfrei darstellen.
Bilddateien & Grafikformate
Bilddateien werden zur Speicherung der grafischen Information benutzt. Die in einer Bilddatei enthaltenen Elemente dienen der Umsetzung der gespeicherten Bilder in eine sichtbare Repräsentation, aber auch der Rückgewinnung von Information über Struktur und Aufbau des Bildes. Analog zur Einteilung der Grafiken in Vektor- und Rastergrafik werden auch Grafikformate primär nach diesem Kriterium unterschieden. Auch Komprimierungsfähigkeiten sind wichtige Faktoren.
1. PCX
Zur Verkleinerung der enormen Dateigrößen wurden Komprimierungsverfahren entwickelt. Das PCX-Format ist in der Lage sowohl mit als auch ohne Komprimierung zu arbeiten. PCX wurden von ZSoft entwickelt und wird von sehr vielen Softwarepaketen unterstützt. Dieses Format gibt es schon längere Zeit, wird aber trotz Hinzufügen von Farben und höherer Auflösung zunehmend von moderneren Formaten ersetzt.
2. TIFF (Tagged Image File Format)
Dieses Format gibt es schon seit längerer Zeit. Vor allem die letzten Versionen seiner Spezifikation haben TIFF sehr leistungsfähig gemacht, auch ist mit den neuen Versionen Datenkompression möglich.
TIFF wird von fast allen Softwarepaketen unterstützt und ist vor allem in der DTP-Welt sehr gebräuchlich.
3. BMP (Bitmap)
Rastergrafiken werden fälschlicherweise auch als Bitmap-Grafiken bezeichnet, obwohl es sich bei Bitmap keinesfalls um das einzige rasterunterstützende Grafikformat handelt. BMP kam mit Windows 3.0 auf den Markt und wird folglich in der Windows-Welt allgemein unterstützt. Da es sich um kein komprimiertes Dateiformat handelt, ist es nicht für große oder hochauflösende Bilder geeignet.
4. DIB (Device Independent Bitmap)
Dieses Format ist BMP ähnlich und ebenfalls in Windows sehr populär.
DIP-Dateien können auf fast allen Geräten angezeigt werden. Aus diesem Grund wird DIB vor allem von Programmieren verwendet, um sicher zu gehen, dass ihre Bilder auf den verschiedensten Geräten angezeigt werden.
5. WMF (Windows Metafile Format)
Auch WMF ist eng mit Windows verknüpft, wird aber nicht allgemein eingesetzt. Die Unterstützung außerhalb von Windows ist eher beschränkt, erfolgt aber von fast allen WindowsApplikationen.
Bei WMF handelt es sich um ein Vektorprogramm, das aber auch Vektor- und Rastergrafiken kombinieren kann, wie man dem Wort Metafile entnehmen kann.
6. GIF (Graphics Interchange Format)
Dieses komprimierte Format wurde für die Verwendung auf CompuServe entwickelt. Es gibt immer mehr Software-Pakete und auch Shareware-Programme, die dieses Format unterstützen. Das Problem bei diesem Grafikformat ist eine maximale Farbtiefe von 8 Bit oder 256 Farben
7. EPS (Encapsulated PostScript File)
EPS speichert die Bilder mit Hilfe von PostScript-Code. Von anderen Formaten in EPS zu konvertieren, erweist sich als schwierig, wo hingegen eine Konvertierung von EPS in andere Formate kein Problem darstellt.
EPS-Dateien werden in den wenigsten Grafikprogrammen angezeigt, daher liegt meist neben der EPS-Form auch eine komprimiertes TIFF-Abbild vor.
8. TGA (Targa)
TGA war das erste populäre Format für hochauflösende Bilder (24 Bit). Der Name kommt von der Original-Targa-Karte, der ersten TrueColor-Grafikkarte und es wird von den meisten Programmen unterstützt.
9. JPEG (Joint Photographic Experts Group)
JPEG wurde für maximale Bildkompression entwickelt. Bei der neuen Komprimierungstechnik gehen jedoch einige Daten verloren, die für die Rekonstruktion des Bildes benötigt werden. Die Idee dahinter ist, dass das menschliche Auge, die verlorengegangen Information nicht vermisst.
III. Wiedergabemodus
Ein Pixel einer Grafikdatei entspricht genau einem Bildpunkt auf dem Bildschirm. Jeder Punkt des Farbmonitors wird folglich in drei verschiedenfarbig strahlende Phosphorteilchen der Monitorbeschichtung zerlegt, wodurch für das menschliche Auge der Eindruck einer Mischfarbe entsteht. (RGB, Rot-Grün-Blau: Prinzipder Kathodenstrahlröhre)
Die Umsetzung der Farbton-Information bei Farbbildern erfolgt durch additive (Farbmonitor) oder subtraktive (Drucker) Mischung der Primärfarben.
Die Grafikkarte
Die Grafikkarte ist eine Steckkarte des Computers, auf dem sich der Videospeicher, der Videocontroller und der Grafikprozessor befinden. Der Videospeicher ist zwischen 256 KByte und mehreren MByte groß und in ihm werden die Daten, die durch den Controller umgeformt und zum Monitor geleitet werden, gespeichert.
Je nach verfügbarem Speicher der Grafikkarte, kann der Grafikmodus gewählt werden. Die 4 hauptsächlichen Grafikmodi sind:
Abbildung in dieser Leseprobe nicht enthalten
Wird bei weniger Auflösung eine höhere Farbanzahl verwendet, muss ebenfalls mehr Speicher zur Verfügung stehen, da aber heutige Grafikkarten über Speicher von mindestens 2 bis sogar 16 Mb verfügen, können auch weitaus höhere Auflösungen mit viel höherer Farbanzahl dargestellt werden.
Die SVGA Karten sind kompatibel zu den Standard VGA Karten, verfügen aber über zusätzliche Hardware Register, welche die Merkmale aufweisen, dass mehr Farben dargestellt werden können, eine höhere Auflösung als 640x480, höhere Textmodi mit mehr Spalten und Zeilen und HardwareZooming von Bildausschnitten möglich sind.
Die wichtigsten Teile der Grafikkarte bilden der Videospeicher, der Grafikprozessor und der Ausgabeprozessor.
Grafikprozessor
Der Grafikprozessor nimmt dem Hauptprozessor des Computers Arbeit ab und realisiert dadurch einen raschen Bildaufbau auf dem Monitor. Die CPU wird entlastet, sie gibt nur Koordinaten und Befehle an den Grafikprozessor weiter, der diese dann berechnet und in den Video-Ram speichert.
Die Funktionen des Grafikprozessors variieren sehr stark. In den einfachsten Fällen zerlegt die System-CPU, die die grafische Anwendung bearbeitet, die von ihr erstellten einfachen Ausgabeformen (z.B. Linien, Kreise, Texte, ...) in einzelne Bildpunkte und trägt diese in den Videospeicher ein. Bei leistungsstärkeren Grafiksystemen ist eine Raster-Hardware enthalten, die Zeichenalgorithmen selbständig durchführen können. Diese Bausteine werden Drawing-Controller genannt. Als Grafikprozessor spricht man meistens, wenn Drawing-Controller und Ausgabeprozessor auf einem Baustein sitzen, beide Teile an.
Der Drawing-Controller nimmt die einfachen grafischen Daten von der System-CPU mit entsprechenden Befehlen entgegen, zerlegt sie in einzelne Bildpunkte und trägt sie dann in den Bildwiederholspeicher ein.
Bei den ersten Controllern waren nur Befehle zum Zeichnen von Punkten, einzelnen Linien, Rechtecken, Kreisbögen und Buchstaben möglich, doch bei den neueren Controllern sind auch Ausgaben von Linienzügen (Polyline) und geschlossenen Linienzügen (Polygon), Kreisen, Ellipsen und Füllungen von Flächen möglich, was besonders bei den 3D-Grafikkarten eine große Rolle spielt, da Oberflächentexturen von 3D-Anwendungen aus gefüllten Polygonen zusammengesetzt werden.
Mit der Weiterentwicklung der Grafikcontroller erhöhte sich nicht nur die Anzahl der zu verarbeitenden einfachen grafischen Daten, sondern die CPU wurde deutlich entlastet. Die zugeordneten Attribute, wie Farbe oder Erscheinungsform wird von den Grafikcontrollern neuerer Form vereinfacht.
Eine andere wichtige Funktion ist das Klippen, was soviel bedeutet, wie geometrische Figuren und Texte in einem genau beschriebenen Bildbereich darzustellen. Alle Teile, die diesen Bereich überlappen oder außerhalb diesem liegen, dürfen nicht in den Speicher geschrieben werden. Dadurch können auf dem Bildschirm Fenster verschieden Inhalts dargestellt werden.
Durch die gestiegenen Anforderungen und der gesteigerten Funktionalität, beschreibt der Ausdruck Grafikprozessor nicht mehr nur die Zeichenkontroller und Ausgabeprozessor, sondern es werden auch schon allgemein programmierbare Funktionen effizient ausführbar und somit wird die Funktion der System-CPU ebenfalls in dem Baustein mit vereint, so bilden also Grafikprozessor und Video-Ram schon ein eigenes Grafiksystem.
Der Ausgabeprozessor
Der Ausgabeprozessor steuert die Ausgabe des im Videospeicher abgelegten Bildes auf den Monitor. Er erzeugt dazu periodisch die dem auszulesenden Bildbereich zugehörigen Speicheradressen, liest die pro Adresse selektierten Pixelgruppen aus und steuert deren serielle Ausgabe. Damit bei dem Ausgabegerät ein für das menschliche Auge flimmerfreies Bild auf dem Monitor entsteht, muss der Ausgabeprozessor die gesamte Bildinformation im Speicher 60 bis 70 mal pro Sekunde auf dem Monitor ausgeben. Zugleich generiert er die zur Ansteuerung und Synchronisation des Monitors wichtigen Steuersignale und passt sie den gegebenen Monitorcharakteristika (Anzahl der darstellbaren Pixel pro Zeile und Zeilen pro Bild, horizontale und vertikale Frequenz) an.
Eine wichtige Funktion des Ausgabeprozessors in leistungsfähigen Grafiksystemen stellt die schnelle Handhabung und Manipulation mehrerer Bildausschnitte, den Fenstern dar. Um Bildfenster sinnvoll aufbauen und nutzen zu können, ist ein größerer Speicher erforderlich, als zur Darstellung des gesamten Bildschirmbereichs notwendig wäre. Ausgabeprozessoren, die Fenster verwalten, lesen je nach Anzahl der Fenster innerhalb eines Darstellungszyklus verschiedene Teilbereiche des Speichers aus und kombinieren deren Inhalte auf dem Bildschirm. Die System-CPU teilt dazu dem Ausgabeprozessor für jedes Fenster die Startadresse des darzustellenden Bildbereichs, die horizontale Fensterbreite und die vertikale Fensterhöhe mit. Durch einfaches ändern der Startadresse kann das Bildfenster gegenüber dem gesamten im Speicher abgelegten Bild horizontal und vertikal bewegt werden. Für den Betrachter ergibt das den Anschein, als ob der Fensterinhalt hinter dem Fensterrahmen vertikal oder horizontal hindurchgeschoben wurde.
Der Monitor
Der Monitor bildet den Abschluss eines Weges, den ein Bild bis zu seiner Sichtbarmachung durchlaufen muss.
Das Bild eines Monitors wird zeilenweise aufgebaut. Die Zeilen erzeugt ein Elektronenstrahl, der aus der hinteren Bildröhre nach vorne bis auf die Monitoroberfläche dringt. An der Rückseite der Bildröhre befindet sich eine negativ geladene Elektrode (Kathode), kurz vor dem Glasschirm ist eine positiv geladene Elektrode (Anode) angebracht. Von einem Hochspannungstransformator, der an die Elektroden angebracht ist, wird eine sehr hohe Spannung erzeugt. Dadurch entsteht an der Kathode ein Überschuss an negativ geladenen Teilchen, die auf den Bildschirm geschossen werden. Vorher wird der Strahl in einer Lochblende mit negativem Potential noch gebündelt und durch den Fokussierer geleitet, wo das Scharfstellen des Strahls erfolgt.
Die Richtung des Elektronenstrahls kann nun noch durch magnetische oder elektrische Felder verändert werden. Auf der Innenseite des Schirms ist eine Phosphorschicht aufgetragen, schlagen die Elektronen auf, wird derren kinetische Energie in Licht umgewandelt, dadurch werden einzelne Punkte auf dem Schirm sichtbar. Da ein ionisiertes Teilchen aber immer nur sehr kurze Zeit aufleuchtet, muss der komplette Bildschirm mindestens 70 Mal in der Sekunde aufgebaut werden, um “flimmerfrei” zu erscheinen. Je größer die Frequenz ist, desto ruhiger wirkt das Bild. Bei einem Farbonitor besteht die Leuchtschicht aus winzigen eng nebeneinanderliegenden Farbpunkten rot, grün und blau, die man als Farbtrippel bezeichnet.
Drei unabhängige Elektronenstrahlen sind notwendig um die Farbpunkte gezielt ansteuern zu können. Bei geringer Entfernung verschmelzen die Punkte für den Betrachter zu einer Mischfarbe, hier kommt die additive Farbmischung zur Wirkung.
Nun noch zu den LCD Bildschirmen, die durch ihren starken Preisverfall auch immer aktueller werden. Ein Liquid Crystal Display erzeugt Bilder mit Hilfe einer gleichmäßig strahlenden Hintergrundbeleuchtung.
Der Bildschirm besteht aus zwei übereinanderliegenden Glasplatten, zwischen denen sich ein hochverdünntes Gemisch aus Neon und Argon befindet.
In eine Platte sind längs und in eine andere querlaufende Drähte eingebaut, dadurch entsteht eine Matrix, die eine Adressierung beliebiger Stellen erlaubt. Um den adressierten Punkt wird ein elektrisches Feld aufgebaut, es kommt zu einer Gasentladung, wodurch ein Leuchtpunkt auf dem Schirm sichtbar wird.
Farben erzeugt ein Flüssigkristalldisplay durch Farbfilter vor jedem Pixel. Hier unterscheidt man je nach Anordnung zwischen der Deltaform (Dreieck) und der Vertical Stripe Form (Farben liegen nebeneinander).
IV. Bildbearbeitung:
Eigenschaften digitalisierter Bilder:
Zur Charakterisierung digitaler Bilddaten verwendet man einige mathematische Kenngrößen. Der mittlere Grauwert oder Mittelwert trifft eine Aussage über die Gesamthelligkeit des Bildes. Zur Bestimmung des Kontrastgehaltes kann man die mittlere quadratische Abweichung vom Mittelwert oder das Histogramm der relativen Häufigkeit der Grauwerte heranziehen.
Die Entropie ist ein Maß für den mittleren Informationsgehalt des Bildes.
Bildtransformation
Bildtransformationen spielen in der Bildbearbeitung eine wichtige Rolle, da man sie vorteilhaft für Bildverbesserungen und Bildrekonstruktionen einsetzten kann. Die am häufigsten eingesetzte Transformation ist die Fourir-Transformation, auf die wir nun aber nicht genauer eingehen wollen.
Bildverbesserung:
Ziel der Bildverbesserung ist es, bestimmte Informationen eines Bildes deutlicher herauszuarbeiten. Verluste an unwesentlichen Details müssen dabei in Kauf genommen werden. Grundlegende Verfahren dienen der Kontrastverbesserung, der Glättung und der kantenextraktion. Zur Beseitigung von Pixel-Störungen wird u.a. der Median-Filter eingesetzt. Zum Glätten kann man verschiedene Tiefpass-Filter, zum Kantenschärfen Hochpass-Filter verwenden. Um feine Nuancen besser unterscheidbar zu machen, setzt man die Graustufen von Grautonbildern in unterschiedliche Farben um, da das Auge Farbtöne besser unterscheiden kann. Dies nennt man Pseudo-Farb-Verfahren.
Bildrekonstruktion:
Bildrekonstruktion ist ein Bereich der Bildverarbeitung, der sich mit der Wiederherstellung gestörter oder verzerrter Bilddaten beschäftigt. Eine Ansatzmöglichkeit zur Rekonstruktion ist die Inverse Filterung. Bei bekannter Übertragungsfunktion der Störung oder Verzerrung kann das ursprüngliche Bild durch Fourir-Transformation des gestörten Bildes, Multiplikation mit dem Inversen und Fourir-Rücktransforation gewonnen werden.
Diese Verfahren wird zur Beseitigung von geometrischen Verzerrungen z.B.: entstanden durch Bewegung der Kamera bei der Aufnahme, verwendet.
Bildsegmentierung:
Das Ziel der Bildsegmentierung ist es, die Fläche eines vorbearbeitenten Bildes in zusammengehörige Bereiche mit einheitlichen Eigenschaften, sogenannte Regionen, einzuteilen. Die Segmentierung ist eine Vorstufe zur Szenen- oder Bildanalyse, bei der Informationen aus dem vorverarbeiteten Bild gewonnen werden. Es gibt zwei Ansätze zur Segmentierung: Das Zusammenfinden von Punkten mit ähnlichen Eigenschaften und das Suchen von Grenzen oder Kanten im Bild.
- Quote paper
- Florian Eisenprobst (Author), 1999, Bildbearbeitung und Bildverarbeitung, Munich, GRIN Verlag, https://www.grin.com/document/98600
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.