Inhaltsverzeichnis
1. Die Unterteilung des internen Speichers in ROM und RAM
1.1 Der ROM-Speicher
1.2 Der RAM Speicher
2. Der Cache-Speicher
2.1 Die Funktionsweise des 2nd-Level-Cache
2.2 Die Cache-Speicher-Varianten
3. Der Hauptspeicher
3.1 Die RAM-Varianten
3.2 SIMMs und DIMMs
4. Flash Memorys
5. Das Refreshen
6. Speicherzugriffsverfahren
6.1 Memory Paging
6.2 Memory Interleave
6.3 Shadow-RAM
7. Literaturverzeichnis
1. Die Unterteilung des internen Speichers in ROM und RAM
Grundsätzlich wird der interne Speicher in zwei Gruppen unterschieden. Er besteht aus einem festprogrammierten, und vom Anwender nicht veränderbaren Teil (ROM=Read Only Memory) und einem frei beschreibbaren (RAM=Random Access Memory).
1.1 Der ROM-Speicher
Er enthält alle Programmteile, die zur Organisation und Inbetriebnahme des Rechners nötig sind. Das sind die festprogrammierten Teile des Betriebssystems, die der Computer zum Starten benötigt. Sie melden zum Beispiel nach dem Einschalten des PC über den Bildschirm, daß eine Eingabe erwartet wird. Um den PC möglichst flexibel zu halten und vor allem auch neuere Betriebssystemversionen problemlos anwenden zu können, versucht man, den festprogrammierten Teil des Betriebssystems möglichst gering zu halten.
Der Rom-Chip ist fest programmiert und kann weder verändert noch gelöscht werden, sein Inhalt bleibt auch nach dem Ausschalten des PC bestehen. Auf die Größe des Rom-Speicher hat der Anwender keinen Einfluß, sie ist hersteller- und systembedingt. Der Umfang der ROM-Speicher, also die enthaltene Informationsmenge, ist somit von Computer zu Computer unterschiedlich. Kamen ältere Rechner noch mit 16KByte aus, haben heutige Rechner schon mal bis zu 2MByte große ROM-Speicher.
Die unterschiedlichen Bauarten des ROM:
1. Das PROM = Programmable ROM.
Diesen Speichertyp kann man mit einem speziellen Programmiergerät ein einziges Mal beschreiben. Damit lassen sich anwendungsspezifische Programme als Festwertspeicher ablegen. Auch bei abgeschalteten Computer gehen diese Daten nicht verloren.
2. Das EPROM = Eraseable Programmable ROM.
Er kann mit Hilfe von UV-Licht oder elektrischer Signale gelöscht und mit einem speziellen Gerät einige Male wieder neu beschrieben werden. Dies können allerdings nur speziell ausgerüstete EDV-Firmen.
3. Das EEPROM =Electrically Eraseable Programmable ROM.
Im Gegensatz zum EPROM läßt sich dieser Chip durch ein spezielles Programm elektrisch löschen und wiederholt beschreiben.
1.2 Der RAM-Speicher
Nur der RAM-Speicher steht dem PC als Daten- und Programmspeicher zur Verfügung.
In diesem Teil können also Programme und Daten von externen Speichern
(zum Beispiel Diskette oder Festplatte) eingelesen und dem Prozessor zur
Verarbeitung weitergegeben werden. Spricht man von Haupt- oder Arbeitsspeicher, so ist in der Regel dieser Teil des internen Speichers gemeint, da nur er einen relevanten Einfluß auf die Schnelligkeit der Arbeitsabläufe im Computer hat.
Im Gegensatz zum ROM-Speicher kann der RAM also frei beschrieben, gelesen und gelöscht werden. Allerdings speichert der RAM-Chip die Daten nur solange, wie er mit Strom versorgt wird. Mit dem Ausschalten des PC sind alle nicht gesicherten Daten unwiederbringlich verloren. Daher müssen alle eingegeben Informationen auf einem externen Datenträger
(z.B. einer Diskette oder einer Festplatte) gesichert werden.
Je größer der Arbeitsspeicher ist, desto schneller kann der Computer auch mit umfangreichen Programmen oder Dateien arbeiten, da er nicht ständig neu einlesen muß (swappen).
Der zeitintensive Datenaustausch zwischen RAM- und Externspeicher reduziert sich damit auf ein erträgliches Minimum.
2. Der Cache-Speicher
2.1 Die Funktionsweise des 2 nd -Level-Cache
Der 2nd-Level-Cache fungiert als schneller Zwischenspeicher zwischen Prozessor und Hauptspeicher. Daten, die sich die CPU schon aus dem Arbeitsspeicher geholt hat, werden im Cache-Speicher aufgehoben, obwohl sie schon verarbeitet wurden.
Es hat sich nämlich herausgestellt, daß beim Datenaustausch und bei vielen Arbeitsgängen häufig auf dieselben Daten und Befehle zugegriffen wird.
Ohne diesen schnellen Cache-Speicher müßten die Daten jedesmal von neuem aus dem relativ langsamen Hauptspeicher des Computers gelesen werden. Der Prozessor muß dafür seine laufende Arbeit unterbrechen und warten, bis die notwendigen Daten zur Weiterverarbeitung wieder bereitstehen.
Bei der Verwendung des Cache-Speichers hingegen liegen die Daten in einem speziell für den Prozessor vorgesehenen, extrem schnellen Speicher schon, bzw. noch bereit, so daß unnötige Wartezeiten vermieden werden.
Nach einem speziellen Verfahren (meist vereinfachtes LRU = Least Recently Used) werden häufig benötigte Daten länger in diesem Speicher gehalten als einige andere.
Die Zugriffe auf den Hauptspeicher werden dadurch auf das notwendige Minimum reduziert, und der Computer wird um einiges schneller. Diese Cache-Bausteine bestehen aus statischem RAM (Abkürzung: SRAM) und arbeiten deutlich schneller als das dynamische RAM (Abkürzung: DRAM) des Hauptspeichers.
Zur besseren Unterscheidung gab man diesem Cache auch die Bezeichnung L2- Cache Oder 2nd-Level-Cache. Als L1-Cache oder 1st-Level-Cache bezeichnet man den im Prozessor integrierten Cache-Speicher. Im Gegensatz zum 1st-Level-Cache, der mit dem vollen Prozessortakt arbeitet, wird der 2nd-Level-Cache normalerweise mit dem externen CPU-Takt betrieben.
Eine andere Variante des 2nd-Level-Cache beherbergt der Pentium-Pro-Prozessor.
Bei diesem Prozessor sitzt der 2nd-Level-Cache direkt neben der CPU, aber im Prozessorgehäuse. Dadurch ist eine Kopplung mit dem vollen Prozessortakt gegeben. Zusätzlicher externer Cache bei diesem Multi-Chip-Design trägt den Namen L2-Cache.
2.2 Die Cache-Speicher-Varianten Asynchrone SRAMs
Diese statischen RAMs stellen die einfachste Form der Cache-Bausteine dar. Sie arbeiten ohne vorgegebenen Takt und reagieren nur auf die sogenannten Enable- Signale.
Weiter verzichten sie auf das Zeitaufwendige RAS/CAS-Multiplexen (Raw Address Strobe/Column Address Strobe) und benötigen nicht wie DRAMs das regelmäßige Auffrischen der Speicherzellen (Refresh).
Synchrone SRAMs
Diese SRAMs entsprechen in ihrer Arbeitsweise den gerade beschriebenen asynchronen SRAMs. Sie unterscheiden sich von den asynchronen nur dadurch, daß sie mit einem zur CPU synchronen Takt arbeiten. Dadurch werden bestimmte Verzögerungen, die bei asynchronen SRAMs auftreten, verhindert.
Burst-SRAM
Als Burst bezeichnet man in der Computertechnik mehrere aufeinanderfolgende Speicherzugriffe. Nur beim ersten Zyklus wird die Speicheradresse übertragen, bei den Folgezyklen nur noch die Daten der nachfolgenden Speicheradressen.
Das Hochzählen der Speicheradressen wird entweder von Chipsatz oder vom RAMBaustein selbst übernommen. Burst-SRAM ist in der Lage, nach dem Übermitteln einer Startadresse die Folgeadressen selbsttätig zu ermitteln.
Pipelined-Burst-SRAM
Diese Cache-Bausteine, auch PB-Cache genannt, sind in der Lage, bei mehreren aufeinanderfolgenden Burst-Zugriffen ab dem zweiten Burst-Takt auf das Auslesen der Speicheradresse mit dem ersten Takt zu verzichten.
3. Der Hauptspeicher
3.1 Die RAM-Varianten DRAMs
Angefangen hat es mit den DRAMs in den sechziger Jahren. Die Firma Intel produzierte mit dem Chip 1103 einen 1KByte großen RAM-Baustein. Vorteil bei diesen dynamischen RAMs ist der geringe Fertigungsaufwand. Pro Speicherbit benötigen diese Chips nur einen Transistor und einen Kondensator - ein Vorteil gegenüber den SRAMs, die für den sogenannten FlipFlop eines Speicherbits vier bis sechs Transistoren benötigen Allerdings bringen dynamische RAMs mit ihren Kondensatoren auch Nachteile gegenüber SRAMs mit. Kondensatoren haben nun mal den Nachteil, daß sie ihre Ladung im Laufe der Zeit verlieren. Es ist also in regelmäßigen Abständen eine Auffrischung (Refresh) notwendig. Diese Auffrischung bremst natürlich den normalen Arbeitsablauf. SRAMs dagegen benötigen kein Refresh und sind deutlich schneller. Aus diesem Grunde werden die schnelleren SRAMs in der Regel nur als Cache- Bausteine eingesetzt.
FPM-DRAMs
Diese Abkürzung steht für Fast-Page-Mode-DRAMs. Ein normales DRAM greift aufgrund seiner matrixartigen Struktur in zwei Schritten auf Adressen zu. In einem Schritt wird die obere Adreßhälfte und im nächsten die untere Adreßhälfte bearbeitet. Diese sind wiederum in Zeilen und Spalten (Row und Colomn) aufgeteilt.
Man hatte dabei aber festgestellt, daß sehr oft aufeinanderfolgende Zugriffe auf die gleiche Zeilenadresse (Page) vorgenommen werden. Durch eine Änderung der RAS/CAS-Zugriffstechnik wurde es ermöglicht, innerhalb eines RAS-Zyklus bis 100µs beliebig oft andere Spalten (CAS) zu adressieren. Dieses Verfahren bringt deutliche Geschwindigkeitsvorteil gegenüber herkömmlichen DRAMs.
EDO-RAMs
Verschiedenen Boardhersteller versuchen durch einen Trick die Verzögerungen die durch den Refresh entstehen zu übergehen, indem sie zwei gleichbestückte Speicherbänke abwechselnd ansprechen (Interleaved). Während der Refresh-Phase wird somit jeweils die andere Bank genutzt.
Bei den EDO-RAMs (Extendet Data Output) ist dieses Interleaving nicht notwendig.
Diese RAMs halten die angeforderten Daten erheblich länger bereit als einfache DRAMs. Außerdem ist bei EDO-RAMs die CAS-Zykluszeit 10-15 ns kürzer.
BEDO-RAMs (Burst-EDO-RAMs)
Die Burst-Methode hat den Vorteil, daß sie eine vorgegebene Reihenfolge von Adressen aufweist. Nach Übergabe der Startadresse kann auf die Übertragung weiterer Adreßangaben in einem Zyklus verzichtet werden. Dadurch werden wieder einige Nanosekunden gespart.
SDRAMs
Fast alle Hersteller von DRAMs haben sich auf die Entwicklung und Produktion von SDRAMs geeinigt. Als SDRAMs bezeichnet man synchrone DRAMs.
Das Besondere ist, daß sich alle Signale auf ein Taktsignal beziehen.
3.2 SIMMs und DIMMs
1. SIMMs (Single Inline Memory Module)
Während früher der RAM-Speicher aus einzelnen Chips (die direkt in die Systemplatine gesteckt wurden) bestand, verwendet man heute in der Praxis nur noch SIMMs mit 72 Anschluß-Pins und 60 oder 70 ns Zugriffszeit. Die einzelnen Module bestehen aus 8 oder 9 (mit Prüfbit) Chips, womit ein "Bytebaustein" entsteht. Die auch als PS/2 SIMMs bekannten RAM-Bausteine haben die Kontakte flächenartig auf dem Keramikträger integriert.
Diese Bausätze steckt man ganz simpel auf die Steckplätze auf der Systemplatine und kann sie bei Bedarf auch wieder austauschen.
2. DIMMs (Dual Inline Memory Module)
Diese Speicherbausteine haben eine Datenbreite von 64 Bit - PS/2 SIMMs nur 32 - und sind 168 polig. Pentium PCs mit einem 64-Bit-Datenbus haben daher nur noch eine DIMM-Bank mit zwei Steckplätzen.
DIMMs erkennt man an den zwei Einkerbungen an der Kontaktleiste, SIMMs haben nur eine.
4. Flash Memorys
Sie sind Speicherchips, die wie ein ROM programmiert, zusätzlich aber elektrisch gelöscht werden können. Technisch entsprechen sie am ehesten den EEPROMs.
Sie besitzen eine höhere Speicherdichte als DRAM-Chips und benötigen keine Batterie, da sie nicht flüchtig sind. Sie sind in der Lage, Funktionen der bisherigen RAM- und ROM-Chips zu übernehmen. Neben dem Bau kleiner energiesparender Massenspeicher ist Flash von der Konzeption her auch als Ersatz für herkömmliche EPROMs, zum Beispiel als Speicher für startfähige Kopien häufig benötigter Programme, geeignet.
Die Flashtechnik findet vor allem auch als Massenspeicher in Form von Steckkarten Verwendung, also als PCMCIA -Karten (Personal Computer Memory Card International Association). Sie könnten beispielsweise BIOS-Routinen des Betriebssystems und das ganze Betriebssystem selbst inklusive der Anwendungssoftware speichern, was das Starten des PC wesentlich beschleunigen würde. Da die Flashkarten zudem keine beweglichen Teile enthalten, wenig Strom verbrauchen und sehr flach und stoßunempfindlich sind, lassen sie sich leicht transportieren, notfalls in der Brieftasche.
Rüstet man den Desktop-PC noch mit einem PCMCIA -Steckplatz aus, kann man die Daten bequem von einem zum anderem Gerät ohne umständliches Umkopieren übernehmen.
5. Das Refreshen
Durch das lästige Auffrischen der Informationen in einem dynamischen RAM-
Baustein geht kostbare Zeit verloren. Mit verschiedenen Techniken und
Optimierungsmethoden dieses Refreshes versuchen die Hersteller DRAMs immer mehr zu optimieren.
Standart Refresh
Bei diesem, auch als RAS-only-Refresh genannten, Prinzip handelt es sich um das
Refresh-Verfahren, bei dem nur das RAS (Row Address Strobe) aktiviert wird und eine Refresh-Adresse angelegt werden muß. Alle 15µs wird eine neue Adresse übertragen.
Concurrent Refresh
Dieses Prinzip verwendet einen internen Adreßgenerator, den der PC zwar auch alle 15 µs aktivieren muß, aber es wird keine Adresse übergeben. Eine andere
Bezeichnung für dieses Verfahren ist CAS-before-RAS-Refresh oder CBR-Refresh.
Hidden Refresh
Hidden Refresh ist die Ausführung des Refresh direkt nach dem DRAM-Zugriff und zeitlich kaum merklich. Die Bezeichnung Hidden Refresh in den BIOS-Einstellungen verweist dagegen auf das CBR-Refresh.
Self Refresh
Ein Refresh-Verfahren bei modernen DRAM-Bausteinen. Dabei verfügen diese RAMs über einen eigenen internen Timer und können sich das Signal zum Refresh selbst geben.
Burst Refresh
Anstelle von nur einer Refresh-Adresse werden beim Burst Refresh direkt mehrere Adressen für hintereinander ausführbare Refreshes übergeben.
Slow Refresh
Bei diesem Prinzip wird der Refresh-Zyklus einfach von 15 µs auf 30 µs oder auch 60 µs verlängert. Moderne DRAMs brauchen häufig keine Auffrischung alle 15 µs.
6. Speicherzugriffsverfahren
Außer den unterschiedlichen Technologien und Ansteuerungsverfahren von RAM- Bausteinen gibt es noch weitere Zugriffsverfahren, mit denen der Computer den Speicherzugriff beschleunigt. Solche Verfahren sind notwendig, da selbst moderne dynamische
RAM-Bausteine nicht schnell genug sind, um mit der Verarbeitungsgeschwindigkeit eines modernen Prozessors mitzuhalten. Die einfachste Art und auch billigste Lösung ist das Zwischenschalten von Wartezyklen (WS = Waitstates).
Dabei macht der Prozessor einige Systemtakte Pause, bis sich der RAM für den nächsten Zugriff wieder erholt hat. Damit ist aber keine Optimierung geschaffen, sondern lediglich ein Kompromiß getroffen worden.
Daher haben die Entwickler elegantere Verfahren entwickelt, um den Speicherzugriff zu optimieren oder zumindest zu verbessern.
6.1 Memory Paging
Der Prozessor ist in der Lage, den Speicher seitenweise zu verwalten. Es hat sich in der Praxis herausgestellt, daß logisch zusammengehörende Bytes sich meist auch auf hintereinanderliegenden Speicheradressen befinden. Durch das Memory Paging ist die Wahrscheinlichkeit sehr hoch, die nächsten benötigten Bytes für den Prozessor schon im Speicher zu haben, ohne daß der Prozessor erneut auf die RAM-Bausteine zugreifen muß.
Die Zugriffszeit verkürzt sich erheblich, und die verlangsamenden Waitstates entfallen.
6.2 Memory Interleave
Das Interleave-Verfahren verläßt sich auf die schon beim Memory Paging besprochene Tatsache, daß das nächste benötigte Byte sich in der Nähe des zuletzt gelesenen befindet. Nach dem Zugriff auf einen DRAM-Chip benötigt dieser Baustein eine kurze "Erholungsphase" zuzüglich zu der Zeit, in der er für das Bereitstellen des nächsten Schreib- oder Lesezugriffs zur Verfügung steht.
Um diese Pausen zu umgehen, legt das Memory Interleave-Verfahren aufeinanderfolgende Speicherstellen in unterschiedlichen Bereichen des RAMs ab. Während sich der eine Chip erholt, kann der Prozessor ohne Verzögerung das nächste Byte von einem anderen Chip lesen. Dieses Verfahren wird in der Regel in Kombination mit dem Memory Paging-Verfahren angewendet.
Das Memory-Interleave hat auch einen Nachteil: Es benötigt mindestens zwei bestückte Speicherbänke des gleichen Speicherbaustein-Typs für den sogenannten Zwei-Wege-Interleave oder sogar vier bestückte Speicherbänke für den noch schnelleren Vier-Wege-Interleave.
6.3 Shadow-RAM
Durch die geringe Zugriffsgeschwindigkeit der ROM-Bausteine muß der Prozessor häufiger einige Waitstates einlegen, um die benötigten Daten lesen zu können. Dies bringt unweigerlich wieder eine Verlangsamung der Programmausführung mit sich.
Beim Shadow-RAM-Verfahren dagegen werden die langsamen ROM-Routinen in den schnelleren RAM-Speicher kopiert und von dort ausgeführt.
Das System-BIOS belegt meist die oberen 64 KByte (Hexadresse F0000-FFFFF).
Im Speicherbereich 0 bis 1 MByte befindet sich auch gleichzeitig normaler DRAM- Speicher, nur ist der vom ROM belegte oder verwendete Bereich von 640 KByte bis 1 MByte ausgeblendet. Lesezugriffe des Prozessor finden also nicht auf das RAM statt, sondern auf die langsameren ROM-Bausteine.
Durch die Einstellungen des BIOS-Setups erlauben die meisten Chipsätze, diesen versteckten RAM-Bereich einzublenden und somit dem Prozessor zu einem Zugriff auf die RAMs zu veranlassen. Nach dem Kopieren der ROM-Inhalte in das schnellere RAM wird dieser
Speicherbereich mit einem Schreibschutz versehen, um ungewollte Manipulationen zu verhindern. (ROM Daten dürfen ja nicht grundlegend verändert werden).
Das muß aber nicht immer einwandfrei funktionieren. Wenn mehrere Erweiterungskarten beim Start Initialisiert werden, kann es unter Umständen zu Timing-Problemen beim Einsatz von Shadow-RAM kommen. Es macht sich durch Fehlfunktionen der entsprechenden Steckkarte wie zum Beispiel Netzwerkkarte, Grafikkarte oder Controller Karten bemerkbar.
In diesem Falle bleibt dem Anwender nichts anderes übrig, als es mit Veränderungen des BIOS-Setups zu probieren.
Abbildung in dieser Leseprobe nicht enthalten
(Quelle: Pentium und Pentium Pro, Ralf Weber, Sybex Verlag GmbH Düsseldorf, 1996, Seite 35)
7. Literaturverzeichnis
Pentium und Pentium Pro Ralf Weber
Sybex Verlag GmbH Düsseldorf, 1996
PC-Wissen
Arthur Dickschus
Markt&TechnikBuch und Software-Verlag GmbH, 1997
Duden "Informatik"
Hermann Engesser
Dudenverlag München, 1988
Arbeitsbuch PC-Hardware
Gebhard Joachim Oerter und Herwig Feichtinger
Franzis-Verlag GmbH München, 1991
Notebooks richtig einsetzen
Thomas Jungbluth
Häufig gestellte Fragen
Was ist der Unterschied zwischen ROM und RAM?
Der interne Speicher wird in ROM (Read Only Memory) und RAM (Random Access Memory) unterteilt. ROM ist ein festprogrammierter, nicht veränderbarer Speicher, der Programmteile zur Organisation und Inbetriebnahme des Rechners enthält. RAM ist ein frei beschreibbarer Speicher, der als Daten- und Programmspeicher dient.
Welche Arten von ROM-Speichern gibt es?
Es gibt verschiedene Bauarten von ROM, darunter PROM (Programmable ROM), das einmalig beschrieben werden kann; EPROM (Eraseable Programmable ROM), das mit UV-Licht oder elektrischen Signalen gelöscht und neu beschrieben werden kann; und EEPROM (Electrically Eraseable Programmable ROM), das elektrisch gelöscht und wiederholt beschrieben werden kann.
Was ist der Zweck des Cache-Speichers?
Der Cache-Speicher, insbesondere der 2nd-Level-Cache, dient als schneller Zwischenspeicher zwischen Prozessor und Hauptspeicher. Er speichert häufig benötigte Daten, um Wartezeiten zu vermeiden und die Geschwindigkeit des Computers zu erhöhen.
Welche Varianten von Cache-Speichern gibt es?
Es gibt verschiedene Cache-Speicher-Varianten, darunter asynchrone SRAMs, synchrone SRAMs, Burst-SRAMs und Pipelined-Burst-SRAMs (PB-Cache).
Was sind die verschiedenen RAM-Varianten?
Zu den RAM-Varianten gehören DRAMs, FPM-DRAMs (Fast-Page-Mode-DRAMs), EDO-RAMs (Extended Data Output), BEDO-RAMs (Burst-EDO-RAMs) und SDRAMs (Synchronous DRAMs).
Was sind SIMMs und DIMMs?
SIMMs (Single Inline Memory Module) und DIMMs (Dual Inline Memory Module) sind Speichermodule. SIMMs haben 72 Anschluß-Pins, während DIMMs eine Datenbreite von 64 Bit und 168 Pole haben.
Was sind Flash Memorys?
Flash Memorys sind Speicherchips, die wie ein ROM programmiert, aber zusätzlich elektrisch gelöscht werden können. Sie sind nicht flüchtig und werden oft als Massenspeicher in Form von Steckkarten verwendet.
Was bedeutet Refreshen im Zusammenhang mit RAM?
Refreshen bezieht sich auf das Auffrischen der Informationen in einem dynamischen RAM-Baustein, um den Datenverlust zu verhindern. Es gibt verschiedene Refresh-Techniken wie Standard Refresh, Concurrent Refresh, Hidden Refresh, Self Refresh, Burst Refresh und Slow Refresh.
Welche Speicherzugriffsverfahren gibt es?
Es gibt verschiedene Speicherzugriffsverfahren, um den Speicherzugriff zu beschleunigen, darunter Memory Paging, Memory Interleave und Shadow-RAM.
Was ist Memory Paging?
Memory Paging ist ein Verfahren, bei dem der Prozessor den Speicher seitenweise verwaltet. Da logisch zusammengehörende Bytes sich meist auch auf hintereinanderliegenden Speicheradressen befinden, erhöht sich die Wahrscheinlichkeit, dass die nächsten benötigten Bytes bereits im Speicher vorhanden sind.
Was ist Memory Interleave?
Memory Interleave ist ein Verfahren, bei dem aufeinanderfolgende Speicherstellen in unterschiedlichen Bereichen des RAMs abgelegt werden, um die "Erholungsphase" eines Chips zu umgehen. Während sich ein Chip erholt, kann der Prozessor das nächste Byte von einem anderen Chip lesen.
Was ist Shadow-RAM?
Shadow-RAM ist ein Verfahren, bei dem die langsamen ROM-Routinen in den schnelleren RAM-Speicher kopiert und von dort ausgeführt werden, um die Programmausführung zu beschleunigen.
- Quote paper
- Andreas Hirtreiter (Author), 1997, Der interne Speicher und Speicherzugriffsverfahren, Munich, GRIN Verlag, https://www.grin.com/document/96295