Der Unterschied zwischen VGA und ein XGA-Monitor

May 5

Der Unterschied zwischen VGA und ein XGA-Monitor

VGA oder video Graphics Array wurde 1987 von IBM eingeführt. Bald wurde es der Industrie standard für IBM-kompatible Computer. Im Jahr 2010 immer noch alle PCs im VGA-Modus booten. XGA oder Erweiterte Grafiken Array, 1990 eingeführte ist VGA-Technologie der neueren Generation. Trotz der geringfügigen Unterschiede zwischen die beiden Darstellungsarten, XGA Monitore sind abwärtskompatibel mit VGA-Technologie.

Auflösung

Der Hauptunterschied zwischen VGA- und XGA Monitore ist die Bildschirmauflösung. Ein VGA-Monitor hat eine Auflösung von 320 mal 200 mit 256 Farben oder 640 x 480 mit 16 Farben. Ein XGA-Monitor hat eine Auflösung von bis zu 1024 x 768.

Anzeigenspeicher

Der erforderlichen für einen VGA-Monitor Display-Speicher beträgt 256 Kbyte. Ein XGA-Monitor kann von 512 KB bis 1 MB erfordern.

Aktualisierungsrate

Refresh Rate bezieht sich auf die Anzahl der Frames pro Sekunde angezeigt und wird in Hertz (Hz) gemessen. Niedrigere Bildwiederholraten machen den Bildschirm zu flackern erscheinen. VGA-Monitore hatte ursprünglich eine Bildwiederholrate von 60 Hz. XGA Monitore hatte eine Aktualisierungsrate von 70 Hz.