Der Unterschied zwischen Gibibyte & Gigabyte

February 23

Die Gibibyte und das Gigabyte sind beide Symbole für digitale Informationseinheiten, die am häufigsten gefunden in Computersystemen. Der wesentliche Unterschied zwischen den beiden Einheiten ist, dass die Gibibyte von Gigabyte, ersetzen das Gigabyte als veraltete Einheit Betrag abgeleitet ist. Die beiden Einheiten sind gleichbedeutend mit dem binäre Präfix (Potenzierung) zur Berechnung der Menge an Informationen, die im Vergleich zu den standard-Byte.

Digitale Informationen-Größen

Die am häufigsten verwendete Informationen Größe in Computer-Architektur ist das Byte. Das Byte stellt acht Bits von Informationen, mit den Bits wird digital binären Code, der durch ein Computersystem kognitive Objekte erstellen entziffert ist. Historisch gesehen war ein Byte die Anzahl der Bits verwendet, um ein einzelnes Zeichen von Text in einem Computer zu kodieren. Der Begriff "Giga" ist ein Präfix, platziert auf dem Byte, zehn auf die neunte Potenzierung oder 1 Milliarde Bytes darstellt. Der Begriff "Gibi" ist, dass eine standardisierte Berechnung basiert auf der Berechnung von "Giga", sondern stattdessen zwei an den dreißigsten Potenzierung und seinen respektvollen Betrag in Byte berechnet.

Das Gigabyte

Das Gigabyte ist eine wesentlich große Menge an digitalen Informationen. Ihre repräsentative Berechnung von 1 Milliarde Bytes dient in den gebräuchlichsten Computeranwendungen, häufig als GB dargestellt. Das Konzept leitet sich von dem Internationalen Einheitensystem die um das Konzept der Berechnungen mit der Basiseinheit zehn basiert. Betriebssystemen wie Microsoft Windows und ältere Versionen des Apple Betriebssystems mithilfe einer weiteren Berechnung--die Gibibyte Berechnung--digitale Größen von Objekten mit dem Computer dar. Dies ist der Grund, warum, den manche Geräte wie externe Festplatten mit einer Hersteller-Bewertung Kapazität von 400 GB vom Betriebssystem als nur 372 Gigabyte gemeldet werden könnte.

Die Gibibyte

Die Gibibyte gebildet und standardisiert von der International Electrotechnical Commission 1998 im Rahmen der IEC 60027-2 veröffentlichten Standards freigeben. Seine Nummer in Byte tatsächlich beläuft sich auf 1,073,741,824 und ist in gängigen Computeranwendungen wie RAM-Kapazität verwendet. Der Begriff wird manchmal gleichbedeutend mit der ein Gigabyte und es ist in der Regel in Produkt des Herstellers wie bei der Verwendung dieser separaten berechneten Betrag repräsentativ von Gigabyte im System skizziert.

Der Unterschied

Einfach beschrieben, ist der größte Unterschied die Mathematik hinter den beiden Byte-Erweiterungen. Computerspeicher ist in Vielfachen von Base 2 (binär) gerichtet, so dass Computer-Features, die physischen Entwurf verwenden die Gibibyte Berechnung verwenden, um die Menge an digitalen Informationen darzustellen. Auf der anderen Seite im virtuellen Speicher, binäre Messung ist nicht notwendig und die Berechnung durch die Basis von zehn wird verwendet, um ein Gigabyte darstellen. Die meisten Computerhersteller beachten ihre Größe-Berechnung direkt auf dem Produkt oder der Verpackung, den Verbraucher den Unterschied verstehen zu helfen.