16 und 32 Bit Code
- Bit (Abk. f. "binary digit", "Binärziffer")
- Der Unterschied zwischen 16-Bit- und 32-Bit-Code liegt darin, wieviel Daten der Code in
einem Arbeitsgang verarbeiten kann.
- Ein Stück eines 16-Bit-Codes kann bis zu 16 Bits
an Daten gleichzeitig verarbeiten, und eine 16-Bit-Zahl kann Werte bis zu 65.535
speichern. Wenn jedoch höhere Zahlen verarbeitet werden müssen, sind hierzu
zusätzliche Vorgänge erforderlich.
- Ein Stück eines 32-Bit-Codes andererseits kann 32
Bits an Daten gleichzeitig verarbeiten; was bedeutet, daß Werte bis 4 GB gehandhabt
werden können. Durch die Fähigkeit, sehr hohe Werte in nur einem Arbeitsgang
verarbeiten zu können, hat der 32-Bit-Code einen klaren Leistungsvorteil gegenüber dem
16-Bit-Code.Der 32-Bit verarbeitet 16-Bit-Daten jedoch mit derselben Geschwindigkeit
wie 16-Bit-Code.