AW: Bildpunkte x Farbtiefe = Speichergröße
"4320000Byte = 4,3MB"
also ich komme da nur auf rund 4,12 MB
hennetv spricht da ein interessantes Thema an, und um es vorweg zu nehmen, sowohl seine Definition als auch meine (gerundete) Angabe sind richtig und auch wieder nicht ... es kommt halt darauf an.
Aber worauf denn nun?
Das Dilemma besteht einzig und alleine in der Definition der Angaben, hier treffen zwei Welten aufeinander.
Da wäre zum einen das Dualsystem oder auch Binäres System, dieses basiert auf Zehnerpotenzen zur Basis 2, was sich darin begründet, dass ein Bit nur zwei Zustände einnehmen kann, 0 oder 1.
Zum anderen haben wir das Dezimalsystem, welches auf Potenzen zur Basis 10 beruht.
Der Unterschied beim Rechnen ist nun der, dass im Binären System 2^10 = 1024 ergibt, während im Dezimalsystem 10^3 = 1000 ergibt. Gemeint ist ein und dasselbe, aber die Werte stimmen hier nicht überein.
Jeder kennt das, man kauft eine Festplatte mit z.B. 80GB und Windows meldet einem einen deutlich kleineren Wert. Auch das ist darin begründet, dass Windows nach wie vor im Binären System rechnet, tatsächlich sind es 80GB, aber eben nur dann, wenn die Definition entsprechend gewählt wird.
Dem Chaos wollte die ICE (Normungsgremium für Elektrotechnik) vor ca. 11 Jahren entgegenwirken und einen neuen Standard ins Leben rufen, der da für einheitliche Angaben sorgen sollte, schon alleine deshalb, um der potentiellen Gefahr von fatalen Fehlberechnungen entgegen zu wirken. So ganz ist das aber bis heute nicht gelungen, auch wenn ein paar neue Definitionen hinzugekommen sind.
So wie hennetv rechnen selbst die meisten Internetrechner, also nach dem Binären System. Für diese Angabe wurde aber zur besseren Unterscheidbarkeit ein neuer Begriff ins Leben gerufen, und zwar in diesem Falle das "Mebibyte", Symbol ist das MiBit oder auch MiB. Danach wären 4.11987 richtig. Ich dagegen habe den Wert in Megabyte, Symbol MB, angegeben, was nach neuem Standard tatsächlich 4,3MB (gerundet) entspricht.
Ergo: Das Chaos ist perfekt, denn nur wenn die neuen Standards und die dafür speziell geschaffenen neuen Symbole verwendet werden, ist klar, was eigentlich gemeint ist. Ignoriert man aber neuen und alten Standard sowie deren Unterscheidungsmerkmale, dann treffen Binäres und dezimales System wieder ungefiltert aufeinander, mit eben genau den Differenzen, über die so viele User tagtäglich stolpern...
Entscheidend ist also, nach welchem System man die Werte umrechnet und wie man diese Ergebnisse deklariert.
Gruß
Frank
(Falls dieser Beitrag inhaltliche Fehler aufweisen sollte, dann hackt bitte nicht darauf herum, sondern korrigiert/ergänzt das bitte im Folgenden...
)