generell:
es gibt unsigned und signed integer, signed bedeutet, dass das höchstwertigste bit einer zahl das vorzeichen bestimmt. unsigned heißt, es werden alle bits zur darstellung der zahlen verwendet.
beispiel anhand von nem 1 byte:
1 byte = 8 bit
mit 8 bit lassen sich die (dezimal)zahlen 0-255 dual darstellen, für signed bedeutet das von -128 bis +127 weil 1 bit für das vorzeichen ist. unsigned geht der bereich 0 bis 255.
float sind kommazahlen. kommerzahlen kennt der pc aber nicht, er kann nur mit 0 und 1 umgehen. daher gibt es die umrechnungsnorm nach IEEE 754.
hierbei gilt: das erste bit ist das vorzeichen, die darauf folgenden 11 bits sind der exponent und der rest ist die mantisse. ein beispiel würde hier etwas zu weit führen, da es doch recht graue theorie ist.
nichts desto trotz kann man ein bitmuster unterschiedlich interpretieren, entweder als integer (eigentlich ganzzahl) oder als float (kommazahl) oder auch als reihe von ascii zeichen
zurück zum topic: ich hab auch vista und bei mir gibts auch n fehler in der exe, allerdings wird in GW die daten trotzdem angezeigt. eine echt nette sache, danke azunai!