Ein Bit (kurz für Binary Digit) ist die kleinste Informationseinheit in der digitalen Datenverarbeitung und Telekommunikation. Es kann einen von zwei Werten haben:0 oder 1. Bits werden zu größeren Einheiten wie Bytes (8 Bits), Kilobits (1.024 Bits), Megabits (1.048.576 Bits) und Gigabits (1.073.741.824 Bits) zusammengefasst.
Der Begriff „Bit“ wurde 1948 von Claude Shannon geprägt, einem Mathematiker und Elektrotechniker, der als Vater der Informationstheorie gilt. Shannon verwendete den Begriff „Bit“ als Abkürzung für „binäre Ziffer“, ein Konzept, das 1937 vom Mathematiker John Atanasoff eingeführt worden war.
Mit Bits wird die Datenmenge gemessen, die über einen digitalen Kommunikationskanal gespeichert oder übertragen werden kann. Beispielsweise erfordert ein typisches hochauflösendes (HD) Fernsehsignal eine Bandbreite von etwa 10 Megabit pro Sekunde (Mbps), was bedeutet, dass jede Sekunde 10 Millionen Datenbits übertragen werden.
Daten können auch in den Einheiten Byte, Kilobyte (1.024 Byte), Megabyte (1.048.576 Byte) und Gigabyte (1.073.741.824 Byte) gemessen werden. Hier ist eine Tabelle, die die verschiedenen Einheiten der Datenmessung zusammenfasst:
| Einheit | Anzahl der Bits |
|---|---|
| Bit | 1 |
| Byte | 8 |
| Kilobit (Kb) | 1.024 |
| Megabit (MB) | 1.048.576 |
| Gigabit (Gb) | 1.073.741.824 |
| Kilobyte (KB) | 8.192 |
| Megabyte (MB) | 8.388.608 |
| Gigabyte (GB) | 8.589.934.592 |
Diese Datenmaßeinheiten werden häufig in der Computer- und Telekommunikationsbranche verwendet, um die Größe von Dateien, die Geschwindigkeit von Datenübertragungen und den auf einem Gerät verfügbaren Speicherplatz zu beschreiben.