? Digitale Kodierung ist der Prozess der Verwendung von binären Ziffern , Buchstaben , Zeichen und andere Symbole in einem digitalen Format darzustellen. Es gibt verschiedene Arten von digitalen Codes heute weit verbreitet , aber sie dasselbe Prinzip der Kombination von binären Zahlen , um ein Zeichen darzustellen. Digitale und binäre Codierung
Computer und elektronische Geräte benötigen eine systematische und präzise Algorithmus, um Informationen zu lesen. Dieses System erfordert , dass jedes Zeichen , Buchstaben oder ein Symbol einzigartig und leicht zu unterscheiden von anderen Charakteren ist . Um dies zu tun , wird eine digitale Codierung erforderlich . In der digitalen Codierung werden Buchstaben oder Symbole durch spezifische Sätze von binären Zahlen oder Zeichen dargestellt. Zum Beispiel stellen die Zahlen 01000001 das Zeichen " A" in einem binären Code . Binär-Code , wenn auch nicht eine bestimmte digitale Codierung Technik , bietet die einfachste Erklärung für digitale Kodierung zu verstehen.
Basic- Coding -Technik
Wie der Begriff schon sagt, dreht sich digitale Kodierung Informationen in Ziffern leicht erkennbar von Computern und anderen elektronischen Geräten . Diese Stellen sind Sätze von Informationen in sehr kleine Stücke , wie Bits , unterteilt . Ein bisschen - kurz für binary digit - ist das kleinste Messung zugeordnet. Die gebräuchlichsten digitalen Codierung Techniken verwenden, um 8 bis 16 Bit pro Zeichen . Dies bedeutet, dass jeder Charakter mindestens acht alphanumerischen Zeichen in einer deutlichen Progression gesetzt hat .
Häufig Digitale Codes
Gebrauchte Es gibt verschiedene Arten von digitalen Codes verwendet in Computern heute, aber drei der am häufigsten verwendeten sind die American Standard Code Information Interchange , Extended Binary Coded Decimal Interchange -Code und Unicode. ASCII enthält über 128 verschiedene Codes, die die amerikanischen Buchstaben, Symbole und Zahlen darzustellen. Zum Beispiel wird der Buchstabe "M" in ASCII als " 077 " in digitalen Code dargestellt . EBCDIC -und Unicode verwenden die gleiche Codierung , aber sie weisen einen unterschiedlichen Satz von Symbolen für jedes Zeichen .
Alphanumerische Codierung
Die gängigste Praxis bei der Schaffung digitaler Codes verwendet alphanumerischen Zeichen. Alphanumerische Codierung kombiniert Buchstaben und Zahlen , um eine bestimmte Darstellung eines Zeichens in einem Computerprogramm zu erstellen. Zum Beispiel muss der Code "U +0041 ", das "A" in Unicode repräsentiert , Buchstaben, Zahlen und die "+ "-Symbol .