Ein weltweiter Standard, der entwickelt wurde, um die Beschränkungen von ASCII zu überwinden, der erstmals im Oktober 1991 als Standard veröffentlicht wurde.
Bei Unicode verwendet jedes Zeichen eine eindeutige Zahl zwischen U+0000 und U+10FFFF, Unicode kann 8-Bit, 16-Bit oder 32-Bit sein. Zahlen, mathematische Notationen, beliebte Symbole und Zeichen aus allen Sprachen werden mit einem Codepunkt versehen, z. B. ist U+0041 ein englischer Buchstabe „A“. Unten sehen Sie ein Beispiel dafür, wie „Computer Hope“ in englischem Unicode geschrieben werden würde.
U+0043 U+006F U+006D U+0070 U+0075 U+0074 U+0065 U+0072 U+00A0 U+0048 U+006F U+0070 U+0065
Ein gängiger Unicode-Typ ist UTF-8, das eine 8-Bit-Zeichencodierung verwendet. Es wird häufig in Linux-Umgebungen verwendet, um fremde Zeichen zu codieren, damit sie bei der Ausgabe in eine Textdatei richtig angezeigt werden.
Microsoft Windows-Benutzer können auch Unicode-Codepunkte finden, indem sie das Zeichentabellen-Dienstprogramm ausführen.
Wenn Sie in Microsoft Word ein Zeichen markieren und die Tastenkombination Alt+X drücken, wird der Unicode-Code für dieses Zeichen angezeigt.
ASCII, BOM, Zeichen, Codepage, Softwarebegriffe, UTF