Aha, so exotische Schriften wie chinesisch, die nur eine klitzekleine Milliardenschaft auf der Welt braucht?
Und deswegen, weil sich leider um dieses Forum von der technischen Seite offenbar niemand kümmert und mal ein Häkchen an der richtigen Stelle setzt, ist UTF-8 "der letzte Scheiß"? Aha...
Zum Beispiel. Aber das war wohl nicht ausschlaggebend, denn genau dafür wurden schon 2byte große chars (wchars) eingeführt.
Die Kinder in China lernen auch zuerst die lateinischen Buchstaben. Was spricht dafür die holperige Piktogrammschrift nur noch als folkloristische Schrift beizubehalten. Selbst ägytische Hiroglyphen sind fortschrittlicher und flexibler, da im wesentlichen eine Lautschrift.
Auch Milliarden Menschen können irren...
Versteh doch bitte nicht alles falsch!
Ich habe hauptberuflich u.a. mit Zeichencodierung zu tun gehabt. Und UTF-8 macht halt an vielen Stellen Probleme! Ich halte UTF-8 für einen Fehlkonstruktion. Die spart zwar im lateinischen Raum Zeichen weil der untere Bereich mit ASCII identisch ist. Aber ansonsten ist die unpraktisch.
Btw. es gibt kaum einen gängigen Text- und XML-Editor (Ultraedit, Textpad, XMLSpy etc.pp.) der mit UFT-8 _richtig_ umgehen kann!
Glaubt man nicht, ist aber so! Habe da z.T. Tage fürs Debugging gebraucht bis ich das gemerkt hatte.
Nur weil UTF-8 "modern" ist und "flexibel" und teilweise auch verbreitet muss es noch lange nicht das nonplusultra sein. Hätte man 4byte-char eingeführt, wäre das sinnvoller gewesen. Zumal 8bit-chars auf >32bit-Rechnern eh keine Geschwindigkeitsvorteile bringen. Und das bisschen mehr an Speicherplatz für Textdateien macht auch nicht.
Ok, schlimmer als UTF-8 ist der ganze "Zoo" von ASCII-Zeichensätzen wie cp850, cp438 etc.pp. von EPSDIC gar nicht zu reden...