Tout d'abord, rappelons ce qu'est l'Unicode. Selon Wikipedia, "Unicode a été développée dans le but de remplacer l'utilisation des pages de code nationales". En effet, chaque pays ou zone régionale comme l'Europe de l'Ouest par exemple possède son propre jeu de caractères (ISO 8859-1). Cela peut poser un problème de rendu visuel (encodage des accents par exemple) pour certains logiciels qui n'utilisent pas cette norme. Il y a donc un problème de compatibilité entre les normes nationales. UTF a été créé dans le but d'uniformiser tout type d'encodage.
Google a étudié l'évolution de l'usage de l'UTF-8 dans les pages web indexées sur ses serveurs, et ce, depuis 2001. Il s'avère que si l'ASCI était à cette époque l'encodage des caractères le plus utilisé (normal étant donné qu'il représente la langue US uniquement), aujourd'hui l'Unicode représente 50% des usage à travers le monde.
A noter que l'encodage spécifique de notre région (Europe de l'Ouest - ISO8859-1), après avoir franchi près de 35% des usages, vient de tomber à moins de 20%.
Google a étudié l'évolution de l'usage de l'UTF-8 dans les pages web indexées sur ses serveurs, et ce, depuis 2001. Il s'avère que si l'ASCI était à cette époque l'encodage des caractères le plus utilisé (normal étant donné qu'il représente la langue US uniquement), aujourd'hui l'Unicode représente 50% des usage à travers le monde.
A noter que l'encodage spécifique de notre région (Europe de l'Ouest - ISO8859-1), après avoir franchi près de 35% des usages, vient de tomber à moins de 20%.
L'Unicode a eu une progression fulgurante à travers le temps, sans interruption, alors que toutes les autres normes nationales ont fortement chuté ou stagné.
Google a la capacité de faire face aux différentes langues et de s'adapter. Cette capacité devrait s'améliorer à mesure que l'Unicode deviendra plus commune. Pourquoi ne pas en faire un standard ?
Suggestion de publications disponible dans la même thématique