Une lecture intéressante sur #Unicode et la #typographie. Le texte est très érudit et fait par quelqu’un qui connait très bien son sujet. On n’y trouvera pas d’erreurs techniques (mais pas mal de fautes d’orthographe, paradoxalement).
►http://www.cairn.info/revue-document-numerique-2002-3-page-105.htm
Mais, et c’est un gros Mais, au lieu de présenter les points qu’il
cite comme « dangers possibles pour le typographe », il les présente
comme « erreurs ou limites d’Unicode ». Et, là, il a presque toujours
tort. Parce qu’il demande à Unicode ce que ce dernier ne peut pas
donner. Même en US-ASCII, il n’est pas possible de composer
correctement (au sens typographique) un texte brut (songez à l’espace avant les aractères comme ? ou :). On a besoin de
contexte (sinon, #TeX aurait pu être seulement un formateur, sans être
en prime un langage...). A fortiori en Unicode, norme qui, comme
US-ASCII, ne s’occupe que de texte brut, mais qui est plus riche
qu’US-ASCII et donc contient plus de pièges. Les limitations que
l’auteur prête à Unicode sont donc uniquement des limitations du texte
brut. Et la solution n’est pas de modifier Unicode (il ne dit
d’ailleurs pas comment...) mais d’ajouter les éléments manquants (en
utilisant TeX, XML, etc).
Quand à son modèle glyphe/caractère, je vois l’intérêt intellectuel
mais je vois moins l’intérêt pratique. Un caractère (au sens que les
informaticiens donnent à ce mot) est une modélisation. Comme tel, il
ne contient pas toute l’information. La carte n’est pas le
territoire, sinon elle serait inutile car impossible à manier. Un
caractère modélisé par Unicode est bien moins riche qu’un caractère
étudié par l’érudit et manque de plein de détails : c’est bien pour
cela que cette modélisation est utile, parce qu’elle coupe pas mal
d’informations.