Typografie im WWW (II)

Text und Fonts

Die meisten Macintosh-Nutzer sind schon auf Webseiten mit unerträglich winzigem Text gestoßen. Wer noch nicht, sollte ein paar Minuten durch Microsofts Website browsen - hier besonders die Seiten, die Windows gewidmet sind -, wo es für Macianer nicht absonderlich ist, Text mit einer Höhe von 1 bis 4 Pixels zu sehen. Dieses Phänomen ist nicht einmal auf das Web beschränkt. Wie oft ist man nicht schon gezwungen gewesen, ein Windows-
Dokument zu bearbeiten, dessen Urheber dachte, dass eine 10-Punkt-Times eine wunderbare Bildschirmschrift sei? Oder vielleicht mussten Sie schon einmal mit einem Datenblatt arbeiten, das mit der Arial in 9 Punkt formatiert war? Haben die Windows-Nutzer eigentlich eine Art Teleskopblick, der den Text für sie größer erscheinen lässt? - Genau das!

Die Konfusion beginnt mit einer Einheit, die fast jeder benutzt: dem typografischen Punkt. Die Leute benutzen täglich den Punkt; eine 12-Punkt-Schrift für einen Brief oder 36 Punkt für eine Überschrift. Aber was ist ein Punkt?

Viele werden sagen, dass 1 Punkt gleich 1/72 Zoll (inch) ist. Das stimmt; aber nur für die Bilddarstellung bei den meisten Computern incl. Apples QuickDraw und Adobes PostScript.
Außerhalb der Computerei variiert die Definition des Punktes zwischen verschiedenen Maßsystemen, von denen keines den Punkt genau gleich einem 72stel Zoll setzt. Technisch gesehen, ist der (anglo-amerikanische) Punkt (point) ein Zwölftel eines Pica. Und was ist ein Pica?
Das erste moderne Punkt-System wurde 1737 von Pierre Fournier veröffentlicht, der eine 12-Punkt-Einheit benutzte, die 0,1648 Zoll betrug und die er Cicero nannte (weil er gerade die Reden Ciceros für ein Buch setzte). Damit war der Punkt eine Einheit von der Länge 0,0137 Zoll. Im Jahre 1770 wandelte François Ambroise Didot das Fournier-System, damit es mit dem damaligen französischen Fuß synchron lief, und schuf damit ein Pica von 0,1776 Zoll, das aus 12 Punkten à 0,0148 Zoll bestand. Wie das Schicksal so spielt, übernahmen die Franzosen Ende des 18. Jahrhunderts das metrische System, aber Didots System war und blieb einfluß:reich und wird in Europa noch weithin benutzt.
Im didotschen System ist ein Pica größer als 1/6 Zoll, und damit ist sein Punkt - noch immer der Didot-Punkt genannt - eben größer als 1/72 Zoll. Die USA machten natürlich ihr eigenes Ding: Sie übernahmen ab 1879 ein von Nelson Hawks entwickeltes System - der glaubte, die Idee von einem Punkt-System sei seine und seine allein. Wie dem auch sei, nach einem Jahrzehnt dominierte das Hawks-System das US-amerikanische Druck- und Verlagswesen. Und heute misst ein amerikanisches Pica 0,1660 Zoll, knapp ein Sechstel, und ein solcher Punkt - auch pica point genannt - ist 0,0138 Zoll. Sehr dicht damit am Wert des fournierschen Originals, aber immer noch ein bißchen weniger als 1/72 Zoll.
Ebenfalls 1879 konvertierte Hermann Berthold das didotsche Punkt-System ins metrische. Das Didot-Berthold-System wird noch heute in Deutschland, Russland und Osteuropa verwendet. Und, um es noch verwirrender zu machen: viele Europäer messen Schrift direkt in Millimetern und übergehen den Punkt damit völlig.
Der Begriff Pica könnte diejenigen verwirren, die alt genug sind, um sich an Schreibmaschinen und Typenrad-Drucker zu erinnern. Diese beschrieben Schrift mit dem Terminus pitch bzw. wie viele Buchstaben horizontal in einen Zoll »gingen«. Eine Pica-Schrift entsprach 10 Buchstaben pro Zoll, Elite 12 und Micro-Elite 15. Heutzutage wird man diese pitches mit einer nicht-proportionalen Schrift (monospaced font) wie Courier in 12, 10 oder 8 Punkt simulieren.
Um nun zu verstehen, warum Text auf Windows-Webseiten mit einem Macintosh oft zu klein aussieht, kann man dasselbe tun wie der Computer: annehmen, dass es 72 Punkt pro Zoll gibt.

Spricht man von einem Text in einer bestimmmten Größe in Punkt, so meint man die Höhe des Textes, nicht seine Breite oder die Maße eines bestimmten Buchstabens/Zeichens (auch Glyphe genannt) einer Schrift (Font). Wenn also 72 Punkt ei Zoll ausmachen so könnte man denken, 72-Punkt-Zeichen seien ein Zoll hoch. Doch damit liegt man fast immer falsch. Die Maximalhöhe eines Textes wird gemessen vom höchsten Punkt der längsten Oberlänge (allgemein ein kleines d oder l) oder eines Großbuchstabens bis zum tiefsten Punkt der längsten Unterlänge (gewöhnlich ein kleines j oder y) einer Schrift. Die meisten Glyphen eines Fonts benötigen nur einen Teil dieser Gesamthöhe und sind daher kleiner als ein Zoll bei 72 Punkt.
Wen das nicht überzeugt, der denke an den Punkt als Satzzeichen: Bei jedem Schriftgrad nimmt dieser Punkt nur einen Bruchteil der Höhe ein, die von ziemlich allen anderen Zeichen dieser Schrift eingenommen wird. Denn bei einer 72-Punkt-Schrift erwartet niemand, dass der Satzpunkt ein Zoll groß wäre. Kleinbuchstaben (auch Gemeine oder Minuskeln genannt) nehmen in der Regel weniger vertikalen Raum ein als Großbuchstaben (auch Versalien oder Majuskeln), und diese üblicherweise zwei Drittel des gesamten Vertikalraumes. (Wen's interessiert: Der größte Buchstabe eines Fonts ist überwiegend das große J, da es oft noch eine Unterlänge hat.)
Um die Angelegenheit noch komplizierter zu machen, brechen manche Schriften diese Regeln. Spezielle Symbole, diakritische Zeichen und Interpunktion können die durch eine Punktgröße spezifizierten Grenzen überschreiten, wenngleich es auch recht selten ist, dass eine einzelne Glyphe sowohl die Ober- wie die Untergrenze durchstößt. Andere Fonts wiederum schöpfen nicht die volle zur Verfügung stehende Vertikalhöhe aus: Daher sieht etwa die Times kleiner aus als andere Schriften desselben Schriftgrades.
Wenn der Punkt der Indikator für die Texthöhe ist, wie steht es dann bei der Textbreite? Anders als in Punkt, der ein (fast) absolutes Maß darstellt, ist es bei der Breite das Em (oder em). Es entspricht dem Punktwert des gewählten Schriftgrades; bei einer 24-Punkt-Schrift ist das Em dann 24 Punkt breit. Der deutsche Setzer spricht auch von einem Geviert, also einem Quadrat im vorliegenden Schriftgrad, etwa beim Zeileneinzug.
Die Einheit Em basiert ursprüglich auf dem versalen M, das zu Zeiten des Bleisatzes meist der breiteste Buchstabe einer Schrift war. Heutzutage ist das M gewöhnlich kein Em breit, so dass vor und hinter ihm ein wenig Raum ist. Die Bedeutung des Em liegt darin, dass es eine relative Einheit ist.

Wenn wir jetzt wissen, wie Text gemessen wird, lautet die Frage: Wie nutzt ein Computer diese Information, um Text auf dem Bildschirm zu zeigen?
Sagen wir, es wird ein längerer Text geschrieben, der mit Kapitelüberschriften in 18 Punkt versehen ist. Zunächst muss der Computer wissen, wie hoch 18 Punkt sind. Da er ja annimmt, dass es 72 Punkt pro Zoll gibt, ist das einfach: 18 Punkt sind 18/72 Zoll bzw. genau ein Viertel. Der Rechner geht nun dazu über, Text auf dem Monitor mit der Höhe von einem Viertel Zoll zu zeigen.
Und jetzt wird's merkwürdig. Der Computer hät den Bildschirm für ein kartesisches (oder ist es kartesianisches?) Gitter, bestehend aus Pixels bzw. Rasterpunkten (dots). Für einen Rechner ist der Monitor soundso viele Pixels breit und soundso viele hoch, und alles auf ihm wird mithilfe von Pixels gezeigt. Daher wird die physikalische Auflösung eines Bildschirms in Pixels pro Zoll (pixels per inch, ppi) oder, verbreiteter, Rasterpunkten pro Zoll (dots per inch, dpi) ausgedrückt. Um nun 18-Punkt-Text, also die Höhe eines Viertel Zolls, zu zeigen, muss der Computer wissen, wie viele Pixels in einen Zoll »passen«. Man sollte glauben, dass der Rechner, um dies heraus zu finden, mit dem Monitor über dessen physikalische Auflösung reden würde - aber das ist falsch. Stattdessen stellt der Rechner eine Vermutung darüber an, wie viele Pixels in einen Zoll gehen, unabhängig von der Größe, Auflösung etc. des Monitors.
Benutzt man einen Mac, nimmt der Rechner immer an, der Monitor zeige 72 Pixels pro Zoll, also 72 dpi. Bei Windows vermutet der Computer überwiegend, der Bildschirm zeige 96 dpi; doch wenn man »große Fonts« wählt, glaubt Windows, es könne 120 dpi zeigen. Bei Unix variiert dies, doch liegt es im allgemeinen zwischen 75 und 100 dpi. (Die meisten grafischen Umgebungen für Unix bieten die Möglichkeit, dies zu konfigurieren. Und bei Windows NT etc. soll es auch ein dpi-setting geben.)
Das grundlegende Problem bleibt jedoch bestehen: Der Computer hat keine Ahnung von der physikalischen Auflösung des Bildschirms. Das bedeutet, dass ein Mac 18 Pixels verwendet, um einen 18-Punkt-Text darzustellen, Windows typischerweise 24, Unix zwischen 19 und 25 und Windows bei großen Fonts 30 Pixels. Daher sehen die meisten Windows-Benutzer Text, der um 33 Prozent größer ist als Text auf dem Mac - vom Macintosh her gesehen haben die Windowser tatsächlich einen Teleskopblick.

Jetzt wissen wir, dass, aber noch nicht, warum dies so ist.
Sagen wir, ein Bildschirm - oder das Fenster eines Browsers - misst 640 x 480 Pixels. Abzüglich der Titel- und Menüleisten und anderer Elemente bleibt ein Raum, in dem der Mac 40 Zeilen eines 12-Punkt-Textes mit Kompreß-Zeilenabstand (also ohne zusätzlichen »Durchschuss«) zeigen kann. Unter denselben Umständen kann Windows lediglich 32 Zeilen darstellen: Da es mehr Pixels zum »Zeichnen« des Textes braucht, passt weniger Text in den Raum. Und somit wählen Windows-basierte Webdesigner meist kleinere Schriftgrade, um mehr Text in ein gegebenes Feld zu stellen - womit Macintosh-Benutzer einen Doppelschlag erleben. Text, der auf dem Mac-Monitor ohnehin weniger Pixels beansprucht, wird nochmals in seiner Größe reduziert - bis hin zur Unlesbarkeit. Warum nun haben Windows und Macintosh so unterschiedliche Ansätze bei der Bildschirm-
Auflösung?
Zumindest beim Mac gilt, dass es zu tun hat mit WYSIWYG (what you see is what you get: was du - auf dem Monitor - siehst, ist, was du - im Druck - erhältst). Der Mac verbreitete ab 1984 die grafische Benutzer-Schnittstelle; und Apple bemühte sich darum, dass die physikalische Bildschirmdarstellung der Druckausgabe so nahe wie möglich kam. Daher korrespondierten hier Pixels mit Punkten: So, wie der Mac glaubte, dass 72 Punkt ein Zoll seien, zeigte er 72 Pixels pro Zoll.
Jedoch: Dies alles gilt inzwischen, rund 20 Jahre später, nicht mehr ganz so streng. Technische und ökonomische Entwicklungen haben dazu geführt, dass die Bildschirme am Mac und von/für Apple sich bei der Auflösung an die der PC annähern oder schon gleich bzw. z.T. schon einstellbar sind. So liegt die Auflösung eines 17-Zöllers mit 1024 x 768 bei Windows wie beim Mac zwischen 85 und 90 dpi. Damit ist allerdings auch die Philosophie des WYSIWYG zumindest aufgeweicht...

(Text auch mit Dank an Geoff Duncan)
Empfehlenswertes »antikes« Medium: Typografie am Bildschirm, Band 5 der Reihe »Satztechnik
und Typografie«, comedia-Verlag, Bern, 2001

Siehe auch: Typografie im WWW (I)

sowie:

Unicode

Zurück