Hinweis: Dieser Artikel ist ein Beitrag zum ScienceBlogs Blog-Schreibwettbewerb 2015. Hinweise zum Ablauf des Bewerbs und wie ihr dabei Abstimmen könnt findet ihr hier. Informationen über die Autoren der Wettbewerbsbeiträge findet ihr jeweils am Ende der Artikel.
sb-wettbewerb
——————————————
Es dürfte allgemein bekannt sein, dass alle Informationen, die im Computer verarbeitet werden, intern aus Nullen und Einsen bestehen. Dabei ist es egal, ob es sich um Texte, Bilder, Klänge oder Videos handelt. Alles besteht Computerintern aus Nullen und Einsen. Die Frage, wie sich aus diesen Nullen und Einsen dann Texte, Bilder oder Klänge ergeben, können schon wesentlich weniger Leute beantworten. Ich will hier auf den Teil näher eingehen, der sich mit Texten befasst, denn das Thema ist Umfangreicher, als es zunächst erscheint.

Fangen wir mal mit der Schreibmaschiene an. Wie die mechanisch funktioniert möge man in der Wikipedia oder sonstiger einschlägiger Literatur nachlesen. Hier interessiert nur, das es für jeden Buchstaben eine Art Stempel (Type genannt) gab, mit dem ein Zeichen durch ein Farbband auf’s Papier gedruckt wurde. Wenn man nun vom lateinischen Alphabet, bzw. von lateinischer Schrift ausgeht, kommt man inklusive Satzzeichen zunächst einmal auf unfähr 80 Symbole. Das sind: 26 GROSSBUCHSTABEN, 26 kleinbuchstaben, 10 Ziffern, 7 Satzzeichen (Punkt, Komma, Fragezeichen, Ausrufezeichen, Doppelpunkt, Semikolon, Anführungszeichen) und 10 weiteren Sonderzeichen: + – * / % & § = sowie öffnende und schliessende Klammern. Man kann davon ausgehen, dass gerade von den Satz- und Sonderzeichen nicht alle auf einer Schreibmaschiene vertreten waren, wobei ich das aber auch nicht überprüfen kann.

Um nun mit dem Computer einen Text zu verfassen, stellte sich die Frage, wie man denn nun die einzelnen Zeichen im Rechner darstellt. Dazu gab es verschiedene Lösungen. Die bekannteste, die auch heute noch verwendet wird, nennt sich ASCII-Code. ASCII ist dabei eine Abkürzung und steht für “American Standard Code for Information Interchange”, was auch gleich etwas über die Herkunft des Codes aussagt. Diese Anspielung auf die Herkunft wird spätestens dann bedeutungsvoll, wenn man damit bestimmte Zeichen aus europäischen Sprachen darstellen will, die im Englischen nicht üblich sind. Dazu komme ich später noch.
Der ASCII-Code ist, wie jeder andere Code auch, eine Zuordnung: Jedem Zeichen, sei es nun Buchstabe, Ziffer, oder sonstiges Zeichen wird eine Zahl zugeordnet, und der Computer erkennt anhand dieser Zahl, welches Zeichen er darstellen soll. Nun ist der ASCII-Code aber auch ein Kind seiner Zeit, nämlich der 1960er Jahre. Da gab es noch kein Internet, dafür waren aber sogenannte Fernschreiber weit verbreitet, die es heutzutage kaum noch gibt. Die kann man sich in etwa als Schreibmaschiene mit Anschluss ans Telefonnetz vorstellen, womit man einen Text über eine Kommunikationsleitung an ein entferntes Gerät verschicken konnte. Das war so ähnlich wie email oder eher FAX, weil eine Nachricht, wenn sie irgendwo ankam, gleich auf Papier gedruckt wurde. Um diesen Fernschreibern auch mitteilen zu können, wann eine neue Zeile zu nehmen ist, eine Seite oder die gesamte Nachricht zu Ende ist, gibt es im ASCII-Code eine Reihe sogenannter Steuerzeichen. Die dienen dazu, dem Fernschreiber genau solche Dinge mitzuteilen.
Von diesen Steuerzeichen gibt es genau 32 Stück, wovon heutzutage noch etwa 8 Stück in PCs verwendet werden. Der Rest ist von der technischen Entwicklung überholt. Man könnte die Steuercodes zwar auch heute noch verwenden, aber die Aufgaben, für die sie einmal gedacht waren, werden inzwischen anders gelöst. Weil Fragen der Datenübertragung und deren mögliche Lösungen, die diese Steuercodes einst waren, auch heute noch ein Forschungsgebiet in der Informatik und Nachrichten(übertragungs)technik sind, gehe ich da nicht weiter drauf ein.

Kommen wir also zu den druckbaren Zeichen. Wie der Name schon sagt, sind das jene Zeichen, die sich auf dem Papier wiederfinden lassen. Der ASCII-Code kennt davon 95 Stück. Das sind neben den oben erwähnten u.a. die eckigen und geschweiften Klammern, also [] und {}. (Letztere dürften aus dem Matheunterricht auch als “Mengenklammern” bekannt sein.) Dazu kommen noch der umgedrehte Schrägstrich “\”, auch als Backslash bezeichnet, das “Lattenkreuz” #, der Klammeraffe @, das Dollarzeichen $ und ein paar andere.

Insgesamt sind das 128 verschiedene Zeichen (wenn man die Null noch dazu nimmt, die zwar als Nullbyte vorhanden ist, aber sonst keine Bedeutung hat). Nun ist 128 auch eine glatte 2er-Potenz, nämlich das Ergebnis von zwei hoch sieben, auch als 27 oder 2^7 geschrieben. – Zahlen müssen ja auch irgendwie codiert werden. Die Codierung von Zahlen erfolgt dabei nach dem Dual- oder Binärsystem, womit sie als Potenzen von 2 dargestellt werden. Wer damit nicht vertraut ist, möge z.B. hier (klick) nachsehen.
Weil man für alle Zeichen des ASCII-Codes mit 7 binären Stellen auskommt, spricht man auch von einem 7-Bit Code. Ein Bit ist die kleinste darstellbare Grösse im Computer, die entweder Null oder Eins sein kann, womit wir bei den eingangs erwähnten Nullen und Einsen sind, aus denen sich alle Informationen im Computer zusammen setzen. Um mit den Bits besser hantieren zu können, fasst man sie zu Gruppen zusammen, die man als Byte bezeichnet. So ein Byte besteht aus 8 Bits und ist jene Einheit, mit der man unter anderem die Speicherkapazität eines Computers, oder auch den Speicherbedarf von Daten und Programmen angibt. Dann oft mit einer Vorsilbe wie Kilo, Mega oder Giga versehen.
Dieser Text z.B. umfasst bis zum vorherigen Satz z.B. 5374 Bytes, was etwas über 5 KiloByte entspricht.

Hinter diesen 5374 Bytes verbergen sich aber auch 5374 Zeichen. Die sind allerdings nicht alle ASCII-codiert. Denn der ASCII-Code kennt z.B. keine deutschen Umlaute und auch das im deutschen verbreitete ß; auch “scharfes S” oder “Buckel S” genannt, ist im ASCII-Code unbekannt. Warum auch? – denn diese Zeichen gibt es in der englischen Schriftsprache ja auch nicht. könnte man jetzt sagen. Hat man in der Vergangeheit wohl auch eine Zeit lang gemacht. Das führte zu einem Wildwuchs an Erweiterungen für jene Länder, in denen etwas anderes als Englisch gesprochen wird, wie z.B. im deutschsprachigen Raum. Wer die Heimcomputerära der 1980er Jahre miterlebt hat, wird davon noch ein Lied singen können… – Aber der Reihe nach: Der ASCII-Code umfasst 7 Bits, womit 27 = 128 verschiedene Zeichen zur Verfügung stehen. Da ein Byte aber aus 8 Bits besteht und 28 = 256 ergibt, kann man weitere 128 Zeichen definieren. (2*128 = 256).
Das ist in der Vergangenheit auch gemacht worden und ergab dann für jedes Land eine eigene Erweiterung oder eine Erweiterung für Länder mit ähnlichen Schriftzeichen. Zu nennen wären da etwa die romanischen Sprachen wie Französich und Spanisch oder die skandinavischen Sprachen. Alle diese haben auch ihre besonderen Symbole in der Schriftsprache, so etwa die Akzente über den Selbstlauten (é, ò, â) und “der Haken” (Cedille) unter dem C (ç) im Französichen oder so Sachen wie Ø oder æ in skandinavischen Sprachen. Oder das Symbol für das britische Pfund: £.

Nun konnte aber auch nicht jedes Land für sich die Norm ändern, denn die wichtigste Software eines jeden Computers, nämlich das Betriebssystem kam auch damals schon aus den USA. Also waren die US-Softwarehersteller angehalten, eine Lösung zu finden, wenn sie weiter erfolgreich exportieren wollten. Bei den Betriebssystemen hat man sich dazu die sogenannten Codepages ausgedacht, die für einzelne Länder oder sprachlich abgrenzbare Regionen entsprechende Anpassungen enthielten. Die Codes für diese Zeichen sind alle grösser als 128, “erweitern” den ASCII-Code also, indem sie den Werten zwischen 128 und 256 neue Zeichen zuordnen.

Einen Sonderfall bei den Heimcomputern stellte die Firma Commodore dar, denn die hat sich nicht so genau an die ASCII-Norm gehalten, bzw. diese ein wenig umdefiniert. So gab es etwa auf dem C64/128 zwei Modi zur Zeichendarstellung, wovon der eine nur Grossbuchstaben kannte. An der Stelle, wo die Kleinbuchstaben sein sollten, fanden sich grafische Symbole, die spezifisch für Commodore waren. Wenn man den Darstellungsmodus umgeschaltet hat, wurden GROSSBUCHSTABEN zu kleinbuchstaben und aus einigen Grafiksymbolen wurden Grossbuchstaben. Das führte schon mal zu Verwirrung, wenn man den Darstellungsmodus versehentlich umgeschaltet hat. (Dazu musste man zwei übereinander liegende Tasten gleichzeitig drücken.) Oder wenn man etwas drucken wollte und der Drucker nicht richtig konfiguriert (eingestellt) war. Und natürlich, wenn man Daten zwischen Heimcomputer und PC austauschen wollte oder musste. Die Zeichen sahen auf dem C64 übrigens so aus:

Die beiden Zeichensätze des C64 nebeneinander. Man sieht, wie aus kleinen Buchstaben Grosse werden (erste zwei Zeilen), und aus grossen Buchstaben grafische Symbole. (5. und 6. Zeile im Bild.) Bild: gemeinfrei

Die beiden Zeichensätze des C64 nebeneinander. Man sieht, wie aus kleinen Buchstaben Grosse werden (erste zwei Zeilen), und aus grossen Buchstaben grafische Symbole. (5. und 6. Zeile im Bild.) Bild: gemeinfrei

Von dieser Anekdote nun zu der Frage, wie oder wo denn genau festgelegt ist, wie ein Zeichen aussehen soll? – Wir haben bisher den ASCII-Code kennen gelernt und dass es dazu diverse, meisst länderspezifische Erweiterungen gab. Aber letztlich werden den einzelnen Zeichen dabei nur Nummern zugewiesen. Wie ein Zeichen auf dem Bildschirm oder dem Drucker jedoch aussehen soll, darüber sagt der Code genau garnichts aus. Bei der Schreibmaschiene war das Aussehen durch die Type vorgegeben, die entweder am Typenhebel oder bei späteren Geräten auf dem Typenrad angebracht waren. Typenräder konnte man sogar austauschen, wenn man ein anderes Schriftbild haben wollte. Und beim Computer? – Da gibt es einen speziellen Speicherbereich, der Zeichengenerator genannt wird. In diesem Speicher ist für jedes darstellbare Zeichen ein Muster abgelegt, das die Form eines Zeichens festlegt. So ein Muster ist ein quadratisches oder rechteckiges Feld aus Punkten. So einem Punkt kann der Wert Null oder Eins zugewiesen sein. Eine Null bedeutet, dass der Punkt die Farbe des Hintergrundes annimmt, eine Eins, dass der Punkt die Farbe des Vordergrundes, also der Schriftfarbe annimmt.
Diese Zeichenmuster werden auch Zeichenmatrizen genannt und waren oftmals genau 8 x 8 Punkte gross, später wurden die Zeichen höher und hatten 12, 14 oder 16 Punktzeilen, waren aber immer noch 8 Spalten breit. In speziellen Fällen auch 9, aber das lassen wir jetzt mal.

Zeichenmatrizen, wie sie im C64 und beim PC auf der VGA-Karte definiert sind.  Quelle: Nach einer Vorlage aus "Commodore 128 Intern" (ISBN: 3-89011-098-3) und dem Zeichen-ROM meiner Grafikkarte selbst erstelltes Werk.

Zeichenmatrizen, wie sie im C64 und beim PC auf der VGA-Karte definiert sind.
Quelle: Nach einer Vorlage aus “Commodore 128 Intern” (ISBN: 3-89011-098-3) und dem Zeichen-ROM meiner Grafikkarte selbst erstelltes Werk.

Die 8×8-Matrix zeigt das “A” so, wie es ein C64 darstellt. Die 8×16 Matrix hab ich so aus dem Charakter-ROM meiner Grafikkarte ausgelesen. Character-ROM ist eine andere Bezeichnung für den Zeichengenerator. Die Zahlen links von der Skizze geben dabei die Nummer der Zeile an und die Zahlen in den Klammern rechts die dezimale Darstellung des Bytes, das man für das Bitmuster dieser Zeile im Speicher findet. Die Zeichen sind also Zeilenweise definiert, wobei sich die Breite der Zeichen an der breite eines Bytes orientiert.

Bei dieser Sammlung der Formen die festlegen, wie einzelne Zeichen aussehen sollen, spricht man auch von einem Zeichensatz (englisch: font). Der Zeichensatz gibt also Auskunft darüber, wie einzelne Zeichen aussehen sollen, die durch Codes wie den ASCII-Code bestimmt werden.
Mit diesen vorgegeben Zeichensätzen kam man in der Anfangszeit der Compuer meistens auch aus, denn die damals hauptsächlich verwendeten Terminals, mit denen man am Rechner arbeitete, konnten nichts anderes. Sie bekamen vom angeschlossenen Rechner Anweisungen, welche Zeichen sie darstellen sollten, wozu der Rechner die ASCII-Codes übermittelt hat. Die Terminals haben dann die durch den Code festgelegten Zeichen angezeigt, deren Form sie einem Zeichengenerator entnommen haben.

Die ersten IBM-PCs arbeiteten so ähnlich. Der Unterschied war, dass es dort kein Terminal war, das für die Darstellung am Bildschirm zuständig war, sondern eine Grafikkarte. Der Begriff “Grafikkarte” ist in diesem Fall allerdings irreführend, denn die sogenannten MDA-Karten, die in den ersten IBM-PCs eingebaut waren, konnten gar keine Grafik darstellen. Korrekterweise nannte man sie deshalb auch Bildschirmadapter. Diese Bildschirmadapter hatten die weitere Einschränkung, dass sie auch keine Farben darstellen konnten, sondern auf eine Farbe festgelegt waren. Die konnten die Anwender aber durch die Wahl des Monitors bestimmen. Man konnte zwischen Grün und Bernsteinfarben wählen. Da die Monitore also auch nicht viel mehr konnten, nannte man sie Monochrom-Monitore. Das MDA in obiger Kartenbezeichnung steht entsprechend für Monochorme Display Adapter.

Nun gab es zu der Zeit, als der erste IBM-PC auf den Markt kam, also 1982, aber schon Computer, die nicht nur Farbe darstellen konnten, sondern auch Grafik. Das waren in vielen Fällen die sogenannten Heimcomputer, die man damals streng von den Personal Computern unterschieden hat. So war jedenfalls meine Wahrnehmung, obwohl sich auch der C64/128 oder die Schneider CPCs als Personal Computer bezeichneten. Aber ich schweife ab. Deshalb zurück zu den Darstellungsmöglichkeiten. Die ersten PCs von IBM waren dazu gedacht, Texte darzustellen, seien es nun Briefe oder andere Informationen, die sich rein schriftlich darstellen lassen. Bildschirmadapter, die auch Grafik und die sogar in Farbe darstellen konnten, liessen aber nicht lange auf sich warten. Denn schliesslich gab es sogar im Heimbereich schon andere Rechner, die reinen Text nicht nur monochrom sondern auch Farbig darstellten und sogar Grafik anzeigen konnten. Und was Heimanwendern recht war, sollte sich auch für den Bürogebrauch nutzen lassen. Zum Beispiel für CAD, also Computer Aided Design-Anwendungen. So zogen also die Grafikkarten in die (IBM und kompatiblen) PCs ein, die die Bezeichnung auch verdienten. Da aber manche Anwender (noch) keinen Wert auf grafische Darstellungen legten oder meinten, diese nicht zu brauchen, blieben sie bei Monochromkarten und Software, die sich auf Textdarstellung konzentrierte. Auf technischer Ebene spricht man dabei vom sogenannten Textmodus. Wie der Name schon sagt, stellt die Grafikkarte bzw. der Display Adapter in diesem Fall nur Texte dar die zwar mehr oder weniger bunt sein können, es aber nicht sein müssen. Es bleibt aber eine auf Buchstaben und einige wenige grafische Symbole bezogene Darstellung. (Nebenbei: Farbgrafikkarten waren in dieser Zeit, also in der ersten Hälfte der 1980er Jahre auch “saumässig” teuer. So steht in einem Buch über die Programmierung der EGA-Karte von 1987 zu lesen, dass eine solche Karte von IBM mit 256KB Grafikspeicher zu Anfang des Jahres 1986 noch über 2700,- DM kostete.)

Im Gegensatz zum Textmodus steht der Grafikmodus. In diesem Modus, der bei den meisten Benutzeroberflächen heutzutage Standard ist, sind Textdarstellungen auf technischer Ebene auch Grafik. Doch bis sich diese Oberflächen durchsetzen konnten, musste sich die Hardware erst noch weiter entwickeln. Denn die Anforderungen, die eine solche Benutzeroberfläche an die Hardware stellt, sind um vieles höher, als jene, die eine Textoberfläche stellt. Also bleiben wir erst mal bei Programmen, die mit einer Textoberfläche auskommen.

Bevor grafische Benutzeroberlächen aufkamen gab es in der Regel nur einen Zeichensatz und somit auch nur ein Schriftbild, das auf dem Monitor dargestellt wurde. Beim Drucker sah das etwas anders aus, denn der konnte evtl. auch verschiedene Schriften drucken. Es war aber auch möglich, das es sich beim Drucker um eine vom Computer angesteuerte elektrische Schreibmaschiene handelte, womit man wiederum auf eine Schriftart festgelegt war. Wenn ich im folgenden von Druckern schreibe, meine ich aber meisst Nadeldrucker. Das waren (bzw. sind) jene Geräte, deren Druckkopf aus einer Reihe von (stumpfen) “Nadeln” besteht, die übereinander angeordnet sind, gegen ein Farbband hauen und somit Punkte auf’s Papier drucken. In einigen Bereichen werden sie auch heute noch verwendet. In den 80er Jahren waren sie dagegen die Regel, denn Tintenstrahler gab es noch nicht und Laserdrucker waren eher die Ausnahme, weil sie extrem teuer waren. Also zurück zu den Nadeldruckern. Wenn man in ein entsprechendes Gerät investiert hatte, konnte man verschiedene Zeichensätze darstellen. Auch waren diese Drucker irgendwann in der Lage, Fett und Kursiv zu drucken und konnten auch unterstreichen. Das Problem war, dass es keine Druckvorschau gab. Wenn also die Textverarbeitung die Möglichkeit anbot, solche Auszeichnungen zu verwenden, dann konnte man das zwar durch entsprechende Steuercodes im Text einstellen, aber das Ergebnis hat man erst gesehen, wenn das Werk aus dem Drucker kam.

Mit den Textverarbeitungen war es sowieso noch so eine Sache, denn die waren Anfangs noch sehr einfach ausgefallen. Man orientierte sich an der Schreibmaschiene und so wurde es von vielen Leuten anfangs als grosse Innovation betrachtet, dass man einen Text am Rechner nicht nur erstellen konnte, sondern auch in der Lage war, diesen noch zu verändern, ohne eine Seite Papier bedrucken zu müssen. Und weil man sich noch an der Schreibmaschiene orientierte, die eine feste Zeichenbreite hatte, machte man das am Computer erst einmal genauso. Wenn man also das Ende einer Zeile erreicht hatte, oder kurz davor war, hat man einen Zeilenumbruch direkt im Text plaziert. Die Möglichkeit, einfach weiter zu schreiben ohne sich um Zeilenumbrüche kümmern zu müssen, weil dies vom Programm übernommen wurde, war die nächste grössere Innovation, an die ich mich erinnere. Man nennt diese Technik Wordwrapping und ich erinnere mich daran, dass Textverarbeitungen in Testberichten auch danach bewertet wurden, ob sie Wordwrapping beherschten oder nicht. Heutzutage kann das selbst ein einfacher Texteditor wie etwa Notepad von Windows.

Ein anderes Problem war die feste Schriftweite. Bei Zeichensätzen wie

12pt_Courier

oder

12pt_Letter_Gothic_Line

ist es so, das alle Zeichen die gleiche Breite haben, genauso wie die oben dargestellten Schriftzeichen aus dem Zeichengenerator der Grafikkarte. Man konnte bei späteren Grafikkarten zwar den Zeichensatz verändern, aber damit liessen sich letztlich nur zusätzliche Zeichen basteln oder bestimmten Codes andere Zeichen zuweisen. An der Breite änderte man damit nichts. Die Zeichen waren nach wie vor alle noch 8 oder 9 Punkte breit. Das änderte sich erst in den späten 80er Jahren, so etwa ab 1988, wenn ich mich recht erinnere. Da konnten die Drucker dann auch Proportionalschrift. – Propo-was?!

Proportionalchrift. Manche Buchstaben, wie etwa das W oder das m sind relativ breit, andere wie das kleine Ell “l” oder das i sind dagegen sehr schmal. Das bedeuted, das sie unterschiedlich viel Platz in der Breite benötigen. Wenn aber alle Buchstaben die selbe Breite haben, wie es im Textmodus oder diesem Satz der Fall ist, dann hat man Lücken im Wort, die das Schriftbild stören oder sonstwie für unschön gehalten werden können.
Diese Probleme hat man bei Proportionalschrift nicht, weil da jedem Buchstabe genau die Breite zugeordnet wird, die er benötigt. Entsprechende Schriften nennt man denn auch Proportionalschriften, denn sie berücksichtigen die Proportionen der einzelnen Buchstaben. Zum Vergleich diese nette Bild aus der Wikipedia:

Hier sieht man sehr schön den Unterschied und nebenbei bekommt man noch mitgeteilt, dass man jene Schriften, die eine einheitliche Zeichenbreite haben, auch als “Monospaced” bezeichnet.

Jetzt hatte man ein Problem, wenn man Texte zwar mit einem Proportionalen Zeichensatz drucken konnte, am Bildschirm aber immer noch im Textmodus arbeitete, wo alle Zeichen monospaced waren. Denn dadurch konnte man am Bildschirm nicht sehen, wie das gedruckte Werk aussehen würde. Nun zeigte aber ein Programm namens Printfox, das 1986 für den C64 erschien, dass sowas sogar auf Heimcomputern möglich war. Printfox kann man schon als richtiges Desktop Publishing Programm bezeichnen, das trotz der begrenzten Hardwareresourcen des C64 vieles erreichte, was PCs (jedenfalls IBM und Kompatible) zu der Zeit noch nicht konnten. Zum Beispiel eine Druckvorschau. Und das Beste an Printfox war, das dieses Programm sogar schon Bilder frei positionierbar im Text einbauen konnte. Man war zwar auf schwarz/weis Bilder beschränkt, bzw. musste sich Graustufenbilder vorher mit anderen Programmen erstellen. Aber da waren die Ansprüche auch noch nicht so hoch, weil die Grafikfähigkeiten des Rechners im Vergleich zu heute auch nicht sehr hoch waren. Die Bildschirmauflösung lag bei 320 x 200 Punkten in 2 Farben oder 160 x 200 Punkten bei 16 Farben. Und Farbdrucker waren auch noch nicht sonderlich weit verbreitet, weil die zu der Zeit erst langsam auf den Markt kamen.
Was die Druckvorschau auf dem PC angeht, so brachten dies einige DOS-Programme in den späten 80er und frühen 90er Jahren auch endlich zustande, sofern der Rechner über eine entsprechende Grafikkarte verfügte. Das Traurige daran ist aus meiner Sicht, das ein Apple Mac oder auch die 16-Bit Heimcomputer Amiga und Atari ST sowas schon längst konnten, sich aber abgesehen vom Mac auf Dauer nicht durchsetzten.

Nach diesem Ausflug in die frühe Welt der Textverarbeitung, wie ich sie in Erinnerung habe, wieder zurück zu den Zeichensätzen. Denn damit kann man auch heute noch Probleme kriegen, wenn da irgendwas nicht richtig eingestellt ist. Nehem wir zum Beispiel die DOS-Codepage 850. Das ist jene Seite, die die Anpassungen des Zeichensatzes für Westeuropa enthält. Darin gibt es so schöne Symbole um Rahmen zu “zeichnen”:

DOS-Rahmensymbole, Eigenes Werk

DOS-Rahmensymbole, Eigenes Werk

Bildschirmmaske aus den Rahmensymbolen der DOS-Codepage 850, Eigenes Werk

Bildschirmmaske aus den Rahmensymbolen der DOS-Codepage 850, Eigenes Werk

Der hauptsächliche Zweck dieser Maske besteht darin, möglichst alle Rahmensymbole zu verwenden. Was für ein Programm die verwenden könnte, weis ich auch nicht so wirklich, ist hier aber auch nicht wichtig. Interessant ist eher noch, dass das Bild genau 640 x 400 Pixel gross ist, und damit genau die Grösse hat, die auf einem damals üblichen 14-Zoll Monitor gut darstellbar war. Wenn man diese Maske aber für ein Programm unter Windows übernehmen wollte (was zwar nicht viel Sinn macht, aber darum geht’s ja nicht), dann bekommt man ein Problem, denn dann sehen die Zeichencodes, die unter DOS noch für die Rahmensymbole standen, auf einmal so aus:

Selbsterstellter Screenshot

Selbsterstellter Screenshot

Was ist hier passiert? – Nun Windows verwendet einen anderen Code, d.h. den Codes werden andere Zeichen zugeordnet. In diesem Fall nennt er sich Windows-1252. Dabei handelt es sich um eine Microsoft-spezifische Variante von ISO-8859. Das wiederum ist ein 8-Bit Code, der von der Internationalen Organisation für Normung, kurz “ISO” erarbeitet wurde. Man kann also sagen, dass er einen Versuch darstellt, den Wildwuchs von Erweiterungen des ASCII-Codes international zu vereinheitlichen. Die Zuordnungen von 0 (Null) bis 127 entsprechen dabei im wesentlichen dem ASCII-Code, die Zuordnungen von 128 bis 255 werden durch ISO-8859 neu definiert. Da man damit aber nicht alle europäischen Sprachen abdecken kann, gibt es ISO-8859 in 15 “Geschmacksrichtungen“, die durch anhängen von “-X” an die Normbezeichnung gekennzeichnet sind. X ist eine Zahl zwischen 1 und 16 ist, wobei aus irgendeinem Grund die 12 aussenvor bleibt. Deshalb 1 bis 16 und nicht 1 bis 15. Der für Westeuropa definierte Teil nennt sich ISO-8859-1.
Aus einem weiteren Grund, der AFAIK was mit Erleichterungen bei der Softwareentwicklung zu tun hat, hat die ISO den Bereich von 128 bis 159 leer gelassen. D.h. diesen Codes sind keine Zeichen zugeordnet. Und nun wäre Microsoft nicht Microsoft, wenn die das nicht ausgenützt hätten. So haben die bei MS den Bereich von 128 bis 159 mit einigen Zeichen gefüllt, die sie für besonders nützlich hielten und diesen Erweiterungen eigene Nummern zugewiesen. Das sind u.a. die Windows-Codepages 1250 bis 1258, für Westeuropa ist es die Nummer 1252, die auch in Deutschland verwendet wird.

Und wer von diesem ganzen Zahlensalat jetzt reichlich verwirrt ist, dem kann ich leider nicht helfen, denn es geht noch weiter. Da ISO-8859 ein 8-Bit-Code ist, kommt man damit vielleicht in Europa aus, aber eben auch nicht überall. Um nun aber Weltweit Daten austauschen zu können, insbesondere über Netzwerke wie das Internet, hat man schon um 1989 herum angefangen, einen Standard zu erarbeiten, der auf der ganzen Welt benutzt werden kann. Der nennt sich Unicode und war in der ersten Version, die 1991 erschienen ist, 16 Bit breit. Seit Version 2.0 von 1996 ist das gesamte System 21 Bit breit, die man aber kaum alle gleichzeitig brauchen wird. Man sucht sich vielmehr die Sprachen und zugehörigen Schriftsysteme aus, die man braucht und das Betriebssystem sorgt dann dafür, das man damit arbeiten kann. Dabei werden die verwendeten Zeichen innerhalb des Rechners nur mit 16 Bit codiert. Um das zu ermöglichen, gibt es innerhalb des Unicodessystems geeignete Methoden, mit denen sich die benötigten Codebereiche aus dem 21 Bit breiten Bereich innerhalb von 16 Bit darstellen lassen. Wie das im Detail funktioniert, würde diesen Beitrag sprengen, denn das ganze System ist so umfangreich, dass man sich Wochen- oder Monate lang damit befassen kann. Allein die Dokumentation umfasst mehrere hundert Seiten. Dazu kommen noch viele Seiten Anhang, aus denen man die Codes für jedes der 1.114.112 definierten Zeichen entnehmen kann. Wer mehr darüber wissen will, möge sich auf den Webseiten des Unicode-Konsortiums umsehen.
Hier ist in diesem Zusammenhang nur noch das Unicode Transformation Format, kurz UTF interessaant, denn das ist eine der im Internet verwendeten Methoden, Unicode-Zeichen als Bytefolgen darzustellen. Wer sich schon mal intensiver mit Webdesign beschäftigt hat, dem wird das folgende bekannt vorkommen:

<?xml version=”1.0″ encoding=”utf-8″ standalone=”yes”?>

Das ist die Kopfzeile eines XML-Dokuments, also einer Datei deren Inhalt mit der Beschreibungssprache XML beschrieben wird. Der hervorgehobene Teil, encoding=”utf-8″, teilt dem verarbeitenden Programm mit, das der Text mit UTF-8 codiert ist. Das bedeutet, dass die meissten Zeichen 8-Bit breit sind. Wenn die Zeichencodes Werte zwischen Null und 127 haben, sind sie mit dem 7-Bit breiten ASCII-Code identisch. Wenn ein Codebyte mit einem Wert grösser als 127 folgt, ist das ein Kennzeichen dafür, dass das nächste Zeichen durch mehrere Bytes definiert ist, deren Zahlenwert auch jeweils grösser als 128 ist. Dabei sind zwei bis vier Bytes möglich, aber die Details spar ich mir hier. Nur noch soviel: neben UTF-8 sind noch UTF-16 und UTF-32 verbreitet, wobei die Zahl angibt, mit wievielen Bits ein Zeichen kodiert ist. (Technisch interessierte könnte in disem Zusammenhang auch das RFC 4042 gefallen, welches UTF-9 und UTF-18 beschreibt. Zu beachten ist dabei auch das Erscheinungsdatum der Publikation!)

Jetzt noch kurz wieder zur Zeichendarstellung auf dem Bildschirm. Was bei den 16-Bit Heimcomputern (Amiga & Atari ST) seit 1986 normal war, wurde dann ab Windows 3.0 auch auf dem (IBM oder kompatiblen) PC so langsam zur Normalität, nämlich eine grafische Benutzeroberfläche, englisch: Graphical User Interface, kurz GUI. Davon gab es neben Windows 3.x auch noch andere, wovon GEM die bekannteste sein dürfte, gefolgt vom OS/2 Presentation Manager und PC-Geos. Alle diese Oberflächen haben die Gemeinsamkeit, dass sie den PC dauerhaft in den Grafikmodus schalten. Deshalb heissen sie ja auch so. Und wie oben schon erwähnt, sind dadurch auch lesbare Texte im inneren des Rechners nichts anderes als grafische Darstellungen. Das ermöglichte es schliesslich, Software zu entwickeln, die das, was sie auf dem Drucker ausgab, zuvor auch genauso auf dem Bildschirm anzeigte. Im Fall der Textverarbeitung war es damit endlich möglich, einen Text auch so am Bildschirm anzuzeigen, wie er auch aus dem Drucker heraus kommen würde. Auszeichnungen, wie fett, kursiv oder unterstrichen konnten endlich am Bildschirm sichtbar gemacht werden, auch alle miteinander kombiniert. Dazu kam als weiterer Vorteil, dass man auch verschiedene Zeichensätze verwenden konnte, und auch die Schriftgrösse endlich variabel war. Diese ganze Entwicklung lief unter dem Stichwort “WYSIWYG”. Diese Wortschöpfung ist die Abkürzung für What You See Is What You Get, also Was Du (am Bildschirm) siehst, ist das, was Du (aus dem Drucker) heraus bekommst.

Um das zu ermöglichen kam man mit den oben gezeigten “Pixelzeichensätzen” natürlich nicht mehr aus. Wenn man die vergrössert, dann werden die Zeichen irgendwann eckig und/oder Treppenförmig. Das kann man z.B. an den beiden Zeichematrizen des Buchstaben “A” sehr schön sehen, die ich oben zeige. Denn die sind ja sehr stark vergrössert. Um diese Treppenformen zu vermeiden, und einen Bogen bei jeder beliebigen Vergrösserung auch noch wie einen Bogen aussehen zu lassen, hat man sogenannte Vektorzeichensätze eingeführt. Bei diesen Zeichensätzen, werden die Zeichen nicht mehr durch einzelne Punkte definiert, sondern mathematisch durch Kurven beschrieben. Es ist dann Aufgabe der Nutzeroberfläche, ein Zeichen entsprechend einiger Vorgaben auf dem Bildschirm darzustellen. D.h. wenn die Nutzeroberfläche den Code für ein darzustellendes Zeichen bekommt, dann braucht sie weitere Informationen, wie Grösse, Zeichensatz, gewünschte Auszeichnungen, die näher beschreiben, wie das Zeichen dazustellen ist. Aus diesen Informationen berechnet sie dann, welche Pixel der nächsten zu bedruckenden Fläche die gewünschte Schriftfarbe bekommen und welche die Farbe des Hintergrundes behalten.

Soweit mal dieser Ausflung in die Welt der Codierungen und Zeichendarstellungen, ohne die die ganze EDV, die wir hier nutzen, nicht möglich wäre. Auf weitere Entwicklungen bei Textverarbeitungen, die ich ursprünglich vorgesehen hatte, gehe ich nicht mehr näher ein, weil ich zum einen die 20.000 Zeichen Marke schon längst überschritten habe und es zum anderen auch zeitlich nicht mehr hinbekomme. Das Zusammensuchen einiger Informationen und erstellen der oben gezeigten Bilder hat zum Teil mehr Zeit gekostet, als ich erwartet habe.

————————————————-

Screenshot des Infofensters, das erscheint, wenn man in Notepad++ die Erweiterung TextFX installiert hat und daraus die Funktion Wordcount aufruft

Screenshot des Infofensters, das erscheint, wenn man in Notepad++ die Erweiterung TextFX installiert hat und daraus die Funktion Wordcount aufruft

————————————————-
Hinweis zum Autor: Dieser Artikel wurde von “Hans” geschrieben.

Kommentare (46)

  1. #1 Hans
    14. September 2015

    Sieht ja interessaant aus, der Beitrag, aber irgendwo sind da ein paar Sätze untergegangen. Und zwar jedesmal, nachdem im Text 2 hoch 7 auftaucht, was im siebten und achten Absatz der Fall ist.

  2. #2 Gerhard
    14. September 2015

    Alle Achtung, Hans, da hast du dir aber viel Arbeit gemacht mit dem Artikel. Am Anfang ist da aber was durcheinandergerutscht, dort wo auf einmal die 5374 Zeichen auftauchen, oder?
    Als Software Entwickler seit Beginn der 80er Jahre habe ich den ganzen Mist mitgemacht und da war man ja froh, dass dann allmählich der UNICODE Standard kam. Das Ende aller Probleme! Aber denkste! UTF-7 oder UTF-8 oder UTF-16 oder gar UTF-32? Und welche Bytereihenfolge: Big-endian, little-endian oder byte marker am Datei Anfang?
    Meinen (Kometen) Artikel für den Schreibwettbewerb habe ich z.B. mit OpenOffice geschrieben und dann als einfache Text-Datei exportiert. Das haben mir die Anführungszeichen übel genommen. Die kamen als ASCII 147 (hex 93) in die Textdatei, was zwar in Windows CodePage 8859-1 ein Anführungszeichen ist, in anderen Codepages jedoch irgendwelche andere Zeichen oder gar Steuerzeichen bedeutet. Und bei einer blanken Textdatei steht nicht dabei, welche Codepage verwendet wurde.
    So kann ich es Florian nicht verübeln, dass die Anführungszeichen im Text fehlten und OpenOffice kann ich’s nicht verübeln, denn mein Rechner ist halt ein Windows Rechner…
    Zum Glück werden diese Probleme immer kleiner. Zu Beginn der 80er waren 90% des Programmieraufwands mit solchen Systemproblemen verbunden und 10% flossen in die eigentlichen Algorithmen, heute ist es umgekehrt. Auch das war eine Computerrevolution, die aber mehr im Verborgenen stattfand.

  3. #3 Hans
    14. September 2015

    Ich hab den Fehler gefunden: ich hab im Text verschiedene Darstellungen von 2 hoch 7 verwendet, wobei die eine sichtbar ist, die anderen in HTML-Kommentaren eingeschlossen und deshalb unsichtbar sind. Nun ist eine Version in den HTML-Kommentaren die von WordPress verwendete Latex-darstellung. Die hat WordPress ausgewertet, obwohl sie in HTML-Kommentaren steht. Dabei ist das Endekennzeichen des Kommentars irgendwie zerlegt worden, womit einiger Text auskommentiert und deshalb ebenfalls unsichtbar ist.

  4. #4 Florian Freistetter
    14. September 2015

    Jetzt besser?

  5. #5 Christian Schröter
    Gütersloh
    14. September 2015

    In dem Text sind aber reichlich Fehler …

  6. #6 Hans
    14. September 2015

    @Gerhard:

    Am Anfang ist da aber was durcheinandergerutscht, dort wo auf einmal die 5374 Zeichen auftauchen, oder?

    Ne, nicht ganz. Wenn man die Stellen markiert und sich den HTML-Quelltext anzeigen lässt, sieht man das. Hab das in meinem letzten Kommentar auch schon beschrieben.

    Meinen (Kometen) Artikel für den Schreibwettbewerb habe ich z.B. mit OpenOffice geschrieben und dann als einfache Text-Datei exportiert. Das haben mir die Anführungszeichen übel genommen. Die kamen als ASCII 147 (hex 93) in die Textdatei, was zwar in Windows CodePage 8859-1 ein Anführungszeichen ist, in anderen Codepages jedoch irgendwelche andere Zeichen oder gar Steuerzeichen bedeutet.

    Ja, da hat die Microsoftausnahme in Form der Windows Codepage 1252 zugeschlagen, denn der Bereich von 128 (hex 80) bis 159 (hex 1f) ist im Unicode bzw. ISO 8859-x nicht belegt. – Oder man findet dort die Zeichen, die sich auch unter DOS an den Stellen fanden, muss aber nicht sein. Deshalb verwende ich ja grundsätzlich die Anführungszeichen, die auch schon im 7-Bit-ASCII-Code vorkommen, also ASCII-Code 34 (hex 22).
    Ansonsten danke für die Blumen.

  7. #7 Hoffmann
    14. September 2015

    Der Text ist sehr informativ, erfordert aber von meiner Seite her eine mehrmalige Lektüre, weil die Informationsmenge zugleich auch sehr groß ist. Vom Schreibstil her sagt mir der Text sehr zu.

  8. #8 Hans
    14. September 2015

    @Florian, #4:
    Ja danke, jetzt ist es richtig.

  9. #9 Withold Ch.
    14. September 2015

    Eine solche Darstellung hätte ich mir gerne vor dreissig Jahren zu Gemüte führen wollen oder sollen!

    Sehr guter Artikel!

  10. #10 kaktus
    Köln
    14. September 2015

    Ich bin vermutlich altmodisch, aber nach den ersten paar derben Rechtschreib- und Grammatikfehlern vergeht mir die Lust, weiterzulesen. Ich finde, wer für Publikum schreibt, sollte seinen Anspruch diesbezüglich etwas höher hängen.

    kaktus

  11. #11 Hans
    14. September 2015

    @kaktus, #10:
    Dann erzähl mal, welche Du meinst.

  12. #12 Philip
    14. September 2015

    @Hans #11: Ein Beispiel dafür ist vielleicht die „Schreibmaschiene“, die man trotz Aussprache nicht mit ie schreibt. Das war zuerst auch in der Überschrift falsch geschrieben. Den Fehler habe ich früher aber auch oft gemacht.

  13. #13 Withold Ch.
    14. September 2015

    @ Philip # 12

    Ich habe mich daran gewöhnt, zwischen screen-optimized und print-optimized zu unterscheiden …

    Solche kleine Orthographiefehler finde ich nun wirklich nicht schlimm, viel wichtiger sind ein guter Schreibstil und ein übersichtliches Layout, mit Absätzen, Abschnitten und Untertiteln, damit ein angenehmer Lesefluss entstehen kann, – und das ist hier gegeben.

  14. #14 Lercherl
    14. September 2015

    EBCDIC?

  15. #15 Suse
    14. September 2015

    Danke für den informativen Text! Ich benutze täglich meinen Computer, habe aber 0 Ahnung wie und warum mein “Geschreibsel” letztendlich auf dem Papier landet. Es ist einfach “selbstverständlich”, dass er macht was ich möchte.

  16. #16 bruno
    14. September 2015

    Lange keinen so interessanten Artikel über ein (eher) minder-interessantes Thema gelesen! Lässt sich locker lesen, der Stil gefällt. Auch wenn kein 20jähriger mehr mit dem Begriff “IBM-kompatibel” das Geringste anfangen kann 😉
    Und in der kleinen Geschichtsstunde die eigene Computer-Vergangenheit nachvollziehen zu können hat mir Spass gemacht!

    Ausserdem merkt man, was für eine Arbeit im grafischen Aufbereiten steckt – durch Grafik und Text.
    Mein bisheriger Favorit! tx.

  17. #17 Dampier
    14. September 2015

    Hallo Hans, klasse Artikel! Er behandelt genau die Zeit, bevor ich meine ersten DTP-Gehversuche machte. (Als WYSIWYG das große Ding war, kam in der Firma der erste Mac auf den Tisch, zusammen mit einem Siemens-DIN-A4-schwarzweiß-Flachbettscanner für 9000 Mark – endlich musste ich nicht mehr an die Reprokamera). Bis heute schlage ich mich mit Fontverwaltung rum, das ist immer noch nicht wirklich gut gelöst.

    Ich fands gut geschrieben und unterhaltsam, weil auch deine Begeisterung fürs Thema durchkommt (für mich eines der wichtigsten Kriterien). Und fachlich war auch viel neues und interessantes dabei. Danke dafür.

  18. #18 Florian Freistetter
    14. September 2015

    Ich fand den Artikel übrigens auch super! Und als Fortsetzung würde ich mir jetzt noch eine Analyse all der absurden grafischen und anderen Symbole auf der C64-Tastatur wünschen 😉 Als Kind hab ich damit immer wunderbare Bilder auf den blau/grauen-Bildschirm gezeichnet…

  19. #19 BreitSide
    Beim Deich
    14. September 2015

    Hach, mir wird ganz nostalgisch, wenn ich an die grünen oder orangen Bildschirme denke ;.) Und das schöne Nachbild, wenn man nach wenigen Stunden am Bildschirm woanders hin schaute 🙄

    – “Das Traurige daran ist aus meiner Sicht, das ein Apple Mac oder auch die 16-Bit Heimcomputer Amiga und Atari ST sowas schon längst konnten, sich aber abgesehen vom Mac auf Dauer nicht durchsetzten.”

    Wohl wahr ;-( Ich hatte ´88 oder so einen Kollegen, der nahm immer seinen Mac mit, mit dem er die IBMs nicht nur emulierte, sondern auch noch schneller 🙄

    Apropos Fehler: Etliche Kommafehler sind mir auch aufgefallen, auch mindestens ein das/dass und ein paar ss statt ß. Das ist halt so ´ne Sache: Klar ist der Inhalt das Wichtigste (hat auch Goethe mal so formuliert), aber Tippfehler fallen halt auf. Und inzwischen können Rechtsschreibprogramme ja sogar Grammatikfehler erkennen.

    Erkannte Fehler kann man ja auch per PN dem Autoren schicken. Dafür ist mir dieser Text aber entschieden zu lang 😉

  20. #20 BreitSide
    Beim Deich
    14. September 2015

    Mir, der ich selten selbst geschrieben, was ich zum Druck beförderte, und, weil ich diktierte, mich dazu verschiedener Hände bedienen mußte, war die konsequente Rechtschreibung immer ziemlich gleichgültig. Wie dieses oder jenes Wort geschrieben wird, darauf kommt es doch eigentlich nicht an; sondern darauf, daß die Leser verstehen, was man damit sagen wollte! Und das haben die lieben Deutschen bei mir doch manchmal getan.
    Johann Wolfgang Goethe

    Ich halte mir diese Art Postulate nach Möglichkeit einfach vom Halse und mache, genau besehen, immer noch genug Schnitzer. Was aber die Kommas betrifft, so beruhige ich mein Gewissen immer mit einem Satz des alten Wieland, der besagt, Religion und Interpunktion seien Privatsache.
    Johann Wolfgang Goethe

    Wir sind dicht, aber Goethe war Dichter (von mir geklaut)

  21. #21 BreitSide
    Beim Deich
    14. September 2015

    Ach ja, die Rahmen und Doppelrahmen waren auch eine Freude 😉 Die sollen angeblich für amerikanische Steuerformulare gedacht gewesen sein?

  22. #22 BreitSide
    Beim Deich
    14. September 2015

    Upps, jetzt hab ich beim ollen Goethe doch glatt die Anführungszeichen vergessen… ;-(

  23. #23 dgbrt
    14. September 2015

    @Hans:
    Da werden alte Erinnerungen wach 😉
    Mein C64 konnte glaube ich 16 Farben und an jedem beliebigen Fernsehen betrieben werden. Mein eigener war damals aber auch nur S/W.

    Als ich mir 1988 den ersten PC (286er) kaufen konnte war ich einer der Wenigen, die schon eine Festplatte hatten (20MByte). Die EGA-Karte dieses Vorführgerätes musste ich allerdings durch eine Hercules-Karte ersetzen, da ich mir den teuren Monitor nicht leisten konnte.

    Mein Textverarbeitungsprogramm war damals Word von MS und das Hauptmenü war unten über die ESC-Taste zu erreichen. Ich konnte da damals ganz gut mit umgehen, aber für einen Ausdruck auf einem Star 9-Nadel-Drucker musste ich mangels Treiber immer einige Steuersequenzen voranstellen. WYSIWYG war ein Traum.

    Ach, und weil hier jemand EBCDIC (Extended Binary Coded Decimal Interchange Code) erwähnt: Das ist von IBM für Großrechner Anfang der sechziger Jahre entwickelt worden.

  24. #24 Hans
    15. September 2015

    So, jetzt noch einige Antworten: Zunächst einmal freut es mich, dass den Text doch einige mögen. Da hat sich die Arbeit wenigstens gelohnt. Jetzt der Reihe nach:

    #14 Lercherl

    EBCDIC?

    Ich zitier mal die ersten zwei Sätze vom 3. Absatz:

    Um nun mit dem Computer einen Text zu verfassen, stellte sich die Frage, wie man denn nun die einzelnen Zeichen im Rechner darstellt. Dazu gab es verschiedene Lösungen.

    Und zu den verschiedenen Lösungen zählt eben auch EBCDIC. Der ist aber nicht so weit verbreitet wie ASCII und für die Dinge, die ich zeigen wollte, nicht nötig. Deshalb bin ich da nicht drauf eingegangen.

    —–
    #15 Suse

    Danke für den informativen Text!

    Bitte schön.

    Ich benutze täglich meinen Computer, habe aber 0 Ahnung wie und warum mein “Geschreibsel” letztendlich auf dem Papier landet. Es ist einfach “selbstverständlich”, dass er macht was ich möchte.

    Nun ja, aus Anwendersicht soll es ja auch so sein. Aber es schadet meiner Meinung nach auch nicht, wenn man als Anwender eine Idee davon bekommt, wieviel Aufwand dahinter steckt. Das Ziel hab ich bei Dir offensichtlich erreicht.

    —–
    #16 bruno

    Lange keinen so interessanten Artikel über ein (eher) minder-interessantes Thema gelesen! Lässt sich locker lesen, der Stil gefällt.

    🙂

    Auch wenn kein 20jähriger mehr mit dem Begriff “IBM-kompatibel” das Geringste anfangen kann 😉

    Stimmt, da dürfte was dran sein. Aber das lässt sich relativ leicht erklären: Das bedeutet einfach, dass die Systeme sich technisch miteinander vertragen und zwar in dem Sinne, dass die Software, die für IBM-PCs entwickelt wurde, auch auf anderen Rechnern läuft. Das war damals selten der Fall, denn ein Programm, das für IBM-PCs entwickelt wurde, lief nicht auf Atari oder Amiga Rechner und umgekehrt. Ein ähnliches Problem haben wir heute zwischen Windows, MacOS und Linux immer noch. Der Unterschied ist, dass viele Firmen ihre Software inzwischen für alle drei Systeme anbieten. Das war bei den Heimcomputern eher selten der Fall. Und für die Firmen die es gemacht haben, sehr viel aufwändiger, weil auch die Hardware unterschielich war. Heutige PCs beruhen dagegen fast nur noch auf Intel-Architektur, wenn man von Tabletts mal absieht.

    Und in der kleinen Geschichtsstunde die eigene Computer-Vergangenheit nachvollziehen zu können hat mir Spass gemacht!

    Das freut mich.

    Ausserdem merkt man, was für eine Arbeit im grafischen Aufbereiten steckt – durch Grafik und Text.
    Mein bisheriger Favorit! tx.

    Das freut mich noch mehr. 🙂

    —–
    #17 Dampier

    Hallo Hans, klasse Artikel! Er behandelt genau die Zeit, bevor ich meine ersten DTP-Gehversuche machte. (Als WYSIWYG das große Ding war, kam in der Firma der erste Mac auf den Tisch, zusammen mit einem Siemens-DIN-A4-schwarzweiß-Flachbettscanner für 9000 Mark – endlich musste ich nicht mehr an die Reprokamera).

    Interessant. Wenn ich mir so überlege, ein “DIN-A4-schwarzweiß-Flachbettscanner für 9000 Mark”, also rund 4500 €… – Das kann man sich heute kaum noch vorstellen.

    Ich fands gut geschrieben und unterhaltsam, weil auch deine Begeisterung fürs Thema durchkommt (für mich eines der wichtigsten Kriterien). Und fachlich war auch viel neues und interessantes dabei. Danke dafür.

    Bitte schön. – Was war denn für Dich neu, wenn ich fragen darf?

    —–
    #18 Florian Freistetter

    Ich fand den Artikel übrigens auch super! Und als Fortsetzung würde ich mir jetzt noch eine Analyse all der absurden grafischen und anderen Symbole auf der C64-Tastatur wünschen 😉

    Was soll man denn daran noch gross analysieren? – Die waren halt so. 🙂

    Als Kind hab ich damit immer wunderbare Bilder auf den blau/grauen-Bildschirm gezeichnet…

    Ich denke, dafür waren sie gedacht, also hast Du sie doch selbst schon analysiert. 🙂
    Was Bilder sonst angeht, so hab ich mich dann ja doch über das leistungsfähigere Basic des C-128 gefreut. Hab damit kleine Programme geschrieben, die ein Bild in “hochauflösender Grafik” gezeichnet haben. – Was damals eben als hochauflösend galt.

    —–
    #19 BreitSide

    Ich hatte ´88 oder so einen Kollegen, der nahm immer seinen Mac mit, mit dem er die IBMs nicht nur emulierte, sondern auch noch schneller 🙄

    Sowas hab ich in den frühen 1990er Jahren mal bei einer Vorführung an der FH gesehen. Ich glaube das war auf Rechnern von Digital Equipment, einer Firma, die es inzwischen auch nicht mehr gibt. Da haben sie Windows 3.x in einer VM laufen lassen und einer der Vortagenden meinte dabei sinngemäss, wenn die das öfter laufen lassen, dann wird es auf deren Rechnern irgendwann schneller als auf der Hardware, für die es entwickelt wurde. Das lag daran, dass die im Hintergrund noch ‘ne Codeanalyse durchgeführt haben und darauf basierend den am meisten durchlaufenen Code in die nativen CPU-Befehle des verwendeten Rechners übersetzt haben.

    —–
    #23 dgbrt

    Mein C64 konnte glaube ich 16 Farben und an jedem beliebigen Fernsehen betrieben werden.

    Du erinnerst Dich richtig. 🙂

    Als ich mir 1988 den ersten PC (286er) kaufen konnte war ich einer der Wenigen, die schon eine Festplatte hatten (20MByte). Die EGA-Karte dieses Vorführgerätes musste ich allerdings durch eine Hercules-Karte ersetzen, da ich mir den teuren Monitor nicht leisten konnte.

    Auch da sind die Preise ja noch stark gefallen. Ich hab meinen ersten PC, ebenfalls ein 286er, im Jahr 1990 gekauft, aber schon mit VGA-Karte und 44MB Festplatte. Und einen VGA-Monitor der Auflösungen von 800×600 Pixel bei 16-Bit Farbtiefe kann – und immer noch funktioniert.

    Mein Textverarbeitungsprogramm war damals Word von MS und das Hauptmenü war unten über die ESC-Taste zu erreichen. Ich konnte da damals ganz gut mit umgehen, aber für einen Ausdruck auf einem Star 9-Nadel-Drucker musste ich mangels Treiber immer einige Steuersequenzen voranstellen. WYSIWYG war ein Traum.

    Ich wollte ja ursprünglich auch auf ein paar Textverarbeitungsprogramme noch genauer eingehen. Zum Beispiel die Tastenbefehle von Wordstar, die auch der Editor von Turbo Pascal verwendet hat. Auch hatte ich überlegt, ein paar Screenshots von Printfox und “Mastertext 128” zu bringen. Nur müsste ich den 128er dafür erst mal aufbauen, wozu ich keinen Platz habe. Und die grosse Preisfrage ist, ob die Hardware noch richtig funktioniert und die Disketten auch noch lesbar sind? Danach bekäme der Begriff Bildschirmfoto auch wieder seine ursprüngliche Bedeutung zurück, weil ich dann nämlich wirklich den Bildschirm fotografieren müsste…
    Aber ich glaube inzwischen, das wäre auch genug Material für einen weiteren Beitrag.

    Zu den diversen Schreibfehlern: Danke für die Hinweise, denn dann weis ich, wo ich noch dran arbeiten muss.

  25. #25 Crazee
    15. September 2015

    Hat mir auch Spaß gemacht der Text.

  26. #26 JoselB
    15. September 2015

    Gut zu lesender Text. Und wenn auch viel zu lang, so hatte ich trotzdem bei jedem zweiten Absatz oder so den Reflex “Da müsse man aber unbedingt noch XY dazu sagen”, von 1 Byte=4 bis 36 Bit, Kerning, Anti-Aliasing, bis zu der Tatsache, dass WYSIWYG eben oft nicht gegolten hat, weil der kursive Text im Ausdruck breiter war als auf dem Bildschirm und man deshalb manchmal mehr Seiten als erwartet im Ausdruck hatte. Von den ganzen asiatischen Codecs mal ganz zu schweigen. Da gibts noch so viel mehr zu diesem hochinteressanten Thema zu sagen…

  27. #27 Alderamin
    15. September 2015

    @Hans

    Netter Rückblick auf die Geschichte des Heimcomputers, selbst miterlebt. 1980 VHS-Kurs “Programmierung von Mikrocomputern” belegt und beim Commodore CBM 4000 mit einem selbstgeschriebenen Schiffe-Versenken-BASIC-Programm den RAM vollgemacht.

    Dann von den Eltern einen Apple ][ geschenkt bekommen. Speichern der Programme auf einem Kassettenrecorder (Floppy zu teuer), das Bild auf dem s/w-Röhrenfernseher wiedergegeben (Monitor zu teuer). Der Apple konnte auch Farbe, aber nur auf NTSC. Der hochauflösende Grafikmodus hatte 280 Spalten und 192 Zeilen, und man konnte nur bestimmte Farben in bestimmten Spalten benutzen (gerade Spalten konnten nur grün oder rot sein, ungerade nur violett oder blau, und alle konnten schwarz oder weiß sein; oder so ähnlich).

    Mein Apple ][ hat aber nie einen Farbmonitor gesehen, nur einen grünen (steht noch im Keller) der Amiga hatte später einen Eizo Flexscan. Ja, und der laute Nadeldrucker mit dem Endlospapier. Man hatte zwar eine Raubkopie von Wordstar, aber Briefe schreiben? Ausgeschlossen. Zum Briefe Schreiben hatte ich dann noch eine elektrische Schreibmaschine (natürlich Kugelkopf, Typenhebel sind so langsam und verhaken sich gerne; meine hatte ein Kohle-Farbband und sogar ein Korrektur-Band, mit dem man die Kohle wieder vom Papier holen konnte!)

    Richtige Textverarbeitung ging erst mit dem Performa LC-Mac und einem s/w-Tintendrucker. Tja, und jetzt steht nebenan ein Farblaser, der Fotos druckt wie ein Labor, dank Scanner auch noch farbkopieren kann, der per WLAN auch vom Tablet und Handy drucken kann und der gerade mal 300 Euro gekostet hat. Den können sogar die Katzen bedienen 😆

    Und wie geht’s in Zukunft weiter? Vorlesen ist manchmal mühsam, vor allem mit Satzzeichen, und wenn ich während der Autofahrt Siri eine SMS diktiere, darf ich keine Sekunde zuviel über den weiteren Text nachdenken, sonst will die digitale Dame die Nachricht schon versenden.

  28. #28 kaktus
    15. September 2015

    @hans, #11:

    In den ersten beiden Absätzen: “Computerintern”, “Umfangreicher”, “Schreibmaschiene”.
    Kommafehler.
    Klar, muss einen nicht stören…

  29. #29 Alderamin
    15. September 2015

    @kaktus, Hans

    Eben doch ein Argument, den Text in Word oder OpenOffice zu schreiben, den Spellchecker zu benutzen, und ihn dann erst in eine Textdatei zu kopieren…

  30. #30 bruno
    15. September 2015

    Wie Alderamin das vorgeschlagen hat, ist es sicher der bessere Weg. Aber sich jetzt hier wegen weniger und minder gravierender Rechtschreibfehler innerhalb eines so unterhaltsamen Textes zu echauffieren …. da macht(e) ja der Chef selbst mehr und bessere Fehler.
    Und das Argument mit den Kommata finde ich – nach Gültigkeit sowohl aktueller als auch vergangener Interpuntionsregeln – völlig überzogen!

    Na, mir hats gefallen!

  31. #31 BreitSide
    Beim Deich
    15. September 2015

    Firefox hat ja Add-ons für alle Zwecke, auf für Rechtsschreibung. Hab ich grad gestern installiert. Grammatik kann das aber nicht.

  32. #32 Bumfidel
    OWL
    15. September 2015

    Viele Dank für diesen nostalgischen Rückblick. Meine ersten Versuche begannen mit dem kleinen Commodore-Bruder VC 20. Der hatte noch keine “Sprites” und für die selbst programmierten Spiele musste der Zeichensatz im Zeichen-Generator umgeändert werden. Das war die einzige Möglichkeit, “Grafik” darzustellen. Damit habe ich das Binär-System gelernt.
    Echte Textverarbeitung gab es dann mit WITCHPEN, das schon WYSIWYG hatte, als Word, Wordstar und WordPerfect noch Jahre davon entfernt waren.

  33. #33 Hans
    15. September 2015

    #26 JoselB

    Gut zu lesender Text. Und wenn auch viel zu lang, so hatte ich trotzdem bei jedem zweiten Absatz oder so den Reflex “Da müsse man aber unbedingt noch XY dazu sagen”,

    *gg* ja, da war es schon nicht immer leicht zu entscheiden, was ich denn jetzt weg lasse.

    von 1 Byte=4 bis 36 Bit, Kerning, Anti-Aliasing, bis zu der Tatsache, dass WYSIWYG eben oft nicht gegolten hat, weil der kursive Text im Ausdruck breiter war als auf dem Bildschirm und man deshalb manchmal mehr Seiten als erwartet im Ausdruck hatte.

    Zu den einzelnen Punkten ganz kurz:
    Das mit den Bytes die mehr oder weniger als 8 Bit hatten, ist mir auch erst kürzlich so richtig klar geworden, weil ich mich da vorher nicht so drum gekümmert habe. Sehr interessant finde ich in dem Zusammenhang diesen Beitrag von Markus Pössel nebenan bei den SciLogs.
    Kerning, Anti-Aliasing und was es in der Typografie sonst noch gibt, womit ich es teilweise auch in Textverarbeitungen zu tun hatte, sollte eigentlich noch kommen. Aber wie ich am Ende des Textes ja schon geschrieben habe, reichte es sowohl vom Platz als auch von der Zeit nicht mehr.
    Das WYSIWYG oftmals doch nicht galt, hab ich nicht erlebt. Wahrscheinlich muss(te) man dabei auch zwischen DTP-Programmen wie QuarkXPress oder PageMaker und beinahe-DTP Funktionen in den Textverarbeitungen unterscheiden. Ob das heute immer noch nötig ist, glaube ich zwar nicht, weis es aber auch nicht.

    Von den ganzen asiatischen Codecs mal ganz zu schweigen. Da gibts noch so viel mehr zu diesem hochinteressanten Thema zu sagen…

    Oh ja, das ist ein Bereich, damit kann man sich länger beschäftigen, wie ich auch bei der Behandlung von Unicode geschrieben habe.

  34. #34 Hans
    15. September 2015

    #27 Alderamin

    Netter Rückblick auf die Geschichte des Heimcomputers, selbst miterlebt. 1980 VHS-Kurs “Programmierung von Mikrocomputern” belegt und beim Commodore CBM 4000 mit einem selbstgeschriebenen Schiffe-Versenken-BASIC-Programm den RAM vollgemacht.

    Ich glaube, Du warst ein Experte darin, die damaligen Rechner bis an die Grenzen ihrer Speicherkapazität auszunutzen, kann das sein?

    Dann von den Eltern einen Apple ][ geschenkt bekommen. … Der Apple konnte auch Farbe, aber nur auf NTSC. Der hochauflösende Grafikmodus hatte 280 Spalten und 192 Zeilen, und man konnte nur bestimmte Farben in bestimmten Spalten benutzen (gerade Spalten konnten nur grün oder rot sein, ungerade nur violett oder blau, und alle konnten schwarz oder weiß sein; oder so ähnlich).

    Das war ja noch umständlicher, wie die Farbe im hochauflösenden Grafikmodus vom C-64/128. Der konnte auch alle 16 Farben im HiRes-Modus darstellen, aber man war dabei auf eine Farbe in einem 8×8 Pixel grossen Raster festgelegt.

    Mein Apple ][ hat aber nie einen Farbmonitor gesehen, nur einen grünen (steht noch im Keller) der Amiga hatte später einen Eizo Flexscan. Ja, und der laute Nadeldrucker mit dem Endlospapier. Man hatte zwar eine Raubkopie von Wordstar, aber Briefe schreiben? Ausgeschlossen. Zum Briefe Schreiben hatte ich dann noch eine elektrische Schreibmaschine (natürlich Kugelkopf, Typenhebel sind so langsam und verhaken sich gerne; meine hatte ein Kohle-Farbband und sogar ein Korrektur-Band, mit dem man die Kohle wieder vom Papier holen konnte!)

    Ich hab bei meinem 128er zum Glück auch den zugehörigen Commodore 1802 Monitor dabei, der sowohl die 40-Zeichen Darstellung des VIC-Chip vom 64er, als auch das RGB-Signal des 80-Zeichen Controllers vom 128er darstellen kann. Man kann den Monitor sogar zwischen den Modi umschalten, was ganz praktisch ist, wenn man den VIC-Chip zur Grafikdarstellung verwendet. Dann kann man auf dem 80-Zeichen Bildschirm den Programmtext bearbeiten und das Programm dann ab einer bestimmten Zeile weiter laufen lassen, ohne es komplett neu starten zu müssen. Also so Sachen, die man am liebsten immer schon mit 2 Monitoren machen würde.

    Und als ich dann so um 1988 auch endlich einen Drucker hatte, hab ich mit dem Computer auch Briefe und Referate für die Schule geschrieben. Meisstens sogar im Draft-mode und nur selten im NLQ-Mode, – auch zwei Begriffe, die inzwischen mehr oder weniger irrelevant sind, die ich aber noch behandeln wollte…
    Zu der Zeit hatte meine Schwester auch ‘ne Typenradschreibmaschiene (Silver Reed EX-43), die auch ein Computerinterface hatte. Nur hab ich damals keine Dokumentation dafür gefunden, sonst hätte ich versucht, die Maschiene vom Rechner aus anzusteuern. (Einen Treiber vom Hersteller der Schreibmaschiene hätten wir uns nicht leisten können.)

  35. #35 Hans
    15. September 2015

    #29 Alderamin

    @kaktus, Hans
    Eben doch ein Argument, den Text in Word oder OpenOffice zu schreiben, den Spellchecker zu benutzen, und ihn dann erst in eine Textdatei zu kopieren…

    Naja, das wäre in meinem Fall aber noch umständlicher gewesen, als es eh schon war, weil ich den Text auch immer wieder im Webbrowser anzeigen lassen habe, um zu sehen, wie der Text im Blog letztlich aussehen würde. Dazu hab ich die verwendeten Auszeichnungen gleich als HTML-Codes in den Text eingebaut und die Bilder als img-Tags eingebunden. (Bildbeschreibungen als HTML-Kommentare) Dabei spielt ein Office-Programm konzeptbedingt nicht mit. – Naja, mit entsprechenden Exportmakros wahrscheinlich schon, nur das passende Exportmakro müsste ich mir wohl selbst schreiben, aber mit Makroporgrammierung hab ich mich noch nicht beschäftigt.

  36. #36 Hans
    15. September 2015

    #32 Bumfidel

    Echte Textverarbeitung gab es dann mit WITCHPEN, das schon WYSIWYG hatte, als Word, Wordstar und WordPerfect noch Jahre davon entfernt waren.

    Nicht ganz so umfangreich, aber auch von der Art, das man sowas auf dem C64 nicht oder kaum für möglich hielt, war Printfox ja auch, wie ich im Text oben geschrieben habe.

  37. #37 Dampier
    15. September 2015

    @Hans

    Und fachlich war auch viel neues und interessantes dabei. Danke dafür.

    Bitte schön. – Was war denn für Dich neu, wenn ich fragen darf?

    Eigentlich alles – ich hatte keine Ahnung, wie ASCII und Unicode genau funktionieren (dabei liebe ich ASCII-Art :).

  38. #38 Dampier
    15. September 2015

    Wahrscheinlich muss(te) man dabei auch zwischen DTP-Programmen wie QuarkXPress oder PageMaker und beinahe-DTP Funktionen in den Textverarbeitungen unterscheiden. Ob das heute immer noch nötig ist, glaube ich zwar nicht, weis es aber auch nicht.

    Strenggenommen gibt es bis heute noch kein WISIWYG. Das hängt vor allem mit dem Hinting der Schriften zusammen. Kurz gesagt, der Glättung der Vektoren, also der randscharfen Darstellung am Monitor, auf Ausdrucken etc.

    Vektorgrafiken (Logos etc.) werden auf eine bestimmte Art geglättet, die ist aber für kleine Schriften zu grob, deshalb haben gute Schriften nochmal ein eigenes Hinting in der Schriftdatei abgelegt. Das ist aber auch nicht immer unproblematisch. Kurz gesagt, keine Bildschirmdarstellung, kein Farbausdruck, auch kein Proof (hochwertiger, farbentreuer Ausdruck) kann kleine Schriften oder filigrane Logos so scharf darstellen, wie sie später im Offstdruck erscheinen. Da hat schon manches mal ein Kunde komisch geguckt, weil das Endergebnis anders aussah als alle PDFs und Farbausdrucke vorher … Man muss also Andrucke machen, wenn man’s genau wissen will, und die sind sauteuer.

    Naja, und so … würde auch für nen Artikel langen 😉

  39. #39 Karl Mistelberger
    17. September 2015

    > Nun ist der ASCII-Code aber auch ein Kind seiner Zeit, nämlich der 1960er Jahre. Da gab es noch kein Internet, dafür waren aber sogenannte Fernschreiber weit verbreitet, die es heutzutage kaum noch gibt. Die kann man sich in etwa als Schreibmaschiene mit Anschluss ans Telefonnetz vorstellen, womit man einen Text über eine Kommunikationsleitung an ein entferntes Gerät verschicken konnte.

    Fernschreiber arbeiteten damals wohl meistens mit Codes, die auf den Arbeiten von Émile Baudot beruhten, z.B. mit dem Baudot-Murray-Code standardisiert als CCITT-2. Ein Beispiel ist die Immatrikulationsbescheinigung vom Wintersemester 1969/70

    Die Zeit davor und die Anfänge kommen etwas zu kurz, mehr gibt es hier:

    An annotated history of some character codes

    Punched Card Codes

    und natürlich: The Virtual Keypunch

    Heute ist das Problem der Kodierung mit Unicode weitgehend gelöst und wer noch immer Probleme hat, dem ist mit Project Naptha geholfen. Wenn es dann noch hakt hilft nur noch ein mutiger Schritt vom Halfwit zum Wit.

    I am sorry Mr. Christ. You are only licensed for five loaves of bread and two fish.

    Apropos Schreibmaschiene: Tippfehler sind unnötig wie Schlaglöcher oder Blowups auf der Autobahn. Natürlich ist es der freie Wille eines Schreiberlings welche zu machen, aber er sollte nicht übersehen, dass sich der liebe Gott etwas dabei gedacht hat, als er die Menschen damit ausstattete: Dank des freien Willens kann er viele Leute ohne Skrupel zur Hölle schicken.

  40. #40 Theres
    17. September 2015

    Chic … mal wieder die alten Grundlagen wiederholt, und, ich gebe es ungern zu, auch einen Teil meiner Geschichte. Mainframerechner … ach ja 🙂
    Ich bin erstaunt, dass man diese Code-Gewirr so nett und unterhaltsam beschreiben kann. Nein, nicht man, Hans wars. Gefällt mir gut.

  41. #41 klauswerner
    18. September 2015

    Schöner Ausflug in die Vergangenheit 🙂 dangen es da noch den 7-Bit-Nixdorf Code, der im 8-Bit helle und blasse Darstellung am Bildschirm steuerte.
    Dateien einlesen von verschiedenen Computern – das war damals ein Grauß!

    EBCDIC war übrigens weit verbreitet – alle IBM maschinen arbeiteten damit.

  42. #42 Tina_HH
    24. September 2015

    So, endlich gelesen! Interessanter Artikel, der mich beim Lesen ganz nostalgisch an meinen ersten eigenen PC zurückdenken ließ.
    Das war ein 1993 gebraucht von einem Freund erworbener 386er Compaq. Das Betriebssystem muss wohl noch Windows 3.11 gewesen sein. Ich erinnere mich, dass statt MS Word Word Perfect darauf lief und noch Quattro Pro statt (heutzutage) Excel. Eigentlich lief das Ding ganz gut.

    Was die Druckvorschau auf dem PC angeht, so brachten dies einige DOS-Programme in den späten 80er und frühen 90er Jahren auch endlich zustande, sofern der Rechner über eine entsprechende Grafikkarte verfügte.

    Die Druckvorschau hatte ich schon ganz vergessen! Aber stimmt, das machte man damals noch so. Erst die Druckvorschau öffnen, um zu sehen, wie das Dokument dargestellt wird.
    Unvorstellbar finde ich im Nachhinein, dass man zu der Zeit noch keinen Internetanschluss hatte und es all das, was man heute so selbstverständlich täglich nutzt, noch gar nicht gab…

  43. #43 Captain E.
    24. September 2015

    EBCDIC und Mainframes gibt es immer noch, und wer eine oder mehrere solcher Maschinen sein eigen nennt, der bleibt dabei und kauft regelmäßig neue. Das gilt natürlich nur für hinreichend große Behörden und Firmen.

    Natürlich können IBM-Mainframes seit einiger Zeit auch virtuelle Server zur Verfügung stellen, die dann etwa als Linux-Rechner ohne EBCDIC auskommen. Bei der “normalen” Arbeit mit Mainframes muss man aber immer noch damit zurecht kommen. Problematisch wird es natürlich, wenn man Daten mit anderen Rechnern austauschen muss, weil dann hin und her konvertiert wird.

  44. #44 Hans
    24. September 2015

    @Tina_HH:
    Schön, das Dir der Beitrag gefällt. 🙂
    Und ja, die Konkurenzprodukte zum MS-Office, dass es zu der Zeit ja auch noch nicht so gab, wie man es heute kennt. Da wurden Word und Excel noch als separate Produkte verkauft. Das erste Officepaket, wo Word, Excel und Accses? zu einem Paket gebündelt waren, kam erst mit Windows 95.

    Die Druckvorschau hatte ich schon ganz vergessen! Aber stimmt, das machte man damals noch so. Erst die Druckvorschau öffnen, um zu sehen, wie das Dokument dargestellt wird.

    Oh, das mache ich auch heute noch, speziell dann, wenn ich Internetseiten ausdrucken will, was hin und wieder mal vorkommt. Da ist es durch Javaskript und den höheren Weihen der Cascading Style Sheets (CSS) nämlich oftmals so, dass ein Layout zwar optimal an den Bildschirm angepasst ist, aber nicht an den Drucker. Das äussert sich u.a. darin, dass am rechten Rand gnadenlos abgeschnitten wird, was nicht mehr auf’s Papier passt. Selbst wenn links ein 3 cm breiter Rand ist. Oder eine Menüspalte vom linken Bildschirmrand wird mitgedruckt, obwohl sie im Ausdruck völlig sinn- und nutzlos ist. Oftmals hilft es, die Seite zu verkleinern, (was die Druckfunktion des Firefox beherscht) aber immer leider auch nicht. Wenn ich so eine Seite unbedingt gedruckt haben will, (was ab und zu mal vorkommt) ist Handarbeit angesagt: HTML-Code nach geschachtelten div-s und Tabellen durchforsten und das überflüssige Zeugs (meisst Menüs und Werbebereiche) raus schmeissen. Den so behandelten HTML-Text, der dann meisst bis zu 50% kürzer ist, abspeichern (möglichst unter einem neuen Namen, damit man im Zweifelsfall auf die Ursprungsdatei zurück greifen kann) im Browser ansehen und Druchvorschau begutachten.
    Sehr nützlich (für mich) ist auch ein sogenannter PDF-Druckertreiber. Der liesst die Daten, die an den Drucker geschickt werden und erstellt daraus eine PDF-Datei, die er auf der Platte speichert. Die kann man dann im PDF-Viewer betrachten und sieht ebenfalls, was aus dem Drucker heraus kommen würde ohne unnötig Papier und Tinte oder Toner zu verbraten.

  45. #45 Tina_HH
    25. September 2015

    @Hans

    HTML-Code nach geschachtelten div-s und Tabellen durchforsten und das überflüssige Zeugs (meisst Menüs und Werbebereiche) raus schmeissen.

    Ist das nicht ganz schön aufwändig?

    Ich drucke zwar nicht so oft Seiten direkt aus dem Internet aus, aber wenn es doch mal nötig ist, klappte das bisher meist ohne größere Probleme. Ich mache das dann entweder direkt als PDF (falls das angeboten wird) oder manchmal auch einfach, indem ich den Text (eventuell noch mit Bildern / Grafiken), den ich gedruckt haben will, rauskopiere und in Word öffne. Menüs und Werbebereiche sind auf diese Art und Weise dann auch nicht mehr dabei und man kann das Dokument aus Word heraus ganz einfach ausdrucken (oder, wenn man will, auch noch in ein PDF umwandeln).
    Ich weiß allerdings nicht, ob dieses Vorgehen professionell ist, aber es funktioniert. 😉

  46. #46 Hans
    25. September 2015

    @Tina_HH

    Ist das nicht ganz schön aufwändig?

    Äh ja, leider schon. – Aber mit einem guten Editor mit Syntaxhighlighting geht es recht einfach. Ich benutz dazu Wordpad++; der hat die schöne Eigenschaft, wenn der Cursor auf einem öffnenden Tag steht, dann auch das zugehörige schliessende Tag hervor zu heben oder umgekehrt. Wenn man dann noch berücksichtigt, dass man Schachtelungen immer von innen nach aussen bearbeitet, dann geht es ganz gut.

    Ich weiß allerdings nicht, ob dieses Vorgehen professionell ist, aber es funktioniert. 😉

    Das weis ich jetzt auch nicht, lassen wir es also mal dahin gestellt und jeden für sich entscheiden. Das wichtigste ist doch, das es funktioniert.
    Ich treibe den Aufwand ja, um die Formatierungen des interessierenden Textes weitestgehend zu erhalten. Das hab ich auch schon mit StarOffice und später mit OpenOffice versucht. Aber das klappte oftmals nicht so, wie ich es haben wollte. Insbesondere die Tabellen von HTML liessen sich in den Star-/OpenOffice Dokumenten nicht so bearbeiten, wie ich es wollte. Speziell dann, wenn die HTML-Tabellen zweckentfremdet, etwa zur Gestaltung des Seitenlayouts, eingesetzt wurden. Da blieb mir dann am Ende doch nichts anderes übrig, als den HTML-Text direkt zu bearbeiten, was in OpenOffice nicht geht. Interessanterweise sahen die vereinfachten HTML-Dokumente in OpenOffice dann wieder dem Original ähnlicher, bzw. es waren auch Teile wieder sichtbar, die sonst an Seitenenden (der dem unteren Rand einer Tabellenzeile) abgeschnitten wurden, wobei ich nicht die geringste Ahnung habe, warum Star- bzw. OpenOffice das im Einzelfall mach(t)en.