Das Voynich-Manuskript, ein verschlüsseltes Buch aus dem 15. Jahrhundert, gilt als die Mutter aller ungelösten Verschlüsselungsrätsel.  Jetzt ist ein von mir geschriebener Artikel darüber in Focus Online erschienen.

 

Schon so mancher Kryptologe hat sich am Voynich-Manuskript die Zähne ausgebissen. Im Jahr 2007 gab es im Focus einen Artikel über das Voynich-Manuskript (der Artikel ist inzwischen auch online verfügbar), der dieses faszinierende Kryptogramm in Deutschland erstmals einer breiteren Öffentlichkeit bekannt machte. Im Jahr 2009 berichtete auch die Online-Ausgabe über das Manuskript, Anlass war die Radiokarbon-Untersuchung, die das seltsame Buch ins für 15. Jahrhundert datierte.

Gestern ist in Focus Online ein weiterer Artikel über das Voynich-Manuskript erschienen. Diesen Artikel habe ich geschrieben. Hier ist er.

Voraussichtlich werde ich in nächster Zeit noch mehr über Kryptologie-Geschichte in Focus Online berichten. Themen gibt es ja genug.

Kommentare (18)

  1. #1 lutra
    16. Juni 2013

    Nicht so sehr übertreiben, wenn es um angebliche Premieren geht: http://www.seiten.faz-archiv.de/faz/20011001/fd1n200110011095554.html

    Von wegen “der dieses faszinierende Kryptogramm in Deutschland erstmals einer breiteren Öffentlichkeit bekannt machte” — dieser Artikel von 2001 ist mir spontan eingefallen, und es ist nicht so, als ob die FAZ ein kleines, unbeachtetes Regionalblättchen wäre. Das Voynich-MS wird immer mal wieder von allen möglichen großen Printmedien bzw deren Feuilletons ausgegraben — weil jemand glaubt, eine Lösung gefunden zu haben oder aus sonstigen Gründen. Die breite Öffentlichkeit wird mit guter Regelmäßigkeit immer mal wieder auf das MS aufmerksam gemacht.

    • #2 Klaus Schmeh
      16. Juni 2013

      Das ist sicherlich richtig, aber ich kenne tatsächlich einige Leute, die über den Focus-Artikel erstmals auf das Voynich-Manuskript aufmerksam wurden. Trotzdem hat es natürlich auch schon vorher Berichterstattung darüber gegeben.

  2. #3 Kalle
    16. Juni 2013

    Im Focus-Artikel steht, das dieses Pergament per Radiokarbonanalyse, auf das frühe 15. Jhd. datiert werden konnte, dass aber die Entstehungszeit des Manuskriptes nicht geklärt werden kann.
    Kann man denn die Tinte nicht auf dieselbe Art analysieren und datieren?

    • #4 Klaus Schmeh
      16. Juni 2013

      @Kalle:
      >Kann man denn die Tinte nicht auf dieselbe Art analysieren und datieren?
      Tinte enthält nur wenig organisches Material. Daher müsste man größere Teile des Buchs zerstören, um das Alter der Tinte auf diese Weise zu bestimmen.

  3. #5 Kalle
    16. Juni 2013

    Verstehe. Danke für die prompte Antwort!

  4. #6 Josef Zlatoděj prof.
    střední Evropa
    17. Juni 2013

    Hallo Klaus Schmeh .( Voynich – Experte).

    Ich Kann Sie beraten. Wie man entziffern Voynich Manuskript .

  5. #7 Marcus Anhäuser
    18. Juni 2013

    Wen es interessiert: Ich habe 2003 (über Gordon Ruggs Analyse) und 2007 (über Schinners Analyse) in der SZ geschrieben. Finden sich jeweils hier: http://www.redaktion-wissen.de/texte2003/voynich1.html und http://www.redaktion-wissen.de/texte/sz_070418_voynich.html

    • #8 Klaus Schmeh
      18. Juni 2013

      Danke für den Hinweis. Die beiden Artikel kannte ich noch nicht.

  6. #9 Josef Zlatoděj prof.
    střední Evropa
    19. Juni 2013

    Hallo Klaus. ( slib plním a píši radu).

    Wer will das Voynich Manuskript zu verstehen. Es Sollte zunächst entschlüssel das Schreiben. ( Schreiben Beinecke Library Yale).
    Die durch E – L – Voynich unterzeichnet.
    Der Brief ist sehr wichtig !
    Er wird die Frage zu beantworten, was das Manuskript.
    Der Brief beweist, das Habdank Voynich, entziffern Handschrift. In dem Brief die Anweisungen für die Entschlüsselung.
    Auch geschrieben es, dass das Manuskript Tschechisch ist.

    ( Schreiben = Beinecke Library Yale)

  7. #10 Marcus Anhäuser
    22. Juni 2013

    Hallo Klaus, gerade aktuell in PLoS One: http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0066344
    Keywords and Co-Occurrence Patterns in the Voynich Manuscript: An Information-Theoretic Analysis
    “(…) These results together with some previously known statistical features of the Voynich manuscript, give support to the presence of a genuine message inside the book.(…)”

    • #11 Klaus Schmeh
      22. Juni 2013

      Danke, über diese Sache werde ich morgen berichten.

  8. #12 jhermes
    23. Juni 2013

    Lieber Klaus, herzlichen Glückwunsch zum Umzug auf die ScienceBlogs – das mit dem Bloggen geht ja gut voran, seit wir uns letztes Jahr getroffen haben. Vielen Dank für die Erwähnung meiner Arbeit auf dem Focus-Online-Portal – auch wenn die die da nicht richtig verlinkt haben, sind doch ein paar Nutzer auf meinem Blogpost zum Thema ( http://texperimentales.hypotheses.org/278 ) gelandet. Ich bin gespannt, was du zum PLoS-One-Artikel schreibst, ich schau es mir auch mal an (die letzte Studie zur Keyword-Extraction aus dem VM, die ich gelesen habe, war ziemlich daneben).

    • #13 Klaus Schmeh
      23. Juni 2013

      >Ich bin gespannt, was du zum PLoS-One-Artikel schreibst
      Ich schaue mir die Sache gerade an. Schön, dass es um das Voynich-Manuskript nie langweilig wird.

  9. #14 H.M.Voynich
    25. Juni 2013

    @jhermes:
    “Ich bin gespannt, was du zum PLoS-One-Artikel schreibst”

    Ich hoffe, Du schreibst auch etwas dazu?
    So eine Analyse auf Wortebene finde ich ungeheuer spannend, weil sie all die Probleme nicht hat, mit denen die statistische Analyse der “Buchstaben”ebene kämpfen muß.
    Vorausgesetzt, die Leerzeichen sind wirklich Worttrenner.
    (Also: Trenner der Wörter im Klartext, falls der abweicht. Im Code sind sie es offensichtlich, da passen sie perfekt zur inneren Struktur der “Wörter”.)

  10. #15 H.M.Voynich
    25. Juni 2013

    Überhaupt finde ich das Leerzeichen unterschätzt – gerade bei Redundanzbetrachtungen sollte man es mE unbedingt mit einbeziehen, oder macht das wirklich keinen Unterschied?
    Die Redundanz der Aufeinanderfolge von Zeichen scheint im VMS ungewöhnlich hoch für eine natürliche Sprache zu sein (allenfalls das Polynesische soll da mithalten können, heißt es). Das Leerzeichen mit einzubeziehen würde den Schnitt der normalen Sprachen heben, und sie kämen sich statistisch näher.

    • #16 jhermes
      25. Juni 2013

      Das mit dem Polynesischen geht auf eine Untersuchung von Bennett (1976) zurück, der tatsächlich eine niedrige Verbundentropie (h2) beim VM und Polynesisch feststellt. Liegt aber v.a. daran, dass das von ihm untersuchte Hawaiianisch nur 13 Zeichen aufweist, also auch h1 sehr niedrig ist. Stallings (1998) schlägt daher vor, dass sich die Differenz zwischen h2-h1 besser als Vergleichwert eignet. Da haben die beiden Zeichensysteme dann wieder nichts mehr miteinander zu tun, da ähnelt das VM dann eher Silbenschriften wie dem japanischen Katakana (hab ich in meiner Diss ab S. 96 beschrieben – https://www.researchgate.net/publication/229811640_Textprozessierung_Design_und_Applikation ).
      Und ja, wenn gewünscht, schreibe ich auch Ende der Woche noch was zum PLoS-Artikel…

  11. #17 H.M.Voynich
    25. Juni 2013

    @jhermes:
    Ich bin ja nur interessierter Laie – allerdings sehr interessiert, wie mein Nickname vielleicht zeigt. 😉
    In den Jahren, in denen ich mich damit beschäftige, mußte ich viele Aussagen einfach so aufnehmen und ihnen eine subjektive Glaubwürdigkeit zuordnen; manches ließ sich noch mehr oder weniger nachrecherchieren, aber für mich nicht völlig klären (ist z.Bsp. die Schwalbenschwanzburg auf der Rosettenseite so eindeutig italienisch wie gesagt wird, und wie typisch sind TO-Karten, Badszenen und überhaupt Quacksalberei wann und wo?)
    Mein Hauptinteresse galt daher den Transkriptionen und statistsichen Analysen, da ich diese, genügend Fleißarbeit vorausgesetzt, jederzeit nachvollziehen kann – oder eben nicht.

    Um das Problem mit den verschiedenen Transkriptionen zu illustrieren: manche von uns kennen noch Bücher, in denen sich eine seltsame, alte Schrift befindet. Die weicht zwar wenig von unserer heutigen ab, doch die Unterschiede sind stark genug, um den ungeübten Leser stark zu bremsen oder ganz zu entmutigen.
    Es gab z.Bsp. ein s, das aussah wie ein f, während das uns bekannte s nur am Wortende vorkam.
    Da haben wir direkt beide Fehler – der ersten und zweiten Art – versammelt. Zwei Buchstaben sehen gleich aus, sind aber grundverschieden, während zwei verschieden aussehende eigentlich völlig gleich sind. Deshalb fände ich es sehr wichtig, schriftliche Redundanz- und Verbreitungsanalysen völlig von denen in der (möglichen) Aussprache zu trennen.

    Oder kennt ihr noch Sütterli? Da kann es passieren, ein Wort besteht nur aus lauter aufeinanderfolgenden senkrechten Strichen, die für Is, Us,Es, Ns oder Ms stehen können …
    Deshalb interessierte mich immer, wie man Transkripte irgendwelcher Schriften so generalisieren könnte, daß all diese Fehler ausgebügelt werden.

    Die Buchstabenanalyse ist so spannend, weil sie so viele Probleme aufwirft.
    Die Wortanalyse ist so spannend, weil sie diese einfach umgeht und alte Fragen in neuer Form stellt.

  12. #18 jhermes
    5. Juli 2013

    @H.M.Voynich
    Ich bin jetzt endlich dazu gekommen, zur PLOS-ONE-Studie was zu schreiben – http://texperimentales.hypotheses.org/939