Es ist da!

Titelbild von Matthias Röhr,: Der Lange Weg zum Internet

Vor ein paar Tagen ist (endlich!) meine Dissertation als gedrucktes Buch (& als E-Book) erschienen. Mehr Infos beim Verlag.

Oder direkt bei Amazon, Thalia oder Eurobuch.

Ich melde mich zurück! (inkl. Literaturhinweisen)

An dieser Stelle war viel zu lange nichts mehr von mir zu hören lesen. Ich war in der Zwischenzeit aber keineswegs auf Weltreise, sondern habe mich als Wissenschaftlicher Mitarbeiter an der Forschungsstelle für Zeitgeschichte in Hamburg mit der Erforschung der jüngsten Zeitgeschichte der Digitalisierung befasst.

Erste Forschungsergebnisse von mir sind mittlerweile bereits publiziert, haben hier im Blog aber bislang keine Erwähnung gefunden. Das möchte ich jetzt nachholen:

Bereits Anfang 2016 erschien ein Beitrag von mir im Jahresbericht der Forschungsstelle von mir, in dem ich mich, ausgehend von John Perry Barlows Unabhängigkeitserklärung des Cyberspaces, mit der Entstehung von den Phänomenen befasse, die Barlow 1996 als „die neue Heimat des Geistes“ und „Cyberspace“ bezeichnet hat.

2017 ist ein englischsprachiger Artikel von mir über „home computer on the line“ erschienen, der sich mit der westdeutschen Mailboxszene der 1980er Jahre vor dem Hintergrund eines Strukturwandels der Telekommunikationsindustrie befasst.

Cover von "Wege in die Digitale Gesellschaft"

In Kürze erscheint ein Aufsatz von mir in einem Sammelband des Zentrums für Zeithistorische Forschung in Potsdam, der voraussichtlich leider nicht online zugänglich sein wird. Da der dem Band allerdings in zahlreichen Aufsätzen die verschlungenen Wege der westdeutschen Gesellschaft in das digitale Zeitalter nachzeichnet, kann sich die Anschaffung für den historisch interessierten „digital native“ durchaus lohnen.

Mein Beitrag an den Band besteht aus einem Aufsatz über „Digitale Kommunikation in der Bundesrepublik der 1970er und 1980er Jahre“ vertreten und erkläre dort, warum es in dieser Zeit relativ teuer und aufwendig war, Computer mit dem offiziellen Segen der Bundespost zu vernetzen.

PS: Hoffentlich dauert es nicht wieder über drei Jahre, bis an dieser Stelle etwas von mir zu lesen ist.

Neuer Podcast über „Coding History“

Daniel Meßner hat ein neues Podcastprojekt gestartet. „Coding History“

Coding History widmet sich der Geschichte von Software und ihrer Programmierung. (…) Mir geht es mit diesem Projekt darum, besser zu verstehen, wie die digitale Welt geworden ist, wie sie ist und wie sie sich und ihre Um-Welt verändert.

Ich halte diese Perspektive für sehr gewinnbringend, da sie den Blick für die Bedeutung von Software und ihre Historizität öffnet. Folgt man dem Diktum von Lawrence Lässing „Code is Law“, das Software und weniger klassische Gesetze die eigentlichen Regeln in der digitalen Welt aufstellen, kann eine Historisierung von Softwareentwicklung vielleicht besser beim Verständnis der Gegenwart helfen als klassische Politikgeschichte. Insofern wüsche ich Daniel sehr viel Erfolg mit dem Projekt.

Ich hatte bislang erst Zeit, Folge 2 über den 31C3 zu hören, die ich aber bereits sehr interessant fand, auch wenn sie sich nur sehr am Rand mit der Geschichte des Programmierens befasst. Folge 1 mit Caspar Clemens Mierau über die Geschichte und Rolle von digitalen Entwicklungsumgebungen scheint mehr in die Materie zu gehen.

 

Podiumsdisskusion zum 30igsten Jahrestag des BTX-Hacks

Zum 30sten Jahrestag des BTX-Hacks am 17. November hat die Wau-Holland-Stiftung eine Podiumsdiskussion veranstaltet, dessen Aufzeichnung hier zu sehen ist.

Während mit Steffen Wernéry einer der Protagonisten des BTX-Hacks auf dem Podium saß, war mit Erich Danke (WP) ein Vertreter der „alten“ Bundespost anwesend, der maßgeblich an der Einführung von BTX beteiligt war. Es hätte also spannend werden können. Wurde es aber nicht.

Während Wernéry weiter am Mythos des CCC und des BTX-Hacks strickte und keine neuen Details zu Ablauf preisgab, konnte Danke ebenfalls nicht zur Aufklärung der technischen Zusammenhänge beitragen. Die Post scheint sich bei BTX weitgehend auf IBM verlassen zu haben, selbst bei Fragen der Verschlüsselung. Zu den Hintergründen von BTX sagte er nichts.

Interessanter als das Podium ist allerdings das Begleitmaterial der Wau-Holland-Stiftung „aus dem Hackerarchiv„.

Kurz verlinkt: Ted Nelson’s Xanadu, Transklusion

Ted Nelsons, ein (sehr) früher Visionär des Hypertext und der Autor von Computer Lib wurde mit einer Veranstaltung an der Chapman University in Südkalifornien geehrt, bei der auch eine Version von Xanadu vorgestellt wurde, ein Hyperlinksystem, dass mit Transklusion arbeitet. Wenn ein verlinkter Text geändert wird, wirkt sich die Änderung auf alle Verlinkungen aus.

Auf den ersten Blick stellt ein solches System für mich eine Herausforderung für geisteswissenschaftliches Arbeiten dar. In der Regel bezieht man sich ja auf eine spezifische Version eines anderen Textes. Ok, Rechtschreibfehler dürfen in Zitaten gerne automatisch korrigiert werden (aber wer entfernt das [sic!]…?). Aber wenn im Original einfach der Sinn geändert wird, bricht doch so manche Argumentation. Transklusion braucht also eine ordentliche Versionierung auf beiden Seiten und kann nicht automatisiert ablaufen. Was bringt sie dann also? Oder verstehe ich da was falsch?

Das Internet und Btx

Wann immer jemand etwas über Btx, dem mittlerweile historischen Bildschirmtextsystem der Deutschen Bundespost schreibt, werde ich aufmerksam – den Btx und der staatlich geplante „Aufbruch in die Informationsgesellschaft“ in den 1980ern Jahren ist Teil meines engeren Interessen- und Forschungsgebietes. Zu Geschichte von Btx habe ich daher hier in diesem Blog schon mehrfach geschrieben.

Der jüngste Artikel zu Btx stammt von Torsten Dewi (Wikipedia) auf dem ZDF-Blog Hyperland. Dewi bring darin (wieder einmal) das Argument, dem Internet fehle, anders als Btx, eine eingebaute Bezahlfunktion.

„Das Internet und Btx“ weiterlesen

Kurz Verlinkt: Jan Hecker-Stampehl über digitale Geschichte und Geschichtsswissenschaft

In der letzten Episode des von mir hochgeschätzten Podcasts „Stimmen der Kulturwissenschaften“ (direkt mp3|ogg) spricht Jan Hecker-Stampehl über digitale Geschichte und Geschichtswissenschaften.

Wichtig fand seinen Hinweis, das die Digitalisierung weniger neue (geisteswissenschaftliche) Methoden hervorbringt, sondern sich mehr auf die Kommunikation über Geschichte auswirkt – ein Umstand, auf den die professionelle Geschichtswissenschaft reagieren muss, um nicht den Rest ihrer gesellschaftlichen Bedeutung zu verlieren. Gerade deshalb sind Blogs und Projekte wie @9Nov38 für die Geschichtswissenschaft so wichtig, weil sie den akademischen Diskurs öffnen.

Ich widerspreche allerdings Jans Behauptung, dass Historiker nicht programmieren können müssen. Das mag bislang zwar noch so sein, aber spätestens, wenn wir es mit rein digitalen Quellen („digital born“) zu tun bekommen, sollte ein Historiker genau wissen, wie diese Quellen entstanden sind und was sie eigentlich aussagen können. Oder kurz gesagt: In Zukunft wird auch die Informatik ein Werkzeug des Historikers sein!

Gescannte oder fotografierte Texte und PDFs optimieren – Ein kleines Scan Tailor-Tutorial für Windows

In immer mehr Bibliotheken stehen mittlerweile Buchscanner, vielerorts dürfte daher das Scannen von Texten oder ganzen Büchern das zwar ebenso zeitaufwendige, aber in der Regel kostenpflichtige Kopieren ersetzt haben. Steht kein Aufsichtsscanner zur Verfügung, etwa in kleineren Archiven, übernimmt oft eine handelsübliche Digitalkamera diese Funktion. Die Qualität solcher Scans oder Fotografien lässt oftmals aber sehr zu wünschen übrig, der eigentliche Text ist häufig schlecht zu erkennen. Insbesondere, wenn man seine mühsam in Archiv gesammelten Quellenschätze anderen zur Verfügung stellen möchte, sollte man daran noch etwas ändern.

Schon vor einiger Zeit habe ich das Programm Scan Tailor ScanTailor Advanced entdeckt, mit dem man die Bildqualität von solchem Material nachträglich deutlich verbessern kann. ScanTailor ist eine Software, die dazu verwendet wird, Bücher zu digitalisieren, es kann weitgehend automatisiert die Seiten aufteilen, den Text begradigten, schwarze Ränder entfernen und den Text gegenüber dem Hintergrund hervorheben. Scans, die mit Scan Tailor optimiert wurden, sind deutlich besser zu lesen und haben darüber hinaus den Vorteil, dass sie bei einer erneuten Überführung auf Totholz (aka „Drucken“) umweltfreundlicher sind, da Toner gespart wird. Außerdem lässt sich mit ScanTailor die Dateigröße eines PDFs oftmals deutlich reduzieren. Aber seht selbst.

Vorher

Nachher

„Gescannte oder fotografierte Texte und PDFs optimieren – Ein kleines Scan Tailor-Tutorial für Windows“ weiterlesen

Kurz verlinkt: Historische Vorträge vom 30C3

Ein kurzer Hinweis. Ich war auf dem 30C31Für Unwissende: Dem 30 Chaos Communication Congress des Chaos Computer Clubs in Hamburg und habe zwei Vorträge gehört, die für historisch Interessierte ganz interessant sein dürften.

Zum einen der Vortrag von Andreas Lehner über „den tiefen Staat“ über den Grad der Militarisierung der Infrastruktur in der BRD und den Stay-Behind-Organisationen der NATO.

Und zum anderen natürlich den Vortrag des Historikers Josef Foschepoth über die Post- und Telefonüberwachung in der Bundesrepublik bis 1989. Foschepoth macht dabei deutlich, dass eine fast flächendeckende Überwachung in der BRD im Kontext des Kalten Krieges eine lange Tradition hat, und keineswegs erst im Zuge der Digitalisierung durch die NSA möglich wurde. Das dazugehörige Buch gibt es derzeit sehr kostengünstig bei der Bundeszentrale für politische Bildung.