Neuer Podcast über „Coding History“

Daniel Meßner hat ein neues Podcastprojekt gestartet. „Coding History“

Coding History widmet sich der Geschichte von Software und ihrer Programmierung. (…) Mir geht es mit diesem Projekt darum, besser zu verstehen, wie die digitale Welt geworden ist, wie sie ist und wie sie sich und ihre Um-Welt verändert.

Ich halte diese Perspektive für sehr gewinnbringend, da sie den Blick für die Bedeutung von Software und ihre Historizität öffnet. Folgt man dem Diktum von Lawrence Lässing „Code is Law“, das Software und weniger klassische Gesetze die eigentlichen Regeln in der digitalen Welt aufstellen, kann eine Historisierung von Softwareentwicklung vielleicht besser beim Verständnis der Gegenwart helfen als klassische Politikgeschichte. Insofern wüsche ich Daniel sehr viel Erfolg mit dem Projekt.

Ich hatte bislang erst Zeit, Folge 2 über den 31C3 zu hören, die ich aber bereits sehr interessant fand, auch wenn sie sich nur sehr am Rand mit der Geschichte des Programmierens befasst. Folge 1 mit Caspar Clemens Mierau über die Geschichte und Rolle von digitalen Entwicklungsumgebungen scheint mehr in die Materie zu gehen.

 

Kurz Verlinkt: Jan Hecker-Stampehl über digitale Geschichte und Geschichtsswissenschaft

In der letzten Episode des von mir hochgeschätzten Podcasts „Stimmen der Kulturwissenschaften“ (direkt mp3|ogg) spricht Jan Hecker-Stampehl über digitale Geschichte und Geschichtswissenschaften.

Wichtig fand seinen Hinweis, das die Digitalisierung weniger neue (geisteswissenschaftliche) Methoden hervorbringt, sondern sich mehr auf die Kommunikation über Geschichte auswirkt – ein Umstand, auf den die professionelle Geschichtswissenschaft reagieren muss, um nicht den Rest ihrer gesellschaftlichen Bedeutung zu verlieren. Gerade deshalb sind Blogs und Projekte wie @9Nov38 für die Geschichtswissenschaft so wichtig, weil sie den akademischen Diskurs öffnen.

Ich widerspreche allerdings Jans Behauptung, dass Historiker nicht programmieren können müssen. Das mag bislang zwar noch so sein, aber spätestens, wenn wir es mit rein digitalen Quellen („digital born“) zu tun bekommen, sollte ein Historiker genau wissen, wie diese Quellen entstanden sind und was sie eigentlich aussagen können. Oder kurz gesagt: In Zukunft wird auch die Informatik ein Werkzeug des Historikers sein!

Der „Long-Tail“ der Wissenschaft

500px-Long_tail.svg
Visualisierung des „Long Tails“. Sowohl die grüne Fläche mit den „Bestsellern“ und die gelbe Fläche mit den Nischenprodukten sind gleich groß.

Im Jahr 2004 hat der US-Journlist und damalige Chefredakteur Wired Chris Anderson mit einem Buch die Theorie des „Long Tails“ populär gemacht. Im Internet, so der Kern dieser Theorie, kann auch der Handel mit Nischenprodukten gewinnbringend sein, schließlich hat man insbesondere bei virtuellen Gütern (z. B. Bücher und Musik) nur sehr geringe Herstellungs-, Lager- und Vertriebskosten, während man gleichzeitig eine sehr große Zahl an potenziellen Kunden in aller Welt ansprechen kann.

Ein sehr lesenswerter Beitrag von Klaus Graf hat mich nun auf den Gedanken gebracht, dass dies ganz ähnlich auch für die (Geschichts-)Wissenschaft gilt. In dem Beitrag argumentiert Graf, dass es besser wäre, wenn alle in Deutschland angefertigten Qualifikationsschriften, also Bachelor- und Masterarbeiten, Dissertationen und Habilitationen im Internet als Open-Access veröffentlicht werden, anstatt als Pflichtexemplare in Universitätsbibliotheken zu versauern oder als überteuerte Print-On-Demand-Bücher zum Teil fragwürdige Verlage zu finanzieren.

In den Kommentaren meines Post zur #digigw2013 (der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes) habe ich einen ähnlichen Gedanken entwickelt. Um Studierende damit vertraut zu machen, dass Wissenschaft ein öffentlicher Prozess ist, halte ich es für sinnvoll, bereits für Masterarbeiten eine elektronische(!) open-access(!) Veröffentlichungspflicht  in den Prüfungsordnungen festzulegen. Wie Klaus Graf ausgeführt hat, haben angenommene Masterarbeiten, bereits eine Art „Peer-Review“ durch die Prüfer hinter sich, erfüllen also wissenschaftliche Mindeststandards. Eine Überarbeitung, z. B. mit Hinweisen der Prüfer, zwischen Abgabe und Veröffentlichung der Arbeit sollte aber möglich sein.

„Der „Long-Tail“ der Wissenschaft“ weiterlesen

Kryptowars 2.0: Kryptocalypse reloaded

Während ich letzte Woche noch darüber geschrieben habe, das der Einsatz Kryptografie in der Post-Snowden-Ära die einzig verbliebene Möglichkeit ist, sich etwas Ähnliches wie Privatsphäre zu bewahren, scheint dies im Lichte neuer Leaks nicht mehr uneingeschränkt zu gelten – wie der Guardian und die New York Times berichten, ist es der NSA und dem britischen GCHQ schon vor längerer Zeit gelungen, in die gängigsten Verschlüsselungsmethoden wie das zur sicheren Kommunikation im Web stark verbreitete SSL oder in VPN-Netzwerke einzubrechen. Auch Tor scheint beiweiten nicht so sicher, wie bislang gedacht.

Während die mathematischen Grundlagen der Verschlüsselung wohl ungebrochen sind, läuft der Zugang der Geheimdienste nach allen, was bislang bekannt ist (und ich verstanden habe) über die Server und die Algorithmen des Schlüsselaustauschs. Nicht die Kryptografie an sich, sondern ihre jeweiligen Implementierungen sind also „geknackt“.

Eine Forderung von Regierungsvertretern im „ersten Kryptowar“ (so die Bezeichnung der Debatte über Kryptografie-Regulierung in Kreisen des Chaos Computer Clubs (besonders von Andy Müller-Maguhn) in dieser Zeit, unter anderem hier) in den 1990er Jahren war ein sogenanntes „Key escrow„-Verfahren, durch welches die Hersteller von Verschlüsselungssoftware gezwungen werden sollten, („freiwillig“) Kopien aller Schlüssel bei einer staatlichen Stelle zu hinterlegen, damit der Staat auch im Informationszeitalter die Kommunikation seiner Bürger von Kriminellen abhören kann. Damals konnte keine offizielle Regelung eines solchen Verfahrens durchgesetzt werden, und um die Jahrtausendwende herum schien eine Regulierung von Verschlüsselung vom Tisch.

„Kryptowars 2.0: Kryptocalypse reloaded“ weiterlesen

Mein Fazit zur #digigw2013: Digitale Geschichtswissenschaft sollte dezentral, nachhaltig und offen sein

Gestern war ich auf der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes in Braunschweig und möchte hier jetzt ganz persönliches Fazit der Veranstaltung ziehen. Weitere Kommentare zu der Veranstaltung sind bislang hierhier und hier zu finden.

Während die Vorträge und die Podiumsdiskussion (Programm der Tagung) sehr allgemein Fragen der Digitalisierung von Quellen, elektronischen Publizierens, Institutionen und „Big Data“ in der deutschen Geschichtswissenschaft thematisierte, war die sich parallel auf Twitter stattfindende Diskussion deutlich spannender und teilweise sehr viel kritischer und emotionaler. Leider gab es keine Twitterwall, sodass die Diskussion auf den Kreis der ohnehin sehr netzaffinen twitternden Historiker beschränkt blieb – schade, eine Rückbindung an Twitter hätte zumindest die Podiumsdiskussion beleben können.

Mein Zwischenfazit von der Diskussion und der Stimmung vor Ort auf Twitter habe ich in zwei Tweets zusammengefasst:

Beide Punkte möchte ich hier etwas näher ausführen, insbesondere, was ich unter einer dezentralen, nachhaltigen und offenen digitalen Geschichtswissenschaft verstehe.

„Mein Fazit zur #digigw2013: Digitale Geschichtswissenschaft sollte dezentral, nachhaltig und offen sein“ weiterlesen

Die Quellen unserer Tage – nicht erst im Archiv!

Zurzeit läuft in der (noch) recht kleinen deutschen geschichtswissenschaftlichen Blogosphäre eine Debatte darüber, dass aufgrund der Privatisierungstendenzen der letzten Jahrzehnte immer mehr interessante Quellen aus dem regulierten System der staatlichen Archive herausfallen, sodass der Zugang zu ihnen künftig der Willkür privater Unternehmen unterliegt. (Siehe bislang hier und hier)1An dieser Stelle muss wohl auch ein Verweis auf den Aufsatz von Kiran Klaus Patel in den Vierteljahrsheften für Zeitgeschichte unumgänglich: Kiran Klaus Patel: Zeitgeschichte im digitalen Zeitalter. Neue und alte Herausforderungen, in: Vierteljahrshefte für Zeitgeschichte 59 (2011), H. 3, S. 331–351.  Michael Schmalenstroer fordert daher, dass der Zugang von Historikern(!) zu privaten Quellen gesetzlich geregelt werden muss, analog zu den bisherigen Regelungen im staatlichen Archivsektor.

Ich halte es auch für wünschenswert, dass private Unternehmen, zumindest wenn sie im Auftrag der Öffentlichkeit tätig sind, die gleichen Tranzparenzanforderungen erfüllen müssen, wie staatliche Akteure. (Wobei sich natürlich die Frage stellt, was im „Auftrag der Öffentlichkeit“ eigentlich bedeutet. Erfüllt nicht auch eine privatwirtschaftliche Bank einen öffentlichen Auftrag?) Allerdings nicht erst, sobald sich Historiker dafür interessieren, sondern schon heute! Denn Informationen, die heute bereits öffentlich sind, können sowohl heute schon im Sinne der Öffentlichkeit genutzt werden, als auch den Historikern in 20, 50 oder 100 Jahren dabei behilflich sein, die Vergangenheit zu erforschen.

„Die Quellen unserer Tage – nicht erst im Archiv!“ weiterlesen