Archiv nach Monaten: September 2013

Der „Long-Tail“ der Wissenschaft

500px-Long_tail.svg

Visualisierung des „Long Tails“. Sowohl die grüne Fläche mit den „Bestsellern“ und die gelbe Fläche mit den Nischenprodukten sind gleich groß.

Im Jahr 2004 hat der US-Journlist und damalige Chefredakteur Wired Chris Anderson mit einem Buch die Theorie des „Long Tails“ populär gemacht. Im Internet, so der Kern dieser Theorie, kann auch der Handel mit Nischenprodukten gewinnbringend sein, schließlich hat man insbesondere bei virtuellen Gütern (z. B. Bücher und Musik) nur sehr geringe Herstellungs-, Lager- und Vertriebskosten, während man gleichzeitig eine sehr große Zahl an potenziellen Kunden in aller Welt ansprechen kann.

Ein sehr lesenswerter Beitrag von Klaus Graf hat mich nun auf den Gedanken gebracht, dass dies ganz ähnlich auch für die (Geschichts-)Wissenschaft gilt. In dem Beitrag argumentiert Graf, dass es besser wäre, wenn alle in Deutschland angefertigten Qualifikationsschriften, also Bachelor- und Masterarbeiten, Dissertationen und Habilitationen im Internet als Open-Access veröffentlicht werden, anstatt als Pflichtexemplare in Universitätsbibliotheken zu versauern oder als überteuerte Print-On-Demand-Bücher zum Teil fragwürdige Verlage zu finanzieren.

In den Kommentaren meines Post zur #digigw2013 (der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes) habe ich einen ähnlichen Gedanken entwickelt. Um Studierende damit vertraut zu machen, dass Wissenschaft ein öffentlicher Prozess ist, halte ich es für sinnvoll, bereits für Masterarbeiten eine elektronische(!) open-access(!) Veröffentlichungspflicht  in den Prüfungsordnungen festzulegen. Wie Klaus Graf ausgeführt hat, haben angenommene Masterarbeiten, bereits eine Art „Peer-Review“ durch die Prüfer hinter sich, erfüllen also wissenschaftliche Mindeststandards. Eine Überarbeitung, z. B. mit Hinweisen der Prüfer, zwischen Abgabe und Veröffentlichung der Arbeit sollte aber möglich sein.

Weiterlesen »

Kryptowars 2.0: Kryptocalypse reloaded

Während ich letzte Woche noch darüber geschrieben habe, das der Einsatz Kryptografie in der Post-Snowden-Ära die einzig verbliebene Möglichkeit ist, sich etwas Ähnliches wie Privatsphäre zu bewahren, scheint dies im Lichte neuer Leaks nicht mehr uneingeschränkt zu gelten – wie der Guardian und die New York Times berichten, ist es der NSA und dem britischen GCHQ schon vor längerer Zeit gelungen, in die gängigsten Verschlüsselungsmethoden wie das zur sicheren Kommunikation im Web stark verbreitete SSL oder in VPN-Netzwerke einzubrechen. Auch Tor scheint beiweiten nicht so sicher, wie bislang gedacht.

Während die mathematischen Grundlagen der Verschlüsselung wohl ungebrochen sind, läuft der Zugang der Geheimdienste nach allen, was bislang bekannt ist (und ich verstanden habe) über die Server und die Algorithmen des Schlüsselaustauschs. Nicht die Kryptografie an sich, sondern ihre jeweiligen Implementierungen sind also „geknackt“.

Eine Forderung von Regierungsvertretern im „ersten Kryptowar“1 in den 1990er Jahren war ein sogenanntes „Key escrow„-Verfahren, durch welches die Hersteller von Verschlüsselungssoftware gezwungen werden sollten, („freiwillig“) Kopien aller Schlüssel bei einer staatlichen Stelle zu hinterlegen, damit der Staat auch im Informationszeitalter die Kommunikation seiner Bürger von Kriminellen abhören kann. Damals konnte keine offizielle Regelung eines solchen Verfahrens durchgesetzt werden, und um die Jahrtausendwende herum schien eine Regulierung von Verschlüsselung vom Tisch.

Weiterlesen »

  1. So die Bezeichnung der Debatte über Kryptografie-Regulierung in Kreisen des Chaos Computer Clubs (besonders von Andy Müller-Maguhn) in dieser Zeit, unter anderem hier. []

Mein Fazit zur #digigw2013: Digitale Geschichtswissenschaft sollte dezentral, nachhaltig und offen sein

Gestern war ich auf der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes in Braunschweig und möchte hier jetzt ganz persönliches Fazit der Veranstaltung ziehen. Weitere Kommentare zu der Veranstaltung sind bislang hierhier und hier zu finden.

Während die Vorträge und die Podiumsdiskussion (Programm der Tagung) sehr allgemein Fragen der Digitalisierung von Quellen, elektronischen Publizierens, Institutionen und „Big Data“ in der deutschen Geschichtswissenschaft thematisierte, war die sich parallel auf Twitter stattfindende Diskussion deutlich spannender und teilweise sehr viel kritischer und emotionaler. Leider gab es keine Twitterwall, sodass die Diskussion auf den Kreis der ohnehin sehr netzaffinen twitternden Historiker beschränkt blieb – schade, eine Rückbindung an Twitter hätte zumindest die Podiumsdiskussion beleben können.

Mein Zwischenfazit von der Diskussion und der Stimmung vor Ort auf Twitter habe ich in zwei Tweets zu zusammengefasst:

Beide Punkte möchte ich hier etwas näher ausführen, insbesondere, was ich unter einer dezentralen, nachhaltigen und offenen digitalen Geschichtswissenschaft verstehe.

Weiterlesen »