Kurz verlinkt: Planet History, ein Blogaggregator für die deutschsprachige Geschichtswissenschaft

Wenig los hier, ich weiß. Aber habe mir fest vorgenommen, bald wieder mehr zu bloggen. Ganz bestimmt. Bald. Bis dahin darf ich den historisch interessierten Leser auf ein neues Projekt von Michael Schmalenstroer hinweisen, der ihn mit reichlich Lesestoff versorgt: Planet History.

Planet History ist ein Blogaggregator für die deutschsprachige Geschichtswissenschaft, d. h. er sammelt die Beiträge von (im weitesten Sinne) geschichtswissenschaftlichen Blogs und stellt diese auf einer Seite dar. Auch wenn an der Übersichtlichkeit des Layouts noch ein wenig gefeilt werden kann, ist Planet History doch ein vielversprechender Versuch, die Sichtbarkeit der geschichtswissenschaftlichen Blogosphäre zu verbessern. Oder, wie Michael selber schreibt: „Ziel dieser Seite ist es, etwas Übersicht in die doch recht zersplitterte Geschichtsblogosphäre zu bringen und gerade kleine Blogs hervorzuheben.“ Dieses Ziel kann ich nur begrüßen, schließlich bin ich ja selber nur ein „kleiner“ Blogger. Danke Michael!

Kurz verlinkt: Podcast über Geheimdienste, Kryptografie und die Crypto Wars

Ich darf kurz auf einen wirklich höchst interessanten Podcast von Frank Rieger und Fefe (Felix von Leitner) hinweisen. In der Folge 30 ihres Podcast „Alternativlos“ reden die beiden über die Geschichte der Geheimdienste, Kryptografie und die Crypto Wars der 1990er. Ich habe dazu ja auch schon etwas geschrieben, aber die beiden gehen sehr genauer auf die Materie ein.

⇒ Alternativlos 30

Der „Long-Tail“ der Wissenschaft

500px-Long_tail.svg

Visualisierung des „Long Tails“. Sowohl die grüne Fläche mit den „Bestsellern“ und die gelbe Fläche mit den Nischenprodukten sind gleich groß.

Im Jahr 2004 hat der US-Journlist und damalige Chefredakteur Wired Chris Anderson mit einem Buch die Theorie des „Long Tails“ populär gemacht. Im Internet, so der Kern dieser Theorie, kann auch der Handel mit Nischenprodukten gewinnbringend sein, schließlich hat man insbesondere bei virtuellen Gütern (z. B. Bücher und Musik) nur sehr geringe Herstellungs-, Lager- und Vertriebskosten, während man gleichzeitig eine sehr große Zahl an potenziellen Kunden in aller Welt ansprechen kann.

Ein sehr lesenswerter Beitrag von Klaus Graf hat mich nun auf den Gedanken gebracht, dass dies ganz ähnlich auch für die (Geschichts-)Wissenschaft gilt. In dem Beitrag argumentiert Graf, dass es besser wäre, wenn alle in Deutschland angefertigten Qualifikationsschriften, also Bachelor- und Masterarbeiten, Dissertationen und Habilitationen im Internet als Open-Access veröffentlicht werden, anstatt als Pflichtexemplare in Universitätsbibliotheken zu versauern oder als überteuerte Print-On-Demand-Bücher zum Teil fragwürdige Verlage zu finanzieren.

In den Kommentaren meines Post zur #digigw2013 (der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes) habe ich einen ähnlichen Gedanken entwickelt. Um Studierende damit vertraut zu machen, dass Wissenschaft ein öffentlicher Prozess ist, halte ich es für sinnvoll, bereits für Masterarbeiten eine elektronische(!) open-access(!) Veröffentlichungspflicht  in den Prüfungsordnungen festzulegen. Wie Klaus Graf ausgeführt hat, haben angenommene Masterarbeiten, bereits eine Art „Peer-Review“ durch die Prüfer hinter sich, erfüllen also wissenschaftliche Mindeststandards. Eine Überarbeitung, z. B. mit Hinweisen der Prüfer, zwischen Abgabe und Veröffentlichung der Arbeit sollte aber möglich sein.

Weiterlesen »

Kryptowars 2.0: Kryptocalypse reloaded

Während ich letzte Woche noch darüber geschrieben habe, das der Einsatz Kryptografie in der Post-Snowden-Ära die einzig verbliebene Möglichkeit ist, sich etwas Ähnliches wie Privatsphäre zu bewahren, scheint dies im Lichte neuer Leaks nicht mehr uneingeschränkt zu gelten – wie der Guardian und die New York Times berichten, ist es der NSA und dem britischen GCHQ schon vor längerer Zeit gelungen, in die gängigsten Verschlüsselungsmethoden wie das zur sicheren Kommunikation im Web stark verbreitete SSL oder in VPN-Netzwerke einzubrechen. Auch Tor scheint beiweiten nicht so sicher, wie bislang gedacht.

Während die mathematischen Grundlagen der Verschlüsselung wohl ungebrochen sind, läuft der Zugang der Geheimdienste nach allen, was bislang bekannt ist (und ich verstanden habe) über die Server und die Algorithmen des Schlüsselaustauschs. Nicht die Kryptografie an sich, sondern ihre jeweiligen Implementierungen sind also „geknackt“.

Eine Forderung von Regierungsvertretern im „ersten Kryptowar“1 in den 1990er Jahren war ein sogenanntes „Key escrow„-Verfahren, durch welches die Hersteller von Verschlüsselungssoftware gezwungen werden sollten, („freiwillig“) Kopien aller Schlüssel bei einer staatlichen Stelle zu hinterlegen, damit der Staat auch im Informationszeitalter die Kommunikation seiner Bürger von Kriminellen abhören kann. Damals konnte keine offizielle Regelung eines solchen Verfahrens durchgesetzt werden, und um die Jahrtausendwende herum schien eine Regulierung von Verschlüsselung vom Tisch.

Weiterlesen »

  1. So die Bezeichnung der Debatte über Kryptografie-Regulierung in Kreisen des Chaos Computer Clubs (besonders von Andy Müller-Maguhn) in dieser Zeit, unter anderem hier. []

Mein Fazit zur #digigw2013: Digitale Geschichtswissenschaft sollte dezentral, nachhaltig und offen sein

Gestern war ich auf der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes in Braunschweig und möchte hier jetzt ganz persönliches Fazit der Veranstaltung ziehen. Weitere Kommentare zu der Veranstaltung sind bislang hierhier und hier zu finden.

Während die Vorträge und die Podiumsdiskussion (Programm der Tagung) sehr allgemein Fragen der Digitalisierung von Quellen, elektronischen Publizierens, Institutionen und „Big Data“ in der deutschen Geschichtswissenschaft thematisierte, war die sich parallel auf Twitter stattfindende Diskussion deutlich spannender und teilweise sehr viel kritischer und emotionaler. Leider gab es keine Twitterwall, sodass die Diskussion auf den Kreis der ohnehin sehr netzaffinen twitternden Historiker beschränkt blieb – schade, eine Rückbindung an Twitter hätte zumindest die Podiumsdiskussion beleben können.

Mein Zwischenfazit von der Diskussion und der Stimmung vor Ort auf Twitter habe ich in zwei Tweets zu zusammengefasst:

Beide Punkte möchte ich hier etwas näher ausführen, insbesondere, was ich unter einer dezentralen, nachhaltigen und offenen digitalen Geschichtswissenschaft verstehe.

Weiterlesen »

Verschlüsselung ist Terrorismus? Ein kurzer Ausflug in die Geschichte von Kryptografieverboten

Sich mit Verschlüsselung zu befassen ist derzeit groß in Mode, sogar im Bundestag soll demnächst eine „Cryptoparty“ stattfinden, auf der sich die Abgeordneten darüber informieren können, wie sie sich vor dem Späprogramme der NSA (und des BND?) schützen können. Kryptografie scheint die letzte verbliebene Möglichkeit zu sein, sich eine Privatsphäre zu sichern. Dabei haben wir Glück, dass dies überhaupt erlaubt ist, den in den 1990ern wurde ernsthaft über ein Verbot von (privater) Kryptografie nachgedacht.

Phil Zimmermann, Entwickler der E-Mail-Verschlüsselung PGP (Quelle)

In den USA galt Kryptografie während des Kalten Krieges als Waffe, und der Export von Verschlüsselungssoftware war den gleichen Regulierungen wie Munition unterworfen. Lange Zeit durften nur Programme exportiert werden, bei denen die Schlüssellänge auf maximal 40 Bit beschränkt war – die NSA wollte ausländische Kommunikation im Zweifel mitlesen können. Unter diese Regelung fiel zu Beginn der 1990er auch die E-Mail-Verschlüsselung PGP. 1993 wurde daher vonseiten der USA ein Ermittlungsverfahren gegen Phil Zimmermann, dem Erfinder von PGP, wegen Waffenexports angestrengt, da seine Software inklusive Sourcecode auf einen im Internet zugänglichen FTP-Server aufgetaucht war. Im Zeitalter des Internets war ein Exportverbot von Software halt nicht mehr durchzusetzen. Das Verfahren wurde schließlich 1996 eingestellt.

Weiterlesen »

Die Quellen unserer Tage – nicht erst im Archiv!

Zurzeit läuft in der (noch) recht kleinen deutschen geschichtswissenschaftlichen Blogosphäre eine Debatte darüber, dass aufgrund der Privatisierungstendenzen der letzten Jahrzehnte immer mehr interessante Quellen aus dem regulierten System der staatlichen Archive herausfallen, sodass der Zugang zu ihnen künftig der Willkür privater Unternehmen unterliegt. (Siehe bislang hier und hier)1 Michael Schmalenstroer fordert daher, dass der Zugang von Historikern(!) zu privaten Quellen gesetzlich geregelt werden muss, analog zu den bisherigen Regelungen im staatlichen Archivsektor.

Ich halte es auch für wünschenswert, dass private Unternehmen, zumindest wenn sie im Auftrag der Öffentlichkeit tätig sind, die gleichen Tranzparenzanforderungen erfüllen müssen, wie staatliche Akteure.2 Allerdings nicht erst, sobald sich Historiker dafür interessieren, sondern schon heute! Denn Informationen, die heute bereits öffentlich sind, können sowohl heute schon im Sinne der Öffentlichkeit genutzt werden, als auch den Historikern in 20, 50 oder 100 Jahren dabei behilflich sein, die Vergangenheit zu erforschen.

Weiterlesen »

  1. An dieser Stelle muss wohl auch ein Verweis auf den Aufsatz von Kiran Klaus Patel in den Vierteljahrsheften für Zeitgeschichte unumgänglich: Kiran Klaus Patel: Zeitgeschichte im digitalen Zeitalter. Neue und alte Herausforderungen, in: Vierteljahrshefte für Zeitgeschichte 59 (2011), H. 3, S. 331–351. []
  2. Wobei sich natürlich die Frage stellt, was im „Auftrag der Öffentlichkeit“ eigentlich bedeutet. Erfüllt nicht auch eine privatwirtschaftliche Bank einen öffentlichen Auftrag? []

(Informations-) Überwachung statt (Informations-) Unterdrückung?

(Disclaimer: folgender Text dient ebenfalls vor allem dazu, mir selber einige Gedankengänge klar zu machen, der vermutlich noch nicht ganz abgeschlossen sind.)

In Zeiten von Prism, Tempora und XKeyscore muss ich immer wieder an einen erstaunlich weitsichtigen Satz aus der „Studie“ denken, die Mitglieder des Chaos Computer Clubs 1986 im Auftrag der Grünen angefertigt haben. Damals ging es um die geplante Einführung eines Computernetzwerkes im Bundestag, und die Grünen hatten einige Bedenken, schließlich galten für viele Angehörige des Alternativen Milieus in den 1980ern noch Computer als „Technik der totalen Kontrolle“.

In der Studie heißt es ziemlich am Anfang:

Herrschaft hat schon immer darauf Wert gelegt, das historisch jeweils fortgeschrittenste Medium zu kontrollieren und einzuschränken.1

Lassen wir einmal außen vor, was genau hier eigentlich unter Herrschaft zu verstehen ist, und ob diese Aussage sich für alle Zeiten historisch begründen lässt, aber lassen wir uns für ein Gedankenexperiment einfach mal darauf ein.

Das damals, in den 1980ern fortgeschrittenste Medium2 war der Heimcomputer, der mit einem Modem an das Telefonnetz angeschlossen war, was die Verbindung mit unzähligen anderen Computern ermöglichte. Computer, die so erreicht werden konnten, nannte man damals Mailboxen, im englischsprachigen Raum auch Bulletin Board Systems, kurz BBS. Anders als beim staatlichen Bildschirmtext war hier jeder Informationskonsument gleichzeitig auch ein potenzieller Informationsproduzent und -verteiler. Alles, was dazu benötigt wurde, um vermeintlich unterdrücke Informationen zu verbreiten, war ein Computer, ein Modem mit Telefonanschluss sowie ein paar Telefonnummern von Mailboxen. Als im Frühjahr 1986 die Reaktorkatastrophe von Tschernobyl die Welt beunruhigte und Viele den staatlich veröffentlichten Strahlenwerten misstrauten, sollen auf diesem Wege selbst gemessene Strahlenwerte verbreitet worden sein. Der Heimcomputer als Instrument einer Gegenöffentlichkeit.

Aus Sicht der Aktivisten des CCC und der Mailboxszene waren die „Herrschenden“ damals darum bemüht auch dieses Medium unter Kontrolle zu bekommen. Die Mittel, die hierzu eingesetzt wurden, waren das Endgerätemonopol und die Fernmeldeanlagenordnung, die einen Anschluss von Modems an das Telefonnetz genehmigungspflichtig machte. Auf dieser Grundlage wurde der nicht genehmigten Anschluss eines Modems gerne mit Hausdurchsuchungen beantworten. Die unkontrollierbare Kommunikation, so der Eindruck der Aktivisten, sollte durch solche Maßnahmen unterdrückt werden.3

Weiterlesen »

  1. Arbeitskreis Politischer Computereinsatz / Chaos Computer Club: Trau keinem Computer, den du nicht (er-)tragen kannst. Entwurf einer sozialverträglichen Gestaltungsalternative für den geplanten Computereinsatz der Fraktion „Die Grünen im Bundestag“ unter besonderer Berücksichtigung des geplanten Modellversuchs der Bundestagsverwaltung (PARLAKOM), Löhrbach 1987. []
  2. Wobei noch zu klären wäre, was genau ein Medium „fortschrittlich“ macht. []
  3. Vertiefend zum Aufbau von Kontrolle über neu aufkommenden Medien wie Radio, Fernsehen oder das Telefonnetz in den USA empfehle ich Tim Wu: Der Master Switch. Aufstieg und Niedergang der Medienimperien, Heidelberg [u.a.] 2012. []

Kurz verlinkt: Thomas Assheuer über die kybernetische Kontrollgesellschaft

In der ZEIT (31/2013, S. 36) von letzter Woche hat Thomas Assheuer einen lesenswerten Artikel über die „Mikrophysik der Macht“ veröffentlicht, in dem ich auch meine Gedanken zum Problem der Überwachung in Demokratien wiederfinde.

Eine Möglichkeit, die Ausweitung der Überwachung seit 9/11 zu deuten ist demnach, dass der Absolutismus nie wirklich überwunden wurde, sondern auch in vermeintlich liberalen Staaten in Form eines „tiefen Staates“ vorhanden ist, der alles über seine Untertanen, die nun allerdings Bürger heißen, wissen möchte, um die Kontrolle nicht zu verlieren. Im Zeitalter der automatisierten Informationsverarbeitung ermögliche dieser Kontrollanspruch des Staates eine neue Kontrollgesellschaft, die durch „soziale Kybernetik“ gesteuert werden.

„Damit ist die Vorstellung gemeint, die Gesellschaft sei eine große Maschine, die sich, wenn man es nur geschickt genug anstellt, durch Datenerhebung und Informationstechniken steuern lässt. In einer solchen Maschine geht es nicht mehr um Argumente und Werte, um „Diskurs“ oder öffentliche Willensbildung, das ist der alteuropäische Kitsch von gestern. Es geht darum, die einzelne Teile der Gesellschaftsmaschine störungsfrei miteinander zu verschalten, es geht um systemische Bestandserhaltung und Gleichgewichtszustände, um Prävention und Risikovermeidung. Der Einzelne ist darin eine Art Sonde, die dem System durch seine Datenemissionen die nötigen Informationen liefert, um Abläufe besser zu kontrollieren. Perfekt läuft die Maschine immer dann, wenn der Bürger genau das will, was er auch soll.

[…]

Der Staat gleicht darin einer großen Firma, die die Stimmungslagen der Politikverbraucher abtastet und gelegentliche Widerstände durch neue Angebote aus der Welt schafft. Wählerstimmen werden mittels „Data-Mining“ ausgekundschaftet, während die Wahl selbst wie eine Art Produkt-Test verläuft. Der Wähler wird als Konsument angesprochen, der die Freiheit hat, sich kostenlos von unterschiedlich designten Polit-Angeboten verführen zu lassen.“

http://www.zeit.de/2013/31/nsa-ueberwachung-angst-kontrollgesellschaft

Bildschirmtext – keine Erfolgsgeschichte der 1980er Jahre

Dies ist Teil drei einer losen Serie zum (historischen) Bildschirmtext (Btx) der Deutschen Bundespost, ausgelöst durch und in Ergänzung zu Michael Schmalenstroers Blogpost zur “Telekom und der Geist des Bildschirmtextes”. Teil 1 zur Netzneutralität bei Btx. Teil 2 zur Entwicklungsgeschichte von Btx.

Grundlage ist im Wesentlichen das Buch von Volker Schneider über “Technikentwicklung zwischen Politik und Markt. Der Fall Bildschirmtext” von 1989. Es enthält auf den Seiten 69-167 die beste Schilderung der Entstehung und Entwicklung von Btx von der britischen Idee des “Viewdata” zu Beginn der 1979er bis zum Jahr 1989, die mir bislang zwischen die Finger gekommen ist.

Fernseher mit Btx-Logo

Fernseher mit Btx-Logo

Die ursprüngliche Idee von Bildschirmtext, die zu Beginn der 1970er bei der britischen Post unter dem Namen Viewdata entwickelt wurde, war die Verbindung des Fernsehers mit dem Telefonnetz. Der Telefonanschluss sollte mit einem Modem ausgestattet werden, an das ein Btx-fähiger Fernseher oder ein zusätzlicher Decoder angeschlossen werden sollte. Während das Modem von der Bundespost als Teil des Telefonnetzes betrachtet und nur vermietet wurde (wie damals auch Telefone), wurde der Decoder dem Kunden und dem freien Markt überlassen. Dies kam damals fast schon einer Revolution auf dem ansonsten fast vollständig von der Bundespost und ihren Hauslieferanten kontrollierten Markt der Telekommunikationsgeräte gleich. Durch den freien Markt erhoffte sich die Post eine größere Auswahl an btx-fähigen Geräten und insbesondere niedrige Preise. Außerdem sollte so der deutschen Elektronikbranche einen Wettbewerbsvorsprung gegenüber der Ende der 1970er Jahre immer stärker gefürchteten japanischen Konkurrenz verschafft werden.

Weiterlesen »