Wann immer jemand etwas über Btx, dem mittlerweile historischen Bildschirmtextsystem der Deutschen Bundespost schreibt, werde ich aufmerksam – den Btx und der staatlich geplante „Aufbruch in die Informationsgesellschaft“ in den 1980ern Jahren ist Teil meines engeren Interessen- und Forschungsgebietes. Zu Geschichte von Btx habe ich daher hierindiesem Blog schon mehrfach geschrieben.
Der jüngste Artikel zu Btx stammt von Torsten Dewi (Wikipedia) auf dem ZDF-Blog Hyperland. Dewi bring darin (wieder einmal) das Argument, dem Internet fehle, anders als Btx, eine eingebaute Bezahlfunktion.
Wichtig fand seinen Hinweis, das die Digitalisierung weniger neue (geisteswissenschaftliche) Methoden hervorbringt, sondern sich mehr auf die Kommunikation über Geschichte auswirkt – ein Umstand, auf den die professionelle Geschichtswissenschaft reagieren muss, um nicht den Rest ihrer gesellschaftlichen Bedeutung zu verlieren. Gerade deshalb sind Blogs und Projekte wie @9Nov38 für die Geschichtswissenschaft so wichtig, weil sie den akademischen Diskurs öffnen.
Ich widerspreche allerdings Jans Behauptung, dass Historiker nicht programmieren können müssen. Das mag bislang zwar noch so sein, aber spätestens, wenn wir es mit rein digitalen Quellen („digital born“) zu tun bekommen, sollte ein Historiker genau wissen, wie diese Quellen entstanden sind und was sie eigentlich aussagen können. Oder kurz gesagt: In Zukunft wird auch die Informatik ein Werkzeug des Historikers sein!
Ich darf kurz auf einen wirklich höchst interessanten Podcast von Frank Rieger und Fefe (Felix von Leitner) hinweisen. In der Folge 30 ihres Podcast „Alternativlos“ reden die beiden über die Geschichte der Geheimdienste, Kryptografie und die Crypto Wars der 1990er. Ich habe dazu ja auch schon etwasgeschrieben, aber die beiden gehen sehr genauer auf die Materie ein.
Im Jahr 2004 hat der US-Journlist und damalige Chefredakteur Wired Chris Anderson mit einem Buch die Theorie des „Long Tails“ populär gemacht. Im Internet, so der Kern dieser Theorie, kann auch der Handel mit Nischenprodukten gewinnbringend sein, schließlich hat man insbesondere bei virtuellen Gütern (z. B. Bücher und Musik) nur sehr geringe Herstellungs-, Lager- und Vertriebskosten, während man gleichzeitig eine sehr große Zahl an potenziellen Kunden in aller Welt ansprechen kann.
Ein sehr lesenswerter Beitrag von Klaus Graf hat mich nun auf den Gedanken gebracht, dass dies ganz ähnlich auch für die (Geschichts-)Wissenschaft gilt. In dem Beitrag argumentiert Graf, dass es besser wäre, wenn alle in Deutschland angefertigten Qualifikationsschriften, also Bachelor- und Masterarbeiten, Dissertationen und Habilitationen im Internet als Open-Access veröffentlicht werden, anstatt als Pflichtexemplare in Universitätsbibliotheken zu versauern oder als überteuerte Print-On-Demand-Bücher zum Teil fragwürdige Verlage zu finanzieren.
In den Kommentarenmeines Post zur #digigw2013 (der Auftakttagung der „AG Digitale Geschichtswissenschaft“ des deutschen Historikerverbandes) habe ich einen ähnlichen Gedanken entwickelt. Um Studierende damit vertraut zu machen, dass Wissenschaft ein öffentlicher Prozess ist, halte ich es für sinnvoll, bereits für Masterarbeiten eine elektronische(!) open-access(!) Veröffentlichungspflicht in den Prüfungsordnungen festzulegen. Wie Klaus Graf ausgeführt hat, haben angenommene Masterarbeiten, bereits eine Art „Peer-Review“ durch die Prüfer hinter sich, erfüllen also wissenschaftliche Mindeststandards. Eine Überarbeitung, z. B. mit Hinweisen der Prüfer, zwischen Abgabe und Veröffentlichung der Arbeit sollte aber möglich sein.
Während ich letzte Woche noch darüber geschrieben habe, das der Einsatz Kryptografie in der Post-Snowden-Ära die einzig verbliebene Möglichkeit ist, sich etwas Ähnliches wie Privatsphäre zu bewahren, scheint dies im Lichte neuer Leaks nicht mehr uneingeschränkt zu gelten – wie der Guardian und die New York Times berichten, ist es der NSA und dem britischen GCHQ schon vor längerer Zeit gelungen, in die gängigsten Verschlüsselungsmethoden wie das zur sicheren Kommunikation im Web stark verbreitete SSL oder in VPN-Netzwerke einzubrechen. Auch Tor scheint beiweiten nicht so sicher, wie bislang gedacht.
Während die mathematischen Grundlagen der Verschlüsselung wohl ungebrochen sind, läuft der Zugang der Geheimdienste nach allen, was bislang bekannt ist (und ich verstanden habe) über die Server und die Algorithmen des Schlüsselaustauschs. Nicht die Kryptografie an sich, sondern ihre jeweiligen Implementierungen sind also „geknackt“.
Eine Forderung von Regierungsvertretern im „ersten Kryptowar“ (so die Bezeichnung der Debatte über Kryptografie-Regulierung in Kreisen des Chaos Computer Clubs (besonders von Andy Müller-Maguhn) in dieser Zeit, unter anderem hier) in den 1990er Jahren war ein sogenanntes „Key escrow„-Verfahren, durch welches die Hersteller von Verschlüsselungssoftware gezwungen werden sollten, („freiwillig“) Kopien aller Schlüssel bei einer staatlichen Stelle zu hinterlegen, damit der Staat auch im Informationszeitalter die Kommunikation seiner Bürger von Kriminellen abhören kann. Damals konnte keine offizielle Regelung eines solchen Verfahrens durchgesetzt werden, und um die Jahrtausendwende herum schien eine Regulierung von Verschlüsselung vom Tisch.
Grundlage meiner Ausführungen zu Btx ist im Wesentlichen das Buch von Volker Schneider aus dem Jahr 1989 über “Technikentwicklung zwischen Politik und Markt. Der Fall Bildschirmtext”. Es enthält auf den Seiten 69-167 die beste Schilderung der Entstehung und Entwicklung von Btx von der britischen Idee des “Viewdata” zu Beginn der 1979er bis zum Jahr 1989, die mir bislang bekannt ist.
Bildschirmtext (Btx) entspringt einem völlig anderen Geist als das heutige Internet. Während das Internet Ende der 1960er in den USA aus einem pragmatischen Ansatz, Ressourcen effizienter zu nutzen entstand, spielte bei der Entwicklung von Btx die Schaffung neuer Absatzmärkte von Anfang an eine entscheidende Rolle.
Die Grundidee von Btx entstand zu Beginn der 1970er in Großbritannien und bestand im Wesentlichen in der Kombination dreier Technologien, die zu diesem Zeitpunkt weitgehend ausgereift und auf der Suche nach neuen Einsatzmöglichkeiten waren: Timesharing-Computer, das Telefonnetz sowie der Fernseher. Timesharing, also das Aufteilen von Rechenkapazität eines Computers unter mehreren Nutzern, war in den 1960ern zur Serienreife geführt worden und hatte zusammen mit dem Transistor Computern für immer mehr Menschen verfügbar gemacht. Zu Beginn der 1970er war ein kommerzieller Markt für Rechenkraft entstanden, der natürlich auf der Suche nach neuen Kunden war.
Betrachtet man die frühe Geschichte der Hackerkultur, so stößt man über kurz oder lang auf die TAP. Der Newsletter, die sich zunächst überwiegend mit Phreaking, also dem „hacken“ von Telefonnetzen beschäftigte, wurde im Mai 1971 von Abbie Hoffmann und „Al Bell“ als „YIPL“ gegründet und entwickelte sich bald zum zentralen Medium der Phreakerkultur. Ende der 1970er, mit der Verbreitung von Homecomputern, entdeckten die Phreaker und mit ihnen die TAP die vielfältigen Nutzungsmöglichkeiten des (vernetzten) Computers. Die Phreakerkultur und die von Steven Levy beschriebene Hackerkultur verband sich in dieser Zeit und brachten einen neuen Typus des Hackers hervor, den „Datenreisenden“ der mit Hilfe von Computern und Telefon- und Datennetzen auf „Datenreisen“ ging.
Gegen 1981 stieß Wau Holland auf die TAP, die das Vorbild der Datenschleuder wurde. Die TAP war damit die stärkste Inspiration und Impuls für die Entstehung einer deutschen Hackervereinigung, die ab (spätestens) 1983 unter den Namen Chaos Computer Club auftrat.
Wer sich selber ein Eindruck von der TAP verschaffen möchte, kann dieses PDF mit einem vollständigen Scann aller Ausgaben der TAP nutzen: YIPL und TAP, Ausgaben 01-91;99,100, oder er schaut in die erste Hackerbibel ab Seite 179.
Der folgende Text ist ein Auszug aus meiner geschichtswissenschaftlichen Masterarbeit mit dem Thema “Ursprünge und Entwicklung des Chaos Computer Clubs in den 1980er Jahren” (PDF|ePub) und gibt einen knappen Überblick über die Geschichte der TAP von ihrer Gründung 1971 bis zu ihrem Ende 1984. Über Anmerkungen, Lob und Kritik in den Kommentaren freue ich mich natürlich. Weitere Auszüge aus meiner Masterarbeit sollen in den nächsten Tagen folgen.
Wo kämen wir sonst auch hin, wenn sich jeder einfach überall zu äußern könnte! Und nachdem dieses „Internet“ unter Kontrolle ist, müssen wir uns unbedingt um diesen Buchdruck kümmern…
Die ZEIT schreibt über über eine neue, auf Tausch und gemeinsamer Nutzung statt Besitz basierenden Ökonomie. Eine weitere (revolutionäre?) Veränderung, die dass Internet uns beschert!
Ähnliche Gedanken hatte ich ja auch schon im Bezug auf Autos und private Buchbestände. Aber vielleicht kann man die Idee ja auch auch umfassender aufziehen, etwa indem ich mit Hilfe des Internets meine Haushaltsgeräte, Werkzeuge, (halt so Dinge, die ich nur sehr selten, 1-2 mal im Jahr benötigt) in meiner Nachbarschaft anbiete. Und meine Nachbarn ihre natürlich auch.
Halt die gute, alte Nachbarschaftshilfe, aber in besser. Ein Verzeichnis, wer aus meiner Umgebung was besitzt und verleiht, dazu vielleicht noch ein wenig soziale Kontrolle, Bewertungen wie bei ebay, ob mein Nachbar das Geliehene auch pfleglich behandelt und rechtzeitig wieder zurückgegeben hat, oder so. Und das ganze natürlich kostenlos. Das wäre doch mal was.
Mal so ein schneller Gedanke von mir: Viele gesellschaftliche Bedürfnisse, die bislang von Städten erfüllt wurden, etwa Ort des Handels und des Informationsaustausches zu sein, kann heute vom Internet besser erfüllt werden.