• Zuhause
  • Artikel
  • Nazis, menschliche Rechner und die Zukunft, die versagt hat
Veröffentlicht am 18-02-2019

Nazis, menschliche Rechner und die gescheiterte Zukunft: Die verborgene Geschichte des frühen Rechnens

Konrad Zuse posiert vor einer Nachbildung einer seiner frühen Maschinen.

DER COMPUTERVon Pascal an von NeumannVon H. H. GoldstinePrinceton Press, 1972amazon link

Ich schrieb mein erstes Programm, als ich acht Jahre alt war, machte mehrere Abschlüsse mit dem Wort „Computer“, lehrte an Top-Universitäten und arbeitete über ein Jahrzehnt lang im High-Tech-Bereich. Sie würden erwarten, dass mein Verständnis der Computergeschichte solide ist.

H. H. Goldstines „Der Computer: Von Pascal bis von Neumann“ zog meine Augenlider zurück. Ich hatte eine aufgeräumte erzählende Hookline und Sinker akzeptiert. Das Rechnen von Geschichte ist nicht das, was ich mir vorgestellt habe.

Die Geschichte, die wir wiederholen - die Babbage-Geschichte des Computing - ist äußerst unangemessen. Wir erfahren, dass Babbage im 19. Jahrhundert einen digitalen Computer erfand, der mit unzähligen schalterähnlichen Geräten Rechenarbeit leistete. Er entwarf die Maschine mit viel Liebe zum Detail. Ada Lovelace trat ein, um zu zeigen, wie man Bernoulli-Zahlen berechnen kann. Leider starb Babbage, bevor seine Maschine gebaut werden konnte. Babbages Ideen starben mit ihm zusammen. Man sagt uns, dass der ENIAC etwa ein Jahrhundert später diesen fast vergessenen Entwicklungsfaden aufgegriffen hat, um die Welt zu revolutionieren.

Die Generationsperspektive und Erfahrung aus erster Hand von Goldstine vereinen sich zu einer tieferen und weitaus faszinierenderen Geschichte. Goldstine besuchte in den 1930er Jahren das College und arbeitete Hand in Hand mit Von Neumann an der Entwicklung des ENIAC in den 1940er Jahren. Der digitale Computer ist keine Unvermeidlichkeit, sondern der Überlebende eines harten Wettbewerbs zwischen verschiedenen Technologien.

Anstelle einer traditionellen Buchbesprechung präsentiere ich Ihnen die Einsichten, die ich am meisten provozierte.

Eine Sammlung menschlicher

1. Die ersten Computer waren Menschen

Bevor Computer, wie wir sie kennen, weit verbreitet waren, gab es Leute, die "Computer" genannt wurden, deren Aufgabe darin bestand, Berechnungen durchzuführen.

Der Begriff stammt eigentlich aus dem 18. Jahrhundert. Ursprünglich in einem astronomischen Kontext angewendet, um diejenigen zu beschreiben, die die langen Berechnungen durchgeführt haben, die erforderlich sind, um Kometen und dergleichen vorherzusagen, war ein Computer seit der Mitte des 20. Jahrhunderts ein etablierter Beruf. Abgesehen von der Astronomie waren menschliche Computer für Fortschritte in Physik, Technik und Kriegsführung unerlässlich.

Bewaffnet mit Rechenschiebern, elektrischen / mechanischen Rechnern, Bleistiften und Papieren. Es sollte nicht überraschen, dass die Aufgabe, ein "Computer" zu sein, der erste ist, den digitale Computer als veraltet erachten. Natürlich wurden viele dieser menschlichen Computer zu Programmierern und trieben die frühen Maschinen zu noch höheren Rechenhöhen.

Analoge Computer wie dieser Differentialanalysator waren die beste Methode, Ballistiktabellen vor der Entwicklung digitaler Computer zu berechnen.

2. Ballistische Berechnung war die erste Killer-App

Man denke an den Mörser, der sich im Ersten Weltkrieg entwickelte, und ähnliche Waffen, die ein Projektil auf ein entferntes Ziel abfeuern. Wie zielen Soldaten im Feld auf ein solches Gerät? Um sie zu führen, war ein Brenntisch erforderlich. Die Entfernung zum Ziel, der Höhenunterschied und andere Faktoren ermöglichten es den Soldaten, den richtigen Winkel beim Zielen zu suchen.

Goldstine arbeitete für die US-Armee und beschäftigte sich mit der Computergeschichte, weil er die Aufgabe hatte, eine Methode zu finden, um die Berechnung dieser Brenntabellen zu beschleunigen. Das Problem war erheblich. Der Mangel an Berechnungen war ein ziemlicher Schmerzpunkt.

Die Durchschnittstabelle enthielt etwa 3000 Einträge. Für jeden Eintrag waren ungefähr 750 Multiplikationen erforderlich, ganz zu schweigen von Additionen und Subtraktionen mit einer Genauigkeit von 5 Teilen pro 10.000. In der Praxis dauerte es etwa 12 Stunden, bis ein Mensch eine Flugbahn mithilfe des Tischrechners ermittelt hatte, der 1940 verfügbar war. Das sind 375 Tage, um einen einzigen Tisch auszufüllen. Und das ist nur für einen Waffentyp mit einer bestimmten Art von Granate und einer bestimmten Art von Sprengstoff.

Im Jahr 1940 hatte ein analoger Computer, der als Differenzialanalysator bezeichnet wurde, die Berechnung einer Tabelle auf lediglich 31 Tage rund um die Uhr reduziert. Der Prozess war weit davon entfernt, vollständig automatisiert zu sein, und das Militär benötigte einen vollständigen Satz von Tischen für die Vielzahl von Granaten und Sprengstoffen, die für jede Waffe verwendet wurden. Das Potenzial, diese Belastung zu verringern, führte zu frühen Investitionen in die Informatik.

Erst 1947 übertraf der Harvard Mark II die ältere analoge Computertechnologie mit einer Multiplikationsrate von zwei Operationen pro Sekunde. Zu diesem Zeitpunkt waren Digitalcomputer für eine unerwartete militärische Anwendung verwendet worden, auch im Zusammenhang mit Sprengstoffen: die Machbarkeit der ersten Wasserstoffbombe der Welt.

Ein früher Prototyp des weltweit ersten digitalen Computers, wie er im Wohnzimmer der Eltern von Konrad Zuse zu sehen ist

3. Der erste programmierbare digitale Computer wurde in Nazi-Deutschland gebaut

Die Entwicklungen des ENIAC und Mark I aus den späten Kriegszeiten werden als der Moment gefeiert, in dem Babbages Träume endlich Wirklichkeit wurden. Der erste umfangreiche Computer wurde jedoch weit vor einem dieser Wahrzeichen gebaut. In den Jahren 1936 bis 1938 baute ein Deutscher namens Konrad Zuse ein elektronisches Gerät, das Z1, das Rechenaufgaben ausführen konnte.

Der Z1 und sein Nachfolger, der Z2, funktionierten nie zuverlässig, aber 1941 hatte Zuse den Z3 fertiggestellt. Diese Maschine war zuverlässig und Turing vollständig und erfüllte die offiziellen akademischen Kriterien für die Berechnung. Die deutsche Regierung half zwar bei der Finanzierung des Z3, leugnete jedoch die Finanzierung eines Nachfolgers und hält es für strategisch unwichtig. Im Gegensatz zu den institutionellen Innovatoren in Großbritannien und den Vereinigten Staaten fungierte Zuse als Einzelhacker. Er baute seine frühen Maschinen nicht in einem akademischen oder staatlichen Labor, sondern eher im Schlafzimmer seiner Eltern.

Wurde Zuse von der Unwilligkeit missbraucht, dieses frühe Wahrzeichen den Nazis zuzuschreiben? Dieser Vorschlag ist sicherlich provokativ, vielleicht provokativer als wahr. Der ENIAC war ein historischer Moment des frühen Computing: Die Technologie funktionierte zur Lösung realer Probleme, die Nachfrage war höher als das Angebot, und Institutionen auf der ganzen Welt sprangen ins Rennen. Wie andere frühere Maschinen (der Colossus und der Atanasoff-Berry Computer) hat Zuses Gerät in realen Anwendungen keine Zugkraft gefunden. Es gibt eine Tendenz, sich an die Technologie zu erinnern, die den Markt erobert. Zum Beispiel wird das iPhone angekündigt, während die unzähligen Smartphones, die davor gekommen sind, in unserer kollektiven Vorstellungskraft nachlassen.

Andererseits ist nationalistische Voreingenommenheit kein Fremder in der Geschichte. In den USA erinnern wir uns an Neil Armstrong, den ersten Mondwandler, und nicht an Yuri Geller, den ersten Astronauten der Welt [1]. Hat die Tatsache, dass Geller von unseren sowjetischen Rivalen nach oben geschickt wurde, etwas damit zu tun? Andere frühe Computer verdienen weniger Aufmerksamkeit. Der in Iowa gebaute Atanasoff-Berry Computer hat nie funktioniert. Der in Großbritannien gebaute Koloss wurde bis in die 1970er Jahre geheim gehalten. Zuses Maschine war die definitive Leistung. Ich finde diese Muster zwar anregend, aber ich befürworte keine bestimmte Schlussfolgerung. Ich werde es denjenigen überlassen, die mehr Appetit auf die Sozialgeschichte haben, um dieses herauszuhacken.

Analogrechner sind physikalische Manifestationen mathematischer Systeme

4. Warum werden analoge Computer als "analog" bezeichnet

In der Informatik und verwandten Gebieten betrachten wir digitale Computer als Maschinen, die diskrete Mathematik ausführen. Analoge Computer arbeiten mit kontinuierlichen Mengen (wie z. B. die im Schulkalkül untersuchten Funktionen). Dieses Verständnis wird durch Definitionen wie diese verkörpert:

Analog: von, sich auf einen Mechanismus oder eine Vorrichtung beziehen oder darin sein, bei dem Informationen durch kontinuierlich variable physikalische Größen dargestellt werden

Diese Definition ist ziemlich neu. Ursprünglich wurde der Begriff „analog“ verwendet, um Geräte zu beschreiben, die physikalische Objekte analog zu mathematischen Objekten in einer Formel zusammenführen, um eine Berechnung durchzuführen. Da diese Geräte sehr gut in der kontinuierlichen Mathematik eingesetzt werden können, haben wir im Laufe der Zeit Analogmaschinen als "kontinuierliche Mathematik" bezeichnet. Die große Kluft in der Mathematik - zwischen kontinuierlicher und diskreter Mathematik - ordnen wir dem großen Unterschied zwischen diesen beiden Berechnungsmethoden zu.

Um das analoge Rechnen wirklich zu verstehen, müssen wir für einen Moment die Eignung für eine Form der Mathematik anstelle einer anderen ignorieren. Stattdessen müssen wir untersuchen, was es bedeutet, "analog" zu sein, im Gegensatz zu der Abstraktion, die in den digitalen Maschinen zu sehen ist.

Der faszinierende Antikythera-Mechanismus zeigt, dass die alten Griechen - neben Philosophie, Demokratie, Geometrie und evidenzbasierter Medizin - die Berechnung erfunden haben. Bei der Kurbelumdrehung zeigte dieses uralte Gerät Bewegungen der Sonne, des Mondes und der Planeten mit erstaunlicher Genauigkeit (Sonnenfinsternisse werden je nach Tageszeit und Farbe der Sonnenfinsternis vorhergesagt).

Der Antikythera-Mechanismus verwendet Dutzende präzise geschnitzte Zahnräder, um diese Simulation zu erstellen. Die Zahnräder sind eine physische Verkörperung der mathematischen Objekte, mit denen diese Vorfahren die Eklipse-Timing-Ratio verstehen. Drehen Sie die Kurbel, und die Räder bewegen sich mit relativ unterschiedlichen Geschwindigkeiten, die durch diese Verhältnisse verkörpert werden, um die Ausrichtung der Himmelskörper genau vorherzusagen.

Wie wird die Mathematik eines Verhältnisses zu einem physischen Objekt? Betrachten wir ein Beispiel. Etwa alle 28 Tage kommen neue Monde vor, ein Zyklus, der nicht genau mit dem Jahr übereinstimmt. Antike Astronomen wussten, dass sie, wenn sie den Himmel für 19 Sonnenjahre beobachten, genau am Ende dieses 19. Jahres sehen würden, dass sich der Mond fast genau mit den Sternen ausrichtete, nachdem er 254 Rotationen vollendet hatte. Dieses Übersetzungsverhältnis von 254/19 wird von Komponenten des Antikythera-Mechanismus verwendet, um diese Umlaufbahnen zu simulieren. Drehen Sie ein Rad 19-mal und ein anderes 254-mal: ein physikalisches Analogon der zugrundeliegenden Mathematik.

Analoge Computer des 20. Jahrhunderts nutzten neu entdeckte elektrische Eigenschaften, um physikalische Analoga komplexerer Mathematik zu erstellen. Insbesondere waren diese Geräte überraschend gut in der Durchführung von abgeleiteten und integralen Operationen, die das Herzstück des Kalküls bilden. Der Strom über einem Kondensator ist zu jedem Zeitpunkt die Ableitung (Änderungsrate) der Spannung. Der Strom über einer Induktivität ist das Integral (Summe) der an diese Induktivität angelegten Spannung über einen Zeitraum. Mit einem tiefen Verständnis für Mathematik und vielem Basteln können Schaltungen erstellt werden, um Differentialgleichungen, eine schwere Aufgabe auf einem digitalen Computer oder für viele menschliche Mathematiker sofort zu lösen. In Goldstines Worten:

Deshalb werden diese Maschinen als analog bezeichnet. Der Entwickler eines analogen Geräts entscheidet, welche Operationen er ausführen möchte, und sucht dann nach einem physischen Gerät, dessen Betriebsgesetze denen entsprechen, die er ausführen möchte. Als nächstes baut er den Apparat und löst sein Problem durch Messen der physikalischen und damit kontinuierlichen Größen, die an dem Apparat beteiligt sind. [p. 40]

Die Einschränkungen dieser Maschinen sind auf ihre analoge Natur zurückzuführen. Als physikalische Modelle der Mathematik können sie nicht leicht umzuwandeln sein. Wenn Sie möchten, dass Ihr Antikythera ein anderes Planetensystem simuliert, können Sie es nicht nur ein wenig verändern, sondern müssen es komplett neu aufbauen. Es gibt keine Abstraktion der Funktion vom Mechanismus, wie es in Turing vollständigem digitalem Computing zu sehen ist.

Die Abstraktheit ist ein wesentliches Unterscheidungsmerkmal der digitalen Maschine. Sie ermöglicht die Erstellung einer Vielzahl von Programmen für so viele verschiedene Zwecke. Dies ist eine große Frage für eine Technologie wie das Quantencomputing. Sicher gibt es interessante, leistungsfähige Berechnungen, die durchgeführt werden können, höchstwahrscheinlich mit einer Geschwindigkeit, die die Quantenberechnung bei weitem übertrifft. Aber können diese Vorteile auf alle Probleme angewendet werden? Oder nur eine kleine Teilmenge von Problemen, deren Nuancen analog zu der zugrundeliegenden quantenphysikalischen Vorrichtung sind.

Ein früher analoger Computer, ca. 1949

5. Analogcomputer waren einmal die Zukunft

Die Geschichte hat eine ganze Ära des Rechners, das analoge Zeitalter, weitgehend vergessen. Als ich im digitalen Zeitalter aufwuchs, hatte ich den Eindruck, dass die vor dem ENIAC geleistete Arbeit ohne Belang war. Goldstine lebte in einer anderen Zeit und sah eine ganz andere Version von Ereignissen. Analoges Rechnen, das zwischen den Weltkriegen herangewachsen war, war aus seiner Sicht eine etablierte Technologie. Das digitale Rechnen war eine riskante, störende Möglichkeit, die bei weitem nicht mit Sicherheit die analogen Lösungen übertraf.

Betrachten Sie zum Beispiel Lord Kelvins Gezeitenvorhersagegerät von 1873. Das Gerät verwendete Räder und Stifte, um die entsprechenden trigonometrischen Gleichungen zu simulieren. Das resultierende Gerät könnte Gezeiten vorhersagen. In Goldstines Worten

Hier sehen wir zum ersten Mal ein Beispiel für ein Gerät, das den menschlichen Prozess um einen sehr großen Faktor beschleunigen kann, wie Kelvin behauptet. Aus diesem Grund war Kelvins Gezeiten-Harmonie-Analysator wichtig und Babbages Unterschiedsmotor nicht. [pp. 47–48]

Die praktische Anwendbarkeit dieser analogen Maschinen führt bald zu einem gesunden Markt. Innovatoren wie Ford und Newell sind wegweisende Techniken für Navigation und Waffen. Der oben erwähnte Differenzialanalysator war der schnellste Weg, um Ballistiktabellen vor dem Aufkommen des digitalen Rechnens zu berechnen.

Der große Erfolg des Analog Computing erklärt das Fehlen des MIT aus den Anfängen digitaler Innovationen. Das Institut war damit beschäftigt, die alternative, analoge Zukunft aufzubauen. Vannevar Bush und Samuel Caldwell, die Ende der 1920er Jahre am MIT arbeiteten, erfanden den Differentialanalysator, ein Schlüsselgerät für die Beschleunigung ballistischer Berechnungen. Die ursprüngliche Inkarnation von 1931 berechnete mit physischen beweglichen Teilen, nicht mit Elektronik. Erst in den frühen 1940er Jahren wurden Schaltungen entwickelt, um viele der ursprünglichen physikalischen Analoga zu ersetzen. Bush und Caldwell sprachen in den frühen 1940er Jahren die größte Schwäche dieser analogen Maschinen an, die mangelnde Programmierbarkeit. Digital Computing war die Technologie, an die wenige bis zu den wundervollen Erfolgen der Mitte der 1940er Jahre geglaubt hatten. Nach dem MIT gibt es viele großartige digitale Innovationen, eine lange Liste, die die Entwicklung von Magnetspeichern, TCP / IP, E-Mail, frühen Videospielen und Virtual-Reality-Displays umfasst.

Analoge Computer sind nicht verschwunden, es gibt weiterhin Befürworter, die sich für eine glänzende Zukunft der Technologie einsetzen.

Babbages Maschine, um 1853, zeigt Dezimalzahlen auf den Zifferblättern.

6. Frühe Computer hatten keine 1 und 0

Heute halten wir es für selbstverständlich, dass „1s und 0s“, auch Binärdarstellungen genannt, der effizienteste Weg zum Erstellen einer Maschine sind. Während er sich für binär hielt, wurden bei Babbages Entwürfen alle Dezimaldarstellungen verwendet, die die Ziffern 0 bis 9 haben, die wir üblicherweise zum Zählen und Messen verwenden. Ich war überrascht zu erfahren, dass die Dezimaldarstellungen noch einige Zeit andauerten. In Goldstines Worten:

In der Mitte der 1940er Jahre wurde argumentiert, der Grund für die Einführung des Dezimalsystems für Computer sei darin begründet, dass das Problem der Umwandlung von binär nach dezimal und umgekehrt ein Hauptproblem sei. [p. 260]

Erst als die EDVAC in Betracht gezogen wurde, bewegte sich das Rechnen endgültig in Richtung der binären Darstellung. Goldstine und Von Neumann zeigten eine schnelle Methode zur Umwandlung von Dezimalzahlen in Binärzahlen und zeigten, wie das Gesamtsystem einfacher ist, wenn diese Umwandlungen den Rechenprozess verbessern. Wir haben seitdem nicht zurückgeschaut.

Wenn Sie neugierigere Einblicke in die Anfänge des Computing haben, teilen Sie diese bitte unten mit.

[1] Hardcore-Nerds, die Yuri´s Night feiern, natürlich ausgenommen.

Siehe auch

Dies ist eine Steuer, die beide Seiten des Gangs unterstützen könnten.ZahnbürsteTravelgateX wird an der Travel Tech 4Y4N Barcelona 2019 teilnehmenAusarbeitung eines explorativen InterviewsÜberlegungen zum Umzug von San Francisco nach Oakland und meine erste Woche in der GemeinschaftStarten der Python Benin Community