390 likes | 483 Views
Building new brains. Was brauchen wir um ein Gehirn zu bauen?. Ein paar wichtige Formalismen Rekursive Suche Selbstorganisierende Netzwerke Der Kampf zwischen konkurrienden Entwuerfen (Design) Wissen Nur ein paar Wissensfragmente Rest wird von adaptiven Methoden gelernt.
E N D
Was brauchen wir um ein Gehirn zu bauen? • Ein paar wichtige Formalismen • Rekursive Suche • Selbstorganisierende Netzwerke • Der Kampf zwischen konkurrienden Entwuerfen (Design) • Wissen • Nur ein paar Wissensfragmente • Rest wird von adaptiven Methoden gelernt
Was brauchen wir um ein Gehirn zu bauen? • Faehigkeit Berechnungen durchzufuehren • Staerken und Schwaechen des Gehirns • Berechnet sequentiell sehr langsam • Parallel sehr schnell • Schwaeche ist schwer zu beheben da: • DNA kann Struktur erweiteren / veraendern aber ist nicht in der Lage sich von Grund auf an zu aendern
Frage: Wann wird die Hardware-Kapazitaet des Gehirns erreicht • Dazu muss man die Geschwindigkeitsentwicklung des Computers betrachten • Computergeschwindigkeit := (Berechnungen/Sekunde/$1000) • 1910 - 1950 alle 3 Jahre verdoppelt • 1950 - 1960 alle 2 Jahre verdoppelt • Heute verdoppelt sich die Leistung des Computers jedes Jahr
Frage: Wann wird die Hardware-Kapazitaet des Gehirns erreicht • Dazu muss man die Geschwindigkeitsentwicklung des Computers betrachten • Computergeschwindigkeit := (Berechnungen/Sekunde/$1000) • 1910 - 1950 alle 3 Jahre verdoppelt • 1950 - 1960 alle 2 Jahre verdoppelt • Heute verdoppelt sich die Leistung des Computers jedes Jahr
Rechenleistung des Gehirns: • Gehirn besteht aus 100 Milliarde Neuronen. • Jeweils 1000 Verbindungen zwischen Neuron und jedem Nachbarn bestehen.Þ 100 Billion Verbindungen • Jede Verbindung kann 200 Berechnungen / Sekunde ausfuehren • Þ 20 Millionen Milliarden Berechnungen / Sekunde vom Gehirn koennen vom Gehirn ausgefuehrt werden
Wann sehen wir also diese Geschwindigkeit in unserem Computer? • Þ Der Verlauf aehnelt einem exponentielles Wachstum in einem exponentiellen Wachstum • Das kommt daher, weil zwei Faktoren auf das Law of Accelerating Returns angewendet werden • 1. Strang: (besonders zuerst) Geschwindigkeit erhoehen indem man die Transistoren kleiner macht (kuerzerer Weg) • 2. Strang: Hoehere Dichte von Transistoren auf gleich grossem Chip • + In den 90 Jahren ernsthafter Beginn von Versuchen paralleler Berechnungen in Computern
Wann werden Computer den Speicherplatz des Gehirns erreichen? • Das Gehirn hat 100 Billion Synapsen (Verbindungen zwischen Neuronen). -> 1 Million Miliarde Bits. • 1998 kostet 1 Miliarde Bits (128 MB) $200 und Kapazitaet doppelt alle 18 Monate. • => 2023 - 1 Million Milliarde Bits kosten $1000 (Und sind um den Faktor eine Million schneller)
Wann sehen wir also diese Geschwindigkeit in unserem Computer? • IBM baut Computer auf Basis von Deep Blue mit 10 Terraflops (10 Billion Berechnungen / Sekunde) • Nippon Electric versucht dies zu schlagen mit 32 Terraflops. • Da IBM sich das nicht gefallen laesst, wollen sie bis 2004 100 Terraflops-Rechner gebaut haben. • => 2010 - 200 Terraflops was dem Gehirn entspricht • (Bestaetigt K.s Theorie : PCs 10 Jahre auf die aktuellen Supercomputer Rueckstand) • Nach Kurzweil ueberschreitet die ungenutzte Kapazitaet der Menge heimischen Rechner im Internet jetzt schon das Gehirn. • => Die Hardware-Vorraussetzung fuer ein Gehirn ist jetzt schon da.
Wie wird es weitergehen? • Ausgehend davon, dass sich die Geschwindigkeit jedes Jahr verdopplelt • und die Weltbevoelkerung ungefaehr 10 Milliarden Menschen betraegt. • 2020 - $1000 PC = Gehirn • 2030 - PC = Kleine Stadt • 2048 - PC = United States • 2060 - PC = eine billion Menschen • 2099 fuer einen Penny kann die Rechnenleistung aller Gehirne auf der Erde haben.
Computer im 21 Jahrhundert • Wenn Moore Law gegen 2020 laut Kurzweil nicht mehr greift, weil Schaltkreise in der Groesse von ein paar Atomen ungewuenschte • Quanten-Effekte hervorrufen - • dann kann man in die dritte Dimesion bauen. • Schichten von Schaltkreise werden uebereinander gelegt. • Im Moment noch zu teuer • Darueber hinaus gibt es noch ein Fuelle von anderen Herangehensweisen, die ich nun erlaeutern werde
Rechnen mit Licht • Optische Computer verwenden Photonenstroeme (Lichtpartikel) statt Elektronen. • Laser kann Milliarden von coherenten Stroemen produzieren die unabhaengige Berechnungen durchfuehren • Einsatz schon heute bei Erkennung von Fingerabdruecken. • Vorteil: Der massive Parallelismus von Berechnungen • Nachteil: Die Computer sind nicht programmierbar. Fuehrt nur eine feste Anzahl von Berechnungen fuer eine gegebene Konfiguration von optischen Berechnungselementen durch
DNA basierte Computer • DNA-Computer eignen sich aufgrund ihres massivem Parallelsimus gut zum loesen kombinatorischer Probleme • Forscher haben Enzyme erkannt die logische Grundoperationen wie "und,"oder",usw in der DNA ausfuehren. • "Traveling salesman" Problem ist mit dieser Form von Berechnung in sehr kurzer Zeit zu loesen. • flexibler als Optische Rechner, aber immernoch sehr begrenzt
Computer in Form eines Kristalles • Daten werden in Form von einem Hologram (also dreidimensional) in einem Kristall gespeichert • Methode braucht nur 1 Million Atome zur Speicherung eines bits. => 1 Billion Bits auf ein ccm. (das ist ueber ein GB) • Es gibt auch Projekte die versuchen die direkt mit Hilfe von Kristallen Berechnungen anstellen
Die Nanotube • 1985 Buckyballs entdeckt • Carbon-Molekuele mit einem penta- oder hexagonalen Muster. • entstehen im Dampf eines Hochofens • sehr hart - haerter als Stahl • Nanotubes sind aehnlich • verlaengerte Carbon-Molekuele (deswegen tube) • entstehen aus dem Dampf einer "Carbon-Bogen-Lampe" • sind extrem klein (deswegen Nanotube) • genauso hart
Die Nanotube • Der Vorteil: Hat die gleichen elekronischen Eigenschften wie Silikon basierte KomponentenDie Vorteile: • eine gerade Nanotube leitet Elektrizitaet besser als Metall • bei leichtem helixartigem Dreh in der Form, kann die Nanotube sich wie ein Transitor verhalten • viel belastbarer als Silikon - koennen mit Hitze besser umgehen -> koennen besser in 3 dimensionale • Architekturen aufbauen • Forscher haben Visionen Computer aus Nanotubes zu bauen die viel kleiner, kompakter und schneller sind als die heutigen. Auch die Rechenleistung des Gehirns soll dadurch uebertroffen werden.
2.1 Kurze Einführung in die Quantenmechanik (1) • Zur Erinnerung: Das Photon (Elementarteilchen) • Bezeichnung für die kleinsten Energieteilchen elektromag-netischer Strahlung. • Die Teilchen lassen sich weder durch ein elektrisches noch durch ein magnetisches Feld ablenken. • Die Teilchen besitzen sowohl die Eigenschaften eines Teilchens, als auch die einer Welle. (Welle-Teilchen-Daulismus) • Materie gibt Energie nicht kontinuierlich ab, sondern in Energiepaketen, sog. Quanten (Planck) Bernd Güde
Einführung in die Quanten-mechanik Superposition (2) D1 Photonen D2 = halbdurchlässiger Spiegel (aufgestellt in Winkel 45°) D1, D2 = Detektoren Bernd Güde
D1 Photonen D2 = halb durchlässiger Spiegel D1, D2 = Detektoren Einführung in die Quanten-mechanik Superposition (3) • Ergebnis: • Der halb durchlässige Spiegel bewirkt, dass man in Detektor D1 und Detektor D2 jeweils 50 % der gesendeten Photonen messen kann.
Einführung in die Quanten-mechanik Superposition (4) = halbdurchlässiger Spiegel D1 = nichtdurchlässiger Spiegel D1, D2 = Detektoren 1 D2 2 Photonen 1 2 Alle Spiegel sind aufgestellt im Winkel = 45° Bernd Güde
Ergebnis: • Der halb durchlässige Spiegel 1 bewirkt zwar, dass man in Detektor D1 und Detektor D2 jeweils 50 % der gesendeten Photonen messen kann. • Die beiden Wege werden durch die Reflektoren aber wieder zusammengefügt. Einführung in die Quanten-mechanik Superposition (5) ABER: In Detektor D1 kann man jetzt komischer Weise alle Photonen messen, in D2 keine. Was bedeutet dieses Phänomen?
Interpretation: • Photonen haben grundsätzlich die Eigenschaft, dass sie durch halb durchlässige Spiegel zu laufen (immer) oder nicht (nie). Einführung in die Quanten-mechanik Superposition (6) • Diese Interpretation liegt vielleicht nahe, aber ist dennoch falsch, was durch nähere Betrachtung folgendes deutlich (vgl. 1.1): • Photonen interferieren, d.h., sie überlagern sich. Dabei können sie sich verstärken (konstruktive Interferenz) oder aufheben (destruktive Inter-ferenz).
Einführung in die Quanten-mechanik Superposition (7) Das Versuchsergebnis kann man jetzt so interpretieren, dass am zweiten halb durchlässigen Spiegel Photonen inter-ferieren, so dass in der Richtung Detektor 1 konstruktive Interferenz herrscht und in Richtung Detektor 2 destruktive. Das Erstaunliche ist, dass dieses Experiment auch mit nur einem einzigen Photon funktioniert. Es liegt nahe, dass sich Photonen nicht spalten können. Blockiert man einen der Wege, so kann man messen, dass das Photon jeweils an Detektor 1 und Detektor 2 messbar ist. Ein Photon hat dann also mit sich selber interferiert, es hat zwei Wege verfolgt. Dieser Zustand heißt kohärente Superposition.
2.2 Technische Umsetzung des Quantencomputers (1) • Die Tatsache, dass ein Photon zwei Zustände annehmen kann, wirkt sich revolutionär auf den Bau von Rechnern aus: • klassische Rechenmaschinen kennen nur den Zustand 0 oder 1. • Mit den quantenmechanischen Effekten könnte man jetzt ein Qubit definieren, welches den Zustand 0 und 1 kennt. Das sind seine Basiszustände. Man muß daher noch eine Gewichtung vornehmen, um dann auch mit Qubits rechnen zu können, dies geschieht über Wahrscheinlich-keiten, welche es erlauben, Qubits zu steuern.(aufgr. Interferenz)
Technische Umsetzung des Quantencomputers (2) Ein einzelnes Qubit scheint noch nicht recht sinnvoll. Interessant wird diese neue Art den Rechnen doch erst, wenn man viele Qubits verwenden (und steuern) kann. Erst dann wird der Quantencomputer zu einem mächtigen Parallelrechner. Problem der Superposition ist leider aber, daß man sie nicht messen kann: Will man ein Photon in Superposition messen, muss man es anstoßen, dabei verliert es seine quantenmechanischen Eigenschaften. Das wird auch zum Problem für Quantencomputer: sie müssen von äußeren Einflüssen völlig abschotten.
Technische Umsetzung des Quantencomputers (3) Ferner treten Fehler auf, denn es wird mithilfe von Wahr-scheinlichkeiten gemessen. Das bedeutet man muß, um mit Qubits rechnen zu können auch immer über geeignete Fehlerkorrekturmechanismen verfügen. Die Herstellung und gezielte Manipulation stellt ein enormes technisches Problem dar. Aktuell kann man Systeme herstellen mit 5 Qubits. Ein weiteres Problem ist, daß man zwar das Ergebnis einer Superpostion kennt, aber keine Zwischenergebnisse. Man kann also nicht alle Informationen an die Außenwelt über-tragen. Auch für Algorithmen bedarf vieler komplexer Überlegungen.
Technische Umsetzung des Quantencomputers (4) • Allerdings sind Quantencomputern auch Grenzen gesetzt. • Datenbanken können nur unwesentlich schneller durchsucht werden, als mit herkömmlichen Algorithmen. Jedoch ist der technische Aufwand um ein Vielfaches größer. • Vorteile hat ein Quantencomputer allerdings mit Aufga-ben, wo parallele Rechenleistung gefragt ist (Faktorisie-rung großer Zahlen, etc.) • Passende Algorithmen zu finden ist z. Z. das größte Hindernis zum Durchbruch der Quantenrechner.
2.3 Ausblick Zitat: Auf der Jagd nach dem Quantencomputer von R. Emmerich, Pressemitteilung Bayrische Julius-Maximilians-Universität Würzburg, 22.02.2001: Die Realisierung eines Quantencomputers stellt ein hoch aktuelles Gebiet der physikalischen Forschung dar. [...] Wissenschaftler von der Universität Würzburg haben zusammen mit Kollegen aus Kanada ein wesentliches Bau- element für einen Quantencomputer, ein quantum gate realisiert. Dem Wissenschaftsblatt Science war das einen Bericht wert [...] Seine eigentliche Schnelligkeit bezieht der Quantencomputer aber daraus, dass die einzelnen Bits nicht getrennt angesteuert werden, sondern alle Bits miteinander gekoppelt sind. Die Forscher sprechen hier von Verschränkung: Wird ein bestimmter quantum bit angesteuert, dann werden aufgrund der Kopplung gleichzeitig auch alle anderen Bits adressiert. Statt einer einzelnen Rechen-operation [...] sind [...]sehr viele Rechenoperationen durchführbar. Der Arbeitsgruppe am Würzburger Lehrstuhl für Technische Physik [...] gelang es zusammen der Forschergruppe [...] vom National Research Council in Ottawa, durch die Kopplung so genannter Quantenpunkte künstliche Moleküle herzustellen...
Reverse Engeneering • Menschliches Gehirn als Vorbild für ein Computer-Gehirn • Erste Erfolge: Chip basierend auf Retina und ersten visuellen Verarbeitungsstufen bei Säugetieren. • Kritik: Menschliches Gehirn sei zu schwach um sich selbst zu verstehen • Massive parallele Algorithmen sind verstehbar • Anzahl der Algorithmen ist begrenzt • Folge: Menschen oder zumindest zukünftige Maschinen können menschliches Gehirn verstehen
Methoden: Destruktiver Scan • Gehirn wird gefroren, Scheibenweise gescannt und abgetragen. • Ethische Einwände? • Vergleich zu Leonardo da Vinci • Psychologischer Grund für Einwände: Menschen identifizieren sich eher mit ihrem Gehirn.
Methoden: Nicht destruktiver Scan • Gehirn wird nicht (negativ) beeinflusst • Magnetic Resonance Imaging (MRI) • neue Methode: optical imaging • Angewendet zur Erforschung der Wahrnehmung • Law of Accelerating Returns:Scanner sind abhängig von Fortschritt in Physik und vor allem Computern • Folge: Immer bessere Scanner sind abzusehen • Vergleich zum Genom-Projekt • Der anfangs zu hohe Aufwand kann durch neue Technologien in absehbarer Zeit bewältigt werden.
Zweck: Erforschung des Gehirns • Verständnis der Funktion des (menschlichen) Gehirns • Details weniger wichtig als grundlegende Muster • Entwicklung neuronler Netze, durch reverse engeneering. • funktioniert vor allem in kleinen Systemen • Algorithmen können nicht nur verstanden, sondern for dem reimplementieren verbessert werden. • Da Computer auch schneller, folgt: Neue Gehirne werden überlegen sein. • Ungewollte menschliche Aspekte können weggelassen werden. Wesentliches darf nicht übersehen werden.
Zweck: Gehirn in Maschine kopieren • Hoher Aufwand, da alle Details beachtet werden müssen. • Aber: Nur genaues Kopieren nicht Verstehen erforderlich. • jede einzelne Komponente im Hirn muss verstanden werden: • große Anzahl verschiedener Neurotransmitter • Unterschiedliche Neuronen • evtl. Strukturen, die Quanten-Rechnen ermöglichen • Aber: es müssen nur informations-relevante Teile kopiert werden, nicht die zur Selbsterhaltung.
Konsequenzen • Fehler beim Kopieren? • Persönlichkeiten verändern sich auch in realer Welt ständig • Technik wird sich verbessern • Körper für das Gehirn-Medium? • den alten Körper, evtl, verbessert, Maschine, Clon, vollständig virtuell • Das entstandene Wesen wird behauten ein Bewusstsein zu haben. • Das Wesen wird intellektuell einem Menschen überlegen sein, da es schneller, fehlerfreier und mit größerer Wissensbasis denken kann.
Trends • ab der zweiten Hälfe dieses Jahrhunderts wird das biologische Gehirn ersetzt. • Zuerst teilweise: alterndes Gedächtnis ersetzen, verbesserte Schaltungen zum Nachdenken und zur Mustererkennung. • Später vollständig: schneller Denken, mehr Gedächtnis, alles Wissen, ständige Kommunikation als Folge der billigen Computerressourcen. • Vergleich: Alte Vinyl Platten wurden auf moderne digitale Tonträger umkopiert
Unsterblichkeit • Menschen werden software nicht hardware sein • Unsterblichkeit als logische Folge • Heute ist die Software durch die Hardware (Gehirn) begrenzt - in einer neuen Hardware kann sie wachsen. • Überleben hängt nicht mehr von Hardware, sondern von 'Datenpflege' ab.
Zeitalter der neuralen Implantate • Erfolgreicher Einsatz von neuralem Implantat gg. Parkinson • Implantate die Tauben oder Blinden helfen • Übergang von Nerven zu Elektronik ist möglich. • Entwiclung vom Max-Plank Institut.. Bsp. Kontrolle der Bewegung eines Blutegels per Computer. • beidseitig wandelnde Geräte sollen z.B. in Prothesen eingesetzt werden. • was zuerst gegen Krankheiten eingesetzt wird, wird später auch zur Leistungssteigerung genutzt werden.
Kurzweils Reflektion • Überleben des Entwickelteren • Bsp.: Homo Sapien Sapiens vs. Homo Sapiens Neanderthalis. • Bsp.: Europäer vs. amerikanische Ureinwohner • Keine Unterwerfung der Schwächeren • Da Sklaverei 'kein fruchtbares ökonomisches' System für beide Seiten im Zeitalter des Intellekts ist. • Diese Entwicklung kann und darf nicht gestoppt werden • Gesetztes der beschleunigenden Wiederholung • verstößt gegen alle Grundlagen ökonomischer Konkurrenz und der Suche nach Wissen • Viele Vorteile durch diese Entwicklung
Fragen: • Kurzweils 'Mensch' - Summe neuraler Verbindungen? • Unsterblicher Mensch - Ersetzbarer Mensch? • Überleben des Entwickelteren oder Stärkeren - ein gesellschaftliches Modell? • Zeitalter des Intellektes - ein garant für Freiheit? • Unausweichlicher Fortschritt - eine Perspektive für die Gegenwart?