Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Es ist gelungen Photonischer Chip stark zu verbessern. Ist damit analoges Rechnen möglich?

Bunter Hund

Auserwählter Meister der Neun
2. Juni 2025
913
Es ist gelungen Photonischer Chip stark zu verbessern. Ist damit analoges Rechnen möglich?


Ein Chip wird mit einer Zange gegriffen.

Player: audioRechnen mit Licht - photonische Chips aus Stuttgart





00:00

05:16





Rechnen mit LichtPhotonischer Chip für Rechenrekorde​

Stand: 06.03.2025 • 15:07 Uhr
Rechenzentren verbrauchen immer mehr Energie. Ein Start-up aus Stuttgart will Abhilfe schaffen und hat einen Chip entwickelt, der mit Licht statt mit Strom rechnet - und deutlich weniger Energie verbraucht.

Von Frank Wittig, SWR
Künstliche Intelligenz fordert immer mehr Leistung bei den großen Rechenzentren. So braucht eine Anfrage bei Chat-GPT etwa 10-mal so viel Strom wie eine einfache Anfrage bei Google. Das Start-up Q.ANT aus Stuttgart verspricht hier Hilfe.

Q.ANT hat jetzt mit dem Aufbau einer Fertigungsanlage für photonische Computerchips begonnen. Die rechnen nicht mit Strom, sondern mit Licht, sind viel schneller und verbrauchen viel weniger Energie als herkömmliche Prozessoren, verspricht der Hersteller. Bisher galt die Technologie als fehleranfälliger als die strombetriebenen Chips. Dieses Problem will das Stuttgarter Unternehmen nun gelöst haben. Schon in zwei Jahren sollen die ersten photonischen Chips auf den Markt kommen.


Rechenzentrum der Firma Scaleway in Frankreich
Rechenzentrum der Firma Scaleway in Frankreich
01.11.2024

Neue StudieEnergiebedarf von KI-Anwendungen steigt drastisch​

Entwickelt sich Künstliche Intelligenz mit ihrem Energiehunger zum Klimakiller? mehr


Paralleles Rechnen macht den Chip schnell​

Einer der Vorteile der photonischen Chips besteht darin, dass sie eine große Zahl von Rechenoperationen gleichzeitig durchführen können. Der Trick: Auf ein und derselben Infrastruktur auf dem Chip kann man mit unterschiedlichen Wellenlängen, also mit verschiedenen Farben, verschiedene Rechnungen parallel durchführen. Unter anderem deshalb sind die Chips so schnell.

Ein weiterer Vorteil: Die Chips rechnen nicht digital - also mit Einsen und Nullen, sondern analog. Das passt vor allem zu Vorgängen in der Natur, die eben nicht digital sind, sondern analog. Hier verändern sich Größen kontinuierlich und machen keine digitalen Sprünge. Das kann man auch am besten analog berechnen - man spart sich also den Umweg über das binäre System.

Schon seit Jahrzehnten haben Forschende versucht, diese der Natur angemessene Rechentechnik zu verwirklichen. Michael Förtsch, einer der Geschäftsführer der Stuttgarter Chipschmiede Q.ANT, erklärt, mit ihrem photonischen Chip sei ihnen der Durchbruch gelungen. "Das ist uns jetzt weltweit zum ersten Mal gelungen, dass wir ein solches Rechenelement, das die von uns aufgestellten Gleichungen der Natur direkt berechnen kann, zum ersten Mal realisiert haben und Ergebnisse in einer Qualität erzeugen, wie sie die Welt noch nicht gesehen hat.“
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.857
Hm. Analoges Rechnen war schon immer möglich.

Zum Beispiel ist der gute alte Rechenschieber ein Analogrechner, mit dem Multiplikation und Division zweier Zahlen als Addition und Subtraktion ihrer, als Strecken auf verschieblichen Skalen dargestellten Logarithmen durchgeführt wurden. Oder bei Uhren: Die Digitaluhr, die eine Uhrzeit per Klartext anzeigt, ist relativ neu - die Analoguhr, die die vom Tag verstrichene Zeit durch eine Zeigerstellung anzeigt, gibt es schon seit Jahrhunderten.

Oder die Nadel eines Seismographen: Sie ist ein analoges Messinstrument, dessen Ausschlag analog zur Stärke der registrierten Erschütterung ist. Bei entsprechender Eichung kann die Nadel die Erdbebenmessung dann direkt in die nach oben offene Richter-Skala einschreiben.

Ein anderes, richtig als Analogrechner bezeichnetes Schätzchen hatte ich mal kurz auf der Uni kennen gelernt. Hier wurden mathematische Gleichungen durch elektrische Schaltungen nachgebaut. Grundgedanke ist etwa: Zwei hintereinander geschaltete Widerstände addieren sich. Elektrischem Strom, den man da durchschickt, erfährt die analogen Änderungen wie eine Zahl, die man durch entsprechende mathematische Operaturen hindurchschickt.

Der Witz bei der Analogrechnerei ist eben, dass gar nicht gerechnet wird. Man erstellt ein System, dass sich analog zu dem, was man beobachten will, verhält. Und auf dieser Basis ließen sich schon lange vor den digitalen Computern anspruchsvolle Aufgaben erfüllen. Militärisch natürlich, leider. Etwa der Vorhaltrechner für Torpedos bei den U-Booten. Oder insgesamt die Feuerleitung für die Artillerie.

Das Ganze hatte schon längst einen museal-nostalgischen Touch, als ich diesen Analogrechner an der Hochschule gesehen habe, aber die Versuchstechniker schwärmten von dem Ding, weil es sich viel besser und einfacher in Versuche integrieren ließ als ein digitaler Rechner.

Also: Für analoges Rechnen braucht‘s keinen Photonenchip - ich würde nach wie vor Potatochip Salt&Vinegar bevorzugen.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.889
Hm. Analoges Rechnen war schon immer möglich.

Zum Beispiel ist der gute alte Rechenschieber ein Analogrechner, mit dem Multiplikation und Division zweier Zahlen als Addition und Subtraktion ihrer, als Strecken auf verschieblichen Skalen dargestellten Logarithmen durchgeführt wurden.

In der Schule gehörte ich zum ersten Jahrgang, dem die Anwendung des Taschenrechner gelehrt wurde - und zum letzten Jahrgang, der in der Bedienung des Rechenschiebers geschult wurde. Der Rechenschieber hat ein paar Schwachstellen:
- Die Stellengenauigkeit ist nicht hoch, bei 4-5 Stellen ist Schluss.
- Der Rechenschieber rechnet nur mit den Zahlen, nicht aber mit den Stellen. Man hat eine Art Nebenrechnung zu erstellen, um das Komma im Ergebnis an die richtige Position zu setzen.
- Der Rechenschieber ist nichts für Grobmotoriker und Blindfische. :schimpf:

Bereits damals gewann ich beim Rechenschieber den Eindruck: Es handelt sich hierbei um eine Art Rechenmaschine, die mehr dazu taugt, schnell grobe Abschätzungen zu erzielen - und man muss wissen, was man da tut. Brauchte man genauere Ergenisse, so kam man um das Rechnen mit Stift und Papier nicht herum.

Das sollte aber nicht darüber hinwegtäuschen, dass auch unsere Computer keineswegs immer genau rechnen, was mit der Zahlendarstellung zusammenhängt. Zu meinem Befremden zeichnet sich dies in meinem Alltag auch real ab. Mein Prepaid-Anbieter vom Handy z.B. bekommt ganzzahlige Beträge überwiesen, und er bucht ganzzahlige Beträge ab ... nur wie kann es dann bitte sein, dass ich immer wieder mal Guthabenbeträge von "29,92 €" feststellen darf - statt der 30 €, die es eigentlich sein müssten?

Das im o.g. Beitrag genannte parallele Rechnen kann die Geschwindigkeit verbessern - aber eben auch nur dann, wenn die Aufgabe in parallele Rechenschritte zerlegt werden kann. Muss eine Einheit auf die Ergebnisse einer anderen warten um weiterzurechnen, dann ist der Geschwindigkeitsvorteil dahin. Außerdem bleibt in jedem Fall das Turingsche Halteproblem.
Aber selbst im besten Fall gibt es grundlegende Grenzen der Parallelisierbarkeit, dann nämlich, wenn die Verteilung der Aufgabe mehr Zeit erfordert als die Berechnung selbst.
 

Bunter Hund

Auserwählter Meister der Neun
2. Juni 2025
913
Hm. Analoges Rechnen war schon immer möglich.

Zum Beispiel ist der gute alte Rechenschieber ein Analogrechner, mit dem Multiplikation und Division zweier Zahlen als Addition und Subtraktion ihrer, als Strecken auf verschieblichen Skalen dargestellten Logarithmen durchgeführt wurden. Oder bei Uhren: Die Digitaluhr, die eine Uhrzeit per Klartext anzeigt, ist relativ neu - die Analoguhr, die die vom Tag verstrichene Zeit durch eine Zeigerstellung anzeigt, gibt es schon seit Jahrhunderten.

Oder die Nadel eines Seismographen: Sie ist ein analoges Messinstrument, dessen Ausschlag analog zur Stärke der registrierten Erschütterung ist. Bei entsprechender Eichung kann die Nadel die Erdbebenmessung dann direkt in die nach oben offene Richter-Skala einschreiben.

Ein anderes, richtig als Analogrechner bezeichnetes Schätzchen hatte ich mal kurz auf der Uni kennen gelernt. Hier wurden mathematische Gleichungen durch elektrische Schaltungen nachgebaut. Grundgedanke ist etwa: Zwei hintereinander geschaltete Widerstände addieren sich. Elektrischem Strom, den man da durchschickt, erfährt die analogen Änderungen wie eine Zahl, die man durch entsprechende mathematische Operaturen hindurchschickt.

Der Witz bei der Analogrechnerei ist eben, dass gar nicht gerechnet wird. Man erstellt ein System, dass sich analog zu dem, was man beobachten will, verhält. Und auf dieser Basis ließen sich schon lange vor den digitalen Computern anspruchsvolle Aufgaben erfüllen. Militärisch natürlich, leider. Etwa der Vorhaltrechner für Torpedos bei den U-Booten. Oder insgesamt die Feuerleitung für die Artillerie.
Hallo Lupo, ich muss mich entschuldigen, dafür das ich mich nicht ganz genau ausgedrückt habe. Ich meine in erster Linie elektronische analoge Rechner, und nicht mechanische analoge Rechner.
Elektronische Rechner (Computer) die heute hauptsächlich auf Basis von OP-Verstärker bestehen. Deshalb finde ich, den Ansatz mit Photonischer Chip sehr interessant. Die analogen Rechner haben natürlich einen sehr großen Nachteil, der ist das man noch nicht den genauen Zustand zeitnah abspeichern kann.
 

Bunter Hund

Auserwählter Meister der Neun
2. Juni 2025
913
Hier noch was über Analoges Rechnen!


Rechenverstärker - operational amplifiers​

29.01.2018​

Operationsverstärker bilden das zentrale Rechenelement von Analogrechnern.In der EAI 231-RV kommen sog. chopper-stabilisierte Verstärker mit Elektronenröhren zum Einsatz. Je zwei solcher Verstärker sind in einem Einschub auf einer Platine realisiert; insgesamt ist der Rechner in Birlinghoven mit 68 solcher "Dual DC Operational Amplifier, Model 6.217-4" Einschübe bestückt - ein für damalige Verhältnisse großer Ausbau.
Ein Operationsverstärker ermöglicht – sein Name ist Programm – mathematische Operationen; je nach Beschaltung der Eingänge und des Rückzweigs (wird am Programmierfeld des Rechners vorgenommen) lassen sich mit dieser elektronischen Schaltung Addition, Subtraktion, Faktorisierung und Integration durchführen.
Dual DC Operational Amplifier, Model 6.217-4, vor der Instandsetzung © Bernd Johann
Dual DC Operational Amplifier, Model 6.217-4, vor der Instandsetzung

Einen gezogenen Einschub vor der Restaurierung zeigt dieses Bild. Die Verstärker sind symmetrisch angeordnet; nur eine Röhre teilt ihre beiden Trioden auf.
Ein weiteres Bild zeigt einen Verstärker-Einschub nach seiner Ertüchtigung. Mittig ist das Chopper-Relais zu erkennen, das die Eingangsspannung bei 93 Hz zerlegt und anschließend wieder gleichrichtet. Dieser vorgelagerte AC-Verstärker vermindert den Drift der Schaltung und stabilisiert das Frequenzverhalten. Von vorne lassen sich die Vestärker mit Hilfe eines Potentiometers "Nullen"; eine Glimmlampe signalisiert die Übersteuerung des Vestärkers.

Dual DC Operational Amplifier, Model 6.217-4 © Bernd Johann
Dual DC Operational Amplifier, Model 6.217-4
Eine Elektronenröhre vom Typ 7719 im Tube Tester TV-7 D/U © Bernd Johann
Eine Elektronenröhre vom Typ 7719 im Tube Tester TV-7 D/U

Um Funktionsfähigkeit und Dynamik der Elektronenröhren sicher zu stellen haben wir die Röhren in einem original amerikanischen Tube-Tester - einem TV 7D/U geprüft. Viele der Röhren zeigen noch eine gute Emission.
Im Bild zu sehen ist der erste "Warm-Test" eines Rechenverstärkers in der Werkstatt zu sehen: Die Elektronenröhren heizen; nach Anlegen der Betriebsspannungen lässt sich eine erste Rechnung ausführen: Ein Eingangswert durchläuft die Operation *(-1).
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.857
Bereits damals gewann ich beim Rechenschieber den Eindruck: Es handelt sich hierbei um eine Art Rechenmaschine, die mehr dazu taugt, schnell grobe Abschätzungen zu erzielen - und man muss wissen, was man da tut. Brauchte man genauere Ergenisse, so kam man um das Rechnen mit Stift und Papier nicht herum.

Lach. Kein Problem: Auch dafür gab es an besagtem Hochschulinstitut Abhilfe: Einen Rechenschieber für Double Precision. Der war dann gute 60 cm lang.

Als sich die Dame meines Herzens im Kampf gegen die Verblödung während des Corona-Lockdowns ein Mathe-Fernstudium antat, konnte ich ja auch mal ein paar Einblicke in den Homo Mathematicus nehmen. Da ist eben die Mathematik nicht einfach nur ein Werkzeug ist, wie für einen Ingenieur, sondern bereits das Studienobjekt.

In der mathematisch höheren geistigen Ebene, ist es problemlos möglich, einen Punkt, der keine Abmessungen hat, genau mit der Zirkelspitze aufzuspießen oder auch einen Bleistift auf die Spitze zu stellen, dass er stehen bleibt. Und in dieser heilen Welt ist eigentlich so ein Schätzeisen wie ein Rechenschieber ein absolutes Sakrileg, das mit seiner liederlichen Ungenauigkeit eigentlich nur die heilige analytische Reinheit beschmutzt.

Und wenn dann noch so‘n Ingenieur kommt und sagt: Es nutzt mir überhaupt nichts, den notwendigen Gewindedurchmesser auf 4 … 5 Stellen genau zu berechnen - es gibt keine Gewindegröße M9,2734 mm, sondern nur M10.

Überhaupt - das algebraische Rechnen mit Formeln und Gleichungen ist ja noch ganz lustig, aber das handwerkliche, numerische Rechnen ist eine echte Pest. Ein Professor erzählte mal, dass in der vierziger Jahren bei einem großen Motorenhersteller die Ermittlung der Resonanzfrequenzen und biegekritischen Drehzahlen der Kurbelwelle eines großen Dieselmotors etwa 20 Mann für gut 4 Wochen beschäftigt hat. Einen Monat warten - und dann kommt als Ergebnis, dass das Ding zu weich in der Mitte ist, genau bei Nenndrehzahl in Resonanz gerät und im Durchmesser nochmal geändert werden muss und man wieder von vorne anfangen kann. Da kommt dann so richtig Freude auf. Eigentlich ist da dann alles, was diese Arbeit abkürzen kann hoch willkommen und darf auch gerne ein paar Limitierungen haben.

Auch der Rechenschieber ist noch nicht so ganz uralt und war, als er eingeführt wurde, eine kleine Revolution. Die Ganz-Altvorderen haben mit grafischen und zeichnerischen Lösungsverfahren gearbeitet. Ich hatte im Studium das Glück, Spurführungs- und Gleislauftechnik für Eisenbahnen zu belegen, gehalten von einem honorigen Professor jenseits der 70, dessen letzte Vorlesung das war. Er hatte also gezeigt, wie man die Richtkräfte an den Radsätzen einer Lokomotive zeichnerisch ermitteln kann. Bei einer Gelenklokomotive mit 14 Achsen in der Achsfolge 2‘ D 1‘+ 1‘ D 2‘. (Also sprich: Einem total verzwickten Tatzelwurm). Sehr beeindruckend. Da muss man seine Wissenschaft wirklich verstehen, und nicht nur einen Computer programmieren.

Ich kann mir gut vorstellen, dass es einem solchen Geist einfach zuwider gewesen sein muss, wenn da jemand einfach nur hirnlos vor sich hinzurechnen, statt sich die Mühe zu machen, wirklich zu ergründen, wie was zustandekommt und was dabei vor sich geht.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.857
Die analogen Rechner haben natürlich einen sehr großen Nachteil, der ist das man noch nicht den genauen Zustand zeitnah abspeichern kann.

Oh ja … die Erinnerung regt sich. Ich hatte damals als Hiwi am Zeichenbrett gesessen und mein Geld mit Konstruktionen verdient, die für den Forschungs- und Lehrbetrieb dieses Institutes benötigt wurden. Ein Riesenprojekt war damals die Entwicklung eines Antiblockiersystems für Lokomotiven, lange, bevor das ABS für Autos ein Thema war.

Es gab sogar eine Versuchslokomotive, mit der fleißig Tests gefahren wurden. Diese wurden analog auf Tonband aufgezeichnet und mussten dann erst einmal digitalisiert werden, damit man per Großrechner weiter daran arbeiten konnte. War, wenn ich mich recht erinnere, ein ziemlicher Aufwand, der da getrieben wurde.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.889
In der mathematisch höheren geistigen Ebene, ist es problemlos möglich, einen Punkt, der keine Abmessungen hat, genau mit der Zirkelspitze aufzuspießen oder auch einen Bleistift auf die Spitze zu stellen, dass er stehen bleibt. Und in dieser heilen Welt ist eigentlich so ein Schätzeisen wie ein Rechenschieber ein absolutes Sakrileg, das mit seiner liederlichen Ungenauigkeit eigentlich nur die heilige analytische Reinheit beschmutzt.

Nun ...
In einem mathematischen Vortrag, den ich einst hörte, sagte der Redner vorab: Es gibt drei Arten von Mathematikern, Mathematiker, die zählen können und solche, die es nicht können. Als Mathematiker rechnet man im engeren Sinne eigentlich überhaupt nicht. Vielmehr handelt es sich um eine streng formale Philosophie, die sich einer Symbolsprache bedient.

Und wenn dann noch so‘n Ingenieur kommt und sagt: Es nutzt mir überhaupt nichts, den notwendigen Gewindedurchmesser auf 4 … 5 Stellen genau zu berechnen - es gibt keine Gewindegröße M9,2734 mm, sondern nur M10.

In der Praxis ist für viele Anwendungen eine hohe Anzahl von Stellen unwichtig - und das war es auch schon immer.

Aus Altägypten wurde der Papyrus Rhind (ca. 1550 v. Chr.) überliefert, eine Abhandlung über verschiedene mathmatische Themen. Darin enthalten ist auch eine Aufgabe zur Berechnung des Volumens eines zylindrischen Getreidespeichers. Die Ägypter verfügten noch über kein Verständnis der transzendenten Zahl Pi, noch waren sie daran interessiert.
Die Problematik der Zahl Pi war ihnen aber durchaus bewusst, was schließlich in so einer Art geometrischen Näherung mündete. Das Ergebnis ist fehlerhaft, allerdings liegt der Fehler bei <1%. Was den Getreidespeicher betrifft, so ist so ein Fehler wurscht, denn bereits die Mäuse verursachen gröbere Fehler.

Wir alle wissen heute, dass Pi unendlich viele Stellen hat und man die Stellen auf viele Millionen berechnet. Jenseits der 64. oder 65. Stelle werden die Zahlen allerdings physikalisch bedeutungslos - denn dann kann man den Umfang des Universums mit der Genauigkeit einer Planck-Länge berechnen.

Überhaupt - das algebraische Rechnen mit Formeln und Gleichungen ist ja noch ganz lustig, aber das handwerkliche, numerische Rechnen ist eine echte Pest.

Unser alltäglicher Umgang mit Computern verdeckt manchmal die Tatsache, dass Computer bis zum heutigen Tage Rechenmaschinen sind, die ausschließlich mit rationalen Zahlen rechnen.
Vor einigen Jahren fand ein amerikanischer Student zufällig eine Gleichung:

Irgendetwas mit Pi = 4.

Das versetzte alle in helle Aufregung, denn so ein Ergebnis war nach allen Erkenntnissen der Mathematik völlig unmöglich. Sie übertrugen also die Gleichung in ihre Rechner und erhielten:

Irgendetwas mit Pi = 4.

Bis irgendjemand ein Langstellen-System bemühte und herausfand:

Irgendetwas mit Pi = 4,0 ... es folgen 19 Nullen ... 8664715 ...

Also: Das ansich korrekte Ergebnis dieser Gleichung verschwand in der Stellengenauigkeit einer numerisch mit rationalen Zahlen rechnenden Maschine, die das Ergebnis kürzte - eben auf den Wert 4.

Ein typischer Computer rechnet im Idealfall mit einer Zahlendarstellung, die dem Prinzip - sinngemäß - folgt:

16 Stellen + Exponent +/- 1063

In den allermeisten Fällen funktioniert dies völlig problemlos ... wenn man nicht auf ein paar grundsätzliche Fallstricke hereinfällt:

1. Es gibt Zahlen, die mit dieser Zahlendarstellung grundsätzlich falsch dargestellt werden. Der Fehler ist sehr klein, aber es ist einer. Man erhält Ergebnisse wie 4 = 3,999 ...es folgen 12 Stellen ... 9928715. In numerischen Berechnungen spielt dies keine Rolle ...

2. ... oder sollte es nicht, tut es manchmal aber. Dann nämlich, wenn man dem System solche Fragen stellt wie:
IF 3,999 ... 9928715 = 4 THEN ... und dann wird das System, korrekterweise, dies als FALSCH bewerten. Denn 4 ist numal nicht 3,999 ...9928715.

3. Das System der Zahlendarstellung funktioniert nur dann, wenn man Zahlen ähnlicher Größenordnung miteinander verrechnet, es scheitert aber, wenn man sehr große mit sehr kleinen Zahlen verrechnet. Denn dann verschwinden die Stellen rechts oder links nach außen.
In der Praxis spielt dies so gut wie nie eine Rolle, denn man berechnet keine Galaxienhaufen im Maßstab subatomarer Dimensionen.

4. Hat man aber sich wiederholende Berechnungen und versucht über Vergleiche irgendwelche Sonderfälle zu erfassen, dann kann man durchaus in solchen Fallen landen. Als Hobby-Programmierer ist mir das schon ein paar Mal passiert. Das sind dann die Routinen, wo man ums Verrecken nicht herausfindet, woran sie denn eigentlich scheitern ... dabei befindet sich ihr "Fehler" nur in irgendwelchen letzten Stellen.

5. Man kommt auf die Idee, Zwischenergebnisse zu runden - aber da wird die Luft dann oft irgendwie dünn. Ergebnisse zu runden - dies scheint nicht so trivial zu sein, wie man zunächst glauben möchte. Viele Programmiersprachen, die sonst alles Mögliche können, bieten hierfür keine Standardbefehle an. Man landet bei eigenen Lösungen, in denen man versucht, Stellen abzuschneiden - aber selbst die haben ihre Fehler und Missverständnisse.

Ich kann mir gut vorstellen, dass es einem solchen Geist einfach zuwider gewesen sein muss, wenn da jemand einfach nur hirnlos vor sich hinzurechnen, statt sich die Mühe zu machen, wirklich zu ergründen, wie was zustandekommt und was dabei vor sich geht.

Das eine muss das andere ja nicht zwingend ausschließen. Vor 20 Jahren hörte ich von Professoren, die sich von ihren Sekretärinnen ihre emails ausdrucken ließen, weil sie sich außerstande sahen, sie am Bildschirm selbst zu bearbeiten. Für mich ist dies ein intellektuelles Armutszeugnis, was ja im Umkehrschluss nicht heissen soll, ein jeder müsse ein Nerd werden. Ein wirklich kreativer Geist nutzt seine fraglos solide Basis, um mit neuen Methoden ganz andere Dinge aus der Taufe zu heben.

Jede Technologie hat ihre Grenzen. Eine Technologie auf eine Aufgabe loszulassen, für die sie ungeeignet ist, das ist genau so ein Unfug, wie sich in seinen Elfenbeinturm zurückzuziehen und zu sagen: Ist eh alles nur ein Scheiss für Deppen.

M.E. sind wir in der Erkenntnis der Information und deren Technologien an gewisse Grenzen gelangt, letztlich bereits seit Jahrzehnten. Man versucht, dies durch immer höhere Rechenleistungen, immer schnellere Computer, mehr Daten und deren Speicher, schnellere Vernetzung usw. usf. zu kompensieren.

Wir sollten uns stattdessen auf unsere Wurzeln besinnen, und zumindest andere Verfahren des Erkenntnisgewinns und deren Umsetzung projektieren:

a) Eine Abkehr von oder besser eine Erweiterung des numerischen Modells, auf der unsere Informatik beruht. Statt bereits an der Basis mit Zahlen und Stellen herumzurechnen, die Entwicklung mathematisch arbeitender Systeme, die im algebraischen Sinne mit den anerkannten Gleichungen der Mathematik von Jahrtausenden arbeiten können.

b) Die grundsätzliche Anerkennung logisch bewiesener Grenzen der Informatik (Alan Turing, Kurt Gödel), Statistik, Stochastik usw. und dem Ende der sinnlosen Versuche, durch Rechenleistung, Big Data und Tricks dies umgehen oder aushebeln zu können. Stattdessen ein sinnvolles Umgehen mit der Realität - es sei denn, jemand entwickelt neue Theorie.

c) Vor Jahren schrieb ein Autor (sinngemäß zitiert):
Die Menschen haben jahrhundertelang den Flug der Vögel studiert und davon geträumt, wie Vögel zu fliegen. Dazu kam es nicht, heraus kam dabei ein Flugzeug. Ein Flugzeug, welches schneller, weiter und höher fliegen kann als die allermeisten Vögel.
Eine künstliche Intelligenz werden wir nicht erschaffen, aber vielleicht ein Klugzeug.
 

Ein wilder Jäger

Barbarisches Relikt
Teammitglied
18. November 2007
22.886
Immer wenn Ihr von Gewindegrößen redet, denke ich an Kaliber und daß das schon seit 1841 irgendwie funktioniert.
 

Ähnliche Beiträge

Oben Unten