Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Das jüngste Gericht / Szenario aus Terminator

Schurzer

Geselle
17. Mai 2006
11
naja der springende punkt ist doch erstens WAS ist KI überhaupt?
Ab wann beginnt Intelligenz? und ab wann wird sie menschenähnlich?

sehr geil zu dem thema ist diese manga sscheisse - ghost in the shell.

das gefährliche ist dass die welt der technologie irgendwann imemr unüberschaubarer wird und komplizierter und imemr weniger nachvollziehbar für den otto-normal verbraucher. sieht man ja schon an den ganzen viren usw..(mittlerweile auch für handys)

wenns irgendwann soweit kommt dass der mensch irgendwelche chips im körper hat usw wirds umsoschlimmer...die ganze welt wird mit einander vernezt und irgendwann blickt keiner mehr wirklich durch. das web ist ja jetzt schon unüberschaubar.

nebenher werden sich immer intelligentere programme entwickeln, bzw. sie werden entwickelt. aber es gibt auch jetzt schonj programme bzw auch roboter die "lernen" können. und diese entwicklung wird immer weiter vorann schreiten...
man kann dan nicht sagen: oh genau jetzt haben wir eine bedrohliche KI also stoppen wir das ganze....und das is das problem dabei...
das ist eine schleichende entwicklung die nicht aufzuhalten ist.
irgendwann entwicklen programme andere programme. und wenn programme lernfähiger werden werden natürlich auch deren möglichkeiten immer größer. wer sagt dass die künstliche intelligenz so aussehen muss wie die menschliche?
vielleicht würden wir sie gar nich erkennen, bevor es zu spät ist.
ich bin fest davon überzeugt dass es irgendwann maschinen gibt bzw programme, die sich selbst immer wieder neu programmiern können, durch nachahmung lernen und immer wieder neue programmcodes entwickeln(in kleinen dimensionen gibts das ja schon soweit ich weiss...aber halt wirklich nur in kleinen dimensionen). das ganze wird so unüberschaubar dass keiner mehr druchblickt..und wissenschaftler gucken ja eh nie in die zukunft...die machen einfach egal welche auswirkungen das haben wird.
aber selbst wenn es erste ki's geben wrid wird es noch viele weitere geneartionen dauern bis eine solche ki' entsteht die auch emotionen hervorbringt, dann aber wirds bedrohlich für den mensch.
 

Runner

Großmeister
3. März 2004
55
Gaara schrieb:
Runner schrieb:
Wenn Maschinen die Menschen beherrschen würde es wahrscheinlich alles logisch und korrekt zugehen das kann nicht funzen.
Die Maschinen können die Menschen nach einem menschlichen Gesetz beherrschen. Da es Maschinen sind, kann man ihre Grenzen klar festlegen (was in Hollywoodfilmen, natürlich zur Spannung nicht passiert).

Warum sollte außerdem eine KI an der Reinhaltung der menschlichen Spezies von Erbkrankheiten interessiert sein ?

Ich geh bei KI (Künstliche Intelligenz) von einer selbständigen Lebensform aus frei gesagt sie ist mehr als die Summe Ihrer Teile. Oder is der Mensch auch nur eine Ansammlung von zellen?

Aber auch so eine KI hat bestimmt eine gewisse natur so wird sie immer in logischen Bahnen denken was bedeutet wenn sie uns regiert oder beherrscht sie will möglichst perfekte Menschen haben zwecks effizenz usw.
 

Ein_Liberaler

Ritter des Heiligen Andreas von Schottland
14. September 2003
4.926
Abgesehen davon, daß es viel effizienter sein könnte, mit den Menschen zu arbeiten, die man hat, als bessere zu erzeugen.
 

maik79

Großmeister
6. November 2005
79
Shishachilla schrieb:
Beweise Beweise bitte. Also Quellen besser gesagt. Jahresangaben schön und gut, aber ohne seriöse Quellen (Oh mein Gott, wem kann ich überhaupt noch trauen, die ganze Welt ist gegen mich...) hilft dat recht wenig.

Abgesehen davon ist die Entwicklung noch viel zu weit davon entfernt, eine KI zu erschaffen, deshalb halte ich den Begriff KI auch für mehr als futuristisch. Damit ein Roboter in unserem Sinne denken kann muss er einen *riesiggroßen* Prozessor haben, und dies ist schon allein deshalb nicht möglich, weil wir im Moment noch mit Silizium arbeiten, und die Leitungsquerschnitte nicht unter einen bestimmten Wert fallen können, weil die Leitungen sonst so heiß werden, dass sie schmelzen. Da der Roboter denken soll, was eine riesengroße Menge an zu verarbeitenden Daten wäre, müßte er so viele Prozessoren haben, dass er nicht mal in ein Hochhaus passen würde (Kann doch hoffentlich jeder nach vollziehen!!!) Und wenn wir uns überlegen, wie schnell die technische Entwicklung in den letzten Jahren vorranschritt, und wenn wir uns überlegen, dass sich die Entwicklung noch schneller erweitert, siehe exponentielles Wachstum, dann würde es dennoch Jahrtausende dauern, bis man etwas gefunden hätte, was den Leistungsansprüchen genügen würde.

Schließlich und endlich halte ich dies alles für Zulunftsmusik, wenn überhaupt, über die WIR uns am allerwenigsten Gedanken machen sollten.

greetz

Das wurde hier schon mehrmals pepostet. Das Pentagon investiert derzeit massiv in die Automatisierung der Truppe, denn um tote Roboter weinen kein Witwen. Und es geht bei einer Kampfmaschine ja auch nicht, um höhere Fähigkeiten, sondern schlichtweg ums killen. Was noch fehlt ist die ganze Motorik und Koordination, daran wird weltweit massiv geforscht. Die KI für Kampfmaschinen ist kein Problem. Kannst ja mal einen Ego-Shooter gegen einen Bot spielen. (Computerprogramm, dass einen Spieler simuliert)
 

Shishachilla

Gesperrter Benutzer
10. April 2002
4.639
Wooooooow, ein Bot, der hat ja auch so sehr viele Fähigkeiten, der existiert ja nicht einmal, und arbeitet nur eine Folge von Befehlen ab. Der rennt in seiner fertigen Welt ohne große Details rum, von der er alle Daten hat, aber das wars dann auch.....
Schonmal die Fahrzeuge gesehen, die sich selbstständig über eine abgesteckte Strecke bewegen sollen, findet jährlich in den USA statt. Und naja, wenn ich die so ziellos umher fahren sehe, wenn sie an die Wand fahren oder einfach stehen bleiben, naja, wenn ich dann noch sehe, wie vollgepackt die sind, mit neuester Technik, verdammt teuer und verdammt neu, naja, das Ergebnis ist nicht gerade das, was ich erschreckend nennen würde. Und dabei haben sie noch keine Waffen an Bord oder irgendwelche Systeme, die ihnen das Lernen oder gar emotionales Denken ermöglichen. Ich denke mein Vergleich mit dem Hochhaus war recht passend.

Oder überlegt euch mal wie viele Daten ihr in Form von Erinnerungen in eurem bisherigen Leben gesammelt habt. Das fängt bei Bildern an und hört bei Emotionen auf. Diese Menge an Daten könnte man nicht auf der größten Festplatte der Welt speichern. Das menschliche Gehirn hat uns nicht zufällig an die Spitze der Evolution gebracht. Aber selbst wir können denk ich mal nichts schaffen was uns dann mal selbst überrennt, das machen wir schon selbst gegenseitig..... :(
 

dkR

Großmeister aller Symbolischen Logen
10. April 2002
3.142
Oder überlegt euch mal wie viele Daten ihr in Form von Erinnerungen in eurem bisherigen Leben gesammelt habt. Das fängt bei Bildern an und hört bei Emotionen auf. Diese Menge an Daten könnte man nicht auf der größten Festplatte der Welt speichern.
Du kannst doch kein analoges Nervensystem mit einem digitalen Speicher vergleichen. Wer sagt, dass ein Bild nicht genausoviel Neuronen verbraucht wie die Speicherung eines Wortes?
(genauer gesagt, sagt das niemand. Es gibt einfach keine Theorie dazu).
Kannst ja mal einen Ego-Shooter gegen einen Bot spielen
Ein Bot kann etwa 3 Dinge: "Seine" Spielfigur durch einen Level bewegen, auf dich ballern und gegen Wände rennen. Und das auch nur in einer unglaublich limitierten Art und Weise und einer ihm vorher bekannten Umgebung. Das hat mit Intelligenz oder gar Realität nun absolut nix zu tun. :wink:
 

Shishachilla

Gesperrter Benutzer
10. April 2002
4.639
Ich behaupte in unserem Nervensystem findet eine digitale Informationsverarbeitung statt (hmm obwohl, naja, jedenfalls wenn es um die kommunikation zwischen gehirn und reizen geht, also an/aus, aber wie isses beim speichern?). Aber vielleicht hilft dir da ja das hier weiter! :wink:

EDIT: kk, da die Vorgänge beim Speichern im menschlichen Gehirn noch weitgehend unerforscht sind, machts nichts, wenn wirs nicht wissen *gg*, hab ich grad kurz nachgelesen! Der Vollständigkeit halber!
 

dkR

Großmeister aller Symbolischen Logen
10. April 2002
3.142
Das kannst du gerne behaupten, dadurch wirds nicht richtiger.

Den Artikel halte ich persönlich für ziemlichen oberfächlichen Schnickschnack.

Edit:
Entgegen dem was im Biobuch steht, sind das keineswegs an/aus (1,0) Reize. Um in der Terminologie zu bleiben gibt es 0,1,-1, sowie Potentiale, die sich erst ne Weile aufsummieren müssen, bevor sie überschwellig werden und ein Aktionspotential auslösen.
 

Shishachilla

Gesperrter Benutzer
10. April 2002
4.639
und woher weißt du das? sei doch so nett und lass mich an deinem Wissen darüber teilhaben, weils mir grad nich so reingeht.

hier wird nämlich von digitaler verarbeitung gesprochen
 

dkR

Großmeister aller Symbolischen Logen
10. April 2002
3.142
Hat mit dieser Mensch erzählt.
Außerdem halte ich eine Seite über Telefone nicht für geiegnete Quellen um sich über Neurophysiologie zu informieren. Stimmt schon, das Neuron leitet oder leitet nicht. Die Verschaltung OB er leitet ist etwas komplizierter als nur ja/nein.
Allein schon, wenn du dir ein einzelnes Aktionspotential anschaust, wie willst du so etwas mit 0 und 1 beschreiben? Kleine 1, mittlere 1, ganz große 1?
Wikipedia schrieb:
Ist die Erregung auf diese Weise übertragen, wird sie über die Dendriten an das Soma der Nervenzelle und von dort zum Axonhügel weitergeleitet. Jede der eingehenden Depolarisationen an den verschiedenen Synapsen der Nervenzelle verändert dabei das Membranpotential. Generell gilt: Je näher eine Synapse am Soma ansetzt, desto stärker ist ihr Einfluss auf die Nervenzelle, je länger der Weg, den die Erregung zurücklegen muss, desto schwächer ist der Einfluss. Eine stärkere Reizung eines Dendriten resultiert also in einer stärkeren Depolarisierung. Nahezu gleichzeitig einlaufende Reize addieren sich in ihrer Wirkung was bedeutet, dass sich innerhalb der Zelle und am Axonhügel ein Erregunspotential aufbaut.
 

Shishachilla

Gesperrter Benutzer
10. April 2002
4.639
OKOK, wobeis im Endeffekt wurschd is, ob digital oder analog, eigentlich wollte ich ja etwas damit sagen, hoffentlich is es angekommen. Es ist jetzt und in naher Zukunft unmöglich etwas wie das menschl. Gehirn künstlich nachzubauen. Daher die Sinnlosigkeit dieses Threads, das war meine Msg.

So, und wer widerspricht is im Unrecht... :lol: :lol:
 

Ein_Liberaler

Ritter des Heiligen Andreas von Schottland
14. September 2003
4.926
Bei einer Leistungsschau im Übungsdorf Bonnland haben die mächtigen Kampfroboter kürzlich vor allem für Heiterkeit gesorgt, wenn sie z.B. von Brücken fielen:

Klick!
 

Aphorismus

Ritter vom Osten und Westen
22. Dezember 2004
2.466
Shishachilla schrieb:
Es ist jetzt und in naher Zukunft unmöglich etwas wie das menschl. Gehirn künstlich nachzubauen.

Das ist zwar sehr verkürzt, im Grunde sehe ich dies aber genau so. Dazu kommt ein ganz grundlegender Unterschied zwischen menschlicher und künstlicher Intelligenz, den der amerikanische Philosoph John Searle mit seiner Widerlegung des unten erläuterten Turing-Tests meiner Meinung nach auf den Punkt bringt.

"Das korrekte Verständnis des Phänomens der Intentionalität hat Auswirkungen auf die Grundlagentheorie der Künstlichen Intelligenz (KI). Der Computerpionier Alan Turing formulierte 1952 den Turing-Test als Antwort auf die Frage, ob Maschinen denken können. Laut Turing kann ein Computer genau dann denken, wenn er in einem schriftlichen Gespräch (einem Chat) einen Menschen darüber täuschen kann, dass er kein Mensch ist. Laut Searle reicht dieser Turing-Test nicht aus, um einem Computer Gedanken zusprechen zu können. Ein solcher Computer würde sich laut Searle nur einem Menschen entsprechend verhalten, selbst jedoch nichts meinen oder denken. Für derartige mentale Prozesse ist laut Searle Intentionalität notwendig, die über das Verhalten hinausgeht.

Um diese kritische Perspektive zu stützen hat Searle ein Argument entwickelt, dass die Verfehltheit des Turing-Tests beweisen soll.[6] Dieses als Chinesisches-Zimmer-Gedankenexperiment bekanntgewordene Argument beginnt mit der Annahme einer großen Bibliothek. In dieser Bibliothek sitzt eine Person, die Zettel mit chinesischen Schriftzeichen gereicht bekommt. Diese Person versteht kein Chinesisch, allerdings stehen in den Büchern der Bibliothek Transformationsregeln: Die Person sucht in den Büchern nach der Zeichenfolge auf dem Zettel und schreibt die neue, im Buch angegebene Zeichenfolge auf einen neuen Zettel auf. Diesen gibt sie nun aus der Bibliothek heraus. Der Witz an dem Gedankenexperiment ist, dass in den Büchern den chinesischen Sätzen passende andere chinesische Sätze zugeordnet sind. Für einen chinesischen Beobachter außerhalb der Bibliothek entsteht so der Eindruck einer richtigen Kommunikation: Auf Zetteln, die in die Bibliothek gereicht werden, stehen korrekte chinesische Sätze, etwa Fragen. Auf den Zetteln, die aus die Bibliothek gereicht werden, stehen passende chinesische Sätze, etwa die Antworten auf die Fragen. Das Bibliothekssystem (das chinesische Zimmer) würde daher den Turing Test bestehen.

Dennoch versteht nach Searle niemand in der Bibliothek chinesisch, weder die Person, noch die Bibliothek, noch Bibliothek und Person zusammen. Nach Searle zeigt dies, dass das Bestehen des Turing Tests nicht ausreicht, um auch nur einen Funken Sprache zu verstehen. Hinzu kommt, dass ein Computer im Prinzip nichts anderes macht, als das chinesische Zimmer von Searle: Er transformiert Zeichenfolgen nach gegebenen Regeln in neue Zeichenfolgen. Doch wenn dies im Falle des chinesischen Zimmers nicht hinreichend für Gedanken ist, ist auch nicht absehbar, wie jemals ein denkender Computer entstehen sollte.

Searle zieht aus seinem Gedankenexperiment die Konsequenz, dass zwischen einer schwachen und einer starken KI unterschieden werden muss. Die schwache KI versucht menschliches Verhalten zu simulieren und Probleme zu lösen, die von Menschen nur mittels Intelligenz zu bewältigen sind. Ein solches Projekt ist nach Searle vollkommen legitim. Die starke KI möchte hingegen denkende Maschinen bauen, was nach Searle unmöglich ist. Vertreter der künstlichen Intelligenz haben auf dieses Argument verschieden reagiert. Manche Forscher beschränken sich auf die schwache KI, während andere Searles Gedankenexperiment zurückweisen. Manche erklären etwa, dass das chinesische-Zimmer-System tatsächlich verstehen würde. Gegenläufige Intuitionen kämen daher, dass man sich die Komplexität eines derartigen Systems nicht klarmache."

http://de.wikipedia.org/wiki/John_Rogers_Searle
 

maik79

Großmeister
6. November 2005
79
Ein Terminator wie im Film braucht auch kein nachgebautes Gehirn, ihm reicht es wie oben beschrieben, wenn er den Menschen imitiert. Was derzeit fehlt ist Koordination, Motorik und Wahrnehmung, aber ich sehe echt nicht warum wir daran scheitern sollten. Die ganzen Beispiele zeigen doch, das weltweit massiv an Robotern geforscht wird. Sicherlich eine KI mit eigenem Bewusstsein noch dazu mit nachgebautem menschlichem Gehirn, sehr unwahrscheinlich, sicher. Aber jeder PC kann heute spielend einen Amiga oder C64 emulieren/simulieren.
Also mit einer anderen Hardware zwar aber dennoch 10 mal leistungsfähiger als das Gehirn, kann ein Mensch dann simuliert werden, denn alte Weisheit: Computerleistung verdoppelt sich alle 1,5 Jahre!

Nochwas: Sobald Koordination, Motorik und Wahrnehmung besser sind wird fast jede menschliche Tätigkeit ersetzt werden können. Denn ein "guter" Bot arbeitet nicht nur mit vorprogrammierten Befehlen sondern auch mit neuronalen Netzen und hat damit eine Lernfähigkeit.
 

Shishachilla

Gesperrter Benutzer
10. April 2002
4.639
maik79 schrieb:
Sicherlich eine KI mit eigenem Bewusstsein noch dazu mit nachgebautem menschlichem Gehirn, sehr unwahrscheinlich, sicher.
Aber darum geht es doch, meines Wissens nach hat der Arni doch ein eigenes Bewußtsein, oder nicht?
maik79 schrieb:
Aber jeder PC kann heute spielend einen Amiga oder C64 emulieren/simulieren.
und was hat das mim Thema zu tun?
maik79 schrieb:
Also mit einer anderen Hardware zwar aber dennoch 10 mal leistungsfähiger als das Gehirn, kann ein Mensch dann simuliert werden, denn alte Weisheit: Computerleistung verdoppelt sich alle 1,5 Jahre!
Hast du nicht aufgepasst? Schonmal mit nem Roboter unterhalten? Nichteinmal das ist möglich, und ohne dies kann doch auch kein Mensch simuliert werden. Stell dir doch schoneinmal allein vor, wieviel Platz die Hardware braucht. Mit ein bisschen Ahnung davon müßtest du wissen, dass allein deshalb kein Arnie geschaffen werden kann, jedenfalls nicht in einem Zeitraum, in dem wir uns darüber Gedanken machen müßten, nichteinmal unsere direkten Nachfahren...
 

agentP

Ritter Kadosch
10. April 2002
5.361
Computerleistung verdoppelt sich alle 1,5 Jahre
Das ist das sogenannte Moore´sche Gesetz und das wurde seit es aufgestellt wurde schon öfters revidiert. Ürsprünglich waren es mal 12 Monate. Moore revidierte dann auf 24 Monate und wo die 18 Monate herkommen weiss offenbar keiner, von Moore selber jedenfalls nicht.
Auch wenn es im Moment als Faustregel noch einigermassen zutrifft, würde ich keine langfristigen Wetten abschliessen, daß es auch seine Gültigkeit behält.
Bei einer Leistungsschau im Übungsdorf Bonnland haben die mächtigen Kampfroboter kürzlich vor allem für Heiterkeit gesorgt, wenn sie z.B. von Brücken fielen:
So schliesst sich der Kreis: Ich habe als mächtiger Gebirgspionier in Bonnland mal für Heiterkeit gesorgt, indem ich mit dem G3 im Türrahmen hängengeblieben bin und mir ein Eck vom Schneidezahn ausgeschlagen habe. Aber wer ist auch so bescheuert und schickt die reitende Gebirgsmarine in den Häuserkampf? :O_O:
 

dkR

Großmeister aller Symbolischen Logen
10. April 2002
3.142
Denn ein "guter" Bot arbeitet nicht nur mit vorprogrammierten Befehlen sondern auch mit neuronalen Netzen und hat damit eine Lernfähigkeit.
Lernfähigkeit im Sinne dessen, was seine äußerst primitive Umgebung und Programmierung zulassen. Auch der beste UT-Bot wird bei Quake jämmerlich versagen.
Folglich nicht intelligent.
 

dkR

Großmeister aller Symbolischen Logen
10. April 2002
3.142
Keine Ahnung, aber können die was außer Schachspielen? Wenn nicht, dann nicht.
Lernfähigkeit ist meiner Meinung nach kein Kriterium für Intelligenz, sondern Intelligenz ist (meiner meinung nach) definiert über Abstraktionsfähigkeit.
 

Ähnliche Beiträge

Oben Unten