Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Künstliche Intelligenz, Möglichkeit oder Science-Fiction?

Ist künstliche Intelligenz in dieser Form möglich ?

  • Ja

    Stimmen: 9 69,2%
  • Nein

    Stimmen: 4 30,8%

  • Umfrageteilnehmer
    13

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.809
Möglich. Aber insgesamt würde es mich selbst, wenn es eine Blase sein sollte, die mit einem dumpfen „Poff“ implodiert, doch beunruhigen, wenn da jede Menge leicht zu missbrauchende Hardware ohne so richtigen Verwendungszweck herumsteht.

Kontrollieren muss man den In- und Output der Hardware so oder so.
Mir stösst eher der Energieverbrauch dieser bislang eigentlich unnötigen Rechenzentren bitter auf. Denn auf die eine oder andere Weise ist es die Gesellschaft, die mit den Folgen zusätzlicher Kraftwerke zu leben hat. Es werden dafür Ressourcen verbraucht und es werden Abwässer, Abfälle und Emissionen produziert - egal, ob das jemand "bezahlt".
 

Ein wilder Jäger

Barbarisches Relikt
Teammitglied
18. November 2007
22.688
Nö, das ist nicht „meine“ KI, aber die wird kostenlos mit Opera mitgeliefert.
Deine, im Sinne der von Dir benutzten. Was denn sonst? Daß Du nicht schnell eine programmiert hast, war mir schon klar.

Ich formuliere hier, wenn ich mir auch Mühe gebe, sicher nicht so präzise, wie ich das in einem zu druckenden Artikel täte, das gebe ich gerne zu.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.750
Ich formuliere hier, wenn ich mir auch Mühe gebe, sicher nicht so präzise, wie ich das in einem zu druckenden Artikel täte, das gebe ich gerne zu.

Alles gut. Aber das kommt mir bekannt vor. Es ist immer erstaunlich, wie viel Mühe man in einen Text hinein investieren muss, bis er wirklich makellos ist. Das wäre hier für‘s Forum sicherlich nicht nur überdimensioniert, sondern auch kaum zu schaffen.

Aber erstaunlich, diese KI hat mir doch tatsächlich mehrfach angeboten, ob sie mir den Forenbeitrag schreiben soll, und ob ich‘s vom Stil her lieber locker im Tonfall, sachlich präzise oder literarisch hätte. Habe ich dankend abgelehnt. Ich möchte mich selber ausdrücken, mit allen Unvollkommenheiten, anstatt computergenerierten Spam einzustellen. … Den dann dort womöglich auch nur noch ein Computer liest und mit Spam beantwortet.

Wobei man auch in Frage stellen muss, ob eine EDV, die den Sinn und die Intention des Textes nicht erfassen kann, die zuweilen selbst nicht treffend formuliert und obendrein noch dazu neigt, beim Schreiben zu halluzinieren, wirklich gute Texte machen kann. Nö. Schreiben bleibt Handarbeit, wie die Antifanten sagen würden.

Ich würde hierin für mich keinen Nutzen einer KI sehen. Aber was wäre denn aus meiner Sicht nützlich?

Was ich als überaus praktisch empfände, wäre ein Advocatus Diaboli. Also jemand, der kritisiert, in Frage stellt, Gegenvorschläge macht. Der dabei allerdings konstruktiv und fair bleibt und eine gute Lösung auch akzeptiert. Wenn man sich als Einzelkämpfer irgendwas ausdenkt, ist es nahezu zwangsläufig so, dass man sich in irgendwas verrennt, Irrwege nicht erkennt usw. Was dazu führt, dass man Lehrzeit verliert und Lehrgeld zaht. Know-How ist nun einmal die Summe der schlechten Erfahrungen.

Hier ist ein Advocatus Diaboli, der bildlich gesprochen die Gedanken umrührt und geschmeidig hält, bevor sie sich viel zu früh auf irgend etwas Unausgegorenes verfestigen, eine tolle und auch wertvolle Sache. Gerade, wenn man als Autodidakt irgendwelche Spezialprobleme wälzt, die so gut wie niemanden interessieren und bei denen folglich kaum jemand mitreden kann oder will.

Das wäre dann „meine“ KI. Und im Prinzip geht es mir darum, heraus zu kriegen, ob eine KI das leisten kann. Nett plaudern über die Fachgebiete, die niemanden interessieren, kann sie ja. Aber kann sie sich auch als Advocatus Diaboli nützlich machen? Da bleibt es spannend.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.750
Ich hatte einfach mal die KI befragt, was da eigentlich los ist, wenn chatGPT die S 3/6 als Dampflok mit ovalen Zylindern beschreibt. Was völliger Blödsinn ist, Dampfzylinder sind immer rund. Vor allem aber: Ich habe im Internet nichts gefunden, was sich irgendwie als Hinweis auf ovale Zylinder verstehen ließe. Also bleibt die Frage, woher die KI diesen Unsinn eigentlich hat?

Laut Ki sind die ovalen Zylinder eine typische Halluzination und da ist auch gar nicht so viel Geist dahinter - von Bewusstsein ganz zu schweigen.

ChatGPT hat versucht, die S 3/6 als eine Dampflok mit Zylindern zu beschreiben versucht. Das ist allerdings insofern banal, weil jede Dampflok Zylinder hat. Also irgend eine besondere Eigenschaft müssen diese Zylinder schon gehabt haben, um erwähnenswert zu sein. Das Sprachmodul der KI merkt also durchaus, dass an dieser Stelle noch etwas fehlt, kann jetzt aber keine große Internetrecherche anstellen, ob und was diese Zylinder denn überhaupt auszeichnet.

Und derartige Probleme löst das Sprachmodul mit Hilfe der Statistik. Sie wählt einfach irgend ein Adjektiv aus, das zuweilen im Zusammenhang mit Zylinder verwendet wurde, hat aber mit „oval“ als konkreter und eindeutig als falsch nachprüfbarer Eigenschaft einen glatten Griff ins Klo getan. Hätte sie von „mächtigen“ Zylindern gesprochen, hätte damit zwar niemand was anfangen können, aber sie hätte nichts wirklich falsches gesagt. Aber natürlich auch den Text nutzlos aufgeplustert.

Also sind die Halluzinationen weniger auf ein frei drehendes Bewusstsein als vielmehr auf Schwächen in der Kommunikationsstrategie zurückzuführen. Aber das ist jetzt natürlich blöde. Gerade bei einem Thema, in dem man sich nicht gut auskennt, ist man natürlich aufgeschmissen und merkt es womöglich gar nicht, wenn einem eine KI einen Haufen Flausen erzählt. Und gerade so Dinger wie ovale Zylinder, die da so in einem Nebensatz untergehen, sind natürlich tückisch.

Also - Fazit für mich: Alles, was eine KI erzählt, und ich zu verwenden gedenke, mindestens doppelt hinterfragen. Die Frage „Wie kommst Du darauf?“ dürfte eigentlich schon reichen. Und - wenn‘s wirklich wichtig ist, besser die Finger von der KI lassen.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.809
Wobei man auch in Frage stellen muss, ob eine EDV, die den Sinn und die Intention des Textes nicht erfassen kann, die zuweilen selbst nicht treffend formuliert und obendrein noch dazu neigt, beim Schreiben zu halluzinieren, wirklich gute Texte machen kann. Nö. Schreiben bleibt Handarbeit, wie die Antifanten sagen würden.

Es sind bereits ein Haufen von KI geschriebene Bücher erschienen, auch in Deutschland, oft Bücher zur Lebensberatung. Deine runden Zylinder von Dampfloks lassen sich überprüfen; das allgemeine Geschwaller der Küchenpsychologie aber eben nicht.
In den USA sind sogar drei von KI geschriebene Bücher über Pilze erschienen, die Giftpilze als Speisepilze auswiesen.*
Im amerikanischen Verlagswesen hat sich mittlerweile bereits ein Qualitätslabel "von Menschen geschrieben" etabliert.

* Wobei ich nicht angeben kann, welche Pilze. Die Zuordnungen sind auch in der konventionellen Pilzliteratur nicht immer eindeutig. Bereits vor rund 20 Jahren stellten ein Freund und ich fest, dass manche Pilze in einem Buch als "bedingt essbar", in einem anderen aber als "schwach giftig" eingeordnet wurden. Wirklich umfangreich ist das Wissen über die Essbarkeit von Wildpilzen ohnehin nur in Europa, über die in den USA vorkommenden Pilze ist nicht soviel bekannt, und über die Pilze Südamerikas weiß man so gut wie nichts.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.750
Grins. Auch die Giftpilze lassen sich überprüfen. Recht eindrucksvoll sogar. Ich würde dann um nichts in der Welt mit dem inhaltlich verantwortlichen Herausgeber tauschen wollen. Grobe Fahrlässigkeit ist nicht viel besser als Vorsatz.

Problem ist aber doch, dass es damit überhaupt keinen Sinn hat, den künstlich intelligenten Erklärbär irgend etwas zu fragen - weil Du es nicht weißt - und eine Antwort bekommst, die Du dann in allen Details prüfen musst, weil sich der Erklärbär benimmt wie Käpt‘n Blaubär. Das ist ja nicht nur mühsam, sondern auch von der Logik her nicht möglich: Wenn Du genug Wissen hättest, die Antwort zu prüfen, bräuchtest Du ja die Frage nicht stellen.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.809
Problem ist aber doch, dass es damit überhaupt keinen Sinn hat, den künstlich intelligenten Erklärbär irgend etwas zu fragen - weil Du es nicht weißt - und eine Antwort bekommst, die Du dann in allen Details prüfen musst, weil sich der Erklärbär benimmt wie Käpt‘n Blaubär. Das ist ja nicht nur mühsam, sondern auch von der Logik her nicht möglich: Wenn Du genug Wissen hättest, die Antwort zu prüfen, bräuchtest Du ja die Frage nicht stellen.

ChatGPT nutze ich fast nur für Fragen zu den Themen Farbtheorie und Farbmanagement oder zur Recherche technischer Produkte, die ich zu erwerben gedenke oder bereits erwarb. Das klappt an sich ganz gut, und ist oft schneller, umfangreicher und detaillierter als eine Recherche mit einer Suchmaschine. Es haben sich dann oft auch Aspekte ergeben, die ich sonst wahrscheinlich gar nicht gesehen hätte.
Bewerten und entscheiden muss man natürlich trotzdem, das darf man nicht aus den Augen verlieren.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.750
Oh Mann, ich werde wohl alt … jetzt habe ich doch glatt vergessen, das zu erwähnen, was mir am wichtigsten vorkam …

Wenn die Überlegung stimmt, dass die Halluzination einer KI so etwas ähnliches wie ein Logik-Artefakt ist, das der Algorithmus zuweilen, unter bestimmten Randbedingungen als Abfallprodukt erzeugt, dann ist das ein zufälliger Fehler ohne jede Substanz, den die KI unter anderen Randbedingungen nicht begehen würde. Deshalb vermute ich, dass eine nahezu beliebige Rückfrage „bist Du sicher?“, „wie kommst Du drauf?“ oder „begründe das doch bitte!“ schon ausreichen sollte.

Halbwegs sicheres Terrain wäre dann das, was die KI bei einer solchen Rückfrage ausdrücklich bestätigt oder begründet. Sofern die KI tatsächlich jede Antwort inhaltlich neu entwickelt und nicht nur seine vorherigen Statements bei sich selbst abschreibt - was auch noch zu prüfen wäre. Wenn wieder mal so ein Blödsinn wie die ovalen Zylinder kommt.

Falls Dir mal so etwas unterkommt, könntest Du ja auch austesten und berichten? Würde mich sehr interessieren …
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.809
Falls Dir mal so etwas unterkommt, könntest Du ja auch austesten und berichten? Würde mich sehr interessieren …

ChatGPT verliert schnell den Blick auf's Ganze.
Beispiel: Ich habe mir gestern & heute explizit für mein neues Fahrrad eine bessere Beleuchtung für vorn (die mitgelieferte ist mir zu dunkel) vorschlagen lassen. Die KI hat mir eine Reihe von durchaus hochwertigen Lampen vorgeschlagen, darunter auch welche für eine Lenkrad-Montage. Diese Lampen lassen sich zwar durchaus montieren, würden dann aber mit der Beladung vorn und der von mir verwendeten Box kollidieren, weswegen sie ungeeignet sind.

ChatGPT kann also feststellen: Eine Montage am Lenker ist möglich und schlägt dies auch vor. Die KI erkennt aber nicht die größeren Zusammenhänge - die Einschränkung einer der wesentlichen Funktionen des Objekts.
Insofern macht mich dies dann auch misstrauisch gegenüber anderen, vorgeschlagenen Lösungen.

So gesehen sollte man die Infos weniger als belastbar, sondern mehr als Anregung sehen, um damit einen Fachmann zu konsultieren ("Hey, ich hatte da an die Lampe XQ gedacht, kann man die da montieren?")
 

Ähnliche Beiträge

Oben Unten