Lupo
Ritter Kadosch
- 3. Oktober 2009
- 6.518
Kleine Korrektur, Giacomo: Ich dachte, es wäre aus meiner Beschreibung deutlich geworden: Ich habe durchaus kein Spezialproblem gehabt, bei dem mir die KI nicht weierhelfen konnte. Ich kenne mich in der Thematik recht gut aus. Und das ist auch nötig, wenn man mal austestet, auf welche Weise sich die KI eine Aufgaben- oder Fragenstellung erarbeitet. Das geht natürlich nur dann, wenn einem das Thema selbst nicht fremd ist und beurteilen kann, was es mit der Qualität der Antworten auf sich hat.
Für mich persönlich kann ich im Ergebnis nur sagen, dass ich niemals in die Situation kommen möchte, auf die Mitarbeit einer KI bei einem wirklichen Problem, bei dem mir selbst die Antworten fehlen, angewiesen zu sein.
Das geht allerdings auch noch einen Schritt weiter: Es wäre ja gar nicht notwendig, dass die KI eine Lösung entwickelt. Hilfreich wäre ja auch schon, wenn sie nur als Advocatus Diabolicus fungiert, die einem bei eigenen Fehlern und Irrtümern den Kopf zurechtsetzt. Das ist zwar im ersten Augenblick unangenehm, aber Dein bester Freund ist nun mal der, der Dir nicht nach dem Mund redet, sondern rechtzeitig auf einen Fehler hinweist, bevor er teuer und schmerzhaft wird. Das werde ich irgendwann auch mal gezielt austesten, aber ich habe wenig Hoffnung, dass dabei viel herumkommt.
Was mich ein bisschen wundert, ist dabei auch eines: Es ist doch eigentlich das Natürlichste der Welt, dass man ein neues Werkzeug erst einmal austestet und sich damit vertraut macht, bevor man es in Betrieb nimmt und ernsthaft damit arbeitet. Es ist doch wichtig, festzustellen, ob es überhaupt funktioniert und was man damit machen kann und was nicht. Und natürlich gilt das auch für eine KI. Bin ich der Einzige, der das so sieht?
Für mich persönlich kann ich im Ergebnis nur sagen, dass ich niemals in die Situation kommen möchte, auf die Mitarbeit einer KI bei einem wirklichen Problem, bei dem mir selbst die Antworten fehlen, angewiesen zu sein.
Das geht allerdings auch noch einen Schritt weiter: Es wäre ja gar nicht notwendig, dass die KI eine Lösung entwickelt. Hilfreich wäre ja auch schon, wenn sie nur als Advocatus Diabolicus fungiert, die einem bei eigenen Fehlern und Irrtümern den Kopf zurechtsetzt. Das ist zwar im ersten Augenblick unangenehm, aber Dein bester Freund ist nun mal der, der Dir nicht nach dem Mund redet, sondern rechtzeitig auf einen Fehler hinweist, bevor er teuer und schmerzhaft wird. Das werde ich irgendwann auch mal gezielt austesten, aber ich habe wenig Hoffnung, dass dabei viel herumkommt.
Was mich ein bisschen wundert, ist dabei auch eines: Es ist doch eigentlich das Natürlichste der Welt, dass man ein neues Werkzeug erst einmal austestet und sich damit vertraut macht, bevor man es in Betrieb nimmt und ernsthaft damit arbeitet. Es ist doch wichtig, festzustellen, ob es überhaupt funktioniert und was man damit machen kann und was nicht. Und natürlich gilt das auch für eine KI. Bin ich der Einzige, der das so sieht?