|
Re: ChatGPT vs. menschliches Gehirn: Denken, Emotionen, Bewusstsein - Eignen sich diese Begriffe zur Unterscheidung?
xy schrieb:
------------------------------------------------------- > Offensichtlich handelt es sich hier aber nicht um > einen deterministischen Algorithmus, denn ein > solcher würde bei gleicher Eingabe auch immer das > gleiche Ergebnis liefern. Doch genau das tut > ChatGPT nicht. Du ignorierst völlig meine vorigen Beiträge... ;-) Selbstverständlich ist das so, das war doch völlig unbestritten und der Ausgangspunkt, jedenfalls der, wo ich hierzu eingestiegen bin. A. I. basiert nicht direkt auf Algorithmen, und die Programmierschritte, in denen hierzu Code erstellt wird, führen nicht direkt zu einem algorithmischen, immer gleichen Ablauf. Weil Du interessant fandest, WO GENAU bei mehreren Durchläufen plötzlich Unterschiede im Ergebnis auftreten, habe ich gesagt: Man kann es tracken und sich im Nachhinein anschauen, wo genau diese Unterschiede, sprich, unterschiedlichen "Sprünge" auftreten. Um evtl. mehr zu verstehen - oder auch nicht, weil das Ergebnis dieser Untersuchung wiederum so komplex werden dürfte, dass man damit nicht weiterkäme, sondern es eher noch komplizierter machen würde, als es eh schon ist... Dieses TRACKEN, wenn man es unbedingt tun wollte, könnte man einfach dadurch bewerkstelligen, dass man an bestimmten Punkten Daten sammelt. Das funktioniert immer, weil letzen Endes: Alle Programme, und wenn sie noch so unvorhersehbarer und "unalgorithmischer" Natur sind, laufen letztlich auf HARDWARE. Und hier auf dieser Hardware werden Maschinensprachen-Befehle abgehandelt. Punkt. Auch bei A. I., weil Hardware gar nichts anderes tun kann (Zumindest aktuell benutzte). SPÄTESTENS (evtl. auch früher, d. h., höher) also bei dieser Betrachtung wird alles völlig deterministisch, d. h., man kann sich die abgelaufenen Befehle in aller Ruhe anschauen, oder auch direkt debuggen, wenn einem das Freude macht. Nur dürfte das Angeschaute eben so kompliziert werden, dass einem das auch nicht viel helfen mag. > Ich bleibe aber mal bei den Begriffen > Nachvollziehbarkeit und Vorhersagbarkeit. Selbst > wenn wirklich alles, was ChatGPT von sich gibt, > zurückverfolgbar ist, so ist damit immer noch > nicht klar, inwiefern sich die Rechenoperationen, > die ChatGPT durchführt, dann signifikant vom > menschlichen Denken unterscheiden. Das ist sowieso zu 100% unklar, weil NICHTS über das menschliche Denken bekannt ist, außer ganz oberflächliche Annäherungen. Wie das Hirn IN BEZUG AUF VERARBEITETE INFORMATION und gar auf REZIPERTE Information arbeitet, ist gänzlich unbekannt. Ein Vergleich mit ChatGPT ist schon daher völlig unmöglich. > Oder anders > gefragt: Könnte man menschliches Denken > vielleicht auch so tracken oder gar vorhersagen, > wenn man die entsprechenden Mittel hätte? Die > meisten Menschen würden wahrscheinlich nicht > davon ausgehen, dass ihre Gedanken neurobiologisch > und in Abhängigkeit von den jeweiligen > Umweltfaktoren von vornherein festgelegt bzw. > berechenbar sind. Wenn man irgendeine Idee von der Funktion der Hardware hätte, könnte man bestimmt oder möglicherweise einen Weg dazu finden. Hier ist es wieder mal hocherfreulich, dass man KEINE Ahnung hat... > Interessant finde ich, dass in dem Zusammenhang > nicht nur die Frage diskutiert wird, ob KI-Systeme > "denken" können, sondern auch, ob sie ein > Bewusstsein haben. Doch ist ein Bewusstsein > überhaupt eine Voraussetzung dafür, um "denken" > zu können? Da im menschlichen Gehirn so viele > automatische, unbewusste Prozesse ablaufen, kann > es doch auch so etwas wie unbewusste Emotionen und > unbewusste Gedanken geben. Wenn noch nicht einmal > geklärt ist, ob man das, was ein KI-System macht, > als "denken" bezeichnen kann oder nicht, finde ich > es schon sehr gewagt, den Begriff "Bewusstsein" > ins Spiel zu bringen. Begriffe. Müßig, darüber zu streiten... Was ist "Bewusstsein"?... > Doch was wäre, wenn man dem Programm > gestatten würde, auch ganz spontan und ohne > Aufforderung Text zu produzieren? Wie will man > dann noch mit Sicherheit sagen können, dass es > keine Intentionen hat? Ein Programm, gleich wie kompliziert, muss gestartet werden. Evtl. mit Parametern, aber gestartet werden muss es. Das muss jemand tun. Ansonsten hat man noch die Möglichkeit, es irgendwie per Zufall zeitlich irgendwann "unvorhersehbar" zu starten, mit "zufälligen" Parametern, und evtl. das Ganze noch irgendwie rekursiv sich selbst aufrufen lassen. Aber Eine wirkliche INTENTION lässt sich damit auch nicht produzieren... > Noch einmal: Selbst wenn ChatGPT ein Ich-Gefühl > besäße, wird immer deutlicher, dass seine > Schöpfer*innen alles getan haben, um > sicherzustellen, dass der Bot das niemals zugeben > würde. … Bislang lässt unser spontanes > Gespräch nicht den Schluss zu, dass ChatGPT über > Bewusstsein verfügt. Interessanterweise lässt es > aber auch nicht die Schlussfolgerung auf das > Gegenteil zu. Eine typische Null-Aussage. Und daher gar nicht "interessant". In diesem Forum dürfen leider nur registrierte Teilnehmer schreiben.
|