|
Re: KI-Stilblüten
Dass der GPT-Bot oft Fakten verwechselt hat einen einfachen Grund: Er wurde darauf trainiert möglichst eloquent und weitschweifig zu antworten, und wenn ihm bestimmte Sachverhalte noch nicht so oft begegnet sind, er sie aber dennoch in einen zusammenhängenden Text packen soll, beginnt er die Fakten ganz einfach zu "halluzinieren", indem er Namen nennt, die ihm bei vergleichbaren Fragestellungen schon einmal untergekommen sind. Dabei verhält er sich wie ein redseliger Jungpolitiker, der, ehe er eine Antwort verweigert, lieber das Blaue vom Himmel herunterquasselt. ChatGPT beruht auf dem Lernmodell GTP-3, noch in diesem Jahr soll aber auf das intern bereits erprobte, neuartige GPT-4 umgestellt werden, und das ist noch mal um Längen besser und leistungsfähiger. Insider sprechen sogar von einem "Tsunami".
Auch zahlreiche externe Weiterentwicklungen nutzen die GTP-3-Engine und trainieren sie mittels einer zusätzlichen Programmschicht auf bestimmte Wissensgebiete und Einsatzbereiche. So gibt es in den USA einen virtuellen Rechtsanwalt namens "DoNotPay", der so gut wie alle Lehrbücher, Gesetzestexte, Rechtsratgeber und Gerichtsurteile kennt. Neues Material kann er ohne Hilfestellung richtig einordnen und blitzschnell in seinen "Erfahrungsschatz" aufnehmen. Man kann ihm über die Eingabemaske laienhafte Fragen stellen, woraufhin er in einfach verständlicher Sprache ausführliche und inhaltlich exzellente Rechtsauskünfte erteilt, für die große Anwaltskanzleien viele Tage und jede Menge Personal benötigen würden. Steuerprüfungen, Bilanzanalysen und die Diagnose von Krankheiten auf Grundlage von Röntgen/MRT/CT-Screenings (einschließlich Therapieplan und Medikation) beherrscht KI-Software bereits besser als Menschen aus Fleisch und Blut, von der immensen Kosten- und Zeitersparnis mal abgesehen. 2-mal bearbeitet. Zuletzt am 23.01.23 23:18. In diesem Forum dürfen leider nur registrierte Teilnehmer schreiben.
|