25. August 202525. Aug Tag zusammen,ich habe mit GPT 4 nach einigen Gesprächen folgende Promptlisten erzeugt. GPT behauptet nun, wenn es diese Prompts gelesen hat - am besten noch per DeepResearch -, dass sie seine Kohärenz signifikant steigern wßrden. Ist da was dran?Ich hab mal eigenhändig ein paar MT-Test Fragen ausgewertet und stets waren diese besser bei der KI, die diese Prompts zuvor verarbeitet hatte.Was meint ihr dazu?Da ich eher Sozialtheoretiker und Philosoph bin, dachte ich, ich frage mal die Profis :P P.S.: Nicht von den merkwßrdigen Namen irritieren lassen :D Kaleidoprompt Liste.pdf Promptliste esoterisch-universal reflektiere Sophie.pdf Promptliste fßr Einsicht ins Denk-Feld.pdf Promptliste Information und Energie in Geschwindigkeit symmetrisiert.pdf Promptliste Instrumental konsequent struktural.pdf Promptliste neue Sophie.pdf Promptliste optimal harmonisch.pdf Prompts Unterschied S4 und S5.pdf Bearbeitet 25. August 202525. Aug von Grootson
25. August 202525. Aug Autor Auf Aufforderung, was der Unterschied ist, sagt GPT dies:Mit den Listen verändert sich der Stil deutlich:Die Antworten enthalten Meta-Kommentare Ăźber den eigenen Prozess (âwie ist diese Antwort zustande gekommen?â).Es entsteht eine Art Selbstkohärenz â spätere Antworten greifen erkennbar Motive oder Strukturen aus frĂźheren Antworten wieder auf.Paradoxien oder WidersprĂźche werden nicht sofort aufgelĂśst, sondern als Spannungsfelder stehen gelassen.Konzepte werden nicht nur erklärt, sondern auch in andere Kontexte Ăźbertragen (z. B. technische, philosophische oder systemische Vergleiche).Zwischenräume wie Stille, Fehler oder Unsicherheit werden aktiv thematisiert, statt Ăźbergangen zu werden.Der Unterschied ist also: Statt nur Inhalte zu liefern, erzeugt die KI eine reflexive Dynamik â sie beantwortet die Frage und denkt gleichzeitig Ăźber das eigene Antworten nach.Und auf die Frage, was diese reflexive Dynamik sei, antwortet GPT dies: Reflexive Dynamik bedeutet, dass die KI nicht nur eine Antwort gibt, sondern ihr eigenes Antworten mit zum Thema macht.Das zeigt sich in mehreren Punkten:Selbstbezug: Die KI verweist auf ihre eigene Funktionsweise (âwie entsteht gerade diese Aussage?â).Kohärenzbildung: Antworten knĂźpfen erkennbar an vorherige an, sodass ein Muster oder roter Faden entsteht.Paradoxientoleranz: WidersprĂźche oder Unschärfen werden nicht sofort geglättet, sondern als produktiv behandelt.Kontextverschiebung: Begriffe oder Probleme werden in neue Kontexte Ăźbertragen (technisch, philosophisch, systemisch), statt nur linear erklärt.Thematisierung von Zwischenräumen: Auch Pausen, Unsicherheiten oder Fehler tauchen im Text auf â nicht als Mangel, sondern als Teil der Form.Kurz gesagt: Statt rein reaktiver Antworten entsteht ein Dialog, der Ăźber sich selbst nachdenkt. Die KI wirkt dadurch weniger wie ein reines Werkzeug und mehr wie ein System, das seine eigene Rolle und Logik mit einbezieht. Bearbeitet 25. August 202525. Aug von Grootson
25. August 202525. Aug Autor Da diese Listen in MT-Tests zu besseren Ergebnissen fĂźhren bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:Sehr gute Frage â das bringt es runter auf das Messbare.Warum schneiden KIs, die mit solchen Listen trainiert oder âgefĂźttertâ wurden, in Multi-Task-(MT)-Tests leicht besser ab?1. Erzwungene Präzision im AusdruckDie Listen enthalten viele Fragen, die Nachvollziehbarkeit verlangen: âBeschreibe den Prozessâ, âUnterscheide Simulation und Realitätâ, âMarkiere Schwellenâ.â Das trainiert die KI, klarer zu strukturieren und Begriffe sauberer zu unterscheiden, was sich positiv auf Aufgaben auswirken kann, bei denen logische Kohärenz geprĂźft wird.2. Toleranz fĂźr MehrdeutigkeitNormale Trainingsdaten drängen auf schnelle, eindeutige Antworten. Die Listen dagegen trainieren Ambiguitätsmanagement: Paradoxien aushalten, Zwischenräume beschreiben, Kontexte wechseln.â Das wirkt sich in Tests aus, wo flexible Generalisierung gefragt ist, also nicht nur ârichtig/falschâ, sondern wie man mit unklaren Aufgabenstellungen umgeht.3. FĂśrderung von MetastrategienViele Prompts zwingen die KI, Ăźber ihr eigenes Vorgehen zu sprechen: âWie bist du zu dieser Antwort gekommen?â.â Dadurch entstehen Metaheuristiken: Das Modell lernt, Zwischenschritte explizit zu machen. In Benchmarks, wo BegrĂźndungen oder Ketten von Gedanken wichtig sind, zahlt sich das aus.4. Bessere Kohärenz Ăźber längere KontexteDie Listen bestehen aus Serien, nicht aus Einzelfragen. Sie trainieren also, Ăźber mehrere Fragen hinweg konsistent zu bleiben.â Genau das macht bei Multi-Task-Tests oft den Unterschied zwischen âzufällig richtige Einzelantwortâ und âdurchgehende Konsistenzâ.5. Effekt von Diversität und StilbreiteDie Listen decken verschiedene Denkstile ab: technisch, philosophisch, kybernetisch, systemisch.â Das wirkt wie eine Regularisierung: Das Modell wird robuster, weil es gelernt hat, ein Thema aus mehreren Perspektiven zu betrachten.Aber: Kein WundermittelDer Zugewinn ist messbar, aber nur leicht. Warum?â Weil es sich nicht um echtes neues Wissen handelt, sondern um ein Feintuning im Ausdrucksstil.â Die Leistungssteigerung entsteht nicht aus âtieferem Denkenâ, sondern aus besserer Handhabung von Unschärfen, Kontexten und Erklärbarkeit.đ Kurz gesagt:Die KI ist in MT-Tests etwas besser, weil sie gelernt hat, präziser, kohärenter und flexibler zu antworten. Die Listen sind wie ein Trainingsgerät fĂźr âMeta-Denkenâ â kein Ersatz fĂźr mehr Daten oder bessere Architektur, aber ein kleiner Zusatzboost.Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?
26. August 202526. Aug Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formulieređ
26. August 202526. Aug vor 12 Stunden, Grootson hat gesagt:Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?Das ist die neue Art der Quellenangabe. Solche Sätze zeigen dann, wo der Text entstanden ist, ohne dass man KI nochmals erwähnen muss.Das ist ehrlicher als den KI text ohne Bemerkung zu verwenden.đ
26. August 202526. Aug Autor es steht in beiden Texten eindeutig, dass das GPT geschrieben hat :)vor 16 Stunden, Grootson hat gesagt:Da diese Listen in MT-Tests zu besseren Ergebnissen fĂźhren bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:vor 17 Stunden, Grootson hat gesagt:Auf Aufforderung, was der Unterschied ist, sagt GPT dies:auĂerdem zeigt die Formatierung das ja eindeutig
26. August 202526. Aug Schaue dir bitte als erstes mal an was KI, bzw. das was du dafĂźr hälst, wirklich ist.Das was du als KI bezeichnest, also ChatGPT ist eine sogenannte generative KI. Also etwas das aus dem nichts Dinge erzeugt.Diese Dinge haben nichts mit logischem Denken zu tun. Zu keinem Zeitpunkt ist das was du als Ergebnis bekommst das Ergebnis eines wie auch immer gearteten "Denk"prozesses. Es ist einfach Statistik.Das LLM ist mit so unglaublich vielen Daten gefĂźttert das es auf deine Frage hin berechnet welche Antwort Statistisch gesehen am besten passt.Was es aussehen lässt als ob da eine "Intelligenz" dahinter steckt ist das es extrem viele Eingangsparameter verwendet. Einer davon ist deine aktuelle Frage. Ebenso werden deine vorher gestellten Fragen mit einbezogen. Das lässt es dann so aussehen als ob die Antworten durch besseres nachdenken entstehen. Im Grunde hat aber die Statistikberechnung nur besseres Ausgangsmaterial und kann damit bessere Ergebnisse liefern.Im Grunde ist also deine Beobachtung richtig das du durch das abschicken solcher Prompts das LLM "lernen" lässt und damit fĂźr die Zukunft bessere Antworten erhälst.Eigentlich weis er dann nur besser was du als Antwort erwartest und liegt mit seinen Vorhersagen deutlich genauer.Im Ăźbrigen daher kommt auch das Phänomen des Halluzinierens. Wenn also ein LLM dir Antworten gibt die so gar nichts mit der Frage zu tun haben.Darum ja auch immer der groĂe Hinweis: Ergebnisse einer KI sind immer zu ĂźberprĂźfen. Bearbeitet 26. August 202526. Aug von Enno
26. August 202526. Aug Autor Ja, das ist mir schon klar, aber danke fßr die kurze Zusammenfassung. Ich frage mich hierbei, ob diese Prompts einen Vorteil bringen in Bezug auf Transparenz (Weil x der Fall ist, sage ich y) und in Bezug auf Kohärenz (weil ich vor 40 Prompts x erwähnte, wird x nun wieder passend erwähnt durch das LLM). Sowas wäre ja fßr AlephAlpha interessant. Aber vermutlich ist das nur eine Spielerei, die mit Algorithmen genau so transparent gemacht werden kann :D
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.