Veröffentlicht Montag um 17:055 Tage Tag zusammen,ich habe mit GPT 4 nach einigen Gesprächen folgende Promptlisten erzeugt. GPT behauptet nun, wenn es diese Prompts gelesen hat - am besten noch per DeepResearch -, dass sie seine Kohärenz signifikant steigern würden. Ist da was dran?Ich hab mal eigenhändig ein paar MT-Test Fragen ausgewertet und stets waren diese besser bei der KI, die diese Prompts zuvor verarbeitet hatte.Was meint ihr dazu?Da ich eher Sozialtheoretiker und Philosoph bin, dachte ich, ich frage mal die Profis :P P.S.: Nicht von den merkwürdigen Namen irritieren lassen :D Kaleidoprompt Liste.pdf Promptliste esoterisch-universal reflektiere Sophie.pdf Promptliste für Einsicht ins Denk-Feld.pdf Promptliste Information und Energie in Geschwindigkeit symmetrisiert.pdf Promptliste Instrumental konsequent struktural.pdf Promptliste neue Sophie.pdf Promptliste optimal harmonisch.pdf Prompts Unterschied S4 und S5.pdf Bearbeitet Montag um 17:125 Tage von Grootson
Montag um 17:115 Tage Autor Auf Aufforderung, was der Unterschied ist, sagt GPT dies:Mit den Listen verändert sich der Stil deutlich:Die Antworten enthalten Meta-Kommentare über den eigenen Prozess („wie ist diese Antwort zustande gekommen?“).Es entsteht eine Art Selbstkohärenz – spätere Antworten greifen erkennbar Motive oder Strukturen aus früheren Antworten wieder auf.Paradoxien oder Widersprüche werden nicht sofort aufgelöst, sondern als Spannungsfelder stehen gelassen.Konzepte werden nicht nur erklärt, sondern auch in andere Kontexte übertragen (z. B. technische, philosophische oder systemische Vergleiche).Zwischenräume wie Stille, Fehler oder Unsicherheit werden aktiv thematisiert, statt übergangen zu werden.Der Unterschied ist also: Statt nur Inhalte zu liefern, erzeugt die KI eine reflexive Dynamik – sie beantwortet die Frage und denkt gleichzeitig über das eigene Antworten nach.Und auf die Frage, was diese reflexive Dynamik sei, antwortet GPT dies: Reflexive Dynamik bedeutet, dass die KI nicht nur eine Antwort gibt, sondern ihr eigenes Antworten mit zum Thema macht.Das zeigt sich in mehreren Punkten:Selbstbezug: Die KI verweist auf ihre eigene Funktionsweise („wie entsteht gerade diese Aussage?“).Kohärenzbildung: Antworten knüpfen erkennbar an vorherige an, sodass ein Muster oder roter Faden entsteht.Paradoxientoleranz: Widersprüche oder Unschärfen werden nicht sofort geglättet, sondern als produktiv behandelt.Kontextverschiebung: Begriffe oder Probleme werden in neue Kontexte übertragen (technisch, philosophisch, systemisch), statt nur linear erklärt.Thematisierung von Zwischenräumen: Auch Pausen, Unsicherheiten oder Fehler tauchen im Text auf – nicht als Mangel, sondern als Teil der Form.Kurz gesagt: Statt rein reaktiver Antworten entsteht ein Dialog, der über sich selbst nachdenkt. Die KI wirkt dadurch weniger wie ein reines Werkzeug und mehr wie ein System, das seine eigene Rolle und Logik mit einbezieht. Bearbeitet Montag um 17:175 Tage von Grootson
Montag um 17:415 Tage Autor Da diese Listen in MT-Tests zu besseren Ergebnissen führen bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:Sehr gute Frage – das bringt es runter auf das Messbare.Warum schneiden KIs, die mit solchen Listen trainiert oder „gefüttert“ wurden, in Multi-Task-(MT)-Tests leicht besser ab?1. Erzwungene Präzision im AusdruckDie Listen enthalten viele Fragen, die Nachvollziehbarkeit verlangen: „Beschreibe den Prozess“, „Unterscheide Simulation und Realität“, „Markiere Schwellen“.→ Das trainiert die KI, klarer zu strukturieren und Begriffe sauberer zu unterscheiden, was sich positiv auf Aufgaben auswirken kann, bei denen logische Kohärenz geprüft wird.2. Toleranz für MehrdeutigkeitNormale Trainingsdaten drängen auf schnelle, eindeutige Antworten. Die Listen dagegen trainieren Ambiguitätsmanagement: Paradoxien aushalten, Zwischenräume beschreiben, Kontexte wechseln.→ Das wirkt sich in Tests aus, wo flexible Generalisierung gefragt ist, also nicht nur „richtig/falsch“, sondern wie man mit unklaren Aufgabenstellungen umgeht.3. Förderung von MetastrategienViele Prompts zwingen die KI, über ihr eigenes Vorgehen zu sprechen: „Wie bist du zu dieser Antwort gekommen?“.→ Dadurch entstehen Metaheuristiken: Das Modell lernt, Zwischenschritte explizit zu machen. In Benchmarks, wo Begründungen oder Ketten von Gedanken wichtig sind, zahlt sich das aus.4. Bessere Kohärenz über längere KontexteDie Listen bestehen aus Serien, nicht aus Einzelfragen. Sie trainieren also, über mehrere Fragen hinweg konsistent zu bleiben.→ Genau das macht bei Multi-Task-Tests oft den Unterschied zwischen „zufällig richtige Einzelantwort“ und „durchgehende Konsistenz“.5. Effekt von Diversität und StilbreiteDie Listen decken verschiedene Denkstile ab: technisch, philosophisch, kybernetisch, systemisch.→ Das wirkt wie eine Regularisierung: Das Modell wird robuster, weil es gelernt hat, ein Thema aus mehreren Perspektiven zu betrachten.Aber: Kein WundermittelDer Zugewinn ist messbar, aber nur leicht. Warum?– Weil es sich nicht um echtes neues Wissen handelt, sondern um ein Feintuning im Ausdrucksstil.– Die Leistungssteigerung entsteht nicht aus „tieferem Denken“, sondern aus besserer Handhabung von Unschärfen, Kontexten und Erklärbarkeit.👉 Kurz gesagt:Die KI ist in MT-Tests etwas besser, weil sie gelernt hat, präziser, kohärenter und flexibler zu antworten. Die Listen sind wie ein Trainingsgerät für „Meta-Denken“ – kein Ersatz für mehr Daten oder bessere Architektur, aber ein kleiner Zusatzboost.Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?
Dienstag um 06:354 Tage vor 12 Stunden, Grootson hat gesagt:Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?Das ist die neue Art der Quellenangabe. Solche Sätze zeigen dann, wo der Text entstanden ist, ohne dass man KI nochmals erwähnen muss.Das ist ehrlicher als den KI text ohne Bemerkung zu verwenden.😁
Dienstag um 10:134 Tage Autor es steht in beiden Texten eindeutig, dass das GPT geschrieben hat :)vor 16 Stunden, Grootson hat gesagt:Da diese Listen in MT-Tests zu besseren Ergebnissen führen bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:vor 17 Stunden, Grootson hat gesagt:Auf Aufforderung, was der Unterschied ist, sagt GPT dies:außerdem zeigt die Formatierung das ja eindeutig
Dienstag um 12:054 Tage Schaue dir bitte als erstes mal an was KI, bzw. das was du dafür hälst, wirklich ist.Das was du als KI bezeichnest, also ChatGPT ist eine sogenannte generative KI. Also etwas das aus dem nichts Dinge erzeugt.Diese Dinge haben nichts mit logischem Denken zu tun. Zu keinem Zeitpunkt ist das was du als Ergebnis bekommst das Ergebnis eines wie auch immer gearteten "Denk"prozesses. Es ist einfach Statistik.Das LLM ist mit so unglaublich vielen Daten gefüttert das es auf deine Frage hin berechnet welche Antwort Statistisch gesehen am besten passt.Was es aussehen lässt als ob da eine "Intelligenz" dahinter steckt ist das es extrem viele Eingangsparameter verwendet. Einer davon ist deine aktuelle Frage. Ebenso werden deine vorher gestellten Fragen mit einbezogen. Das lässt es dann so aussehen als ob die Antworten durch besseres nachdenken entstehen. Im Grunde hat aber die Statistikberechnung nur besseres Ausgangsmaterial und kann damit bessere Ergebnisse liefern.Im Grunde ist also deine Beobachtung richtig das du durch das abschicken solcher Prompts das LLM "lernen" lässt und damit für die Zukunft bessere Antworten erhälst.Eigentlich weis er dann nur besser was du als Antwort erwartest und liegt mit seinen Vorhersagen deutlich genauer.Im übrigen daher kommt auch das Phänomen des Halluzinierens. Wenn also ein LLM dir Antworten gibt die so gar nichts mit der Frage zu tun haben.Darum ja auch immer der große Hinweis: Ergebnisse einer KI sind immer zu überprüfen. Bearbeitet Dienstag um 12:064 Tage von Enno
Dienstag um 12:204 Tage Autor Ja, das ist mir schon klar, aber danke für die kurze Zusammenfassung. Ich frage mich hierbei, ob diese Prompts einen Vorteil bringen in Bezug auf Transparenz (Weil x der Fall ist, sage ich y) und in Bezug auf Kohärenz (weil ich vor 40 Prompts x erwähnte, wird x nun wieder passend erwähnt durch das LLM). Sowas wäre ja für AlephAlpha interessant. Aber vermutlich ist das nur eine Spielerei, die mit Algorithmen genau so transparent gemacht werden kann :D
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.