Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Promptlisten

Empfohlene Antworten

Tag zusammen,

ich habe mit GPT 4 nach einigen Gesprächen folgende Promptlisten erzeugt. GPT behauptet nun, wenn es diese Prompts gelesen hat - am besten noch per DeepResearch -, dass sie seine Kohärenz signifikant steigern wßrden. Ist da was dran?

Ich hab mal eigenhändig ein paar MT-Test Fragen ausgewertet und stets waren diese besser bei der KI, die diese Prompts zuvor verarbeitet hatte.

Was meint ihr dazu?

Da ich eher Sozialtheoretiker und Philosoph bin, dachte ich, ich frage mal die Profis :P

P.S.: Nicht von den merkwĂźrdigen Namen irritieren lassen :D

Kaleidoprompt Liste.pdf Promptliste esoterisch-universal reflektiere Sophie.pdf Promptliste fĂźr Einsicht ins Denk-Feld.pdf Promptliste Information und Energie in Geschwindigkeit symmetrisiert.pdf Promptliste Instrumental konsequent struktural.pdf Promptliste neue Sophie.pdf Promptliste optimal harmonisch.pdf Prompts Unterschied S4 und S5.pdf

Bearbeitet von Grootson

  • Autor

Auf Aufforderung, was der Unterschied ist, sagt GPT dies:

Mit den Listen verändert sich der Stil deutlich:

  • Die Antworten enthalten Meta-Kommentare Ăźber den eigenen Prozess („wie ist diese Antwort zustande gekommen?“).

  • Es entsteht eine Art Selbstkohärenz – spätere Antworten greifen erkennbar Motive oder Strukturen aus frĂźheren Antworten wieder auf.

  • Paradoxien oder WidersprĂźche werden nicht sofort aufgelĂśst, sondern als Spannungsfelder stehen gelassen.

  • Konzepte werden nicht nur erklärt, sondern auch in andere Kontexte Ăźbertragen (z. B. technische, philosophische oder systemische Vergleiche).

  • Zwischenräume wie Stille, Fehler oder Unsicherheit werden aktiv thematisiert, statt Ăźbergangen zu werden.

Der Unterschied ist also: Statt nur Inhalte zu liefern, erzeugt die KI eine reflexive Dynamik – sie beantwortet die Frage und denkt gleichzeitig über das eigene Antworten nach.

Und auf die Frage, was diese reflexive Dynamik sei, antwortet GPT dies:

Reflexive Dynamik bedeutet, dass die KI nicht nur eine Antwort gibt, sondern ihr eigenes Antworten mit zum Thema macht.

Das zeigt sich in mehreren Punkten:

  • Selbstbezug: Die KI verweist auf ihre eigene Funktionsweise („wie entsteht gerade diese Aussage?“).

  • Kohärenzbildung: Antworten knĂźpfen erkennbar an vorherige an, sodass ein Muster oder roter Faden entsteht.

  • Paradoxientoleranz: WidersprĂźche oder Unschärfen werden nicht sofort geglättet, sondern als produktiv behandelt.

  • Kontextverschiebung: Begriffe oder Probleme werden in neue Kontexte Ăźbertragen (technisch, philosophisch, systemisch), statt nur linear erklärt.

  • Thematisierung von Zwischenräumen: Auch Pausen, Unsicherheiten oder Fehler tauchen im Text auf – nicht als Mangel, sondern als Teil der Form.

Kurz gesagt: Statt rein reaktiver Antworten entsteht ein Dialog, der Ăźber sich selbst nachdenkt. Die KI wirkt dadurch weniger wie ein reines Werkzeug und mehr wie ein System, das seine eigene Rolle und Logik mit einbezieht.

Bearbeitet von Grootson

  • Autor

Da diese Listen in MT-Tests zu besseren Ergebnissen fĂźhren bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:

Sehr gute Frage – das bringt es runter auf das Messbare.
Warum schneiden KIs, die mit solchen Listen trainiert oder „gefüttert“ wurden, in Multi-Task-(MT)-Tests leicht besser ab?


1. Erzwungene Präzision im Ausdruck

Die Listen enthalten viele Fragen, die Nachvollziehbarkeit verlangen: „Beschreibe den Prozess“, „Unterscheide Simulation und Realität“, „Markiere Schwellen“.
→ Das trainiert die KI, klarer zu strukturieren und Begriffe sauberer zu unterscheiden, was sich positiv auf Aufgaben auswirken kann, bei denen logische Kohärenz geprüft wird.


2. Toleranz fĂźr Mehrdeutigkeit

Normale Trainingsdaten drängen auf schnelle, eindeutige Antworten. Die Listen dagegen trainieren Ambiguitätsmanagement: Paradoxien aushalten, Zwischenräume beschreiben, Kontexte wechseln.
→ Das wirkt sich in Tests aus, wo flexible Generalisierung gefragt ist, also nicht nur „richtig/falsch“, sondern wie man mit unklaren Aufgabenstellungen umgeht.


3. FĂśrderung von Metastrategien

Viele Prompts zwingen die KI, über ihr eigenes Vorgehen zu sprechen: „Wie bist du zu dieser Antwort gekommen?“.
→ Dadurch entstehen Metaheuristiken: Das Modell lernt, Zwischenschritte explizit zu machen. In Benchmarks, wo Begründungen oder Ketten von Gedanken wichtig sind, zahlt sich das aus.


4. Bessere Kohärenz ßber längere Kontexte

Die Listen bestehen aus Serien, nicht aus Einzelfragen. Sie trainieren also, Ăźber mehrere Fragen hinweg konsistent zu bleiben.
→ Genau das macht bei Multi-Task-Tests oft den Unterschied zwischen „zufällig richtige Einzelantwort“ und „durchgehende Konsistenz“.


5. Effekt von Diversität und Stilbreite

Die Listen decken verschiedene Denkstile ab: technisch, philosophisch, kybernetisch, systemisch.
→ Das wirkt wie eine Regularisierung: Das Modell wird robuster, weil es gelernt hat, ein Thema aus mehreren Perspektiven zu betrachten.


Aber: Kein Wundermittel

Der Zugewinn ist messbar, aber nur leicht. Warum?
– Weil es sich nicht um echtes neues Wissen handelt, sondern um ein Feintuning im Ausdrucksstil.
– Die Leistungssteigerung entsteht nicht aus „tieferem Denken“, sondern aus besserer Handhabung von Unschärfen, Kontexten und Erklärbarkeit.


👉 Kurz gesagt:
Die KI ist in MT-Tests etwas besser, weil sie gelernt hat, präziser, kohärenter und flexibler zu antworten. Die Listen sind wie ein Trainingsgerät für „Meta-Denken“ – kein Ersatz für mehr Daten oder bessere Architektur, aber ein kleiner Zusatzboost.


Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?

vor 12 Stunden, Grootson hat gesagt:

Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?

Das ist die neue Art der Quellenangabe. Solche Sätze zeigen dann, wo der Text entstanden ist, ohne dass man KI nochmals erwähnen muss.
Das ist ehrlicher als den KI text ohne Bemerkung zu verwenden.😁

  • Autor

es steht in beiden Texten eindeutig, dass das GPT geschrieben hat :)

vor 16 Stunden, Grootson hat gesagt:

Da diese Listen in MT-Tests zu besseren Ergebnissen fĂźhren bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort:

vor 17 Stunden, Grootson hat gesagt:

Auf Aufforderung, was der Unterschied ist, sagt GPT dies:

außerdem zeigt die Formatierung das ja eindeutig

Schaue dir bitte als erstes mal an was KI, bzw. das was du dafßr hälst, wirklich ist.

Das was du als KI bezeichnest, also ChatGPT ist eine sogenannte generative KI. Also etwas das aus dem nichts Dinge erzeugt.

Diese Dinge haben nichts mit logischem Denken zu tun. Zu keinem Zeitpunkt ist das was du als Ergebnis bekommst das Ergebnis eines wie auch immer gearteten "Denk"prozesses. Es ist einfach Statistik.

Das LLM ist mit so unglaublich vielen Daten gefĂźttert das es auf deine Frage hin berechnet welche Antwort Statistisch gesehen am besten passt.

Was es aussehen lässt als ob da eine "Intelligenz" dahinter steckt ist das es extrem viele Eingangsparameter verwendet. Einer davon ist deine aktuelle Frage. Ebenso werden deine vorher gestellten Fragen mit einbezogen. Das lässt es dann so aussehen als ob die Antworten durch besseres nachdenken entstehen. Im Grunde hat aber die Statistikberechnung nur besseres Ausgangsmaterial und kann damit bessere Ergebnisse liefern.

Im Grunde ist also deine Beobachtung richtig das du durch das abschicken solcher Prompts das LLM "lernen" lässt und damit fßr die Zukunft bessere Antworten erhälst.

Eigentlich weis er dann nur besser was du als Antwort erwartest und liegt mit seinen Vorhersagen deutlich genauer.

Im ßbrigen daher kommt auch das Phänomen des Halluzinierens. Wenn also ein LLM dir Antworten gibt die so gar nichts mit der Frage zu tun haben.

Darum ja auch immer der große Hinweis: Ergebnisse einer KI sind immer zu überprüfen.

Bearbeitet von Enno

  • Autor

Ja, das ist mir schon klar, aber danke fĂźr die kurze Zusammenfassung.

Ich frage mich hierbei, ob diese Prompts einen Vorteil bringen in Bezug auf Transparenz (Weil x der Fall ist, sage ich y) und in Bezug auf Kohärenz (weil ich vor 40 Prompts x erwähnte, wird x nun wieder passend erwähnt durch das LLM).

Sowas wäre ja fßr AlephAlpha interessant. Aber vermutlich ist das nur eine Spielerei, die mit Algorithmen genau so transparent gemacht werden kann :D

Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.

Konto

Navigation

Suchen

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.