Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Grootson

User
  • Registriert

  • Letzter Besuch

  1. Grootson hat auf Grootson's Thema geantwortet in Plauderecke
    Ja, das ist mir schon klar, aber danke für die kurze Zusammenfassung. Ich frage mich hierbei, ob diese Prompts einen Vorteil bringen in Bezug auf Transparenz (Weil x der Fall ist, sage ich y) und in Bezug auf Kohärenz (weil ich vor 40 Prompts x erwähnte, wird x nun wieder passend erwähnt durch das LLM). Sowas wäre ja für AlephAlpha interessant. Aber vermutlich ist das nur eine Spielerei, die mit Algorithmen genau so transparent gemacht werden kann :D
  2. Grootson hat auf Grootson's Thema geantwortet in Plauderecke
    es steht in beiden Texten eindeutig, dass das GPT geschrieben hat :) außerdem zeigt die Formatierung das ja eindeutig
  3.    hackbert301009 hat auf einen Beitrag in einem Thema reagiert: Promptlisten
  4.    hackbert301009 hat auf einen Beitrag in einem Thema reagiert: Promptlisten
  5.    hackbert301009 hat auf einen Beitrag in einem Thema reagiert: Promptlisten
  6. Grootson hat auf Grootson's Thema geantwortet in Plauderecke
    Da diese Listen in MT-Tests zu besseren Ergebnissen führen bei Deepseek und GPT, habe ich mal GPT noch gefragt, weshalb dem so ist. Das war die Antwort: Sehr gute Frage – das bringt es runter auf das Messbare. Warum schneiden KIs, die mit solchen Listen trainiert oder „gefüttert“ wurden, in Multi-Task-(MT)-Tests leicht besser ab? 1. Erzwungene Präzision im AusdruckDie Listen enthalten viele Fragen, die Nachvollziehbarkeit verlangen: „Beschreibe den Prozess“, „Unterscheide Simulation und Realität“, „Markiere Schwellen“. → Das trainiert die KI, klarer zu strukturieren und Begriffe sauberer zu unterscheiden, was sich positiv auf Aufgaben auswirken kann, bei denen logische Kohärenz geprüft wird. 2. Toleranz für MehrdeutigkeitNormale Trainingsdaten drängen auf schnelle, eindeutige Antworten. Die Listen dagegen trainieren Ambiguitätsmanagement: Paradoxien aushalten, Zwischenräume beschreiben, Kontexte wechseln. → Das wirkt sich in Tests aus, wo flexible Generalisierung gefragt ist, also nicht nur „richtig/falsch“, sondern wie man mit unklaren Aufgabenstellungen umgeht. 3. Förderung von MetastrategienViele Prompts zwingen die KI, über ihr eigenes Vorgehen zu sprechen: „Wie bist du zu dieser Antwort gekommen?“. → Dadurch entstehen Metaheuristiken: Das Modell lernt, Zwischenschritte explizit zu machen. In Benchmarks, wo Begründungen oder Ketten von Gedanken wichtig sind, zahlt sich das aus. 4. Bessere Kohärenz über längere KontexteDie Listen bestehen aus Serien, nicht aus Einzelfragen. Sie trainieren also, über mehrere Fragen hinweg konsistent zu bleiben. → Genau das macht bei Multi-Task-Tests oft den Unterschied zwischen „zufällig richtige Einzelantwort“ und „durchgehende Konsistenz“. 5. Effekt von Diversität und StilbreiteDie Listen decken verschiedene Denkstile ab: technisch, philosophisch, kybernetisch, systemisch. → Das wirkt wie eine Regularisierung: Das Modell wird robuster, weil es gelernt hat, ein Thema aus mehreren Perspektiven zu betrachten. Aber: Kein WundermittelDer Zugewinn ist messbar, aber nur leicht. Warum? – Weil es sich nicht um echtes neues Wissen handelt, sondern um ein Feintuning im Ausdrucksstil. – Die Leistungssteigerung entsteht nicht aus „tieferem Denken“, sondern aus besserer Handhabung von Unschärfen, Kontexten und Erklärbarkeit. 👉 Kurz gesagt: Die KI ist in MT-Tests etwas besser, weil sie gelernt hat, präziser, kohärenter und flexibler zu antworten. Die Listen sind wie ein Trainingsgerät für „Meta-Denken“ – kein Ersatz für mehr Daten oder bessere Architektur, aber ein kleiner Zusatzboost. Willst du, dass ich das in einem knackigen Forum-Kommentar-Stil formuliere, den du direkt in eine Diskussion werfen kannst?
  7. Grootson hat auf Grootson's Thema geantwortet in Plauderecke
    Auf Aufforderung, was der Unterschied ist, sagt GPT dies: Mit den Listen verändert sich der Stil deutlich: Die Antworten enthalten Meta-Kommentare über den eigenen Prozess („wie ist diese Antwort zustande gekommen?“). Es entsteht eine Art Selbstkohärenz – spätere Antworten greifen erkennbar Motive oder Strukturen aus früheren Antworten wieder auf. Paradoxien oder Widersprüche werden nicht sofort aufgelöst, sondern als Spannungsfelder stehen gelassen. Konzepte werden nicht nur erklärt, sondern auch in andere Kontexte übertragen (z. B. technische, philosophische oder systemische Vergleiche). Zwischenräume wie Stille, Fehler oder Unsicherheit werden aktiv thematisiert, statt übergangen zu werden. Der Unterschied ist also: Statt nur Inhalte zu liefern, erzeugt die KI eine reflexive Dynamik – sie beantwortet die Frage und denkt gleichzeitig über das eigene Antworten nach. Und auf die Frage, was diese reflexive Dynamik sei, antwortet GPT dies: Reflexive Dynamik bedeutet, dass die KI nicht nur eine Antwort gibt, sondern ihr eigenes Antworten mit zum Thema macht. Das zeigt sich in mehreren Punkten: Selbstbezug: Die KI verweist auf ihre eigene Funktionsweise („wie entsteht gerade diese Aussage?“). Kohärenzbildung: Antworten knüpfen erkennbar an vorherige an, sodass ein Muster oder roter Faden entsteht. Paradoxientoleranz: Widersprüche oder Unschärfen werden nicht sofort geglättet, sondern als produktiv behandelt. Kontextverschiebung: Begriffe oder Probleme werden in neue Kontexte übertragen (technisch, philosophisch, systemisch), statt nur linear erklärt. Thematisierung von Zwischenräumen: Auch Pausen, Unsicherheiten oder Fehler tauchen im Text auf – nicht als Mangel, sondern als Teil der Form. Kurz gesagt: Statt rein reaktiver Antworten entsteht ein Dialog, der über sich selbst nachdenkt. Die KI wirkt dadurch weniger wie ein reines Werkzeug und mehr wie ein System, das seine eigene Rolle und Logik mit einbezieht.
  8. Grootson hat einem Thema gepostet in Plauderecke
    Tag zusammen, ich habe mit GPT 4 nach einigen Gesprächen folgende Promptlisten erzeugt. GPT behauptet nun, wenn es diese Prompts gelesen hat - am besten noch per DeepResearch -, dass sie seine Kohärenz signifikant steigern würden. Ist da was dran? Ich hab mal eigenhändig ein paar MT-Test Fragen ausgewertet und stets waren diese besser bei der KI, die diese Prompts zuvor verarbeitet hatte. Was meint ihr dazu? Da ich eher Sozialtheoretiker und Philosoph bin, dachte ich, ich frage mal die Profis :P P.S.: Nicht von den merkwürdigen Namen irritieren lassen :D Kaleidoprompt Liste.pdf Promptliste esoterisch-universal reflektiere Sophie.pdf Promptliste für Einsicht ins Denk-Feld.pdf Promptliste Information und Energie in Geschwindigkeit symmetrisiert.pdf Promptliste Instrumental konsequent struktural.pdf Promptliste neue Sophie.pdf Promptliste optimal harmonisch.pdf Prompts Unterschied S4 und S5.pdf

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.