Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

tkreutz2

User
  • Registriert

  • Letzter Besuch

Alle Beiträge von tkreutz2

  1. Kurzes Update dazu: Ich habe die daraus entstandene Architektur-Anpassung inzwischen sauber in das ADR-0004 überführt und versioniert. Konkret wurde dort jetzt explizit festgehalten, dass: __int128 keine valide Grundlage für Cross-Platform-Code ist und alle entsprechenden Operationen über Compiler-Guards bzw. Intrinsics abgesichert werden müssen Das war im ursprünglichen ADR so nicht sauber formuliert und ist erst durch den Pre-Check sichtbar geworden. Für mich bestätigt das aktuell den Ansatz ganz gut: → reale Probleme führen zu architektonischen Präzisierungen, nicht nur zu Code-Fixes.
  2. Hallo @Wodar Hospur, guter Punkt – das wirkt auf den ersten Blick tatsächlich wie ein Widerspruch, ist aber im Kern eine bewusste Designentscheidung, die ich gerade aufgrund eines KI‑Prechecks angepasst habe. Zur 64‑bit vs. 128‑bit Frage: Im ADR ist bewusst festgelegt: Persistenz / Datenmodell → int64_t (Fixed Point, skalierte Ganzzahlen) 128‑bit → nur als intermediäre Rechenhilfe (Multiply/Divide), nicht als Data-Type Das Problem ist durch den Pre‑Check jetzt sichtbar geworden: Damit verletze ich mein eigenes Blender-/DNA-Prinzip: Das ist kein Optimierungsproblem, sondern ein architektonischer Regelbruch. Deshalb die Anpassung: 64‑bit bleibt der definierte Datenraum 128‑bit wird nicht mehr als „implizit vorhanden“ angenommen sondern über: Compiler-Guards oder platform-spezifische Intrinsics (_umul128 etc.) explizit behandelt Das ADR ist an der Stelle aktuell noch nicht nachgeführt – das ist genau der Punkt, den dieser Pre‑Check sichtbar gemacht hat.
  3. Hallo @hellerKopf , exakt an diesem Punkt schließt sich der Kreis zu meinem neuen Pre-Check-System. Du hast vollkommen recht: Wenn ich den Code genauso mühsam Zeile für Zeile prüfen muss, habe ich zeitlich nichts gewonnen. Genau deshalb zwinge ich die KI, die Beweislast umzukehren und das Konformitäts-Audit vorab selbst zu schreiben. Als menschlicher Architekt lese ich nicht mehr kopflos C++ Code, sondern prüfe primär die Plausibilität der von der KI gelieferten Beweiskette gegen meine Invarianten. Und hier ist der direkte Praxis-Beweis, wie dieses System ein rein menschliches Review schlägt: Ich habe die KI über meine Pipeline das Refactoring der Festkomma-Arithmetik (ADR-0004) in die Sandbox docs/pre-checks/0004-fixed-point-review.md generieren lassen. Beim Überfliegen des von der KI geschriebenen Audits fiel der Blick sofort auf Kapitel 4: „Grenzen und Risiken – Compiler-Unterstützung“. Die KI stellte dort in ihrem eigenen Audit fest: „Implementierung nutzt int128. Wenn der Compiler keine int128-Unterstützung bietet (z. B. MSVC ohne Emulation), schlägt die Compilation fehl.“ Einem menschlichen Junior-Entwickler (und Hand aufs Herz: auch vielen Senioren!) wäre dieser plattformspezifische Fehler beim schnellen Tippen unter macOS niemals aufgefallen. Sie hätten den Code eingecheckt, und das Windows-Build-System wäre Stunden später auf die Nase geflogen. Weil meine Pipeline die KI aber dazu zwingt, ein eigenes Risiko-Audit abzuliefern, wurde diese architektonische Sollbruchstelle sichtbar, bevor auch nur eine einzige Zeile Code live in den Core geflossen ist. Ich habe die KI aufgrund ihres eigenen Audits nun angewiesen, ein plattformunabhängiges Fallback via Compiler-Guards und x64-Hardware-Intrinsics (_umul128 / _udiv128) für den MSVC-Compiler auf Windows einzubauen, um das Blender-Prinzip (vollkommene OS-Unabhängigkeit) zu wahren. Der Code sieht im Pre-Check für Windows nun so aus: Vollständiger Source ist im Repository
  4. Hallo zusammen, ich möchte die methodische Diskussion hier direkt aufgreifen und euch den nächsten Evolutionsschritt meines Experiments vorstellen. Die Frage, wie man die unzuverlässige „Junior-KI“ bändigt und reproduzierbare „Senior-Ergebnisse“ erzielt, hat mich zu einem radikalen Umdenken im Workflow gezwungen. Reines Prompt-Tuning in der IDE reicht ab einer gewissen Projektgröße nicht mehr aus. Wenn die KI direkt im Quellcode arbeitet, entstehen die von euch völlig zu Recht kritisierten Brüche (wie die Float-Leichen oder redundante Implementierungen). Ich habe daher ein automatisiertes KI-QS- und Pre-Check-System direkt in das Repository integriert. Die KI arbeitet ab sofort nicht mehr direkt auf den Quellcodedateien, sondern durchläuft eine strikte Vier-Phasen-Governance-Pipeline: Die Invarianten (decisions/prompt-guardrails.md): Hier sind die harten Architektur-Gesetze (wie das plattformunabhängige Blender-Prinzip, das absolute Float-Verbot und das Allokations-Verbot im Hotpath) maschinenlesbar für die KI hinterlegt. Die Sandbox (Pre-Check-Phase): Die KI darf bestehenden C++ Code nicht mehr direkt verändern. Sie muss jeden Code-Vorschlag zuerst in einer isolierten Review-Datei im neuen Verzeichnis docs/pre-checks/ablegen. Der Konformitäts-Beweis: In dieser Review-Datei muss die KI vorab schriftlich und logisch beweisen, dass ihr generierter Code-Vorschlag keine einzige Regel der Guardrails verletzt. Die Dialog-Historisierung: Parallel dazu wird der vollständige Konversations- und Prompt-Verlauf als Markdown-Dokument im Git-Repository versioniert. Wer das Repo klont, sieht somit in Zukunft nicht nur das fertige Produkt, sondern die lückenlose Evolution der "Mensch-Maschine-Diskussion". Die Praxisprobe läuft gerade: Ich habe die von euch angestoßene Architekturentscheidung ADR-0004 (Einführung von plattformunabhängiger FixedPoint-Arithmetik via int64_t zur Eliminierung aller Floats) ins Repo gepusht. Die Windows-Dev-Umgebung auf meinem Handheld steht. Die Entwickler-KI hat nun den Auftrag erhalten, das großflächige Core-Refactoring exakt nach diesem neuen Pre-Check-Muster in docs/pre-checks/0004-fixed-point-review.md vorzubereiten. Sobald die KI den Code und ihren Konformitätsbeweis dort abgelegt hat, werde ich als menschlicher Chef-Architekt das finale Review durchführen, bevor der Code live in den Xcode-Core fließt. Ich halte euch über die Ergebnisse dieses kontrollierten KI-Einsatzes auf dem Laufenden!
  5. Hallo @hellerKopf , deine strukturierte Gegenüberstellung der LLM-Antworten deckt das Kernproblem perfekt auf. Sie zeigt genau das, was ich die „KI-Varianz-Krise“ (oder das Overconfidence-Pattern) nenne: Die KI optimiert auf Eloquenz, nicht auf Wahrheit (p. 6). Sie listet im Chat brav alle 20 RAII-Regeln auf, bricht diese aber im echten Code-Generierungsprozess, sobald der Kontext komplexer wird (p. 6). Sie verhält sich exakt wie ein Junior-Entwickler in der Theorieprüfung vs. Praxis. Um die KI auf das Level eines Seniors zu hieven, reicht rein esoterisches Prompt-Tuning oder das Erweitern von Text-Guidelines ab einem gewissen Punkt nicht mehr aus. Man muss die Software-Architektur selbst als Kontrollmechanismus aufbauen. Ich habe für diesen Zweck ein übergeordnetes Framework entwickelt, das ich als „Living Architecture Library“ (basierend auf einem SYNAPSE-CPP Kern) in meinen Projekten einsetze (pp. 1, 19). Das Ziel ist eine KI-Governance, die auf einem Drei-Instanzen-Modell basiert (pp. 1, 9): Instanz 1: Der Generator (Probabilistisch): Das ist die Entwickler-KI (wie Copilot oder Claude) (p. 9). Ihr Output ist grundsätzlich „untrusted“ (p. 9). Sie liefert lediglich Lösungs-Hypothesen im Akkord (Junior-Level) (p. 9). Instanz 2: Der Falsifikator (Antagonist): Ein separates KI-Agenten-System mit dem expliziten, destruktiven Auftrag: „Suche systematisch nach Fehlern, Memory Leaks und Logikbrüchen im Code von Instanz 1“ (p. 9). Instanz 3: Der Evaluator (Deterministisch): Ein harter, in C++20 geschriebener Kern, der nicht mehr auf Wahrscheinlichkeiten basiert (p. 9). Er prüft den generierten Code und die Systemzustände gegen unverrückbare mathematische und architektonische Invarianten (p. 9). Angewandt auf dein RAII-Beispiel: Wenn Instanz 1 Code generiert, jagt Instanz 3 (der Evaluator) diesen durch eine automatisierte Kette (z. B. zyklomatische Komplexitätsprüfung \(\le 10\), Clang-Tidy Matcher auf new/delete und automatisierte Test-Suites) (p. 9). Verletzt die KI eine dieser Invarianten, wird der Code rigoros verworfen, und das System triggert mit dem Fehlerprotokoll eine neue Iteration (p. 17). Erst durch diese deterministische Kontrollschicht (Instanz 3) wird die unzuverlässige „Junior-KI“ gezwungen, Code auf absolutem „Senior-Niveau“ abzuliefern (p. 9). Das System sichert sich selbst ab (p. 19). Dieses Prinzip der Markt- und Code-Governance nutzen wir auch im Axiom Trader (p. 16), um die KI-Autonomie mathematisch zu bändigen. Wenn dich (oder die anderen) die genauen mathematischen Invarianten-Prüfungen dieses Setups interessieren, kann ich das gerne mal näher aufdröseln!
  6. Hallo @hellerKopf , du triffst hier einen extrem wichtigen Punkt. Ein Experiment ohne klare Metriken und Definition von „Grenzen“ läuft Gefahr, rein anekdotisch zu bleiben. Vielen Dank für diesen methodischen Anstoß! Zu deiner Frage, was ich genau erfahren will und wo ich die Grenzen ziehe: Meine primäre Hypothese ist: Kann eine KI komplexe, plattformspezifische Systemarchitekturen (wie hardwarenahes Metal-Rendering gepaart mit deterministischer Trading-Logik) fehlerfrei verwalten, wenn der Mensch ausschließlich abstrakte Regeln vorgibt? Die Grenze ziehe ich da, wo die KI architektonische Brüche erzeugt (wie die von dir/Claude entdeckte Dreifach-Implementierung der Persistenz), weil der Kontext-Fenster-Horizont oder das logische Verständnis für das Gesamtgefüge reißt. Zu den Metriken (Quantitativ & Qualitativ): Da ich das Projekt alleine in meiner Freizeit hochziehe, sind vollumfängliche Langzeitstudien schwer machbar. Aber ich tracke für mich bereits einige Daten, die ich gerne im Verlauf des Projekts teilen kann: Entwicklungszeit (Time-to-Market): Wie viele Minuten vergehen vom Architektur-Konzept in der ARCHITECT.md bis zum kompilierbaren Feature in Xcode? (Spoiler: Bei UI-Prototypen extrem schnell, bei Refactorings im Core bricht die Geschwindigkeit ein). Fehlerrate / Regressionen: Wie oft führt ein neuer Prompt dazu, dass eigentlich funktionierende Features an anderer Stelle unbemerkt wegbrechen? Zu deiner Frage bezüglich der Formulierungen (Best-Practice-to-generate): Ja, absolut! Das ist im Grunde der Kern der ARCHITECT.md. Ich teste intensiv, welche Detailtiefe die KI benötigt. Meine bisherige Erkenntnis: Allgemeine Phrasen wie "Schreibe performanten Code" bewirken gar nichts. Die KI benötigt restriktive, imperative Verbote und mathematische Konzepte. Ein Beispiel: Erst als ich die Regel "Nutze RAII" durch die konkrete Anweisung "Nutze ausnahmslos std::unique_ptr oder Stack-Allokation für Ressourcen in src/core/" ersetzt habe, sank die Memory-Leak-Rate im generierten Code gegen Null. Ich dokumentiere diese Erkenntnisse parallel. Wenn daraus am Ende eine Art strukturiertes „Best-Practice-Template“ für C++20-Generierung entsteht, teile ich das sehr gerne hier im Forum! Die "feine Klinge" (Fixed-Point-Math für die Währungen) schlage ich übrigens gerade ein – ich poste das Update, sobald die Pipeline fehlerfrei steht.
  7. Vielen Dank für das ehrliche und detaillierte Feedback! Genau das ist der springende Punkt: Es gibt hier definitiv noch einiges zu tun. Einige Funktionen und optimierte Codepfade sind aktuell auch bewusst temporär ausgeschaltet oder als Prototyp hinterlegt, während an ganz anderen Baustellen parallel weitergearbeitet wird. Man muss bei diesem Projekt massiv berücksichtigen, dass hier absolut iterativ vorgegangen wird. Der Code, den du jetzt siehst, ist der Zustand eines fließenden Übergangs. Insgesamt ist das ein völlig neuer, experimenteller Workflow, den es so in klassischen, (echten) Produktiv-Projekten eins zu eins wahrscheinlich nie geben wird – da dort von Anfang an ganz andere Code-Reviews und statische Analysen greifen. Es ist und bleibt ein Experiment, um die Grenzen der rein KI-gesteuerten Generierung auszuloten. Aber dafür ist es immerhin schon ein ganzes Stück weit gekommen und liefert eine stabile, native Metal-Oberfläche auf macOS, auf der wir jetzt die feineren architektonischen Klingen (wie Fixed-Point für Geldwerte und Allokations-Stopps im Hotpath) iterativ schleifen können. Ich halte euch hier über die nächsten Refactoring-Schritte auf dem Laufenden!
  8. Hallo zusammen, ich möchte hier ein aktuelles Pilotprojekt von mir teilen und zur Diskussion stellen. Es geht um die Frage, wie weit man die Code-Generierung durch KI treiben kann, wenn man als Mensch konsequent nur noch die Rolle des Software-Architekten einnimmt. Das Projekt: Axiom Trader (aktuell v0.4.0-alpha) – ein hochperformantes Handelssystem für macOS. Das Experiment: Ich schreibe keine einzige Zeile Code selbst. Jede Implementierung, jeder Bugfix, das Speichermanagement und die Render-Pipelines werden komplett von der KI umgesetzt. Der Tech-Stack: * Sprachen: C++20 und Objective-C++ (Gewichtung ca. 52% zu 45% im Repo). * UI/Rendering: Ein "Blender-Modell". Dear ImGui eingebettet in ein natives CAMetalLayer-Hosting-View für minimale Latenzen unter macOS 15/16. * Plattform: Optimiert für Apple Silicon (M-Chips), Zero-Overhead-Schleifen, explizite Metal-Pipeline-Zustände. Wie funktioniert das in der Praxis? Der Schlüssel zum Erfolg ist eine extrem strikte ARCHITECT.md im Repository. Diese fungiert als unumstößliches Regelwerk (Guardrails) für die KI. Die wichtigsten Regeln, die das System stabil halten: 1. Strikte Schichtentrennung: Der Core src/core/) enthält die deterministische Logik und darf absolut keine UI- oder Grafik-Header (ImGui, Metal) importieren. 2. RAII-Zwang: Ressourcenmanagement erfolgt ausnahmslos über RAII, um Speicherlecks im C++-Code von vornherein auszuschließen. 3. UI-Scoping: Dynamische ImGui-Tabellen müssen zwingend über ID-Scoping ImGui::PushID / PopID) abgesichert werden, um State-Konflikte im UI-Thread zu verhindern. Bisherige Erkenntnis: Wenn die architektonischen Leitplanken eng und mathematisch präzise genug gesteckt sind, neigt die KI nicht zu Halluzinationen. Stattdessen liefert sie hochoptimierten, sauberen C++20-Code, der sich in Xcode tadellos kompilieren lässt. Das Build-System von Xcode 16 verarbeitet diesen hybriden C++/Obj-C++ Mix extrem performant. Das Projekt steuert gerade auf die Version v0.5.x zu (Anbindung von SQLite für die Persistenz und Textur-Streaming via stb_image.h in die Metal-Buffer). Mich würde euer Feedback interessieren: Hat jemand von euch schon ähnliche Projekte umgesetzt, bei denen die KI vollständige* Code-Autonomie hatte? * Wie steuert ihr die Code-Qualität bei generiertem C++20-Code (Stichwort: statische Codeanalyse vs. Prompt-Guardrails)? * Seht ihr bei so einem "Architekt (Mensch) vs. Developer (KI)"-Modell langfristig die Zukunft in der Anwendungsentwicklung? Wer sich das Regelwerk oder den Code genauer ansehen möchte: Das Projekt ist Open Source auf GitHub (Link packe ich in die Kommentare/Signatur). Freue mich auf eine sachliche Diskussion! GitHubGitHub - tkreutz0-cmyk/axiom-trader: The Vision: A high-p...The Vision: A high-performance, deterministic trading journal built on the "Blender Model"—prioritizing full GUI control, local data sovereignty, and zero App Store friction. - tkreutz0-c...
  9. Würde ich nicht empfehlen, als Referenz zu nehmen. Das Mehrfamilienhaus meiner Eltern, was im Jahr 2018 verkauft worden ist, ist nie in einem der Portale erschienen bis heute, weder bei Vermietung noch bei Verkauf. Das ist ähnlich wie "Preisvorstellungen" bei Ebay zu abenteuerlichen Preisen. Ob die Preise real erzielt wurden, müsste erst mal verifiziert werden. Selbst abgeschlossene Auktionen können kompletter Fake sein z.B. aus Marketinggründen. Meine Erfahrung aus der Zeit, wo meine Eltern noch selbst vermietet haben ist die, dass die Portale unseriöse und lästige Spam Anfragen aller Art nachziehen, weswegen meistens über andere Wege vermietet wird. Heißt konkret, Konditionen- und Preise sind alles andere als Transparent. Es ist so ähnlich wie bei Stellenanzeigen, während die Jobs real bereits längst vergeben wurden oder sogar überhaupt nicht existieren. Aus dem Grund ist die Frage nach einer validen Quelle durchaus berechtigt.
  10. Was verstehst Du denn unter "Branchenwechsel" ? - Du schreibst was von komplett neuem Ausbildungsberuf (was man natürlich machen kann), aber das hat primär ja erst mal nichts mit der Branche zu tun. Branchenwechsel wäre in meinen Augen z.B. der Wechsel von einem Industriebetrieb zu einer Bank (Dienstleistung), oder von Handel zu Energie & Umwelt. Ohne regionalen Bezug, wird hier kaum jemand einen Tipp geben können. Aber die Frage nach Flexibilität (also Bereitschaft, dorthin umzuziehen, wo ggf. ein anderes Angebot vorhanden ist), spielt schon eine Rolle. Warum hat Dir denn der Betrieb, der Dich ausgebildet hat, kein Jobangebot gemacht ? Das wären alles so die Fragen, die mir bei einem Bewerbungsgespräch einfallen würden. Du kannst ja mal anonymisiert Deine Bewerbungsunterlagen hochladen und hier prüfen lassen. Vielleicht gibt es ein paar Punkte, die optimiert werden können. Ansonsten wurde ja der Tipp gegeben, Kontakte auszubauen. Gibt es denn irgendwelche Projekte, die Du in Deinem persönlichen Showcase hast (z.B. Git Repo) und anhand interessierte Leute einen Einblick in Deine Skills bekommen können ?
  11. Formell ist bei Umschülern der Bildungsträger der "Ausbildungsbetrieb" der Praktikumsbetrieb stellt lediglich einen Praktikumsplatz, auch wenn vor Ort Leute sind, die Ausbildungsberechtigt sind, ist es nicht vergleichbar wie in regulären Ausbildungsverträgen, die mit Betrieben direkt geschlossen werden. Aus dem Grund ist die Wahl des Praktikumsbetriebes bei Umschülern immer mit einem ungleich höherem Risiko verbunden, als bei regulären Ausbildungsverhältnissen. Was man tun kann, ist auf jeden Fall mit dem Praktikumsbetrieb ein Gespräch führen, ob eine Prüfungswiederholung möglich wäre, wenn die Prüfung nicht bestanden würde. Die meisten Betriebe zeigen sich hier kulant. Problem bei Umschülern ist halt, dass sie keine Ausbildungsvergütung vom Praktikumsbetrieb bekommen und ohne finanzielle Mittel sich kaum einer einen zweiten oder dritten Schuss leisten können. Da müsste auch die ARGE oder Rententräger, oder wer auch immer die Kosten trägt, die Zustimmung zu geben. Mir sind Fälle bekannt, in denen dann der Bildungsträger für Abschlußprojekte eingesprungen ist als Praktikumsbetrieb, aber auch das ist keine Regel. Frage an den Threadsteller wäre hier, um welchen Ausbildungsschwerpunkt es sich handelt. (FiSi, FiAE). Da von "eigener Hardware" die Rede ist, gehe ich mal von FiSi aus. Hier könnte das von mir geschilderte Szenario greifen, dass im äußersten Notfall der Bildungsträger einspringt. Mein Rat, schnell die entsprechenden Gespräche suchen am Besten sofort, ohne Zögern. Ja, PoC gilt auch für FiAE - aber im Zweifelsfall immer nach Absprache mit der regionalen IHK. Und noch ein Hinweis ein den TE - Du musst Deine Abschlussarbeit selbst erstellen. Deine Kollegen sind da raus, sobald die Uhr tickt, das wäre auch in jedem anderem Betrieb nicht anders. Viel Glück !
  12. Unbedingt
  13. Ich lese hier viel über ob KI‑Beiträge zulässig oder sinnvoll sind. Mir scheint aber, das eigentliche Problem liegt eine Ebene tiefer: Wir haben kein gemeinsames Modell dafür, wo KI denken darf – und wo Verantwortung liegen muss. Ich habe dazu ein Architekturmodell formuliert, das genau diese Trennung explizit macht: KI als Generator, niemals als Autorisierungs‑ oder Entscheidungsinstanz. Wenn das hier interessiert, gern Feedback/Widerspruch. Ki-Foren.pdf
  14. Ein Bild, das mir hilft: Ich denke Architektur eher wie eine loseblättrige Wissenssammlung als wie ein eingefrorenes Programm. Seiten können ergänzt oder ersetzt werden, aber das Buch als Ganzes bleibt lesbar – auch wenn manche Kapitel aus unterschiedlichen Jahrzehnten stammen. Im KI‑QS‑System denke ich Architektur inzwischen wie eine Art externer Speicher fürs Denken: Entscheidungen, Zustände und Argumente müssen außerhalb des flüchtigen Tools liegen. Die Software selbst wird damit zu etwas Lebendigem – nicht, weil sie ständig neu ist, sondern weil sie Gedanken und Strukturen über Zeit konserviert, auch wenn sich die Werkzeuge ändern. Meine Erfahrung ist, dass Softwarearchitektur oft sehr abstrakt gelehrt wird – der Bezug zu konkreten Best‑Practice‑Methoden und realen Entwicklungsprozessen fehlt dabei häufig. Ich arbeite aktuell an einem Pilotprojekt mit zwei Säulen: zum einen an einem KI‑QS‑System, zum anderen an einem Living‑Dokumentationssystem, das die Architektur während ihrer Entstehung kontinuierlich mitdokumentiert. Ziel ist es, aus einer zunächst persönlichen Loseblattsammlung in fest definierten Zyklen ausgewählte Kapitel zu konsolidieren und dauerhaft zu binden – während der Rest weiter evolviert. Architektur wird damit nicht nur beschrieben, sondern über Zeit nachvollziehbar gemacht. Ein Aspekt aus meinem aktuellen Architekturentwurf: Ich trenne bewusst zwischen einem deterministischen Kern (Zustände, Entscheidungen, Verlauf) und probabilistischen Randkomponenten (z. B. KI‑Tools), die jederzeit austauschbar oder abbrechbar sind, ohne den Gesamtzustand zu gefährden. Das hat sich gerade bei KI‑Systemen als extrem hilfreich erwiesen.
  15. Um zu verstehen, warum ich mich für diesen Stack (Go, Retro-Anbindung, kein modernes Web-UI-Bling-Bling) entschieden habe, möchte ich mein Positionspapier zur Informatikbildung teilen. Mir geht es darum, dass gerade Auszubildende wieder lernen, Systeme zu bauen und zu durchdringen, statt nur Oberflächen zu bedienen. Mein Projekt ist der technische Prototyp für genau diesen didaktischen Ansatz. Positionspapier_Informatikbildung_Gestaltbare_Systeme.pdf
  16. Danke für den Einwand, der ist absolut berechtigt – vor allem der Hinweis auf Schrift, Diakritik und exakte Reproduktion. Da würde ich gern etwas geraderücken, weil hier aus meiner Sicht zwei Dinge zusammenrutschen, die man trennen sollte. Ich meine mit der Walther‑von‑der‑Vogelweide‑Analogie nicht, dass natürliche Sprache immer verlustfrei oder eindeutig bleibt. Natürlich braucht es heute Übersetzungen, Kommentare und Kontext – und ja, es gibt Gegenbeispiele wie Voynich oder Rongorongo. Das bestreite ich gar nicht. Mir geht es eher um den Unterschied zwischen Bedeutung und exakter Reproduktion. Bei Formularen, Steuerbescheiden oder Zolldokumenten ist exakte Reproduktion das Hauptziel. Da muss das Ergebnis stimmen, idealerweise identisch, und Interpretationsspielraum ist unerwünscht. Dafür sind formale Systeme genau richtig. Bei Dingen wie Domänenmodellen, Regeln oder Wissen (und dazu zähle ich auch „Was ist ein Film in diesem System?“) ist das Ziel ein anderes: Dass ein Mensch auch in 20 oder 30 Jahren noch nachvollziehen kann, was gemeint war, selbst wenn die konkrete Umsetzung oder das Werkzeug längst weg ist. Das ist dann nicht bitgenau, aber oft erstaunlich robust. Eine praktische Erfahrung aus meinem Alltag passt da ganz gut: Ich habe mir einen Monsieur Cuisine gekauft, um überhaupt erst kochen zu lernen. Dabei nutze ich zwei Apps. In der Lidl‑Kochen‑App kann ich Rezepte einfach kopieren, abwandeln und in mein eigenes Kochbuch übernehmen. In der Monsieur‑Smart‑App sind die Rezepte komplett gegen Kopieren gesperrt. Beides funktioniert – aber nur bei der ersten lerne ich wirklich etwas. In der zweiten führe ich Abläufe aus. Das Rezept ist dort kein Wissen, sondern ein geschützter Prozess. Und genau diesen Unterschied meine ich auch in der Architektur: Wenn Logik und Bedeutung zu tief in Tools, Formate oder Workflows eingebaut sind, ist das System zwar bequem, aber kurzlebig. Wenn die Bedeutung zuerst sauber beschrieben ist, kann man sie später immer wieder neu umsetzen – auch mit anderen Werkzeugen. Kurz gesagt: Formale, exakte Systeme sind unverzichtbar, aber sie sollten nicht der einzige Träger der Bedeutung sein. Die Bedeutung selbst muss irgendwo leben, wo sie auch Menschen noch verstehen können.
  17. Danke für den Hinweis auf das Projekt N.O.M.A.D., das geht auf jeden Fall in die Richtung, die ich grundsätzlich gesucht habe. Allerdings verfolge ich ein paar Ansätze, in denen sich meine Idee bewusst und grundlegend unterscheidet. Mein Ziel ist vor allem: a) eine langfristige Architektur – keine kuratierte Tool‑Sammlung b) Text‑first – also nicht Browser‑first als primärer Zugang c) Terminal‑ & Retro‑Zugriff: Ich bin noch im Verein aktiv (Atari ST). Dafür gibt es bei vielen modernen Lösungen – auch bei N.O.M.A.D. – naturgemäß keinen Ansatz d) 20‑Jahre‑Kompatibilität – das ist für mich der wirklich wichtigste Punkt, der bei vielen bestehenden Lösungen leider fehlt e) austauschbare Clients – für mich ein absolutes Muss‑Kriterium N.O.M.A.D. halte ich trotzdem für ein sehr spannendes Projekt, gerade als Referenz dafür, wie viel heute offline‑first und Open‑Source möglich ist. Mein Fokus liegt allerdings etwas stärker auf dem architektonischen Grundgerüst als auf einem integrierten Anwendungspaket.
  18. Hallo zusammen, ich möchte in der Plauderecke eine Architekturdiskussion anstoßen – bewusst ohne konkretes Produkt‑ oder Framework‑Bashing. Ausgangspunkt ist ein privates Projekt / Showcase, bei dem ich mich gefragt habe: Wie müsste man Software heute entwerfen, wenn sie 20 Jahre unverändert betreibbar sein soll? Statt „State of the Art 2026“ habe ich daher ein paar bewusste Gegenentscheidungen getroffen: • stabiler Kern (PostgreSQL, klar definierte Domänenlogik) • Service‑Schicht in Go (kompiliert, wenig Abhängigkeiten) • Zugriff über mehrere sehr unterschiedliche Clients: – Web (Browser) – native Clients (C#, C++20) – Terminal‑Zugriff (TN3270), testbar sogar auf sehr alter Hardware • Druck/PDF‑Erzeugung nicht über Office‑Reports, sondern über eine textbasierte Build‑Pipeline (groff) in Docker Der Retro‑Teil ist dabei weniger Nostalgie als Härtetest: Wenn eine Anwendung über blockorientierte Terminals funktioniert, erzwingt das automatisch klare Datenmodelle und saubere Schnittstellen. Mich interessiert nicht „retro vs. modern“, sondern die Frage: Welche Teile heutiger Softwarearchitektur sind wirklich langlebig – und welche sind es nur, weil wir sie alle benutzen? Wie seht ihr das aus eurer Praxis? Gibt es aus eurer Sicht Architekturprinzipien, die den letzten 15–20 Jahren tatsächlich standgehalten haben? Technologiepapier_Manifest_MovieSystem_v1.pdf
  19. Vielleicht mal das Anschreiben hier anonymisiert posten und von den Leuten hier gegenlesen lassen. Eventuell mal ein Bewerbertraining bei der Arge anfragen, damit die Unterlagen mal auf den neuesten Stand gebracht werden. Ausbildungsplätze sind schwierig zu bekommen. Rechtzeitig auch im Portal der örtlichen Regional suchen, welche Betriebe überhaupt selbst ausbilden und aktiv suchen. Wenn alles nicht klappt, überlegen die Schulausbildung nachzuholen bzw. höher einzusteigen z.B. 1 Jahr Fachabi und danach duales Studium starten. Viel Glück !
  20. Es gibt keinen Grund sich Gedanken zu machen. Die Aspekte die fehlen sind lediglich Formalien, sofern aus dem Zwischenzeugnis ein Endzeugnis werden würde. Bestenfalls Mini-Optimierungen in der ein- oder anderen Formulierung. Das Zeugnis ist eine 1, aber einige Formulierungen entsprechen einer 2 z.B. durch das Wort "gut" anstelle von "sehr gut". Das ist aber nicht schlimm, wenn das Gesamtbild stimmig bleibt. Um das Gesamtbild zu beurteilen, müsste man die Schlussnote lesen können, wo es darum geht, wie das Unternehmen verlassen wurde: a) auf eigenen Wunsch b) mit Bedauern c) Kündigung aus Grund XY usw. Natürlich müsste dann die Form vergangenheitsbezogen sein und es fehlt die Unterschrift des fachlich- und Personal Verantwortlichen.
  21. Hallo, ich kann im Moment (noch) nichts Negatives erkennen. Es ist halt ein sehr kurzes Zeugnis im Vergleich zu sonstigen Arbeitszeugnissen, die ich gelesen habe. In dem Zusammenhang wäre halt meine Frage, was mit der Bewertung der sonst üblichen Parts ist, die man in einem vollständigen Arbeitszeugnis sonst zu lesen bekommt, denn die fehlen ja dann noch komplett.
  22. Hallo, schließe mich der Antwort von @hellerKopf an, das klingt für mich auch nach einem HR Filter. Was Du jetzt tun kannst, starte z.B. ein fiktives Projekt in Deinem privaten Umfeld zu einem Thema, was Dich interessiert. Dokumentiere alle Schritte- und Lösungsansätze in einem sauberen Dokument. Erstelle ein neues Anschreiben und füge genau das Projekt als praxisbezogenes Beispiel in der Dokumentation mit bei. Ich nenne mal ein Beispiel. Du bist Hobby Musiker und hast noch Software auf Legacy Hardware, für die es aktuell keine Unterstützung / Support mehr gibt. Dein Lösungsansatz, Konvertierung in eine VM und Migration der Legacy Software. Dann poste Dein Projekt in entsprechenden Communities und hol Dir Feedback dazu. Meistens bekommt man auf diesem Weg auch neue Kontakte, die einem ggf. auch Tipps / offene Stellen zu genau diesem Thema nennen können. Lass Deine Bewerbungsunterlagen von einem Coach prüfen und optimiere die Inhalte. Viel Glück !
  23. Du bist ja noch jung, wenn Du noch mal zur Schule / Studium machen möchtest, ist das völlig okay. Wenn man älter wird, wird es schwieriger. Aber Du musst halt wirklich dann auch wissen, was Du eigentlich willst, sonst wird es Dir im Studium ähnlich ergehen. Mit dem Startup würde ich erst mal warten. Falls Du wirklich eins machen willst, da gibt es auch später noch Unterstützung von den Hochschulen zu, aber vorher solltest Du die Zeit nutzen, um erst mal einiges an Grundlagen zu lernen. Außerdem müsstest Du dann BWL studieren, nicht VWL - VWL ist Volkswirtschaftslehre und BWL ist Betriebswirtschaftslehre. Also langer Rede kurzer Sinn, Du solltest Dir noch einmal die Zeit nehmen, eine Berufsberatung in Anspruch zu nehmen, dazu kannst Du auch völlig kostenlos- und unverbindlich einen Termin bei Deinem Arbeitsamt machen, die bieten so was auch an. Eventuell wäre es auch hilfreich, mal in andere Berufe unverbindlich rein zu schnuppern und ein Betriebspraktikum zu machen. Dazu müsstest Du Dir Firmen suchen, die in Deiner Nähe sind und ggf. in den Berufen, die Dich interessieren auch ausbilden. (Einfach unverbindlich fragen). Wenn Dir die aktuelle Ausbildung keinen Spaß macht und Dir nicht zusagt, dann macht es leider auch keinen Sinn, sich da weiter zu quälen. Gehe einfach zu Deinem Chef und finde den Mut ein ehrliches Gespräch zu führen. Ich wünsche Dir auf jeden Fall viel Glück- und alles Gute für die Zukunft !
  24. Schließe mich meinen Vorpostern dahingehend an, dass es unbedingt erforderlich ist, sofort zu reagieren und die Situation klar zu stellen. Sie sollten umgehend das Gespräch mit dem Ausbildungsleiter- oder Chef suchen. Außerdem wäre es wichtig, sachlich zu bleiben, zu erklären, dass Sie den Azubi zu Schulungszwecken mitgenommen haben. Bei künftigen Meetings wäre es gut, vorab anzukündigen ".... Ich bringe noch Person X/Y mit....". Achtung, wenn Sie hier jetzt nicht direkt klarstellen, kann dies bedeuten, das ihre Autorität in Frage gestellt wird. Sollte nochmal der Vorwurf fallen, können Sie auch sachlich direkt gegensteuern z.B. indem Sie sagen: "....Können Sie konkret benennen, welcher fachliche Aspekt Ihrer Meinung nach nicht abgedeckt wurde, oder geht es Ihnen grundsätzlich um die Anwesenheit von Auszubildenden?"

Konto

Navigation

Suchen

Suchen

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.