Veröffentlicht 19. September19. Sep Guten Morgen,in letzter Zeit (Aktiver seit dem Ausbildungsbeginn) habe ich mir wirklich viele Gedanken darüber gemacht, welche Skills Fachinformatiker in Zukunft brauchen.. vor allem im Hinblick auf die zunehmende Anwesenheit von KI in unserer Arbeit. Ich bin selbst noch im ersten Lehrjahr (hab aber schon davor etwas Erfahrung gehabt aufgrund meines Umfelds.) und merke schon jetzt, dass vieles, was wir lernen, in einigen Jahren vielleicht ganz anders aussehen wird. KI-Tools = Code generieren, Aufgaben automatisieren oder Fehlerdiagnosen stellen... Dinge, die meiner Sicht nach früher Stunden oder sogar Tage gedauert hätten. Mir ist das besonders aufgefallen, weil einer meiner Klassenkameraden schon praktisch alles mit KI erledigt seit Tag 1, sei es Aufgaben in der Ausbildung oder kleinere Projekte. Das führt mich zu der Frage: Welche Kenntnisse sind wirklich wichtig, wenn KI viele Routineaufgaben übernimmt?... Mir wird dabei klar, dass es wahrscheinlich weniger darum geht, alles bis ins kleinste Detail selbst zu beherrschen (wir lernen ja bekanntlich Nie aus..), sondern eher darum, zu verstehen, wie dann die Systeme funktionieren, wie man sie sinnvoll einsetzt und wo ihre Grenzen liegen. Als Azubi lernt man, Skripte zu schreiben oder Server zu konfigurieren.. uvm. Wenn KI diese Aufgaben irgendwann automatisch erledigen kann, wird es vielleicht wichtiger, zu wissen, wann und wie man die KI einsetzt und wie man ihre Ergebnisse überprüft.Gleichzeitig hängt ja glaub viel davon ab, wie viel man selbst lernen möchte. Die Ausbildung vermittelt die Grundlagen, aber sie kann nicht alles abdecken. Wer wirklich informiert bleiben will, muss auch darüber hinaus eigene Skills entwickeln... das ist mir bewusst sei es in Automatisierung, Cloud-Management, Security oder im Umgang mit KI-generiertem Code. Aber das ist auch eine Frage des Selbstinteresses. Wie viel Zeit und Energie möchte ich investieren, um nicht nur die grundlegenden Aufgaben zu erledigen, sondern auch komplexere Prozesse zu verstehen und aktiv mitzugestalten?.. Und.. ist das überhaupt noch nötig oder wird gesehen? Mich interessiert deshalb sehr, wie ihr das seht. Welche Skills haltet ihr für Fachinformatiker/in in Zeiten von KI für besonders relevant? Setzt ihr eure Prioritäten eher darauf, Dinge zu verstehen, die die KI nicht übernehmen kann, oder versucht ihr, möglichst viele Bereiche selbst zu beherrschen? Und wie geht ihr persönlich damit um, wenn manche in der Klasse schon fast alles mit KI erledigen kann, darf.. ist das ein realistischer Weg, oder verpasst man dadurch wichtige Grundlagen?...
19. September19. Sep LLMs können nicht logisch denken. Sie können nicht verstehen, sondern nur vortäuschen, verstehen zu können. Ihre Stärke ist, menschlich zu klingen, nicht menschlich zu denken.Bei sowas wie Hausaufgaben sind sie recht gut. Einfach weil Hausaufgaben und deren Lösung so unglaublich oft in ihren Trainingsdaten vorkommen. Für den schulischen Teil kann das reichen. Allerdings muss eins sich dann auch bewusst sein, dass eins danach nichts kann im schlimmsten Fall. Unser Job ist ständig im Wandel, und er wird sich auch weiter wandeln. Früher hatten Leute Angst vor höheren Programmiersprachen, weil es dann ja keine Programmierer:innen mehr braucht. Dann wegen LowCode. Dann wegen NoCode. Jetzt wegen LLMs. Aber im Endeffekt sind das alles nur Werkzeuge, die die Landschaft leicht verändern wird, aber diese nicht auslöschen wird. Da musst du dir nicht zu viel Kopf machen würd ich sagen.
19. September19. Sep vor 14 Minuten, LunyXr3 hat gesagt:wenn manche in der Klasse schon fast alles mit KI erledigen kann, darf.. ist das ein realistischer Weg, oder verpasst man dadurch wichtige Grundlagen?...Hier erlebe ich seit 2 Jahren jeden einzelnen Tag, dass die Personen die ausschl. KI verwenden um die Schulaufgaben und co. zu erledigen ziemlich böse auf die Nase fallen. Sei es in Klausur oder IHK Prüfung. Ganz extrem ist es in Programmierung. Personen die keinerlei Erfahrung in der Programmierung haben und alles von der KI generieren lassen können später nahezu nichts. Teilweise scheitern meine Schüler die zu dieser Sorte gehörten schon daran eine Funktion zu schreiben, die "Hallo" ausgibt (und wir reden hier teilw. nicht vom ersten Lehrjahr).vor 15 Minuten, LunyXr3 hat gesagt:Welche Skills haltet ihr für Fachinformatiker/in in Zeiten von KI für besonders relevant?Man könnte argumentieren, dass man gewisse Dinge nicht mehr können müsste, da die KI die Generierung erledigt. Allerdings muss ich soviel Wissen um entscheiden zu können, ob das was die KI produziert A: richtig ist und B: mein Problem tatsächlich löst. Fehlt mir dieses Wissen bringt mir auch die KI nicht viel.Ganz praktisch: Die KI kann mir Code-Snippets erzeugen wie ich einen Webserver aufsetze und genau in diesem generierten Code sind mir 2 fatale Sicherheitslücken aufgefallen. Hätte ich kein Hintergrundwissen würde ich den Code einfach übernehmen, er funktioniert ja schließlich. Es ist auch nicht davon auszugehen, dass KI derart verbessert werden wird in den nächsten Jahren, dass man kein eigenes Backgroundwissen mehr benötigt. Dafür sind die Trainingsdaten viel zu fehlerhaft. Man muss sich nur mal anschauen mit was die KI so trainiert wird. Aber ja, KI kann den eigenen Alltag auch massiv verändern. Auf meine IT-Beruf bezogen kann er mir Tipps zu didaktischen Abschnittsplanungen geben, diese sogar komplett erstellen und ich muss sie nur noch optimieren. Das spart sehr viel Zeit. Er kann auch Klausuren inkl. Lösungen erstellen und teilweise Material. Auch das spart Zeit. Zumindest meinen Job macht es aber nicht obsolet, da ich dann diese frei gewordene Zeit für andere Dinge (z. B. Schulentwicklung) investieren kann.Allerdings gehe ich schon davon aus, dass einige Low-level-Jobs wegfallen werden. Schon heute kenne ich Firmen die Personal einsparen und einen KI-Chat-Bot nutzen, um ein Teil der Anfragen von Kunden abzufangen. Mir sind aktuell auch ein Fall bekannt, bei denen ein Tester entlassen wurde, da der zweite Tester mithilfe von KI die Arbeit für beide erledigt bekommt.Allerdings würde ich das Thema Entlassung durch KI auch nicht dramatisieren. Jobtransformationen gibt es seit hunderten von Jahren und es vollkommen normal das Jobs durch technische Errungenschaften verschwinden und andere dafür entstehen. Was aber die Geschichte zeigt ist, dass die neu entstehenden Jobs höhere Qualifikationen erfordern als durch den Wegfall der Errungenschaft. Also ist Bildung der Schlüssel um sich vor Arbeitslosigkeit und Bedeutungslosigkeit zu schützen.
19. September19. Sep Ich denke auch, dass es immer mehr so kommen wird, dass KI immer mehr Aufgaben übernehmen wird und irgendwann den Großteil der Arbeit erledigen wird. Dass die Leute in Prüfungen teilweise nichts reißen, im Job mit KI aber performen, zeigt, wie gut unser Ausbildungssystem aufgebaut ist. Aktuell sieht man am Wandel in unserem Arbeitsmarkt, dass der Bedarf nach Juniorentwicklern sinkt, da viele versuchen, deren Aufgaben mit KI zu erledigen und wie es aussieht, auch nicht ganz ohne Erfolg. Hier wirst du öfter hören, dass es nie so kommen wird und KI eigentlich nichts wirklich kann. Ich verstehe nicht, wie die Leute darauf kommen.
19. September19. Sep vor 11 Minuten, IAMS533 hat gesagt:Dass die Leute in Prüfungen teilweise nichts reißen, im Job mit KI aber performen, zeigt, wie gut unser Ausbildungssystem aufgebaut ist.Wenn ich jemand anderen für mich Arbeiten lasse dann "performe" nicht ich sondern der Andere. In dem Fall die KI.Wenn eine Nullpe keine Ahnung hat wie Dinge funktionieren dann wird in Prüfungen nichts gerissen. Aber wenn ich jemandem mit dem Wissen die Aufgaben rüberschiebe und dann die Antworten bekomme macht das einen immer noch nicht zum "Performer".Früher nannte man sowas "Blender" oder sogar Betrüger. Bearbeitet 19. September19. Sep von Brapchu
19. September19. Sep vor 34 Minuten, IAMS533 hat gesagt:ass die Leute in Prüfungen teilweise nichts reißen, im Job mit KI aber performen, zeigt, wie gut unser Ausbildungssystem aufgebaut ist.Das sind Blender bzw. Personen die sich einfach gut verkaufen können. Die gab es aber schon immer.vor 35 Minuten, IAMS533 hat gesagt:wie gut unser Ausbildungssystem aufgebaut ist.Unser Ausbildungssystem reagiert viel zu träge, das stimmt. Wenn ich bedenke wie lange es dauerte bis die Neuordnung auf den Weg gebracht wurde ....vor 35 Minuten, IAMS533 hat gesagt:dass der Bedarf nach Juniorentwicklern sinkt,Das liegt nicht an KI sondern an der wirtschaftlich (schlechten) Lage und das ist auch vollkommen normal und unterliegt Schwankungen. Sobald (falls) sich die Wirtschaft wieder erholt, werden automatisch mehr Menschen eingestellt, auch wieder im Juniorbereich. Aktuell warten viele Unternehmen mit Investition ab, da die wirtschaftliche Lage derart instabil ist und das hängt mit ganz vielen verschiedenen Faktoren zusammen (z. B. unberechenbaren Zöllen und co.).vor 37 Minuten, IAMS533 hat gesagt:Ich verstehe nicht, wie die Leute darauf kommen.Es behauptet doch niemand das die KI garnichts könnte sondern das der Einsatzbereich entsprechenden Einschränkungen unterliegt.Die Frage ist wie weit und ob man bestimmte Berufsgruppe komplett ersetzt bekommt.Ein Dolmetscher wird immer größere Probleme bekommen. Ich erinnere mich vor Jahren an eine Reportage bei der mitten in der Nacht Dolmetscher bezahlt werden mussten, um im Krankenhaus übersetzen zu können. Heute, könnte man das problemlos eine KI übernehmen lassen und müsste keine horrenden Stundensätze + Nachtzuschläge zahlen, zumindest wenn es um einfach gelagerte Fälle geht. Ein Anwalt der teilweise Angestellte nur Transkriptionen erstellen lässt, kann das auch massiv an eine KI outsourcen. Der Anwalt selbst kann man aber (Standpunkt 2025) nicht outsourcen, da es rechtlich schon nicht funktioniert. Teils besteht Anwaltspflicht und selbst wenn man eine perfekte AnwaltsKI erfinden würde, würde die der Person nicht reichen da er einfach einen Anwalt beauftragen muss.Lehrer wären theoretisch (zumindest auf der fachlichen Seite) massiv bedroht von KI. Aber Schule wiederum dient auch als Ort der Begegnung und Interaktion von Menschen und das kann die KI nicht bieten. Das heißt, vllt kommt das ein oder andere Ministerium irgendwann auf die Idee 2-3 Stellen einzuschmelzen um Geld zu sparen und die Arbeit zu konzentrieren aber Schulen wird es auch noch in 50 Jahren geben.Ähnlich sieht es mit Großprojekten aus. Niemand wird Millionen in die Hand nehmen um dann im Problemfall auf der anderen Seite mit einer KI diskutieren zu müssen. Da werden einfach Menschen erwartet und keine KI vor allem da es Situationen gibt, bei der der "kurze Dienstweg" zu bevorzugen ist.
19. September19. Sep Autor vor 11 Minuten, EdwardFangirlXxX hat gesagt:Unser Job ist ständig im Wandel, und er wird sich auch weiter wandeln. Früher hatten Leute Angst vor höheren Programmiersprachen, weil es dann ja keine Programmierer:innen mehr braucht. Dann wegen LowCode. Dann wegen NoCode. Jetzt wegen LLMs. Aber im Endeffekt sind das alles nur Werkzeuge, die die Landschaft leicht verändern wird, aber diese nicht auslöschen wird. Da musst du dir nicht zu viel Kopf machen würd ich sagen.Ich habe das Gefühl, dass ich gerade erst anfange zu verstehen, wie radikal der Wandel sein könnte...
19. September19. Sep Autor vor 1 Stunde, skylake hat gesagt:Hier erlebe ich seit 2 Jahren jeden einzelnen Tag, dass die Personen die ausschl. KI verwenden um die Schulaufgaben und co. zu erledigen ziemlich böse auf die Nase fallen. Sei es in Klausur oder IHK Prüfung. Ganz extrem ist es in Programmierung. Personen die keinerlei Erfahrung in der Programmierung haben und alles von der KI generieren lassen können später nahezu nichts. Teilweise scheitern meine Schüler die zu dieser Sorte gehörten schon daran eine Funktion zu schreiben, die "Hallo" ausgibt (und wir reden hier teilw. nicht vom ersten Lehrjahr).Ja, das kann ich total nachvollziehen, und ich sehe auch das Risiko, dass man durch reine KI-Nutzung die Grundlagen verpasst (auch wenn es heißt: NUTZT DIE KI) Ich merke es selbst.. manchmal erwische ich mich, wie ich wenn ich irgendwo nicht weiterkomme KI benutze um auf die Lösungen zu kommen.. damals hab ich mich solange reingefuchst.. bis ich es verstanden habe. Aber gleichzeitig frage ich mich ganz trocken.. Wie stark spiegelt das wirklich die Zukunft unseres Berufs wieder? Klar, wer in der Ausbildung alles von KI erledigen lässt, lernt weniger selbst.. und in Prüfungen merkt man das sofort... andere auch und selbst merkt man des dann auch wenn man nen quasi fast leeres Blatt abgibt. Aber im Job zählt oft das Ergebnis und nicht, ob man jede Zeile Code selbst getippt hat. Das wiederum wirft mir die Frage auf.... Müssen wir unsere Ausbildung vielleicht anpassen, um KI als Werkzeug einzubeziehen? Und wenn ja, wie sorgen wir gleichzeitig dafür, dass die grundlegenden Skills nicht völlig verloren gehen? Es wird ja nicht verschwinden, dass KI Aufgaben übernimmt... aber vielleicht verschiebt sich einfach die Art der geforderten Skills.. weniger „Tippen von Code“ und mehr „Verstehen, steuern und absichern von KI-generiertem Output“.. Ich habe einfach unfassbar angst, dass ich alles was ich jetzt lerne.. später nicht mehr brauchen werde.. es ist ja wie in der KFZ-Ausbildung... Damals war es zerlegen, basteln.. heute ist es austauschen von teilen.. also verstehst du worauf ich hinaus möchte?
19. September19. Sep Autor vor 26 Minuten, skylake hat gesagt:Die Frage ist wie weit und ob man bestimmte Berufsgruppe komplett ersetzt bekommt.Ein Dolmetscher wird immer größere Probleme bekommen. Ich erinnere mich vor Jahren an eine Reportage bei der mitten in der Nacht Dolmetscher bezahlt werden mussten, um im Krankenhaus übersetzen zu können. Heute, könnte man das problemlos eine KI übernehmen lassen und müsste keine horrenden Stundensätze + Nachtzuschläge zahlen, zumindest wenn es um einfach gelagerte Fälle geht.Aber wie sichern wir unsere eigene Relevanz, wenn KI schon heute vieles übernimmt, was wir in der Ausbildung lernen? Klar, komplexe Szenarien brauchen noch menschliches Denken.. aber wie viele dieser Szenarien kommen regelmäßig vor, und wie viele Aufgaben im Alltag lassen sich automatisieren? Ich sehe die Gefahr, dass wir uns zu sehr auf Grundlagen verlassen, während die praktische Anwendung zunehmend automatisiert wird. Wer entscheidet, welche Aufgaben künftig noch Menschen erledigen müssen oder werden wir am Ende hauptsächlich die KI überwachen müssen?..
19. September19. Sep KI wird zu einem unverzichtbaren Arbeits- und Hilfsmittel werden oder ist es bereits geworden und kann in nahezu allen Bereichen die Qualität meiner Arbeit steigern in dem ich einfach produktiver bin, sei es den Software-Code generieren zu lassen, mir das Auswahl-Konzept erstellen zu lassen oder mehrere Ansätze wie der technische Fehler zu analysieren, den ich gerade per Incident Ticket hereinbekommen habe, zu beheben ist. Das Entscheidende ist: Als Fachinformatiker hätte ich das auch ohne KI schaffen müssen, zumindest grob, nicht auf's letzter ",". Und ich muss verstehen können ob die KI nicht doch grobe Fehler gemacht und ob die Lösung in's Gesamtkonzept meiner bzw. der Kundenanforderung bzw. Aufgabe passt. Ich muss IT "Ende-zu-Ende", mit allen Rahmenparametern verstehen. Ist natürlich auch alles immer Fallabhängig. Mindestens aber muss ich mit gen AI gut umgehen können, d.h. ich kann gute prompts schnell schreiben um das gewünschte Ergebnis als Basis meiner weiteren Arbeit zu verwenden.
19. September19. Sep Autor vor 2 Stunden, skylake hat gesagt:Aber ja, KI kann den eigenen Alltag auch massiv verändern. Auf meine IT-Beruf bezogen kann er mir Tipps zu didaktischen Abschnittsplanungen geben, diese sogar komplett erstellen und ich muss sie nur noch optimieren. Das spart sehr viel Zeit. Er kann auch Klausuren inkl. Lösungen erstellen und teilweise Material. Auch das spart Zeit. Zumindest meinen Job macht es aber nicht obsolet, da ich dann diese frei gewordene Zeit für andere Dinge (z. B. Schulentwicklung) investieren kann.Allerdings gehe ich schon davon aus, dass einige Low-level-Jobs wegfallen werden. Schon heute kenne ich Firmen die Personal einsparen und einen KI-Chat-Bot nutzen, um ein Teil der Anfragen von Kunden abzufangen. Mir sind aktuell auch ein Fall bekannt, bei denen ein Tester entlassen wurde, da der zweite Tester mithilfe von KI die Arbeit für beide erledigt bekommt.Allerdings würde ich das Thema Entlassung durch KI auch nicht dramatisieren. Jobtransformationen gibt es seit hunderten von Jahren und es vollkommen normal das Jobs durch technische Errungenschaften verschwinden und andere dafür entstehen. Was aber die Geschichte zeigt ist, dass die neu entstehenden Jobs höhere Qualifikationen erfordern als durch den Wegfall der Errungenschaft. Also ist Bildung der Schlüssel um sich vor Arbeitslosigkeit und Bedeutungslosigkeit zu schützen.Ich finde es kritisch, dass viele noch denken, man könne KI einfach "drauf los“ nutzen, solange man ein bisschen Hintergrundwissen hat. Die Trainingsdaten sind fehlerhaft, wie du sagst.. und die Tools lernen nicht wirklich, sie imitieren nur Muster. Das heißt, wenn Unternehmen anfangen, Junior- oder Low-Level-Jobs zu streichen, weil ein KI-gestützter Kollege "ausreicht“, wird genau dieser Mangel an eigenem Wissen brutal sichtbar. Schon jetzt fallen Leute in Prüfungen oder bei praktischen Aufgaben auf die Nase, die sich zu sehr auf KI verlassen... und in ein paar Jahren könnte das meiner Denkweise nach Jobrelevanz kosten.Ich finde auch das Argument mit der Jobtransformation zwar richtig, aber die Gefahr wird meiner Meinung nach massiv unterschätzt. Die neuen Jobs erfordern deutlich höhere Qualifikationen, und nicht jeder ist bereit oder in der Lage, diese zu erwerben. Gleichzeitig werden Low-Level-Aufgaben SCHON JETZT automatisiert ->Beispiel IT-Suport:Chatbots wie ChatGPT, IBM Watson Assistant oder interne KI-Systeme beantworten Standardanfragen von Endanwendern.Firmen berichten, dass einfache Tickets (Passwort zurücksetzen, Zugriffsrechte prüfen) zu 40–60 % automatisiert abgewickelt werden.Nachlesbar auf: Forrester Research 2023, "AI in IT Service Management“.-> Firmen sparen Personal, KI übernimmt Kundenanfragen, Testerarbeiten usw. Es entsteht also eine echte Schere: Wer sich nicht aktiv weiterbildet, verliert schlicht seine Relevanz.Ist es wirklich naiv zu denken, dass KI nur "zeitsparendes Werkzeug“ bleibt? Oder sehe ich gerade, wie ein Teil des Berufsbilds langfristig schlicht verschwindet, während die Anforderungen an diejenigen, die übrig bleiben, massiv steigen?
19. September19. Sep vor 4 Minuten, LunyXr3 hat gesagt:Aber wie sichern wir unsere eigene Relevanz,Durch persönlichen Fortschritt, bessere Wertschöpfung .. Weiterbildung.Dass neue Technologien alte Berufsbilder vernichten ist kein neues KI Problem.Sonnen-/Wasseruhrenbetreuer → Uhrmacher : neue Fähigkeit - PräzisionsmechanikSchreiber/Kopisten → Setzer, Drucker: neue Fähigkeit – TypografiePostkutschenfahrer, Stallknechte → LokführerHufschmiede, Kutschbauer → Kfz-Mechaniker: neue Fähigkeit – Motorentechnik,usw.und jetzt halt in neuerer ZeitRechenknechte, Lochkartenbediener → ProgrammiererManuelle Werkzeugmacher → CNC-ProgrammiererRechenzentrums-Operatoren vor Ort → Cloud-ArchitektenRoutine-Datenerfassung, 1st-Level-Support (Teile) → ML-Ingenieure
19. September19. Sep Autor vor 2 Minuten, hellerKopf hat gesagt:Durch persönlichen Fortschritt, bessere Wertschöpfung .. Weiterbildung.Dass neue Technologien alte Berufsbilder vernichten ist kein neues KI Problem.Ja, die historischen Beispiele stimmen absolut... tecjnischer Fortschritt hat schon immer alte Berufe ersetzt und neue Fähigkeiten gefordert. Dass man sich weiterbildet, neue Skills dadurch entwickelt und dadurch die eigene Relevanz sichert, ist natürlich auch Fakt richtig. ABERRR Trotzdem sehe ich die aktuelle KI-Situation als etwas grundlegend anderes! Früher hat neue Technik bestehende Aufgaben ersetzt, aber oft konnte man sich durch ein klar abgrenzbares neues Berufsfeld weiterentwickeln. Mit KI verschwimmen diese Grenzen meiner Sicht nach viel schneller.Nehmen wir für ein passendes Beispiel mal Junior-Programmierer oder 1st-Level-Support.. Die Aufgaben, die früher die Basis für Erfahrung und Weiterbildung waren, können jetzt teilweise komplett von KI erledigt werden.Junior-Programmierer:-KI macht einfachen Standard-Code automatisch (z. B. GitHub Copilot)-KI erstellt automatisch Tests für den Code (z. B. Testim, Mabll)-KI schlägt Lösungen bei typischen Fehlern vor1-L-S:-KI beantwortet einfache Kundenfragen automatisch (z. B. ChatGPT, IBM Watson)-KI sortiert und priorisiert eingehende Tickets-KI erstellt Schritt-für-Schritt-Anleitungen für StandardproblemeWas bedeutet das ??.. Früher haben diese Aufgaben den Azubis oder Juniors wichtige Erfahrung vermittelt, heute erledigt KI viele davon selbst, wodurch man weniger lernt; Zeit wird zwar gespart, aber die Möglichkeit, richtig zu üben und Erfahrung zu sammeln, nimmt deutlich ab.
19. September19. Sep vor 19 Minuten, LunyXr3 hat gesagt:Was bedeutet das ??Super Frage! Kurz gesagt: Mit KI verschiebt sich der Fokus der Ausbildung vom „Code tippen“ hin zu System-Design, Bewertungs-/Testkompetenz, Sicherheit & Datenkompetenz. Wer KI produktiv nutzt, baut schneller Prototypen – aber nur, wenn Architektur, Qualitätssicherung und Governance sitzen.Was bedeutet KI-Verfügbarkeit für Anwendungsentwickler (in Ausbildung)?Arbeitsweise: Weniger Boilerplate, mehr Entwurf, Zerlegung, Qualitätssicherung. KI wird Co-Pilot, nicht Autopilot.Neue Kernkompetenzen:Architektur & API-Design · Datenmodellierung · Teststrategie (inkl. KI-erzeugter Tests) · Security/Privacy (OWASP, DSGVO) · AI-Hygiene (Prompten, Quellenprüfung, Lizenz/IP-Check) · Evaluationsfähigkeit (benchmarks, „trust but verify“).Teamprozesse: Code-Reviews werden wichtiger (KI-Code prüfen), Commit-Qualität, saubere Tickets/User-Stories, reproduzierbare Builds (CI/CD).Ethik & Recht: Offenlegung von KI-Nutzung, Umgang mit sensiblen Daten, Urheberrecht/Lizenzen, Prompt-Injection-Risiken.Curriculum-Triage: Was kürzen/ersetzen, was behalten, was ausbauen?Klassisches ThemaEntscheidungBegründungWiederholtes CRUD „from scratch“ über 2–3 StacksKürzen (1x tief, Rest generativ/Framework)Lernziel erreicht nach 1 sauberem Durchlauf; danach KI/Generatoren nutzenUI-Layout per Hand (Widget-Feinheiten/Boilerplate)KürzenGUI-Builder + KI-Snippets; Fokus auf UX-Flows/State-MgmtSyntax-Drills/Sprachfeatures im DetailKürzenCheatsheets + KI für Lookup; Fokus: Idiome, Lesbarkeit, FehlerbilderTriviale Algorithmen-Implementierung (Sortieren, Parser)Ersetzen durch Komplexitätsanalyse/DS-AuswahlPraxis nutzt Libs; wichtig ist Big-O, Trade-offs, Edge-CasesManuelle HTTP-Clients ohne Auth/Prod-NiveauKürzenEinmal „sauber“ (OAuth2/JWT, Fehlerfälle), danach Tools/SDKsLange Build-/IDE-Spezifika (mehrere IDEs)Kürzen auf CMake + CIPortables Build + Pipeline schlägt IDE-KlicktourenLegacy-Protokolle (z. B. SOAP)OptionalNur, wenn Praxispartner es benötigtAuswendiglernen von Listen (HTTP-Codes etc.)KürzenVerständnis von Kategorien/Fehlerklassen reichtTiefe CSS/HTML für Nicht-Frontend-RollenKürzenBasis reicht; Fokus Backend/API/ArchitekturHandgetriebene DB-Migrationsskripte mehrfachKürzen via ORM/ToolingEinmal Grundprinzip, dann Tool-gestütztMit freigewordener Zeit AUSBAUEN (KI-Zeitgewinn reinvestieren):AI-unterstützte Entwicklung: Prompt-Patterns, Guardrails, Lizenz-Check, „explain-then-accept“-WorkflowQualitätsautomatisierung: Linter/Static Analysis, Coverage-Gates, Mutation-Tests, Test-DatenfabrikenRAG/LLM-Integration (konzeptionell): API-Kopplung, Prompt-Injection-Abwehr, PII-Scrubbing, LoggingDevOps light: Container, CI/CD, Secrets-Mgmt, Feature FlagsObservability: strukturierte Logs, verteiltes Tracing (OpenTelemetry-Basics)Sicheres API-Design: Idempotenz, Rate-Limits, Fehlerkontrakte(OpenAI ChatGPT, persönliche Kommunikation, 19. September 2025)OpenAI. (2025). ChatGPT [Large language model]. https://chat.openai.com/Allerdings wird skylake mir wohl zustimmen, dass wir eine solche Anpassung von Rahmenplänen erst in 2035 sehen werden.Hoffentlich fangen einige Ausbildungsbetriebe damit schon früher an.
19. September19. Sep vor 1 Stunde, IAMS533 hat gesagt:Dass die Leute in Prüfungen teilweise nichts reißen, im Job mit KI aber performen, zeigt, wie gut unser Ausbildungssystem aufgebaut ist.Witzig. Ich höre oft eher umgekehrtes. Kandidaten haben Top Lebensläufe, super Projekte, viel gemacht und sobald sie dann anfangen zu arbeiten ist das Ergebnis eher meh.KI ist sicherlich ein mächtiges Werkzeug, aber wenn man sich von Anfang an nur darauf verlässt, dann fehlen einem nicht nur die Basics, sondern man verlernt auch die Fähigkeit eigenständig Probleme zu analysieren und kritisch nachzufragen. Das was früher blind von Stack-Overflow kopieren war, ist nun halt mit $LLM generieren lassen. Die Einsteigshürde ist noch niedriger geworden und man braucht noch weniger Wissen.Wenn man aber irgendwann mehr macht also 08/15 CRUD-Apps zu basteln, dann kommen die LLMs auch gerne mal an ihre Grenzen. Bei komplexeren Fehlern dreht sich die KI gerne mal im Kreis und auch bei Linux Kernel Internals, Library-spezifischen C++ Wrappern oder nischigen numerischen Simulationen hab ich schon oft erlebt, wie da ganz schnell nur noch Murks kommt. Und genau da werden auch in Zukunft Leute gefragt sein.Aber auch bei einfacheren Sachen mache ich oft die Erfahrung, dass mir KI nicht hilft. In der Zeit, in der ich den Prompt geschrieben und den Output verifiziert habe, habe ich das auch locker selber runtergetippt.Insofern: Ich habe keine Angst von KI ersetzt zu werden, und auch als Werkzeug halte ich KI für überbewertet. Es ist gut darin Leute, die nichts können auf ein Niveau zu heben, dass sie zumindest ein wenig Code schreiben und verstehen können, aber wenn man selber ein gewisses Grundniveau hat, dann ist stumpfes Programmieren durch KI Prompten ersetzen wenig hilfreich. Gezielte Nutzung kann aber durchaus gute Ergebnisse liefern, mein Lieblingsbeispiel sind Mathematiker der Universitäten Oxford und Sydney sowie Forscher von Google DeepMind, welche mithilfe von KI neue Resultate in der Knotentheorie entdecken und beweisen konnten.
19. September19. Sep Autor vor 33 Minuten, hellerKopf hat gesagt:Super Frage! Kurz gesagt:Ich sehe des durchaus als doppelschneidiges Schwert. Einerseits ist klar.. Andererseits wirft das ernste Fragen auf.. Wie sollen dann später Auszubildende die grund-Erfahrung sammeln, wenn die klassischen Lernschritte quasi weggefallen sind? Trial and Error, selbst Fehler erkennen und korrigieren, des waren zentrale Lernmechanismen. Wenn KI die übernimmt, ... Riskieren wir eine Generation von (Potentiellen) Fachkräften, die Ergebnisse liefern, ohne die zugrunde liegenden Prinzipien wirklich zu verstehen. oder etwa nicht? "Zudem verschiebt sich der Fokus stark hin zu Metakompetenzen wie Systemarchitektur, Teststrategien, Security und AI-Hygiene." Das klingt zunächst sinnvoll, wirft doch aber praktische Probleme auf. Viele Ausbildungsbetriebe haben weder die Ressourcen noch die Erfahrung, um die Inhalte angemessen zu vermitteln. Theorie und Praxis könnten hier also demnach massiv auseinanderdriften, was dazu führen kann, dass Azubis zwar "KI-gestützte Prozesse“ kennen, aber nicht wirklich wissen, wie sie selbstständig komplexe Probleme lösen.Auch ethische und rechtliche Aspekte werden plötzlich zentral angefangen bei der DSGVO, Urheberrecht, Prompt Injektion. Wer bitte übernimmt die Verantwortung, wenn KI-Code Fehler verursacht? Wenn wir nicht klar definieren, welche Konpetenzen und Verantwortlichkeiten die Auszubildenden haben, riskieren wir rechtliche Grauzonen und Haftungsprobleme... ein Thema, das in klassischen Curricula bisher kaum eine Rolle spielte.Und abschließend stellt sich dann immernoch die Frage nach der echten Lernqualität. Kürzen, ersetzen, ausbauen.... all das mag theoretisch funktionieren, aber ersetzt es wirklich die Erfahrungen, die durch manuelle Arbeit entstehen? Oder schaffen wir damit eine Art "professionelle Halb/schein-Kompetenz“, bei der Azubis/"Fachkräfte" zwar Ergebnisse produzieren können, aber ohne tiefes Verständnis und kritische Problemlösungsfähigkeiten?
19. September19. Sep vor 6 Minuten, LunyXr3 hat gesagt:Viele Ausbildungsbetriebe haben weder die Ressourcen noch die Erfahrung, um die Inhalte angemessen zu vermitteln.Tja, dann werden es diese Betriebe schwer haben, am Markt zu bestehen.Und die dort ausgebildeten Fachkräfte werden bald keine mehr sein.Ich komme da auf meinen ersten Post zurück.Warum wird heute nicht mehr mit dem Rechenschieber logarithmisch Addieren gelernt ?Weil man es nicht mehr machen muss ( Taschenrechner, Excel usw.) !Natürlich wäre es noch schön, mit einem Stück Holz die Eleganz von Mathematik zu zeigen, aber ...Wer heute noch als AE Zeit damit verbringt von Hand das Coden eines Bubble-Sorts zu erlernen, während der Ausbilder nicht zeigen kann, welche Auswirkungen die Art des Sortieralgorithmus und die Komplexitäten mit Big-O (Landau-Notation) hat, der ist arm dran.Zwar kann man so eine IHK Prüfung bestehen, aber im Bewerbungsprozess fällt man raus.Ich finde deine Fragen auf esoterischer Ebene gut.Aber meine echte Sorge ist, wann die Inhalte in die Ausbildung aufgenommen werden und was die AzuBis 2028 drauf haben werden.Falls es keinen Quantensprung gibt, kann ich 2028 meine "Boomer" langsam gehen lassen und die Lücken mit wenigen KI fähigen Leuten schließen.Schon heute schreibt keiner mehr einen Sort von Hand, die KI macht abhängig von den Daten eine Vorschlag für einen Sort aus der C++ Lib und der AE beurteilt und entscheidet letztendlich. Bearbeitet 19. September19. Sep von hellerKopf
21. September21. Sep Autor Am 19.9.2025 um 15:06, hellerKopf hat gesagt:Ich komme da auf meinen ersten Post zurück.Warum wird heute nicht mehr mit dem Rechenschieber logarithmisch Addieren gelernt ?Weil man es nicht mehr machen muss ( Taschenrechner, Excel usw.) !Natürlich wird heute niemand mehr im Alltag einen Bubble Sort einsetzen, genauso wenig wie man mit einem Rechenschieber rechnet... Aber das heißt nicht, dass die Vermittlung solcher Grundlagen überflüssig wäre. 🙄 Der Wert liegt nicht darin, den Algorithmus produktiv zu nutzen (eigentlich doch auch.. finde die Thematik schwierig), sondern darin, die dahinterstehenden Prinzipien zu verstehen.. Wie viele Vergleiche und Speicherzugriffe fallen an? Warum ist ein Algorithmus ineffizient? Wie ordne ich Big-O überhaupt ein? Wer das nie durchdrungen hat, läuft Gefahr, KI-Vorschläge oder Bibliotheksfunktionen unreflektiert zu übernehmen. Gerade im Bewerbungsprozess wird oft unterschieden zwischen Menschen, die nur wissen, welche Funktion sie aufrufen müssen, und denen, die auch die Mechanik dahinter verstehen. 🙈 Ausbildung ist deshalb nicht dasselbe wie Produktion.. Sie soll nicht nur kurzfristig marktfähig machen, sondern langfristig belastbares Wissen schaffen. Didaktische Übungen wie Bubble Sort oder manuelles Debugging trainieren Denkweisen und Strukturen, die man später auf völlig andere Probleme übertragen kann.Wenn wir das streichen und uns nur noch darauf beschränken, KI-Vorschläge zu bewerten, riskieren wir, dass die Fachkraft zur reinen Abnickerin wird. Wirkliche Problemlösungskompetenz entsteht aus einem soliden Fundament, nicht nur aus der reinen Anwendung von Tools.
22. September22. Sep Am 21.9.2025 um 10:37, LunyXr3 hat gesagt:Natürlich wird heute niemand mehr im Alltag einen Bubble Sort einsetzen, genauso wenig wie man mit einem Rechenschieber rechnet... Aber das heißt nicht, dass die Vermittlung solcher Grundlagen überflüssig wäre. 🙄 Der Wert liegt nicht darin, den Algorithmus produktiv zu nutzen (eigentlich doch auch.. finde die Thematik schwierig), sondern darin, die dahinterstehenden Prinzipien zu verstehen.. Wie viele Vergleiche und Speicherzugriffe fallen an? Warum ist ein Algorithmus ineffizient? Wie ordne ich Big-O überhaupt ein? Wer das nie durchdrungen hat, läuft Gefahr, KI-Vorschläge oder Bibliotheksfunktionen unreflektiert zu übernehmen. Gerade im Bewerbungsprozess wird oft unterschieden zwischen Menschen, die nur wissen, welche Funktion sie aufrufen müssen, und denen, die auch die Mechanik dahinter verstehen. 🙈 Ausbildung ist deshalb nicht dasselbe wie Produktion.. Sie soll nicht nur kurzfristig marktfähig machen, sondern langfristig belastbares Wissen schaffen. Didaktische Übungen wie Bubble Sort oder manuelles Debugging trainieren Denkweisen und Strukturen, die man später auf völlig andere Probleme übertragen kann.Wenn wir das streichen und uns nur noch darauf beschränken, KI-Vorschläge zu bewerten, riskieren wir, dass die Fachkraft zur reinen Abnickerin wird. Wirkliche Problemlösungskompetenz entsteht aus einem soliden Fundament, nicht nur aus der reinen Anwendung von Tools.Ich denke auch, dass es essenziell ist, die Grundlagen der Programmierung zu verstehen (wie sie funktionieren) und dann Ahnung von Systemdesign und Prompt Engineering zu haben. Wenn man der KI einen guten und präzisen Plan vorgibt, wird dieser in der Regel auch so umgesetzt. Wenn nicht, muss man wissen, wie man debuggen muss. Ich finde es auch ab und zu sehr interessant, nach Vorschlägen der KI zu fragen manchmal, nachdem man seine eigenen Gedanken geteilt hat, und manchmal davor. Ohne KI im Programmiereralltag wird man mit der Zeit obsolet.
22. September22. Sep Am 19.9.2025 um 13:18, LunyXr3 hat gesagt:Ich finde es kritisch, dass viele noch denken, man könne KI einfach "drauf los“ nutzen, solange man ein bisschen Hintergrundwissen hat.Nunja, die Frage wie nutzt du die KI was möchtest du erreichen? Möchtest du für die Hausaufgaben einen Text geschrieben haben, einen Lösungsansatz haben oder möchtest du etwas Coden? Für manche Sachen eignet sich die generative KI, aber Sachen dafür überhaupt nicht. Beim Coding ist es ein Tool, du kannst schnell Prototypen basteln etwas ausprobieren, aber das war es auch. Daher gibt es auch so viel unter VibeCoding Fails, Leute sehen Möglichkeiten Geld zumachen, liefern nur halbfertige Sachen ab und es gibt ein Desaster.Am 19.9.2025 um 13:07, LunyXr3 hat gesagt:Wie sichern wir unsere eigene Relevanz, wenn KI schon heute vieles übernimmt, was wir in der Ausbildung lernen?Während meiner Ausbildung hatte mir ein Kollege erzählt, sein Abschluss war es die Maustreiber automatisch zu verteilen. Ein Problem was es heute nicht mehr gibt, alles im Business Bereich ist Plug & Play, aber es ist ein schönes Beispiel. Die IT ist sehr schnell lebig, manche Sachen werden abgeschafft und dafür entstehen neue. Smartphones und Mobile Device Management. Das Problem an dem ganzen ist ein Hype um KI. Man sah auch schon als es mit smarten Geräten losging, gab es auch einen Hype. Manche Sachen wie das Smartphone sind im Alltag angekommen, aber andere Sachen wie AR Brillen sind ehr Nieschenprodukte, bzw Prototypen. Das Smartglass Thema geistert schon, seit guten 10 Jahren herum. Bei manchen der smarten Produkte, wurde ordentlich Geld verbrannt, andere braucht man schlicht weg nicht. Eine Thermofalsche mit App die mit sagt, wie warm mein Getränk ist.Ähnlich sieht bei KI aus. Es gibt schon erste Beispiel, für komplette Fails wie den Rabbit R1 oder auch wo nvidia durch die Ankündigung von Deepseek R1 an die 600 Milliarden verloren hat. Ich würde mir da noch keine großen Gedanken machen. Jetzt ist erstmal Goldgräberstimmung, das Kartenhausbricht zusammen, es entsteht eine Resignation und danach hat man ein realistischeres Marktbild.
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.