Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

KI in der Fachinformatiker-Ausbildung – verboten, verpönt oder unverstanden?

Empfohlene Antworten

vor 13 Minuten, Scr00py hat gesagt:

Du hast eine mMn seeeehr schwierige Einstellung der Digitalisierung gegenüber für einen "Techi".

Du redest wie mein Informatiklehrer vor 20 Jahren: 'Die Schüler verlernen das Rechnen durch den bösen Taschenrechner'.

Es sollte vermittelt werden, es sollte auch testweise angewendet werden (Wie schreibe ich gute Prompts, wie kann ich das Ergebnis verbessern". Du wirst lachen, ich hab mich mit dem Thema beschäftigt, sogar sehr tiefgehend. Ich habe Paper gelesen. Ich hab im universitären Umfeld Menschen geholfen, Paper zum Thema zu verfassen. "Fuzzy Logic" hatten wir früher und die Theorie von KI. Und so schicke Sachen wie "ELIZA" ein Programm, das in den 80ern bereits als "Psychologe" mit Menschen Gespräche führen konnte.

Dann ist die "KI" aber nur ein LLM jetzt und (sehr vereinfacht) nur eine RIESENGROSSE IF-THEN - Abfrage, die sehr stark verschachtelt ist.

Ich habe im Rahmen der Programmierwochen auch mal GitHub-Copilot hergenommen und richtig gestestet. Ja, das bringt schnell Prototypen und Ergebnisse.
Ich hab auch schon in einigen Programmiersprachen programmiert. Ich konnte den entstandenen Code noch eine ganze Weile lesen und verstehen. Aber das hört dann sehr schnell auf. Und die KI macht ganz schnell viele Seiten Code. Wenn du den nicht mehr vollumfänglich verstehst, solltest du das nicht benutzen. Und es ist zwingend, daß du alles liest. UND verstehst.

In einer hier nicht näher zu bezeichnenden Firma sollte ein "Neuer" mal ein Script schreiben, welches auf der Konsole bestimmte Dinge tun sollte. Der hat die Aufgabe dann in eine KI gekippt und die Lösung nicht wirklich verstanden. Es funktionierte, aber es benutzte unsichere Befehle. UND ER HAT DAS NICHT GEMERKT!

Anderes Beispiel: Ich hab nen alten Hefter von meinen Eltern für die Ausbildung verwendet. Der ist von irgendner Firma, da steht das Kürzel und die Stadt drauf. Ich hab das gegoogelt. Die "KI" - Antwort ganz oben war: "Eine solche Firma existiert in dieser Stadt nicht." Der erste wirkliche Ergebniseintrag war die entsprechende Firma mit diesem Kürzel in dieser Stadt. Nur mit KI hätte ich gesagt "gibt es nicht".

Es gibt tolle Einsatzbereiche für LLMs. Da sollte man sie unbedingt nutzen. Aber es gibt jetzt schon viele Beispiele, wo das Nutzen von "KI" zu sehr schwerwiegenden Problemen führte. Und in vielen Firmen wirst du ein Dokument unterschreiben müssen, daß du gar nicht oder nur im Umfang soundso dies- oder jenes Modell benutzen darfst. Das hat dann mit Datenschutz und Datensicherheit zu tun. Mindestens.

  • Antworten 56
  • Ansichten 4.3k
  • Erstellt
  • Letzte Antwort

Top-Poster in diesem Thema

Beliebteste Beiträge

  • Jemand hat mal gesagt, dass die KI wie Google ist nur mit Steroiden. Eine KI macht Fehler, deshalb ist es wichtig zu prüfen, ob die Aussagen/Lösungen stimmen + testen. Es gibt sicherlich einige die es

  • hellerKopf
    hellerKopf

    Da gibt es schon einige Prüfungsgremien, die das anders sehen. Da sind bis zu 49% der Inhalte erlaubt, wenn man sauber dokumentiert

  • VenomVelvet
    VenomVelvet

    Nein, auch das sollte m.E.n. nicht erlaubt sein. Wer jetzt in einer Ausbildung oder Umschulung FIAE macht hat ja im Regelfall noch nicht ordentlich programmiert und im Rahmen der Ausbildung kurz in ei

  • Autor
vor 51 Minuten, VenomVelvet hat gesagt:

Stand jetzt ist es aber ein Betrugsversuch und mit Note 6 zu ahnden. Universitär würde das vermutlich schon zum Ausschluß für alle Zukunft führen.

Danke für den Part: "advocatus diaboli"

Aber korrekt ist: Manche Hochschulen erzwingen den Gebrauch von KI/LLM
Als Hochschullehrer kann ich dir sagen: "Wer bestimmte Projektarbeiten ohne KI erstellt, kann keine 1 mehr erreichen."
Wir schreiben bei bestimmten Fächern einen KI Anteil von bis zu 15% vor.
Allerdings haben wir auch ein sehr umfangreiches Regelwerk für den Einsatz von KI entwickelt.

Am 30.1.2026 um 11:15, VenomVelvet hat gesagt:

Dann ist die "KI" aber nur ein LLM jetzt und (sehr vereinfacht) nur eine RIESENGROSSE IF-THEN - Abfrage, die sehr stark verschachtelt ist.

Vielleicht solltest du dich mal richtig mit der aktuellen Technik, die gerade rund um die LLMs entstehen, beschäftigen. Das ist inzwischen schon weit aus mehr, als "Schreibe mir ein Algorithmus, der X und Y kann." oder "Was macht diese Codezeile?". Es entstehen komplett automatisierte Workflows, die über die Codegenerierung weit hinaus gehen. Die werden in Zukunft ein wichtiger Bestandteil in den Firmen sein und werden alle Firmenbereiche treffen. Vor allem Entwickler müssen nicht nur wissen, wie man mit diesen Werkzeugen umgeht, sondern wie man solche Werkzeuge auch in die zu entwickelnde Software integriert.

Wir z.B. experimentieren, ob wir nicht zusammen mit dem Product Owner und der KI User Stories schreiben, die dann automatisch in Azure DevOps eingetragen werden und dann ein Trigger angestoßen wird, der diese User Stories an eine KI weitergibt. Die KI soll dann die User Story entwickeln, testen und dann ein Pull Request erstellen. Wir wissen aber selber nicht, ob das klappen wird.

Es kann zwar sein, dass die KI-Blase noch platzen wird und alles "back to the roots" geht, aber bis dahin sollten LLMs, Agents und weiß der Geier, was da noch alles kommen mag, ein wichtiger Bestandteil der Ausbildung werden. Ich denke, dass wir hier gerade einen Paradigmenwechsel erleben, wie wir in Zukunft mit Software umgehen werden, was tatsächlich den Gedanken der Digitalisierung näher kommt.

Am 30.1.2026 um 11:15, VenomVelvet hat gesagt:

Ich hab auch schon in einigen Programmiersprachen programmiert. Ich konnte den entstandenen Code noch eine ganze Weile lesen und verstehen. Aber das hört dann sehr schnell auf. Und die KI macht ganz schnell viele Seiten Code. Wenn du den nicht mehr vollumfänglich verstehst, solltest du das nicht benutzen. Und es ist zwingend, daß du alles liest. UND verstehst.

Ich muss ehrlich sein, dass ich es auch extrem schwierig finde, wirklich kognitiv bei der Sache zu sein, wenn ich den generierten Code reviewen muss, aber das ist bei Code von Arbeitskollegen auch nicht anders und verstehen tue ich auch nicht alles, was die anderen Kollegen entwickeln. Ich muss mich also darauf verlassen, dass sie wissen, was sie da tun und Fehler machen wir alle. Und ganz ehrlich: Wer versteht denn noch seinen eigenen Code nach ein paar Wochen?

Es ist doch jetzt schon so, dass die meiste Zeit bei einem Entwickler mit dem Lesen von Code drauf geht und nicht mit dem Schreiben und das wird in Zukunft noch mehr werden. Ich persönlich sehe nur die Problematik, dass ein Entwickler trotzdem das Wissen und die Erfahrung braucht, um das LLM richtig instruieren zu können, damit nicht nur das fachlich richtige rauskommt, sondern auch das technisch richtige, damit man den Code versteht. Ich habe z.B. in unserer Fachdomäne über die Jahre eine Architektur entwickelt, die immer nach Schema F läuft, die auch von unseren Junior-Entwicklern schnell verstanden werden kann, da z.B. Vererbungen nicht erlaubt sind. Sowas muss man der KI mitteilen. Das erlernt man aber erst mit Erfahrung und viel ausprobieren.

Eine KI wird daher (derzeit) nicht den Entwickler ersetzen (können), aber ein Entwickler muss sich mit der KI auseinandersetzen, ansonsten wird er tatsächlich ersetzt.

Die KI wird immer mit Hilfsmitteln verglichen. Eine Maschine tut aber das, für was sie gebaut wird. Zuverlässig. Eine KI leistet das nicht. Mitarbeiter sind 75% schneller? Ja, auf Kosten derer, die viel Zeit investieren müssen, den KI Mist zu widerlegen. Toll auch, wenn einer Originalquelle weniger geglaubt wird als der KI. Wie soll man mit solchen Kollegen auch nur ansatzweise sinnvoll zusammenarbeiten?

Mein Chef liest immer nur die KI Übersicht in Google. Dann wird diese Lösung zuerst ausprobiert, bis die große "Überraschung" kommt, dass es doch falsch ist. Erst dann wird weiter richtig gearbeitet. Jedes. Mal.

IT Security ist so ein schweres Thema, dass man es sich schlicht nicht leisten kann, seitenweise KI Code von einer anderen KI zu reviewen lassen. Und wenn ich dann lese wie Leute das als wahnsinnigen Fortschritt verkaufen wollen dann könnte ich ausrasten.

Es wäre schön wenn die KI unsere Arbeit verbessern würde. Das tut sie aber aktuell nicht. Daher sollte sie aktuell auch nicht genutzt werden, so wie jedes andere als schlecht erwiesene Tool nicht genutzt werden sollte. Und in einer Ausbildung hat sie rein gar nichts verloren.

Bearbeitet von Dakta

Am 30.1.2026 um 11:19, hellerKopf hat gesagt:

Manche Hochschulen erzwingen den Gebrauch von KI/LLM
Als Hochschullehrer kann ich dir sagen: "Wer bestimmte Projektarbeiten ohne KI erstellt, kann keine 1 mehr erreichen."
Wir schreiben bei bestimmten Fächern einen KI Anteil von bis zu 15% vor.

Halte ich für problematisch. Warum den Leuten das Werkzeug vorschreiben? Lass die Leute doch entwickeln, wie sie es für richtig halten. Gerade im Studium (und auch in der Ausbildung) geht es doch darum, die Grundlagen zu lernen. Wer die kann, der wird ja wohl auch in der Lage sein ein paar Prompts zu schreiben und API-Calls aneinanderzuhängen um einen KI-Workflow zu bauen.

Am 31.1.2026 um 12:45, Whiz-zarD hat gesagt:

Ich muss ehrlich sein, dass ich es auch extrem schwierig finde, wirklich kognitiv bei der Sache zu sein, wenn ich den generierten Code reviewen muss, aber das ist bei Code von Arbeitskollegen auch nicht anders und verstehen tue ich auch nicht alles, was die anderen Kollegen entwickeln. Ich muss mich also darauf verlassen, dass sie wissen, was sie da tun und Fehler machen wir alle. Und ganz ehrlich: Wer versteht denn noch seinen eigenen Code nach ein paar Wochen?

Das sind meiner Meinung nach ein paar sehr gute, aber auch ein paar sehr problematische Punkte.

  1. Klar braucht man nach ein paar Wochen wieder einige Minuten um sich in seinen eigenen Code wieder einzulesen. Wer ihn aber gar nicht mehr versteht...

  2. Wenn man sich eine Pull Request anschaut, dann sollte man auch alles verstehen bevor man es approved. Dafür ist es da. Wenn man es nicht versteht, dann schaut man nach wie es funktioniert oder lässt sich es vom Kollegen erklären.

  3. Code lesen ist ohne Zweifel viel anstrengender als Code zu schreiben. Insbesondere ist es viel schwerer (wenn nicht sogar unmöglich) in einen Flow-State zu kommen. Und genau da überschätzen meiner Meinung nach viele die KI. Dadurch, dass das alles wieder reviewed werden muss, gewinnt man gar nicht so viel Zeit. Zudem viele unterschätzen, was ein fähiger Entwickler im Flow an einem halben Tag alles erreichen kann.

Bzgl User-Stories und KI-Workflows: Das kann funktionieren, wenn man nichts allzu kompliziertes baut. Läuft aber auch wieder in das Lesen-ist-schwerer-als-Schreiben Problem rein.

Wieso man KI in großem Umfang in der Ausbildung dran bringen sollte ist mir ehrlich gesagt schleierhaft. Wer die Basics kann, für den ist auch die Nutzung von KIs kein Problem. Und ohne KI lernt es sich tatsächlich besser. Und ja, ich habe tatsächlich während der Ausbildung das Programmieren zuerst mit wenig IDE Unterstützung gelernt - und das ist was wovon ich noch heute profitiere.

Sehr schön, daß inzwischen auch kritische Stimmen kommen... Danke dafür!

Full-Quote zum Thema von Felix von Leitner:

Kurze Durchsage von Jensen Huang:

Jensen Huang says kids shouldn't learn to code — they should leave it up to AI

Das muss man verstehen. Der nimmt an, dass alle bloß talentlose Großmäuler sind wie er. Und für Blender ist "KI" super! Liefert prima Bullshit am Fließband und man kann am Ende einfach sagen, die "KI" sei schlecht gewesen.

Ich habe hier schon ein paar Mal erzählt, dass ich bei der Lektüre von Dystopie-Scifi immer unrealistisch fand, dass die Menschen sich eine Infrastruktur hinstellen würden, die komplett hackbar ist. Alles offen wie ein Schneunentor.

Das hat sich ja inzwischen geklärt, wie diese Dystopie Realität werden konnte. Wir sind einfach alle zu blöde. Wir haben die Verantwortung in die Hände von inkompetenten und borderline kriminellen Tech-Bros gegeben. Wir haben uns von inkompetenten und borderline kriminellen Wirtschafts-"Wissenschaftlern" erklären lassen, dass es zu teuer wäre, das ordentlich zu machen.

Es gibt aber noch andere Dinge, die ich fragwürdig fand, und die sich inzwischen geklärt haben. In Fantasy-Literatur gibt es das Trope des alten Wissens, vergessen aber allem überlegen, was wir heute haben. Wie soll das bitte passieren? Fand ich auch immer absurd.

Jetzt wissen wir es. Wir drucken aus Kostengründen auf Papier, das von selbst zerfällt, und vernichten digitales Wissen mit ewig länger werdenden Copyrights und DRM.

Dennoch könnte man immer noch einwenden, dass es ja private Wissensarchive gibt, und Raubkopierer. Es müsste also immer noch irgendwo Leute geben, die den Scheiß verstehen und warten können.

Auch das hat sich jetzt geklärt. Nicht, wenn man Dinge von "KI" machen lässt. Dann gibt es schon zur Konstruktionszeit niemanden, der versteht, wie der Scheiß funktioniert.

Wir haben uns zielgerichtet die beschissenste Kombination aus beschissenen Dystopien herausgesucht und in die Praxis umgesetzt. Wie konnten wir als Spezies das so weit schaffen!?

Ich möchte noch mal auf die Sicht von @hellerKopf zurückkommen, der ja hier schon beschrieben hat, das die Nutzung von KI während des Studiums an einigen Hochschulen bereits geregelt ist.

Warum sollte man hier angehende Fachinformatiker:innen während einer Ausbildung/Umschulung nicht gleichsetzen?

Habe heute als ausgebildeter FIAE mit 2 angehenden Abiturienten - welche anschließend Informatik studieren werden ein interessantes Meeting gehabt. Sie sollten uns vorschlagen, wie man eine LLM mit unserem sehr fachspezifischen know-how trainiert werden könnte. Sowohl mein Chef als auch ich waren von deren fundierten Vorschlägen sehr angetan.

Mir erschließt es sich deshalb nicht, warum man die selben Möglichkeiten nicht auch von Beginn an Azubis und Umschüler:innen ermöglichen sollte?

Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.

Konto

Navigation

Suchen

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.