Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

KI in der Fachinformatiker-Ausbildung – verboten, verpönt oder unverstanden?

Empfohlene Antworten

vor 13 Minuten, Scr00py hat gesagt:

Du hast eine mMn seeeehr schwierige Einstellung der Digitalisierung gegenüber für einen "Techi".

Du redest wie mein Informatiklehrer vor 20 Jahren: 'Die Schüler verlernen das Rechnen durch den bösen Taschenrechner'.

Es sollte vermittelt werden, es sollte auch testweise angewendet werden (Wie schreibe ich gute Prompts, wie kann ich das Ergebnis verbessern". Du wirst lachen, ich hab mich mit dem Thema beschäftigt, sogar sehr tiefgehend. Ich habe Paper gelesen. Ich hab im universitären Umfeld Menschen geholfen, Paper zum Thema zu verfassen. "Fuzzy Logic" hatten wir früher und die Theorie von KI. Und so schicke Sachen wie "ELIZA" ein Programm, das in den 80ern bereits als "Psychologe" mit Menschen Gespräche führen konnte.

Dann ist die "KI" aber nur ein LLM jetzt und (sehr vereinfacht) nur eine RIESENGROSSE IF-THEN - Abfrage, die sehr stark verschachtelt ist.

Ich habe im Rahmen der Programmierwochen auch mal GitHub-Copilot hergenommen und richtig gestestet. Ja, das bringt schnell Prototypen und Ergebnisse.
Ich hab auch schon in einigen Programmiersprachen programmiert. Ich konnte den entstandenen Code noch eine ganze Weile lesen und verstehen. Aber das hört dann sehr schnell auf. Und die KI macht ganz schnell viele Seiten Code. Wenn du den nicht mehr vollumfänglich verstehst, solltest du das nicht benutzen. Und es ist zwingend, daß du alles liest. UND verstehst.

In einer hier nicht näher zu bezeichnenden Firma sollte ein "Neuer" mal ein Script schreiben, welches auf der Konsole bestimmte Dinge tun sollte. Der hat die Aufgabe dann in eine KI gekippt und die Lösung nicht wirklich verstanden. Es funktionierte, aber es benutzte unsichere Befehle. UND ER HAT DAS NICHT GEMERKT!

Anderes Beispiel: Ich hab nen alten Hefter von meinen Eltern für die Ausbildung verwendet. Der ist von irgendner Firma, da steht das Kürzel und die Stadt drauf. Ich hab das gegoogelt. Die "KI" - Antwort ganz oben war: "Eine solche Firma existiert in dieser Stadt nicht." Der erste wirkliche Ergebniseintrag war die entsprechende Firma mit diesem Kürzel in dieser Stadt. Nur mit KI hätte ich gesagt "gibt es nicht".

Es gibt tolle Einsatzbereiche für LLMs. Da sollte man sie unbedingt nutzen. Aber es gibt jetzt schon viele Beispiele, wo das Nutzen von "KI" zu sehr schwerwiegenden Problemen führte. Und in vielen Firmen wirst du ein Dokument unterschreiben müssen, daß du gar nicht oder nur im Umfang soundso dies- oder jenes Modell benutzen darfst. Das hat dann mit Datenschutz und Datensicherheit zu tun. Mindestens.

  • Antworten 63
  • Ansichten 5.1k
  • Erstellt
  • Letzte Antwort

Top-Poster in diesem Thema

Beliebteste Beiträge

  • Jemand hat mal gesagt, dass die KI wie Google ist nur mit Steroiden. Eine KI macht Fehler, deshalb ist es wichtig zu prüfen, ob die Aussagen/Lösungen stimmen + testen. Es gibt sicherlich einige die es

  • hellerKopf
    hellerKopf

    Da gibt es schon einige Prüfungsgremien, die das anders sehen. Da sind bis zu 49% der Inhalte erlaubt, wenn man sauber dokumentiert

  • VenomVelvet
    VenomVelvet

    Nein, auch das sollte m.E.n. nicht erlaubt sein. Wer jetzt in einer Ausbildung oder Umschulung FIAE macht hat ja im Regelfall noch nicht ordentlich programmiert und im Rahmen der Ausbildung kurz in ei

  • Autor
vor 51 Minuten, VenomVelvet hat gesagt:

Stand jetzt ist es aber ein Betrugsversuch und mit Note 6 zu ahnden. Universitär würde das vermutlich schon zum Ausschluß für alle Zukunft führen.

Danke für den Part: "advocatus diaboli"

Aber korrekt ist: Manche Hochschulen erzwingen den Gebrauch von KI/LLM
Als Hochschullehrer kann ich dir sagen: "Wer bestimmte Projektarbeiten ohne KI erstellt, kann keine 1 mehr erreichen."
Wir schreiben bei bestimmten Fächern einen KI Anteil von bis zu 15% vor.
Allerdings haben wir auch ein sehr umfangreiches Regelwerk für den Einsatz von KI entwickelt.

Am 30.1.2026 um 11:15, VenomVelvet hat gesagt:

Dann ist die "KI" aber nur ein LLM jetzt und (sehr vereinfacht) nur eine RIESENGROSSE IF-THEN - Abfrage, die sehr stark verschachtelt ist.

Vielleicht solltest du dich mal richtig mit der aktuellen Technik, die gerade rund um die LLMs entstehen, beschäftigen. Das ist inzwischen schon weit aus mehr, als "Schreibe mir ein Algorithmus, der X und Y kann." oder "Was macht diese Codezeile?". Es entstehen komplett automatisierte Workflows, die über die Codegenerierung weit hinaus gehen. Die werden in Zukunft ein wichtiger Bestandteil in den Firmen sein und werden alle Firmenbereiche treffen. Vor allem Entwickler müssen nicht nur wissen, wie man mit diesen Werkzeugen umgeht, sondern wie man solche Werkzeuge auch in die zu entwickelnde Software integriert.

Wir z.B. experimentieren, ob wir nicht zusammen mit dem Product Owner und der KI User Stories schreiben, die dann automatisch in Azure DevOps eingetragen werden und dann ein Trigger angestoßen wird, der diese User Stories an eine KI weitergibt. Die KI soll dann die User Story entwickeln, testen und dann ein Pull Request erstellen. Wir wissen aber selber nicht, ob das klappen wird.

Es kann zwar sein, dass die KI-Blase noch platzen wird und alles "back to the roots" geht, aber bis dahin sollten LLMs, Agents und weiß der Geier, was da noch alles kommen mag, ein wichtiger Bestandteil der Ausbildung werden. Ich denke, dass wir hier gerade einen Paradigmenwechsel erleben, wie wir in Zukunft mit Software umgehen werden, was tatsächlich den Gedanken der Digitalisierung näher kommt.

Am 30.1.2026 um 11:15, VenomVelvet hat gesagt:

Ich hab auch schon in einigen Programmiersprachen programmiert. Ich konnte den entstandenen Code noch eine ganze Weile lesen und verstehen. Aber das hört dann sehr schnell auf. Und die KI macht ganz schnell viele Seiten Code. Wenn du den nicht mehr vollumfänglich verstehst, solltest du das nicht benutzen. Und es ist zwingend, daß du alles liest. UND verstehst.

Ich muss ehrlich sein, dass ich es auch extrem schwierig finde, wirklich kognitiv bei der Sache zu sein, wenn ich den generierten Code reviewen muss, aber das ist bei Code von Arbeitskollegen auch nicht anders und verstehen tue ich auch nicht alles, was die anderen Kollegen entwickeln. Ich muss mich also darauf verlassen, dass sie wissen, was sie da tun und Fehler machen wir alle. Und ganz ehrlich: Wer versteht denn noch seinen eigenen Code nach ein paar Wochen?

Es ist doch jetzt schon so, dass die meiste Zeit bei einem Entwickler mit dem Lesen von Code drauf geht und nicht mit dem Schreiben und das wird in Zukunft noch mehr werden. Ich persönlich sehe nur die Problematik, dass ein Entwickler trotzdem das Wissen und die Erfahrung braucht, um das LLM richtig instruieren zu können, damit nicht nur das fachlich richtige rauskommt, sondern auch das technisch richtige, damit man den Code versteht. Ich habe z.B. in unserer Fachdomäne über die Jahre eine Architektur entwickelt, die immer nach Schema F läuft, die auch von unseren Junior-Entwicklern schnell verstanden werden kann, da z.B. Vererbungen nicht erlaubt sind. Sowas muss man der KI mitteilen. Das erlernt man aber erst mit Erfahrung und viel ausprobieren.

Eine KI wird daher (derzeit) nicht den Entwickler ersetzen (können), aber ein Entwickler muss sich mit der KI auseinandersetzen, ansonsten wird er tatsächlich ersetzt.

Die KI wird immer mit Hilfsmitteln verglichen. Eine Maschine tut aber das, für was sie gebaut wird. Zuverlässig. Eine KI leistet das nicht. Mitarbeiter sind 75% schneller? Ja, auf Kosten derer, die viel Zeit investieren müssen, den KI Mist zu widerlegen. Toll auch, wenn einer Originalquelle weniger geglaubt wird als der KI. Wie soll man mit solchen Kollegen auch nur ansatzweise sinnvoll zusammenarbeiten?

Mein Chef liest immer nur die KI Übersicht in Google. Dann wird diese Lösung zuerst ausprobiert, bis die große "Überraschung" kommt, dass es doch falsch ist. Erst dann wird weiter richtig gearbeitet. Jedes. Mal.

IT Security ist so ein schweres Thema, dass man es sich schlicht nicht leisten kann, seitenweise KI Code von einer anderen KI zu reviewen lassen. Und wenn ich dann lese wie Leute das als wahnsinnigen Fortschritt verkaufen wollen dann könnte ich ausrasten.

Es wäre schön wenn die KI unsere Arbeit verbessern würde. Das tut sie aber aktuell nicht. Daher sollte sie aktuell auch nicht genutzt werden, so wie jedes andere als schlecht erwiesene Tool nicht genutzt werden sollte. Und in einer Ausbildung hat sie rein gar nichts verloren.

Bearbeitet von Dakta

Am 30.1.2026 um 11:19, hellerKopf hat gesagt:

Manche Hochschulen erzwingen den Gebrauch von KI/LLM
Als Hochschullehrer kann ich dir sagen: "Wer bestimmte Projektarbeiten ohne KI erstellt, kann keine 1 mehr erreichen."
Wir schreiben bei bestimmten Fächern einen KI Anteil von bis zu 15% vor.

Halte ich für problematisch. Warum den Leuten das Werkzeug vorschreiben? Lass die Leute doch entwickeln, wie sie es für richtig halten. Gerade im Studium (und auch in der Ausbildung) geht es doch darum, die Grundlagen zu lernen. Wer die kann, der wird ja wohl auch in der Lage sein ein paar Prompts zu schreiben und API-Calls aneinanderzuhängen um einen KI-Workflow zu bauen.

Am 31.1.2026 um 12:45, Whiz-zarD hat gesagt:

Ich muss ehrlich sein, dass ich es auch extrem schwierig finde, wirklich kognitiv bei der Sache zu sein, wenn ich den generierten Code reviewen muss, aber das ist bei Code von Arbeitskollegen auch nicht anders und verstehen tue ich auch nicht alles, was die anderen Kollegen entwickeln. Ich muss mich also darauf verlassen, dass sie wissen, was sie da tun und Fehler machen wir alle. Und ganz ehrlich: Wer versteht denn noch seinen eigenen Code nach ein paar Wochen?

Das sind meiner Meinung nach ein paar sehr gute, aber auch ein paar sehr problematische Punkte.

  1. Klar braucht man nach ein paar Wochen wieder einige Minuten um sich in seinen eigenen Code wieder einzulesen. Wer ihn aber gar nicht mehr versteht...

  2. Wenn man sich eine Pull Request anschaut, dann sollte man auch alles verstehen bevor man es approved. Dafür ist es da. Wenn man es nicht versteht, dann schaut man nach wie es funktioniert oder lässt sich es vom Kollegen erklären.

  3. Code lesen ist ohne Zweifel viel anstrengender als Code zu schreiben. Insbesondere ist es viel schwerer (wenn nicht sogar unmöglich) in einen Flow-State zu kommen. Und genau da überschätzen meiner Meinung nach viele die KI. Dadurch, dass das alles wieder reviewed werden muss, gewinnt man gar nicht so viel Zeit. Zudem viele unterschätzen, was ein fähiger Entwickler im Flow an einem halben Tag alles erreichen kann.

Bzgl User-Stories und KI-Workflows: Das kann funktionieren, wenn man nichts allzu kompliziertes baut. Läuft aber auch wieder in das Lesen-ist-schwerer-als-Schreiben Problem rein.

Wieso man KI in großem Umfang in der Ausbildung dran bringen sollte ist mir ehrlich gesagt schleierhaft. Wer die Basics kann, für den ist auch die Nutzung von KIs kein Problem. Und ohne KI lernt es sich tatsächlich besser. Und ja, ich habe tatsächlich während der Ausbildung das Programmieren zuerst mit wenig IDE Unterstützung gelernt - und das ist was wovon ich noch heute profitiere.

Sehr schön, daß inzwischen auch kritische Stimmen kommen... Danke dafür!

Full-Quote zum Thema von Felix von Leitner:

Kurze Durchsage von Jensen Huang:

Jensen Huang says kids shouldn't learn to code — they should leave it up to AI

Das muss man verstehen. Der nimmt an, dass alle bloß talentlose Großmäuler sind wie er. Und für Blender ist "KI" super! Liefert prima Bullshit am Fließband und man kann am Ende einfach sagen, die "KI" sei schlecht gewesen.

Ich habe hier schon ein paar Mal erzählt, dass ich bei der Lektüre von Dystopie-Scifi immer unrealistisch fand, dass die Menschen sich eine Infrastruktur hinstellen würden, die komplett hackbar ist. Alles offen wie ein Schneunentor.

Das hat sich ja inzwischen geklärt, wie diese Dystopie Realität werden konnte. Wir sind einfach alle zu blöde. Wir haben die Verantwortung in die Hände von inkompetenten und borderline kriminellen Tech-Bros gegeben. Wir haben uns von inkompetenten und borderline kriminellen Wirtschafts-"Wissenschaftlern" erklären lassen, dass es zu teuer wäre, das ordentlich zu machen.

Es gibt aber noch andere Dinge, die ich fragwürdig fand, und die sich inzwischen geklärt haben. In Fantasy-Literatur gibt es das Trope des alten Wissens, vergessen aber allem überlegen, was wir heute haben. Wie soll das bitte passieren? Fand ich auch immer absurd.

Jetzt wissen wir es. Wir drucken aus Kostengründen auf Papier, das von selbst zerfällt, und vernichten digitales Wissen mit ewig länger werdenden Copyrights und DRM.

Dennoch könnte man immer noch einwenden, dass es ja private Wissensarchive gibt, und Raubkopierer. Es müsste also immer noch irgendwo Leute geben, die den Scheiß verstehen und warten können.

Auch das hat sich jetzt geklärt. Nicht, wenn man Dinge von "KI" machen lässt. Dann gibt es schon zur Konstruktionszeit niemanden, der versteht, wie der Scheiß funktioniert.

Wir haben uns zielgerichtet die beschissenste Kombination aus beschissenen Dystopien herausgesucht und in die Praxis umgesetzt. Wie konnten wir als Spezies das so weit schaffen!?

Ich möchte noch mal auf die Sicht von @hellerKopf zurückkommen, der ja hier schon beschrieben hat, das die Nutzung von KI während des Studiums an einigen Hochschulen bereits geregelt ist.

Warum sollte man hier angehende Fachinformatiker:innen während einer Ausbildung/Umschulung nicht gleichsetzen?

Habe heute als ausgebildeter FIAE mit 2 angehenden Abiturienten - welche anschließend Informatik studieren werden ein interessantes Meeting gehabt. Sie sollten uns vorschlagen, wie man eine LLM mit unserem sehr fachspezifischen know-how trainiert werden könnte. Sowohl mein Chef als auch ich waren von deren fundierten Vorschlägen sehr angetan.

Mir erschließt es sich deshalb nicht, warum man die selben Möglichkeiten nicht auch von Beginn an Azubis und Umschüler:innen ermöglichen sollte?

Am 2.2.2026 um 15:30, Mysteryland hat gesagt:

Ich möchte noch mal auf die Sicht von @hellerKopf zurückkommen, der ja hier schon beschrieben hat, das die Nutzung von KI während des Studiums an einigen Hochschulen bereits geregelt ist.

Warum sollte man hier angehende Fachinformatiker:innen während einer Ausbildung/Umschulung nicht gleichsetzen?

An einigen Hochschulen geregelt? Ja, vielleicht. Aber so geregelt, dass LLMs in Prüfungen nach freiem belieben eingesetzt werden können? Das wird kaum irgendwo der Fall sein.

Daher wäre meine Frage, an welcher Stelle genau das in die Ausbildung eingebaut werden sollte. Die Ausbildung soll doch genau dafür sein, die Grundlagen zu verstehen, auf denen unsere digitale Welt basiert. Wo genau bleibt bitte das Verständnis, wenn man das Nachdenken an eine Maschine auslagert.

Ich bin für den Einsatz von solchen Hilfswerkzeugen, auch schon deshalb, weil sie da sind und man langfristig im Wettbewerb mithalten muss. Aber niemand der Anwesenden hier wird den Standpunkt vertreten, dass man Taschenrechner schon ab der ersten Klasse in der Grundschule einführen sollte "nur weil er halt da ist" und deshalb sollte man meiner Meinung nach LLMs auch nicht für Prüfungen in der Ausbildung nutzen lassen.

  • Autor
vor 11 Minuten, Schliepi hat gesagt:

An einigen Hochschulen geregelt? Ja, vielleicht. Aber so geregelt, dass LLMs in Prüfungen nach freiem belieben eingesetzt werden können? Das wird kaum irgendwo der Fall sein.

Natürlich ist es nicht einfach :"Ihr könnt nach Belieben KI nehmen"
Die Hochschulen machen sich sehr viel Arbeit mit dem Ausarbeiten von Richtlinien.
Er wird abgegrenzt, wo der Einsatz sinnvoll, gewünscht wird und wo er verboten bleibt.
Es gibt auch Beurteilungsregeln für den (vorgeschriebenen) Einsatz.
Darin enthalten ist immer der saubere Umgang mit der Quelle, die gewissenhafte Prüfung der Antwort, eine Reflexion der Ergebnisse und Offenlegen der Prompts.

Das in der Prüfungsordnung enthaltene Element fordert:
- Den Nachweis der Studierende eine aktuelle Technik sinnvoll einsetzen zu können.
- Die Ergebnisse kritisch zu prüfen und Schwachstellen der Antwort zu identifizieren.
- Den Umgang mit KI/LLM innerhalb einer wissenschaftlichen Arbeit fachgerecht umzustezen.

Zentrales Ziel:

"Die Potenziale von KI so einsetzen, dass Lehren und Lernen kreativer, effektiver und individueller wird.
......
Ethische Fragestellungen, Datenschutz und die Gefahr einer Abhängigkeit sind zentrale Aspekte, die beim Einsatz von KI berücksichtigt werden müssen. Besonders wichtig ist die Fähigkeit, KI-generierte Inhalte kritisch zu hinterfragen, um Verzerrungen, Fehlinformationen oder methodische Ungenauigkeiten zu erkennen."
aus -Leitfaden des DigiTeach-Instituts- Hochschule Bochum


Welche von diesen Zielen sollte man den Auszubildenden anderer Qualitätsstufen vorenthalten?

Bearbeitet von hellerKopf

vor 6 Minuten, hellerKopf hat gesagt:

Die Hochschulen machen sich sehr viel Arbeit mit dem Ausarbeiten von Richtlinien.
Er wird abgegrenzt, wo der Einsatz sinnvoll, gewünscht wird und wo er verboten bleibt.
Es gibt auch Beurteilungsregeln für den (vorgeschriebenen) Einsatz.

Du hast ja ganz sicher deine Erfahrungen gemacht und das möchte ich dir nicht absprechen. Aber es ist nicht redlich hier von "die Hochschulen" zu sprechen, als ob dies eine geschlossene Gruppe mit abgeschlossener Meinungsbildung wäre. Es mag einzelne, insbesondere private Hochschulen geben, die solche Schritte gehen, aber es ist ganz sicher nicht die breite Masse. Wenn du es so formulierst wirkt das allquantifizierend und davon kann keine Rede sein.

Auch wenn ich dabei mein Gebiet etwas verlasse: Vorgeschriebener Einsatz halte ich nur schwer mit der Freiheit von Forschung und Lehre vereinbar. Aber wie gesagt, das ist nur meine Einzelmeinung.

Immerhin sollten wir zumindest nicht so tun, als ob das alles in "den Hochschulen" schon geklärt wäre, nur weil es erste Gehversuche (mit unbekanntem Ausgang) gibt, solche Werkzeuge in ein Curriculum zu integrieren.

  • Autor

OK, ich akzeptiere,

vor 1 Stunde, Schliepi hat gesagt:

Aber es ist nicht redlich hier von "die Hochschulen" zu sprechen, als ob dies eine geschlossene Gruppe mit abgeschlossener Meinungsbildung wäre.

dass wir jetzt von verschiedene Ausgangspunkten argumentieren.

Du: Es sind nicht alle,
Ich: es sind schon viele,

Ich bin da nicht ganz ohne eigene Positionierung, zugegeben.
Ich bin an einer dieser "privaten" Hochschulen tätig.
Ich kenne aber auch mehrere öffentliche Hochschulen, die das Thema aktiv angehen.
Konkrete Beispiele, die die Diskussion versachlichen können sind z.B.

https://www.macromedia-fachhochschule.de/de/hochschule/ueber-uns/news/chat-gpt-und-pruefungswesen-hochschule-macromedia-legalisiert-nutzung/
oder
https://www.macromedia-fachhochschule.de/de/hochschule/ueber-uns/news/auf-der-republica-macromedia-erhaelt-innovationspreis-gemeinsam-wird-es-ki/

oder
https://www.hochschule-bochum.de/studieren-mit-ki/ /

Da wir hier aber ein Fachforum für Fachinformatiker sind, will ich zur Diskussion stellen, ob sich in der dualen Ausbildung derart aktuelle ausblenden lassen. Oder ob man die Chancen für Fachinformatikern nicht schmälert, wenn nur die Studis professionell an KI herangeführt werden.

Und deshalb war dies mein Grund, den Thread zu starten.

Wie sieht es denn bei Fachinformatiker in Beruf und Ausbildung aus?
Dass es nebenbei zu einer Diskussion über KI wird, ist mir klar.

Bearbeitet von hellerKopf

vor 6 Minuten, hellerKopf hat gesagt:

dass wir jetzt von verschiedene Ausgangspunkte argumentieren.

Ja, das ist genau richtig.

Es ist richtig, dass Hochschulen damit beginnen einen Umgang mit KI bei häuslichen Arbeiten wie Seminar- und Hausarbeiten zu finden. Keine Hochschule würde verbieten, KI zu verwenden, um beim Lernprozess zu unterstützen, nur dass dies eben auf eigene Gefahr passiert.

Warum ich mich hier jedoch einklinke ist das verzerrte Bild, welches diese Aussage hier erzeugt:

Am 30.1.2026 um 11:19, hellerKopf hat gesagt:

Aber korrekt ist: Manche Hochschulen erzwingen den Gebrauch von KI/LLM
Als Hochschullehrer kann ich dir sagen: "Wer bestimmte Projektarbeiten ohne KI erstellt, kann keine 1 mehr erreichen."
Wir schreiben bei bestimmten Fächern einen KI Anteil von bis zu 15% vor.
Allerdings haben wir auch ein sehr umfangreiches Regelwerk für den Einsatz von KI entwickelt.

Es ist etwas völlig anderes, wenn sich eine private oder staatliche Hochschule nicht völlig der KI versperrt oder Methoden suchen, einen sinnvollen Umgang damit zu finden. Dies zeigt auch dein Beispiel von der Hochschule Bochum. Ich würde auch behaupten, dass es mehrheitlich an den Hochschulen den Konsens gibt, dass auch aus rechtlichen Gründen die Anwendung von KI nicht grundsätzlich untersagt werden kann.

Es ist aber etwas völlig anders, dass der Einsatz vorgeschrieben ist, erwartet wird oder gar Voraussetzung für eine Bestnote ist. Das nur allein mit "KI" überhaupt eine 1.0 erreicht werden kann, mag auf einer einzelnen pay2win Hochschule der Fall sein, ist es aber bei einer staatlichen Hochschule mitnichten. Sorry, dass ich das so klar formulieren muss.

Ich will an dieser Stelle nicht persönlich werden, aber wer sich als Hochschullehrer bezeichnet, was man rechtlich (mit wenigen Ausnahmen in vereinzelten Bundesländern) nur als Professor oder Privatdozent nach einer Habilitation ist, sollte meiner Meinung nach nicht ein so falsches Licht auf die Hochschullehre werfen.

  • Autor
vor 21 Minuten, Schliepi hat gesagt:

Ich will an dieser Stelle nicht persönlich werden, aber wer sich als Hochschullehrer

Ich werde mir etwas Zeit nehmen und dir eine PN zusenden.
Danach können wir hier vielleicht konstruktiv weitermachen.

Hoffe, das man das Thema hier konstruktiv und ohne persönlich zu werden weiter diskutieren kann.

Schließe mich hier ganz klar dem Statement von @hellerKopf an.

Bin aktuell Ausbildungsbetreuer (nicht Ausbilder):

- für 5 angehende Abiturienten wovon 3 entweder Dual oder Vollzeit IT studieren wollen.
- für 1 Umschüler Anwendungsentwicklung (AE) - welcher vorher schon einen IHK Abschluss erreicht hat
- perspektivisch für Auszubildende ab Sommer 2026

Muss und werde hier nicht differenzieren, für wen der Einsatz von KI erlaubt ist oder nicht. Natürlich wird bei Azubis, welche frisch von der Schule kommen mehr Wert darauf gelegt - zuerst die Basics zu vermitteln.

Wenn diese dann verstanden/verinnerlicht wurden erfolgt dann selbstverständlich der verantwortungsbewusste Einsatz von KI/LLMs bereits während der Ausbildung.

Die Möglichkeit das den Azubis vorzuenthalten - ist nach meiner persönlichen Meinung damit gleichzustellen, das ihnen dadurch die Zukunfts-Perspektiven genommen werden.

Hierzu lasse ich mich auch gerne von der Contra-Fraktion "teeren und federn" oder "grillen" 😉

Bearbeitet von Mysteryland

Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.

Konto

Navigation

Suchen

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.