Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Empfohlene Antworten

Veröffentlicht

Einen wunderschönen guten morgen hier am Montag, starten wir doch gleich mit etwas Moral und Technik in die Woche.

Wir leben in einer Welt, in der Daten zur Währung geworden sind, Staaten und Konzerne träumen von absoluter Kontrolle.

Was genau hat jetzt Künstliche Intelligenz damit zu tun?

Sie kann Bewegungen analysieren, Emotionen lesen, Kommunikationsmuster auswerten... und angeblich sogar erkennen, wer ein Verbrechen begehen KÖNNTE. Diese Vorstellung ist gefährlich, denn sie öffnet meiner Meinung nach die Tür zu einer neuen Form der digitalen Diktatur. Die entscheidende Frage lautet nicht mehr, ob eine KI Verbrechen verhindern kann, sondern was sie dafür opfern darf. Unsere Freiheit?

Befürworter argumentieren, dass Überwachung Leben retten kann... Eine KI, die auffälliges Verhalten erkennt, könnte Terroranschläge verhindern, Kriminelle stoppen und Menschen schützen. Klingt nach Sicherheit... doch zu welchem Preis? Wenn jeder Schritt, jede Nachricht und jedes Gesicht analysiert wird, entsteht kein Gefühl von Sicherheit, sondern von permanenter Beobachtung. Menschen verhalten sich anders, wenn sie wissen, dass sie überwacht werden... vorsichtiger, angepasster, stiller. Eine Gesellschaft, die ständig beobachtet wird, verliert ihr Rückgrat. Freiheit stirbt nicht von heute auf morgen, sondern langsam... im Namen der Sicherheit.

Noch gefährlicher ist die Macht, die hinter dieser Technologie steht. Wer kontrolliert die KI? Wer entscheidet, was "verdächtiges Verhalten" ist?

Eine Regierung, die einmal solche Systeme installiert hat, wird sie kaum wieder abschaffen. Daten können manipuliert und Menschenprofile erstellt werden alles automatisiert, alles scheinbar objektiv. So entsteht Überwachung, die nicht mehr als Repression wahrgenommen wird, weil sie technisch sauber aussieht. Aber... Sauberkeit Moral.

Und was, wenn die KI Fehler macht? Wenn sie aufgrund von Vorurteilen oder fehlerhaften Trainingsdaten unschuldige Menschen als Gefahr einstuft? Maschinen kennen kein Mitgefühl, keine Empathie, keine zweite Chance. Sie verurteilen in Millisekunden, ohne zu verstehen. Wer glaubt, man könne Ethik in Code schreiben, hat Ethik nicht verstanden.

Das eigentliche Problem ist, dass Sicherheit zur Ausrede geworden ist.. ein Vorwand, um Kontrolle zu legitimieren. Wer sagt "Ich habe nichts zu verbergen", akzeptiert das Prinzip der Überwachung. Eine freie Gesellschaft braucht Vertrauen, nicht Misstrauen. Sie braucht Verantwortung, nicht Kontrolle.

Wenn eine KI Verbrechen verhindern will, indem sie uns alle zu Verdächtigen macht, dann hat sie das Ziel bereits verfehlt. Eine Welt, in der niemand mehr ein Risiko ist, ist auch eine Welt, in der niemand mehr wirklich frei ist. Die größte Gefahr geht also nicht von der KI selbst aus, sondern von unserer Bereitschaft, ihr alles zu erlauben.

  1. Ist "Ich habe nichts zu verbergen" ein legitimes Argument, oder ein gefährlicher Denkfehler?

  2. Wie zuverlässig sind Vorhersagen einer KI, wenn menschliches Verhalten komplex und unvorhersehbar ist?

Ich wünsche euch allen einen entspannten Arbeitstag. <3

Minority Report ich hör dir trapsen... gut dort war es Parapsychologie und keine KI... das erschien 1956 vermutlich realer als eine KI D

Die KI sagt dazu im übrigen folgendes: ;)

Ist „Ich habe nichts zu verbergen“ ein legitimes Argument oder ein gefährlicher Denkfehler

„Ich habe nichts zu verbergen“ ist ein irritierend unvollständiges Argument, das wichtige demokratische und soziale Aspekte ausblendet. Das Argument ignoriert, dass Privatsphäre nicht nur das Verbergen von Schuldhaftem schützt, sondern die Autonomie, Selbstdarstellung, das Recht auf Fehler und die Unabhängigkeit politischer Opposition sichert. Massendatenerhebung schafft Informationsasymmetrien: staatliche oder kommerzielle Akteure wissen mehr über Einzelne als umgekehrt, was Machtungleichgewichte verstärkt und Erpressbarkeit, Diskriminierung oder politische Verfolgung ermöglicht. Selbst harmlose oder damals unbedenkliche Daten können später gegen Personen verwendet werden; gesellschaftliche Normen ändern sich, und historische Datenspuren haben Folgen für Arbeit, sozialem Status und politische Teilhabe.

Schlussfolgerung: „Ich habe nichts zu verbergen“ ist kein überzeugender Rechtfertigungsgrund für breitflächige Überwachung; Grundrechte und Demokratie verlangen statt dessen Verhältnismäßigkeit, Kontrolle, Transparenz und die Möglichkeit des Vergessens.

Wie verlässlich sind KI‑Vorhersagen über menschliches Verhalten

KI‑Modelle können Muster in sehr großen, standardisierten Datensätzen erkennen und daraus Vorhersagen treffen; in jüngsten Studien erreichen solche Modelle bei Laboraufgaben eine Vorhersagegenauigkeit von rund 60–64 Prozent. Diese Resultate zeigen, dass KI in eng definierten, wiederholbaren Experiment‑Szenarien brauchbare Voraussagen liefern kann. Die Übertragbarkeit dieser Genauigkeit auf komplexe Alltags‑ oder sozial dynamische Situationen ist jedoch begrenzt, weil die Trainingsdaten oft nur einen fragmentarischen, westlich geprägten Ausschnitt menschlichen Verhaltens abbilden. Genauigkeit allein ist kein Maß für Ungefährlichkeit: 60–64 Prozent bedeuten viele Fehlentscheidungen, und im realen Einsatz führen Fehler zu falschen Verdächtigungen, Diskriminierung und Vertrauensverlust. KI‑Vorhersagen sind anfällig für Verzerrungen in den Trainingsdaten, mangelnde Kontextsensitivität, adversariale Manipulation und Verallgemeinerungsfehler, außerdem lassen sich Vorhersagen instrumentalisieren, um Verhalten zu steuern statt nur zu schützen.

Praxisfolgen: Vorhersageergebnisse benötigen menschliche Überprüfung, transparente Kriterien, robuste Fehlerabschätzungen und rechtliche Audits bevor sie in sicherheitsrelevanten Entscheidungen eingesetzt werden dürfen.

  • Autor
vor 1 Stunde, AVEN hat gesagt:

Die KI sagt dazu im übrigen folgendes

Danke für deinen Beitrag Aven,

aber ich hatte Hoffnung auf eigene (DEINE) Ansichten und Meinungen. Wenn mich die Antwortdaten die in der KI hinterlegt sind.. interessieren würden, dann hätte ich das doch KI geschrieben und nicht hier in das Forum. 🙄

Mein Ziel mit diesen diskusions Vorlagen ist es, dass wir uns hier alle mehr unterhalten, kennenlernen und austauschen. Jeder seine Ansicht frei äußern kann, und andere darauf Pro oder Kontra aufbauen. 😮💨🫱🏼‍🫲🏽

Oh keine Sorge... erschreckender Weise gehe ich mit der Meinung der KI ziemlich d'accord, sonst hätte ich das nicht nur mit einem ";)" sondern auch entsprechend in meinem Post kommentiert...

Und nur weil ich nix zu verbergen hab, muss jch ja nicht gleich all meine Rechte über Bord werfen... die gründliche Prüfung der KI Entscheidung ist bei einer Erfolgsquote von ~60% eh unumgänglich, da das Ganze sonst ziemlich schnell mit einem In dubio pro reo enden dürfte...

Ich verstehe nur nicht, welche Diskussion du hier wirklich anstoßen willst. Diese Diskussion führt man schon seit über 10 Jahren und es wird dazu wohl auch keine neuen Erkenntnisse mehr geben, weil schon alles gesagt wurde, was man dazu sagen kann.

2014 hat das EuGH entschieden, dass die Vorratsdatenspeicherung gegen die EU-Grundrechte verstößt.
2018 hat das EGMR (Europäische Gerichtshof für Menschenrechte) entschieden, dass die Massenüberwachung des brittischen Geheimdienstes gegen die Menschenrechtskonvention verstößt.

Klar, versuchen Politiker, es immer so hinzubiegen, dass eine anlasslose Massenüberwachung nötig und wichtig sei, aber sie sind schon mehrmals damit auf die Nase gefallen, und wahrscheinlich werden sie damit auch irgendwann durchkommen. Es ist nun mal ein sehr schwieriges Thema und es ist egal auch, in welche Richtung das Urteil gefällt wird. Verlierer sind immer die, die eigentlich in Ruhe leben wollen und schon versuchen, sich an die Gesetze zu halten. Es ist nun mal so, wie die Prinzen es mal treffend formulierten: "Du musst ein Schwein sein, in dieser Welt."

Wir hatten in der Oberstufe eine Lektüre "The Circle" bzgl. totaler Überwachung der großen Internetkonzerne (Utopie).

Da war sich auch jeder einig, dass die Grundsätze (verhindern von Straftaten, Anschlägen etc.) zwar moralisch "richtig" sind, aber das was man verliert deutlich überwiegt, wie hier schon richtig angebracht:

vor 4 Stunden, AVEN hat gesagt:

Das Argument ignoriert, dass Privatsphäre nicht nur das Verbergen von Schuldhaftem schützt, sondern die Autonomie, Selbstdarstellung, das Recht auf Fehler und die Unabhängigkeit politischer Opposition sichert.

Und ob jetzt eine KI oder ein Mensch die Daten analysiert ist mMn. zweitrangig. Die KI macht es vermutlich wesentlich schneller und kann so bessere "Profile" erstellen, aber die Konsequenzen bleiben ja gleich. Wenn die KI nur mit den Daten arbeitet, die ein Geheimdienst oder Ähnliches sowieso schon zur Verfügung hat, ist es wie gesagt egal, da sie nur das Werkzeug ist welches Muster erkennt und nach Schema XY konfiguriert wurde.

Für mich ist hier also eher Thema, ob man eine totale Überwachung zulässt oder nicht.

Es ist natürlich ein eher komplexes Thema, aber ich fände so etwas nicht gut.

Bearbeitet von Malgus

Es gilt zu verhindern, daß solche oder ähnliche Dinge jemals Realität werden, auch wenn wir stellenweise schon auf einem sehr guten(schlechten) Weg dahin sind.
Von der von der Krankenkasse mitfinanzierten Fitnesswatch hin zu "Sie haben in den letzten sechs Monaten folgende Lebensmittel gekauft und konsumiert sowie folgenden Lebenswandel geführt, weswegen die nunmehr erforderliche medizinische Behandlung nicht finanziert wird" ist es nur ein verhältnismäßig kleiner Schritt.

Zu dem von dir angebrachten Gedankenexperiment:

Die "KI" wird in einem solchen Fall ja größtenteils als Mustererkennung durchgeführt. Beispiel: Ein Mensch bricht auf der Straße zusammen/fällt hin. 99/100 Menschen gehen einfach weiter. Das ist das Muster, welches trainiert wird. Wenn jetzt das Training nach 98 Vorfällen beendet wurde, wird die KI bei dem ersten, der hilft, Alarm schlagen und (worst case) derjenige direkt von Robotern/Polizisten/Whatever festgenommen und zu (Filmtip!) Soylent Green* verarbeitet.

Falsches trainieren von Mustern ist sehr häufig.

LG

_____
* Soylent Green: Film, 1973
deutsch: "Jahr 2022 – die überleben wollen"

Am 6.10.2025 um 07:59, LunyXr3 hat gesagt:
  1. Ist "Ich habe nichts zu verbergen" ein legitimes Argument, oder ein gefährlicher Denkfehler?

  2. Wie zuverlässig sind Vorhersagen einer KI, wenn menschliches Verhalten komplex und unvorhersehbar ist?

Ich wünsche euch allen einen entspannten Arbeitstag. <3

1: Halte ich für absolut fahrlässig. In keinster Art & Weise stellt das ein legitimes Argument dar. Denn jeder von uns hat etwas zu verbergen/schützen - nämlich seine Privatssphäre.

2: Aufgrund der Tatsache, dass die Psyche des Menschen nicht wie ein Naturgesetz kausal wirkt und nicht (wie in Teilen die Natur) deterministisch ist => 0.

Und zum letzten Satz und der, der mir am besten Gefallen hat: Dir auch einen entspannten Arbeitstag! :)

Gruß,

Chris

Am 6.10.2025 um 07:59, LunyXr3 hat gesagt:

Ist "Ich habe nichts zu verbergen" ein legitimes Argument, oder ein gefährlicher Denkfehler?

Es ist ein gefährlicher Denkfehler. Unwissenheit schützt vor Strafe nicht und wenn man lange und gründlich genug sucht, findet man bei jedem etwas, gerade wenn man anfängt ein paar Dinge zu verdrehen. Es gab genügend Vorfälle in den News, in denen Leute einfach nur Teil einer Chat-Gruppe war in denen Sachen geteilt wurden, die nicht gänzlich erlaubt waren. Bei Discord wurden Mods zur Rechenschaft gezogen, die nicht mal wussten, dass sie Mods auf den jeweligen Servern waren.

Sollte ein Automatismus existieren, wird die Zahl von Erfassten unfassbar steigen und ohne manuelle Arbeit kommt man hier sowieso nicht vorbei.

Am 7.10.2025 um 08:11, Tastenschlag112 hat gesagt:

Wie zuverlässig sind Vorhersagen einer KI, wenn menschliches Verhalten komplex und unvorhersehbar ist?

Ich denke ein vergleichsweiser großer Teil lässt Menschen in gewisse Schubladen stecken. Ich denke eine entsprechende KI ist durchaus fähig gewisse Marker setzen zu können.

Der Anime "Psycho Pass" zeigt eine Analyse menschlicher Psyche im Zusammenhang mit Gewaltbereitschaft inkl. deren Täuschung. Lange nicht gesehen und ist natürlich keine wissenschaftliche oder nützliche Information, allerdings fande ich das schon relativ cool.

Andererseits bin ich ein bisschen "positiv" gestimmt was Straftaten in China angeht. Hat zwar wenig mit KI zu tun, aber interessant bleibt es, dass Täter innerhalb kürzester Zeit bekannt und gefasst sind.

  • Autor
vor 50 Minuten, Asura hat gesagt:

Chat-Gruppe war in denen Sachen geteilt wurden, die nicht gänzlich erlaubt waren.

Ohh yes, das kenne ich nur zu gut, aus einer WhatsApp Gruppe damals (Habe nie reingeschaut). Bei uns stand dann um 5.30 Uhr das KSK vor der Tür und meine Karte lief damals auf meinen Papa. War nicht so toll, die Anschuldigungen die er damals bezüglich dies bekam..

vor 53 Minuten, Asura hat gesagt:

Der Anime "Psycho Pass"

Ich schaue tatsächlich gar keine Animes, vielleicht sollte ich da mal reinschauen. Dankeschön.

Am 7.10.2025 um 08:11, Tastenschlag112 hat gesagt:

Dir auch einen entspannten Arbeitstag! :)

Dankeschön. :))

Am 6.10.2025 um 21:13, Dakta hat gesagt:

NEIN zur EU Chatkontrolle!

Mhhh... mit welchen Argumenten? haha

Am 6.10.2025 um 18:04, VenomVelvet hat gesagt:

Falsches trainieren von Mustern ist sehr häufig.

True, aber wer bestimmt, was ein Indiz sein könnte?? UND VORALLEM... wer steht für die Fehler der KI im Nachhinein dann grade ?...

vor 50 Minuten, LunyXr3 hat gesagt:

Ich schaue tatsächlich gar keine Animes, vielleicht sollte ich da mal reinschauen. Dankeschön.

Ich würde definitiv andere empfehlen^^

Das Hauptaugenmerk lag nicht darauf, offensichtlich, aber es wurden Kameras zur Überwachung verwendet und sobald jemand Anzeichen von Aggressionen oder Verbrechen hatte, wurde die Person proaktiv in Gewahrsam genommen. Das erinnerte mich sehr stark an die Frage "Ki Verbrechen verhindern", daher war es lediglich eine Randnotiz.

Im Endeffekt ist es das, was sich viele durch eine Überwachung erhoffen.

vor 53 Minuten, LunyXr3 hat gesagt:

True, aber wer bestimmt, was ein Indiz sein könnte?? UND VORALLEM... wer steht für die Fehler der KI im Nachhinein dann grade ?...

Ein großes Problem, wozu mir auch in der Theorie keine Lösung einfällt, sehe ich in kontextbezogenen Aussagen. Zitate die out of context sind Sorgen beinahe täglich für Aufsehen, kommt dazu der menschliche Hang zu Sarkasmus und Ironie, werden aus deratigen Aussagen sehr schnell Erkennungen, denen wahrscheinlich jemand nachgehen müsste.

Gerade stehen? Das wäre erst bei anderen Situationen angebracht. "whoops, es war ein Fehler, aber selbst schuld bei deinem Verhalten/Ausdrucksweise" klingt eher nach einem Umgang der danach geschehen würde.

Das ist ein zweischneidiges Schwert, das eher in Richtung "nein, machen wir nicht" tendiert. Die Vorteile sind gegeben, aber damit leider auch starke Nachteile, die keine wirkliche Lösungen haben (nach deutschen Standards). Ich denke aber auch, dass viele Leute nicht wissen, dass ihr Leben bereits ausführlich dokumentiert und zerlegt ist, dass sie nicht so "unsichtbar" sind wie sie denken in ihrem Alltag.

Ich musste mich vor Jahren mit der Thematik auseinander setzen, ob es möglich ist ein Bewegungs- und Arbeitsprofil eines Mitarbeiters zu erstellen, sobald er mit seinen Devices durch das Betriebsgelände roamed.. Stell dir Diskussionen vor, wenn eine KI Verhaltensanalysen fährt ohne deine Zustimmung.

ChatGPT meldet diverse Inhalte, die durch Mustererkennung als kritisch gesehen werden. Gewaltandrohungen, dedizierte Planungen für Terror, Baupläne für Waffen und diverses mehr.

Ahhh ... nun geraten wir in die Überwachungsthematik.

vor 3 Stunden, spix hat gesagt:

Die Vollüberwachung gibts schon seit Jahrzehnten in BRD

Wie belegt ? Oder besser gar nicht weiter ausführen. Der CCC ist an dem Thema schon lange dran und eine Diskussion hierzu führt zwangsläufig zu Ausschweifungen

Am 6.10.2025 um 07:59, LunyXr3 hat gesagt:
  1. Ist "Ich habe nichts zu verbergen" ein legitimes Argument, oder ein gefährlicher Denkfehler?

  2. Wie zuverlässig sind Vorhersagen einer KI, wenn menschliches Verhalten komplex und unvorhersehbar ist?

Ich halte beides für rhetorische Fragen ... und ich persönlich weigere mich mit KI zu arbeiten wenn ich nicht muss.

  • Autor
vor 2 Stunden, charmanta hat gesagt:

ich persönlich weigere mich mit KI zu arbeiten wenn ich nicht muss.

Weil du auch Wert auf nachdenken und eigene Leistung legst?... oder weshalb?

Zwar kann Künstliche Intelligenz Prozesse beschleunigen, aber ich finde es nimmt auch den Raum für Kreativität und vor allem bei manchen Personen offensichtlich das kritische Hinterfragen (was sehr traurig ist). Wenn alles automatisiert wird, verlernen viele, selbst Lösungen zu entwickeln. Außerdem steht hinter vielen KI-Systemen eine fragwürdige Datennutzung, die Transparenz und Verantwortung vermissen lässt... Ich will verstehen, was ich tue und nicht nur Ergebnisse konsumieren.

Der bewusste Verzicht auf KI ist meiner Meinung nach keine Ablehnung von Fortschritt, sondern ein Statement für Selbstständigkeit und Kontrolle über das, was ich erschaffe.

vor 6 Stunden, spix hat gesagt:

Die Vollüberwachung gibts schon seit Jahrzehnten in BRD. Man darf die Erkenntnisse aber eben nicht so nutzen, wie man es braucht.

Wer überwacht die Überwacher?

Naja ...das größte Problem ist nicht mal die Überwachung selbst... sondern die fehlende Transparenz darüber, wer Zugriff hat, wofür die Daten wirklich genutzt werden und wie lange sie gespeichert bleiben. Viele vertrauen darauf, dass staatliche Stellen im Sinne der Demokratie handeln, aber das System ist in sich "geschlossen". Die sogenannten Kontrollinstanzen.. P-Gremien, Datenschutzbeauftragte oder Gerichte.. die haben meistens nur begrenzten Einblick und noch weniger Macht, wirklich etwas zu stoppen. Des ist wie eine Alarmanlage, die piept, nachdem längst eingebrochen wurde.

Und dann kommt deine bittere Frage... die ich total spannend finde... Wer überwacht eigentlich die Überwacher?
Ich denke niemand wirklich. Die, die kontrollieren sollen, sind Teil derselben "Struktur". Sie sind abhängig von denselben Informationen, die sie prüfen sollen. Es gibt keine unabhängige, wirklich neutrale Instanz, die in diesem Fall über allem steht... und genau das öffnet Tür und Tor für Machtmissbrauch. Ich finde, das ist der Punkt, an dem man sich nichts mehr vormachen sollte. Datenschutz in Deutschland ist leider nur noch eine schöne Fassade, hinter der längst ein gigantisches Datennetzwerk läuft.. staatlich, wirtschaftlich und digital perfekt verknüpft. Die Technologien entwickeln sich schneller als die Gesetze, und während die Politik noch über Reformen debattiert, sind längst Datenmengen im Umlauf, die keiner mehr richtig kontrollieren kann.. That's it..

Es braucht Transparenz, unabhängige Kontrolle und vor allem auch Konsequenzen, wenn Grenzen überschritten werden. Sonst reden wir nicht mehr von Schutz, sondern von Macht.. und naja Macht, die keiner hinterfragt, war noch nie harmlos...

vor 24 Minuten, LunyXr3 hat gesagt:

Weil du auch Wert auf nachdenken und eigene Leistung legst?... oder weshalb?

Ich persönlich hasse es, mit einer KI zu arbeiten. Das hat nichts mit Wert auf Nachdenken zu tun, sondern schlicht und ergreifend, weil da überwiegend Müll auskommt. Viel Müll.

Ich verprobe im Unternehmen gerade das Arbeiten mit KI-Agenten und es ist zum Heulen. Bei Kompilierfehlern wird einfach der Code gelöscht. Bei Authorisierungsproblemen mit unseren internen Nuget-Feeds, will er einfach mal dubiose Powershell-Skripte runterladen und ausführen, oder die Nuget-Config wird einfach mal gelöscht. Da bringt es mir auch nichts, wenn ich vorher gefragt werde, ob ich der Aktion zustimme, wenn ich nicht weiß, was dieses Powershell-Skript macht.

Einige Tools verstehen auch z.B. nicht, dass wir Windows verwenden und nicht Linux und deswegen grep nicht funktioniert. Selbst bei Trivialanwendungen, wie z.B. die Ausgabe der Fibonacci-Reihe auf der Konsole wird so viel Müll produziert. Beim Unittest wird die Logik dann einfach mal kopiert.

Man muss auch der KI auch Kontext mitgeben, ansonsten macht sie, was sie will, aber bloß nicht zu viel Kontext, sonst fängt sie an zu halluzinieren. Es ist so, als würde man einen beratungsresistenten Azubi betreuen, der einfach nichts dazu lernt und in jedem neuen Chat von Vorne anfängt. Wer will sich denn wirklich sowas tagtäglich 8 Stunden lang geben? Der generierte Code ist auch so viel, sodass man kognitiv komplett überfordert ist und sich denkt: "Ach, passt schon." und es einfach abnickt. Das habe ich jetzt schon bei einigen Mitarbeitern erlebt.

Auch was andere Themenbereiche außerhalb des Codes aussieht, sieht es mMn nicht besser aus. Unser PO hat angefangen, User Stories per KI zu schreiben. Das sind riesige Texte ohne Inhalt. Woher soll der Inhalt auch kommen, wenn der Prompt gerade mal aus zwei Zeilen Text besteht? Ja, die KI könnte dann automatisch User Stories im Ticketsystem anlegen, aber ich habe das Gefühl, dass die Kontrolle, ob die Tickets vollständig angelegt worden sind, die gewonnene Zeit wieder vernichtet.

Man mutiert zum Kindergärtner digitaler Kleinkinder, die zu viel Macht haben und das finde ich fürchterlich.

Interessant finde ich auch diese Studie, die herausfand, dass lediglich nur 250 schädliche Dokumente reichen, um ein LLM stark zu schädigen. Egal, wie groß das LLM dahinter ist. Ein Botnetz, das Github-Repositories erstellt und sich gegenseitig mit Sterchen pusht, reicht also schon völlig aus:

No image preview

A small number of samples can poison LLMs of any size

Anthropic research on data-poisoning attacks in large language models

Bearbeitet von Whiz-zarD

vor 2 Stunden, LunyXr3 hat gesagt:

Weil du auch Wert auf nachdenken und eigene Leistung legst?

Jupp. Ich sehe immer wieder dass hier Azubis meinen Erfahrung durch KI zu ersetzen und dass bei Expertenwissen. Das kann nicht klappen und die Ergebnisse der KI, die geraten sind, werden nicht als solche markiert.

vor 1 Stunde, Whiz-zarD hat gesagt:

weil da überwiegend Müll auskommt. Viel Müll.

das ist das nächste. Aber eben nicht als solcher markiert

vor 1 Stunde, Whiz-zarD hat gesagt:

Man mutiert zum Kindergärtner digitaler Kleinkinder, die zu viel Macht haben und das finde ich fürchterlich.

Geile Formulierung, der ich mich vollumfänglich anschliesse D

Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.