Reputationsaktivität
-
LunyXr3 hat auf t1nk4bell in Flipper ZeroStimmt. Da hast du völlig Recht.
Ich kann packete abgreifen, Handshakes erzwingen also wäre es reines Glück.
Das kann jeder handelsüblichen PC allerdings auch mit tools..
-
LunyXr3 hat auf t1nk4bell in Flipper ZeroSeriös wirst du wohl die 190-250 Euro einplanen Müssen. Alles was günstiger wäre ist wahrscheinlich Herkunfts problematisch außer du kannst jemanden der seinen verkaufen möchte.
Naja was macht man praktisch damit... Spielen und verstehen. Das war es eigentlich. Außer du hast die Intention wirklich was böses zu tuen was natürlich ein Problem wäre. Du hast die meisten Funktionalitäten schon genannt. Genau das macht man damit.
Nfcs emulieren, Wetterstationen anzapfen, den TV des nachbarns leiser drehen... Wifis Knacken, Bluetooth unsinn Machen, Signale manipulieren usw usw usw
Unterm Strich macht das Ding Spaß und wenn man sich damit beschäftigen möchte kann man damit auch durchaus was lernen.
-
Jupp. Ich sehe immer wieder dass hier Azubis meinen Erfahrung durch KI zu ersetzen und dass bei Expertenwissen. Das kann nicht klappen und die Ergebnisse der KI, die geraten sind, werden nicht als solche markiert.
das ist das nächste. Aber eben nicht als solcher markiert
Geile Formulierung, der ich mich vollumfänglich anschliesse
-
Ich persönlich hasse es, mit einer KI zu arbeiten. Das hat nichts mit Wert auf Nachdenken zu tun, sondern schlicht und ergreifend, weil da überwiegend Müll auskommt. Viel Müll.
Ich verprobe im Unternehmen gerade das Arbeiten mit KI-Agenten und es ist zum Heulen. Bei Kompilierfehlern wird einfach der Code gelöscht. Bei Authorisierungsproblemen mit unseren internen Nuget-Feeds, will er einfach mal dubiose Powershell-Skripte runterladen und ausführen, oder die Nuget-Config wird einfach mal gelöscht. Da bringt es mir auch nichts, wenn ich vorher gefragt werde, ob ich der Aktion zustimme, wenn ich nicht weiß, was dieses Powershell-Skript macht.
Einige Tools verstehen auch z.B. nicht, dass wir Windows verwenden und nicht Linux und deswegen grep nicht funktioniert. Selbst bei Trivialanwendungen, wie z.B. die Ausgabe der Fibonacci-Reihe auf der Konsole wird so viel Müll produziert. Beim Unittest wird die Logik dann einfach mal kopiert.
Man muss auch der KI auch Kontext mitgeben, ansonsten macht sie, was sie will, aber bloß nicht zu viel Kontext, sonst fängt sie an zu halluzinieren. Es ist so, als würde man einen beratungsresistenten Azubi betreuen, der einfach nichts dazu lernt und in jedem neuen Chat von Vorne anfängt. Wer will sich denn wirklich sowas tagtäglich 8 Stunden lang geben? Der generierte Code ist auch so viel, sodass man kognitiv komplett überfordert ist und sich denkt: "Ach, passt schon." und es einfach abnickt. Das habe ich jetzt schon bei einigen Mitarbeitern erlebt.
Auch was andere Themenbereiche außerhalb des Codes aussieht, sieht es mMn nicht besser aus. Unser PO hat angefangen, User Stories per KI zu schreiben. Das sind riesige Texte ohne Inhalt. Woher soll der Inhalt auch kommen, wenn der Prompt gerade mal aus zwei Zeilen Text besteht? Ja, die KI könnte dann automatisch User Stories im Ticketsystem anlegen, aber ich habe das Gefühl, dass die Kontrolle, ob die Tickets vollständig angelegt worden sind, die gewonnene Zeit wieder vernichtet.
Man mutiert zum Kindergärtner digitaler Kleinkinder, die zu viel Macht haben und das finde ich fürchterlich.
Interessant finde ich auch diese Studie, die herausfand, dass lediglich nur 250 schädliche Dokumente reichen, um ein LLM stark zu schädigen. Egal, wie groß das LLM dahinter ist. Ein Botnetz, das Github-Repositories erstellt und sich gegenseitig mit Sterchen pusht, reicht also schon völlig aus:
A small number of samples can poison LLMs of any size
Anthropic research on data-poisoning attacks in large language models -
LunyXr3 hat eine Reaktion von hackbert301009 in Wie lernt ihr eine neue Programmiersprache?Falls es noch interessiert:
Ich lerne gerne Theorie gemischt mit Praxis...
beispielsweise W3schools (Online), Bücher, die beschreiben und dann anweisen, was ich in der Praxis umsetzen soll.... dann versuche ich es immer weniger mit Anweisung Hilfen und dann klappt es immer selbstständiger. auch schreibe ich mir Zettel und klebe die an Möbel in meiner Wohnung oder Dinge, die ich oft benutze... um die Kleinigkeiten auswendig zu lernen. das hab ich bei Datentypen so gemacht gehabt.
-
LunyXr3 hat eine Reaktion von hackbert301009 in Flipper ZeroEinen schönen guten Mittag, ich hoffe, dass Ihr alle gut am Montag in die Woche gestartet seid.
Beim Recherchieren bin ich auf den Flipper Zero gestoßen (überlege zu kaufen) wir haben den auch im Betrieb für Azubis, die sich für Security interessieren… ein kompaktes Hardware‑Multitool für RFID/NFC, Sub‑GHz‑Funk, Infrarot, GPIO und USB‑HID. Technisch hoch beeindruckend. Ich habe mich informiert und Demos angeschaut. Mir reicht nicht nur die technische Seite.. ich will wissen, wie ihr das seht und was ihr praktisch damit macht..
Kennt Ihr irgendwelche Seiten, wo man Ihn unter 200€ bekommt?..
Habt ihr den Flipper? Wenn ja: Welche Firmware, welche Module, erster Eindruck?
Wo habt ihr ihn seriös und günstig gekauft (EU)? Erfahrungen zu Lieferzeit, Zoll oder Support?
Storys? was lief schief oder hat überraschend gut funktioniert?
Sollte der Flipper in Firmen-Toolkits oder in die Hände von Hobby‑Tüftlern? Warum (nicht)?
Irgendwie bin ich total Hype auf das Teil..
Einen ruhigen, bewussten Arbeitstag euch allen. <3
-
LunyXr3 hat auf spix in Wenn eine KI Verbrechen verhindert...Die Vollüberwachung gibts schon seit Jahrzehnten in BRD. Man darf die Erkenntnisse aber eben nicht so nutzen, wie man es braucht.
Wer überwacht die Überwacher?
-
LunyXr3 hat auf Asura in Wenn eine KI Verbrechen verhindert...Ich würde definitiv andere empfehlen^^
Das Hauptaugenmerk lag nicht darauf, offensichtlich, aber es wurden Kameras zur Überwachung verwendet und sobald jemand Anzeichen von Aggressionen oder Verbrechen hatte, wurde die Person proaktiv in Gewahrsam genommen. Das erinnerte mich sehr stark an die Frage "Ki Verbrechen verhindern", daher war es lediglich eine Randnotiz.
Im Endeffekt ist es das, was sich viele durch eine Überwachung erhoffen.
Ein großes Problem, wozu mir auch in der Theorie keine Lösung einfällt, sehe ich in kontextbezogenen Aussagen. Zitate die out of context sind Sorgen beinahe täglich für Aufsehen, kommt dazu der menschliche Hang zu Sarkasmus und Ironie, werden aus deratigen Aussagen sehr schnell Erkennungen, denen wahrscheinlich jemand nachgehen müsste.
Gerade stehen? Das wäre erst bei anderen Situationen angebracht. "whoops, es war ein Fehler, aber selbst schuld bei deinem Verhalten/Ausdrucksweise" klingt eher nach einem Umgang der danach geschehen würde.
Das ist ein zweischneidiges Schwert, das eher in Richtung "nein, machen wir nicht" tendiert. Die Vorteile sind gegeben, aber damit leider auch starke Nachteile, die keine wirkliche Lösungen haben (nach deutschen Standards). Ich denke aber auch, dass viele Leute nicht wissen, dass ihr Leben bereits ausführlich dokumentiert und zerlegt ist, dass sie nicht so "unsichtbar" sind wie sie denken in ihrem Alltag.
Ich musste mich vor Jahren mit der Thematik auseinander setzen, ob es möglich ist ein Bewegungs- und Arbeitsprofil eines Mitarbeiters zu erstellen, sobald er mit seinen Devices durch das Betriebsgelände roamed.. Stell dir Diskussionen vor, wenn eine KI Verhaltensanalysen fährt ohne deine Zustimmung.
ChatGPT meldet diverse Inhalte, die durch Mustererkennung als kritisch gesehen werden. Gewaltandrohungen, dedizierte Planungen für Terror, Baupläne für Waffen und diverses mehr.
-
LunyXr3 hat eine Reaktion von hackbert301009 in Wenn eine KI Verbrechen verhindert...Ohh yes, das kenne ich nur zu gut, aus einer WhatsApp Gruppe damals (Habe nie reingeschaut). Bei uns stand dann um 5.30 Uhr das KSK vor der Tür und meine Karte lief damals auf meinen Papa. War nicht so toll, die Anschuldigungen die er damals bezüglich dies bekam..
Ich schaue tatsächlich gar keine Animes, vielleicht sollte ich da mal reinschauen. Dankeschön.
Dankeschön. :))
Mhhh... mit welchen Argumenten? haha
True, aber wer bestimmt, was ein Indiz sein könnte?? UND VORALLEM... wer steht für die Fehler der KI im Nachhinein dann grade ?...
-
die Frage des TE ist so unpräzise .... sicher dass hier keine KI trainiert ?
Farben und Layout ? Grundlage der ergonomischen Gestaltung. Dazu die neuen Regeln für barrierefreien Zugang
Zufriedenheit und Freiheit ? .... Datenschutz ( beim Verein zwingend vorgschrieben ) und eine gute Customer Experience. Ein öffentliches Produkt lebt von aktuellen, ansprechenden und moderierten Inhalten
Da können wir eh nicht helfen :D
-
Da ist etwas Wahres dran.
-
1: Halte ich für absolut fahrlässig. In keinster Art & Weise stellt das ein legitimes Argument dar. Denn jeder von uns hat etwas zu verbergen/schützen - nämlich seine Privatssphäre.
2: Aufgrund der Tatsache, dass die Psyche des Menschen nicht wie ein Naturgesetz kausal wirkt und nicht (wie in Teilen die Natur) deterministisch ist => 0.
Und zum letzten Satz und der, der mir am besten Gefallen hat: Dir auch einen entspannten Arbeitstag! :)
Gruß,
Chris
-
LunyXr3 hat auf Dakta in Wenn eine KI Verbrechen verhindert...NEIN zu Palantir!
NEIN zur EU Chatkontrolle!
-
Es gilt zu verhindern, daß solche oder ähnliche Dinge jemals Realität werden, auch wenn wir stellenweise schon auf einem sehr guten(schlechten) Weg dahin sind.
Von der von der Krankenkasse mitfinanzierten Fitnesswatch hin zu "Sie haben in den letzten sechs Monaten folgende Lebensmittel gekauft und konsumiert sowie folgenden Lebenswandel geführt, weswegen die nunmehr erforderliche medizinische Behandlung nicht finanziert wird" ist es nur ein verhältnismäßig kleiner Schritt.
Zu dem von dir angebrachten Gedankenexperiment:
Die "KI" wird in einem solchen Fall ja größtenteils als Mustererkennung durchgeführt. Beispiel: Ein Mensch bricht auf der Straße zusammen/fällt hin. 99/100 Menschen gehen einfach weiter. Das ist das Muster, welches trainiert wird. Wenn jetzt das Training nach 98 Vorfällen beendet wurde, wird die KI bei dem ersten, der hilft, Alarm schlagen und (worst case) derjenige direkt von Robotern/Polizisten/Whatever festgenommen und zu (Filmtip!) Soylent Green* verarbeitet.
Falsches trainieren von Mustern ist sehr häufig.
LG
_____
* Soylent Green: Film, 1973
deutsch: "Jahr 2022 – die überleben wollen"
-
LunyXr3 hat auf Malgus in Wenn eine KI Verbrechen verhindert...Wir hatten in der Oberstufe eine Lektüre "The Circle" bzgl. totaler Überwachung der großen Internetkonzerne (Utopie).
Da war sich auch jeder einig, dass die Grundsätze (verhindern von Straftaten, Anschlägen etc.) zwar moralisch "richtig" sind, aber das was man verliert deutlich überwiegt, wie hier schon richtig angebracht:
Und ob jetzt eine KI oder ein Mensch die Daten analysiert ist mMn. zweitrangig. Die KI macht es vermutlich wesentlich schneller und kann so bessere "Profile" erstellen, aber die Konsequenzen bleiben ja gleich. Wenn die KI nur mit den Daten arbeitet, die ein Geheimdienst oder Ähnliches sowieso schon zur Verfügung hat, ist es wie gesagt egal, da sie nur das Werkzeug ist welches Muster erkennt und nach Schema XY konfiguriert wurde.
Für mich ist hier also eher Thema, ob man eine totale Überwachung zulässt oder nicht.
Es ist natürlich ein eher komplexes Thema, aber ich fände so etwas nicht gut.
-
Ich verstehe nur nicht, welche Diskussion du hier wirklich anstoßen willst. Diese Diskussion führt man schon seit über 10 Jahren und es wird dazu wohl auch keine neuen Erkenntnisse mehr geben, weil schon alles gesagt wurde, was man dazu sagen kann.
2014 hat das EuGH entschieden, dass die Vorratsdatenspeicherung gegen die EU-Grundrechte verstößt.
2018 hat das EGMR (Europäische Gerichtshof für Menschenrechte) entschieden, dass die Massenüberwachung des brittischen Geheimdienstes gegen die Menschenrechtskonvention verstößt.
Klar, versuchen Politiker, es immer so hinzubiegen, dass eine anlasslose Massenüberwachung nötig und wichtig sei, aber sie sind schon mehrmals damit auf die Nase gefallen, und wahrscheinlich werden sie damit auch irgendwann durchkommen. Es ist nun mal ein sehr schwieriges Thema und es ist egal auch, in welche Richtung das Urteil gefällt wird. Verlierer sind immer die, die eigentlich in Ruhe leben wollen und schon versuchen, sich an die Gesetze zu halten. Es ist nun mal so, wie die Prinzen es mal treffend formulierten: "Du musst ein Schwein sein, in dieser Welt."
-
Willkommen im Forum „Daten- und Prozessanalyse
Hier dreht sich alles um die intelligente Nutzung von Daten und die Optimierung von Prozessen. Ob Datenmodellierung, Business Intelligence, Data Analytics, Automatisierung oder Process Mining – hier bist du richtig, wenn du Abläufe smarter gestalten und fundierte Entscheidungen ermöglichen willst.
Dieses Forum richtet sich besonders an Fachinformatiker:innen der Fachrichtung DPA, ist aber offen für alle, die sich für datengetriebene Prozesse begeistern. Teile dein Wissen, stelle Fragen, diskutiere Best Practices.
-
LunyXr3 hat eine Reaktion von hackbert301009 in ProgrammiersprachenVoll Cool, wie meinst das, irrelevant, weil du Kauffrau bist??… denn wir haben hier alles in einem... FiSi/ IT-Kaufmann/Frau und FiAe.. und noch irgendwas also nach ende unserer Ausbildung können wir aus allem das und könne uns dann offen Spezialisieren. :)
-
LunyXr3 hat eine Reaktion von hackbert301009 in Verkaufe ein paar meiner BücherDas Grundstufenbuch habe ich auch 😇😂..
Was möchtest du für die Lernkarten? Kann man die genauer ansehen?
FiAe oder Fisi?
-
LunyXr3 hat eine Reaktion von hackbert301009 in Wenn eine KI Verbrechen verhindert...Danke für deinen Beitrag Aven,
aber ich hatte Hoffnung auf eigene (DEINE) Ansichten und Meinungen. Wenn mich die Antwortdaten die in der KI hinterlegt sind.. interessieren würden, dann hätte ich das doch KI geschrieben und nicht hier in das Forum. 🙄
Mein Ziel mit diesen diskusions Vorlagen ist es, dass wir uns hier alle mehr unterhalten, kennenlernen und austauschen. Jeder seine Ansicht frei äußern kann, und andere darauf Pro oder Kontra aufbauen. 😮💨🫱🏼🫲🏽
-
LunyXr3 hat eine Reaktion von Umschueler in Wenn eine KI Verbrechen verhindert...Einen wunderschönen guten morgen hier am Montag, starten wir doch gleich mit etwas Moral und Technik in die Woche.
Wir leben in einer Welt, in der Daten zur Währung geworden sind, Staaten und Konzerne träumen von absoluter Kontrolle.
Was genau hat jetzt Künstliche Intelligenz damit zu tun?
Sie kann Bewegungen analysieren, Emotionen lesen, Kommunikationsmuster auswerten... und angeblich sogar erkennen, wer ein Verbrechen begehen KÖNNTE. Diese Vorstellung ist gefährlich, denn sie öffnet meiner Meinung nach die Tür zu einer neuen Form der digitalen Diktatur. Die entscheidende Frage lautet nicht mehr, ob eine KI Verbrechen verhindern kann, sondern was sie dafür opfern darf. Unsere Freiheit?
Befürworter argumentieren, dass Überwachung Leben retten kann... Eine KI, die auffälliges Verhalten erkennt, könnte Terroranschläge verhindern, Kriminelle stoppen und Menschen schützen. Klingt nach Sicherheit... doch zu welchem Preis? Wenn jeder Schritt, jede Nachricht und jedes Gesicht analysiert wird, entsteht kein Gefühl von Sicherheit, sondern von permanenter Beobachtung. Menschen verhalten sich anders, wenn sie wissen, dass sie überwacht werden... vorsichtiger, angepasster, stiller. Eine Gesellschaft, die ständig beobachtet wird, verliert ihr Rückgrat. Freiheit stirbt nicht von heute auf morgen, sondern langsam... im Namen der Sicherheit.
Noch gefährlicher ist die Macht, die hinter dieser Technologie steht. Wer kontrolliert die KI? Wer entscheidet, was "verdächtiges Verhalten" ist?
Eine Regierung, die einmal solche Systeme installiert hat, wird sie kaum wieder abschaffen. Daten können manipuliert und Menschenprofile erstellt werden alles automatisiert, alles scheinbar objektiv. So entsteht Überwachung, die nicht mehr als Repression wahrgenommen wird, weil sie technisch sauber aussieht. Aber... Sauberkeit ≠ Moral.
Und was, wenn die KI Fehler macht? Wenn sie aufgrund von Vorurteilen oder fehlerhaften Trainingsdaten unschuldige Menschen als Gefahr einstuft? Maschinen kennen kein Mitgefühl, keine Empathie, keine zweite Chance. Sie verurteilen in Millisekunden, ohne zu verstehen. Wer glaubt, man könne Ethik in Code schreiben, hat Ethik nicht verstanden.
Das eigentliche Problem ist, dass Sicherheit zur Ausrede geworden ist.. ein Vorwand, um Kontrolle zu legitimieren. Wer sagt "Ich habe nichts zu verbergen", akzeptiert das Prinzip der Überwachung. Eine freie Gesellschaft braucht Vertrauen, nicht Misstrauen. Sie braucht Verantwortung, nicht Kontrolle.
Wenn eine KI Verbrechen verhindern will, indem sie uns alle zu Verdächtigen macht, dann hat sie das Ziel bereits verfehlt. Eine Welt, in der niemand mehr ein Risiko ist, ist auch eine Welt, in der niemand mehr wirklich frei ist. Die größte Gefahr geht also nicht von der KI selbst aus, sondern von unserer Bereitschaft, ihr alles zu erlauben.
Ist "Ich habe nichts zu verbergen" ein legitimes Argument, oder ein gefährlicher Denkfehler?
Wie zuverlässig sind Vorhersagen einer KI, wenn menschliches Verhalten komplex und unvorhersehbar ist?
Ich wünsche euch allen einen entspannten Arbeitstag. <3
-
LunyXr3 hat auf cortez in FISI Abschlussprojekt Idee in OrdnungIch würde sagen das ist eine sehr gute Idee. Du hast etwas, dass sehr nahe an einem Standardprojekt ist. Du hast eine klare Problemstellung, Du hast eine Entscheidungsfindung. Du hast einige die das vordir gemacht haben, schau hier mal im Forum. Da findest du etwas passendes.
-
Ein AE entwickelt Software. Ein Ticketsystem auszuwählen und zu begründen istgenau FiSi Thema. Formulier mal nen Antrag aus
-
LunyXr3 hat auf TheBoyWhoHacks in Neue Projektidee / Machbar?Hey zusammen,
ich hatte hier vor einiger Zeit schon mal einen Beitrag zu meinen Projektideen gepostet – damals ging es um das Login-Problem an Produktionsmaschinen und die Einführung eines 1st-Level-Ticketsystems.
Beide Ideen sind grundsätzlich machbar, aber jetzt kam ein Kollege mit einer neuen Idee um die Ecke, die ich ehrlich gesagt auch ziemlich spannend finde.
Jetzt bin ich etwas unsicher, welche Richtung ich nehmen soll.
Die neue Idee:
Ich würde prüfen, ob es sich für unser Werk mehr lohnt, eine interne Azubi-Lernplattform in der Cloud oder On-Premise zu betreiben.
Ziel wäre eine technische und wirtschaftliche Bewertung – also Cloud vs. eigener Server – und anschließend der Aufbau einer Testumgebung (Proof of Concept) für die favorisierte Variante.
Da ich aus Sicherheitsgründen keinen Zugriff auf produktive Systeme habe, würde ich das Ganze in einer isolierten AD-Testumgebung umsetzen.
Die eigentliche Website wird später von der IT-Abteilung erstellt – mein Part wäre die komplette technische Infrastruktur.
Mein geplanter Umfang:
Vergleich Cloud vs. On-Premise (Kosten, Sicherheit, Integration, Datenschutz usw.)
Auswahl und Begründung geeigneter Serverhardware (CPU, RAM, RAID, Storage usw.)
Aufbau einer Active-Directory-Testumgebung mit Benutzer- und Gruppenrechten
Erstellung eines Backup- und Sicherheitskonzepts
Planung der Einbindung ins Netzwerk (kein Internetzugang, nur intern/VPN-Zugriff)
Abschließende Wirtschaftlichkeitsbewertung
Meine Frage:
Was meint ihr – reicht das für ein vollwertiges FISI-Abschlussprojekt (35 Stunden, IHK )?
Oder ist es zu theoretisch, weil ich „nur“ die technische Basis aufbaue und nicht die Plattform selbst?
Ich schwanke gerade zwischen dieser Idee und meinen alten beiden Projekten (Maschinen-Login / Ticketsystem) und will natürlich das nehmen, was die besten Chancen auf Genehmigung und gute Bewertung hat.
Würde mich mega über ehrliches Feedback freuen – am liebsten von Leuten, die schon durch die Prüfung sind oder bei der IHK Erfahrungen haben. 😅
Viele Grüße
-
LunyXr3 hat auf Eric33 in Verkaufe ein paar meiner BücherAlles leer natürlich. Habe immer in einem separaten Papierstapel gearbeitet.
Und mach das unbedingt! Die Zeit ist Sau knapp und schreiben ist echt eine Herausforderung.
Und Taschenrechner, unbedingt vorher auch mit arbeiten. In der Prüfung ist keine Zeit die Funktionen kennenzulernen.
Und so Lachhaft es auch klingt: Textmarker, Gold wert. Markiere alles was du nicht beantworten konntest. Wenn am Ende noch Zeit ist, findest Du die entsprechenden Stellen sofort wieder.