Nach massivem Druck: Musk schränkt Bildgeneration von Grok deutlich ein

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.584
xAI hat die Bildgenerierungsfunktionen seines KI-Chatbots Grok nach massivem Druck aus allen Richtungen deutlich eingeschränkt und reagiert damit auf die anhaltende Kritik sowie regulatorische Drohungen. Technisch wurde eine Sperre implementiert, die verhindert, dass hochgeladene Fotos realer Personen durch die KI so verändert werden, dass sie in freizügiger Kleidung, Bademode oder nackt dargestellt werden können. Die Einschränkung gilt für alle Nutzer der Plattform X – unabhängig davon, ob sie ein kostenpflichtiges Abonnement nutzen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da Liefert ein Deutsches Start Up eine Software an einen Korrupten Ami .
Der Setzt sie einfach so ein wie gesehen , keine Filter nix. Und dann wundert man sich das das Folgen hat.
Ein Gefundenes Fressen für die Medien.
Zeigt doch immer wieder wie dumm Milliardäre sein können.
 
Irgendwie albern, werden den besten Künstlern nun also auch Stifte verboten, weil sie es zu gut können!

Bild und Ton haben keinerlei Wahrheitsanspruch mehr, sollte doch langsam angekommen sein. Da man in Deutschland mittlerweile sogar bestrafungsfrei Unterschriften fälschen kann, um so lächerlicher.
 
Irgendwie albern, werden den besten Künstlern nun also auch Stifte verboten, weil sie es zu gut können!

Bild und Ton haben keinerlei Wahrheitsanspruch mehr, sollte doch langsam angekommen sein. Da man in Deutschland mittlerweile sogar bestrafungsfrei Unterschriften fälschen kann, um so lächerlicher.
Auf Musk rumhacken ist halt grad in Mode.
Hättet ihr alle beide was anderes geschrieben wären es Fotos von euch eurer Freundin, Frau, Mutter, Minderjähriger Tochter oder Sohn so bearbeitet das die Nackt sind und dann im Netz verbreitet. Kinder vielleicht noch auf irgendwelchen Perversseiten? Da wäre natürlich die Empörung und Geschrei groß.

Schon die Tatsache dass solche Funktionen in einer KI implementiert sind sagt viel über die Ki Entwickler. Egal ob es von Musk, Google oder Windoof kommt. Sowas gehört verboten und bestraft.

Richtig und klever eingesetzt ist es in vielen Fällen sicher hilfreich. Für sowas ein NoGo.
 
Hättet ihr alle beide was anderes geschrieben wären es Fotos von euch eurer Freundin, Frau, Mutter, Minderjähriger Tochter oder Sohn so bearbeitet das die Nackt sind und dann im Netz verbreitet. Kinder vielleicht noch auf irgendwelchen Perversseiten? Da wäre natürlich die Empörung und Geschrei groß.

Schon die Tatsache dass solche Funktionen in einer KI implementiert sind sagt viel über die Ki Entwickler. Egal ob es von Musk, Google oder Windoof kommt. Sowas gehört verboten und bestraft.

Richtig und klever eingesetzt ist es in vielen Fällen sicher hilfreich. Für sowas ein NoGo.
Wie willst du vorgeben wie es genutzt wird, es ist ein Werkzeug, die können immer zweckentfremdet werden. Dennoch gibt es bei uns z.B. nicht nur abgerundete, stumpfe Messer.
Und nein, wäre mir vollkommen egal, eben weil jeder weiß das KI-Bilder Alltag sind.
Das Argument im Artikel ist zudem noch schlechter, es handelt sich um Prommis, wer da annimmt Pornobilder sind echt...
 
Die Flux geschichte von black forest labs kann sich doch jeder auf den heimischen Rechner laden, da ist auch nix zensiert, funktioniert genauso. Aber Hauptsache auf Grok und Musk einhacken.
Das Problem entsteht doch erst dadurch das die Sachen dann online auf X stehen für alle sichtbar.
 
Zuletzt bearbeitet:
Hättet ihr alle beide was anderes geschrieben wären es Fotos von euch eurer Freundin, Frau, Mutter, Minderjähriger Tochter oder Sohn so bearbeitet das die Nackt sind und dann im Netz verbreitet. Kinder vielleicht noch auf irgendwelchen Perversseiten? Da wäre natürlich die Empörung und Geschrei groß.

Schon die Tatsache dass solche Funktionen in einer KI implementiert sind sagt viel über die Ki Entwickler. Egal ob es von Musk, Google oder Windoof kommt. Sowas gehört verboten und bestraft.

Richtig und klever eingesetzt ist es in vielen Fällen sicher hilfreich. Für sowas ein NoGo.
gut das keiner nackt war, sondern im Bikini
 
Offensichtlich ist die Menschheit nicht bereit für die KI.
 
Da Liefert ein Deutsches Start Up eine Software an einen Korrupten Ami .
Wobei ich da ein Deja vu hatte... "Black Forest" (Schwarzwald) aus Freiburg war auch der Name der deutschen Produktionsfirma, die 2021 im Auftrag von US-Amerikanern aus Los Angeles für Alexej Nawalny das Video von "Putins Palast" in Sotschi am Computer designt hatte, als der in Deutschland weilte. Dabei fiel auf, daß die angeblichen originalen Baupläne zwar russisch beschriftet waren, die Ursprungssprache jedoch englisch gewesen sein mußte. Jedenfalls amüsierte sich Nawalny im Video ausgiebig über einen riesigen "Raum für Schmutz" auf dem Plan, den er sich nicht erklären konnte. Im Russischen scheint es den Begriff also nicht zu geben. Im Englischen aber schon, denn "Mudroom", also "Schmutz/Schlammraum", ist der englische Name für einen Hausflur...

Und auch die Computergrafiker von Black Forest Studios (damals in Kirchzarten, heute ebenfalls in Freiburg ansässig!) bauten haarsträubende Fehler in ihre Animationen ein. So verzierten sie die Innenansichten mit haufenweise Doppelkopf-Adlern, die zwar "russisch" aussahen, aber eben nicht russisch waren, sondern das ebenfalls mit einem Doppelkopfadler versehene Wappen Montenegros zeigten. Waren hier dieselben Designer am Werk, die nun unter dem Namen "Black Forrest" KI-generierte Grafiken für Grok beisteuern?
;)
Beitrag automatisch zusammengeführt:

Eher ist die Allgemeinheit auf den Trichter gekommen, was für ein Mensch das ist....
Sind die anderen Oligarchen etwa bessere Menschen?
 
Zuletzt bearbeitet:
gut das keiner nackt war, sondern im Bikini
In manchen Kulturen wird man dafür schon zum Tode verurteilt...

Schon die Tatsache dass solche Funktionen in einer KI implementiert sind sagt viel über die Ki Entwickler.
Du hast wie immer nix verstanden.
Es wird nicht "so eine Funktion" in eine KI implementiert. Da gibts keine Funktion ala "generiere Nacktbilder". Eine KI ist generisch und wird trainiert. Wenn in den Trainingbildern eben Bilder von Menschen im Bikini/Badehose/Unterwäsche/Kurzen-Hosen/oben-ohne welche Legal/moralisch nach der eigenen Einstellung vertretbar sind enthalten sind, dann lernt die KI es auch solche Bilder zu generieren. Und wenn da auch Bilder von Kindern enthalten sind, selbst wenn die auf den Bildern bekleidet sind, dann hat die KI gelernt wie etwas "nacktes" aussieht und wie Kinder aussehen, also kann sie auch nackte Kinder generieren.
Wenn man solche Bilder aber nicht in den Trainingsdaten hat, dann lernt die KI aber auch andere Dinge womöglich nicht, die man aber vielleicht haben will. Abgesehen von der Grundsatzfrage was denn für Bilder dann überhaupt enthalten sein sollten oder eben nicht enthalten sein dürften.

Genau das ist das "Problem" von KI, es programmiert niemand irgendwas konkretes, sondern die KI lernt selber und die (möglichen) Ergebnisse sind kaum vorhersehbar.
Man muss genau andersrum arbeiten, so wie es eben auch hier gemacht wurde: Man kann der KI nur nachher diverse Sachen verbieten.

Ausserdem ist auch eine solche KI nur ein Werkzeug. Man kann damit schlechte Sachen machen, schuld daran ist aber nicht die KI/das Werkzeug, sondern der Anwender. Genauso wie man eben mit einem völlig legalem Küchenmesser auch jemanden umbringen könnte.
 
Diese Bildgenerierung mit diesen inhalten ist wahrscheinlich nicht nur auf Grok möglich. Das hinterlässt natürlich einen faden beigeschmack. Wenn das auf anderen plattformen genauso möglich ist diese vorgehensweise Politisch motiviert. Wenn man dagegen vorgeht(sollte das überhaupt gehen davon hab ich keine Ahnung) dann bitte schön konsequent bei allen und nicht Elon Musk raus Picken.
Man könnte aber auch metadaten mit ein bauen die den Urheber identifiziert schon wäre das ein bischen eingebremst.
 
Du hast wie immer nix verstanden
Danke Herr Professor. Ich bin gestern von Baum runter geklettert.


Ich weiß genau wie die KI funktionieren. Möglicherweise falsch ausgedrückt mit "implementiert" aber schon die Tatsache das sowas trainieren geht ist mMn Müll.

Ausserdem ist auch eine solche KI nur ein Werkzeug. Man kann damit schlechte Sachen machen, schuld daran ist aber nicht die KI/das Werkzeug, sondern der Anwender. Genauso wie man eben mit einem völlig legalem Küchenmesser auch jemanden umbringen könnte.

Es muss unterbunden werden und kontrolliert das man KI für solche Zwecke einfach nicht trainieren kann. KI ist nur so gut wie die Information die die erhält. Schreibst du selbst.

Es wird sicherlich gehen das KI auch alleine erkennt das es falsch eine Reale Personen Kinder usw. mit KI generierter Nackheit/Unterwäsche/Bikini zu kombinieren. Das muss man auch der beibringen da die es offensichtlich nicht selbständig erkennt.

Mensch könnte es.

Hättest du oder ich sowas mit Photoshop zu Hause gemacht und verbreitet wärs du auch irgendwann fällig.
Einer muss dafür verantwortlich gemacht werden was seine Wildgewordene Software/KI treibt. Fertig.
Beitrag automatisch zusammengeführt:

Wenn das auf anderen plattformen genauso möglich ist diese vorgehensweise Politisch motiviert. Wenn man dagegen vorgeht(sollte das überhaupt gehen davon hab ich keine Ahnung) dann bitte schön konsequent bei allen und nicht Elon Musk raus Picken.
Das sehe ich genauso. Ich hoffe das Musk nur der erste ist.
 
Hättet ihr alle beide was anderes geschrieben wären es Fotos von euch eurer Freundin, Frau, Mutter, Minderjähriger Tochter oder Sohn so bearbeitet das die Nackt sind und dann im Netz verbreitet. Kinder vielleicht noch auf irgendwelchen Perversseiten? Da wäre natürlich die Empörung und Geschrei groß.

Schon die Tatsache dass solche Funktionen in einer KI implementiert sind sagt viel über die Ki Entwickler. Egal ob es von Musk, Google oder Windoof kommt. Sowas gehört verboten und bestraft.

Richtig und klever eingesetzt ist es in vielen Fällen sicher hilfreich. Für sowas ein NoGo.

Wiso sind die bilder meiner Frau, Mutter, Minderjähriger Tochter oder Sohn überhaupt im Internet das sie zweckentfermded werden können?

Selbst fehler machen, das Rohmaterial Online für alle zur verfügung stellen und dann wider nach Staatlicher Zensur rufen ist ja so viel bequemer.
 
Nur weil man etwas im Netz teilt hat man noch lange nicht das recht es zu missbrauchen.
Diese Künstliche intelligenz ist im grunde genommen noch Brot dumm. Sie kann viel aber sie ist nicht mal im ansatz auf dem niveau eines Menschen sie braucht erziehung (Regeln) das ist doch bei uns nicht anders.
 
Nur weil man etwas im Netz teilt hat man noch lange nicht das recht es zu missbrauchen.
Diese Künstliche intelligenz ist im grunde genommen noch Brot dumm. Sie kann viel aber sie ist nicht mal im ansatz auf dem niveau eines Menschen sie braucht erziehung (Regeln) das ist doch bei uns nicht anders.
Richtig, aber wenn ich etwas im Netz teile muss ich damit rechnen das es missbraucht wird oder werden kann.
Wenn ich das nicht möchte teile ich es nicht.
Gehört für mich zur medienkompetenz sich dem sachverhalt im klaren zu sein.
Wenn ich meinen selbst gedrehten p0rn0 auf xhamster hochlade muss ich damit rechnen das sich leute einen drauf abwedeln.
 
Wiso sind die bilder meiner Frau, Mutter, Minderjähriger Tochter oder Sohn überhaupt im Internet das sie zweckentfermded werden können?
Du selbst garnicht. Es gibt Feier, Veranstaltungen die jemand anderer online stellen kann. Bei Kindern und Jugendlichen und dem ganzen Social Media zeug hast heutzutage eh fast keine Chance es zu unterbinden das was veröffentlicht wird. Letzte Weihnachtsmarkt bin ich in Zeitungen gelandet. Mich hat keiner gefragt. War eine Öffentliche Veranstaltung.
 
Dann sollen sie metadaten in die KI gemacht bilddatei einfügen, dass der ersteller belangt werden kann im falle von streitigkeiten.
BMW wird auch nicht belangt wenn der attentäter mitm auto in nen Weihnachtsmarkt fährt.
Oder Böker als Messerhersteller wenn mal wider 2 neubürger ihre streitigkeiten lieber damit regeln.
Ich persönlich lehne jede form von künstlicher technischer einschränkung und zensur strikt ab.
Ist etwas technisch möglich, muss es auch für mündige bürger, nutzbar sein und bleiben.
 
...
Diese Künstliche intelligenz ist im grunde genommen noch Brot dumm. Sie kann viel aber sie ist nicht mal im ansatz auf dem niveau eines Menschen sie braucht erziehung (Regeln) das ist doch bei uns nicht anders.

Da möchte ich aber widersprechen. LLMs sind vielen Menschen schon jetzt haushoch überlegen und das nicht nur weil sie mehr Trainingsdaten haben und schneller auf sie zugreifen können.
 
Offensichtlich ist die Menschheit nicht bereit für die KI.
Die Menschheit sieht derzeit vor allem die Nachteile der KI, zumindest bei den meisten Anwendungen die es derzeit gibt, wie die ganzen Bots in Sozialen Medien und Deepfakes. Dazu die Bedrohungen ihrer Arbeitsplätze und aktuell explodierende Preise für RAM, SSDs und HDDs und in den USA überall dort steigende Strompreise, wo diese massiven Rechenzentren dafür gebaut werden.

Wenn ich meinen selbst gedrehten p0rn0 auf xhamster hochlade muss ich damit rechnen das sich leute einen drauf abwedeln.
Wenn man dort was hoch lädt, dann weiß man wozu man dies gemacht hat, aber was ist, wenn jemand anderes dort ein Video hoch lädt, welches genauso aussieht, aber ein Deep Fake ist, wo die Bilder Deiner Familie von Weihnachten genutzt wurden um dies zu erstellen? Das ist der Punkt, es geht nicht darum was man selbst wo hoch lädt, sondern was andere aus den Bildern die sich im Netz befinden, dann generiert und in Netz stellt und diese Bilder stammen ggf. noch aus einer Zeit, also es solche Möglichkeiten noch nicht gab.
 
Da möchte ich aber widersprechen. LLMs sind vielen Menschen schon jetzt haushoch überlegen und das nicht nur weil sie mehr Trainingsdaten haben und schneller auf sie zugreifen können.
Ich zitiere mal die Google-KI.
Mensch und KI (Künstliche Intelligenz) sind komplementär:
KI glänzt bei schnellen, datenintensiven Aufgaben, Logik und Mustererkennung, während der Mensch durch Emotionale Intelligenz (Empathie), tiefes Kontextverständnis, Kreativität, Intuition, echte Moral und das Streben nach Sinn und Wahrheit unersetzlich bleibt, um KI-Ergebnisse zu bewerten, ethische Fragen zu klären und neue Ideen zu entwickeln; die beste Lösung liegt in der Kombination beider Stärken, wobei die KI als Werkzeug dient, der Mensch aber die Steuerung, Beurteilung und das „Warum“ übernimmt.
 
Da möchte ich aber widersprechen. LLMs sind vielen Menschen schon jetzt haushoch überlegen und das nicht nur weil sie mehr Trainingsdaten haben und schneller auf sie zugreifen können.
LLMs sind vorallem sehr viel schneller als Menschen, die Geschwindigkeit ist die grösste Stärke der LLMs.

Bei der Quälität sind die Ergebnisse der LLMs sehr unterschiedlich.

Merkwürdigerweise schlagen sind LLMs bei Aufgaben die für Menschen sehr schwierig sind, wie z.B. medizinische Wirkstoffe identifizieren oder auch gotische Kathedralen und Schlösser zeichnen wirklich ziemlich gut, während sie bei für Menschen einfachen Aufgaben wie Länder und Hauptstädte benennen so katastrophal versagen.

forum1022.jpg

 
Merkwürdigerweise schlagen sind LLMs bei Aufgaben die für Menschen sehr schwierig sind, wie z.B. medizinische Wirkstoffe identifizieren
Gibt es dazu Beweise? Es wird immer behauptet, aber ich habe massive Zweifel das die heutige KI jemals einen neuen medizinischen Wirkstoff finden wird. Denn die kann nur Wahrscheinlichkeitsrechnung auf Basis der Daten mit denen sie trainiert wurde, aber eben nicht neues erfinden und daher kann ich mir nicht vorstellen, wie es funktionieren soll damit einen neuen, also unbekannten Wirkstoff zu finden, da das Unbekannte was auf den LLMs kommt, immer nur Halluzinationen sind. Genau wie schon vorher die Blockchain, für die sich während der Hype auch alle möglichen Anwendungen ausgedacht wurden von denen praktisch keine jemals implementiert wurde, werden auch für KI Anwendungen ausgedacht aus denen nie etwas werden wird, weil sie dazu einfach nicht geeignet ist, die Hype aber weiter angeheizt werden muss um die Blase an der Börse noch weiter und länger aufzublasen.
während sie bei für Menschen einfachen Aufgaben wie Länder und Hauptstädte benennen so katastrophal versagen.
Es gibt so viel wo die LLMs versagen, aber man sieht es immer nur bei Dingen die man kennt und leider wissen die meisten Leute heute immer weniger, sie fragen ja einfach Google und vergessen offenbar schnell wieder. Wenn man aber selbst keine Ahnung haben, kann einem jeder irgendwas vormachen und man merkt es eben nicht, sondern denkt die Antwort wird schon stimmen, der andere bzw. die KI ist ja schlau.

Bei diesem Fall der Hauptstädte dürfte jeder erwachsene Europäer kein Problem haben zu erkennen, was für einen Mist die KI da verzapft hat, aber wie ist es bei den Amerikanern? Die wissen kaum etwas von der Welt, wenn sie Kanada richtig auf der Weltkarte zeigen können, dann ist das schon gut und ich würde vermuten, dass 90% der US Bürger keinen Verdacht schöpfen würden, dass an der Karte was falsch ist. Das US Bildungssystem ist dazu da aus den Bürgern gute Amerikaner zu machen, aber nicht unbedingt dazu ihnen Wissen über den Rest der Welt beizubringen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh