KI hat ein Akzeptanzproblem: Stanford-Bericht zeigt große Unterschiede in der Bevölkerung

Thread Starter
Mitglied seit
06.03.2017
Beiträge
118.426
Ein aktueller Bericht der Stanford University zeigt eine wachsende Kluft zwischen der Einschätzung von Experten und der Wahrnehmung der breiten Bevölkerung in Bezug auf künstliche Intelligenz. Während Fachleute die technologischen Fortschritte überwiegend positiv bewerten, nimmt die Skepsis in der Gesellschaft deutlich zu. Besonders in den USA richten sich die Sorgen auf mögliche Auswirkungen auf Arbeitsplätze, wirtschaftliche Stabilität und zentrale Bereiche wie das Gesundheitssystem.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider verrät das Paper nicht, wie die "Gruppe der Experts" zusammengesetzt wurde. Wenn man Techbros fragt, kriegt man Techbro Antworten. O, und btw: Ich benutze und verkaufe AI-Edge-Lösungen, scheine also sowas wie ein Expert zu sein. Und gehöre zu den massiven Skeptikern...
 
Nunja, in einer Welt, in der das Erleben und die Versprechen immer weiter und häufiger auseinanderklaffen, ist klar, dass die Technik kritisch gesehen wird. KI ist bereits da, und sie wird bleiben, die Frage ist nur wie.
Heute morgen erst gelesen, dass die Genauigkeit von Claude in einigen Tasks seit Februar um fast zwei Drittel gesunken ist (vor allem im Bereich Programmierung). ChatGPT halluziniert immer noch, dass er einen Timer hat und Rät die Zeiten, Gemini schwankt auch sehr stark von der Lust, Aufgaben zu erfüllen.

Woher soll Vertrauen kommen, wenn KI nicht wiederholbar, zuverlässig hochwertige Arbeit liefert, die Vertrauen begründet? Wenn ich einem Azubi eine Aufgabe gebe, und er erfüllt sie manchmal super, und manchmal grottig, schaue ich auch lieber zweimal hin, bevor ich mich darauf verlasse, dass es funktioniert.
Wenn mein Hammer nur in 33% der Fällen in der Lage ist, einen Nagel einzuschlagen, werde ich auch schwer überlegen, ob ich mir nicht einen anderen Hammer anschaffen muss.

Die Heilsversprechen der TechBros haben sich in den allermeisten Fällen als Bullshit erwiesen, seien es Meta Glasses die fröhlich als Spycam verwendet werden um dich und deine Familie ungefragt in intimen Momenten zu beobachten, sei es das Abo Modell von Streaming Anbietern mit Slop, der selbst von KI wahrscheinlich besser hinbekommen worden wäre, seien es die Tokensysteme, bei denen sich die KI für ein völlig schwachsinniges Ergebnis durch deine Brieftasche fräst oder Sora, das von einem auf den anderen Tag einfach abgeschaltet wird.
Gleichzeitig sehen wir finanzielle Anhäufungen bei denen die Habsburger oder Kaiser vor Neid erblasst wären. Und das Geld kommt ja aus der Allgemeinheit, und fehlt an anderen Stellen.

Wenn ich TechBro wäre, oder damit mein Geld verdienen würde, würde ich natürlich auch sagen, dass es voll Toll ist. Allein der Beweis, dass es wirklich voll Toll ist, bleibt schuldig. Ich bin gespannt ob und wann sich das ändert, im Moment würde ich mein Geld nicht auf die KI setzen.
 
Ich denke, die Befürchtungen seitens amerikanischen Bevölkerung werden sich auch bewahrheiten, es hat schon längst begonnen und wird in den nächsten Jahren noch mehr forciert werden. Die Bevölkerung ist der Playground der Tech-Konzerne. 🤡
 
Prinzipiell kann KI sehr gut sein und vieles vereinfachen. Allerdings ist die KI nur so gut, wie die Daten mit der sie gefüttert wird. Wir gehen schließlich auch zur Schule, damit wir wissen, welche Abläufe es gibt. Das Problem, das wir aber haben, ist anderweitig. KI basiert auf Stochastik und Wahrscheinlichkeiten. Daher muss der Datensatz immens sein, um hohe Treffer zu haben. Diesen Datensatz haben wir einerseits nicht, andererseits nutzt KI alles was es in die Finger bekommt, wenn man sie lässt. Dementsprechend hat sie viele Falschinformationen. Diese müssten eigentlich aussortiert werden, doch wer kann das bei dem Datenvolumen, dass die KI verarbeiten kann. Zuzüglich füttert KI sich gegenseitig, ohne das sie die Jahrhunderte unserer wissenschaftlichen Errungenschaften hinter sich hat.
Isaac Newton hatte Gravitation beschrieben (entdeckt hat er sie ja nicht, denn sie war auch schon vorher da :d). Zuvor hatten die alten Griechen schon den Satz von Pythagroras und Pi beschrieben. Auf all dieser wissenschaftlichen Errungenschaften haben wir weiter aufgebaut, bis wir es schafften Steine zum Denken anzuregen. Jetzt können die Steine denken, wissen aber nicht, was nun "wissenschaftlich" ist und was ein Influencer einfach aus dem Bauch heraus entschieden hat.

Also ja, TechBro O-Ton, KI ist das geilste.
Menschen mit Angst, dass ihr Arbeitsplatz flöten geht, haben Angst. Dazwischen sind noch viele andere Menschen mit vielen anderen Meinungen zur KI
 
Okay, ich muss mich noch korrigieren: KI als Chatbot ist in vielerlei Hinsicht wirklich praktisch, KI zum Programmieren sicherlich auch (das kann ich nicht wirklich beurteilen), aber KI im Kühlschrank, in der Waschmaschine, im Toaster...? :stupid: Nunja, man wird sehen
 
Leider verrät das Paper nicht, wie die "Gruppe der Experts" zusammengesetzt wurde. Wenn man Techbros fragt, kriegt man Techbro Antworten. O, und btw: Ich benutze und verkaufe AI-Edge-Lösungen, scheine also sowas wie ein Expert zu sein. Und gehöre zu den massiven Skeptikern...
KI ist schon nützlich, aber nur so nützlich und schlau wie der es benutzt.
Dumme Fragen=dumme Antworten. Die KI ist wie ein Praktikant, manchmal nützlich aber überwiegend macht er auch Arbeit
 
"In der allgemeinen Bevölkerung teilen diese Einschätzung lediglich 10 %."
Wtf?!
Sorry aber grade auf Jahrzehnte gesehen ist völlig klar dass KI unser Leben verbessern und noch interessanter machen wird.
Schon schade wieviel Leute sich noch nicht die Zeit genommen haben sich mit der Technologie ordentlich auseinander zu setzen... :(

Aber klar, Leute wollten auch einst bessere Pferde statt Autos.
Beitrag automatisch zusammengeführt:

KI ist schon nützlich, aber nur so nützlich und schlau wie der es benutzt.
Dumme Fragen=dumme Antworten. Die KI ist wie ein Praktikant, manchmal nützlich aber überwiegend macht er auch Arbeit
Ja, wohl war. Meinen Softwareentwickler Kolegen rate ich immer die KI wie einen Praxis-Studenten zu betrachten der aber viele tausende (software dev) Bücher gelesen hat.
 
Was soll man auch mit einem Werkzeug machen das "überall" etwas funktioniert, aber nirgends richtig und stetig kontrolliert werden muss?
Dazu entwickelt das Werkzeug noch ein Eigenleben?

Das ist im Arbeitsumfeld nicht zu gebrauchen und privat nutzt man es wohl auch eher nur zum Licht einschalten und Wettervorhersage abrufen.

Neee, die KI ist noch nicht so weit das sie produktiv taugt und belastbare Ergebnisse bringt.
Dazu kommt ein gigantischer ökologischer Fußabdruck der mit Gewalt immer weiter aufgeblasen wird, da "viel hilft viel" zu gelten scheint.
 
"In der allgemeinen Bevölkerung teilen diese Einschätzung lediglich 10 %."
Wtf?!
Sorry aber grade auf Jahrzehnte gesehen ist völlig klar dass KI unser Leben verbessern und noch interessanter machen wird.
Und das ist so bei der allgemeinen Bevölkerung weil?
Schon schade wieviel Leute sich noch nicht die Zeit genommen haben sich mit der Technologie ordentlich auseinander zu setzen... :(
Lies meinen Text oben.
Aber klar, Leute wollten auch einst bessere Pferde statt Autos.
Beitrag automatisch zusammengeführt:
Argumentativ äusserst stark, doch...
Ja, wohl war. Meinen Softwareentwickler Kolegen rate ich immer die KI wie einen Praxis-Studenten zu betrachten der aber viele tausende (software dev) Bücher gelesen hat.
Meine lachen sowohl über den python als auch den C code der geneiert wird. Und wir trainieren unser Modell sogar nach...
 
Ich behaupte mal trotzdem einfach, solange die durchschnittliche Fehlerquote nicht bei unter <=2-1,5% liegt, muss man einfach noch viel nachkontrollieren.
Wo es um Leib und Leben geht sollte der KI nicht vertraut werden. Definitiv sehe ich die Vorteil für eine Ersteinschätzung eines Problems oder als Unterstützung wenn man etwas übersehen hatte.

Was KI definitiv unglaublich gut kann vs Mensch ist Mustererkennung. Genau da sollte man die KI auch dafür nutzen.
Nicht für profane Dinge des Alltages sondern das was wir Menschen eben nicht so gut können.

über 1000 Bücher Inhalte auswendig, alle wissenschaftliche Formeln, alle Sprachen, den Inhalt des gesamten HWLUXX Forums etc... u.v.m das kann ein Mensch so nicht.

Menschen können im Gegensatz zur KI, aber besser Querdenken oder viel abstrakter denken.
 
@DragonTear es kommt halt darauf an worin.
Wenn ich nichtmals sicher sein kann das die Excel Zahlen richtig interpretiert werden, wie kann ich dann KI nutzen um Scripte auf einem Produktivsystem zu erstellen?
Ich weiß was die KI kann und für grundlegende Sachen ist die auch zu gebrauchen.

Aber für filigranere, wichtige Dinge? Neeee, da ist sie so intelligent wie das Internet und das ist nicht gut genug.
 
Das ist leider das Problem bei KI, in vielen Dingen ist sie gut genug und echt gut zu gebrauchen, aber in anderen Dingen ist sie so schlecht, dass man eigentlich gar nicht darüber nachdenken braucht ob man KI dafür nutzen sollte.

Andererseits muss man auch aufpassen keine Vorurteile zu erzeugen, da sich KI auch ständig weiter entwickelt und in manchen Feldern über die Monate durchaus deutlich besser wurden. Was also heute stimmt muss nicht zwingend in einem halben Jahr noch gelten, daher sollte man die Entwicklung immer im Auge behalten. Es sind ja oft nicht nur die KI Modelle selbst, die besser werden, sondern auch die Software selbst, die diese steuern.

Vielleicht sollte man auch nicht alles der KI überlassen, was wir davor schon mit Software selbst lösen konnten, wie zum Beispiel rechnen.

Am Ende ist es aber nicht die KI, die ich fürchte, sondern noch immer der Mensch wozu dieser KI nutzen wird.
 
Die Entwicklung der KI ist die gleiche, das gleiche Schema F.
sowas wäre interessanter.
 
KI müsste hier erst mal pro Einsatzzweck definiert werden. Die Diskrepanz nach Alter bei gleichzeitig höherer Nutzung bei Jüngeren wirft eben einfach fragen nach der Qualität auf oder hoffen Ältere nicht betroffen zu sein. Insgesamt liegt der Nutzen von KI irgendwo zwischen super und flutet alles mit Dreck der nur Lebenszeit kostet.
 
Es ist oben zwar ein Werbevideo, aber inhaltlich wirklich sehr gut gemacht.
Ich verteufele die KI nicht, in vielen Bereichen ist es auch eine gewisse Bereicherung. Die jetzige Generation sieht es auch noch kritisch und hinterfragt vieles. Ich habe aber Bedenken, wenn unreflektiert, gutgläubig Inhalte einfach hingenommen werden und glaubt die KI hat in allem recht. KI wird nie das Level des menschlichen Gehirns erreichen. Wie auch, es kann ja nur die Daten verwerten, mit dem es in der Vergangenheit und aktuelle Informationen gefüttert wurde.

Für mich ist die KI nichts anderes als ein riesiges Mindmap, was versucht Verknüpfungen zu enorm vielen Informationen herzustellen, zu sortieren, selektieren, zusammenzufassen, medial umfangreich und dabei sehr schnell ist, aber den kreativen, emotionalen Menschen braucht, der es am Laufen hält, mit neuen Informationen füllt und aktualisiert. Wenn es aber in falsche Hände kommt, was die angebliche KI füttert und manipulierend ist, die nächste Generation nicht mehr auf Richtigkeit hinterfragen kann oder will ... prost Mahlzeit.

Etwas plakativ und provokant. Was wird die KI ersetzen, was Wissen und Lernen voraussetzt? Lehre? Behörden? Erziehung? Betreuung? Politiker? Diplomatie? Entscheidung über Leben und Tod? Berufsausbildung? Organisation und Sortierung? Kriegsführung? Gesetze und Rechtsprechung? Psychologie? .... und was wurde schon umgesetzt und ersetzt? Was kann alles durch Roboter ersetzt werden, die eine KI hat und mit enormem Wissen gefüttert wurde? Wie weit ist die Entwicklung schon? Wann wird die erlernte Intelligenz der Menschen nicht mehr gebraucht? Wann werden Roboter die kompletten Sinne eines Menschen bekommen, sogar noch besser sein?
Ich denke, man muss sich schon genau überlegen, wann und wo die angebliche KI und Roboter sinnvoll sind oder gar gefährlich für den Menschen ist, sogar Menschen in Bereichen ersetzt werden, was zum Teil schon umgesetzt wird und wurde. Gibt es ein Gegenprogramm im eigenen KI-System (Modelle), was die Plausibilität und Richtigkeit fortlaufend stets kontrolliert und hinterfragen kann, ohne gefüttert zu werden?
Innerlich bin ich da schon hin- und hergerissen bzgl. Chancen und Möglichkeiten. Was für mich nicht geht, ist blindes Vertrauen.
 
KI generiertes Image für eine Werbung für einen Kurs für Physiotherapeuten:

AI Image für Kurs für Physiotherapeuten.png


Nur frage ich mich wer das etwa ein Drittel der US-Bürger sind, die der eigenen Regierung eine angemessene Regulierung von KI zutraut, wo Trump doch explizit keine solche Regierung möchte und auch den Bundesstaaten derartige Regierungen verbietet. Das muss diese eine Drittel sein, die ihm blind folgen und vertrauen.
 
"In der allgemeinen Bevölkerung teilen diese Einschätzung lediglich 10 %."
Wtf?!
Sorry aber grade auf Jahrzehnte gesehen ist völlig klar dass KI unser Leben verbessern und noch interessanter machen wird.
90% der allgemeinen Bevölkerung denken nicht Jahrzehnte vorraus. Überrascht dich das? ;)
Ca. 50% der Bevölkerung in Deutschland sind 40+. Die sind nicht mit KI aufgewachsen und schon zu alt um an irgendwas weltveränderndes überhaupt Glauben zu wollen. Ein Großteil davon hatte noch nie irgendwas mit KI zu tun oder nicht bemerkt das bei irgendwas das er gemacht hat vielleicht sogar schon KI involviert war. Wie sollen die auf so einer Basis auch irgendwas einschätzen. Selbstverständlich sagen die "Nö, glaub ich nicht".

Mein Vater z.B. hat bis vor ~10 Jahren keinen PC benutzt, dementsprechend auch kein Internet usw. Als ich vor 25 Jahren mit Softwareentwicklung angefangen habe, war das zwar schon ein Hype, aber das 25 Jahre später ohne Software quasi überhaupt nichts mehr geht, konnte sich mein Vater damals nichtmal ansatzweise vorstellen.

Ich finde das Ergebnis absolut nachvollziehbar. Es hätte mich eher gewundert, wenn es anders ausgefallen wäre.
 
Bei der Allgemeinheit mag das stimmen. Man sieht aber auch gerade auf YT eine Menge ü40 die etwas mit KI machen, aber die sind natürlich die Ausnahme, zeigt aber, dass es halt darauf ankommt in welchen Umfeld sie aufgewachsen sind und vielleicht auch welchen Job sie haben bzw. welches Hobby.

Ich bin ü50 und auch nicht mit KI aufgewachsen und trotzdem KI Fan seit eigentlich schon immer, aber auch oft genug Kritiker (wobei ich mehr Angst vor Menschen, die KI nutzen, habe, als vor KI selbst). Als Gamer mag man da auch noch mal einen anderen Bezug zu haben, weil NPCs, wenn auch kaum vergleichbar, auch eine Art von KI sind und man Technik vielleicht generell mehr aufgeschlossen gegenüber ist.

KI generiertes Image für eine Werbung für einen Kurs für Physiotherapeuten:

Anhang anzeigen 1199297

Nur frage ich mich wer das etwa ein Drittel der US-Bürger sind, die der eigenen Regierung eine angemessene Regulierung von KI zutraut, wo Trump doch explizit keine solche Regierung möchte und auch den Bundesstaaten derartige Regierungen verbietet. Das muss diese eine Drittel sein, die ihm blind folgen und vertrauen.
Wer so etwas durchwinkt sollte besser keine Patienten haben. XD
 
Zuletzt bearbeitet:
Wer so etwas durchwinkt sollte besser keine Patienten haben.
Sicher, aber das sehen die Leute, eben den ganzen AI Slop, der sich überall ausbreitet und wo von den Versprechen was KI können soll, wenig zu sehen ist. Versprechen die von allem von denjenigen kommen, die an KI verdienen wollen, was auch die Verantwortlichen in Unternehmen einschließt, die hoffen Mitarbeiter durch KI zu ersetzen. Solche Bilder zeigen aber, dass dies halt nicht so einfach ist, weil die Ergebnisse der KI dazu einfach zu schlecht sind und kontrolliert werden müssen. Dies mag bei einem Bild trotzdem billiger sein, als die traditionelle Methode mit Modellen und einem Fotographen das Bild zu machen. Aber bei vielen anderen Dingen ist es dies nicht. So ergaben Tests mit Softwareentwicklern, wo zwei Gruppen eine Aufgabe gestellt bekommen haben, eine mit KI Unterstützung und die anderen durfte keine KI nutzen, dass die Gruppe mit KI deutlich länger dafür gebraucht hat, aber glaubte durch die KI 20% schneller fertig geworden zu sein. Mit KI war die Produktivität also nicht nur schlechter, sondern die Nutzer unterlagen der Illusion sie wäre durch KI Unterstützung besser gewesen.
 
Gehöre auch zu der ü50 Sorte. Aber nutze die KI ganz gerne und auch ziemlich oft. Bei Claude habe ich schon für das Pro Abo bezahlt, auch für die API habe ich schon Münzen eingeworfen. Hole es mir glaube wieder dieses WE, habe da paar Projekte am laufen, wo das sicher wieder ganz nützlich ist. Mache da echt Sachen damit, an denen ich mir vor einigen Jahren die Zähne ausgebissen hätte. Auch gemini nutze ich ganz gerne, mehr so für die allgemeinen Dinge und einfach um bisschen zu chatten. ChatGPT hatte ich auch schon genutzt, aber beim kostenlosen Modell sperrt er mir den Chat zu schnell. Habe meist ausgiebige Projekte, wo ich über mehrere Tage im gleichen Faden hänge.

Nutze die KI aber nicht für so sinnloses Zeugs wie Memes generieren, oder so. Das ist einfach die totale Ressourcenverschwendung. Wo wir auch bei meinen grössten Bedenken sind. Im Moment werden da so viele Ressourcen rein gebuttert, dass es zum Problem wird. Und in ein paar Jahren muss man die Anlagen wieder auf den neuesten Stand bringen? Nach mir eine einzige Sackgasse, nur eine Frage der Zeit, bis die Blase platzt. Der Hype ist einfach völlig überzogen, und jeder will das noch grössere RZ aus dem Boden stampfen. Gibt auch noch weitere Contras, wie Massenüberwachung, neue Abhängigkeiten schaffen, was weiss ich.
 
So ergaben Tests mit Softwareentwicklern, wo zwei Gruppen eine Aufgabe gestellt bekommen haben, eine mit KI Unterstützung und die anderen durfte keine KI nutzen, dass die Gruppe mit KI deutlich länger dafür gebraucht hat, aber glaubte durch die KI 20% schneller fertig geworden zu sein. Mit KI war die Produktivität also nicht nur schlechter, sondern die Nutzer unterlagen der Illusion sie wäre durch KI Unterstützung besser gewesen.
Wobei ich mich hier Frage: waren das KI Anfänger oder kannten sie sich mit KI aus? Weil neue Tools einzusetzen benötigt erst mal das lernen wie man sie denn überhaupt richtig einsetzt, was dieses Tool kann und wie man es besser nicht nutzt. Wenn du da nur Tests machst mit Leuten, die einen festen Arbeitsablauf haben und Leuten, die das erste mal mit KI arbeiten, hinkt der Vergleich hinterher gewaltig. Und es wäre nicht die erste Studie oder Tests die an so etwas simplem scheitern.
 
Keine Ahnung, ich finde es auf die schnelle nicht mehr, aber ich vermute dies wird wohl berücksichtigt worden sein, da jeder weiß das immer eine Einarbeitung nötig ist und der Vergleich sonst keinen Sinn machen würde. Das Problem ist halt, dass man den ganzen Code kontrollieren muss, da dort oft alte Bugs drin sind, die inzwischen behoben wurden. Fremden Code zu verstehen, dauert halt oft länger als diesen Code gleich selbst zu schreiben und sie nicht zu kontrollieren, ist halt extrem gefährlich.
 
Ist halt die Frage ob das wirklich richtig beachtet wurde. Wie man KI bei einem Projekt richtig nutzt und wie nicht muss man ja auch erst über Zeit lernen. Aber ist natürlich möglich, dass das wirklich korrekt beachtet wurde, wobei dann auch wieder die Frage ist: welches KI Modell genau? Und wenn diese Studie bereits etliche Monate alt ist, was ja nicht selten der Fall ist, kann es heute wieder ganz anders aussehen.

Den Code blind zu nehmen wie er ist, ist dann aber wieder eher ein Mensch Problem. Wobei gerade ja auch zum Code überprüfen nach alten Bugs auch KI durchaus zu gebrauchen ist. Claude hat ja teils gar uralte Bugs gefunden. Aber es ist immer besser über einen längeren Code mehr als nur zwei Augen drüber zu gehen.

KI hat oftmals eher das "Wenn KI das macht, muss es ja 100% stimmen, weil ist ja ein Computer" Problem. Was ja selbst nie stimmte, denn Bugs in Software kann schon immer für falsche Ergebnisse sorgen. Man sollte einer Maschine niemals blind vertrauen. Eventuell ist in ein paar Jahren KI auch auf dem Punkt, dass man es deutlich mehr vertrauen schenken kann, aber das wird wohl eher nicht mit den aktuellen LLMs passieren. Diese sind nun mal mit menschlichen Daten gefüttert und man kann sich schon denken wie hoch die Fehlerquote darin sein muss, so viele Fehler wie Menschen immer machen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh