Hohe Investitionen mit wenig wirtschaftlichem Nutzen: PWC-Umfrage dämpft Erwartungen an KI

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.649
Nach einer Phase großer Erwartungen zeigt sich bei vielen Unternehmen Ernüchterung über den praktischen Nutzen von Künstlicher Intelligenz. Trotz umfangreicher Investitionen lassen sich in der Breite bislang nur begrenzte wirtschaftliche Effekte feststellen. Zu diesem Ergebnis kommt eine aktuelle Befragung der Wirtschaftsprüfungsgesellschaft PwC unter 4.454 Unternehmern weltweit.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie immer gibt's Gewinner und Verlierer denn sobald etwas praktisch grenzenlos verfügbar ist, muss man auch wissen wie man einen Vorteil gegenüber allen anderen erreicht...

Allein die Tatsache dass wir mit Computern und vorallem Daten/Wissens-banken so sprechen können wie Picard mit der Enterprise, ist einfach unglaublich. Toll das mitzuerleben (und zu nutzen).
 
Vor allen Dingen muss man sich auch entsprechend aufstellen inkl Transformation. Wenn die Mitarbeiter nicht verstehen wozu ein LLM oder agentic AI in der Lage sein kann werden sie auch keine Use Cases mit guten Business Cases bringen. Bei uns ist es ähnlich. AI Literacy brauchen ja nur ein paar wenige. Nee, alle. Genau wie PCs im Büro oder das Internet, man muss eine Technologie ins Massenverständnis bringen um sie massentauglich zu machen.
 
Ich hab eine KI im Haus die reicht mir die weiß alles besser.Noch so ein Teil könnte ich nicht ertragen vor allem wenn die auch noch recht hat.
 
welche Use Cases mit gutem Business Case habt ihr?
Zum Beispiel das Access Management automatisierten, Testcases erstellen lassen oder das Standardisieren von Prozessbeschreibungen. Auf IT Seite das einbinden von Legacy Software in aktuelle Workflow Systeme. Im Marketing Kunden Personas erstellen usw... Für all diese Dinge haben die Bereiche etliche FTE bzw Manntage gemeldet. Ist aber natürlich nur ein Auszug.
 
Wenn die Mitarbeiter nicht verstehen wozu ein LLM oder agentic AI in der Lage sein kann werden sie auch keine Use Cases mit guten Business Cases bringen.
Der Punkt ist, dass die Mitarbeiter dann sehen, was für Fehler gerade die LLMs immer wieder machen, wenn sie mal wieder halluzinieren. Für bestimmte, sehr begrenzte Anwendungsbereiche ist KI sinnvoll und hilfreich, aber LLMs überfordern das was derzeit möglich ist und im Grunde nur eine große aufgeblähte Wahrscheinlichkeitsrechnung ist. Das die Ergebnisse besser werden, wenn man die nur noch größer macht, wie es ja derzeit geschieht, steht auch lange nicht fest.
 
Ja das passt zu einigem.
Büro und Verwaltung, Terminplanung, Kommunikation, Dokumentenpflege und Customer Support.
Backend Programmiererung, Wartung.
Juristische Angelegenheiten, Prüfung, Recherche, Standardformulierungen.
Buchhaltung, Belege, Kontierung, Reporting.
 
naja, wenn man sich anschaut das usecase nr. 1 bei chtgpt Eigentherapie ist. Dann sollte man vielleicht nicht all zu große Erwartungen haben.
Darüber hinaus ist es noch zu früh das tot zu reden.
KI wird bleiben und KI wir besser und wird sicher mehr und mehr genutzt. Was aber wirklich an Jobs ersetzt wird, das wird sich wohl zeigen.

Ich nutze KI tools täglich zu hauf.

Wir haben gerade im Verein eine Systemumstellung gemach die wohl früher einer richtiger Administrator hätte machen müssen.
Zwei DAUs mit KI und etwas Zeit haben es auch geschafft :)

Aktuell habe ich mein DDR5 Speicher mit 7800x3d auf 62ns runter optimiert im Dialog mit Gemini. Das hätte ich sonst nie geschafft. Vor allem hat die KI mehr gelduld als ich :)
einfach paar Screenshots liefern und die Empfehlungen kommen.

Videoanalyse / PDF Dokumente Analyse alles super. Da hätte ich überhaupt keine Zeit zu sonst.

schmeiß doch mal so eine 2h YouTube zu irgendein Thema in Gemini und es wird in paar Sekunden 2 DinA4 Seiten Zusammenfassung geliefert. Auf nachfrage warum das video 2h dauert. Naja da wird halt viel wiederholt aber kein weiterer wichtiger Content gebracht. Das ist für Research unfassbar gut.
 
Zuletzt bearbeitet:
Ja das passt zu einigem.
Also ich kann nicht zu allen Beispielen die Du nennst was sagen, aber zumindest was juristische Dinge angeht, weiß ich von genug Beispielen wie KI einfach Gesetze erfunden hat und Customer Support per KI ging bei einigen Firmen die es versucht haben, gewaltig daneben, so dass sie wieder zurückgerudert sind. Da wird viel überhypt, was dann aber in der Realität eben nicht funktioniert hat. Bei allen Beispielen von Dir kommt es aber auch mehr Korrektheit an als beim Erzeugen von Bildern, wo es ja auch schon genug Fälle gab, wo z.B. die Anzahl der Beine in einem Gruppenbild nicht zur Anzahl der Personen gepasst hat oder nicht jede Hand 5 Finger hatte. Solche Fehler mögen oft nicht auffallen, aber bei allen anderen Dingen die Du genannt hast, kann man sie sich nicht erlauben, sie passieren aber trotzdem. Das größte Problem der KI, so wie sie bisher ist, ist eben einfach nicht zu wissen was sie nicht weiß.
 
Für mich ist die KI nur ein gigantisches Mindmap mit unglaublich vielen Verknüpfungen, was auf vielen Daten zurückgreift, sortiert und priorisiert, und das unglaublich schnell. KI-Rechenzentren können aber auch nur auf Daten zurückgreifen, mit dem es gefüttert wurde und wird, bzw. verknüpft wurde. Da stellt sich für mich die Frage, was und wer definiert, was Wahrheit, Fakt, valide, Fiktion oder Fake ist. Und da liegt der Hase begraben, weil die Menschheit mit gleichen Problemen zu kämpfen haben. Ich will die KI nicht verteufeln, gibt es doch auch viele Bereiche, was von der gigantischen Rechenleistung profitieren kann, was der Mensch mit seinen neuronalen Netzen im Gehirn, es ist letztendlich auch limitiert, nicht stemmen kann. Vor zig Jahrzehnten wurde mal postuliert, dass nach vielen Generationen der Menschheit (Zeitraum 100.000 Jahre) die übergeordnete Gehirnmasse (das Ich, kontrollierte Sinneswahrnehmung, Wissen, ...) anwächst, letztendlich der knöcherne Schädel deutlich größer wird. Seither werden Aliens oft mit großem Schädel dargestellt. Großer Schädel bedeutet, mehr Wissen, letztendlich intelligenter. Deswegen ist ein riesiges Rechenzentrum, mit unglaublich viel Speicher und Rechenleistung, so der Wunsch, wohl intelligenter und die Menschheit hinkt offensichtlich hinterher, weil unser Gehirn limitiert ist. Auch Einstein hatte in manchen Bereichen nicht immer recht, weil sein Wissen auch limitiert war. Er hat aber einen wichtigen Grundstein gelegt, weiteres Wissen aufzubauen, um die Welt zu erklären, wie sie ist. Man irrt sich empor und nichts anderes machen die KI-Zentren :fresse:
 
Ja das passt zu einigem.
Büro und Verwaltung, Terminplanung, Kommunikation, Dokumentenpflege und Customer Support.
Backend Programmiererung, Wartung.
Juristische Angelegenheiten, Prüfung, Recherche, Standardformulierungen.
Buchhaltung, Belege, Kontierung, Reporting.
Ist erschreckend, wie wenig manche über die tatsächlichen Fähigkeiten von KI wissen. Aber mach ruhig, lass eine KI dich bei Rechtsfragen beraten oder die Bremsen seines Autos prüfen oder deine investments managen 🙄.

Eine Studie nach der anderen wird veröffentlicht, die ganz klar aussagen, dass "KI" ständig Fehler macht und keine Verantwortung übernehmen kann. Es ist höchstens ein Assistent einer richtigen Person. Und die ist mit so viel gegenchecken beschäftigt, dass es effizienter und nachweislich profitabler ist, wenn sie die Arbeit gleich selbst macht.

Personen wir der Zitierte sind dafür verantwortlich, dass alles rund um "KI" so krass überbewertet ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh