Hohe Investitionen mit wenig wirtschaftlichem Nutzen: PWC-Umfrage dämpft Erwartungen an KI

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.660
Nach einer Phase großer Erwartungen zeigt sich bei vielen Unternehmen Ernüchterung über den praktischen Nutzen von Künstlicher Intelligenz. Trotz umfangreicher Investitionen lassen sich in der Breite bislang nur begrenzte wirtschaftliche Effekte feststellen. Zu diesem Ergebnis kommt eine aktuelle Befragung der Wirtschaftsprüfungsgesellschaft PwC unter 4.454 Unternehmern weltweit.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie immer gibt's Gewinner und Verlierer denn sobald etwas praktisch grenzenlos verfügbar ist, muss man auch wissen wie man einen Vorteil gegenüber allen anderen erreicht...

Allein die Tatsache dass wir mit Computern und vorallem Daten/Wissens-banken so sprechen können wie Picard mit der Enterprise, ist einfach unglaublich. Toll das mitzuerleben (und zu nutzen).
 
Vor allen Dingen muss man sich auch entsprechend aufstellen inkl Transformation. Wenn die Mitarbeiter nicht verstehen wozu ein LLM oder agentic AI in der Lage sein kann werden sie auch keine Use Cases mit guten Business Cases bringen. Bei uns ist es ähnlich. AI Literacy brauchen ja nur ein paar wenige. Nee, alle. Genau wie PCs im Büro oder das Internet, man muss eine Technologie ins Massenverständnis bringen um sie massentauglich zu machen.
 
Ich hab eine KI im Haus die reicht mir die weiß alles besser.Noch so ein Teil könnte ich nicht ertragen vor allem wenn die auch noch recht hat.
 
welche Use Cases mit gutem Business Case habt ihr?
Zum Beispiel das Access Management automatisierten, Testcases erstellen lassen oder das Standardisieren von Prozessbeschreibungen. Auf IT Seite das einbinden von Legacy Software in aktuelle Workflow Systeme. Im Marketing Kunden Personas erstellen usw... Für all diese Dinge haben die Bereiche etliche FTE bzw Manntage gemeldet. Ist aber natürlich nur ein Auszug.
 
Wenn die Mitarbeiter nicht verstehen wozu ein LLM oder agentic AI in der Lage sein kann werden sie auch keine Use Cases mit guten Business Cases bringen.
Der Punkt ist, dass die Mitarbeiter dann sehen, was für Fehler gerade die LLMs immer wieder machen, wenn sie mal wieder halluzinieren. Für bestimmte, sehr begrenzte Anwendungsbereiche ist KI sinnvoll und hilfreich, aber LLMs überfordern das was derzeit möglich ist und im Grunde nur eine große aufgeblähte Wahrscheinlichkeitsrechnung ist. Das die Ergebnisse besser werden, wenn man die nur noch größer macht, wie es ja derzeit geschieht, steht auch lange nicht fest.
 
Ja das passt zu einigem.
Büro und Verwaltung, Terminplanung, Kommunikation, Dokumentenpflege und Customer Support.
Backend Programmiererung, Wartung.
Juristische Angelegenheiten, Prüfung, Recherche, Standardformulierungen.
Buchhaltung, Belege, Kontierung, Reporting.
 
naja, wenn man sich anschaut das usecase nr. 1 bei chtgpt Eigentherapie ist. Dann sollte man vielleicht nicht all zu große Erwartungen haben.
Darüber hinaus ist es noch zu früh das tot zu reden.
KI wird bleiben und KI wir besser und wird sicher mehr und mehr genutzt. Was aber wirklich an Jobs ersetzt wird, das wird sich wohl zeigen.

Ich nutze KI tools täglich zu hauf.

Wir haben gerade im Verein eine Systemumstellung gemach die wohl früher einer richtiger Administrator hätte machen müssen.
Zwei DAUs mit KI und etwas Zeit haben es auch geschafft :)

Aktuell habe ich mein DDR5 Speicher mit 7800x3d auf 62ns runter optimiert im Dialog mit Gemini. Das hätte ich sonst nie geschafft. Vor allem hat die KI mehr gelduld als ich :)
einfach paar Screenshots liefern und die Empfehlungen kommen.

Videoanalyse / PDF Dokumente Analyse alles super. Da hätte ich überhaupt keine Zeit zu sonst.

schmeiß doch mal so eine 2h YouTube zu irgendein Thema in Gemini und es wird in paar Sekunden 2 DinA4 Seiten Zusammenfassung geliefert. Auf nachfrage warum das video 2h dauert. Naja da wird halt viel wiederholt aber kein weiterer wichtiger Content gebracht. Das ist für Research unfassbar gut.
 
Zuletzt bearbeitet:
Ja das passt zu einigem.
Also ich kann nicht zu allen Beispielen die Du nennst was sagen, aber zumindest was juristische Dinge angeht, weiß ich von genug Beispielen wie KI einfach Gesetze erfunden hat und Customer Support per KI ging bei einigen Firmen die es versucht haben, gewaltig daneben, so dass sie wieder zurückgerudert sind. Da wird viel überhypt, was dann aber in der Realität eben nicht funktioniert hat. Bei allen Beispielen von Dir kommt es aber auch mehr Korrektheit an als beim Erzeugen von Bildern, wo es ja auch schon genug Fälle gab, wo z.B. die Anzahl der Beine in einem Gruppenbild nicht zur Anzahl der Personen gepasst hat oder nicht jede Hand 5 Finger hatte. Solche Fehler mögen oft nicht auffallen, aber bei allen anderen Dingen die Du genannt hast, kann man sie sich nicht erlauben, sie passieren aber trotzdem. Das größte Problem der KI, so wie sie bisher ist, ist eben einfach nicht zu wissen was sie nicht weiß.
 
Für mich ist die KI nur ein gigantisches Mindmap mit unglaublich vielen Verknüpfungen, was auf vielen Daten zurückgreift, sortiert und priorisiert, und das unglaublich schnell. KI-Rechenzentren können aber auch nur auf Daten zurückgreifen, mit dem es gefüttert wurde und wird, bzw. verknüpft wurde. Da stellt sich für mich die Frage, was und wer definiert, was Wahrheit, Fakt, valide, Fiktion oder Fake ist. Und da liegt der Hase begraben, weil die Menschheit mit gleichen Problemen zu kämpfen haben. Ich will die KI nicht verteufeln, gibt es doch auch viele Bereiche, was von der gigantischen Rechenleistung profitieren kann, was der Mensch mit seinen neuronalen Netzen im Gehirn, es ist letztendlich auch limitiert, nicht stemmen kann. Vor zig Jahrzehnten wurde mal postuliert, dass nach vielen Generationen der Menschheit (Zeitraum 100.000 Jahre) die übergeordnete Gehirnmasse (das Ich, kontrollierte Sinneswahrnehmung, Wissen, ...) anwächst, letztendlich der knöcherne Schädel deutlich größer wird. Seither werden Aliens oft mit großem Schädel dargestellt. Großer Schädel bedeutet, mehr Wissen, letztendlich intelligenter. Deswegen ist ein riesiges Rechenzentrum, mit unglaublich viel Speicher und Rechenleistung, so der Wunsch, wohl intelligenter und die Menschheit hinkt offensichtlich hinterher, weil unser Gehirn limitiert ist. Auch Einstein hatte in manchen Bereichen nicht immer recht, weil sein Wissen auch limitiert war. Er hat aber einen wichtigen Grundstein gelegt, weiteres Wissen aufzubauen, um die Welt zu erklären, wie sie ist. Man irrt sich empor und nichts anderes machen die KI-Zentren :fresse:
 
Ja das passt zu einigem.
Büro und Verwaltung, Terminplanung, Kommunikation, Dokumentenpflege und Customer Support.
Backend Programmiererung, Wartung.
Juristische Angelegenheiten, Prüfung, Recherche, Standardformulierungen.
Buchhaltung, Belege, Kontierung, Reporting.
Ist erschreckend, wie wenig manche über die tatsächlichen Fähigkeiten von KI wissen. Aber mach ruhig, lass eine KI dich bei Rechtsfragen beraten oder die Bremsen seines Autos prüfen oder deine investments managen 🙄.

Eine Studie nach der anderen wird veröffentlicht, die ganz klar aussagen, dass "KI" ständig Fehler macht und keine Verantwortung übernehmen kann. Es ist höchstens ein Assistent einer richtigen Person. Und die ist mit so viel gegenchecken beschäftigt, dass es effizienter und nachweislich profitabler ist, wenn sie die Arbeit gleich selbst macht.

Personen wir der Zitierte sind dafür verantwortlich, dass alles rund um "KI" so krass überbewertet ist.
 
Wir nutzen auch eine eigene LLM aber die muss erst mal angelernt werden und immer wieder müssen die Fehler korrigiert werden. Hilfe ist es derzeit nicht, Wir wissen auch nicht ob die irgendwann mal gut genug ist Arbeit abzunehmen. Bisher bindet sie nur Arbeitskraft und kostet.
 
Lehrlinge müssen auch angelernt werden und machen Fehler. Auch jeder andere macht Fehler.
Dafür gibt es ja Prozesse dies abzufangen. Sollte es zumindest.

Wer das ganze Thema ignorierte wird wohl die nächste Kodak.

Es kommt immer darauf an was man machen will und ich kenne genug Leute heute schon sagen nie mehr Ohne.
 
KI-Rechenzentren können aber auch nur auf Daten zurückgreifen, mit dem es gefüttert wurde und wird
Eben und immer mehr von den Daten ist der Mist den die KI selbst ausspuckt, weshalb die Modelle tendenziell eben schlechter werden dürften.

Deswegen ist ein riesiges Rechenzentrum, mit unglaublich viel Speicher und Rechenleistung, so der Wunsch, wohl intelligenter und die Menschheit hinkt offensichtlich hinterher, weil unser Gehirn limitiert ist.
Wissen ist das eine, die intelligente Verknüpfung dieses Wissens ist das andere und da nutzt KI eben nur eine Wahrscheinlichkeitsrechnung, eine sehr komplexe, aber am Ende ist sie eben darauf limitiert, womit das Modell trainiert wurde. Auch scheint inzwischen klar zu sein, dass der Aufwand um Modelle zu verbessern, sogar mehr als exponentiell steigt.

Auch Einstein hatte in manchen Bereichen nicht immer recht, weil sein Wissen auch limitiert war. Er hat aber einen wichtigen Grundstein gelegt, weiteres Wissen aufzubauen, um die Welt zu erklären, wie sie ist.
Was eben für KI nicht möglich ist, genau da liegt der Fehler der schon mit der Bezeichnung beginnt. Intelligence ist im Englischen eben auch die Bezeichnung für Wissen, also nicht unbedingt für das was wie im Deutschen als Intelligenz bezeichnen. Die CIA (Central Intelligence Agency) sammelt Wissen, versucht aber eben nicht der nächsten Einstein zu sein. Die Versprechungen wie z.B. die KI würde neue Medikamente finden, sind daher eben Unsinn, da sie eben nicht mit den Reaktionen auf neue Wirkstoffe trainiert sein kann und daher allenfalls zufällig mal richtig liegt, wenn sie halluziniert, weil KI eben nicht weiß was es nicht weiß und deshalb immer eine Antwort gibt, die eben zufällig ist und daher meist nicht stimmt, aber natürlich zufällig mal stimmen kann. Ein blindes Huhn findet ja auch mal ein Korn.
Dafür gibt es ja Prozesse dies abzufangen. Sollte es zumindest.
Dann ist nur die Frage, ob der Aufwand dafür den Einsatz der KI überhaupt noch lohnt. Dies lässt sich sicher nicht pauschal beantworten, da es von der jeweiligen Aufgabe und der verwendeten Technik abhängt. Allerdings dürften viele der Versprechen die heute gemacht werden, zumindest noch sehr lange in der Zukunft liegen, wenn sie denn überhaupt jemals realisiert werden können.
Wer das ganze Thema ignorierte wird wohl die nächste Kodak.
Das kann sein, wobei die Ironie bei Kodak ist, dass dort die erste Digitalkamera erfunden wurden und die Idee dann vom Management nicht weiter verfolgt wurde, weil man sein profitables Kerngeschäft nicht gefährden wollte. Aber es sind auch unzählige Firmen pleite gegangen, die zu früh auf unreife Technologien gesetzt haben. Jedes Unternehmen sollte das Thema beobachten, aber dabei eben auch kritisch bleiben und nicht blind auf die Versprechungen der Verkäufer reinfallen und am Ende sind die CEO der beteiligten Unternehmen auch nur Verkäufer, die eben die Anteile/Aktien und Anleihen/Investitionen in ihre Firmen, an Investoren verkaufen müssen. Denn Geld verdienen die ganzen KI Firmen derzeit noch keines, ganz im Gegenteil. Geld verdienen nur die Ausrüster deren Produkte in den ganzen Rechenzentren gebraucht werden, wie eben vor allem NVidia, aber auch die DRAM und NAND Hersteller.

Man könnte es auch so sagen, dass ist derzeit ein Goldrausch bei dem die Schürfer noch kein Gold gefunden haben, die Verkäufer der Schaufeln und Spitzhacken sich aber eine goldenen Nase verdienen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh