Danach ist man die meisten Kunden dann los, weil die keine Lust mehr haben mit so einem Unternehmen etwas zu tun zu haben. Das ist schon heute bei den Callcentern schlimm genug, mit KI wird es noch unerträglicher.
Kann ich so nicht bestätigen. Ich persönlich fand den Chatbot von Tibber zum Beispiel erstaunlich hilfreich. Der konnte mir bei einigen Fragen helfen. Und als er mir dann bei ein anderen Sachen nicht mehr helfen konnte wurde das Problem an einen Menschen weitergeleitet. Sicher nicht Perfekt. Aber in jedem Fall eine bessere Erfahrung als viele andere Support-Erlebnisse.
Es gab einen interessanten Versuch wo zwei Gruppen von Softwareentwicklern gegeneinander getestet wurden. Die eine mit KI Unterstützung und die andere ohne. Die ohne KI waren schneller fertig, die mit KI haben länger gebraucht, aber gedacht sie wären wegen der KI Unterstützung 20% schneller gewesen.
Ja. Und dann gab es die "Versuche" bei denen rausgekommen ist, dass man eigentlich keine Entwickler mehr braucht. Sorry, aber traue keiner "Studie" die du nicht selbst manipuliert hast.
Der Beruf des Softwareentwicklers ist vielschichtig. Und bei einigen Sachen kann die KI schon echt gut unterstützen. Bei anderen weniger. Beim schreiben von Boilercode sind die sehr hilfreich. Beim schreiben von Tests ebenso. Auch beim Einarbeiten in ein neues Thema sind die extrem hilfreich. Wobei grade hier das Halluzinieren echt tückisch ist. Fehler in der Logik kann man erkennen. Falsche Fakten nicht, wenn man es nicht besser weiß.
Bei vielen Sachen bin ich aber natürlich nachwievor schneller dabei das selber zu Coden. Grade Sachen wo man sich zur optimalen Lösung "herantastet". Hier direkt einen optimalen, allumfassenden Prompt zu schreiben würde länger dauern.
Der Sprecher ist ja nur die Stimme, die können die Computer schon so recht gut machen. Aber die eigentliche Arbeit ist das Übersetzen und sich da alleine auf KI zu verlassen, dürfte problematisch sein, denn Sprache ist komplexer als man meint und damit z.B. ein Film nicht unter der Übersetzung leidet, kann man diese nicht automatisieren. So sind z.B. Redewendungen von Land zu Land verschieden und diese einfach Wort für Wort zu übersetzen, ergibt dann in der anderen Sprache keinen Sinn. Bei Dokumentationen muss man wie bei Dokumenten dann doch wieder prüfen, ob alles stimmt und die KI nicht doch halluziniert hat.
Da liegst du völlig daneben. Übersetzer hat es praktisch als erstes getroffen. Es gab/gibt da eine Platfrorm für Freelancer Übersetzerjobs. Da konnte man ~2015 sehen, dass es da einen Exodus gab. Hatte mal von 90% einbruch der Jobangebote gelesen. DeepL lässt grüßen. Ja, es gibt noch vereinzelnd Leute die als Übersetzer arbeiten. Aber auch die werden es immer schwerer haben.
Solange die Images besser als dieses Werbebild für einen Kurs für Physiotherapeuten ausfällen:
Wie gesagt, von 20 generierten Bildern sind nur ein paar "gut" genug, dass Mediengestalter die retten können. Im Endeffekt ist das aber dann (aktuell) günstiger, als die Models einfliegen zu lassen und die Fotos von Hand zu schiesen. Die Mediengestalter für das Postprocessing benötigt man so oder so.
Und bevor so Bilder die als "fertig" gelten durchlaufen die mehrfach eine Qualitätssicherung. Das sind eingespielte Prozesse mit geschulten Menschen. Fehler fallen also in dem Bereich auf. Das ist was anderes, als wenn eine 0815 Marketingabteilung eine Aktion macht bei der ein Reh mit 5 Beinen druch geht.
KI ist eben nicht wirklich intelligent ...
Sehe ich ja genau so. Damit habe ich meinen Post ja eingeleitet.
Daher habe ich massive Zweifel, dass es jemals klappen wird viele Jobs durch KI zu ersetzen. Man kann auch das Autonome Fahren als Hinweis nehmen, wie gut bzw. schlecht die KI immer noch ist. Daran wird seit mehr als 20 Jahren gearbeitet und viele Firmen haben da viele Milliarden investiert.
Und es werden mit Sicherheit noch mehr Milliarden investiert werden. Das Autonome fahren wird kommen. Die Frage ist halt nur wann. Tesla mit seiner Ablehnung von vernünftigen Radar-/Lidar Sensoren sehe ich da aber nicht als Vorbild.
Das hat aber nicht wirklich was mit "KI" zu tun. Es kommen zwar speziell für die Auswertung der Sensoren Algorithmen zum Einsatz die durch machine leraning erstellt wurden. Danach wird aber zumindest in DE noch programmiert. Damit ein autonomes Auto in DE/EU zugelassen wird muss es nachweislich sicher sein. Halluzinierende KIs werden hier sicher nicht auf die Straße gelassen
Wenn z.B. zu viele junge Leute glauben, dass die KI Softwareentwickler überflüssig machen wird, dann wird keiner mehr lernen wollen wie man Software entwickelt.
Das ist richtig. Wobei ich persönlich es garnicht so schlimm finde, wenn der Hype um den Job des Softwareentwicklers etwas zurückgefahren wird. Vielen von den Berufseinsteigern der letzten Jahre fehlt das Interesse an IT. Das ist halt nur ein Job. Man hat halt gehört, dass man gut verdient und das ein Job mit zukunft ist. Wenn aber überhaupt keine Motivation für das Thema dahinter steckt werden das immer mittelmäßige Entwickler bleiben. Selbst WENN Sie von ihrem Potential her gut sein könnten. Und bei vielen fehlt auch das Potential. Die sind für die Softwarequalität auch nur bedingt besser als der ganze KI-Code.
Das haben wir ja ganz ähnlich vor ein paar Jahren schon mal mit der Blockchain gesehen, wo plötzlich auch alle eine Nutzung für die Blockchain gesucht haben um mit der Zeit zu gehen. Die Blockchain sollte ja auch alles revolutionieren, besser und billiger machen.
Der Unterschied zur Blockchain war, dass Blockchain eine relativ einfache Sache ist. Wer sich ein wenig mit Softwareentwicklung auskennt kann das Konzept schnell verstehen und entsprechend einordnen wie sinnlos das ganze für 99% der Anwendungsfälle ist.
Die KI-Algorithmen sind da schon eine ganze Ecke komplexer. Wer kann denn wirklich sagen, wo hier die Grenzen liegen?
Ich persönlich glaube nicht, dass die ihre AGI erreichen. Was man die letzten Jahre gesehen hat waren waren LLMs mit optimierteren Training. Bleibt halt ein stochastischer Papagei. Die Unzulänglichkeiten versucht man jetzt mit Programmierung zu kaschieren. Die LLM prüft ihr eigenes Ergebnis nochmal gegen. Ja, die Ergebnisse werden etwas besser. Aber die Grundprobleme wurden nicht gelöst. Der 60 Jahre alte Algorithmus für LLMs ist wohl nicht der für AGI.
Eine parallele zwischen Blockchain und KI ist, dass in beiden Fällen versucht wird über die Medien einen Hype zu erzeugen und hoch zu halten. Die KI-Firmen wissen schon wie man mit den Medien spielt. Eine Wunderergebnis hier, ein paar Milliarden als "Investition" im Kreis fließen lassen. Dann man ein dystopischer Kommentar von einem "warnenden" Mitarbeiter. Dazu dann noch ein paar Bot-Accounts auf die Kommentarbereiche loslassen.
Irgendwann müssen die Rechnungen bezahlt werden. Und dann wird man sehen, was wirklich übrig bleibt.