@Golden_:
Mir geht es nicht um das bischen Komfort im Alltag, wenn mir perplexity gut bis sehr gut hilft bei meinem löchrigen Gedächtnis in Sachen Chipsätzen oder wenn ich Studenten anhand der Aussagen dieses LLMs bzgl. gewisser Aspekte kritisch hinterfragen lasse. Mir geht es um das Große und Ganze, um das Vorgehen der Mächtigen dieser Welt, die auf dem Rücken des Rests ihren Goldrush bestmöglich monetarisieren wollen...
S. Altman hat noch ein paar bemerkenswerte Aussagen getätigt, die
@StefanG3 zynisch konotiert in #5 auf den Punkt brachte, es gehe darum, im globalen Wettrüsten um "KI" vorne zu sein. Und da komme zumindest ich "minimal" ins Grübeln, wenn in einem Bericht zusammengefalls wird,
"dass er [S. Altman] davon ausgehe, dass Energie in den 2030er-Jahren im Überfluss vorhanden sein wird. Energie und die Grenzen der menschlichen Intelligenz sind seit langem "fundamentale Begrenzer des menschlichen Fortschritts", so Altman weiter. "In dem Maße, in dem die Produktion von Rechenzentren automatisiert wird, sollten sich die Kosten für künstliche Intelligenz schließlich den Kosten für Strom annähern", schrieb er." Altman selber setzt auf die Kernfusion, geht also davon aus, dass in max. 15 Jahren diese Technologie nicht nur beherrscht / stabilisiert werden kann, sondern, dass sie
wirtschaftlich umgesetzt wird.
Andere KI-Schwergewichte sehen das offenkundig anders: M$ investiert in ein ehemals teilhavariertes Atomkraftwerk, welches (bis) zuletzt betriebswirtschaftlich nicht mehr zu betreiben war. Google seinerseits setzt auf Mini-Atomkraftwerke (SMR), die in
fünf(!) Jahren erstmalig ans Netz gehen sollen, eine Betriebs"form", die zum heutigen Zeitpunkt zumeist den Prototypen- / Forschungsstatus nicht überwunden haben. Das, was für diese Unternehmen ubiquitär vorhanden ist, ist finanzielle Liquidität, Energie, die reicht hinten und vorne nicht, zumal die Energieanforderungen um den Faktor 3 in diesem Bereich ansteigen sollen / werden.
Und das bei einer Software, die mehr und mehr Schwierigkeiten mit der Korrektheit von Antworten bzw. deren Datenbasisanalyse hat, die gegen antiquierte Schachprogramme gnadenlos scheitern, die aus ihren "ethischen" Rahmenbedingungen ausbrechen (Grok, immerhin hier ist es für liberal und wissenschaftlich orientierte Menschen erfreulich) und die Energie verbrauchen in einer Welt, die nicht genügend "saubere" Energie liefert.
Ich teile explizit die Haltung von
@StefanG3, LLMs sind nichts anderes als ein Geschäftsmodell, dass die Eliten dieser Welt in eine noch bessere Position gegenüber dem Plebs bringt.
Und das finde ich extrem problematisch - so problematisch, dass solche Aussagen wie die von S. Altman nicht gefeiert werden sollten oder dürften, soviel Bildung sollte auch in Foren wie diesem in Masse vorhanden sein (das ist KEIN persönlicher Angriff auf dich!).
Mit freundlichen Grüßen