Suche Server Anbieter für Dedicated Server

Ich habe einfach ne Linux Kiste bei Hetzner gemietet aus der Serverbörse und dann selber Windows Server installiert und mit eigener Lizens aktiviert.
Wenn das noch so ist wie vor paar Monaten, hast du für das erste mal für ein Paar Stunden KVM over IP umsonst und das auch bei den i7 Servern wenn du kein ECC brauchst.
Sollte das mit dem Image einbinden nicht funktionieren, macht dir Hetzner sogar ein USB Stick fertig und steckt den am Server, so geht das installieren nochmal viel viel schneller.

Edit: https://docs.hetzner.com/de/robot/dedicated-server/maintainance/kvm-console/
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ne D2ASv5 Instanz (2C/8GB, 3rd gen. Epyc), Das Ganze fuer nen Jahr upfront bezahlt mit ner ~150GB SSD sollte iwo bei 50-60€ / mtl. rauskommen.
mal ganz abgesehen davon, dass man dafür in einem nicht-Entwicklungsland die 4fache Hardware nach Hause stellen (und betreiben) könnte, was für den hier beschriebenen Anwendungsfall auch gut funktionieren sollte...

Hat irgendjemand vernünftige Benchmarks von "Cloud" vs Baremetal vs VPS zur Hand?

EDIT:
Ohhweh, man findet kaum was, weil jeder, der das nicht hyped, vmtl. auch keinen Bock hat, ein paar 100€ in die Hand zu nehmen, um das ordentlich zu benchmarken. Und in den meisten Firmen macht das vmtl. auch niemand.

Lustig ist das hier: https://www.researchgate.net/figure...essing-times-A-and-FSC-curve-B_fig2_324441479 - wenn dann sinnlose "wir erforschen AWS"-Wissenschaft zum notwendigen positiven Ergebnis kommt: (Zitat aus https://www.biorxiv.org/content/10.1101/246587v1)
1666381092504.png

Und jetzt darf mir einer der AWS-Fans mal belegen, dass sich das heute anders verhält.


(Und ja, Cloud hat Vorteile. Wenige für private Projekte, einige für Mittelständler und keine (außer der Möglichkeit, statt langlaufenden Arbeitsverträgen kurzfristige Cloud-Kosten in der Bilanz zu haben) für global agierende Unternehmen ;))

EDIT2: die Cloud-Preise sind tatsächlich lächerlich. Eine m5d.metal (2x 24 Skylake-Kerne)-Instanz kostet im Monat 1700€ (bei Anmietung über 3a)! Ohne Raum und Hardwaresupport kostet so ein Teil 15k€ frei Haus. Wenn man dort fix 10 Stück für 3a braucht ist man bei 600k€. Da kann man auch gemütlich jemanden für die Hardware einstellen, ein Rack und Uplink mieten und noch ein paar Server als Hotspare in ein anderes Rack stellen...
 
Zuletzt bearbeitet:
und keine (außer der Möglichkeit, statt langlaufenden Arbeitsverträgen kurzfristige Cloud-Kosten in der Bilanz zu haben) für global agierende Unternehmen ;))
Gott was redest du denn fuer ein Blech. Lebst du IT maessig unter dem Stein?
 
Ich glaube nicht ;)? Fakt ist, dass Amazon auf ihr Cloudgeschäft vmtl. recht hohe Margen hat und nachdem der Betrieb von Servern ansich ein Wald- und Wiesengeschäft ist ..., dürfte das ab einer gewissen Größe rechnerisch (und nicht bilanzierbar...) günstiger sein, das selbst zu machen - gerade da Abhängigkeit in dem Bereich halt langfristig teuer bezahlt wird. Imho ist da heute auch eine große Portion Cargo-Kult dabei.

Alternativ wäre halt ein gesunder Markt ganz ok, aber damit tun wir uns ja schwer.
 
Wenn du behauptest, dass ein Großkonzern keinerlei Vorteile durch Hyperscaler hat, dann hast du schlichtweg keine Ahnung. Hast du schonmal ernsthaft auf/mit Azure oder AWS gearbeitet?
 
dass ein Großkonzern keinerlei Vorteile durch Hyperscaler hat
habe ich das gesagt? Bilanziell hat das massive Vorteile (keine Abschreibungen, keine Personalkosten, keine Verpflichtungen). Ist aber halt nix wert, wenn man die Server eigentlich ohnehin braucht. Aber gut.

Zeige doch mal konkret mit Zahlen, wie ein Unternehmen mit einem Hyperscaler eingespart hat? Also: 40% weniger Ausgaben in der IT-Abteilung. Und nicht irgendein Consultancy-Gesülze von: Personaleinsparungen (ach ja, wir haben ein paar Leute gekündigt - sicher?!), neuen Welten und Co?

Hast du schonmal ernsthaft auf/mit Azure oder AWS gearbeitet?
Muss ich hoffentlich nie tun :popcorn:(kann allerdings schwierig werden, ich weiß)
 
Zeige doch mal konkret mit Zahlen, wie ein Unternehmen mit einem Hyperscaler eingespart hat?
Nö. Wer sagt denn, dass in der Wolke alles billiger wird?

Zeig mir lieber mal, wie du in den naechsten 4 Wochen ein neues on-prem Datacenter bauen kannst. Waehrend ich in der Wolke bereits fertig bin suchst du noch Switche und laesst dich mit 6 Monaten lieferzeiten abwimmeln.
Beitrag automatisch zusammengeführt:

Muss ich hoffentlich nie tun :popcorn:(kann allerdings schwierig werden, ich weiß)
Verstanden. Blinder und Farben... Kennen wir.
 
  • Danke
Reaktionen: you
Nö. Wer sagt denn, dass in der Wolke alles billiger wird?
Was bringt die Wolke denn dann, wenn man das meiste auch selbst hinkriegt?

Zeig mir lieber mal, wie du in den naechsten 4 Wochen ein neues on-prem Datacenter bauen kannst
Auch hier zeig du mir doch lieber, wer in den nächsten 4 Wochen ein neues Datacenter braucht? Was ist da denn passiert?

→ ist halt viel Cargo-Kult dabei.

Waehrend ich in der Wolke bereits fertig bin suchst du noch Switche und laesst dich mit 6 Monaten lieferzeiten abwimmeln.
Kann Dir in der Wolke auch passieren: https://www.reddit.com/r/aws/comments/iz2mmf/aws_instance_shortage_in_useast1/ ...
 
Was bringt die Wolke denn dann, wenn man das meiste auch selbst hinkriegt?
Bekommst du eben nicht.
Die meisten Buden da draußen haben ihre Kernkompetenz eben nicht in der IT bzw. dem RZ Betrieb. Sie produzieren irgendwas und IT ist notwendiges Uebel.
Genau aus dem Grund ist eine Microsoft oder Amazon besser im RZ Betrieb. Das ist ihr taeglich Brot.

Auch hier zeig du mir doch lieber, wer in den nächsten 4 Wochen ein neues Datacenter braucht? Was ist da denn passiert?
Zukauf einer Firma, Standortverlagerung, Expansion. Aenderung der Anforderungen, ploetzlicher Anstieg der RZ Anforderungen.
Heute muss ich vllt. modelle Trainieren, morgen habe ich eher hohe Storage Anforderungen.

GRAD bei den Großen spielt es oft eine untergeordnete Rolle was es kostet. Es muss gehen und zwar flott. Und automatisiert.


Toll, hat der Architekt 2 Mark gespart und keine Redundanz eingeplant.
 
Die meisten Buden da draußen haben ihre Kernkompetenz eben nicht in der IT bzw. dem RZ Betrieb. Sie produzieren irgendwas und IT ist notwendiges Uebel.
Wie genau ersetzt Amazon EC2 die IT? Amazon EC2 ersetzt den RZ-Betrieb...
Genau aus dem Grund ist eine Microsoft oder Amazon besser im RZ Betrieb. Das ist ihr taeglich Brot.
... und der ist nicht so komplex, dass man da Amazon oder Microsoft bräuchte (gut, OVH hat gezeigt, dass es da auch Probleme gibt. Warten wir mal, bis das bei Hyperscalern passiert). Ist halt die gleiche sinnlose Logik, mit der große Immobilien heute als AG organisierte Hausmeisterdienste nutzen... Und merke: ich sag' nicht, dass man alles selber machen muss. Die jetzigen Strukturen sind aber weder günstig noch besonders toll für uns alle, sondern einfach die nächste Vendor-Lock-in-Story... :)

Zukauf einer Firma, Standortverlagerung, Expansion. Aenderung der Anforderungen, ploetzlicher Anstieg der RZ Anforderungen.
Funktioniert alles genauso gut, wenn jeder sein Rechenzentrum selbst betreibt - dein Hyperscaler lässt sich im Übrigen die Hardware, die die wiederum auf Halde liegen haben, auch vergolden. Daneben: hast du das schon mal mitgemacht (also Standort zugemacht - gibt auch Dark Fibre für die Expansion)? Oder ist das einfach nur "aber das kann ja sein". (und ja, ich mag' das etwas übertrieben rüberbringen, aber erzähl doch einfach, was du mit der Cloud machst, was du mit on-premise-Infrastruktur zum gleichen Preis nicht machen konntest?)

Heute muss ich vllt. modelle Trainieren
Wie schon am Anfang gesagt: im mittleren Bereich mag da das Mieten durchaus nützlich sein. Ansonsten: Modelle trainieren bedeutet erstmal Hyperparametertuning (und, dass IT iwo doch Kernkompetenz ist?). Das ist ein sehr schönes Batch-Problem und ein Konzern, der das macht, macht das aus guten Gründen auch länger und vmtl. mit mehr als einer Arbeitsgruppe, d.h. es ist zu erwarten, dass die Belastung nicht sprunghaft steigt. Warum eigentlich? - werden es mehr Daten, dauert das i.d.R., weil man die Akquise-Strukturen selbst betreibt (wobei: kann ja auch jemand anders machen :)); neue Geschäftsfelder? braucht man Leute, die das machen. Dauert.

morgen habe ich eher hohe Storage Anforderungen.
und dann macht man was genau mit den Daten? Woher kommen die eigentlich? Und wohin gehen die. Wofür lagert man die kurzfristig, statt sie gleich zu verarbeiten? Von welchen Größenordnungen sprichst du?

GRAD bei den Großen spielt es oft eine untergeordnete Rolle was es kostet. Es muss gehen und zwar flott. Und automatisiert.
Mittlerweile hat jeder Serververmieter eine API. PXE-Boot und custom-Images sind auch nicht sooo neu. Braucht(e) man halt fähige Leute und einen Plan. Das lustige an den Hyperscalern ist ja, dass die an vielen Stellen den Plan jetzt durch ein Produkt zu ersetzen zu scheinen. Ich bezweifle, dass das wirklich zu besseren Ergebnissen führt.

Toll, hat der Architekt 2 Mark gespart und keine Redundanz eingeplant.
Hast du den Link gelesen. Wie war das nochmal mit "plötzlicher Anstieg der RZ Anforderungen" - trifft wohl auch Amazon ;). Und wenn man in der Cloud Redundanz einplanen kann, kann man das hoffentlich auch im eigenen RZ.
 
Nimms mir nicht uebel aber ich beende hier an der Stelle die Diskussion mit dir.
Offensichtlich hast du bisher noch nicht in einer Firma gearbeitet, dessen IT Budget 3-Stellige Millionen oder gar Milliarden pro Jahr umfasst.
Sonst koenntest du meine Aussagen besser einordnen.
 
Offensichtlich hast du bisher noch nicht in einer Firma gearbeitet, dessen IT Budget 3-Stellige Millionen oder gar Milliarden pro Jahr umfasst.
nein, darum bitte ich dich, meine Aussagen einzuordnen? Wenn man bei einem IT-Budget von Milliarden allerdings IT nicht kann, dürfte was falsch laufen...

Erzähl doch einfach mal, wie diese Unternehmen die Infrastruktur skalieren!
 
Primaer haenge ich mich an deiner Aussage auf, dass es keinen Mehrwert fuer Großkonzerne bei den Hyperscalern gibt. Und das ist schlicht falsch.
Egal wie gut deine IT Truppe ist. Wenn du irgrndwann 1000+ k8s Cluster zu Hause hast, wirst du merken dass man mit ‚normalem‘ know-how an seine Grenzen stoeßt. Wenn dein Virtualisierungs-Layer Netzwerkmaessig die Graetsche macht und auch die Hersteller ratlos werden. Dann ist beispielsweise ein Punkt erreicht in dem ne kleine Truppe + Hyperscaler ausreicht um Mehrwert zu schaffen.
… Oder es kommt ne Pandaemie und du musst ploetzlich von 30k remote auf 100k remote Usern hochskalieren.
Das waren beides im uebrigen reale Szenarios der letzten paar Jahre. Und ich habe noch deutlich mehr davon erlebt.
 
Ich wette der TO will diverse BOTs laufen lassen, die in F2P-mobile games ingame items farmen oder irgendwelche Cheats/Hacks laufen lassen.

@DoktorFummel Ganz ehrlich, wenn du nicht deinen Namen mit dem Service verbunden haben willst, lass es bleiben, besonders wenn du von der Technik keinerlei Ahnung hast. Das wird sonst super peinlich, wenn du irgendein offensichtliches Detail übersehen hast und dann die Polizei bei deinen Eltern klingelt...
 
Nur falls noch jemand das EIGENTLICHE Thema im Sinn hat und via Google auf den Thread hier stößt:

Dedizierte Server (also Zugriff auf eine echte Maschine, die nicht virtualisiert ist) gibts bei:
Die günstigsten Preise sind natürlich echte Gurken-Server und ich hab die Preise nur dazu geschrieben, damit man weiß, wo man anfängt, wenn man einen dedizierten Server braucht. Ganz wichtig: Wenn man einen dedizierten Server betreibt, muss man sich auch im Klaren sein, dass es des Öfteren DDoS Attacken auch auf kleine Anbieter gibt - darauf kann man also gezielt achten. Es bringt ja nix, einen Server zu haben, der häufiger mal weg ist, weil man Opfer einer Attacke wird.

Weitere Anbieter kann man sich im Internet relativ schnell raussuchen, jedoch sind die größten Anbieter oft auch empfehlenswert, wenn man zuverlässigen Kram will. Weitere Beispiele sind alfahosting, strato, all-inkl, 1blu, domainfactory und so weiter.
 
dedicated heißt aber auch, dass man für alles verantwortlich ist was der Server macht oder was mit ihm gemacht wird.
Ist man zu blöd den zu sichern und wird die Kiste gehackt für bspw nen DDos botnet, bist du dran.
Wird damit dann auch noch Schadcode verteilt, dann wirds richtig fies für den Serverbetreiber (also den Anmieter!)
 
Primaer haenge ich mich an deiner Aussage auf, dass es keinen Mehrwert fuer Großkonzerne bei den Hyperscalern gibt. Und das ist schlicht falsch.
Da wiedersprichst Du Dir dann aber schnell selber...
Egal wie gut deine IT Truppe ist.
Denn komischerweise schaffen das die Hyperscaler auch ;). Und soweit ich weiß, arbeiten dort auch Menschen. Man müsste die halt ordentlich zahlen und wenn ich mir die Gewinnausschüttungen in der deutschen Industrie so anschaue, wäre das dort problemlos möglich gewesen, wenn man nicht den verschiedenen (Nazi-)Erben (zum großen Teil) sehr viel Geld abgeben müsste...
Wenn du irgrndwann 1000+ k8s Cluster zu Hause hast, wirst du merken dass man mit ‚normalem‘ know-how an seine Grenzen stoeßt.
Cluster oder Nodes im Cluster (da sind 1000 ja noch nicht viele)?!? War nichtmal die Idee von Borg (und dann kubernetes), dass man da alles unter einem Dach laufen lässt - mir scheint eher, dass jemand mit 1000 k8s-Clustern nicht so recht weiß, was er tut... (pro Cluster 10-20 Mitarbeiter - was?!)? Und ja, wenn man normalisiert, dass man die Dinge nicht selber machen kann, weil ... dann kann das irgendwann auch niemand mehr.
Wenn dein Virtualisierungs-Layer Netzwerkmaessig die Graetsche macht
V.a. wenn man dann noch aus Gründen alle k8s-Cluster im selben Hypervisor laufen lassen muss ...
und auch die Hersteller ratlos werden.
Und das kann beim Hyperscaler nicht passieren?! Oder sagst du dann, "wenn die das nicht können"?
Dann ist beispielsweise ein Punkt erreicht in dem ne kleine Truppe + Hyperscaler ausreicht um Mehrwert zu schaffen.
Wird das dann billiger? Oder kauft man halt nicht die Kompetenz ein und macht sich abhängig?
… Oder es kommt ne Pandaemie und du musst ploetzlich von 30k remote auf 100k remote Usern hochskalieren.
Das waren beides im uebrigen reale Szenarios der letzten paar Jahre. Und ich habe noch deutlich mehr davon erlebt.
Weißt du, wie wir das an der Uni gemacht haben: https://guacamole.apache.org/ :) - die PCs waren ja da und afaik ist das lizenztechnisch auch möglich. Mit einem kompetenten IT-Team und einem Kubernetes-Cluster kann man das sehr einfach machen, nicht?

Tatsächlich ist im Großen wie im kleinen das größte Problem dann wohl die Tatsache, dass adäquate Anbindung ans Internet nicht vorhanden ist. Siehe z.B. hier auf S22: https://www2.dfn.de/fileadmin/5Presse/DFNMitteilungen/DFN_Mitteilungen_95.pdf - mit 20Gbit sind dann 30k Remote-Desktops wohl tatsächlich eher Fantasie. Dazu kommt, dass in der digitalen Kolonie alle Routen in die Cloud führen, aka das Peering zwischen hier ansäßigen Unternehmen und ISPs dürfte so aussehen, wie im DFN (S32 im vorigen PDF): Cloud (routet vmtl. nicht an seine ISP-Peering weiter...) und allgemeine Knoten gleichverteilt. Die meisten ISPs scheinen da vmtl. noch viel mehr auf "privates" Peering zu setzen, denn das ist billiger: https://www.golem.de/news/de-cix-nu...eering-grosser-netzbetreiber-2103-155030.html Und ja, in solchen "Netzen" braucht man die Cloud, weil die erkannt haben, dass die Erreichbarkeit all der "1 Gbit im Downstream"-Anschlüsse sich sehr schön finanziell ausbeuten lässt. Und nachdem wir ja in DE fähige Digitalpolitiker und ITler haben, lassen wir das halt mit uns machen...

Bin im übrigen nicht der einzige mit der im letzten Absatz ausgedrückten Meinung: https://world.hey.com/dhh/why-we-re-leaving-the-cloud-654b47e0
But this isn't just about cost. It's also about what kind of internet we want to operate in the future. It strikes me as downright tragic that this decentralized wonder of the world is now largely operating on computers owned by a handful of mega corporations. If one of the primary AWS regions go down, seemingly half the internet is offline along with it. This is not what DARPA designed!

@Moderation: gerne die Diskussion auslagern

Ansonsten: ich kann mich @sandreas nur anschließen und bin mir sicher, dass keiner der Cloud-Anbieter nur Ansatzweise die gegebene Leistung (6x3GHz, 64GB RAM und 512G NVME fliegen einem bei Hetzner für 50€ entgegen) (die vmtl. auch für Unternehmens-IT bis 10 Personen i.d.R. ausreicht... (abgesehen von Redundanzen) für den Preis anbietet...

EDIT:
dedicated heißt aber auch, dass man für alles verantwortlich ist was der Server macht oder was mit ihm gemacht wird.
Ist man zu blöd den zu sichern und wird die Kiste gehackt für bspw nen DDos botnet, bist du dran.
für DDos-Botnet ist man vmtl. eher nicht "dran" - eher wird Dir erstmal dein Account gekündigt. Ansonsten ist das, wenn man feststellt, dass man hier tatsächlich eine Firewall braucht (also Windows: "öffentliches Netz"?), die sogar i.d.R. vor dem OS angeboten wird (https://docs.hetzner.com/de/robot/dedicated-server/firewall/) kein bisschen schlimmer als das Portforwarding+DynDNS, das man üblicherweise in solchen Fällen (Minecraftserver/...) empfohlen bekommen hat (vor 10 Jahren). Dran war da noch niemand von meinen Freunden ;).
 
Zuletzt bearbeitet:
Da wiedersprichst Du Dir dann aber schnell selber...
Absolut nicht. Du willst einfach nicht lesen und verstehen was ich schreibe.

Cluster oder Nodes im Cluster (da sind 1000 ja noch nicht viele)?!? War nichtmal die Idee von Borg (und dann kubernetes), dass man da alles unter einem Dach laufen lässt - mir scheint eher, dass jemand mit 1000 k8s-Clustern nicht so recht weiß, was er tut... (pro Cluster 10-20 Mitarbeiter - was?!)? Und ja, wenn man normalisiert, dass man die Dinge nicht selber machen kann, weil ... dann kann das irgendwann auch niemand mehr.
Wenn ich Cluster schreibe, dann meine ich Cluster. Bestehend aus mind 4 Nodes. 3x Compute + 1x API.
Und ja, laufen natuerlich alle auf einem Blech. Denn man will ja mit Gewalt alles gegen die Wand fahren.

Und das kann beim Hyperscaler nicht passieren?! Oder sagst du dann, "wenn die das nicht können"?
Keine Ahnung was und wie bei denen so laeuft. Funktioniert jedenfalls.


Gut gemeinter Rat:
Komm erstmal aus der Uni, arbeite n paar Jahre, sammel Erfahrungen und lass uns nochmal diskutieren.
Das hier fuehrt zu absolut gar nichts. Und du solltest dringend deine Spekulationen bleiben lassen. Du interpretierst irgendwas in meine Posts rein was ich nie von mir gegeben habe.
 
Wenn ich Cluster schreibe, dann meine ich Cluster. Bestehend aus mind 4 Nodes. 3x Compute + 1x API.
Was allerdings dann die "aber mit Kubernetes können wir besser skalieren und Dinge effizienter machen"-Argumentation ad absurdum führt und mich nicht wirklich wundern lässt, warum in derartigen Unternehmen dann die Leute in der Wolke Dinge besser machen - wurden die 1000 Cluster dann auch auf 1000 EKS umgezogen?

Aber gut, ich komm' erstmal von der Uni ;) - vmtl. hab' ich aus unserem Kubernetes-Experimenten und der Beschreibung des Anwendungszwecks einfach falsche Schlüsse gezogen und es gibt wirklich nicht-Hyperscaler mit 1000-Kubernetes-Clustern, die alle eine mittlere 3-stellige Zahl an Nodes haben (was ich für unwahrscheinlich halte*).
Mit "4 Nodes" (wie groß sind die Cluster?, gerne per PN - wie gesagt, ich höre gerne Praxis-Geschichten) hat man bei effizienter Nutzung erstmal nur einen sehr geringen Vorteil ggü. einzelnen Servern und ansonsten halt weiterhin die 50% Overhead, die man mit existierenden Failover-Lösungen hat.

* Ich halte das für unwahrscheinlich, weil selbst mit der Minimal-Konfiguration (und allen Maschinen iwie in einem Virtualisierungs-Layer) irgendwelche-Industriebetriebe (und Deiner Aussage nach sehr viele) effektiv ein TOP500-System betreiben würden (zum Vergleich das größte CPU-only in DE: https://doku.lrz.de/display/PUBLIC/SuperMUC-NG - und das sind jetzt auch noch keine scale-up-Systeme). Das gibt es zwar - auch außerhalb von Google/Facebook - dürfte aber in DE doch eher die Ausnahme sein...
 
für DDos-Botnet ist man vmtl. eher nicht "dran" - eher wird Dir erstmal dein Account gekündigt. Ansonsten ist das, wenn man feststellt, dass man hier tatsächlich eine Firewall braucht (also Windows: "öffentliches Netz"?), die sogar i.d.R. vor dem OS angeboten wird (https://docs.hetzner.com/de/robot/dedicated-server/firewall/) kein bisschen schlimmer als das Portforwarding+DynDNS, das man üblicherweise in solchen Fällen (Minecraftserver/...) empfohlen bekommen hat (vor 10 Jahren). Dran war da noch niemand von meinen Freunden ;).
Bei einem dedicated Server hat der Kunde die alleine und vollumfängliche Haftung. D.h. wird dir Fahrlässigkeit oder unzureichende Sicherung des Servers im Schadenfall nachgewiesen bist du haftbar.
Was deine Minecraft Freunde vielleicht erlebt haben oder halt nicht ist hier nicht die Gesetzgebung.
 
Bei einem dedicated Server hat der Kunde die alleine und vollumfängliche Haftung. D.h. wird dir Fahrlässigkeit oder unzureichende Sicherung des Servers im Schadenfall nachgewiesen bist du haftbar.
Was deine Minecraft Freunde vielleicht erlebt haben oder halt nicht ist hier nicht die Gesetzgebung.
Ja?! Und auch bei einem VPS und Deinem Home-Router und Deinem Home-PC und wenn du Auto fährst (stell Dir vor, man übersieht beim Abbiegen jemanden...)... Ich will das Risiko nicht kleinreden, aber mit der dort oben bei Hetzner verfügbaren Art von Firewall und durchschnittlichem IQ sehe ich nur Vorteile zum Portforwarding (und diesem Ansinnen wird hier doch selten so begegnet...)
 
Aber gut, ich komm' erstmal von der Uni ;) - vmtl. hab' ich aus unserem Kubernetes-Experimenten und der Beschreibung des Anwendungszwecks einfach falsche Schlüsse gezogen und es gibt wirklich nicht-Hyperscaler mit 1000-Kubernetes-Clustern, die alle eine mittlere 3-stellige Zahl an Nodes haben (was ich für unwahrscheinlich halte*).
Bleib einfach bei minikube.
Artikel dazu gibt es sogar n paar oeffentliche, sogar einige Vortraege von der Kubecon. Such mal beim Stern aus Stuttgart.

Bei entsprechender Unternehmensgroeße helfen Hyperscaler massiv die Anforderungen aus dem Business zu erfuellen.
Das kannst du jedoch erst wissen, wenn du mal bei ner Firma gearbeitet hast und das Uni-Labor verlassen hast.

Ich werde hier sicher nicht ueber irgendwelche Projekte sprechen.
 
“We knew a single shared [Kubernetes] cluster wouldn’t fit our needs, no vendor distribution fit our requirements, and we had the engineers with expertise,” Jens Erat, a devops engineer at Mercedes-Benz Tech Innovation said during KubeCon Europe last month. “We built a 100% FOSS [free open source software] platform build and developed by the same devops team, with no licensing issues or support requests.”

Today, Mercedes-Benz is operating on 900 on-premises Kubernetes clusters across four global data centers using OpenStack, running on version 1.23 from the end of 2021.

DIE HYPERSCALER MACHEN DAS! Meanwhile Daimler so: wir bauen das alles selber. Scheinbar schafften sie das... Auch wenn ich nicht genau weiß, wie man von 1 Kubernete-Clusters zu 900 kommt. Aber Moment, scheinbar geht's bei der Sache nicht um "geht nicht", sondern eher um Kostenoptimierung: https://www.automotiveit.eu/strategy/daimler-kooperiert-mit-infosys-114.html


Bleib einfach bei minikube.
ich gehe stark davon aus, dass die 900 Cluster bei Daimler auch eher aus 5-10 Rechnern bestehen :)

EDIT: da mich das interessiert: scheinbar kriegt jedes Team seinen eigenen Cluster (so hatte es sicher der Erfinder nicht gedacht), aber aus Gründen lief dort alles auf Openstack (jetzt scheinbar EC2). Und aus irgendwelchen Gründen musste das laut p4n0 wohl auf einem Openstack laufen (wofür es im Übrigen keinen "Hersteller" gibt). Naja, kann man machen, ich glaube aber das ist kein Beispiel, dass man die Cloud für Mehrwert braucht. (Outsourcing geht da natürlich aber super)
 
Zuletzt bearbeitet:
Bei https://www.webhostone.de findest du von Root über Docker bis Windows Server alles. Ohne den Anwendungsfall zu kennen wirds aber schwierig. Bezahlung per Bitcoin kenne ich keinen Hoster aber Paypal bieten die auch an. Was ich bisher sehr geschätzt habe ist der schnelle Support. WebhostOne gehört nicht zu günstigen Anbietern aber einen Root gibt es unter einem Zehner im Monat.
 
Ich sehe nicht ein Grund warum man Webhostone einer der anderen vorziehen sollte.

Nochmal: Früher gab es eigentlich nur zwei Arten von Servern. V-Server und Dedicated Server.

Jetzt gibt es: V-Server, Root Server, Dedicated Server. Dabei sind V-Server und Root Server ein und das selbe. Und beide sind gegenüber einen richtigen Dedicated Server schnarch lahm.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh