Das die Speicherkapazität im Vergleich zur Tesla P100 nicht weiter gesteigert werden konnte, liegt vermutlich an der noch immer schlechten Verfügbarkeit von HBM2 – vor allem mit mehr als vier Stacks.
Du meist mit mehr als vier Lagen!?
Weil sowohl GP100 als auch GV100 verwenden vier 4-Hi Stacks... Vega verwendet (wohl) zwei 4-Hi Stacks und kommt damit auf 8GB. Die Verfügbarkeit von 8-Hi Stacks dürfte im Moment gegen Null gehen, wenn es sowas überhaupt schon gibt.
PS:
Inside Volta: The World’s Most Advanced Data Center GPU | Parallel Forall
Wer sich für mehr Details interessiert...
Sehr interessant finde ich den hier:
"Unlike Pascal GPUs, which could not execute FP32 and INT32 instructions simultaneously,
the Volta GV100 SM includes separate FP32 and INT32 cores, allowing simultaneous execution of FP32 and INT32 operations at full throughput, while also increasing instruction issue throughput."
-> 300W TDP im Power-Mode
-> 1455MHz Boost und damit 1,4899TFLop/sec FP32
Am Ende ist das aber irgendwie alles HPC Stuff... Wie viel am Ende davon im GV104 oder GV102 über bleiben wird? Abwarten... Eigentlich kann man nur hoffen, dass Vega richtig einschlägt und so NV gezwungen wird, auch den großen TopDog zu "missbrauchen"
Na dann kommt hoffentlich ein GV102 mit vollen 5120 Shadern und 16GB GDDR6 aka Titan XV.
Wenn mich nicht alles täuscht, dann wurde bei den Infos zu GDDR6 schon ein 384Bit SI geteasert

Rechne also eher mit 12GB oder 24GB. Warscheinlich eher 12...