MrDeluxe
Enthusiast
- Mitglied seit
 - 01.04.2006
 
- Beiträge
 - 1.474
 
- Laptop
 - Thinkpad E480, E14, T14s
 - Details zu meinem Desktop
 - Prozessor
 - AMD 3700x @ 4,3 Boost-Overdrive + Thermal Grizzly Aeronaut
 - Mainboard
 - Gigabyte Aorus Pro X570
 - Kühler
 - Scythe Fuma 2
 - Speicher
 - G.Skill - F4-3200C14D-16GFX
 - Grafikprozessor
 - 5700 XT
 - Display
 - 1xBenq G2411HD, 1xLG 27GL850-B, 1xBenq G2411HD @ Icy Box Monitor Arm IcyBox 3 – IB-MS405-T
 - SSD
 - WD Black SN750
 - HDD
 - Samsung 850Evo, Crucial 120GB @ Linux EOS
 - Opt. Laufwerk
 - N/A
 - Soundkarte
 - OnBoard
 - Gehäuse
 - Fractal Design Define R6 USB-C Blackout
 - Netzteil
 - be quiet straight power 650W
 - Keyboard
 - CMSTORM
 - Mouse
 - MX518
 - Betriebssystem
 - Win11 + Linux Elementary OS
 - Sonstiges
 - Mobile Phone - Mi 11 Lite 5G @ lineageOS nightly
 - Internet
 - ▼1000 ▲500
 
@rayze: Der Befehl führt zu dem Fehler: property 'recordsize' is not a valid pool property
EDIT:
ein großes O statt kleinen hat den gewünschten Erfolg gebracht.
df -h zeigt mir dennoch "nur" 40T an. Also alles wie gehabt (auch bei recordsize von 512k)
EDIT2:
Das würde es wohl erklären, keine schöne Lösung aber immerhin eine Lösung:
EDIT3: Ich habe es mal nachgewiesen, schreibe ich mit
dd if=/dev/urandom of=sample.txt bs=1G count=10 (10GB File)
auf mein Pool mit recordsize=128K sehe ich mit df -h auch 10G
mit recordsize=1M zeigt mir df -h 9.5G an.
Habe ich eigentlich mit der Umstellung der recordsize irgendwelche Benachteiligungen oder Ähnliches?
				
			EDIT:
ein großes O statt kleinen hat den gewünschten Erfolg gebracht.
df -h zeigt mir dennoch "nur" 40T an. Also alles wie gehabt (auch bei recordsize von 512k)
EDIT2:
Das würde es wohl erklären, keine schöne Lösung aber immerhin eine Lösung:
Quelle: SirMaster comments on FreeNAS zpool sizeSo that's how the eliminated overhead presetnts itself. Since recordsize is a dataset property, not a pool property, the pool still shows itself as smaller, but for every 10GB for instance that I write to a dataset with 1M recordsize and compression enabled, the pool USED property only increases by about 9GB. So in the end I will be able to fit the amount of data that I would be able to fit had there been no allocation overhead like if I had used ashift=9.
EDIT3: Ich habe es mal nachgewiesen, schreibe ich mit
dd if=/dev/urandom of=sample.txt bs=1G count=10 (10GB File)
auf mein Pool mit recordsize=128K sehe ich mit df -h auch 10G
mit recordsize=1M zeigt mir df -h 9.5G an.
Habe ich eigentlich mit der Umstellung der recordsize irgendwelche Benachteiligungen oder Ähnliches?
			
				Zuletzt bearbeitet: 
			
		
	
								
								
									
	
								
							
							
						

