<div dir="ltr">Understood,<div><br></div><div>My workload is primarily reads (about 80%+ read operations) - so defaults will most likely</div><div>be best suited on this occasion.</div><div><br></div><div>I was simply trying to follow the guidelines on the XFS wiki to</div>
<div>the best of my ability, and felt I didn't understand the impact of using this via LVM.</div><div><br></div><div>Now I feel I understand enough to continue in what I need to do.</div><div><br></div><div>Thanks again</div>
</div><div class="gmail_extra"><br><br><div class="gmail_quote">On 26 September 2013 10:22, Stan Hoeppner <span dir="ltr"><<a href="mailto:stan@hardwarefreak.com" target="_blank">stan@hardwarefreak.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">On 9/26/2013 3:55 AM, Stewart Webb wrote:<br>
> Thanks for all this info Stan and Dave,<br>
><br>
>> "Stripe size" is a synonym of XFS sw, which is su * #disks.  This is the<br>
>> amount of data written across the full RAID stripe (excluding parity).<br>
><br>
> The reason I stated Stripe size is because in this instance, I have 3ware<br>
> RAID controllers, which refer to<br>
> this value as "Stripe" in their tw_cli software (god bless manufacturers<br>
> renaming everything)<br>
><br>
> I do, however, have a follow-on question:<br>
> On other systems, I have similar hardware:<br>
> 3x Raid Controllers<br>
> 1 of them has 10 disks as RAID 6 that I would like to add to a logical<br>
> volume<br>
> 2 of them have 12 disks as a RAID 6 that I would like to add to the same<br>
> logical volume<br>
><br>
> All have the same "Stripe" or "Strip Size" of 512 KB<br>
><br>
> So if I where going to make 3 seperate xfs volumes, I would do the<br>
> following:<br>
> mkfs.xfs -d su=512k sw=8 /dev/sda<br>
> mkfs.xfs -d su=512k sw=10 /dev/sdb<br>
> mkfs.xfs -d su=512k sw=10 /dev/sdc<br>
><br>
> I assume, If I where going to bring them all into 1 logical volume, it<br>
> would be best placed to have the sw value set<br>
> to a value that is divisible by both 8 and 10 - in this case 2?<br>
<br>
</div>No.  In this case you do NOT stripe align XFS to the storage, because<br>
it's impossible--the RAID stripes are dissimilar.  In this case you use<br>
the default 4KB write out, as if this is a single disk drive.<br>
<br>
As Dave stated, if you format a concatenated device with XFS and you<br>
desire to align XFS, then all constituent arrays must have the same<br>
geometry.<br>
<br>
Two things to be aware of here:<br>
<br>
1.  With a decent hardware write caching RAID controller, having XFS<br>
alined to the RAID geometry is a small optimization WRT overall write<br>
performance, because the controller is going to be doing the optimizing<br>
of final writeback to the drives.<br>
<br>
2. Alignment does not affect read performance.<br>
<br>
3.  XFS only performs aligned writes during allocation.  I.e. this only<br>
occurs when creating a new file, new inode, etc.  For append and<br>
modify-in-place operations, there is no write alignment.  So again,<br>
stripe alignment to the hardware geometry is merely an optimization, and<br>
only affect some types of writes.<br>
<br>
What really makes a difference as to whether alignment will be of<br>
benefit to you, and how often, is your workload.  So at this point, you<br>
need to describe the primary workload(s) of your systems we're discussing.<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Stan<br>
<br>
</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br><div dir="ltr"><div></div>Stewart Webb<br></div>
</div>