The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Доклад Google о файловых системах Linux, opennews (??), 06-Май-11, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


10. "Доклад Google о файловых системах Linux"  +1 +/
Сообщение от metallic (ok), 07-Май-11, 00:04 
> Если у Вас не будет миллионов мелких файлов, то лучше использовать XFS
> -- не новая, отлаженная, быстрая, многопоточные чтение-запись (по потоку на каждый
> экстент), есть дефрагментатор, утилиты восстановления.

Не поверите, но у меня как раз таки миллионы мелких файлов :) (по 5-30Мб).
А в XFS меня пугает требования к объему памяти для чекдиска, хотя, вроде, можно указать сколько памяти максимум использовать.
Вообще да, скорее всего XFS и буду использовать, JFS уже не развивается.

Ответить | Правка | Наверх | Cообщить модератору

14. "Доклад Google о файловых системах Linux"  +/
Сообщение от vadiml (ok), 07-Май-11, 00:16 
> Не поверите, но у меня как раз таки миллионы мелких файлов :)
> (по 5-30Мб).

Я под мелкими имел в виду размер в 5-30 кб, XFS не умеет с такими оптимально работать.

> А в XFS меня пугает требования к объему памяти для чекдиска, хотя,
> вроде, можно указать сколько памяти максимум использовать.

Да, это можно задать и лучше заранее посмотреть как :)
Хотя за всё время использования у меня проблем с XFS разделами не было, хотя около полугода с ней просидел без UPS, а зимой иногда во всём доме эл-во выбивает.
Дефрагментация тоже не пригодилась -- файловая система сама справляется даже на разделах с торрентами (на разделе свободно около 5%):
# xfs_db -r -c frag /dev/sdc1
actual 76712, ideal 73345, fragmentation factor 4,39%



Ответить | Правка | Наверх | Cообщить модератору

15. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 00:24 
> Да, это можно задать и лучше заранее посмотреть как :)
> Хотя за всё время использования у меня проблем с XFS разделами не
> было, хотя около полугода с ней просидел без UPS, а зимой
> иногда во всём доме эл-во выбивает.
> Дефрагментация тоже не пригодилась -- файловая система сама справляется даже на разделах
> с торрентами (на разделе свободно около 5%):
> # xfs_db -r -c frag /dev/sdc1
> actual 76712, ideal 73345, fragmentation factor 4,39%

Ну вы домашний комп и промышленный файловый сервер с iowait >90% почти всегда не путайте :)

Ответить | Правка | Наверх | Cообщить модератору

27. "Доклад Google о файловых системах Linux"  –2 +/
Сообщение от ананим (?), 07-Май-11, 01:19 
а я вот не путаю - xfs отличный вариант.
зыж
про мелкие файлы - xfs отлично развилась за последние 2-а года... но кому я это говорю?!!!
Ответить | Правка | Наверх | Cообщить модератору

36. "Доклад Google о файловых системах Linux"  +/
Сообщение от Аноним (-), 07-Май-11, 01:42 
> Ну вы домашний комп и промышленный файловый сервер с iowait >90% почти
> всегда не путайте :)

Ну вот на таком сервере я бы с удовольствием попробовал XFS... :)

Ответить | Правка | К родителю #15 | Наверх | Cообщить модератору

63. "Доклад Google о файловых системах Linux"  +1 +/
Сообщение от metallic (ok), 07-Май-11, 10:46 
Я и попробую, скорее всего именно XFS и будет, ибо вариантов особо больше нету.
Ответить | Правка | Наверх | Cообщить модератору

47. "Доклад Google о файловых системах Linux"  +/
Сообщение от Анон (?), 07-Май-11, 02:23 
> промышленный файловый сервер с iowait >90% почти всегда

Это называется начальника жаба душит  дать денег на апгрейд железа, которое можно сказать прогнулось по полной.  С таким "iowait >90% почти всегда" сервер на промышленный как-то не тянет:)  

Ответить | Правка | К родителю #15 | Наверх | Cообщить модератору

89. "Доклад Google о файловых системах Linux"  +/
Сообщение от Аноним (-), 07-Май-11, 16:18 
> С таким "iowait >90% почти всегда" сервер на промышленный как-то не тянет:)

С другой стороны, если у вас железо не полностью загружено - вы зря заплатили за него деньги.

Ответить | Правка | Наверх | Cообщить модератору

104. "Доклад Google о файловых системах Linux"  +1 +/
Сообщение от umbremail (ok), 08-Май-11, 13:44 
Бедность не порок: одни устанавливают железо под пиковые нагрузки, другие мирятся с лагами при пиковых нагрузках.
Ответить | Правка | Наверх | Cообщить модератору

142. "Доклад Google о файловых системах Linux"  +/
Сообщение от Аноним (-), 10-Май-11, 12:15 
> Дефрагментация тоже не пригодилась -- файловая система сама справляется даже на разделах
> с торрентами (на разделе свободно около 5%):
> # xfs_db -r -c frag /dev/sdc1
> actual 76712, ideal 73345, fragmentation factor 4,39%

Это вы, батенька, как то скромно живете на XFS
# xfs_db -r -c frag /dev/sdd1
actual 297119, ideal 1911, fragmentation factor 99.36%
Весь раздел - одна большая файлопомойка под торренты.

Ответить | Правка | К родителю #14 | Наверх | Cообщить модератору

150. "Доклад Google о файловых системах Linux"  +/
Сообщение от Аноним (-), 23-Май-11, 15:23 
> actual 297119, ideal 1911, fragmentation factor 99.36%
> Весь раздел - одна большая файлопомойка под торренты.

Смотрите, дети, этот сказочный раздолбай качал торенты без преаллокации :)

Ответить | Правка | Наверх | Cообщить модератору

26. "Доклад Google о файловых системах Linux"  –2 +/
Сообщение от ананим (?), 07-Май-11, 01:17 
>Не поверите, но у меня как раз таки миллионы мелких файлов :) (по 5-30Мб).
>А в XFS меня пугает требования

а меня пугают такие "спецы".
зыж
скоко дашь за настройку экст4 на 100Тб и больше? :D
а, потрындеть! :D
понимаю.

Ответить | Правка | К родителю #10 | Наверх | Cообщить модератору

42. "Доклад Google о файловых системах Linux"  +/
Сообщение от КО. (?), 07-Май-11, 01:53 
>>А в XFS меня пугает требования
> а меня пугают такие "спецы".

Мне вот интересно, а на сервере с 100Тб - неужели с оперативкой какие-то проблемы? Или большому диску большой буфер - не его принцип?

Ответить | Правка | Наверх | Cообщить модератору

50. "Доклад Google о файловых системах Linux"  +/
Сообщение от ананим (?), 07-Май-11, 02:49 
1. приведите мне сервер с 100Tб винтами и сколько таких винтов нужно.
в сторону - реально и сейчас какие винты есть? по 2Тб? 3? 5?
так вот, если "вчера" и по 5, то таких нужно 20 штук.
но сегодня таких винтов нет. вот пруф на яндексмарките http://market.yandex.ru/guru.xml?CMD=-RR=0,0,0,0-PF=2142356600~GT~sel~6000-VIS=160-CAT_ID=686672-EXC=1-PG=10&hid=91033
только в сборе хранилища.
итак, сейчас есть только по 3Тб
их нужно - 100/3~=33,(3) - т.е. 34 штуки.
сервер говорите? нюню, видать по дешёвке по интернет магазину заказал :D

но это всё было в сторону. для размышлений о "качестве" местных тролей.
про оперативку - если раздаём по 1Гб/с каналу, то 4Гб ОЗУ хватит и на этот объём с лихвой.
зыж
могу и про эту цифру привести аналогичные очевидные рассуждения. вот только зачем? :D

Ответить | Правка | Наверх | Cообщить модератору

62. "Доклад Google о файловых системах Linux"  +/
Сообщение от mine (ok), 07-Май-11, 10:04 
Как связаны скорость канала и fsck?
Ответить | Правка | Наверх | Cообщить модератору

72. "Доклад Google о файловых системах Linux"  +/
Сообщение от ананим (?), 07-Май-11, 11:48 
никак.
Ответить | Правка | Наверх | Cообщить модератору

67. "Доклад Google о файловых системах Linux"  +1 +/
Сообщение от metallic (ok), 07-Май-11, 11:24 
> 1. приведите мне сервер с 100Tб винтами и сколько таких винтов нужно.

Мы заказали IBM V7000 на 192 дисках по 600ГБ (2.5" 10000rpm)

> но это всё было в сторону. для размышлений о "качестве" местных тролей.

Ну ты понял, да?

> про оперативку - если раздаём по 1Гб/с каналу, то 4Гб ОЗУ хватит
> и на этот объём с лихвой.

Не понял к чему тут про канал было написано, но он будет 10Гбит, если что

Ответить | Правка | К родителю #50 | Наверх | Cообщить модератору

74. "Доклад Google о файловых системах Linux"  –1 +/
Сообщение от ананим (?), 07-Май-11, 11:57 
>Мы заказали IBM V7000 на 192 дисках по 600ГБ (2.5" 10000rpm)

а фс не выбрали? оригенально.
>Ну ты понял, да?

с каких пор на ты?
>Не понял к чему тут про канал было написано, но он будет 10Гбит, если что

ну не понял, так не понял.

Ответить | Правка | Наверх | Cообщить модератору

75. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 12:02 
А как выбирать ФС без железа? Будет железо - буду тестить, что шустрее бегает
Ответить | Правка | Наверх | Cообщить модератору

87. "Доклад Google о файловых системах Linux"  +/
Сообщение от ананим (?), 07-Май-11, 15:36 
железо как железо. с выбором то его уже определились.
фс надо выбирать под задачи.
а вот их то вы как раз и не описали, как и то будут ли рэйды, лвм и т.д.
и даже такой вопрос - а зачем вам всё нужно иметь именно таким большим куском? его обслуживание - простой всей конструкции.
и почему не рассматривали кластерные распределённые фс?
Ответить | Правка | Наверх | Cообщить модератору

91. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 17:23 
Задача - хранилка под не жатое видео (покадрово, каждый кадр по слоям). Файлый - изображения размером 5-30Мб, раздаваться будут по самбе или нфс, не суть. Эти файлики будут собирать в видео несколько человек, т.е. один человек может одновременно работать с парой сотней гигов, раскиданных по всех хранилки. Почему одним разделом? Да так удобнее просто, можно и на 2-3 побить в принципе, только что это даст?

По поводу аппаратной реализации. Как уже говорил будет 192 диска по 600гб. Они будут объединены в 6-ые рейды, например по 24 диска, т.е. 8 рейдов. Эти рейды хранилкой будут соединены с логический "агрегат", ОС будет видеть все это дело как один 100ТБ хард. Зачем все 192 диска соединять? Чтобы получить как можно большее кол-во iops на выходе, т.к. этот параметр для нас крайне важен.

Про кластерные ФС: зачем она в этой задаче?

Ответить | Правка | Наверх | Cообщить модератору

92. "Доклад Google о файловых системах Linux"  +/
Сообщение от DarkAGeSemail (ok), 07-Май-11, 17:32 
> По поводу аппаратной реализации. Как уже говорил будет 192 диска по 600гб.
> Они будут объединены в 6-ые рейды, например по 24 диска, т.е.
> 8 рейдов. Эти рейды хранилкой будут соединены с логический "агрегат", ОС
> будет видеть все это дело как один 100ТБ хард. Зачем все
> 192 диска соединять? Чтобы получить как можно большее кол-во iops на
> выходе, т.к. этот параметр для нас крайне важен.

ZFS же


Ответить | Правка | Наверх | Cообщить модератору

102. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 08-Май-11, 13:30 
>ZFS же

На чем?

Ответить | Правка | Наверх | Cообщить модератору

107. "Доклад Google о файловых системах Linux"  +/
Сообщение от DarkAGeSemail (ok), 08-Май-11, 16:26 
>>ZFS же
> На чем?

https://www.opennet.ru/openforum/vsluhforumID3/76968.html#93

Ответить | Правка | К родителю #102 | Наверх | Cообщить модератору

96. "Доклад Google о файловых системах Linux"  +/
Сообщение от Anoni (?), 07-Май-11, 22:32 
> По поводу аппаратной реализации. Как уже говорил будет 192 диска по 600гб.
> Они будут объединены в 6-ые рейды, например по 24 диска, т.е.
> 8 рейдов. Эти рейды хранилкой будут соединены с логический "агрегат", ОС
> будет видеть все это дело как один 100ТБ хард. Зачем все
> 192 диска соединять? Чтобы получить как можно большее кол-во iops на
> выходе, т.к. этот параметр для нас крайне важен.

6-й рейд? IOPS? "взаимоисключающие параграфы детектед".

Ответить | Правка | К родителю #91 | Наверх | Cообщить модератору

103. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 08-Май-11, 13:30 
> 6-й рейд? IOPS? "взаимоисключающие параграфы детектед".

А какой рейд надо?

Ответить | Правка | Наверх | Cообщить модератору

117. "Доклад Google о файловых системах Linux"  +/
Сообщение от anonymous (??), 08-Май-11, 20:11 
Только RAID-10, он по записи не пролетает так жутко как все остальные. Ну и контроллеры подороже, с батарейкой, хотя это очевидно.
Ответить | Правка | К родителю #103 | Наверх | Cообщить модератору

118. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 08-Май-11, 20:21 
Во-первых, у 10-го рейда избыточность 50%, в курсе, да? И стоимость СХД от этого увеличивается почти в два раза.
Во-вторых, в моей задаче 98% операция чтения, судя по мониторингу.
Ответить | Правка | К родителю #117 | Наверх | Cообщить модератору

138. "Доклад Google о файловых системах Linux"  +/
Сообщение от anonymous (??), 09-Май-11, 23:46 
Все правильно, не слушай дураков. 640 килобайт всем хватит c избытком. А уж подождать пару недель пока рейд6 поелозит головками чтения записи и повосстанавливает разбросаные по всем дискам куски файлов при сбое - святое дело! Дались им эти несчастные несколько лишних дней. Монтажеры фильма опять же, вместо дурацкой лихорадочной работы за 2-3 дня до окончания срока смогут поехать в лес на шашлыки. Во всем выгода!
Ответить | Правка | К родителю #118 | Наверх | Cообщить модератору

141. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallicemail (ok), 10-Май-11, 10:43 
Еще раз: есть бюджет, в который внатяг протолкнули 192 диска, после долгих дебатов, собраний и т.д. Чтобы сделать 10-ый рейд - железа надо в два раза больше (дисков и полок).
Про пару недель не понял, это речь идет о ребилде? Так ребилд 600Гб диска 10000rpm в шестом рейде идет пару часов, боевые серваки, которые сейчас есть (на 24шт 1ТБ 7200rpm дисках) ребилдятся за сутки-полтора, при этом работать-то можно, тормозит, но работает.
Откуда дровишки про пару недель - не понятно.
Ответить | Правка | К родителю #138 | Наверх | Cообщить модератору

69. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 11:37 
> Мне вот интересно, а на сервере с 100Тб - неужели с оперативкой
> какие-то проблемы? Или большому диску большой буфер - не его принцип?

На сервере, который будет подключен к хранилке, будет 8Гб памяти.
xfs_check с дефолтными параметрами требует по 2Гб на каждый 1Тб. Т.е. мне надо 200Гб оперативки XD
Но там есть опции, которые задают, сколько максимально памяти использовать, но я еще не пробовал.

Ответить | Правка | К родителю #42 | Наверх | Cообщить модератору

78. "Доклад Google о файловых системах Linux"  –1 +/
Сообщение от pavlinux (ok), 07-Май-11, 13:03 
> xfs_check с дефолтными параметрами требует по 2Гб на каждый 1Тб.

Где такие волшебные требования?

Ответить | Правка | Наверх | Cообщить модератору

85. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 14:55 
В документации к XFS, причем эти требования подтверждены практикой, у меня один серв. уже есть на XFS 20ТБ, там 8Гб памяти, так вот чекдиск в сег файлт падал, пока своп огромный не сделал.
Ответить | Правка | Наверх | Cообщить модератору

88. "Доклад Google о файловых системах Linux"  +/
Сообщение от ананим (?), 07-Май-11, 16:14 
то что память может закончится при xfs_check - да, указано, но именно про "по 2Гб на каждый 1Тб" - не видел. к тому же xfs действительно быстро развивается - http://xfs.org/index.php/XFS_Status_Updates
>XFS status update for January 2010
>...
>The biggest changes in xfsprogs 3.1.0 were optimizations in xfs_repair that lead to a much lower memory usage, and optional use of the blkid library for filesystem detection and retrieving storage topology information.

и на одной конференции ещё в 2008 утверждалось следующее
• Memory usage reductions
– allow larger filesystems to be checked in small RAM configs
– Introduce more efficient indexing structures
– Use extents for indexing free space
вот пруф http://xfs.org/index.php/XFS_Status_Updates
зыж
а как себя ведёт xfs_repair? у него другой апи, а xfs_check - скрипт-оболочка вокруг xfs_db. такую проблему не замечал ни разу - но у нас и памяти всегда хватает. не выставлять же?

Ответить | Правка | Наверх | Cообщить модератору

98. "Доклад Google о файловых системах Linux"  +/
Сообщение от pavlinux (ok), 08-Май-11, 01:15 
> В документации к XFS, причем эти требования подтверждены практикой, у меня один
> серв. уже есть на XFS 20ТБ, там 8Гб памяти, так вот
> чекдиск в сег файлт падал, пока своп огромный не сделал.

Какой ей памяти надо RAM или VM ?

Ответить | Правка | К родителю #85 | Наверх | Cообщить модератору

119. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 08-Май-11, 20:22 
> Какой ей памяти надо RAM или VM ?

Свап прокатывает, когда 22Тб раздел проверял.

Ответить | Правка | Наверх | Cообщить модератору

64. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 10:51 
> а меня пугают такие "спецы".
> зыж
> скоко дашь за настройку экст4 на 100Тб и больше? :D
> а, потрындеть! :D
> понимаю.

Когда пытался 22ТБ раздел в екст4 форматнуть - гуглил но решения не нашел. В вики екст4 написано следующее:

Currently, Ext3 support 16 TB of maximum file system size and 2 TB of maximum file size. Ext4 adds 48-bit block addressing, so it will have 1 EB1 of maximum file system size and 16 TB of maximum file size
....
The code to create file systems bigger than 16 TB is, at the time of writing this article, not in any stable release of e2fsprogs. It will be in future releases.

Так вот, если есть какое-то реальное решение - написал бы, а не умничал.

Ответить | Правка | К родителю #26 | Наверх | Cообщить модератору

70. "Доклад Google о файловых системах Linux"  +/
Сообщение от Lampusemail (ok), 07-Май-11, 11:39 
Судя по этому:
> Ext4 adds 48-bit block addressing, so it will have 1 EB1 of maximum file system size and 16 TB of maximum file size

То есть максимальный размер раздела один _эксабайт_, максимальный размер одного _файла_ 16 Тб.
А вообще да, проблема в e2fsprogs такая имеется, видимо тянут для совместимости с ext3, в котором ограничение 16 Тб. Насколько я понял из списка рассылки разрабов, придётся ломать ABI чтобы сделать форматирование разделов более 16 Тб.
Вот тут есть древние патчи для поддержки 64-битного режима в ext4dev http://www.bullopensource.org/ext4/
Но это всё голяк, стоит посмотреть в сторону git-версии, там валяются всякие вкусности типа дефрагментатора для ext4.

Ответить | Правка | Наверх | Cообщить модератору

76. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 12:40 
Так я об этом и писал, поддержка в ядре большой ФС есть, а вот утилит для создания такой ФС нет.
Ответить | Правка | Наверх | Cообщить модератору

73. "Доклад Google о файловых системах Linux"  +1 +/
Сообщение от Lampusemail (ok), 07-Май-11, 11:53 
Вот патчи e2fsprogs https://github.com/tytso/e2fsprogs-64bit
Ответить | Правка | К родителю #64 | Наверх | Cообщить модератору

77. "Доклад Google о файловых системах Linux"  +/
Сообщение от metallic (ok), 07-Май-11, 12:41 
> Вот патчи e2fsprogs https://github.com/tytso/e2fsprogs-64bit

"Че-та я очкую, Славик" (С)
Хрен знает каким боком этот костыль потом выйдет. Кроме как создать ФС, ее еще потом обслуживать надо, так что я бы не рискнул. Судя по всему все же будет XFS

Ответить | Правка | Наверх | Cообщить модератору

157. "Доклад Google о файловых системах Linux"  +/
Сообщение от аывава (?), 25-Авг-11, 01:34 
>> Если у Вас не будет миллионов мелких файлов, то лучше использовать XFS
>> -- не новая, отлаженная, быстрая, многопоточные чтение-запись (по потоку на каждый
>> экстент), есть дефрагментатор, утилиты восстановления.
> Не поверите, но у меня как раз таки миллионы мелких файлов :)
> (по 5-30Мб).
> А в XFS меня пугает требования к объему памяти для чекдиска, хотя,
> вроде, можно указать сколько памяти максимум использовать.
> Вообще да, скорее всего XFS и буду использовать, JFS уже не развивается.

у меня был хард с потерей информации (графика главным образом, видео, пдф, немного текста), на нём была установлена ехт журналируемая, после частичного форматирования и записи фс вообще не инитилась. Читал с хард-а форемост-ом (надо сказать отличнийшая штука, проприетарный коммерческий р-студио не лучше фри-форемоста). Так вот графич файлы на предмет их "гожести" я просматривал в наутилус-е в виде эскизов, увеличивая скролом до нужного. Фото исчислялись десятками тысяч, естественно отобразить такое количество за раз в эскизах сложно, тем более если файлы битые. Сначала пробовал порционить по 500 штук, потом до 300шт, потом до 100шт.если 100 еще просматривать можно, то чуть больше кол-во или битости фс сжирает весь рэм и этот жестокий инпут/аутпут. писал тоже на ехт журналируемый. КОнфигурация компа:коре 2 ггц, 3гб озу, видео отдельное 256мб.Если в опреленный момент я с виртуальной консоли не убью наутилус, то выход только ресет. на ехт 4 вообще были пропажи (год назад). С ХФС всё у меня изменилось. никогда не было такого беспредельного поведения, и очень много опций для конфигурирования/монтирования. Использую хфс только не на вар-е и бут-е (домаш. комп, старый рабочий бук), т.к. у неё (фс) слабое место удаление мелких файлов. А вот рекурсивный поиск, запись, многопоточный доступ, равномерный инпут/аутпут, обслуживание (дефраг) реализованы в достаточной мере. Еще бы можно было размер раздела с ней уменьшать :)

Ответить | Правка | К родителю #10 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру