The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..., opennews (??), 19-Янв-20, (0) [смотреть все] +1

Сообщения [Сортировка по времени | RSS]


35. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +1 +/
Сообщение от Аноним (35), 20-Янв-20, 22:40 
>нельзя просто взять их и отключить

Так всякие raw-разделы ещё в OracleDB были.
Просто мне кажется, что если ты упираешься в ограничения ФС при работе с файлами - то ты что-то неправильно делаешь.

Ответить | Правка | К родителю #30 | Наверх | Cообщить модератору

36. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от n80 (?), 21-Янв-20, 03:00 
> Так всякие raw-разделы ещё в OracleDB были.

С OracleDB почти не имел дела, но сразу два момента:
1) тут всё-таки про свободное ПО речь, это очень важный момент
2) низкие накладные расходы, легковесность, максимизация количества обрабатываемых простых запросов в единицу времени (по сравнению с конкурентами на таком же железе) — точно не про Oracle

> Просто мне кажется, что если ты упираешься в ограничения ФС
> при работе с файлами - то ты что-то неправильно делаешь.

Полностью согласен. И вот один из путей перестать делать неправильно — положить данные в подходящую для задачи специализированную СУБД, а не в отдельные файлы в ФС общего назначения. О том и речь.

Ответить | Правка | Наверх | Cообщить модератору

37. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от syslinuxemail (ok), 21-Янв-20, 12:00 
Куда положить 250 млн картинок объемом 80 TB просто как пример? В какую еще базу?
Кто утверждает, что такое количество допустим должно быть обязательно в фс общего назначения, про кластерные забыли?

Там писал один человек, что moosefs лопнула, не лопнула, она нормально впринципе работает с такими количествами файлов, если у вас есть деньги на оперативную память, но вот ее CRC проверка фоновая проводится несколько месяцев на таких количествах, а она там однопоточная и это не регулируется. Доводить до половины миллиарда файлов или больше уже нет смысла в ней.

Вам дали способ - как упростить себе жизнь не изменяя файловую систему на какие-то решения, которые еще неизвестно как себя поведут(в плане фс изначально), в том числе оставлена без изменений работа с большими файлами, не надо заботится о волюмах, изменять пути в приложении, и прочие вещи.

Кстати на счет SeaWeedFS - вы писали там есть TTL, что может быть удобно в некоторых случаях. Я сделаю у себя такую поддержку.

Ответить | Правка | Наверх | Cообщить модератору

40. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от пох. (?), 21-Янв-20, 15:45 
> Куда положить 250 млн картинок объемом 80 TB просто как пример? В какую еще базу?

в оракловую, например. Не вижу особых проблем, кроме цены решения.
Такая картинка - отличный blob (не очень-то и 'l'), причем ее метаданные если есть - абсолютно перпендикулярны типовым для файловой системы (в последнюю очередь, полагаю, вас интересует ее atime с точностью до микросекунды), и вы их все равно в какой-то тазе банных храните ведь?

И да, орацл умеет в кластеры ;-)

btw - сколько на самом деле жрет памяти на metadata и какого объема логи на логсерверах, если не жалко?

Ответить | Правка | Наверх | Cообщить модератору

42. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от syslinuxemail (ok), 21-Янв-20, 16:29 
>> Куда положить 250 млн картинок объемом 80 TB просто как пример? В какую еще базу?
> И да, орацл умеет в кластеры ;-)
> btw - сколько на самом деле жрет памяти на metadata и какого
> объема логи на логсерверах, если не жалко?

В wZD? 32 байта, оно хранится прямо в файле который заливается, память не используется. Из которых 8 байт зарезервировано под будущий дистрибьютор. Логи тут не нужны.

Мне уже не нужно никакое решение, я уже все что надо сделал без любой бд.
В MooseFS на оставшиеся 10млн файлов после архивирования потребляется 8GB RAM всего с учетом директорий, а было 75GB+.

Ответить | Правка | Наверх | Cообщить модератору

44. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от пох. (?), 21-Янв-20, 16:49 
нет, мне было интересно именно для moose до переноса всего в архивы - чтобы понимать, на каких масштабах оно таки лопается.

250миллионов файликов = 75G оперативы, я правильно понял?
А что при этом происходило на металоггере, или вы ими не пользовались?

Ответить | Правка | Наверх | Cообщить модератору

45. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +1 +/
Сообщение от syslinuxemail (ok), 21-Янв-20, 17:12 
> нет, мне было интересно именно для moose до переноса всего в архивы
> - чтобы понимать, на каких масштабах оно таки лопается.
> 250миллионов файликов = 75G оперативы, я правильно понял?
> А что при этом происходило на металоггере, или вы ими не пользовались?

Да, все верно.

Изначально был, потом убрал, чтобы он диски SSD мне не убивал. Не вспомню как он работал, когда было 150млн файлов, но в память точно все помещалось. У меня по 128GB было на серверах, где была пара металоггеров. Теперь вернул естесственно обратно.

Я думаю MooseFS то не лопнет и на 500млн файлов, но при условии что у вас будет порядка 30-50млн подпапкок, где файлов по 10-1000 примерно, но все равно скорость то будет помедленнее. А вот если у вас 500млн файлов и 1млн подпапок всего, тогда это все будет уже гораздо хуже работать. Ведь MooseFS создает индексы частями в памяти чтобы искать сразу по нужным массивчикам. Чем меньше папок и больше файлов, тем больше сами массивы, тем хуже все работает. Но я уже не рискнул бы доводить до таких объемов у себя, просто потому что и запускается дольше и CRC долго чекает итп итд.

Ответить | Правка | Наверх | Cообщить модератору

46. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от syslinuxemail (ok), 21-Янв-20, 17:20 
>[оверквотинг удален]
> была пара металоггеров. Теперь вернул естесственно обратно.
> Я думаю MooseFS то не лопнет и на 500млн файлов, но при
> условии что у вас будет порядка 30-50млн подпапкок, где файлов по
> 10-1000 примерно, но все равно скорость то будет помедленнее. А вот
> если у вас 500млн файлов и 1млн подпапок всего, тогда это
> все будет уже гораздо хуже работать. Ведь MooseFS создает индексы частями
> в памяти чтобы искать сразу по нужным массивчикам. Чем меньше папок
> и больше файлов, тем больше сами массивы, тем хуже все работает.
> Но я уже не рискнул бы доводить до таких объемов у себя, просто
> потому что и запускается дольше и CRC долго чекает итп итд.

Ответить | Правка | Наверх | Cообщить модератору

41. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от n80 (?), 21-Янв-20, 16:22 
> Куда положить 250 млн картинок объемом 80 TB просто как пример? В какую еще базу?

Ну, для меня решение из этой новости или всё тот же SeaWeedFS — тоже в определённом смысле СУБД. Так что база в этом смысле. Если что, я тут нигде не топил за ненужность сабжа, напротив, пишу о причинах по которым такие решения нужны и возникают.

> Кто утверждает, что такое количество допустим должно быть обязательно в фс общего
> назначения, про кластерные забыли?

Не суть, имелись в виду ФС, как бы так сказать, совместимые с POSIX-семантикой.
Которым противопоставляется специализированное решение, имеющее свои преимущества, в т.ч. за счёт отказа от всяких неиспользуемых функций.

> Вам дали способ - как упростить себе жизнь не изменяя файловую систему
> на какие-то решения, которые еще неизвестно как себя поведут (в плане фс
> изначально), в том числе оставлена без изменений работа с большими файлами,
> не надо заботится о волюмах, изменять пути в приложении, и прочие вещи.

Я же разве против? Наоборот, всецело за.
Разве что заботиться иногда всё-таки надо, это позволяет получить дополнительный выигрыш.

> Кстати на счет SeaWeedFS - вы писали там есть TTL, что может
> быть удобно в некоторых случаях. Я сделаю у себя такую поддержку.

Наверное, уточню: в моём случае протухание по TTL реализовано внешним скриптом (потому что логика выбора удаляемых файлов немного нетривиальная), который посылает пачку запросов на удаление. Залить несколько миллионов файлов, потом продолжать потихоньку заливать файлы, а потом через сутки 2% самых старых из них удалить пачкой запросов — суровый такой стресс-тест. Более-менее традиционные ФС на удалении десятков тысяч мелких файлов ооочень крепко задумываются (иногда подвешивая вообще все операции ввода-вывода, пока журнал не прокачается).

Ответить | Правка | К родителю #37 | Наверх | Cообщить модератору

43. "Первый релиз wZD 1.0.0, сервера компактного хранения мелких ..."  +/
Сообщение от syslinuxemail (ok), 21-Янв-20, 16:36 
Принял. Спасибо за уточнение как вы делаете. Значит предусмотрю изменение TTL без перезаписи файлов. То есть не только вместе с файлом когда идет первоначальная заливка, но и потом чтобы можно было поменять TTL на другой или убрать TTL вовсе. Методом DELETE можно и внешним скриптом пользоваться как у Вас без поддержки встроенного TTL.

На счет задумываться - да ФС имеют такие проблемы при очень массовых операциях. У меня в теории не должно быть проблем, не фс все-таки, принцип то примерно тот же как в SeaWeedFS, просто если думать волюмамим, то у меня волюмов столько сколько папок по сути, в них еще быстрее удаление будет работать.

Я ни в коем случае не говорю Вам что мое чем-то лучше тоже, просто тема об одном, а уже Оракл сюда был приплетен. Да и я сомневаюсь что он нормально будет работать, там один индекс будет громадным, это надо тестировать сначала Оракл в таком ключе, а потом уже писать сюда, а то это просто предположение :)
P.S. Просмотрел, это не Вы написали про Оракл изначально, другие комментаторы молодцы.

SeaWeedFS тут совершенно корректно сравнивать, у меня решение зависимо конечно, в случае большого сторейджа, от обычных кластерных ФС на данный момент, но потом будет дистрибьютор и можно будет обходится и без кластерных ФС.

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру