|
2.18, пох. (?), 11:20, 24/03/2023 [^] [^^] [^^^] [ответить]
| –11 +/– |
Смена версии ceph? Не, опеннетовским экспертам понятно только про тему.
Обновляться я бы правда именно по этой причине не рискнул. Хотя... те кто пользуют ЭТО привыкли страдать. Страдание очищает.
| |
|
3.36, igsbox (??), 13:11, 24/03/2023 [^] [^^] [^^^] [ответить]
| +7 +/– |
3 локальных кластера, 1 распределённый. Около 40 нод, хранилки на Солярке и на TrueNAS. Всё работает, просто работает, без бубна и заклинаний. Укажи мне путь к страданию, о великий гуру?
| |
|
4.47, пох. (?), 14:12, 24/03/2023 [^] [^^] [^^^] [ответить]
| –15 +/– |
Заняться чем-то помимо майнинга и отмывания денег не пробовал?
Хотя, действительно, зачем же ж...
P.S. расскажи, как в твоей чудо-системе смигрировать виртуалку в этот распределенный из нераспределенного, если вдруг, внезапно, выяснилось что это что-то критичное (откуда у тебя.. ну вдруг)
| |
|
5.113, igsbox (??), 12:40, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Пальцем в небо попали, гражданин провокатор. Это кластеры разных клиентов, никак не связанных между собой, ну только админ общий.
Если вдруг возникнет такая задача -
zfs send имя-снапшота | ssh host zfs receive имя-номер-виртуалки
на хранилке источника. А потом файл описания виртуалки скопипастить из кластера-источника и поправить имя пула хранения диска
Огромный плюс Proxmox - текстовые конфиги, которые можно править на лету
Не, не гуру - просто балабол местечковый ;)
| |
|
6.114, пох. (?), 13:48, 26/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
> Если вдруг возникнет такая задача -
> zfs send имя-снапшота | ssh host zfs receive имя-номер-виртуалки
круто. И пока оно копируется - виртуалка спокойно полежит.
А если у тебя там не zfs а к примеру lvm как местные эксперты насоветовали?
> Огромный плюс Proxmox - текстовые конфиги, которые можно править на лету
да просто зашибись вообще.
Если что - в нормальных коммерческих системах виртуализации (ни на что не намекаю, но это vmware) конфиги тоже в общем-то текстовые. Но правил я их руками последний раз восемь лет назад для очень специфического эксперимента.
А перенос виртуалки в другой кластер делается вот так: move-vm 'name' -Destination 'name'
Разумеется, она при этом ничего даже и не заметит.
| |
|
7.116, igsbox (??), 14:28, 26/03/2023 [^] [^^] [^^^] [ответить] | +1 +/– | Ну да, нет проблем У меня почти все виртуалки обязаны работать 12 часов в сутки... большой текст свёрнут, показать | |
|
|
|
|
3.82, Аноним (82), 23:47, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Диванный эксперт подъехал. Что же вмваря (не к обеду называть этих беглых из страны "бизнесменов", которые, как известно, "слово держат") не сделает то, что в PVE есть уже годами - хотя бы тот же файрволл на каждую ВМ?
| |
|
4.84, пох. (?), 00:16, 25/03/2023 [^] [^^] [^^^] [ответить]
| –3 +/– |
э.... простите, на...я мне файрвол на уровне бриджа? Вмварь не занимается маршрутизацией и никакого другого места для файрвола там нет. (а еще бывает sr-iov где и бриджа-то нет)
(я, конечно, хрен знает что они там на...евертили в своей sdn, оно стоит столько что как-то прошло мимо меня, даже подержаться на превью не дали)
Это система - виртуализации. Для остального есть другие продукты. Я вполне был счастлив своей палоальтой в качестве файрвола.
| |
|
|
|
|
2.13, пох. (?), 11:14, 24/03/2023 [^] [^^] [^^^] [ответить]
| +4 +/– |
Так он у них есть. Но есть нюанс... за деньги. А ты думал - они святымдухом питаются и за все хорошее против всего плохого тебе подогнали систему виртуализации для мышекликеров?
| |
|
3.34, Аноним (4), 13:10, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
и эта
за деньги у них тоже нет если чо,
вот бред писать можно и бесплатно .
| |
|
4.43, пох. (?), 13:52, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
В смысле? Плати 150 евро за процессорное ведро - и будет тебе stable repository. А нет денег - ну так работай бетатестером, чего уж там.
| |
|
|
|
1.7, Омоним (?), 10:32, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Неплохая система виртуализации, активно развивающаяся, с достаточно адекватным сообществом, хорошей документацией и кучей рецептов на все случаи жизни. Это мы используем. Удачи проекту в развитии.
| |
|
|
|
Часть нити удалена модератором |
4.15, пох. (?), 11:17, 24/03/2023 [^] [^^] [^^^] [ответить]
| –6 +/– |
В китае - нет. В китае не брезгуют и за вмварь заплатить, если на самом деле надо.
А вот у тебя уже не получится - нет дырочки для запихивания твоих юаней. Пользуйся скрепным импортозамещенным ничего.
| |
|
5.31, жявамэн (ok), 12:50, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
ну там у астры и у альта есть какие то самодельные перделки на квм.
что там внутри хз - они платные
| |
|
6.44, пох. (?), 13:53, 24/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
> что там внутри хз - они платные
ну я предположил, что, но ищи ответ в удаленных - опеннет место для троллинга а не для разговора на технические темы
| |
|
7.50, Аноним (50), 14:17, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
ггг а бихайв не хотите? vstack с ним регулярно на хабре пиарится
| |
|
8.55, пох. (?), 14:28, 24/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | Брр, нет уж Чур меня, чур Умерла так умерла vstack это нечто настолько законч... текст свёрнут, показать | |
|
|
10.89, пох. (?), 09:10, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | шо - опять Я уже лет пять самое малое слышу что все почти уже готово, в ядре вс... текст свёрнут, показать | |
|
|
12.115, пох. (?), 13:54, 26/03/2023 [^] [^^] [^^^] [ответить] | +/– | да не для фрилсде, мать, а для виртуальной машины - чем проще виртуализированный... большой текст свёрнут, показать | |
|
|
|
|
|
|
|
|
|
|
2.28, Псевдонимус (?), 12:41, 24/03/2023 [^] [^^] [^^^] [ответить]
| –5 +/– |
При импорте VM надо создать VM на Proxmox, запомнить имя файла вирт.диска, удалить и подложить вместо него вирт.диск от импортируемой.
Чтобы повесить vlan на интерфейсы, надо юзать ansible.
RAID на ZFS (вместо mdraid), не имеющей fsck, чтобы если грохнулось, то всерьез и надолго.
Отличные рецепты, не поспоришь.
| |
|
3.42, пох. (?), 13:46, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
mdraid c write hole тоже, знаешь ли, так себе решение.
А потом ты поверх него развернешь еще lvm, потому что в снапшоты он не умеет, да? И как у тебя с fsck для lvm?
P.S. и вроде пятая версия умела в импорт ova. Ничего руками создавать было не надо. Седьмая что - разучилась?
| |
3.63, Аноним (63), 15:27, 24/03/2023 [^] [^^] [^^^] [ответить]
| +1 +/– |
Я тоже так импортил диск один раз по незнанию)), но если почитать доку, то для этого есть команды и диски нормально конвертируются и подключаются к виртуалке без этой рукопашки с подменой диска.
| |
|
4.66, Псевдонимус (?), 16:44, 24/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
Тут командой, там ансиблей, здесь прямое редактирование конфигов. Именно так я себе и представлял готовое законченное решение для замены vShpere и Hyper-V.
| |
|
5.83, Аноним (82), 23:49, 24/03/2023 [^] [^^] [^^^] [ответить]
| +1 +/– |
Ну да, вмваря и гиперв делают всё прямо, без сбоев и гемора, вот прямо волшебной палочкой?
| |
|
6.85, пох. (?), 00:19, 25/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Ну да, вмваря и гиперв делают всё прямо, без сбоев и гемора,
> вот прямо волшебной палочкой?
импорт ova - вполне себе. Подключение существующих дисков к любой существующей виртуалке - без ручного редактирования конфигов - тоже.
| |
|
7.99, Заноним (?), 16:54, 25/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Инвертируй:
Импортируй qcow2 в esxi без cli, без заливки по ssh и без 10 кликов (+/-20 мизкликов) в морде к esxi?
И прикинь - qcow2 тоже открытый формат.
| |
|
8.100, пох. (?), 17:10, 25/03/2023 [^] [^^] [^^^] [ответить] | –4 +/– | прости а нахрена мне твой пердолинг ради пердолинга У чувака не работает баналь... текст свёрнут, показать | |
|
|
10.104, пох. (?), 19:43, 25/03/2023 [^] [^^] [^^^] [ответить] | –2 +/– | понимаешь, дурашка - ova - стандарт И понимается всеми - КРОМЕ твоего васянског... большой текст свёрнут, показать | |
|
|
|
|
|
|
|
3.88, Заноним (?), 00:32, 25/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
RTFM
RTFM, vlan на интерфейсы прям из web-морды вписывается
RTFM, ZFS не нужен fsck
| |
|
4.94, Аноним (94), 15:51, 25/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
не спорьте с Псевдоумнусом) он знает свою зоопарк лучше ... пусть использует то что хочет
| |
4.124, Tron is Whistling (?), 16:02, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
> ZFS не нужен fsck
Это пока оно не развалилось. Хотя соглашусь: когда развалилось - тоже уже не нужен, ничего оттуда не вытащищь.
| |
|
5.132, Заноним (?), 17:52, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Если развалилось - то либо подохла основная часть накопителей, либо сломался мозг того, кто потёр данные. В остальных случаях ZFS можно вернуть в работу - RTFM. А для тех кто не может в RTFM - создан всякий виндузячий софт типа klennet zfs или diskinternals raid recovery.
| |
|
|
|
|
1.11, deusbase (ok), 10:47, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Использую, доволен, но приходится ставить на чистый Дебиан, тк родной граф. инсталятор не понимает встроенную в плату видюху и из-за 8Gb ОЗУ ставлю на программный RAID1 вместо ZFS, которого тоже нет в инсталяторе.
| |
|
|
3.20, Аноним (20), 11:44, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Это тот, который требует 2 гб памяти на каждый терабайт стораджа чтобы работать относительно нормально? Действительно, больше же нечем занять оперативку.
| |
|
4.21, анон (?), 11:52, 24/03/2023 [^] [^^] [^^^] [ответить]
| +1 +/– |
Гораздо больше. Под нагрузкой приходится очень сильно подкручивать параметры. Иначе всё дохнет.
| |
4.26, maximnik0 (?), 12:25, 24/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
А дедубликацию отключить не пробовали ? При отключенный дедубликацию на 8-10 гиг ОЗУ ZFS уже в принципе работает.Конечно при условии что рэйд не на 100 тб,тогда памяти побольше потребуется.
| |
|
5.27, Аноним (20), 12:36, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Всего 4 диска было, так что около 70. Да, занять память кроме как рейдом действительно больше нечем, о чём и речь.
| |
|
6.30, пох. (?), 12:49, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
Кэширование нинуна, нинуна, нинуна!
Память нонеча дорога а пользователи - еще подождут.
Ну и ресурс накопителей надо ж убить побыстрее, а то на новые бюджет не выделят.
| |
|
7.77, Tron is Whistling (?), 22:20, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Зойчем двойное кеширование (да ещё и с системными буферами в случае ZFS не дружащее) на уровне доступа к NAS/SAN, если виртуалки сами себе кешируют то, что им нужно?
| |
|
8.86, пох. (?), 00:24, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | затем что диск читается не теми кусками которые нужны виртуалке - потому что это... текст свёрнут, показать | |
|
|
10.93, пох. (?), 12:43, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | ну и как ты узнаешь извне виртуалки - это вот последовательный кусок читают и се... текст свёрнут, показать | |
|
|
|
|
6.37, maximnik0 (?), 13:12, 24/03/2023 [^] [^^] [^^^] [ответить]
| –3 +/– |
> Всего 4 диска было, так что около 70. Да, занять память кроме
> как рейдом действительно больше нечем, о чём и речь.
А слово кэш не слыхал ? Вон у меня ноутбук-14 гб чистой памяти,на кэш уходит 8гб,а у ZFS есть проблема (не знаю насколько актуальная) у нее собственный кэш,не интегрированный с VFS ядра.Из-за этого и жручесть Озу у ZFS//
| |
|
7.40, пох. (?), 13:38, 24/03/2023 [^] [^^] [^^^] [ответить] | –2 +/– | у ведра нет никакой интеграции кэша с vfs Вот у zfs - она есть А у ведра твоег... большой текст свёрнут, показать | |
|
|
9.53, пох. (?), 14:23, 24/03/2023 [^] [^^] [^^^] [ответить] | –2 +/– | Технически Когда лидер проекта на найденый с точностью до конкретного куска код... текст свёрнут, показать | |
|
|
9.87, пох. (?), 00:27, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | они уже научились устанавливаться на thin Раньше его требовалось создавать вруч... текст свёрнут, показать | |
|
8.81, maximnik0 (?), 23:43, 24/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | Странно,я читал что с 4 версии ядра кое какие механизм есть Порывшись в инете а ... большой текст свёрнут, показать | |
|
|
|
|
4.45, OpenEcho (?), 14:09, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Это тот, который требует 2 гб памяти на каждый терабайт стораджа
Слышал звон, но не знает где он...
ЗФС нужно много памяти если используется дедупликация, а без нее на двух гигах памяти можешь навесить десятки терабайт и все прекрасно будет работать
| |
|
5.49, Аноним (20), 14:15, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Ну во-первых толку от неё без дедупликации, а, во-вторых, ты грязный врунишка.
| |
|
6.54, OpenEcho (?), 14:28, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
> Ну во-первых толку от неё без дедупликации
Да ну !?
А в нетфликсе то и не слышали твоего "гениального" мнения...
ЗФС про надежность, а не про экономию на копейках
> , а, во-вторых, ты грязный врунишка.
Если у тебя руки растут не как у всех людей, - то это твоя проблема
| |
|
7.56, пох. (?), 14:34, 24/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
>> Ну во-первых толку от неё без дедупликации
> Да ну !?
ну да
> А в нетфликсе то и не слышали твоего "гениального" мнения...
а в нетфликсе нет zfs. вообще.
> ЗФС про надежность, а не про экономию на копейках
глядя на стойки нетапп (да, внутри это клон zfs) - ничего так себе копейки.
Но да, бывают приключения. Но при цене этих деталек - лучше быть повнимательней и поаккуратней, но новую полку купить как-нибудь не в этом году.
Но разница как раз в том что у нетапы - работает, и достаточно предсказуемо. А у выкинутой на помойку реализации openzfs - не очень (технология в момент выкидыша была в зачаточном состоянии, нетапа справилась а эти затобесплатные - как обычно).
| |
|
|
9.70, пох. (?), 17:13, 24/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | ну вот она в тех стойках - включена Иначе б мы разорились давно Да и не влезет... большой текст свёрнут, показать | |
|
|
7.60, Аноним (20), 14:52, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
Нетфликс, кек. Ещё можно вспомнить, что у гугла ext2 "для надёжности".
| |
|
8.72, пох. (?), 18:26, 24/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | c разморозочкой в 2009м они перешли на ext4 nojournal да, для надежности в том ... текст свёрнут, показать | |
|
9.73, Аноним (20), 19:25, 24/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | У ext4 nojournal производительность ext2, кстати На практике вообще не юзабельн... текст свёрнут, показать | |
|
10.97, пох. (?), 16:28, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | пользуюсь везде кроме тяп-ляп установленного по шаблону для либо одноразовых экс... большой текст свёрнут, показать | |
|
|
12.101, пох. (?), 17:14, 25/03/2023 [^] [^^] [^^^] [ответить] | –3 +/– | а мужики-то и не знали Скажи, вот какие бредовые предположения об устройстве фс... текст свёрнут, показать | |
|
|
14.105, пох. (?), 19:52, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | я не верую, я знаю как это работает И могу делать вполне обоснованные выводы из... большой текст свёрнут, показать | |
|
|
16.107, пох. (?), 21:07, 25/03/2023 [^] [^^] [^^^] [ответить] | –1 +/– | Ну же, я жду откровений Ты же посмотрел и сейчас мне расскажешь, как синхронная... текст свёрнут, показать | |
|
|
|
|
|
|
|
|
|
|
|
|
4.78, Аноньимъ (ok), 22:59, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
Вы бредите.
Нет у ЗФС такого требования.
А при желании его можно вообще на минимум потребления ОЗУ накрутить.
Запускал ZFS на 256МБ ОЗУ, и всё работало отлично.
| |
|
3.22, пох. (?), 11:53, 24/03/2023 [^] [^^] [^^^] [ответить]
| –2 +/– |
Он же тебе написал - в окошкоменюшке нет.
(потому что он ставит поверх дерьмиана, в котором действительно нет, а родной графический инсталлятор ну ниасиливает у него чего-то)
| |
3.46, deusbase (ok), 14:12, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
8Гб памяти с 2 виртуалками становится прямо впритык 80-90%, плюс ZFS может начать ее жрать непредсказуемо, а тк Проксмокс по дефолту своп не уважает совсем, все заканчивается крэшем. С программным рэйдом и свопом на подстраховке проблем таких нет вообще, память стабильно на 70%.
| |
|
4.52, пох. (?), 14:20, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
> 8Гб памяти с 2 виртуалками становится прямо впритык 85-90%, плюс ZFS может
> начать ее жрать непредсказуемо
Предсказуемо. Если что - я занимаюсь предсказаниями, и недорого. Но учти что предсказания не ведут к счастью.
| |
4.57, OpenEcho (?), 14:36, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
> плюс ZFS может начать ее жрать непредсказуемо
Читайте про zfs_arc_max
и как это засунуть в /etc/modprobe.d/zfs.conf
| |
|
5.69, пох. (?), 16:57, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
>> плюс ZFS может начать ее жрать непредсказуемо
> Читайте про zfs_arc_max
там все наврано. В смысле, она будет в какие-то моменты жрать (много!) больше чем то что ты туда напишешь (потому что там только часть arc).
И max это именно максимум - т.е. больше arc у тебя не вырастет (в ущерб производительности) но это вовсе не означает что он займет именно столько.
Т.е. не надо трогать эту переменную пока ничего не упало.
| |
|
4.90, Аноним (90), 11:48, 25/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
>8Гб памяти с 2 виртуалками
Что такое две виртуалки? Это какая-то новая единица в системе СИ? В какой палате мер и весов можно глянуть на эталон?
| |
|
3.125, Tron is Whistling (?), 16:03, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
У меня простой вопрос:
Есть iSCSI SAN. SAN, не NAS!
Есть на нём ваш любимый ZFS RAID.
Как мне его подключить к полсотне хост-нод?
| |
|
4.126, Tron is Whistling (?), 16:05, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
В VMWare с VMFS всё просто. Один VMFS на всех землекопов.
В XenServer LVMoISCSI - не сахар, но прекрасно работает.
С вашим счастьем-то что делать? Городить отдельные ноды с NFS?
| |
|
5.130, пох. (?), 16:55, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
ну ага, давайте блок дивайсы поверх нфс раздавать. Я такое даже периодически пользую - для миграций между цодами у нас оно, поскольку кросс-DC fc нам не светит, да и не больно-то и хотелось бы.
Тот еще тормоз.
| |
|
|
|
|
1.25, Псевдонимус (?), 12:16, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]
| –4 +/– |
До сих пор Ceph as sdn. Как грится, тамада хороший и конкурсы интересные. Особенно интересными они станут, когда всё это развалится. А без sdn я аще не понимаю, что подвигает людей работать бесплатным бета-тестером вместо использования старого, доброго Hyper-V+WAC.
| |
|
2.29, пох. (?), 12:46, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
О, да. Гуглить реддит ceph war story (оно на самом деле не просто про цеф а именно про проксмокс и как оно классно все развалилось) - или искать тут - я вроде давал прямую ссылку пока она была актуальна.
С другой стороны - тех кто тогда смог это починить, теперь поди уж точно не уволят.
А твою hyperv любой школьник может.
| |
2.38, пох. (?), 13:26, 24/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Ну а с другой стороны - а что, еще кто-то есть?
Не хочешь вот - gluster например попробовать? По глазам вижу что не хочешь. Гад.
А поверх storage direct в общем-то проще оставаться на hyper-v.
P.S. говорят, ruvds унаследовали от мастерхвоста эту чудо-технологию. И не кашлюют (не, ну а чего им плакать-то особенно)
| |
2.118, Tron is Whistling (?), 15:49, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
C ceph я пытался - честно, ну оно у меня вообще не срастается даже на начальных этапах.
Всё завожу, даю стресс-тест с внезапным отказом ноды - несколько блоков уходят в recovery и из него уже не выходят. Из форумов понял, что надо через задницу выкручивать crush map, чтобы этого не было, и решил, что нет, спасибо, если оно полностью развалится - будет не поднять.
| |
|
|
4.131, пох. (?), 16:57, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
э... блин, ты себе территориально-распределенный что ли захотел? Не делай этого. Не для рассейских сетей сия затея.
| |
|
3.129, пох. (?), 16:51, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
попробуй проксу. Она тебе все правильно настроит. Один раз. Апгрейдить только не вздумай.
Но в целом, конечно, пользовать эту хрень без редхата за спиной - надо быть очень самоуверенным или быстрым.
| |
|
|
3.128, пох. (?), 16:34, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
тем что его надо где-то отдельно размещать. Вот есть у тебя три делловских...э...много...ну пусть хуавеевских сервака. На них ты собрался развернуть свою виртуализацию, т.е. мощности самой кастрюле не занимать. Дисков при этом в сумме в них можно напихать вполне достаточно, даже в одноюнитовую кастрюлю влезают десятки терабайт. Напрашивается очевидное - не тратиться на отдельную сеть, отдельные железки и отдельные менеджемые единицы, а собрать sds прямо по месту.
Но тут на сцену выходит ceph и обоссывает зрителей, сидящих в третьем и двенадцатом ряду...
(А вот у вмвари - работает... ну ребята из гринатома мамой клялись... но вроде убедительно.)
| |
|
4.134, RHEL Fan (?), 23:17, 27/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Не, ceph не выходит, его для Hyperconverged не рекомендовали никогда, вроде. После такого кастрюле придется мощности таки подзанять.
| |
|
5.135, пох. (?), 23:50, 27/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
ну это ж зависит от того, сколько ее до того было.
В моих экспериментах ничего особенного (память жрьеот, ну так ты думаешь наша продакшн стойка с нетапой не жрьот? Еще как, за обе щеки. И подавать непременно сертифицированную, с лейбачочком. Цена этой наклейки почему-то как у чемодана точно таких модулей но без наклеек.) - такого что не смог бы потянуть тот ящик что у нас штатно ставят под виртуализацию.
У меня не вышло чтоб оно при этом еще и не было аццким тормозом, но умные люди говорят что на меньше чем десятке тазиков и не должно было - а столько под эксперименты мне никто не дасть :-(
| |
|
|
|
|
1.32, LeNiN (ok), 13:07, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]
| –2 +/– |
Ого, вон оно как теперь можно, оказывается: **контейнеры** с иной архитектурой! Я раньше думал, что для таких штук надо полноценную виртуализацию использовать.
> Allow riscv32 and riscv64 container architectures through the binfmt_misc kernel capability.
> After installing the qemu-user-static and binfmt-support packages one can use a RISC-V based rootfs image to run as container directly on an x86_64/amd64 Proxmox VE host. | |
|
2.39, пох. (?), 13:30, 24/03/2023 [^] [^^] [^^^] [ответить]
| +1 +/– |
И что, по-твоему, такое "qemu-user-static"?
Логичненько, в общем - если вся система понастроена поверх qemu-kvm, достаточно заменить модуль на эмуляторный и все будет работать примерно так же - только тормоооооознооооо. Ну и что, как будто бы оно на рискве бы летало... если бы эти рискве еще вообще существовали не только в фантазиях.
А для подр...ть поотлаживаться - вполне сойдет. Вот и вполне реалистичное применение чудо-технологиям. Могет эта ваше хиперве такое, а, блингейц?!
| |
|
3.65, LeNiN (ok), 16:05, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
qemu-user-static это всё же, как я понимаю, не полноценная виртуализация, а только транслятор команд.
Да, тормозно. Но для некоторых целей вполне достаточно.
RISC-V железо вполне себе существуют, у меня уже две платки с микроконтроллерами — Sipeed Longan nano и SparkFun RED-V thing plus. Первая дешёвая прикольная, сразу с экранчиком, а на второй есть J-link. Я во всей этой теме пока ещё слабо разбираюсь, только начинаю.
| |
|
4.67, пох. (?), 16:52, 24/03/2023 [^] [^^] [^^^] [ответить]
| –1 +/– |
так оно там для контейнера, судя по описанию и использованию модуля - то есть это не целиком вм а именно запуск чужого бинарника (но линуксного - т.е. взаимодействие с ядром идет с настоящим ядром без всякой виртуализации, просто команды выполняет интерпретатор - т.е. там тот же механизм что позволяет запускать java-бинарники...ну и bash на самом деле почти он же)
фиг знает к какой полезной деятельности это можно применить, но скорее всего как и у тебя - непонятно но прикольно и почему бы не сделать.
По скорости может даже переплюнуть дешевые китайские платы ;-)
| |
|
5.127, пох. (?), 16:30, 26/03/2023 [^] [^^] [^^^] [ответить]
| +/– |
Он быстрее (в разы, потому что ядро - настоящее а не эмулируемое).
И не надо мучаться с загрузкой виртуальной системы, с которой могут возникнуть трудности, поскольку все они уникальные и никакого уефи для рисквы тоже нет.
А вот юзерленд может и будет работать.
Я бы вот на такое в свое время посмотрел бы пристально - возможно сильно упростило бы мне отладку (не для рисквы понятен, но механизм-то универсальный)
| |
|
|
|
|
|