The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Релиз Proxmox VE 7.4, дистрибутива для организации работы виртуальных серверов

24.03.2023 09:14

Опубликован релиз Proxmox Virtual Environment 7.4, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix Hypervisor. Размер установочного iso-образа 1.1 ГБ.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса: поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Улучшения в web-интерфейсе:
    • Реализована возможность включения тёмной темы оформления.
    • В древовидном списке ресурсов гостевые системы теперь могут быть отсортированы по имени, а не только по VMID.
    • В web-интерфейсе и API обеспечен показ детальной информации о Ceph OSD (Оbject Storage Daemon).
    • Добавлена возможность загрузки логов выполнения задач в форме текстовых файлов.
    • Расширены возможности редактирования работ, связанных с резервным копированием.
    • Предоставлена поддержка добавления локальных типов хранилищ, размещённых на других узлах кластера.
    • В мастер добавления хранилища для хранилищ на базе ZFS, LVM и LVM-Thin добавлен интерфейс выбора узла.
    • Обеспечен автоматический проброс HTTP-соединений на HTTPS.
    • Улучшен перевод интерфейса на русский язык.
  • Продолжено развитие планировщика ресурсов кластера (CRS, Cluster Resource Scheduling), выполняющего поиск новых узлов, необходимых для обеспечения высокой доступности. В новой версии добавлена возможность автоматической перебалансировки виртуальных машин и контейнеров на этапе запуска, а не только во время восстановления.
  • В менеджер обеспечения высокой доступности (HA Manager) добавлена команда CRM для ручного перевода активного узла в режим обслуживания (maintenance) без необходимости перезагрузки. В рамках подготовки к внедрению системы динамического планирования нагрузки в кластере, проведена унификация ресурсов (CPU, память) различных HA-сервисов (виртуальные машины, контейнеры).
  • В хранилище добавлена опция "content-dirs" для переопределения типа содержимого в определённых подкаталогах (например, iso-образы, шаблоны контейнеров, резервные копии, диски гостевых систем и т.п.).
  • Переработано вычисление ACL и существенно повышена производительность обработки правил управления доступом на системах с очень большим числом пользователей или большими списками ACL.
  • Предоставлена возможность отключения уведомления о появлении обновлений пакетов.
  • В установочном ISO-образе предоставлена возможность выбора часового пояса в процессе инсталляции для упрощения синхронизации территориально разделённых хостов или кластеров.
  • В LXC-контейнерах добавлена поддержка архитектур riscv32 и riscv64 (для работы требуется установка пакетов qemu-user-static и binfmt-support).
  • Обновлены версии систем в шаблонах контейнеров для архитектуры amd64.
  • Осуществлена синхронизация с пакетной базой Debian 11.6. По умолчанию предложено ядро Linux 5.15, опционально доступен выпуск 6.2. Обновлены QEMU 7.2, LXC 5.0.2, ZFS 2.1.9, Ceph Quincy 17.2.5, Ceph Pacific 16.2.11.


  1. Главная ссылка к новости (https://www.proxmox.com/en/new...)
  2. OpenNews: Релиз Proxmox VE 7.3, дистрибутива для организации работы виртуальных серверов
  3. OpenNews: Выпуск дистрибутива Proxmox Backup Server 1.1
  4. OpenNews: Выпуск дистрибутива Proxmox Mail Gateway 6.4
  5. OpenNews: Выпуск XCP-NG 8.2, свободного варианта Citrix Hypervisor
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/58856-proxmox
Ключевые слова: proxmox, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (114) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 09:39, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • +10 +/
    Темная тема, срочно обновляться
     
     
  • 2.18, пох. (?), 11:20, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –11 +/
    Смена версии ceph? Не, опеннетовским экспертам понятно только про тему.

    Обновляться я бы правда именно по этой причине не рискнул. Хотя... те кто пользуют ЭТО привыкли страдать. Страдание очищает.

     
     
  • 3.36, igsbox (??), 13:11, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +7 +/
    3 локальных кластера, 1 распределённый. Около 40 нод, хранилки на Солярке и на TrueNAS. Всё работает, просто работает, без бубна и заклинаний. Укажи мне путь к страданию,  о великий гуру?
     
     
  • 4.47, пох. (?), 14:12, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –15 +/
    Заняться чем-то помимо майнинга и отмывания денег не пробовал?

    Хотя, действительно, зачем же ж...

    P.S. расскажи, как в твоей чудо-системе смигрировать виртуалку в этот распределенный из нераспределенного, если вдруг, внезапно, выяснилось что это что-то критичное (откуда у тебя.. ну вдруг)

     
     
  • 5.113, igsbox (??), 12:40, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Пальцем в небо попали, гражданин провокатор. Это кластеры разных клиентов, никак не связанных между собой, ну только админ общий.
    Если вдруг возникнет такая задача -
    zfs send имя-снапшота | ssh host zfs receive имя-номер-виртуалки
    на хранилке источника. А потом файл описания виртуалки скопипастить из кластера-источника и поправить имя пула хранения диска
    Огромный плюс Proxmox - текстовые конфиги, которые можно править на лету

    Не, не гуру - просто балабол местечковый ;)

     
     
  • 6.114, пох. (?), 13:48, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > Если вдруг возникнет такая задача -
    > zfs send имя-снапшота | ssh host zfs receive имя-номер-виртуалки

    круто. И пока оно копируется - виртуалка спокойно полежит.
    А если у тебя там не zfs а к примеру lvm как местные эксперты насоветовали?

    > Огромный плюс Proxmox - текстовые конфиги, которые можно править на лету

    да просто зашибись вообще.

    Если что - в нормальных коммерческих системах виртуализации (ни на что не намекаю, но это vmware) конфиги тоже в общем-то текстовые. Но правил я их руками последний раз восемь лет назад для очень специфического эксперимента.

    А перенос виртуалки в другой кластер делается вот так: move-vm 'name' -Destination 'name'
    Разумеется, она при этом ничего даже и не заметит.

     
     
  • 7.116, igsbox (??), 14:28, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну да, нет проблем У меня почти все виртуалки обязаны работать 12 часов в сутки... большой текст свёрнут, показать
     
     
  • 8.133, Тоже русский (?), 06:50, 27/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    qm help remote-migrate и да, не кормите тролля 8 ... текст свёрнут, показать
     
  • 3.82, Аноним (82), 23:47, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Диванный эксперт подъехал. Что же вмваря (не к обеду называть этих беглых из страны "бизнесменов", которые, как известно, "слово держат") не сделает то, что в PVE есть уже годами - хотя бы тот же файрволл на каждую ВМ?
     
     
  • 4.84, пох. (?), 00:16, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –3 +/
    э.... простите, на...я мне файрвол на уровне бриджа? Вмварь не занимается маршрутизацией и никакого другого места для файрвола там нет. (а еще бывает sr-iov где и бриджа-то нет)

    (я, конечно, хрен знает что они там на...евертили в своей sdn, оно стоит столько что как-то прошло мимо меня, даже подержаться на превью не дали)

    Это система - виртуализации. Для остального есть другие продукты. Я вполне был счастлив своей палоальтой в качестве файрвола.

     

  • 1.4, Аноним (4), 09:53, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • +6 +/
    сделали б они LTS лет на 7-10 ...
     
     
  • 2.5, Олег (??), 10:13, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    100% поддерживаю
     
  • 2.13, пох. (?), 11:14, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Так он у них есть. Но есть нюанс... за деньги. А ты думал - они святымдухом питаются и за все хорошее против всего плохого тебе подогнали систему виртуализации для мышекликеров?
     
     
  • 3.34, Аноним (4), 13:10, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    и эта
    за деньги у них тоже нет если чо,
    вот бред писать можно и бесплатно .
     
     
  • 4.43, пох. (?), 13:52, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    В смысле? Плати 150 евро за процессорное ведро - и будет тебе stable repository. А нет денег - ну так работай бетатестером, чего уж там.

     

  • 1.7, Омоним (?), 10:32, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    Неплохая система виртуализации, активно развивающаяся, с достаточно адекватным сообществом, хорошей документацией и кучей рецептов на все случаи жизни. Это мы используем. Удачи проекту в развитии.
     
     
     
     
    Часть нити удалена модератором

  • 4.15, пох. (?), 11:17, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –6 +/
    В китае - нет. В китае не брезгуют и за вмварь заплатить, если на самом деле надо.

    А вот у тебя уже не получится - нет дырочки для запихивания твоих юаней. Пользуйся скрепным импортозамещенным ничего.

     
     
  • 5.31, жявамэн (ok), 12:50, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    ну там у астры и у альта есть какие то самодельные перделки на квм.
    что там внутри хз - они платные
     
     
  • 6.44, пох. (?), 13:53, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > что там внутри хз - они платные

    ну я предположил, что, но ищи ответ в удаленных - опеннет место для троллинга а не для разговора на технические темы

     
     
  • 7.50, Аноним (50), 14:17, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    ггг а бихайв не хотите? vstack с ним регулярно на хабре пиарится
     
     
  • 8.55, пох. (?), 14:28, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Брр, нет уж Чур меня, чур Умерла так умерла vstack это нечто настолько законч... текст свёрнут, показать
     
     
  • 9.71, Аноним (71), 17:58, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    встак в прошлом году грозились запилить но пока молчат ... текст свёрнут, показать
     
     
  • 10.89, пох. (?), 09:10, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    шо - опять Я уже лет пять самое малое слышу что все почти уже готово, в ядре вс... текст свёрнут, показать
     
     
  • 11.112, Аноним (112), 11:37, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    у меня от слов патч для иде контроллера для фрибсд вьетнамские флешбэки 20 летне... текст свёрнут, показать
     
     
  • 12.115, пох. (?), 13:54, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    да не для фрилсде, мать, а для виртуальной машины - чем проще виртуализированный... большой текст свёрнут, показать
     
  • 2.28, Псевдонимус (?), 12:41, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –5 +/
    При импорте VM надо создать VM на Proxmox, запомнить имя файла вирт.диска, удалить и подложить вместо него вирт.диск от импортируемой.
    Чтобы повесить vlan на интерфейсы, надо юзать ansible.
    RAID на ZFS (вместо mdraid), не имеющей fsck, чтобы если грохнулось, то всерьез и надолго.

    Отличные рецепты, не поспоришь.

     
     
  • 3.42, пох. (?), 13:46, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    mdraid c write hole тоже, знаешь ли, так себе решение.

    А потом ты поверх него развернешь еще lvm, потому что в снапшоты он не умеет, да? И как у тебя с fsck для lvm?

    P.S. и вроде пятая версия умела в импорт ova. Ничего руками создавать было не надо. Седьмая что - разучилась?

     
  • 3.63, Аноним (63), 15:27, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я тоже так импортил диск один раз по незнанию)), но если почитать доку, то для этого есть команды и диски нормально конвертируются и подключаются к виртуалке без этой рукопашки с подменой диска.
     
     
  • 4.66, Псевдонимус (?), 16:44, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Тут командой, там ансиблей, здесь прямое редактирование конфигов. Именно так я себе и представлял готовое законченное решение для замены vShpere и Hyper-V.
     
     
  • 5.83, Аноним (82), 23:49, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну да, вмваря и гиперв делают всё прямо, без сбоев и гемора, вот прямо волшебной палочкой?
     
     
  • 6.85, пох. (?), 00:19, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Ну да, вмваря и гиперв делают всё прямо, без сбоев и гемора,
    > вот прямо волшебной палочкой?

    импорт ova - вполне себе. Подключение существующих дисков к любой существующей виртуалке - без ручного редактирования конфигов - тоже.

     
     
  • 7.99, Заноним (?), 16:54, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Инвертируй:
    Импортируй qcow2 в esxi без cli, без заливки по ssh и без 10 кликов (+/-20 мизкликов) в морде к esxi?
    И прикинь - qcow2 тоже открытый формат.

     
     
  • 8.100, пох. (?), 17:10, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –4 +/
    прости а нахрена мне твой пердолинг ради пердолинга У чувака не работает баналь... текст свёрнут, показать
     
     
  • 9.103, Заноним (?), 18:02, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ты дурочку-то не включай Тебе специально опустили лишнее - ova это просто tar н... текст свёрнут, показать
     
     
  • 10.104, пох. (?), 19:43, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    понимаешь, дурашка - ova - стандарт И понимается всеми - КРОМЕ твоего васянског... большой текст свёрнут, показать
     
     
  • 11.110, Заноним (?), 02:15, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Вытащи себя из лошков уже, за волосы - tar стандартизирован с 1998 в POSIX Расп... текст свёрнут, показать
     
  • 3.88, Заноним (?), 00:32, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    RTFM
    RTFM, vlan на интерфейсы прям из web-морды вписывается
    RTFM, ZFS не нужен fsck
     
     
  • 4.94, Аноним (94), 15:51, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    не спорьте с Псевдоумнусом) он знает свою зоопарк лучше ... пусть использует то что хочет
     
  • 4.124, Tron is Whistling (?), 16:02, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    > ZFS не нужен fsck

    Это пока оно не развалилось. Хотя соглашусь: когда развалилось - тоже уже не нужен, ничего оттуда не вытащищь.


     
     
  • 5.132, Заноним (?), 17:52, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Если развалилось - то либо подохла основная часть накопителей, либо сломался мозг того, кто потёр данные. В остальных случаях ZFS можно вернуть в работу - RTFM. А для тех кто не может в RTFM - создан всякий виндузячий софт типа klennet zfs или diskinternals raid recovery.
     

  • 1.11, deusbase (ok), 10:47, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Использую, доволен, но приходится ставить на чистый Дебиан, тк родной граф. инсталятор не понимает встроенную в плату видюху и из-за 8Gb ОЗУ ставлю на программный RAID1 вместо ZFS, которого тоже нет в инсталяторе.
     
     
  • 2.19, EuPhobos (ok), 11:36, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    А что не так с ZFS-рэйдом?
     
     
  • 3.20, Аноним (20), 11:44, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Это тот, который требует 2 гб памяти на каждый терабайт стораджа чтобы работать относительно нормально? Действительно, больше же нечем занять оперативку.
     
     
  • 4.21, анон (?), 11:52, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Гораздо больше. Под нагрузкой приходится очень сильно подкручивать параметры. Иначе всё дохнет.
     
  • 4.26, maximnik0 (?), 12:25, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    А дедубликацию отключить не пробовали ? При отключенный дедубликацию на 8-10 гиг ОЗУ ZFS уже в принципе работает.Конечно при условии что рэйд не на 100 тб,тогда памяти побольше потребуется.
     
     
  • 5.27, Аноним (20), 12:36, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Всего 4 диска было, так что около 70. Да, занять память кроме как рейдом действительно больше нечем, о чём и речь.
     
     
  • 6.30, пох. (?), 12:49, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Кэширование нинуна, нинуна, нинуна!

    Память нонеча дорога а пользователи - еще подождут.
    Ну и ресурс накопителей надо ж убить побыстрее, а то на новые бюджет не выделят.


     
     
  • 7.77, Tron is Whistling (?), 22:20, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Зойчем двойное кеширование (да ещё и с системными буферами в случае ZFS не дружащее) на уровне доступа к NAS/SAN, если виртуалки сами себе кешируют то, что им нужно?
     
     
  • 8.86, пох. (?), 00:24, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    затем что диск читается не теми кусками которые нужны виртуалке - потому что это... текст свёрнут, показать
     
     
  • 9.91, Tron is Whistling (?), 12:05, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Смежные блоки - это префетч Толку от него в последнее время реально как от козл... текст свёрнут, показать
     
     
  • 10.93, пох. (?), 12:43, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    ну и как ты узнаешь извне виртуалки - это вот последовательный кусок читают и се... текст свёрнут, показать
     
     
  • 11.117, Tron is Whistling (?), 15:44, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Не надо это извне узнавать Виртуалка свой префетч имеет, о котором знает, и о т... текст свёрнут, показать
     
  • 9.92, Tron is Whistling (?), 12:06, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    То, что ZFS без него нормально не живёт - ну, проблемы индейцев, вот это всё ... текст свёрнут, показать
     
  • 6.37, maximnik0 (?), 13:12, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –3 +/
    > Всего 4 диска было, так что около 70. Да, занять память кроме
    > как рейдом действительно больше нечем, о чём и речь.

    А слово кэш не слыхал ? Вон у меня ноутбук-14 гб чистой памяти,на кэш уходит 8гб,а у ZFS есть проблема (не знаю насколько актуальная) у нее собственный кэш,не интегрированный с VFS ядра.Из-за этого и жручесть Озу у ZFS//


     
     
  • 7.40, пох. (?), 13:38, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    у ведра нет никакой интеграции кэша с vfs Вот у zfs - она есть А у ведра твоег... большой текст свёрнут, показать
     
     
  • 8.48, OpenEcho (?), 14:14, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Это по поводу лицухи или технически ... текст свёрнут, показать
     
     
  • 9.53, пох. (?), 14:23, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Технически Когда лидер проекта на найденый с точностью до конкретного куска код... текст свёрнут, показать
     
     
  • 10.59, OpenEcho (?), 14:46, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Да, согласен то же самое как с musl, сколько было тыкания носом в РФЦ что DNS... текст свёрнут, показать
     
  • 8.62, Аноним (63), 15:19, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    А что именно не умеет thin И LVM-thin и Zvol нормально под сабжем работают ... текст свёрнут, показать
     
     
  • 9.87, пох. (?), 00:27, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    они уже научились устанавливаться на thin Раньше его требовалось создавать вруч... текст свёрнут, показать
     
  • 8.81, maximnik0 (?), 23:43, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Странно,я читал что с 4 версии ядра кое какие механизм есть Порывшись в инете а ... большой текст свёрнут, показать
     
  • 4.45, OpenEcho (?), 14:09, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Это тот, который требует 2 гб памяти на каждый терабайт стораджа

    Слышал звон, но не знает где он...
    ЗФС нужно много памяти если используется дедупликация, а без нее на двух гигах памяти можешь навесить десятки терабайт и все прекрасно будет работать

     
     
  • 5.49, Аноним (20), 14:15, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ну во-первых толку от неё без дедупликации, а, во-вторых, ты грязный врунишка.

     
     
  • 6.54, OpenEcho (?), 14:28, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну во-первых толку от неё без дедупликации

    Да ну !?
    А в нетфликсе то и не слышали твоего "гениального" мнения...
    ЗФС про надежность, а не про экономию на копейках

    > , а, во-вторых, ты грязный врунишка.

    Если у тебя руки растут не как у всех людей, - то это твоя проблема

     
     
  • 7.56, пох. (?), 14:34, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >> Ну во-первых толку от неё без дедупликации
    > Да ну !?

    ну да
    > А в нетфликсе то и не слышали твоего "гениального" мнения...

    а в нетфликсе нет zfs. вообще.
    > ЗФС про надежность, а не про экономию на копейках

    глядя на стойки нетапп (да, внутри это клон zfs) - ничего так себе копейки.
    Но да, бывают приключения. Но при цене этих деталек - лучше быть повнимательней и поаккуратней, но новую полку купить как-нибудь не в этом году.

    Но разница как раз в том что у нетапы - работает, и достаточно предсказуемо. А у выкинутой на помойку реализации openzfs - не очень (технология в момент выкидыша была в зачаточном состоянии, нетапа справилась а эти затобесплатные - как обычно).

     
     
  • 8.61, OpenEcho (?), 15:07, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Не правда Сама загрузка, конфиги, логи система одним словом сидит на ЗФС, а с... большой текст свёрнут, показать
     
     
  • 9.70, пох. (?), 17:13, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    ну вот она в тех стойках - включена Иначе б мы разорились давно Да и не влезет... большой текст свёрнут, показать
     
     
  • 10.96, OpenEcho (?), 15:56, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Лютая правда ... текст свёрнут, показать
     
  • 7.60, Аноним (20), 14:52, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Нетфликс, кек. Ещё можно вспомнить, что у гугла ext2 "для надёжности".
     
     
  • 8.72, пох. (?), 18:26, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    c разморозочкой в 2009м они перешли на ext4 nojournal да, для надежности в том ... текст свёрнут, показать
     
     
  • 9.73, Аноним (20), 19:25, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    У ext4 nojournal производительность ext2, кстати На практике вообще не юзабельн... текст свёрнут, показать
     
     
  • 10.97, пох. (?), 16:28, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    пользуюсь везде кроме тяп-ляп установленного по шаблону для либо одноразовых экс... большой текст свёрнут, показать
     
     
  • 11.98, Аноним (20), 16:48, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Время доступа возрастает на порядки, пиковая пропускная способность падает в раз... текст свёрнут, показать
     
     
  • 12.101, пох. (?), 17:14, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –3 +/
    а мужики-то и не знали Скажи, вот какие бредовые предположения об устройстве фс... текст свёрнут, показать
     
     
  • 13.102, Аноним (20), 17:19, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, во что ты там истово веришь тоже не имеет никакого значения Я полноценно бе... текст свёрнут, показать
     
     
  • 14.105, пох. (?), 19:52, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    я не верую, я знаю как это работает И могу делать вполне обоснованные выводы из... большой текст свёрнут, показать
     
     
  • 15.106, Аноним (20), 20:26, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, никаких противоречий нет, ведь можно посмотреть как и для чего журнал исполь... текст свёрнут, показать
     
     
  • 16.107, пох. (?), 21:07, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ну же, я жду откровений Ты же посмотрел и сейчас мне расскажешь, как синхронная... текст свёрнут, показать
     
  • 4.78, Аноньимъ (ok), 22:59, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Вы бредите.
    Нет у ЗФС такого требования.
    А при желании его можно вообще на минимум потребления ОЗУ накрутить.
    Запускал ZFS на 256МБ ОЗУ, и всё работало отлично.
     
     
  • 5.80, Аноним (20), 23:05, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Какая нагрузка?
     
     
  • 6.95, Аноним (94), 15:55, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    согласен ) даже на fresh tomato zfs завезли и работает)
     
  • 3.22, пох. (?), 11:53, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Он же тебе написал - в окошкоменюшке нет.
    (потому что он ставит поверх дерьмиана, в котором действительно нет, а родной графический инсталлятор ну ниасиливает у него чего-то)

     
  • 3.46, deusbase (ok), 14:12, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    8Гб памяти с 2 виртуалками становится прямо впритык 80-90%, плюс ZFS может начать ее жрать непредсказуемо, а тк Проксмокс по дефолту своп не уважает совсем, все заканчивается крэшем. С программным рэйдом и свопом на подстраховке проблем таких нет вообще, память стабильно на 70%.
     
     
  • 4.52, пох. (?), 14:20, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    > 8Гб памяти с 2 виртуалками становится прямо впритык 85-90%, плюс ZFS может
    > начать ее жрать непредсказуемо

    Предсказуемо. Если что - я занимаюсь предсказаниями, и недорого. Но учти что предсказания не ведут к счастью.


     
     
  • 5.58, OpenEcho (?), 14:38, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Но учти что предсказания не ведут к счастью.

    Но дают надежду :)


     
  • 4.57, OpenEcho (?), 14:36, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    > плюс ZFS может начать ее жрать непредсказуемо

    Читайте про zfs_arc_max
    и как это засунуть в /etc/modprobe.d/zfs.conf


     
     
  • 5.69, пох. (?), 16:57, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> плюс ZFS может начать ее жрать непредсказуемо
    > Читайте про zfs_arc_max

    там все наврано. В смысле, она будет в какие-то моменты жрать (много!) больше чем то что ты туда напишешь (потому что там только часть arc).
    И max это именно максимум - т.е. больше arc у тебя не вырастет (в ущерб производительности) но это вовсе не означает что он займет именно столько.

    Т.е. не надо трогать эту переменную пока ничего не упало.

     
  • 4.90, Аноним (90), 11:48, 25/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    >8Гб памяти с 2 виртуалками

    Что такое две виртуалки? Это какая-то новая единица в системе СИ? В какой палате мер и весов можно глянуть на эталон?

     
  • 3.125, Tron is Whistling (?), 16:03, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    У меня простой вопрос:
    Есть iSCSI SAN. SAN, не NAS!
    Есть на нём ваш любимый ZFS RAID.
    Как мне его подключить к полсотне хост-нод?
     
     
  • 4.126, Tron is Whistling (?), 16:05, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    В VMWare с VMFS всё просто. Один VMFS на всех землекопов.
    В XenServer LVMoISCSI - не сахар, но прекрасно работает.
    С вашим счастьем-то что делать? Городить отдельные ноды с NFS?
     
     
  • 5.130, пох. (?), 16:55, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    ну ага, давайте блок дивайсы поверх нфс раздавать. Я такое даже периодически пользую - для миграций между цодами у нас оно, поскольку кросс-DC fc нам не светит, да и не больно-то и хотелось бы.

    Тот еще тормоз.

     

  • 1.25, Псевдонимус (?), 12:16, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • –4 +/
    До сих пор Ceph as sdn. Как грится, тамада хороший и конкурсы интересные. Особенно интересными они станут, когда всё это развалится. А без sdn я аще не понимаю, что подвигает людей работать бесплатным бета-тестером вместо использования старого, доброго Hyper-V+WAC.
     
     
  • 2.29, пох. (?), 12:46, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    О, да. Гуглить реддит ceph war story (оно на самом деле не просто про цеф а именно про проксмокс и как оно классно все развалилось) - или искать тут - я вроде давал прямую ссылку пока она была актуальна.

    С другой стороны - тех кто тогда смог это починить, теперь поди уж точно не уволят.

    А твою hyperv любой школьник может.

     
  • 2.35, Аноним (4), 13:11, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    sdn- это software defined network.
    каким местом к нему ceph?
     
  • 2.38, пох. (?), 13:26, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ну а с другой стороны - а что, еще кто-то есть?

    Не хочешь вот - gluster например попробовать? По глазам вижу что не хочешь. Гад.

    А поверх storage direct в общем-то проще оставаться на hyper-v.

    P.S. говорят, ruvds унаследовали от мастерхвоста эту чудо-технологию. И не кашлюют (не, ну а чего им плакать-то особенно)

     
  • 2.64, Аноним (64), 15:55, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Цена WAC?
     
     
  • 3.68, Псевдонимус (?), 16:54, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Нисколько, качай вволю: http://aka.ms/WACDownload .
     
  • 2.118, Tron is Whistling (?), 15:49, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    C ceph я пытался - честно, ну оно у меня вообще не срастается даже на начальных этапах.
    Всё завожу, даю стресс-тест с внезапным отказом ноды - несколько блоков уходят в recovery и из него уже не выходят. Из форумов понял, что надо через задницу выкручивать crush map, чтобы этого не было, и решил, что нет, спасибо, если оно полностью развалится - будет не поднять.
     
     
  • 3.119, Tron is Whistling (?), 15:50, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    И конфигурация-то примитивнейшая, 9 storage нод, три DC...
     
     
  • 4.131, пох. (?), 16:57, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    э... блин, ты себе территориально-распределенный что ли захотел? Не делай этого. Не для рассейских сетей сия затея.

     
  • 3.129, пох. (?), 16:51, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    попробуй проксу. Она тебе все правильно настроит. Один раз. Апгрейдить только не вздумай.

    Но в целом, конечно, пользовать эту хрень без редхата за спиной - надо быть очень самоуверенным или быстрым.

     
  • 2.122, Tron is Whistling (?), 15:59, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    А чем iSCSI SAN не устраивает?
     
     
  • 3.128, пох. (?), 16:34, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    тем что его надо где-то отдельно размещать. Вот есть у тебя три делловских...э...много...ну пусть хуавеевских сервака. На них ты собрался развернуть свою виртуализацию, т.е. мощности самой кастрюле не занимать. Дисков при этом в сумме в них можно напихать вполне достаточно, даже в одноюнитовую кастрюлю влезают десятки терабайт. Напрашивается очевидное - не тратиться на отдельную сеть, отдельные железки и отдельные менеджемые единицы, а собрать sds прямо по месту.
    Но тут на сцену выходит ceph и обоссывает зрителей, сидящих в третьем и двенадцатом ряду...

    (А вот у вмвари - работает... ну ребята из гринатома мамой клялись... но вроде убедительно.)

     
     
  • 4.134, RHEL Fan (?), 23:17, 27/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Не, ceph не выходит, его для Hyperconverged не рекомендовали никогда, вроде. После такого кастрюле придется мощности таки подзанять.
     
     
  • 5.135, пох. (?), 23:50, 27/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    ну это ж зависит от того, сколько ее до того было.

    В моих экспериментах ничего особенного (память жрьеот, ну так ты думаешь наша продакшн стойка с нетапой не жрьот? Еще как, за обе щеки. И подавать непременно сертифицированную, с лейбачочком. Цена этой наклейки почему-то как у чемодана точно таких модулей но без наклеек.) - такого что не смог бы потянуть тот ящик что у нас штатно ставят под виртуализацию.

    У меня не вышло чтоб оно при этом еще и не было аццким тормозом, но умные люди говорят что на меньше чем десятке тазиков и не должно было - а столько под эксперименты мне никто не дасть :-(

     
  • 2.123, Tron is Whistling (?), 16:00, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    И не SDN, а SDS, наверное? Ну его в это самое.
     

  • 1.32, LeNiN (ok), 13:07, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Ого, вон оно как теперь можно, оказывается: **контейнеры** с иной архитектурой! Я раньше думал, что для таких штук надо полноценную виртуализацию использовать.

    >     Allow riscv32 and riscv64 container architectures through the binfmt_misc kernel capability.
    >    After installing the qemu-user-static and binfmt-support packages one can use a RISC-V based rootfs image to run as container directly on an x86_64/amd64 Proxmox VE host.

     
     
  • 2.39, пох. (?), 13:30, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • +1 +/
    И что, по-твоему, такое "qemu-user-static"?

    Логичненько, в общем - если вся система понастроена поверх qemu-kvm, достаточно заменить модуль на эмуляторный и все будет работать примерно так же - только тормоооооознооооо. Ну и что, как будто бы оно на рискве бы летало... если бы эти рискве еще вообще существовали не только в фантазиях.

    А для подр...ть поотлаживаться - вполне сойдет. Вот и вполне реалистичное применение чудо-технологиям. Могет эта ваше хиперве такое, а, блингейц?!

     
     
  • 3.65, LeNiN (ok), 16:05, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    qemu-user-static это всё же, как я понимаю, не полноценная виртуализация, а только транслятор команд.

    Да, тормозно. Но для некоторых целей вполне достаточно.

    RISC-V железо вполне себе существуют, у меня уже две платки с микроконтроллерами — Sipeed Longan nano и SparkFun RED-V thing plus. Первая дешёвая прикольная, сразу с экранчиком, а на второй есть J-link. Я во всей этой теме пока ещё слабо разбираюсь, только начинаю.

     
     
  • 4.67, пох. (?), 16:52, 24/03/2023 [^] [^^] [^^^] [ответить]  
  • –1 +/
    так оно там для контейнера, судя по описанию и использованию модуля - то есть это не целиком вм а именно запуск чужого бинарника (но линуксного - т.е. взаимодействие с ядром идет с настоящим ядром без всякой виртуализации, просто команды выполняет интерпретатор - т.е. там тот же механизм что позволяет запускать java-бинарники...ну и bash на самом деле почти он же)

    фиг знает к какой полезной деятельности это можно применить, но скорее всего как и у тебя - непонятно но прикольно и почему бы не сделать.

    По скорости может даже переплюнуть дешевые китайские платы ;-)

     
  • 4.120, Tron is Whistling (?), 15:52, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Вот дофига не могу понять - на фига вообще может понадобится КОНТЕЙНЕР с рисквой.
     
     
  • 5.121, Tron is Whistling (?), 15:52, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Ь
     
  • 5.127, пох. (?), 16:30, 26/03/2023 [^] [^^] [^^^] [ответить]  
  • +/
    Он быстрее (в разы, потому что ядро - настоящее а не эмулируемое).
    И не надо мучаться с загрузкой виртуальной системы, с которой могут возникнуть трудности, поскольку все они уникальные и никакого уефи для рисквы тоже нет.
    А вот юзерленд может и будет работать.

    Я бы вот на такое в свое время посмотрел бы пристально - возможно сильно упростило бы мне отладку (не для рисквы понятен, но механизм-то универсальный)

     

  • 1.76, QccjkWzNZJOKt (?), 20:17, 24/03/2023 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Стартовать и работать с usb уже научили ?
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру