<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>SOREX.ORG: заметки с тегом proxmox</title>
<link>https://sorex.org/?go=tags/proxmox/</link>
<description>Exchange, esx, AD, GPO, veeam, adaptec,lsi megaraid</description>
<author>sorex</author>
<language>ru</language>
<generator>E2 (v3820;)</generator>

<itunes:owner>
<itunes:name>sorex</itunes:name>
<itunes:email></itunes:email>
</itunes:owner>
<itunes:subtitle>Exchange, esx, AD, GPO, veeam, adaptec,lsi megaraid</itunes:subtitle>
<itunes:image href="" />
<itunes:explicit></itunes:explicit>

<item>
<title>proxmox удаление ноды и перевод кластера в local</title>
<guid isPermaLink="false">74</guid>
<link>https://sorex.org/?go=all/proxmox-udalenie-nody-i-perevod-klastera-v-local/</link>
<pubDate>Wed, 24 Dec 2025 05:29:33 +0000</pubDate>
<author>sorex</author>
<comments>https://sorex.org/?go=all/proxmox-udalenie-nody-i-perevod-klastera-v-local/</comments>
<description>
&lt;p&gt;systemctl stop pve-cluster corosync&lt;br /&gt;
pmxcfs -l&lt;br /&gt;
rm /etc/corosync/*&lt;br /&gt;
rm /etc/pve/corosync.conf&lt;br /&gt;
killall pmxcfs&lt;br /&gt;
systemctl start pve-cluster&lt;/p&gt;
&lt;p&gt;После этого удаляем папку /etc/pve/nodes/ИМЯ&lt;/p&gt;
</description>
</item>

<item>
<title>Proxmox 4.0: Корневой раздел на ZFS RAID1 или как увеличить отказоустойчивость если в сервере всего 2 диска</title>
<guid isPermaLink="false">50</guid>
<link>https://sorex.org/?go=all/proxmox-4-0-kornevoy-razdel-na-zfs-raid1-ili-kak-uvelichit-otkaz/</link>
<pubDate>Tue, 13 Apr 2021 10:21:52 +0000</pubDate>
<author>sorex</author>
<comments>https://sorex.org/?go=all/proxmox-4-0-kornevoy-razdel-na-zfs-raid1-ili-kak-uvelichit-otkaz/</comments>
<description>
&lt;p&gt;Подвернулась мне задача — запустить Proxmox и несколько виртуалок на сервере всего с 2 дисками. При этом требовалось обеспечить ну хоть какую-то надежность и простоту исправления проблем связанных с выходом из строя одного из дисков. Далее в заметке подробное описание тестирования решения на стенде.&lt;br /&gt;
&lt;h4&gt;Вводная&lt;/h4&gt;&lt;br /&gt;
Я считаю что читатель данной заметки может самостоятельно установить Proxmox на ноду и не буду рассматривать установку и настройку самого гипервизора. Рассмотрим только настройки касающиеся ZFS RAID1 и тестирование ситуации сбоя одного из дисков.&lt;br /&gt;
Железо на котором предстояло развернуть проект представляло из себя ноду Supermicro, видимо в исполнении 2 node in 1U с псевдо-рейдом интегрированном в чипсет от Intel который не поддерживается в Proxmox. В связи с этим попробуем испытать решение предлагаемое «из коробки» в версии 4.0. Хоть убейте — я не помню был-ли такой вариант установки в Proxmox 3.6, может и был, но не отложилось в памяти из-за невостребованности такой конфигурации. В тестовой стойке у нас отыскался аналогичный сервер и я принялся за проверку решения, предоставляемого ребятами из Proxmox Server Solutions.&lt;br /&gt;
&lt;h4&gt;Установка&lt;/h4&gt;&lt;br /&gt;
Как и предупреждал — не буду показывать установку полностью, заострю внимание только на важных моментах.&lt;/p&gt;
&lt;p&gt;Выбираем zfs RAID1:&lt;/p&gt;
&lt;p&gt;&lt;img src="https://sorex.org/wp-content/uploads/2015/12/35643b3fa54142cdb8f175103e337a6e.jpg" alt="image"&gt;&lt;/p&gt;
&lt;p&gt;Сервер тестовый и нет подписки на коммерческий репозиторий. В /etc/apt/sources.list подключаем бесплатный:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;deb http://download.proxmox.com/debian jessie pve-no-subscription
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;В /etc/apt/sources.list.d/pve-enterprise.list закомментируем коммерческий.&lt;/p&gt;
&lt;p&gt;Ну и вдруг забудете:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# apt-get update &amp;amp;&amp;amp; apt-get upgrade&lt;/span&gt;
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Смотрим что нам нарезал инсталлятор на дисках (привожу только часть вывода):&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# fdisk -l /dev/sd*&lt;/span&gt;

Disk /dev/sda: &lt;span class="hljs-number"&gt;149.1&lt;/span&gt; GiB, &lt;span class="hljs-number"&gt;160041885696&lt;/span&gt; bytes, &lt;span class="hljs-number"&gt;312581808&lt;/span&gt; sectors
Units: sectors of &lt;span class="hljs-number"&gt;1&lt;/span&gt; * &lt;span class="hljs-number"&gt;512&lt;/span&gt; = &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Sector size (logical/physical): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
I/O size (minimum/optimal): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Disklabel &lt;span class="hljs-built_in"&gt;type&lt;/span&gt;: gpt
Disk identifier: &lt;span class="hljs-number"&gt;758&lt;/span&gt;FA29C-&lt;span class="hljs-number"&gt;4&lt;/span&gt;F49-&lt;span class="hljs-number"&gt;4315&lt;/span&gt;-BA0C-F3CCC921FA01

Device         Start       End   Sectors  Size Type
/dev/sda1         &lt;span class="hljs-number"&gt;34&lt;/span&gt;      &lt;span class="hljs-number"&gt;2047&lt;/span&gt;      &lt;span class="hljs-number"&gt;2014&lt;/span&gt; &lt;span class="hljs-number"&gt;1007&lt;/span&gt;K BIOS boot
/dev/sda2       &lt;span class="hljs-number"&gt;2048&lt;/span&gt; &lt;span class="hljs-number"&gt;312565389&lt;/span&gt; &lt;span class="hljs-number"&gt;312563342&lt;/span&gt;  &lt;span class="hljs-number"&gt;149&lt;/span&gt;G Solaris /usr &amp;amp; Apple ZFS
/dev/sda9  &lt;span class="hljs-number"&gt;312565390&lt;/span&gt; &lt;span class="hljs-number"&gt;312581774&lt;/span&gt;     &lt;span class="hljs-number"&gt;16385&lt;/span&gt;    &lt;span class="hljs-number"&gt;8&lt;/span&gt;M Solaris reserved &lt;span class="hljs-number"&gt;1&lt;/span&gt;

Disk /dev/sdb: &lt;span class="hljs-number"&gt;149.1&lt;/span&gt; GiB, &lt;span class="hljs-number"&gt;160041885696&lt;/span&gt; bytes, &lt;span class="hljs-number"&gt;312581808&lt;/span&gt; sectors
Units: sectors of &lt;span class="hljs-number"&gt;1&lt;/span&gt; * &lt;span class="hljs-number"&gt;512&lt;/span&gt; = &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Sector size (logical/physical): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
I/O size (minimum/optimal): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Disklabel &lt;span class="hljs-built_in"&gt;type&lt;/span&gt;: gpt
Disk identifier: &lt;span class="hljs-number"&gt;3&lt;/span&gt;CD4B489-A51D-&lt;span class="hljs-number"&gt;4354&lt;/span&gt;-&lt;span class="hljs-number"&gt;8018&lt;/span&gt;-B1391F52B08D

Device         Start       End   Sectors  Size Type
/dev/sdb1         &lt;span class="hljs-number"&gt;34&lt;/span&gt;      &lt;span class="hljs-number"&gt;2047&lt;/span&gt;      &lt;span class="hljs-number"&gt;2014&lt;/span&gt; &lt;span class="hljs-number"&gt;1007&lt;/span&gt;K BIOS boot
/dev/sdb2       &lt;span class="hljs-number"&gt;2048&lt;/span&gt; &lt;span class="hljs-number"&gt;312565389&lt;/span&gt; &lt;span class="hljs-number"&gt;312563342&lt;/span&gt;  &lt;span class="hljs-number"&gt;149&lt;/span&gt;G Solaris /usr &amp;amp; Apple ZFS
/dev/sdb9  &lt;span class="hljs-number"&gt;312565390&lt;/span&gt; &lt;span class="hljs-number"&gt;312581774&lt;/span&gt;     &lt;span class="hljs-number"&gt;16385&lt;/span&gt;    &lt;span class="hljs-number"&gt;8&lt;/span&gt;M Solaris reserved &lt;span class="hljs-number"&gt;1&lt;/span&gt;
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Глянем на наш массив:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool status rpool&lt;/span&gt;
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
          mirror-&lt;span class="hljs-number"&gt;0&lt;/span&gt;  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            sda2    ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            sdb2    ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;

errors: No known data errors
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;По умолчанию инсталлятор Proxmox установил загрузчик на оба раздела — отлично!&lt;br /&gt;
&lt;h4&gt;Тестирование&lt;/h4&gt;&lt;br /&gt;
Имитируем отказ жесткого диска следующим образом:&lt;br /&gt;
— выключаем сервер;&lt;br /&gt;
— выдергиваем одну из корзин;&lt;br /&gt;
— включаем сервер.&lt;/p&gt;
&lt;p&gt;Сервер прекрасно грузится на любом из двух оставшихся дисков, массив работает в режиме DEGRADED и любезно подсказывает какой диск нам надо сменить и как это сделать:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool status rpool&lt;/span&gt;
  pool: rpool
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist &lt;span class="hljs-keyword"&gt;for&lt;/span&gt; the pool to &lt;span class="hljs-built_in"&gt;continue&lt;/span&gt;
        functioning &lt;span class="hljs-keyword"&gt;in&lt;/span&gt; a degraded state.
action: Replace the device using &lt;span class="hljs-string"&gt;'zpool replace'&lt;/span&gt;.
   see: http://zfsonlinux.org/msg/ZFS-&lt;span class="hljs-number"&gt;8000&lt;/span&gt;-&lt;span class="hljs-number"&gt;4&lt;/span&gt;J
  scan: none requested
config:

        NAME                      STATE     READ WRITE CKSUM
        rpool                     DEGRADED     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
          mirror-&lt;span class="hljs-number"&gt;0&lt;/span&gt;                DEGRADED     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            &lt;span class="hljs-number"&gt;14981255989033513363&lt;/span&gt;  FAULTED      &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;  was /dev/sda2
            sda2                  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;

errors: No known data errors
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Если вернуть извлеченный диск на место — он прекрасно «встает» обратно в зеркало:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool status rpool&lt;/span&gt;
  pool: rpool
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine &lt;span class="hljs-keyword"&gt;if&lt;/span&gt; the device needs to be replaced, and clear the errors
        using &lt;span class="hljs-string"&gt;'zpool clear'&lt;/span&gt; or replace the device with &lt;span class="hljs-string"&gt;'zpool replace'&lt;/span&gt;.
   see: http://zfsonlinux.org/msg/ZFS-&lt;span class="hljs-number"&gt;8000&lt;/span&gt;-&lt;span class="hljs-number"&gt;9&lt;/span&gt;P
  scan: resilvered &lt;span class="hljs-number"&gt;1.29&lt;/span&gt;M &lt;span class="hljs-keyword"&gt;in&lt;/span&gt; &lt;span class="hljs-number"&gt;0&lt;/span&gt;h0m with &lt;span class="hljs-number"&gt;0&lt;/span&gt; errors on Wed Dec  &lt;span class="hljs-number"&gt;2&lt;/span&gt; &lt;span class="hljs-number"&gt;08&lt;/span&gt;:&lt;span class="hljs-number"&gt;37&lt;/span&gt;:&lt;span class="hljs-number"&gt;46&lt;/span&gt; &lt;span class="hljs-number"&gt;2015&lt;/span&gt;
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
          mirror-&lt;span class="hljs-number"&gt;0&lt;/span&gt;  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            sda2    ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;3&lt;/span&gt;
            sdb2    ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;

errors: No known data errors
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Инсценируем замену диска на новый. Я просто взял другую корзину с таким-же диском из старого сервера. Ставим корзину на горячую для большей правдоподобности:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# fdisk -l /dev/sdb&lt;/span&gt;

Disk /dev/sdb: &lt;span class="hljs-number"&gt;149.1&lt;/span&gt; GiB, &lt;span class="hljs-number"&gt;160041885696&lt;/span&gt; bytes, &lt;span class="hljs-number"&gt;312581808&lt;/span&gt; sectors
Units: sectors of &lt;span class="hljs-number"&gt;1&lt;/span&gt; * &lt;span class="hljs-number"&gt;512&lt;/span&gt; = &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Sector size (logical/physical): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
I/O size (minimum/optimal): &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes / &lt;span class="hljs-number"&gt;512&lt;/span&gt; bytes
Disklabel &lt;span class="hljs-built_in"&gt;type&lt;/span&gt;: gpt
Disk identifier: &lt;span class="hljs-number"&gt;38&lt;/span&gt;BE38AC-&lt;span class="hljs-number"&gt;00&lt;/span&gt;D9-&lt;span class="hljs-number"&gt;4680&lt;/span&gt;-&lt;span class="hljs-number"&gt;88&lt;/span&gt;FC-&lt;span class="hljs-number"&gt;0876378526&lt;/span&gt;BC

Device      Start       End   Sectors   Size Type
/dev/sdb1      &lt;span class="hljs-number"&gt;40&lt;/span&gt;    &lt;span class="hljs-number"&gt;409639&lt;/span&gt;    &lt;span class="hljs-number"&gt;409600&lt;/span&gt;   &lt;span class="hljs-number"&gt;200&lt;/span&gt;M EFI System
/dev/sdb2  &lt;span class="hljs-number"&gt;411648&lt;/span&gt; &lt;span class="hljs-number"&gt;312580095&lt;/span&gt; &lt;span class="hljs-number"&gt;312168448&lt;/span&gt; &lt;span class="hljs-number"&gt;148.9&lt;/span&gt;G Microsoft basic data
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Условно неисправный диск у нас &lt;b&gt;/dev/sdb&lt;/b&gt; и учитывая одинаковую емкость и геометрию копируем таблицу разделов 1:1 с исправного диска &lt;b&gt;/dev/sda&lt;/b&gt;&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# sgdisk -R /dev/sdb /dev/sda&lt;/span&gt;
The operation has completed successfully.
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Генерируем уникальные UUID для /dev/sdb&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# sgdisk -G /dev/sdb&lt;/span&gt;
The operation has completed successfully.
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Ставим загрузчик на замененный диск и обновляем GRUB:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# grub-install --recheck /dev/sdb&lt;/span&gt;
Installing &lt;span class="hljs-keyword"&gt;for&lt;/span&gt; i386-pc platform.
Installation finished. No error reported.
root@pve1:~&lt;span class="hljs-comment"&gt;# update-grub&lt;/span&gt;
Generating grub configuration file ...
Found linux image: /boot/vmlinuz-&lt;span class="hljs-number"&gt;4.2&lt;/span&gt;.&lt;span class="hljs-number"&gt;3&lt;/span&gt;-&lt;span class="hljs-number"&gt;2&lt;/span&gt;-pve
Found initrd image: /boot/initrd.img-&lt;span class="hljs-number"&gt;4.2&lt;/span&gt;.&lt;span class="hljs-number"&gt;3&lt;/span&gt;-&lt;span class="hljs-number"&gt;2&lt;/span&gt;-pve
Found linux image: /boot/vmlinuz-&lt;span class="hljs-number"&gt;4.2&lt;/span&gt;.&lt;span class="hljs-number"&gt;2&lt;/span&gt;-&lt;span class="hljs-number"&gt;1&lt;/span&gt;-pve
Found initrd image: /boot/initrd.img-&lt;span class="hljs-number"&gt;4.2&lt;/span&gt;.&lt;span class="hljs-number"&gt;2&lt;/span&gt;-&lt;span class="hljs-number"&gt;1&lt;/span&gt;-pve
Found memtest86+ image: /ROOT/pve-&lt;span class="hljs-number"&gt;1&lt;/span&gt;@/boot/memtest86+.bin
Found memtest86+ multiboot image: /ROOT/pve-&lt;span class="hljs-number"&gt;1&lt;/span&gt;@/boot/memtest86+_multiboot.bin
&lt;span class="hljs-keyword"&gt;done&lt;/span&gt;
root@pve1:~&lt;span class="hljs-comment"&gt;# update-initramfs -u&lt;/span&gt;
update-initramfs: Generating /boot/initrd.img-&lt;span class="hljs-number"&gt;4.2&lt;/span&gt;.&lt;span class="hljs-number"&gt;3&lt;/span&gt;-&lt;span class="hljs-number"&gt;2&lt;/span&gt;-pve
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Осталось только заменить сбойный диск в массиве на свежеустановленный, но тут всплывает одна проблема, порожденная методом адресации дисков в массиве примененной в инсталляторе. А именно — диски включены в массив по физическому адресу и команда &lt;i&gt;zpool replace rpool /dev/sdb2&lt;/i&gt; покажет нам вот такую фигу:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool replace rpool /dev/sdb2&lt;/span&gt;
cannot replace /dev/sdb2 with /dev/sdb2: /dev/sdb2 is busy
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Что совершенно логично, нельзя сменить сбойный диск на &lt;b&gt;/dev/sdb2&lt;/b&gt; так как сбойный диск и есть &lt;b&gt;/dev/sdb2&lt;/b&gt;, а зачем нам повторять недоработку инсталлятора? Привяжем диск по UUID, я вообще уже забыл то время когда диски прибивались гвоздями вида /dev/sdХХ — UUID наше все:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool replace rpool /dev/disk/by-partuuid/cf590df4-72b7-4cfc-a965-001ffe56d0c9&lt;/span&gt;
Make sure to &lt;span class="hljs-built_in"&gt;wait&lt;/span&gt; until resilver is &lt;span class="hljs-keyword"&gt;done&lt;/span&gt; before rebooting.
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Нас предупредили о необходимости дождаться окончания синхронизации прежде чем перезагружаться. Проверим статус массива:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool status rpool&lt;/span&gt;
  pool: rpool
 state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
        &lt;span class="hljs-built_in"&gt;continue&lt;/span&gt; to &lt;span class="hljs-keyword"&gt;function&lt;/span&gt;, possibly &lt;span class="hljs-keyword"&gt;in&lt;/span&gt; a degraded state.
action: Wait &lt;span class="hljs-keyword"&gt;for&lt;/span&gt; the resilver to complete.
  scan: resilver &lt;span class="hljs-keyword"&gt;in&lt;/span&gt; progress since Wed Dec  &lt;span class="hljs-number"&gt;2&lt;/span&gt; &lt;span class="hljs-number"&gt;18&lt;/span&gt;:&lt;span class="hljs-number"&gt;07&lt;/span&gt;:&lt;span class="hljs-number"&gt;01&lt;/span&gt; &lt;span class="hljs-number"&gt;2015&lt;/span&gt;
        &lt;span class="hljs-number"&gt;92.8&lt;/span&gt;M scanned out of &lt;span class="hljs-number"&gt;920&lt;/span&gt;M at &lt;span class="hljs-number"&gt;8.44&lt;/span&gt;M/s, &lt;span class="hljs-number"&gt;0&lt;/span&gt;h1m to go
        &lt;span class="hljs-number"&gt;92.5&lt;/span&gt;M resilvered, &lt;span class="hljs-number"&gt;10.09&lt;/span&gt;% &lt;span class="hljs-keyword"&gt;done&lt;/span&gt;
config:

        NAME                                      STATE     READ WRITE CKSUM
        rpool                                     ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
          mirror-&lt;span class="hljs-number"&gt;0&lt;/span&gt;                                ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            sda2                                  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            cf590df4-&lt;span class="hljs-number"&gt;72&lt;/span&gt;b7-&lt;span class="hljs-number"&gt;4&lt;/span&gt;cfc&lt;span class="hljs-operator"&gt;-a&lt;/span&gt;965-&lt;span class="hljs-number"&gt;001&lt;/span&gt;ffe56d0c9  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;  (resilvering)

errors: No known data errors
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Для общего порядку включим и sda2 в массив используя UUID:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool detach rpool /dev/sda2&lt;/span&gt;
root@pve1:~&lt;span class="hljs-comment"&gt;# zpool attach rpool /dev/disk/by-partuuid/cf590df4-72b7-4cfc-a965-001ffe56d0c9 /dev/disk/by-partuuid/8263d908-e9a8-4ace-b01e-0044fa519037&lt;/span&gt;
Make sure to &lt;span class="hljs-built_in"&gt;wait&lt;/span&gt; until resilver is &lt;span class="hljs-keyword"&gt;done&lt;/span&gt; before rebooting.
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt;Пока я копипастил предыдущие 2 команды из консоли в редактор массив уже синхронизировался:&lt;/p&gt;
&lt;pre&gt;&lt;code class="bash hljs"&gt;root@pve1:~&lt;span class="hljs-comment"&gt;# zpool status rpool&lt;/span&gt;
  pool: rpool
 state: ONLINE
  scan: resilvered &lt;span class="hljs-number"&gt;920&lt;/span&gt;M &lt;span class="hljs-keyword"&gt;in&lt;/span&gt; &lt;span class="hljs-number"&gt;0&lt;/span&gt;h1m with &lt;span class="hljs-number"&gt;0&lt;/span&gt; errors on Wed Dec  &lt;span class="hljs-number"&gt;2&lt;/span&gt; &lt;span class="hljs-number"&gt;18&lt;/span&gt;:&lt;span class="hljs-number"&gt;36&lt;/span&gt;:&lt;span class="hljs-number"&gt;37&lt;/span&gt; &lt;span class="hljs-number"&gt;2015&lt;/span&gt;
config:

        NAME                                      STATE     READ WRITE CKSUM
        rpool                                     ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
          mirror-&lt;span class="hljs-number"&gt;0&lt;/span&gt;                                ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            cf590df4-&lt;span class="hljs-number"&gt;72&lt;/span&gt;b7-&lt;span class="hljs-number"&gt;4&lt;/span&gt;cfc&lt;span class="hljs-operator"&gt;-a&lt;/span&gt;965-&lt;span class="hljs-number"&gt;001&lt;/span&gt;ffe56d0c9  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;
            &lt;span class="hljs-number"&gt;8263&lt;/span&gt;d908&lt;span class="hljs-operator"&gt;-e&lt;/span&gt;9a8-&lt;span class="hljs-number"&gt;4&lt;/span&gt;ace-b01e-&lt;span class="hljs-number"&gt;0044&lt;/span&gt;fa519037  ONLINE       &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;     &lt;span class="hljs-number"&gt;0&lt;/span&gt;

errors: No known data errors
&lt;/code&gt;
&lt;/pre&gt;
&lt;p&gt; &lt;br /&gt;
&lt;h4&gt;Вывод&lt;/h4&gt;&lt;br /&gt;
Когда нет аппаратного Raid-контроллера вполне удобно применить размещение корневого раздела на доступном в Proxmox 4.0 «из коробки» zfs RAID1. Конечно-же всегда остается вариант переноса /boot и корня на зеркала созданные средствами mdadm, что тоже неоднократно было использовано мной и до сих пор работает не нескольких серверах, но рассмотренный вариант проще и предлагается разработчиками продукта «из коробки».&lt;/p&gt;
</description>
</item>

<item>
<title>Reverting Thin-LVM to «old» Behavior storage on Proxmox</title>
<guid isPermaLink="false">48</guid>
<link>https://sorex.org/?go=all/reverting-thin-lvm-to-old-behavior-storage-on-proxmox/</link>
<pubDate>Tue, 13 Apr 2021 10:19:21 +0000</pubDate>
<author>sorex</author>
<comments>https://sorex.org/?go=all/reverting-thin-lvm-to-old-behavior-storage-on-proxmox/</comments>
<description>
&lt;p&gt;&lt;h3&gt;&lt;span id="Optional:_Reverting_Thin-LVM_to_.22old.22_Behavior_of_.2Fvar.2Flib.2Fvz_.28Proxmox_4.2_and_later.29" class="mw-headline"&gt;Optional: Reverting Thin-LVM to «old» Behavior of&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;/var/lib/vz&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;(Proxmox 4.2 and later)&lt;/span&gt;&lt;/h3&gt;&lt;br /&gt;
If you installed Proxmox 4.2 (or later), you see yourself confronted with a changed layout of your data. There is no mounted&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;/var/lib/vz&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;LVM volume anymore, instead you find a thin-provisioned volume. This is technically the right choice, but one sometimes want to get the old behavior back, which is described here. This section describes the steps to revert to the «old» layout on a freshly installed Proxmox 4.2:&lt;/p&gt;
&lt;ul&gt;
 	&lt;li&gt;After the Installation your storage configuration in &lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;/etc/pve/storage.cfg&lt;/code&gt;&lt;/pre&gt; will look like this:&lt;/li&gt;
&lt;/ul&gt;
&lt;pre&gt;dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content rootdir,images
&lt;/pre&gt;
&lt;ul&gt;
 	&lt;li&gt;You can delete the thin-volume via GUI or manually and have to set the local directory to store images and container aswell. You should have such a config in the end:&lt;/li&gt;
&lt;/ul&gt;
&lt;pre&gt;dir: local
        path /var/lib/vz
        maxfiles 0
        content backup,iso,vztmpl,rootdir,images
&lt;/pre&gt;
&lt;ul&gt;
 	&lt;li&gt;Now you need to recreate &lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;/var/lib/vz&lt;/code&gt;&lt;/pre&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;pre&gt;root@pve-42 ~ &amp;gt; lvs
  LV   VG   Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data pve  twi-a-tz— 16.38g             0.00   0.49
  root pve  -wi-ao——  7.75g
  swap pve  -wi-ao——  3.88g

root@pve-42 ~ &amp;gt; lvremove pve/data
Do you really want to remove active logical volume data? [y/n]: y
  Logical volume «data» successfully removed

root@pve-42 ~ &amp;gt; lvcreate —name data -l +100%FREE pve
  Logical volume «data» created.

root@pve-42 ~ &amp;gt; mkfs.ext4 /dev/pve/data
mke2fs 1.42.12 (29-Aug-2014)
Discarding device blocks: done
Creating filesystem with 5307392 4k blocks and 1327104 inodes
Filesystem UUID: 310d346a-de4e-48ae-83d0-4119088af2e3
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
&lt;/pre&gt;
&lt;ul&gt;
 	&lt;li&gt;Then add the new volume in your &lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;/etc/fstab&lt;/code&gt;&lt;/pre&gt;:&lt;/li&gt;
&lt;/ul&gt;
&lt;pre&gt;/dev/pve/data /var/lib/vz ext4 defaults 0 1
&lt;/pre&gt;
&lt;ul&gt;
 	&lt;li&gt;Restart to check if everything survives a reboot.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;You should end up with a working «old-style» configuration where you «see» your files as it was before Proxmox 4.2&lt;/p&gt;
</description>
</item>

<item>
<title>Proxmox настройка сети trunk и management vlan</title>
<guid isPermaLink="false">46</guid>
<link>https://sorex.org/?go=all/proxmox-nastroyka-seti-trunk-i-management-vlan/</link>
<pubDate>Tue, 13 Apr 2021 10:17:44 +0000</pubDate>
<author>sorex</author>
<comments>https://sorex.org/?go=all/proxmox-nastroyka-seti-trunk-i-management-vlan/</comments>
<description>
&lt;p&gt;Конфиг на cisco для порта сервера&lt;/p&gt;
&lt;p&gt;interface GigabitEthernet1/0/38&lt;br /&gt;
switchport access vlan 50&lt;br /&gt;
switchport trunk allowed vlan 1,50,124&lt;br /&gt;
switchport mode trunk&lt;br /&gt;
switchport nonegotiate&lt;br /&gt;
switchport port-security maximum 3&lt;br /&gt;
load-interval 60&lt;br /&gt;
no cdp enable&lt;br /&gt;
no cdp tlv server-location&lt;br /&gt;
no cdp tlv app&lt;/p&gt;
&lt;p&gt;Конфиг сети на proxmox&lt;br /&gt;
auto lo&lt;br /&gt;
iface lo inet loopback&lt;/p&gt;
&lt;p&gt;iface eth0 inet manual&lt;/p&gt;
&lt;p&gt;iface eth1 inet manual&lt;/p&gt;
&lt;p&gt;iface eth2 inet manual&lt;/p&gt;
&lt;p&gt;iface eth3 inet manual&lt;/p&gt;
&lt;p&gt;auto bond0&lt;br /&gt;
iface bond0 inet manual&lt;br /&gt;
slaves eth0 eth1 eth2 eth3&lt;br /&gt;
bond_miimon 100&lt;br /&gt;
bond_mode active-backup&lt;/p&gt;
&lt;p&gt;auto vlan50&lt;br /&gt;
iface vlan50 inet manual&lt;br /&gt;
vlan_raw_device bond0&lt;/p&gt;
&lt;p&gt;auto vlan124&lt;br /&gt;
iface vlan124 inet manual&lt;br /&gt;
vlan_raw_device bond0&lt;/p&gt;
&lt;p&gt;auto vmbr0&lt;br /&gt;
iface vmbr0 inet static&lt;br /&gt;
address 10.101.50.10&lt;br /&gt;
netmask 255.255.255.0&lt;br /&gt;
gateway 10.101.50.1&lt;br /&gt;
bridge_ports vlan50&lt;br /&gt;
bridge_stp off&lt;br /&gt;
bridge_fd 0&lt;/p&gt;
&lt;p&gt;auto vmbr50&lt;br /&gt;
iface vmbr50 inet static&lt;br /&gt;
address 0.0.0.0&lt;br /&gt;
netmask 255.255.255.255&lt;br /&gt;
bridge_ports vlan50&lt;br /&gt;
bridge_stp off&lt;br /&gt;
bridge_fd 0&lt;/p&gt;
&lt;p&gt;auto vmbr124&lt;br /&gt;
iface vmbr124 inet static&lt;br /&gt;
address 0.0.0.0&lt;br /&gt;
netmask 255.255.255.255&lt;br /&gt;
bridge_ports vlan124&lt;br /&gt;
bridge_stp off&lt;br /&gt;
bridge_fd 0&lt;/p&gt;
</description>
</item>


</channel>
</rss>