{
    "version": "https:\/\/jsonfeed.org\/version\/1",
    "title": "SOREX.ORG: заметки с тегом proxmox",
    "_rss_description": "Exchange, esx, AD, GPO, veeam, adaptec,lsi megaraid",
    "_rss_language": "ru",
    "_itunes_email": "",
    "_itunes_categories_xml": "",
    "_itunes_image": "",
    "_itunes_explicit": "",
    "home_page_url": "https:\/\/sorex.org\/?go=tags\/proxmox\/",
    "feed_url": "https:\/\/sorex.org\/?go=tags%2Fproxmox%2Fjson%2F",
    "icon": "https:\/\/sorex.org\/user\/userpic@2x.jpg?1618299116",
    "author": {
        "name": "sorex",
        "url": "https:\/\/sorex.org\/",
        "avatar": "https:\/\/sorex.org\/user\/userpic@2x.jpg?1618299116"
    },
    "items": [
        {
            "id": "74",
            "url": "https:\/\/sorex.org\/?go=all\/proxmox-udalenie-nody-i-perevod-klastera-v-local\/",
            "title": "proxmox удаление ноды и перевод кластера в local",
            "content_html": "<p>systemctl stop pve-cluster corosync<br \/>\npmxcfs -l<br \/>\nrm \/etc\/corosync\/*<br \/>\nrm \/etc\/pve\/corosync.conf<br \/>\nkillall pmxcfs<br \/>\nsystemctl start pve-cluster<\/p>\n<p>После этого удаляем папку \/etc\/pve\/nodes\/ИМЯ<\/p>\n",
            "date_published": "2025-12-24T05:29:33+00:00",
            "date_modified": "2025-12-24T05:29:30+00:00",
            "_date_published_rfc2822": "Wed, 24 Dec 2025 05:29:33 +0000",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "74",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [],
                "og_images": []
            }
        },
        {
            "id": "50",
            "url": "https:\/\/sorex.org\/?go=all\/proxmox-4-0-kornevoy-razdel-na-zfs-raid1-ili-kak-uvelichit-otkaz\/",
            "title": "Proxmox 4.0: Корневой раздел на ZFS RAID1 или как увеличить отказоустойчивость если в сервере всего 2 диска",
            "content_html": "<p>Подвернулась мне задача — запустить Proxmox и несколько виртуалок на сервере всего с 2 дисками. При этом требовалось обеспечить ну хоть какую-то надежность и простоту исправления проблем связанных с выходом из строя одного из дисков. Далее в заметке подробное описание тестирования решения на стенде.<br \/>\n<h4>Вводная<\/h4><br \/>\nЯ считаю что читатель данной заметки может самостоятельно установить Proxmox на ноду и не буду рассматривать установку и настройку самого гипервизора. Рассмотрим только настройки касающиеся ZFS RAID1 и тестирование ситуации сбоя одного из дисков.<br \/>\nЖелезо на котором предстояло развернуть проект представляло из себя ноду Supermicro, видимо в исполнении 2 node in 1U с псевдо-рейдом интегрированном в чипсет от Intel который не поддерживается в Proxmox. В связи с этим попробуем испытать решение предлагаемое «из коробки» в версии 4.0. Хоть убейте — я не помню был-ли такой вариант установки в Proxmox 3.6, может и был, но не отложилось в памяти из-за невостребованности такой конфигурации. В тестовой стойке у нас отыскался аналогичный сервер и я принялся за проверку решения, предоставляемого ребятами из Proxmox Server Solutions.<br \/>\n<h4>Установка<\/h4><br \/>\nКак и предупреждал — не буду показывать установку полностью, заострю внимание только на важных моментах.<\/p>\n<p>Выбираем zfs RAID1:<\/p>\n<p><img src=\"https:\/\/sorex.org\/wp-content\/uploads\/2015\/12\/35643b3fa54142cdb8f175103e337a6e.jpg\" alt=\"image\"><\/p>\n<p>Сервер тестовый и нет подписки на коммерческий репозиторий. В \/etc\/apt\/sources.list подключаем бесплатный:<\/p>\n<pre><code class=\"bash hljs\">deb http:\/\/download.proxmox.com\/debian jessie pve-no-subscription\r\n<\/code>\n<\/pre>\n<p>В \/etc\/apt\/sources.list.d\/pve-enterprise.list закомментируем коммерческий.<\/p>\n<p>Ну и вдруг забудете:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># apt-get update &amp;&amp; apt-get upgrade<\/span>\r\n<\/code>\n<\/pre>\n<p>Смотрим что нам нарезал инсталлятор на дисках (привожу только часть вывода):<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># fdisk -l \/dev\/sd*<\/span>\r\n\r\nDisk \/dev\/sda: <span class=\"hljs-number\">149.1<\/span> GiB, <span class=\"hljs-number\">160041885696<\/span> bytes, <span class=\"hljs-number\">312581808<\/span> sectors\r\nUnits: sectors of <span class=\"hljs-number\">1<\/span> * <span class=\"hljs-number\">512<\/span> = <span class=\"hljs-number\">512<\/span> bytes\r\nSector size (logical\/physical): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nI\/O size (minimum\/optimal): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nDisklabel <span class=\"hljs-built_in\">type<\/span>: gpt\r\nDisk identifier: <span class=\"hljs-number\">758<\/span>FA29C-<span class=\"hljs-number\">4<\/span>F49-<span class=\"hljs-number\">4315<\/span>-BA0C-F3CCC921FA01\r\n\r\nDevice         Start       End   Sectors  Size Type\r\n\/dev\/sda1         <span class=\"hljs-number\">34<\/span>      <span class=\"hljs-number\">2047<\/span>      <span class=\"hljs-number\">2014<\/span> <span class=\"hljs-number\">1007<\/span>K BIOS boot\r\n\/dev\/sda2       <span class=\"hljs-number\">2048<\/span> <span class=\"hljs-number\">312565389<\/span> <span class=\"hljs-number\">312563342<\/span>  <span class=\"hljs-number\">149<\/span>G Solaris \/usr &amp; Apple ZFS\r\n\/dev\/sda9  <span class=\"hljs-number\">312565390<\/span> <span class=\"hljs-number\">312581774<\/span>     <span class=\"hljs-number\">16385<\/span>    <span class=\"hljs-number\">8<\/span>M Solaris reserved <span class=\"hljs-number\">1<\/span>\r\n\r\nDisk \/dev\/sdb: <span class=\"hljs-number\">149.1<\/span> GiB, <span class=\"hljs-number\">160041885696<\/span> bytes, <span class=\"hljs-number\">312581808<\/span> sectors\r\nUnits: sectors of <span class=\"hljs-number\">1<\/span> * <span class=\"hljs-number\">512<\/span> = <span class=\"hljs-number\">512<\/span> bytes\r\nSector size (logical\/physical): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nI\/O size (minimum\/optimal): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nDisklabel <span class=\"hljs-built_in\">type<\/span>: gpt\r\nDisk identifier: <span class=\"hljs-number\">3<\/span>CD4B489-A51D-<span class=\"hljs-number\">4354<\/span>-<span class=\"hljs-number\">8018<\/span>-B1391F52B08D\r\n\r\nDevice         Start       End   Sectors  Size Type\r\n\/dev\/sdb1         <span class=\"hljs-number\">34<\/span>      <span class=\"hljs-number\">2047<\/span>      <span class=\"hljs-number\">2014<\/span> <span class=\"hljs-number\">1007<\/span>K BIOS boot\r\n\/dev\/sdb2       <span class=\"hljs-number\">2048<\/span> <span class=\"hljs-number\">312565389<\/span> <span class=\"hljs-number\">312563342<\/span>  <span class=\"hljs-number\">149<\/span>G Solaris \/usr &amp; Apple ZFS\r\n\/dev\/sdb9  <span class=\"hljs-number\">312565390<\/span> <span class=\"hljs-number\">312581774<\/span>     <span class=\"hljs-number\">16385<\/span>    <span class=\"hljs-number\">8<\/span>M Solaris reserved <span class=\"hljs-number\">1<\/span>\r\n<\/code>\n<\/pre>\n<p>Глянем на наш массив:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool status rpool<\/span>\r\n  pool: rpool\r\n state: ONLINE\r\n  scan: none requested\r\nconfig:\r\n\r\n        NAME        STATE     READ WRITE CKSUM\r\n        rpool       ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n          mirror-<span class=\"hljs-number\">0<\/span>  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            sda2    ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            sdb2    ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n\r\nerrors: No known data errors\r\n<\/code>\n<\/pre>\n<p>По умолчанию инсталлятор Proxmox установил загрузчик на оба раздела — отлично!<br \/>\n<h4>Тестирование<\/h4><br \/>\nИмитируем отказ жесткого диска следующим образом:<br \/>\n— выключаем сервер;<br \/>\n— выдергиваем одну из корзин;<br \/>\n— включаем сервер.<\/p>\n<p>Сервер прекрасно грузится на любом из двух оставшихся дисков, массив работает в режиме DEGRADED и любезно подсказывает какой диск нам надо сменить и как это сделать:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool status rpool<\/span>\r\n  pool: rpool\r\n state: DEGRADED\r\nstatus: One or more devices could not be used because the label is missing or\r\n        invalid.  Sufficient replicas exist <span class=\"hljs-keyword\">for<\/span> the pool to <span class=\"hljs-built_in\">continue<\/span>\r\n        functioning <span class=\"hljs-keyword\">in<\/span> a degraded state.\r\naction: Replace the device using <span class=\"hljs-string\">'zpool replace'<\/span>.\r\n   see: http:\/\/zfsonlinux.org\/msg\/ZFS-<span class=\"hljs-number\">8000<\/span>-<span class=\"hljs-number\">4<\/span>J\r\n  scan: none requested\r\nconfig:\r\n\r\n        NAME                      STATE     READ WRITE CKSUM\r\n        rpool                     DEGRADED     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n          mirror-<span class=\"hljs-number\">0<\/span>                DEGRADED     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            <span class=\"hljs-number\">14981255989033513363<\/span>  FAULTED      <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>  was \/dev\/sda2\r\n            sda2                  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n\r\nerrors: No known data errors\r\n<\/code>\n<\/pre>\n<p>Если вернуть извлеченный диск на место — он прекрасно «встает» обратно в зеркало:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool status rpool<\/span>\r\n  pool: rpool\r\n state: ONLINE\r\nstatus: One or more devices has experienced an unrecoverable error.  An\r\n        attempt was made to correct the error.  Applications are unaffected.\r\naction: Determine <span class=\"hljs-keyword\">if<\/span> the device needs to be replaced, and clear the errors\r\n        using <span class=\"hljs-string\">'zpool clear'<\/span> or replace the device with <span class=\"hljs-string\">'zpool replace'<\/span>.\r\n   see: http:\/\/zfsonlinux.org\/msg\/ZFS-<span class=\"hljs-number\">8000<\/span>-<span class=\"hljs-number\">9<\/span>P\r\n  scan: resilvered <span class=\"hljs-number\">1.29<\/span>M <span class=\"hljs-keyword\">in<\/span> <span class=\"hljs-number\">0<\/span>h0m with <span class=\"hljs-number\">0<\/span> errors on Wed Dec  <span class=\"hljs-number\">2<\/span> <span class=\"hljs-number\">08<\/span>:<span class=\"hljs-number\">37<\/span>:<span class=\"hljs-number\">46<\/span> <span class=\"hljs-number\">2015<\/span>\r\nconfig:\r\n\r\n        NAME        STATE     READ WRITE CKSUM\r\n        rpool       ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n          mirror-<span class=\"hljs-number\">0<\/span>  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            sda2    ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">3<\/span>\r\n            sdb2    ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n\r\nerrors: No known data errors\r\n<\/code>\n<\/pre>\n<p>Инсценируем замену диска на новый. Я просто взял другую корзину с таким-же диском из старого сервера. Ставим корзину на горячую для большей правдоподобности:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># fdisk -l \/dev\/sdb<\/span>\r\n\r\nDisk \/dev\/sdb: <span class=\"hljs-number\">149.1<\/span> GiB, <span class=\"hljs-number\">160041885696<\/span> bytes, <span class=\"hljs-number\">312581808<\/span> sectors\r\nUnits: sectors of <span class=\"hljs-number\">1<\/span> * <span class=\"hljs-number\">512<\/span> = <span class=\"hljs-number\">512<\/span> bytes\r\nSector size (logical\/physical): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nI\/O size (minimum\/optimal): <span class=\"hljs-number\">512<\/span> bytes \/ <span class=\"hljs-number\">512<\/span> bytes\r\nDisklabel <span class=\"hljs-built_in\">type<\/span>: gpt\r\nDisk identifier: <span class=\"hljs-number\">38<\/span>BE38AC-<span class=\"hljs-number\">00<\/span>D9-<span class=\"hljs-number\">4680<\/span>-<span class=\"hljs-number\">88<\/span>FC-<span class=\"hljs-number\">0876378526<\/span>BC\r\n\r\nDevice      Start       End   Sectors   Size Type\r\n\/dev\/sdb1      <span class=\"hljs-number\">40<\/span>    <span class=\"hljs-number\">409639<\/span>    <span class=\"hljs-number\">409600<\/span>   <span class=\"hljs-number\">200<\/span>M EFI System\r\n\/dev\/sdb2  <span class=\"hljs-number\">411648<\/span> <span class=\"hljs-number\">312580095<\/span> <span class=\"hljs-number\">312168448<\/span> <span class=\"hljs-number\">148.9<\/span>G Microsoft basic data\r\n<\/code>\n<\/pre>\n<p>Условно неисправный диск у нас <b>\/dev\/sdb<\/b> и учитывая одинаковую емкость и геометрию копируем таблицу разделов 1:1 с исправного диска <b>\/dev\/sda<\/b><\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># sgdisk -R \/dev\/sdb \/dev\/sda<\/span>\r\nThe operation has completed successfully.\r\n<\/code>\n<\/pre>\n<p>Генерируем уникальные UUID для \/dev\/sdb<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># sgdisk -G \/dev\/sdb<\/span>\r\nThe operation has completed successfully.\r\n<\/code>\n<\/pre>\n<p>Ставим загрузчик на замененный диск и обновляем GRUB:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># grub-install --recheck \/dev\/sdb<\/span>\r\nInstalling <span class=\"hljs-keyword\">for<\/span> i386-pc platform.\r\nInstallation finished. No error reported.\r\nroot@pve1:~<span class=\"hljs-comment\"># update-grub<\/span>\r\nGenerating grub configuration file ...\r\nFound linux image: \/boot\/vmlinuz-<span class=\"hljs-number\">4.2<\/span>.<span class=\"hljs-number\">3<\/span>-<span class=\"hljs-number\">2<\/span>-pve\r\nFound initrd image: \/boot\/initrd.img-<span class=\"hljs-number\">4.2<\/span>.<span class=\"hljs-number\">3<\/span>-<span class=\"hljs-number\">2<\/span>-pve\r\nFound linux image: \/boot\/vmlinuz-<span class=\"hljs-number\">4.2<\/span>.<span class=\"hljs-number\">2<\/span>-<span class=\"hljs-number\">1<\/span>-pve\r\nFound initrd image: \/boot\/initrd.img-<span class=\"hljs-number\">4.2<\/span>.<span class=\"hljs-number\">2<\/span>-<span class=\"hljs-number\">1<\/span>-pve\r\nFound memtest86+ image: \/ROOT\/pve-<span class=\"hljs-number\">1<\/span>@\/boot\/memtest86+.bin\r\nFound memtest86+ multiboot image: \/ROOT\/pve-<span class=\"hljs-number\">1<\/span>@\/boot\/memtest86+_multiboot.bin\r\n<span class=\"hljs-keyword\">done<\/span>\r\nroot@pve1:~<span class=\"hljs-comment\"># update-initramfs -u<\/span>\r\nupdate-initramfs: Generating \/boot\/initrd.img-<span class=\"hljs-number\">4.2<\/span>.<span class=\"hljs-number\">3<\/span>-<span class=\"hljs-number\">2<\/span>-pve\r\n<\/code>\n<\/pre>\n<p>Осталось только заменить сбойный диск в массиве на свежеустановленный, но тут всплывает одна проблема, порожденная методом адресации дисков в массиве примененной в инсталляторе. А именно — диски включены в массив по физическому адресу и команда <i>zpool replace rpool \/dev\/sdb2<\/i> покажет нам вот такую фигу:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool replace rpool \/dev\/sdb2<\/span>\r\ncannot replace \/dev\/sdb2 with \/dev\/sdb2: \/dev\/sdb2 is busy\r\n<\/code>\n<\/pre>\n<p>Что совершенно логично, нельзя сменить сбойный диск на <b>\/dev\/sdb2<\/b> так как сбойный диск и есть <b>\/dev\/sdb2<\/b>, а зачем нам повторять недоработку инсталлятора? Привяжем диск по UUID, я вообще уже забыл то время когда диски прибивались гвоздями вида \/dev\/sdХХ — UUID наше все:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool replace rpool \/dev\/disk\/by-partuuid\/cf590df4-72b7-4cfc-a965-001ffe56d0c9<\/span>\r\nMake sure to <span class=\"hljs-built_in\">wait<\/span> until resilver is <span class=\"hljs-keyword\">done<\/span> before rebooting.\r\n<\/code>\n<\/pre>\n<p>Нас предупредили о необходимости дождаться окончания синхронизации прежде чем перезагружаться. Проверим статус массива:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool status rpool<\/span>\r\n  pool: rpool\r\n state: ONLINE\r\nstatus: One or more devices is currently being resilvered.  The pool will\r\n        <span class=\"hljs-built_in\">continue<\/span> to <span class=\"hljs-keyword\">function<\/span>, possibly <span class=\"hljs-keyword\">in<\/span> a degraded state.\r\naction: Wait <span class=\"hljs-keyword\">for<\/span> the resilver to complete.\r\n  scan: resilver <span class=\"hljs-keyword\">in<\/span> progress since Wed Dec  <span class=\"hljs-number\">2<\/span> <span class=\"hljs-number\">18<\/span>:<span class=\"hljs-number\">07<\/span>:<span class=\"hljs-number\">01<\/span> <span class=\"hljs-number\">2015<\/span>\r\n        <span class=\"hljs-number\">92.8<\/span>M scanned out of <span class=\"hljs-number\">920<\/span>M at <span class=\"hljs-number\">8.44<\/span>M\/s, <span class=\"hljs-number\">0<\/span>h1m to go\r\n        <span class=\"hljs-number\">92.5<\/span>M resilvered, <span class=\"hljs-number\">10.09<\/span>% <span class=\"hljs-keyword\">done<\/span>\r\nconfig:\r\n\r\n        NAME                                      STATE     READ WRITE CKSUM\r\n        rpool                                     ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n          mirror-<span class=\"hljs-number\">0<\/span>                                ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            sda2                                  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            cf590df4-<span class=\"hljs-number\">72<\/span>b7-<span class=\"hljs-number\">4<\/span>cfc<span class=\"hljs-operator\">-a<\/span>965-<span class=\"hljs-number\">001<\/span>ffe56d0c9  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>  (resilvering)\r\n\r\nerrors: No known data errors\r\n<\/code>\n<\/pre>\n<p>Для общего порядку включим и sda2 в массив используя UUID:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool detach rpool \/dev\/sda2<\/span>\r\nroot@pve1:~<span class=\"hljs-comment\"># zpool attach rpool \/dev\/disk\/by-partuuid\/cf590df4-72b7-4cfc-a965-001ffe56d0c9 \/dev\/disk\/by-partuuid\/8263d908-e9a8-4ace-b01e-0044fa519037<\/span>\r\nMake sure to <span class=\"hljs-built_in\">wait<\/span> until resilver is <span class=\"hljs-keyword\">done<\/span> before rebooting.\r\n<\/code>\n<\/pre>\n<p>Пока я копипастил предыдущие 2 команды из консоли в редактор массив уже синхронизировался:<\/p>\n<pre><code class=\"bash hljs\">root@pve1:~<span class=\"hljs-comment\"># zpool status rpool<\/span>\r\n  pool: rpool\r\n state: ONLINE\r\n  scan: resilvered <span class=\"hljs-number\">920<\/span>M <span class=\"hljs-keyword\">in<\/span> <span class=\"hljs-number\">0<\/span>h1m with <span class=\"hljs-number\">0<\/span> errors on Wed Dec  <span class=\"hljs-number\">2<\/span> <span class=\"hljs-number\">18<\/span>:<span class=\"hljs-number\">36<\/span>:<span class=\"hljs-number\">37<\/span> <span class=\"hljs-number\">2015<\/span>\r\nconfig:\r\n\r\n        NAME                                      STATE     READ WRITE CKSUM\r\n        rpool                                     ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n          mirror-<span class=\"hljs-number\">0<\/span>                                ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            cf590df4-<span class=\"hljs-number\">72<\/span>b7-<span class=\"hljs-number\">4<\/span>cfc<span class=\"hljs-operator\">-a<\/span>965-<span class=\"hljs-number\">001<\/span>ffe56d0c9  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n            <span class=\"hljs-number\">8263<\/span>d908<span class=\"hljs-operator\">-e<\/span>9a8-<span class=\"hljs-number\">4<\/span>ace-b01e-<span class=\"hljs-number\">0044<\/span>fa519037  ONLINE       <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>     <span class=\"hljs-number\">0<\/span>\r\n\r\nerrors: No known data errors\r\n<\/code>\n<\/pre>\n<p> <br \/>\n<h4>Вывод<\/h4><br \/>\nКогда нет аппаратного Raid-контроллера вполне удобно применить размещение корневого раздела на доступном в Proxmox 4.0 «из коробки» zfs RAID1. Конечно-же всегда остается вариант переноса \/boot и корня на зеркала созданные средствами mdadm, что тоже неоднократно было использовано мной и до сих пор работает не нескольких серверах, но рассмотренный вариант проще и предлагается разработчиками продукта «из коробки».<\/p>\n",
            "date_published": "2021-04-13T10:21:52+00:00",
            "date_modified": "2021-04-13T10:21:46+00:00",
            "_date_published_rfc2822": "Tue, 13 Apr 2021 10:21:52 +0000",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "50",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [
                    "system\/library\/highlight\/highlight.js",
                    "system\/library\/highlight\/highlight.css"
                ],
                "og_images": []
            }
        },
        {
            "id": "48",
            "url": "https:\/\/sorex.org\/?go=all\/reverting-thin-lvm-to-old-behavior-storage-on-proxmox\/",
            "title": "Reverting Thin-LVM to «old» Behavior storage on Proxmox",
            "content_html": "<p><h3><span id=\"Optional:_Reverting_Thin-LVM_to_.22old.22_Behavior_of_.2Fvar.2Flib.2Fvz_.28Proxmox_4.2_and_later.29\" class=\"mw-headline\">Optional: Reverting Thin-LVM to «old» Behavior of<\/p>\n<pre class=\"e2-text-code\"><code class=\"\">\/var\/lib\/vz<\/code><\/pre><p>(Proxmox 4.2 and later)<\/span><\/h3><br \/>\nIf you installed Proxmox 4.2 (or later), you see yourself confronted with a changed layout of your data. There is no mounted<\/p>\n<pre class=\"e2-text-code\"><code class=\"\">\/var\/lib\/vz<\/code><\/pre><p>LVM volume anymore, instead you find a thin-provisioned volume. This is technically the right choice, but one sometimes want to get the old behavior back, which is described here. This section describes the steps to revert to the «old» layout on a freshly installed Proxmox 4.2:<\/p>\n<ul>\r\n \t<li>After the Installation your storage configuration in <pre class=\"e2-text-code\"><code class=\"\">\/etc\/pve\/storage.cfg<\/code><\/pre> will look like this:<\/li>\r\n<\/ul>\n<pre>dir: local\r\n        path \/var\/lib\/vz\r\n        content iso,vztmpl,backup\r\n\r\nlvmthin: local-lvm\r\n        thinpool data\r\n        vgname pve\r\n        content rootdir,images\r\n<\/pre>\n<ul>\r\n \t<li>You can delete the thin-volume via GUI or manually and have to set the local directory to store images and container aswell. You should have such a config in the end:<\/li>\r\n<\/ul>\n<pre>dir: local\r\n        path \/var\/lib\/vz\r\n        maxfiles 0\r\n        content backup,iso,vztmpl,rootdir,images\r\n<\/pre>\n<ul>\r\n \t<li>Now you need to recreate <pre class=\"e2-text-code\"><code class=\"\">\/var\/lib\/vz<\/code><\/pre><\/li>\r\n<\/ul>\n<pre>root@pve-42 ~ &gt; lvs\r\n  LV   VG   Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert\r\n  data pve  twi-a-tz— 16.38g             0.00   0.49\r\n  root pve  -wi-ao——  7.75g\r\n  swap pve  -wi-ao——  3.88g\r\n\r\nroot@pve-42 ~ &gt; lvremove pve\/data\r\nDo you really want to remove active logical volume data? [y\/n]: y\r\n  Logical volume «data» successfully removed\r\n\r\nroot@pve-42 ~ &gt; lvcreate —name data -l +100%FREE pve\r\n  Logical volume «data» created.\r\n\r\nroot@pve-42 ~ &gt; mkfs.ext4 \/dev\/pve\/data\r\nmke2fs 1.42.12 (29-Aug-2014)\r\nDiscarding device blocks: done\r\nCreating filesystem with 5307392 4k blocks and 1327104 inodes\r\nFilesystem UUID: 310d346a-de4e-48ae-83d0-4119088af2e3\r\nSuperblock backups stored on blocks:\r\n        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,\r\n        4096000\r\n\r\nAllocating group tables: done\r\nWriting inode tables: done\r\nCreating journal (32768 blocks): done\r\nWriting superblocks and filesystem accounting information: done\r\n<\/pre>\n<ul>\r\n \t<li>Then add the new volume in your <pre class=\"e2-text-code\"><code class=\"\">\/etc\/fstab<\/code><\/pre>:<\/li>\r\n<\/ul>\n<pre>\/dev\/pve\/data \/var\/lib\/vz ext4 defaults 0 1\r\n<\/pre>\n<ul>\r\n \t<li>Restart to check if everything survives a reboot.<\/li>\r\n<\/ul>\n<p>You should end up with a working «old-style» configuration where you «see» your files as it was before Proxmox 4.2<\/p>\n",
            "date_published": "2021-04-13T10:19:21+00:00",
            "date_modified": "2021-04-13T10:19:17+00:00",
            "_date_published_rfc2822": "Tue, 13 Apr 2021 10:19:21 +0000",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "48",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [
                    "system\/library\/highlight\/highlight.js",
                    "system\/library\/highlight\/highlight.css"
                ],
                "og_images": []
            }
        },
        {
            "id": "46",
            "url": "https:\/\/sorex.org\/?go=all\/proxmox-nastroyka-seti-trunk-i-management-vlan\/",
            "title": "Proxmox настройка сети trunk и management vlan",
            "content_html": "<p>Конфиг на cisco для порта сервера<\/p>\n<p>interface GigabitEthernet1\/0\/38<br \/>\nswitchport access vlan 50<br \/>\nswitchport trunk allowed vlan 1,50,124<br \/>\nswitchport mode trunk<br \/>\nswitchport nonegotiate<br \/>\nswitchport port-security maximum 3<br \/>\nload-interval 60<br \/>\nno cdp enable<br \/>\nno cdp tlv server-location<br \/>\nno cdp tlv app<\/p>\n<p>Конфиг сети на proxmox<br \/>\nauto lo<br \/>\niface lo inet loopback<\/p>\n<p>iface eth0 inet manual<\/p>\n<p>iface eth1 inet manual<\/p>\n<p>iface eth2 inet manual<\/p>\n<p>iface eth3 inet manual<\/p>\n<p>auto bond0<br \/>\niface bond0 inet manual<br \/>\nslaves eth0 eth1 eth2 eth3<br \/>\nbond_miimon 100<br \/>\nbond_mode active-backup<\/p>\n<p>auto vlan50<br \/>\niface vlan50 inet manual<br \/>\nvlan_raw_device bond0<\/p>\n<p>auto vlan124<br \/>\niface vlan124 inet manual<br \/>\nvlan_raw_device bond0<\/p>\n<p>auto vmbr0<br \/>\niface vmbr0 inet static<br \/>\naddress 10.101.50.10<br \/>\nnetmask 255.255.255.0<br \/>\ngateway 10.101.50.1<br \/>\nbridge_ports vlan50<br \/>\nbridge_stp off<br \/>\nbridge_fd 0<\/p>\n<p>auto vmbr50<br \/>\niface vmbr50 inet static<br \/>\naddress 0.0.0.0<br \/>\nnetmask 255.255.255.255<br \/>\nbridge_ports vlan50<br \/>\nbridge_stp off<br \/>\nbridge_fd 0<\/p>\n<p>auto vmbr124<br \/>\niface vmbr124 inet static<br \/>\naddress 0.0.0.0<br \/>\nnetmask 255.255.255.255<br \/>\nbridge_ports vlan124<br \/>\nbridge_stp off<br \/>\nbridge_fd 0<\/p>\n",
            "date_published": "2021-04-13T10:17:44+00:00",
            "date_modified": "2021-04-13T10:17:38+00:00",
            "_date_published_rfc2822": "Tue, 13 Apr 2021 10:17:44 +0000",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "46",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [],
                "og_images": []
            }
        }
    ],
    "_e2_version": 3820,
    "_e2_ua_string": "E2 (v3820;)"
}