News:

От тяжелой работы еще никто не умирал, это верно, но зачем рисковать? Рональд Рейган

Main Menu

Вопрос по оптимальному использованию виртуальных дисков

Started by Vix, 26 December 2018, 09:54

Previous topic - Next topic

0 Members and 5 Guests are viewing this topic.

Vix

Добрый день!
Нигде не могу найти ответа на вопрос по оптимальному использованию виртуальных дисков.
Для железного сервера все вроде бы понятно, например в статье https://interface31.ru/tech_it/2012/10/pravilnyy-vybor-zhestkih-diskov-obem-cena-skorost.html указано, что "рекомендуется выносить системный раздел на отдельный физический диск, что позволит избежать конкуренции за головки". Это правильно и логично.

А если я допустим ставлю бесплатный Hyper-V, а на него парочку виртуалок, где:
- первая будет контроллером домена, производительность не критична.
- вторая будет файловым сервером с базой 1С в файловом режиме на 3-4 юзера + небольшая база на SQL-сервере.

Появились такие вопросы:
1. Разумно ли будет бесплатный Hyper-V поставить на отдельный диск?
2. Бесплатный Hyper-V можно записать на флэшку с помощью программы Rufus и грузиться с него, я пробовал, вроде работает. Имеет ли смысл так делать? Мне кажется NTFS быстро убьет флэшку.
3. Описанное в вышеприведенной статье справедливо только для HDD, или для SDD тоже?
4. И самое главное - как разнести по физическим дискам файлы виртуальных дисков файлового сервера, если один виртуальный диск задействован под систему, другой под данные?

ival

Quote from: Vix on 26 December 2018, 09:541. Разумно ли будет бесплатный Hyper-V поставить на отдельный диск?


Этот вопрос наверное нужно считать из количества корзин.

Если у Вас 4 корзины, то наверное бесмыслено делить. Лучше собрать 10 raid из 4 дисков и просто разделить на 2 раздела под систему и под файлы VM, чем отдать 2 диска raid1 под Hyper-V и 2 диска raid1 под файлы VM
Если у Вас 6 или более корзин, то можете 2 отдать под систему.
Если Вы планируете вообще без массива, то без разницы так как больше должна волновать не производительность, а надежность такой этой системы.


Quote from: Vix on 26 December 2018, 09:542. Бесплатный Hyper-V можно записать на флэшку с помощью программы Rufus и грузиться с него, я пробовал, вроде работает. Имеет ли смысл так делать? Мне кажется NTFS быстро убьет флэшку.

Не надежная система и плюс на сколько мне известно MS официально не поддерживает такую установку. ESXi так работает и вполне отлично, но опять же если карта или флешка сдохнет, то вы об этом узнаете как всегда случайно когда решите перезагрузить хост. Поэтому такие решения для тестов или для дома, но никак не в рабочей среде.


Quote from: Vix on 26 December 2018, 09:544. И самое главное - как разнести по физическим дискам файлы виртуальных дисков файлового сервера, если один виртуальный диск задействован под систему, другой под данные?

Я так понимаю все-таки Вы собираетесь строить без дискового массива, поэтому производительность в таком варианте уходит на второй план. Можете и на один складывать, на файловых помойками обычно нет проблем с дисковой производительностью, понятное дело если в пределах разумного.


Уваров А.С.

Quote from: Vix on 26 December 2018, 09:54И самое главное - как разнести по физическим дискам файлы виртуальных дисков файлового сервера, если один виртуальный диск задействован под систему, другой под данные?

Главное не как, а для чего. Для чего нужно разносить нагрузку по дискам? Чтобы уменьшить негативное влияние одних процессов на производительность других процессов. При этом нужно представлять что у вас за процессы и какую нагрузку они будут генерировать. В этом плане нагруженный сервер СУБД конечно лучше вынести. А смысл выносить ВМ с КД или файлопомойкой?

Поэтому сначала следует разобраться с нагрузкой и имеющимися ресурсами, а потом уже думать что и куда выносить и надо ли вообще.

salex

у меня на очень старой флешке сфера крутится больше двух лет, ессно хост очень редко перегружается, так что просто скажу работает ок, на хосте два "зеркала" ресурсы просто делятся условно, как мне удобно, бекапы на одном рейде, винты ВМ на другом. и все...

ival

Quote from: salex on 02 January 2019, 23:22у меня на очень старой флешке сфера крутится больше двух лет, ессно хост очень редко перегружается, так что просто скажу работает ок, на хосте два "зеркала" ресурсы просто делятся условно, как мне удобно, бекапы на одном рейде, винты ВМ на другом. и все...

ival

Quote from: salex on 02 January 2019, 23:22у меня на очень старой флешке сфера крутится больше двух лет, ессно хост очень редко перегружается, так что просто скажу работает ок, на хосте два "зеркала" ресурсы просто делятся условно, как мне удобно, бекапы на одном рейде, винты ВМ на другом. и все...
VMware поддерживает решение с флешки. Например VxRail идёт в базе на sd карте. Но насколько это оправдано?? В реалиях с этим проблем нет и не может быть. Т.к. покупая vsphere ты покупаешь минимум лицензию на 3 хоста, что позволяет тебе сделать HA или дополнительно настроить Fault tolerance на критичные хосты и не вникать. Но я старовер, когда я начинал строить, мне было страшно хранить esxi на флешках, даже при учете HA. Я до сих пор считаю, что можно пожертвовать одним юнитом ради своего спокойствия, а одной или двумя корзинами уж точно. Вот например сейчас у нас один хост висит уже со сдохшей sd-картой, что с ней мне даже не интересно, а вот если бы на ней висел esxi то наверное вендору уже писали письма с криками заменить и надеялись, что на этом хосте не сдохнут оба блока питания на выходных или оба ибп или пьяный экскаваторщик не перекапает нам ввод в здание. Да и VMware есть много прений по поводу sd-карта или диск.

Уваров А.С.

В принципе ничего такого в работе ESXi или подобных систем с флешки нет, они загружают свой образ в память и флешка большую часть времени работает только на чтение. Но есть один очень и очень неприятный момент, флешка может уже давно помереть, но узнаете вы об этом только в момент следующей перезагрузки.

ival

Quote from: Уваров А.С. on 03 January 2019, 23:28В принципе ничего такого в работе ESXi или подобных систем с флешки нет, они загружают свой образ в память и флешка большую часть времени работает только на чтение. Но есть один очень и очень неприятный момент, флешка может уже давно помереть, но узнаете вы об этом только в момент следующей перезагрузки.
Не совсем так. В принципе карта нужна только для загрузки. Как esxi загружен она ему вообще не интересна, но это если вы отключили полностью логирование, либо раздел для хранения логов у вас вынесен на отдельный диск. Вот в этом и весь смысл. Если у вас 3 хоста и есть запас по мощьностям, то в принципе ничего критичного. Сдохла - поставил на обслуживание хост, машины переплыли и все. Спокойно выводишь его из кластера, поднимаешь новый и заводишь его обратно. А вот если у вас 2? Тут уже опаснее, придётся делать либо в выходные, либо предупреждать о возможности краткосрочного отключения ВМ. При одиноком хосте выход из строя карты прерваться в головную боль. Плюс проблема карт именно в том, что их нельзя мониторить. С диском проще, есть возможность понять, что диску становиться плохо. Вот только поэтому я против sd-карт

STALKER_SLX

Quote from: ival on 04 January 2019, 12:19С диском проще, есть возможность понять, что диску становиться плохо.

Не совсем так!
За мой небольшой опыт в администрировании видел немало случаев, когда жёсткие диски прекрасно работали и их мониторинг показывал безупречные результаты (причём, совершенно разным специализированным ПО для этого), но в одно мгновение просто исчезали из системы и больше уже не запускались!
Да и знакомые админы с 20-ти летним опытом подтверждают такую закономерность!



ival

Quote from: STALKER_SLX on 04 January 2019, 13:03Не совсем так!
За мой небольшой опыт в администрировании видел немало случаев, когда жёсткие диски прекрасно работали и их мониторинг показывал безупречные результаты (причём, совершенно разным специализированным ПО для этого), но в одно мгновение просто исчезали из системы и больше уже не запускались!
Да и знакомые админы с 20-ти летним опытом подтверждают такую закономерность!




Что значит безупречные результаты? Вы написали что-то обстрактное. Я тоже не слежу за дисками и они вывалитают спонтанно. Но это если оценивать значение смариа в разрезе хорошо или плохо. Если рассмотреть конкретные значения у одного производителя можно заметить закономерность выхода из строя. Как минимум reallocated sector count вам поможет понять что диск уже начал уставать. Или например растущий параметр calibration retry count также должен натолкнуть на мысли. И это только то что я знаю, а люди которые следят за смартом могут ещё много чего рассказать. А к сожалению стаж никчему не обязывает, я видел людей с 20 летним стажем которые убеждены что raid 5 в продакшене это нормально, а на показанную вероятность вылета второго диска при перестроении отвечают «я на 5 raid всю жизнь и все хорошо и БЫСТРО». Да я сам могу переодически глупости всякие говорить по не знанке:))

STALKER_SLX

Quote from: ival on 04 January 2019, 15:52Что значит безупречные результаты? Вы написали что-то обстрактное. Я тоже не слежу за дисками и они вывалитают спонтанно. Но это если оценивать значение смариа в разрезе хорошо или плохо. Если рассмотреть конкретные значения у одного производителя можно заметить закономерность выхода из строя. Как минимум reallocated sector count вам поможет понять что диск уже начал уставать. Или например растущий параметр calibration retry count также должен натолкнуть на мысли. И это только то что я знаю, а люди которые следят за смартом могут ещё много чего рассказать.

Вы правы Ival!
Но ведь SMART не показывает когда заклинит двигатель или выгорит (выйдет из строя) чип, схема или плата самого жёсткого диска, независимо от бренда производителя!
У меня только за последние полгода один такой случай был - заклинило двигатель на моем домашнем компьютере, с которым я бережно обращался и программа мониторинга (в данном случае "HD Tune Pro") никаких плохих результатов вроде-бы не показывала.
Если Вам не трудно, посмотрите на прикреплённый к этому сообщению скриншот с результатами SMART. Это мой (другой) домашний жёсткий диск.
Видите ли Вы там какие-либо критические значения параметров на текущий момент, которые уже говорят, что нужно готовится к его замене?!
Спасибо!


Уваров А.С.

Quote from: ival on 04 January 2019, 15:52а на показанную вероятность вылета второго диска при перестроении отвечают «я на 5 raid всю жизнь и все хорошо и БЫСТРО»

На современных объемах можно сказать практически 100% вероятность.

Quote from: ival on 04 January 2019, 15:52Если рассмотреть конкретные значения у одного производителя можно заметить закономерность выхода из строя. Как минимум reallocated sector count вам поможет понять что диск уже начал уставать. Или например растущий параметр calibration retry count также должен натолкнуть на мысли. И это только то что я знаю, а люди которые следят за смартом могут ещё много чего рассказать.

К сожалению с переходом на SSD мониторинг SMART становится практически бесполезным, так как и сами производители выводят туда что хотят и как хотят, при том, что большинство отказов SSD - это отказы электроники, при вполне нормальном состоянии флеш памяти.

Quote from: STALKER_SLX on 05 January 2019, 12:21Но ведь SMART не показывает когда заклинит двигатель или выгорит (выйдет из строя) чип, схема или плата самого жёсткого диска, независимо от бренда производителя!

Заклинивших и сгоревших дисков я видел в общем количестве отказов не сильно много, чаще всего они горели или клинили по причине отказов питания или мех. воздействия.

В общем отказ HDD по SMART был делом вполне предсказуемым. И вообще, если сравнивать с SSD - жесткие диски довольно примитивные устройства. Контроллер относительно прост, в основе механика, которая достаточно многосторонне мониторится. Любые отклонения в работе механики тут же будут отражаться в показателях SMART. При этом не надо ждать, пока они станут "желтыми" или "красными", вполне достаточно, что они стали меняться.


SSD - черный ящик, где из понятного - только память, все остальное - некие алгоритмы, которые производитель не раскрывает. В SMART тоже, что хочу - то и показываю. Понять, что именно происходит с контроллером и когда ему "снесет крышу" очень и очень сложно. Тем более что это могут быть и софтовые ошибки, которые будут срабатывать по совокупности условий (логическая бомба).

ival

Наверное нам надо в курилку идти.

У меня на телефоне цитировать выделенное не работает поэтому буду писать по пунктам:

1. По поводу скрина смарта, напишу что и писал выше, я знаю про два параметра. На скрине 05 reallocate sector count равен 0. Я бы не переживал за диск. Опять же скажу этот параметр надо оценивать адекватно, тоесть надо посмотреть сколько производитель отдаёт на замену секторов. И надо понимать, если за сутки значения выросли на 5-10% от парога производителя, то диск можно менять. Это мое мнение, не факт, что оно правильное. Повторю, что я писал выше: я не смотрю за смартом, мне все равно. Если сдохнет диск, то он в массиве и я буду знать что у меня очень сильно упала производительность дисковой системы пока идёт перестроение на hot spare и буду надеятся, что в raid контроллере батарейка нормальная или мы её меняли недавно, на случай если случайно пропадёт питание на блоках питания железки.

2. По отказу контроллера или механики. За всю жизнь видел 2 раза, один раз на обычном десктопе и очень давно. Второй раз 2 года назад, когда сын уронил ноут жены (хорошо уронил) и я не смог забрать инфу с диска, потому что он не реагировал на питание. Ни разу не видел sas с дохлой механикой, слышал истории, но лично не видел.

3. Теперь по ssd. У меня двоякое мнение. Вставлять ssd в обычный пк или ноутбук - конечно да. Вставлять ssd в серверные платформы это вопрос. Если платформа умеет работать с ssd, то тоже да, пример dell unity. Платформа заточена под флеш, она умеет использовать ssd  так, чтобы они не выплёвывались. Втыкать ssd в обычный раковый сервер под систему или под данные, даже с учетом что ssd с пометкой enterprise, мне лично страшно. Почему? Да потому что я не понимаю когда они дохнут, когда идёт потеря производительности, очень мало проработали на них мы ещё. И мониторинг, то про что написал Уваров. Как мониторить то что не понятно, а учитывая брендирование, когда сегодня это диск dell или hp с партномером и это intel, а завтра вендор от них отказывается и это уже samsung или hitachi. Кто-то скажет, также и с жесткими дисками - меняем патномер и это уже не wd а sg под брендом Dell или hp или ibm, но я опять отвечу: мы их используем уже лет 20 и повсеместно, а ssd это только начало и не факт, что они вытеснят механику. Хотя я старовер наверное))

Уваров А.С.

Quote from: ival on 05 January 2019, 22:57И надо понимать, если за сутки значения выросли на 5-10% от порога производителя, то диск можно менять.

Именно так, SMART нужно оценивать в динамике, если вдруг некий показатель стал быстро меняться - то с большой вероятностью диск не жилец.

RAID хорошо страхует от таких случаев, выпал диск - да и фиг с ним, поменяем. Но следует понимать, что на современных объемах актуальными являются уровни 1 и 10. Некогда популярные 5 и 6 с очень большой вероятностью дадут ошибку при ребилде. К ним применимо только одна методика - перелить данные с деградировавшего массива на исправный. Да, долго, зато надежно.

Quote from: ival on 05 January 2019, 22:57За всю жизнь видел 2 раза, один раз на обычном десктопе и очень давно. Второй раз 2 года назад, когда сын уронил ноут жены (хорошо уронил) и я не смог забрать инфу с диска, потому что он не реагировал на питание.

Именно так. Выгоревшая электроника практически 100% соседствовала с дешманскими БП, а заклиненные или запиленные диски с мехповреждениями.

Классика жанра: один мой коллега переливал данные с RAID10 домашнего ПК/сервера (виртуалки/медиа) на новый, более емкий массив. Старые диски в корпусе, новые на столе. Товарищи ему указали, что лучше бы спрятал куда, хотя бы накрыл чем. Но он махнул рукой, мол и так сойдет.

Потом он сам полез куда-то на полки и уронил оттуда плоскогубцы, которые приземлились аккурат на новый массив. Итог: один диск заклинило, два запилило, оставшийся он сам выкинул, так как доверия к нему уже не было. В общем выписал со склада еще 4 диска и продолжил свое дело. Жене сказал, что злодей начальник лишил всех премии.  ;)


Quote from: ival on 05 January 2019, 22:57Теперь по ssd. У меня двоякое мнение. Вставлять ssd в обычный пк или ноутбук - конечно да. Вставлять ssd в серверные платформы это вопрос.

Ну как бы не вопрос, ибо преимущества от SSD весьма ощутимы, но делать это надо с оглядкой на их внезапную смертность. Т.е. обязателен RAID, бекапы и, по возможности, иные средства дублирования и защиты информации (скажем, репликация БД и т.д.).


Quote from: ival on 05 January 2019, 22:57Кто-то скажет, также и с жесткими дисками - меняем патномер и это уже не wd а sg под брендом Dell или hp или ibm, но я опять отвечу: мы их используем уже лет 20 и повсеместно, а ssd это только начало и не факт, что они вытеснят механику. Хотя я старовер наверное))

Я бы поставил вопрос немного не так. HDD - давно сформированный рынок. Производителей немного, SMART - де факто стандарт. Т.е. взяв в руки любой диск, хоть стандартный, хоть брендированный, я увижу стандартный набор показателей и буду знать как их принято интерпретировать.

Что касается SSD, то сегодня их не клепает только ленивый. И хотя производителей контроллеров и памяти по прежнему немного, но количество комбинаций контроллер - память - прошивка может быть очень и очень много, тем более что с SSD софтовая составляющая выходит на первый план.

Ну и каждый что хочет, то и выдает в SMART и как это достоверно интерпретировать не знает никто. Тем более история уже знает массу ошибок, когда SSD спокойно лечился перепрошивкой, но о данных можно было забыть. Хотя стоимость информации обычно гораздо выше стоимости диска.

Несколько лет назад один мой клиент отдал весьма большие деньги (около 10 тыс руб) за оперативное восстановление одного файла с договором. Потому как в согласованном варианте он был только на внешнем диске, и, кроме стоимости контракта в миллионах рублей, его утеря была чревата существенными репутационными издержками (мягко говоря, его и его компанию посчитали бы раздолбаями).