Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Фундаментальное, но широко не афишируемое о стораджах: http://3nity.ru/viewtopic.php?f=24&t=9497
http://exlh.blogspot.com/2009/08/lun-raid-array.html

Спасибо. Раньше уже попадалась эта статья.
 
 
Если кому интересно, выложу переписку с техподдержкой Adaptec по поводу их кабелей (читать снизу вверх).
На последний вопрос пока жду ответа...
 
А суть проблемы описана здесь.
 
 
 
Adaptec by PMC  Technical Support
 
Добавлено:
Вот у меня к вам вопрос: используете ли вы SGPIO или I2C (думаю, что - да)?
И, самое главное, как ESXi это использует (или не использует)?
Нужно ли это для него?

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 00:28 12-08-2012 | Исправлено: Sauron_zombie, 00:55 12-08-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Я не использую. Об этих способностях ESXi ничего не знаю ещё и потому, что диски хранилищ у меня все отданы солярному ведру (на отдельной матери или на пасстру HBA в госте под ESXi). Sideband разъёмы у меня подключены куда надо, индикаторы активности моргают, но как будут индицироваться уловленные железом и-или осью сбои - я не тестировал и не собираюсь: ZFS мне всё покажет более удобным для меня образом.
 
В соляре есть проприетарный интерфейс для автоматизированного управления сановскими (а теперь оракловскими) корзинами (может, через упомянутые интерфейсы, а может и нет) - но он в свободных стораджах не задействуется.  Вместо автоматического заполнения имён дисков типа /dev/sunstorage2/row3column2  можно что-то подобное руками прописать в конфиге... но мне до сих пор было лениво этим заниматься.
 
А ZFS работает напрямую с дисками: любая виртуализация стораджа под ней отменяет часть её преимуществ.  Для собственной уверенности я просто переписал те же самые  уникальные идентификторы "логических устройств" naa... (равные вмварным) под которыми фигурируют диски моих пулов(массивов) в девайсах соляры.  Если что-то нехорошее случится c определённым диском, ZFS на него покажет, и я физически вычислю виновного по тому уникальному номеру.
 
Удобное свойство создавать  /dev/с№naa500NNNNNNNNN..  в соляре имеет по крайней мере драйвер mpt2sas (6Gb SAS LSI 2008 чип, по крайней мере с IT[arget]-прошивкой).  
 
А вмваре эти же самые идентификаторы (обусловленные стандартом SCSI-3 и передаваемые не через боковые шины, а в основном потоке команд SCSI) выковыривает из всех лунов какие видит на любых vmhba и активно ставит их на вид админу. Но после виртуализующего сторадж-контроллера они уже не соотносятся однозначно с "входными" дисками, находящимися в его распоряжении: так, для выходных лунов соляры они генерятся при создании логических юнитов (lu) внутри "сторадж-контроллера" (солярного таргета). Алгоритм генерации есть в свободных исходниках солярной либы - но я его даже не пытался пока читать (в надежде отреверсить из него закопирайченную вендорами документацию SCSI-3). Кто располагает мотивацией и возможностями для этого, может такое проделать.
 

Всего записей: 17273 | Зарегистр. 14-10-2001 | Отправлено: 02:10 12-08-2012 | Исправлено: LevT, 13:24 12-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
Вы используете файловую систему Solaris (ZFS) для ESXi?
В чём для вас преимущества? Как организованно (подробнее, если можно)?
Насколько надёжно и переносимо, если вдруг что?
 
Добавлено:
Solaris 11 - платная, OpenSolaris - прекратила существовать.
Наверное, пока не для меня такие высшие сферы.
 
Добавлено:
Хотя, ZFS может использоваться не только с Solaris...

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 19:22 12-08-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Использую на хранилищах. Которые есть у меня и на отдельном хосте, и в гостевой виртуалке.
 
Использую нексенту - но переносимость пулов стораджа со всем содержимым (как файловым так и блочным) проверена мною между многими дистрами на солярном ядре (для раздачи импортированного в составе zpool блочного стораджа требуется небольшая ручная достройка логических единиц и таргетов, которую у меня до сих пор не получилось автоматизировать). Остальное подхватывается автоматом (разрешения на шарах устаканиваются после smbadm join ad domain и настройки маппинга рута в доменадмина).
 
Самая крутая ось - потомок соляры - smartos; не исключаю что со временем свалю туда от вари совсем. (туда KVM портирован)
 
 
Добавлено:
 
Выход 2012 винды многих окончательно отвратит от интереса к соляре. Но понять что-то о сетевом SCSI можно только с помощью соляры (ну и в первую очередь всё-таки клиента вмваре, показывающего релевантную инфу) - а винда запудрит мозги своей проприетарщиной.

Всего записей: 17273 | Зарегистр. 14-10-2001 | Отправлено: 00:03 13-08-2012 | Исправлено: LevT, 00:22 13-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
А btrfs пользовали? Что можете сказать?

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 00:38 13-08-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

нет. ничего.

Всего записей: 17273 | Зарегистр. 14-10-2001 | Отправлено: 01:05 13-08-2012
Umlyaut

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
 

Цитата:
 
Umlyaut  
 

Цитата:
Цитата:
скажу лишь о том, что фича подпирания хардов ssd-кешем очень неплохо показывает себя на практике.
 
 
 
Наверное Вы не в курсе, что в пулах ZFS оная фича давно реализована (и успешно юзается в продуктиве не только мною).  

 
Наверно ВЫ не в курсе, что я в курсе насчёт этой фичи в ZFS... "Отучаемся говорить за всех!"(с)FIFO
 
* * *
Не занудства ради, но понимания для...
 
Коллега LevT, я с уважением отношусь к Вам, Вашим знаниям и опыту.
Я с пониманием отношусь к Вашей, без преувеличения, подвижнической "контр-проприетарной" деятельности по части  СХД, SAN, RAID и пр.
Ваши слова о том, что Вы "не готовы ставить в продакшен решение, которое не (с)можете саппортить и траблшутить" я регулярно и с удовольствием цЫтирую...
 
Посему прошу понять меня правильно - я НЕ противопоставлял ssd-кеширование силами аппаратных раид-контроллеров таковому же в софтверных схемах.
Я НЕ собирался "учить Вас жизни" или напоминать нечто, о чём Вы давно, полагаю, в курсе.
 
Просто из десяти наших коллег (неважно, на этом ресурсе или где ещё) по моей оценке минимум семь-с-половиной скорее всего используют аппаратный раид-контроллер, нежели полезут в дебри софтверных реализаций (и не по "скудоумию" своему, а просто из-за невозможности уделить должного времени и сил вниканию во все тонкости таковых реализаций - так сказать, по соотношению затрат/выхлопа аппаратные рейды рулят просто в силу обкатанности и привычки).
 
Вот с такими коллегами я и поделился реальным боевым опытом применения ssd-кеша с контроллерами, поскольку здесь было упомянуто подобное кеширование (считайте, "музыкой навеяло"(с)анек ). Никаким противопоставлением тут и не пахло...
 
 
С уважением,
Umlyaut.
 
P.S. Высказывание про ИОПСы в контролируемой среде оставляю на Вашей совести...  

Всего записей: 90 | Зарегистр. 20-11-2008 | Отправлено: 10:45 13-08-2012
Serg0FFan



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Добрый день!
Просьба не пинать, в теме первый день Есть гипервизор ESXi 5, к нему физически подключено USB устройство -  CDMA модем от Domolink, модель WeTelecom WM-D200.
Могу ли я гостевой ОС (вин ХР) передать этот самый модем, чтобы ОС его видела?

Всего записей: 3033 | Зарегистр. 25-12-2002 | Отправлено: 15:52 13-08-2012
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serg0FFan
есть некоторые ограничения по ЮСБ устройствам... но ты можешь попробовать, добавь ЮСБ контроллер для гостя, сохрани, потом добавь устройство, если оно составное, тоесть есть вирт привод и модем, то может не пойти, если нет - все будет ок.

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 15:57 13-08-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уважаемый Umlyaut
 
Из предыдущего Вашего сообщения (где наличие SSD-кэшей подавалось как безусловное преимущество "аппаратных" рейдов) следовало скорее незнакомство с софтверными реализациями SSD-кэширования (в т.ч. свободными), чем намеренное о них умолчание.
 
Извините за ошибку.
LevT
 
P.S. По поводу иопсов: по моему мнению, сравнение иопсов осмыслено только внутри одной лаборатории: дёрнул параметр (или понатыкал кэшей, или поменял целиком ось таргета, в точности воспроизведя луны и не меняя инициатора и путей и т.д...)  - зафиксировал, как сказалось на результате.  
 
Слишком много вариабельных параметров, сочетание которых невоспроизводимо в сторонних условиях.
 
 
Упдейтед.
Возможен и сценарий сравнения софтового таргета и аппаратного. Софтовый предсказуемо придётся допиливать для того, чтобы он смог тягаться с фиксированными, проприетарно разогнанными "аппаратными" конфигами.  
 
Эта дополнительная работа - плата за гибкость конфига и свободу от вендор-локин. Каждый сам способен выбрать, чем расплачиваться (деньгами или временем), и за что именно платить в первую очередь.

Всего записей: 17273 | Зарегистр. 14-10-2001 | Отправлено: 16:02 13-08-2012 | Исправлено: LevT, 16:49 13-08-2012
Serg0FFan



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
golychev
добавил USB Controller, пытаюсь добавить USB Device и ...фигу!
USB Device (unavailable) и серое.

Всего записей: 3033 | Зарегистр. 25-12-2002 | Отправлено: 16:12 13-08-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serg0FFan
В 4.1 мне иногда помогало сделать Rescan All в настройках стораджей.

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 16:18 13-08-2012
Serg0FFan



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LanStateMap
не помогло Все по прежнему серое.

Всего записей: 3033 | Зарегистр. 25-12-2002 | Отправлено: 16:22 13-08-2012
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serg0FFan
значит твое устройство не совместимо с варей.

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 16:44 13-08-2012
Serg0FFan



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
golychev
Спасибо.  
Хреново

Всего записей: 3033 | Зарегистр. 25-12-2002 | Отправлено: 16:49 13-08-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serg0FFan

Цитата:
Хреново

Отдай хосту целиком usb контроллер (встроенный или отдельной платой) через пасстру....

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 16:52 13-08-2012
Umlyaut

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT

Цитата:
Из предыдущего Вашего сообщения (где наличие SSD-кэшей подавалось как безусловное преимущество "аппаратных" рейдов) следовало скорее незнакомство с софтверными реализациями SSD-кэширования (в т.ч. свободными), чем намеренное о них умолчание.  
 
Извините за ошибку.  
LevT

 
Коллега, ну право же...  
Я, конечно же, извиняю Вас за полным отсутствием в Вашей "отповеди" какого-либо злого умысла. Однако для человека, совершенно справедливо ратующего за чистоту дефиниций (даже не формулировок!), Вы как-то небрежно высказались уже в этот раз.
 
Не "из сообщения следовало", а "в сообщении я (т.е. Вы) увидел незнакомство...".  
 
И эт-та... ну с чего Вы взяли, что мои стилистически нейтральные конструкции отчего-то (по-Вашему!) подают что-то там как "безусловное преимущество "аппаратных" рейдов" над чем-то там ещё.  
Я ведь вообще никак не трогал софтверные реализации ssd-кеширования в том своём комменте. А трактовать умолчание о них как признак того, что я о них не знаю... кгхм-ммм... это несколько слишком даже для такого трибуна, как Вы...
Ну где логика, где русский язык, в конце-то концов?
 

Цитата:
LevT wrote:  
P.S. По поводу иопсов: по моему мнению, сравнение иопсов осмыслено только внутри одной лаборатории: дёрнул параметр (или понатыкал кэшей, или поменял целиком ось таргета, в точности воспроизведя луны и не меняя инициатора и путей и т.д...)  - зафиксировал, как сказалось на результате.    
 
 
Слишком много вариабельных параметров, сочетание которых невоспроизводимо в сторонних условиях.  
 

 
Вы правы, да.
 
Собственно, именно так я и сравнивал.
 
Вначале замерил IOmeter`ом иопсы на "боевом" хосте Сферы (дисковая группа из SAS HDD установлена на нём и служит локальным стором для VM с БД).
 
Потом на том же хосте, с той же дисковой группой и тем же раид-контроллером, ничего не меняя в настройках, добавил контроллеру опцию CacheCade и три SSD в качестве кеша чтения "hot data". После чего стал прогонять тот же самый паттерн IOMeter`a снова в цикле, отмечая, как растёт показатель иопсов.  
 
Далее я решил немного ускорить процесс и организовал цикл чтения тестового файла IOMeter`a с помощью его многократного архивирования без сжатия.
После нескольких тысяч циклов (я не знал алгоритма кеширования, поэтому перестраховался) замер был повторен - и показал увеличение на порядок к-ва иопсов (относительно "некешированного" раид-тома).
 
Посчитав, что проведённое исследование а) достаточно корректно по своим условиям и б) отвечает моим потребностям (как DBA) в быстродействии, я положил на данный массив свою БД (дело было в выходной и я отцепил всех юзеров).
После чего повторил замер уже на боевых данных, организовав SELECT из самых больших таблиц (с фиксацией времени). Получив значения, я точно так же в цикле "считал" БД (для этого вполне подошла процедура штатного быкапа БД, проделанная многократно командным файлом), после чего несколько раз прогнал тот же самый скрипт с SELECT`ом, что и в начале.
 
Что характерно, было отмечено 8-9 кратное уменьшение времени работы скрипта по массовой выборке данных супротив того, что было до того, как я многократно "перечитал" БД быкапом.
 
Так что я не думаю, что мой опыт так уж противоречит Вашему "канону", не?
 
 

Цитата:
 
Упдейтед.  
Возможен и сценарий сравнения софтового таргета и аппаратного. Софтовый предсказуемо придётся допиливать для того, чтобы он смог тягаться с фиксированными, проприетарно разогнанными "аппаратными" конфигами.  
 

 
Если "таргет" - это из iSCSI, то у меня нет "аппаратных таргетов", увы.
А вот посравнивать различный софт-таргеты (iSCSI) с одними и теми же хостами будет полезно для получения наиболее эффективного результата. Чем я (с переменным успехом) и пытаюсь заниматься временами...
 

Цитата:
 
Эта дополнительная работа - плата за гибкость конфига и свободу от вендор-локин. Каждый сам способен выбрать, чем расплачиваться (деньгами или временем), и за что именно платить в первую очередь.  

 
Что характерно, с подобными утверждениями даже как-то и спорить неудобно...
Ну,

Всего записей: 90 | Зарегистр. 20-11-2008 | Отправлено: 17:28 13-08-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Если "таргет" - это из iSCSI, то у меня нет "аппаратных таргетов", увы.  

 
Таргет это из SCSI без всякого i.  
 
Фирмварь "аппаратного" рейд-контроллера является в первую очередь  SCSI-таргетом. Т.е. софтом с аналогичным солярному stmf или старвинду функционалом, только с фиксированной конфигурацией, изменяемой в очень узких пределах. Вся "аппаратность" в том и состоит, что конфиг почти фиксирован, а за опции, открывающие возможность модификации, просят дополнительные деньги.
 
Понятно, что фиксированный конфиг проще оптимизировать, подобрав и фиксировав подходящие параметры. Однако неизвестно, какие вендоры на практике удосуживают себя этим заниматься применительно к своим железкам, и насколько тщательно.
 
Сложно сравнивать ужа с ежом, но при желании можно (например, сравнить изменения результатов при одинаковых вмешательствах в конфиг массива, одинаковом включении/отключении кэшей и т.д.)...  
 
Еще одно преимущество или недостаток фикс. конфига (смотря с какой стороны посмотреть) - это невозможность или затруднительность угробить всё руками дешевого админа. По себе скажу: дорого себя ценящему админу возможность работы в режиме с пониженными привилегиями тоже ценна, потому что ценна возможность защититься от своей собственной невнимательности. И обратно: каждому для себя решать, насколько для него терпима невозможность повысить свои привилегии в управлении собственным стораджем.
 
 
Добавлено:
 
Сам я не фанат вендорских загогулин и не терплю непреодолимых внешних ограничителей - и потому решил впредь не связываться с железными рейдами, ограничившись софтовыми инициаторами в осях и софтовыми таргетами в самосборных машинках.
 
Мне кажется что любые пузомерки с иопсами (если они претендуют на вендоронезависимость) следует начинать с полностью управляемой тестовой лаборатории на основе софтовых инициаторов iSCSI и FCoE в ESXi.  Я лично не могу пока похвастаться готовой для этой цели инфраструктурой. Может быть, ближе к весне...

Всего записей: 17273 | Зарегистр. 14-10-2001 | Отправлено: 18:25 13-08-2012 | Исправлено: LevT, 18:43 13-08-2012
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Umlyaut
подскажите пжл какую конкретно модель контроллера вы используете, совместима ли она с базовой инсталяшкой ЕСХ5 или надо добавлять в дистрибутив? сколько у вас внутренних дисков, используете ли вы экспандеры для ССД?
 
смотрел на сайте LSI модели, там есть 16 инт., а так чтобы 8 инт нету... есть 8 экст, значит нужна какаято внешняя коробка еще чтобы подключить снаружи диски, в общем расскажите как у вас сделано, попробую у себя потестить.

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 13:07 14-08-2012
Umlyaut

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
golychev

Цитата:
Umlyaut  
подскажите пжл какую конкретно модель контроллера вы используете, совместима ли она с базовой инсталяшкой ЕСХ5 или надо добавлять в дистрибутив? сколько у вас внутренних дисков, используете ли вы экспандеры для ССД?  
 
смотрел на сайте LSI модели, там есть 16 инт., а так чтобы 8 инт нету... есть 8 экст, значит нужна какая-то внешняя коробка еще чтобы подключить снаружи диски, в общем расскажите как у вас сделано, попробую у себя потестить.

 
Отвечаю по порядку...
 
Контроллер LSI MegaRAID 9265-8i (с BBU - для безбоязненного использования WB (кеширования записи)). Двуядерный чип, 1GB бортового кеша, весьма шустрая машинка с хорошо развитым сервисом.
 
(Забегая вперёд, скажу, что Вы просто не увидели на сайте LSI контроллеры с 8int., хотя их там полно - мой 9265-8i, его "младшие братья" 9260-8i, 9261-8i и пр.  
 
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9265-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9260-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9261-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9260CV-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9266-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9270-8i.aspx
http://www.lsi.com/products/storagecomponents/Pages/MegaRAIDSAS9271-8i.aspx
 
К слову, если строить шуструю дисковую подсистему (8-10-12 HDD и 3-4-6 ssd кеша для примера), то всё равно  
придётся использовать экспандер (о чём далее) - тогда можно вообще взять контроллер 4i, он тоже потянет).
 
Контроллер полностью совместим со стандартным дистрибутивом Сферы 5U1, ничего дополнительно внедрять/ставить в дистр не нужно.
Правда я устанавливал сам ESXi на флешку (чтобы при необходимости можно было безболезненно переставить данную дисковую подсистему с хоста Сферы на сетевую хранилку), но это непринципиально, он встаёт и непосредственно на локальный store на данном контроллере.
 
Внутренних дисков у меня 11 шт SAS 2,5" 10k IBM/Fujitsu, хотсвапные корзины не использую (диски подключены напрямую, кабелями).
Поскольку у данной модели 8 внутренних каналов, то я использовал внутренний же экспандер от CHENBRO (модель CK22803H0C01, но подойдёт любой экспандер на чипе LSI, коих на рынке, впрочем, и так большинство ).  
 
Соединительный кабель (8087-8087) между "входом" экспандера и одним из гнёзд "выхода" контроллера, к экспандеру подсоединены кабелями CBL-SAS8087OCF-06M харды, а SSD-шники кеша (уже упоминавшиеся Corsair P64) подключены таким же CBL-SAS8087OCF-06M ко второму "выходу" контроллера. Понятно, что когда/если мне захочется "расширить" ssd-кеш, то придётся дополнительные ssd (более одного) вешать на экспандер.
 
Для использования ssd-кеша была куплена опция CacheCade.
Могу сказать, что сделана эта фича весьма неплохо (судя по результатам), в работе она у меня уже почти год и полностью оправдывает свою цену (в районе двух сотен бакинских).
Фича ОС-независима (тсзть, это "внутренние дела" контроллера).
 
В качестве пояснения могу добавить, что использую CacheCade версии 1 - только на чтение. Добавленные в пул ssd-кеша носители автоматом организованы контроллером в RAIS-0 (STRIPE), что и даёт весьма приличные показатели чтения "горячих" данных. Если случится так, что один из ssd-носителей в кеше "крякнет", то контроллер должен автоматически перестроить ssd-кеш на оставшемся количестве ssd-носителей (так по спецификации, у меня пока таково казуса не случалось).
 
Не так давно LSI выпустил вторую версию CacheCade - с возможностью кеширования как чтения, так и записи "hot data".  
В случае включения режима кеширования записи новый CacheCade организует ssd-кеш как RAID-1 или RAID-10 (зависит от количества ssd-носителей и пожелания админа).  
 
Правда я не знаю алгоритма действий контроллера в случае потери избыточности кеш-томом (R0 или R10) - возможно, там есть та же возможность автоматического восстановления избыточности кеш-тома при наличии запасного ssd, заранее объявленного как HSD.
Но я сознательно отказался от CacheCade v2, т.к. не хочу усложнять свою дисковую систему - мне вполне хватает скорости записи моей OLTP-базы на быстрые SAS-харды через большой бортовой RAM-кеш контроллера.  
 
В конце концов, если мне приспичит, то я всегда могу взять аналогичный контроллер и обильно увешать его SSD-приводами как основными носителями, благо данная серия имеет необходимые фичи (как платные FastPath, так и штатные SSD Guard и HSD).
 
И ещё немного про выбор контроллера...  
 
Во-первых, не берите 9240-4/8i - он довольно чахлый как по ТТХ, так и по фичам.
 
Во-вторых, заранее прикидывайте потребности, т.к., например, первые прошивки с CacheCade вначале появились для 9260/80, а только потом для 9265/85.
А для 9260CV, как мне помнится, прошивки с CacheCade вообще пока не было, равно как и для самоновейших 9261, 9270/71 и им подобных.  
Т.е. чтобы Вы не купили новейшую модель контроллера, а потом пол-года ожидали новую прошивку с включенным CacheCade...
 
Вот вкратце всё. Если что, спрашивайте, постараюсь ответить.
 
И - доброй охоты, коллега!

Всего записей: 90 | Зарегистр. 20-11-2008 | Отправлено: 14:15 14-08-2012 | Исправлено: Umlyaut, 14:18 14-08-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru