среда, 23 сентября 2009 г.

Архивирование логов и отправка их по e-mail

Появилась задачка отправлять логи на e-mail, при этом их еще и архивировать.

Решений, естественно, много. Даже winrar может отправлять на e-mail, но реализация мне не очень понравилась. Поэтому решено было использовать связку из 2х продуктов: WinRAR и Postie (http://www.infradig.com).

Строчка для запуска RAR:

rar a -u -as "путь к архиву"\Backup.rar "путь к архивируемым файлам"\*.txt

В архиве 'Backup.rar' останутся только файлы *.txt из нужного каталога, а все остальные будут удалены. Это напоминает создание нового архива, но за одним важным исключением: если после прошлой архивации файлы не изменялись, то операция будет выполнена значительно быстрее, чем создание нового архива.

Отправку файла доверим Postie:

postie.exe -esmtp -user:логин -pass:пароль -host:smtp.mail.ru -to:получатель@mail.ru -from:отправитель@mail.ru -s:сабж -nomsg -a:С:\filename.rar

Как управлять VMware Server 2.0.x? Возьмите vSphere Client!

А знаете ли вы что VMware Server 2.0.x, бесплатный продукт компании VMware, можно использовать тогда, когда тот же бесплатный VMware ESXi не подходит. Вот хотя бы когда VMware Server 2 лучше чем ESXi 4:

  • ESXi требует совместимого железа, а VMware Server ставится на любой компьютер с Windows или Linux
  • ESXi не поддерживает проброс USB-устройств в виртуальную машину с хоста
  • Виртуальные машины VMware Server можно быстро скопировать на флэшку из хостовой Windows или Linux и забрать с собой
  • VMware Server прост в эксплуатации и не требует дополнительного обучения

Большой минус VMware Server - он ставится поверх хостовой системы и его управлялка (Web Access) ест много ресурсов под сервер Apache.

Кроме того, этот инструмент управления тормозит и иногда неудобен. Но есть классный способ управлять VMware Server через толстый клиент, а именно VMware vSphere Client (его можно взять из дистрибутива VMware vCenter), который прекрасно управляется с VMware Server. Просто введите в строке адреса сервера VMware Server:

ip-адресс сервера: 8333

И вы получаете отличный способ управления сервером VMware Server и его виртуальными машинами посредством полноценного "толстого" клиента.

Источник

понедельник, 14 сентября 2009 г.

Список ограничений и условий для VMware FT

Просто ссылка, содержание и так понятна из названия:

VMware Fault Tolerance Requirements and Limitations

MSCS на vSphere

Изменились ли правила для установки Microsoft кластеров на vSphere? Ответ: слегка.

Есть три сценария работы MSCS и ESX: Cluster-in-a-box (оба узла MSCS работают на одном физическом сервере - удобно для тестирования), cross-host (узлы MSCS находятся на разных физических серверах) и physical-virtual (когда один узел MSCS физический, а второй виртуальный).

  • MSCS все еще ограничены двумя узлами при работе на ESX 4.
  • Можно использовать локальные диски (для cluster-in-a-box) или Fibre Channel для двух других вариантов. Поддержка NFS и iSCSI пока отсутствует.
  • При работе в cross-host варианте оба ESX хоста должны иметь одинаковые версии.
  • Узлы MSCS не могут находиться в кластерах HA или DRS.
  • Нельзя использовать MSCS одновременно с FT. точнее сказать, FT машины могут работать на тех же физических хостах, но узлы MSCS не могут быть запущены как FT машины.
  • Нельзя перемещать узлы MSCS при помощи VMotion.
  • Нельзя использовать N-Port ID Virtualization (NPIV).
  • При использовании Fibre Channel и родного multipathing в ESX нельзя использовать round-robin политику путей.
  • Использовование VM hadware 7 для ESX/ESXi 4.0 обязательно.
  • Failover кластеры Windows 2008 не поддерживаются с virtual RDM, обязательно использование physical RDM.
  • Нельзя использовать тонкие vmdk диски для Windows.
  • Для Windows 2000 / 2003 необходимо использовать LSI Logic Parallel как контроллер Для общего хранилища, для Windows 2008 - LSI Logic SAS.
  • Для physical-virtual MSCS кластеров необходимо использование physical RDM.
  • Нельзя использовать multipathing ПО в ВМ или на ESX (как например PowerPath VE).
  • Нельзя использовать Memory Overcommit для узлов MSCS, требуется полностью резервировать память для MSCS ВМ.
  • Необходимо выставить значение disk I/O timeout в 60 секунд или более (HKLM\System\CurrentControlSet\Services\Disk\TimeOutValue)

Источник

И в качестве напоминания команда создания RDM диска с помощью vmkfstools:

vmkfstools -z /vmfs/devices/disks/naa. /vmfs/volumes/.../Name.vmdk

или 

vmkfstools -r /vmfs/devices/disks/naa. /vmfs/volumes/.../Name.vmdk

вторник, 1 сентября 2009 г.

Пятьдесят семь RDM

По целому ряду причин, а точнее из-за особенностей организации хранения данных пользователей потребовалось поэкпериментировать с массовым подключением RDM в MSCS кластере .  Всего было 46 LUN на EMC CX3-40F выбрано для эксперимента по их подключению.
При подключении 31 LUN начиналась череда дивных «глюков» связанных с вылетами по таймауту при запуске такой VM, проблемы с невозможностью сохранить конфигурацию VM.
Чтение документации от Vmware ничего не проясняло, кроме одного маленького упоминания о том, что кворумный диск лучше подключать на SCSI-адрес 1:1. О причинах и ограничениях там мило умолчали, предоставив пользователям строить догадки на эту тему. Методом научного тыка поиска было обнаружено, что адреса контроллеров 1:0, 2:0, 3:0 не пригодны для работы с RDM при количестве более 30 шт. При переходе границы этого числа ничего не работало, совсем и никак.

Таким образом, методом нехитрого сложения показаний выясняется, что ограничение на 60 дисков на одну VM это не так, в случае RDM, это всего лишь 57.

Источник