Колокейшн
Услуга “Колокейшн” - это размещение оборудования в наших дата-центрах уровня надежности Tier III.
Мы предлагаем:
разместить сервер;
арендовать серверную стойку.
Мы обеспечиваем:
физическую безопасность оборудования;
бесперебойное электропитание;
гарантированный канал связи с высокой пропускной способностью;
оптимальные климатические условия.
Обслуживать оборудование можно самостоятельно или силами инженеров ProCloud.
При размещении сервера клиент получает:
установку оборудования в стойку и первичную настройку сети инженерами ProCloud;
доступ в сеть интернет на скорость до 1Гбит/с;
постоянный доступ к IPMI;
техническая поддержка 24/7.
При аренде стойки мы предлагаем:
до 47 юнитов для стандартных серверов;
техническая поддержка 24/7;
выделенная мощность до 5 кВт на стойку;
базовый уровень удаленного обслуживания оборудования — осмотр, замена комплектующих.
В данном разделе отображается список размещенных серверов и краткая информация о серверах.
При нажатии на кнопку “IPMI” можно получить быстрый доступ к IPMI нужного сервера.
При нажатии на кнопку “Подробнее” откроется:
Название сервера. Здесь всегда можно изменить название на новое;
Данные о сервере;
Возможность просмотреть активные сессии доступа к IPMI;
Информация о подключенной SAN-сети;
Информация о подключенных виртуальных дисках.
Адрес доступа к IPMI является постоянным. В целях обеспечения безопасности доступ закрыт правилами файрвола. Для автоматического создания сессии, с доступом на 3 часа, нажмите кнопку “IPMI”. Для предоставления временного или постоянного доступа для другого IP-адреса воспользуйтесь кнопкой “Создать сессию” и укажите нужный IP-адрес.
Здесь же можно отключить ранее подключенный виртуальный диск воспользовавшись кнопкой “Отключить” или подключить новый виртуальный диск с помощью кнопки “Подключить диск” (диск должен быть уже создан в разделе “Инфраструктура ЦОД” / “Диски”).
Настройка LACP в Linux (debian/ubuntu)
Первоначально надо установить ifenslave:
apt-get install ifenslave
Добавьте bonding в текстовый файл /etc/modules:
echo 'bonding' >> /etc/modules
Загрузите модуль, введя в терминале команду:
modprobe bonding
Отредактируйте файл конфигурации сети:
nano /etc/network/interfaces
Скопируйте и вставьте в данный файл:
iface lo inet loopback
auto eth0 # (либо eno0)
iface eth0 inet manual
bond-master bond0
auto eth1 # (либо eno1)
iface eth1 inet manual
bond-master bond0
auto bond0
iface bond0 inet static
address **IP ADDRESS/24 из тикета**
gateway **GATEWAY из тикета**
dns-nameservers 194.55.234.253
slaves eth0 eth1 # либо en0 eno1
bond-mode 802.3ad
bond-lacp-rate slow
Включите настроенный сетевой интерфейс (или перезагрузите сервер):
ifup bond0
/etc/init.d/networking start
После успешного поднятия интерфейса можно наблюдать за его состоянием в файле /proc/net/bonding/bond0:
cat /proc/net/bonding/bond0
Настройка NIC Teaming в Windows Server 2019
Режим NIC Teaming по умолчанию отключен в Windows Server. Чтобы включить его, откройте консоль Server Manager, выберите локальный сервер (Local Server) и в его свойствах выберите пункт “NIC Teaming: Disabled“.
В появившемся окне в левой нижней панели выберите пункт Tasks -> New Team (Создать группу).
Далее нужно указать имя группы (Team Name) и выбрать сетевые адаптеры, которые будут входить в эту группу.
Important
В Windows Server 2019 в одну NIC Teaming групп можно объединить до 32 физических сетевых адаптеров, главное, чтобы они работали на одной скорости.
Ниже можно настроить специальные параметры группы. От данных параметров зависят правила и эффективность NIC Teaming.
Режим поддержки групп (Teaming Mode) - Данный параметр определяет способ взаимодействия группы с сетевым оборудованием (коммутатором):
Static Teaming (IEEE 802.3ad) — статический режим работы с зависимостью от сетевого оборудования. Все адаптеры группы должны быть подключены к одному коммутатору, Ethernet порты которого настроены на использование статической агрегации каналов (требуется настройка на коммутаторе);
Switch Independent (режим по-умолчанию) – группа работает независимо от коммутатора, для реализации не нужно дополнительно настраивать сетевое оборудование. В этом режиме разные сетевые адаптеры группы можно подключить к разным коммутаторам для повышения отказоустойчивости (защита от сбоев в коммутаторах);
LACP (Link Aggregation Control Protocol, LACP, IEEE 802.1ax) – режим также зависит от сетевого оборудования. Нужно включить и настроить на коммутаторе динамическую агрегацию каналов по протоколу LACP.
Режим балансировки нагрузки (Load Balancing mode) – задает как распределяется сетевой трафик по NIC в группе:
Address Hash — для каждого из адаптеров вычисляется специальный хэш (на основании MAC или IP-адресов отправителя и получателя) и привязывается к определенному физическому адаптеру. Весь трафик от данного отправителя будет идти через этот NIC;
Hyper-V Port — режим можно использовать для сервера с ролью Hyper-V. Позволяет привязать конкретный адаптер группы NIC teaming к конкретному порту на виртуальном коммутаторе Hyper-V;
Dynamic – опция по умолчанию совмещает оба типа балансировки нагрузки.
Один из адаптеров в группе можно назначить резервным (Standby adapter). В обычном режиме работы данная NIC не используется для передачи трафика. При неполадке на любом другом адаптере в группе NIC Teaming, он тут-же занимает его место. В общем случае и без данной функции при выходе из строя любой сетевой карты не будет простоя сервиса, т.к. ее нагрузка автоматически распределится между оставшимися картами в группе.
Выберите нужные параметры, нажмите ОК и новая группа Nic Teaming будет создана.
Откройте список сетевых подключений в панели управления Windows. Убедитесь, что в Windows Server появился новый сетевой адаптер Microsoft Network Adapter Multiplexor Driver. Это и есть виртуальный адаптер группы NIC Teaming.
Дальнейшая настройка параметров сетевой карты (протоколы, IPv4/IPv6 адрес) осуществляется теперь в свойствах этого адаптера, а у всех остальных сетевых адаптеров, которые добавлены в группу NIC Teaming, уже не будет собственных IP адресов.
Important
При удалении группы NIC Teaming предыдущие настройки сетевых адаптеров восстанавливаются.
Настройка NIC Teaming в Windows Server с помощью PowerShell
В Windows Server для управления NIC Teaming есть встроенный модуль NetLbfo. Выведите список сетевых адаптеров на сервере:
Get-NetAdapter
Создайте новую группу с Team0 из адаптеров с нужными именами Ethernet. Выберите режим работы LACP с динамической балансировкой.
New-NetLbfoTeam -Name Team0 -TeamMembers Ethernet1,Ethernet3 -TeamingMode Lacp -LoadBalancingAlgorithm Dynamic
Доступные параметры:
TeamingMode: Static , SwitchIndependent , Lacp
LoadBalansingAlgorithm: TransportPorts , IPAddresses , MacAddresses , HyperVPort , Dynamic
Информацию о группах NIC Teaming на сервере можно вывести с помощью команды:
Get-NetLbfoTeam
Далее нужно настроить IP-адрес с помощью PowerShell:
New-NetIPAddress -InterfaceAlias team0 -IPAddress 194.55.244.ХХ -PrefixLength 24 -DefaultGateway 194.55.244.1
Set-DnsClientServerAddress -InterfaceAlias team0 -ServerAddresses 194.55.234.253
Выполните команду Get-NetAdapter, чтобы убедиться, что LinkSpeed сетевого адаптера группы NIC Teaming — 20 Гбит/с.
Чтобы изменить настройки группы NIC Teaming используется команда Set-NetLbfoTeam:
Set-NetLbfoTeam -Name team0 -TeamingMode LACP
Чтобы через NIC Teaming добавить отдельный VLAN интерфейс, используйте команду:
Add-NetLbfoTeamNIC -Team Team0 -VlanID 100
Удалить группу NIC Team можно командой:
Remove-NetLbfoTeam -Name Team0
Как войти в командную строку VMware ESXi?
На хосте, где установлен гипервизор ESXi, в жёлто-сером меню необходимо зайти в раздел troubleshooting options.
В открывшемся подменю выбрать пункт Enable ESXi Shell.
Далее нажать сочетание клавиш Alt+F1 и откроется консоль чёрного цвета.
Ввести пользователя и пароль гипервизора.
Чтобы вернуться обратно в жёлто-серое меню, нужно нажать сочетание клавиш Alt+F2.
Настройка NIC Teaming в VMware ESXi
В ESXi Administration перейдите в раздел Networking и далее в закладку Virtual Switches для обновления параметров конфигурации существующего vSwitch0 или создания нового vSwitch.
Выберите vSwitch0 (используется по умолчанию).
Для использования NIC teaming необходимо указать два аплинк-интерфейса. Добавить новый аплинк можно, выбрав Add uplink.
4. Затем перейдите в настройки виртуального свитча, выбрав Edit settings. В настройках должны быть указаны следующие параметры:
Uplink 1 - физический NIC порт vmnic1
Uplink 2 - физический NIC порт vmnic0
Security:
Promiscuous mode - Reject
MAC address changes - Accept
Forged transmits - Accept
NIC teaming:
Load balancing - Route based on IP hash
Network failover detection - Link status only
Notify switches - Yes
Failback - Yes
Failover order - оба порта, vmnic1 и vmnic0, должны быть в статусе Active.
В разделе Networking перейдите на вкладку Port groups. Здесь определяются настройки группы портов, включая идентификатор VLAN. Большинство сетевых настроек наследуются от выбранного ранее vSwitch.
6. Выберите Management Network и затем Edit settings В настройках должны быть указаны следующие параметры:
Security:
Promiscuous mode - Inherit from vSwitch
MAC address changes - Inherit from vSwitch
Forged transmits - Inherit from vSwitch
NIC teaming:
Load balancing - Inherit from vSwitch
Network failover detection - Inherit from vSwitch
Notify switches - Inherit from vSwitch
Failback - Inherit from vSwitch
Override failover order - No
Traffic shaping:
Status - Inherit from vSwitch
После настройки Management Network проверьте доступ к ESXi при двух активных аплинках.
Обратите внимание, что указанные шаги и настройки могут незначительно отличаться в зависимости от версии VMware ESXi, используемой на вашем сервере.