Innledning
Windows NIC Teaming, den innebygde lastbalansering og failover (LBFO) løsning inkludert i Windows Server 2012 og Windows Server 2012 R2, kan du å aggregere nettverksbåndbredde på tvers av flere nettverkskort for å øke gjennomstrømningen. Det kan også bidra til å sikre applikasjonstilgjengelighet ved å gi trafikk failover-støtte i tilfelle av nettverkskomponent failover. Det du kanskje ikke har innsett er imidlertid at Windows NIC Teaming kan gi nytte i både fysiske og virtuelle miljøer. Med andre ord kan du lage NIC lag både fra fysiske nettverkskort i en fysisk server og fra virtuelle nettverkskort i en virtuell maskin.
Vi har allerede undersøkt noen av scenariene der du kan implementere Windows NIC Teaming ved hjelp av ulike teaming moduser og lastbalansering moduser. Disse ulike modusene kan konfigureres både fra UI og bruke Windows Powershell, og det er viktig å bruke de riktige modusene som oppfyller behovene til ditt scenario. Men før du hopper inn og begynne å lage NIC lag på enten fysiske servere eller på virtuelle maskiner som kjører på Hyper-V verter, er det viktig å sikre at du forstår de ulike hensyn og begrensninger som er involvert i å implementere Windows NIC Teaming i fysiske eller virtuelle miljøer.
Hensyn for fysiske servere
Hvis du bare lage en NIC lag fra et par om bord Gigabit nettverkskort i en av dine fysiske servere, har du sannsynligvis ikke vil ha noen problemer. Windows NIC Teaming vil fungere akkurat som du forventer at det skal fungere.
Men hvis du har en high-end server som du har kjøpt et par dyre nettverk adapter kort for, og du hekte serveren opp til 10 GbE stamnettet, og du ønsker å sikre best mulig ytelse og samtidig utnytte avanserte funksjoner som virtuelle LAN (VLAN) isolasjon og Single-Root I /O Virtualization (SR-IOV) og så videre, så Windows NIC Teaming kan være vanskelig å sette opp riktig.
Støttede nettverkskort evner
For å hjelpe deg med å navigere hva som kan muligens være et minefelt (tross alt, hvis serveren din plutselig mistet all tilkobling med nettverket jobben kan være på linjen) la oss først starte med å oppsummere noen av de avanserte mulighetene fullt ut kompatible med Windows NIC Teaming som finnes i dyrere nettverkskort hardware:
Datacenter bridging (DCB) - An IEEE standard som gjør det mulig for maskinvarebasert båndbredde tildeling for bestemte typer nettverkstrafikk. DCB-kompatible nettverkskort kan aktivere lagring, data, ledelse, og andre typer trafikk hele skal gjennomføres på samme underliggende fysiske nettverk på en måte som sikrer hver type trafikk sin rettferdige andel av båndbredde.
Receive Side Scaling (RSS) -. Lar nettverkskort å distribuere kernel-modus nettverk behandling over flere prosessorkjerner i flerkjernesystemer. En slik fordeling av behandlingen gir støtte for høyere nettverkstrafikkbelastning enn det som er mulig hvis bare en enkelt kjerne brukes
Virtual Machine Queue (VMQ) - Lar en vert ’ s. Nettverkskort å passere DMA pakker direkte inn i minnet stabler av individuelle virtuelle maskiner. Nettoeffekten av å gjøre dette er å tillate verts ’ s enkelt nettverkskort til å vises til de virtuelle maskinene som flere nettverkskort, som deretter lar hver virtuelle maskin til å ha sin egen dedikert NIC
Hvis. nettverkskort på en fysisk server støtte noen av de ovennevnte avanserte funksjoner, vil disse funksjonene også bli støttet når disse nettverkskort er slått sammen ved hjelp av Windows NIC Teaming.
Uegnet nettverkskort evner
Noen avanserte nettverksfunksjonalitet støttes imidlertid når nettverkskort er slått sammen på en fysisk server. Konkret er følgende avanserte mulighetene enten ikke støttet av eller ikke anbefalt for bruk med Windows NIC Teaming:
802.1X-godkjenning - Kan brukes til å gi et ekstra lag med sikkerhet for å hindre uautorisert tilgang til nettverket ved gjest, rogue, eller ikke-administrerte datamaskiner. 802.1X krever at klienten være godkjent før de blir i stand til å sende trafikk over nettverket bryteren porten. 802.1X kan ikke brukes med NIC teaming
Remote Direct Memory Access (RDMA) -. RDMA-kompatible nettverkskort kan fungere i full fart med lav latency og lav prosessorbruk. RDMA-stand nettverkskort er ofte brukt for visse arbeidsbelastninger som Hyper-V verter, servere som kjører Microsoft SQL Server, og Scale-out File Server (SoFS) servere som kjører Windows Server 2012 eller senere. Fordi RDMA overfører data direkte til nettverkskortet uten å føre data gjennom nettverksstakken, er det ikke forenlig med NIC teaming
Single-Root I /O Virtualization (SR-IOV.) - Aktiverer et nettverkskort til dele tilgang til sine ressurser på tvers av ulike PCIe hardware funksjoner og redusert behandlings overhead på verten. Fordi SR-Iov overfører data direkte til nettverkskortet uten å føre data gjennom nettverksstakken, er det ikke forenlig med NIC teaming
TCP Chimney Offload -. Introdusert i Windows Server 2008, overfører TCP Chimney Offload hele nettverksstakken arbeidsmengde fra CPU til nettverkskortet. På grunn av dette, er det ikke forenlig med NIC teaming
Quality of Service (QoS) -. Dette refererer til teknologier som brukes for å administrere nettverkstrafikk på måter som kan møte tjenestenivåavtaler (SLA) og /eller forbedre bruker erfaringer i en kostnadseffektiv måte. For eksempel ved å bruke QoS å prioritere ulike typer nettverkstrafikk, kan du sikre at virksomhetskritiske applikasjoner og tjenester leveres i henhold til SLA og for å optimalisere brukerproduktivitet. Windows Server 2012 innført en rekke nye QoS evner inkludert Hyper-V QoS, som lar deg angi øvre og nedre grense for båndbredde som brukes av en virtuell maskin, og nye gruppepolicyinnstillinger for å gjennomføre politiske basert QoS ved å merke pakker med en 802.1p verdi å prioritere ulike typer nettverkstrafikk. Ved hjelp av QoS med NIC teaming anbefales ikke da det kan forringe nettverkstrafikk for laget.
Andre hensyn til fysiske servere
Noen andre hensyn når gjennomførings Windows NIC Teaming med nettverkskort i fysiske servere inkluderer følgende:
Et lag kan ha minimum ett fysisk nettverkskort og maksimalt 32 fysiske nettverkskort
Alle nettverksadaptere i klubben skal operere på. samme hastighet dvs 1 Gpbs. Teaming av fysiske nettverkskort av ulike hastigheter er ikke støttet.
Hensyn for virtuelle maskiner
Du kan også implementere Windows NIC Teaming innen virtuelle maskiner som kjører på Hyper-V verter for enten å aggregere nettverkstrafikk eller for å sikre tilgjengelighet ved å gi failover-støtte. Nok en gang er det imidlertid noen hensyn du må være klar over før du prøver å implementere en slik løsning:
Hver virtuell nettverkskortet må være koblet til en annen virtuell bryter på Hyper-V host på som den virtuelle maskinen er i gang. Disse virtuelle brytere må alle være av den eksterne typen - du kan ikke slå sammen virtuelle nettverkskort som er koblet til virtuelle svitsjer over enten intern eller privat typen
Den støttes bare teaming modus når teaming virtuelle nettverkskort sammen. er den Switch Independent teaming modus.
Den eneste lastbalansering modus støttes når teaming virtuelle nettverkskort sammen er adresse Hash lastbalansering modus.
Hvis du trenger å konfigurere VLAN for teamed virtuelle nettverkskort Pass på at de virtuelle nettverkskort er enten hver koblet til forskjellige Hyper-V virtuelle brytere eller slapp konfigureres ved hjelp av samme VLAN ID.
Vi vil se noen av disse hensynene for teaming fysisk og virtuelle nettverkskort i senere artikler i denne serien. Men nå er det på tide å grave i Powershell cmdlets for å administrere Windows NIC Teaming og det er tema for de neste par artikler i denne serien. Anmeldelser