Hva er nytt i Windows Server 2012 nettverk? (Del 4)


Innledning

I del 1 av min pågående serie om Hva ’ s Nytt i Windows Server 2012 Networking, etter jeg rørte kort på temaet Data Center Bridging (DCB). Det ’ s også en del av de lave latency teknologier, resten av som vil bli diskutert i del 5.

Men DCB fortjener litt mer oppmerksomhet, så jeg ’ m å ta en liten omvei denne måneden for å ta en mer detaljert titt på denne funksjonen. Dessverre er dokumentasjonen på TechNet nettstedet svært ufullstendig på tidspunktet for dette skriftlig; Merk at planlegging, utplassering, drift og feilsøking innhold er alle merket “ ikke tilgjengelig ”.

Low Latency arbeidsmengde teknologier

Den neste ny funksjon på vår “ Hva ’ s New ” Listen er egentlig et helt sett av funksjoner, hvorav noen er ny på Server 2012 og noen som ble introdusert i tidligere versjoner av Windows Server og har blitt forbedret, og alle som arbeider for å hjelpe med behovene til scenarier der lav latency ( det er, er viktig reduserte forsinkelser mellom trinnene med behandlingen av en arbeidsbelastning). Det finnes en rekke ulike typer scenarier som passer denne beskrivelsen.

Hvis du har programmer eller prosesser der du trenger raskest mulig kommunikasjon mellom prosesser og /eller mellom datamaskiner, disse funksjonene kan bidra til å redusere nettverks ventetid som ’ s skyldes mange forskjellige ting, både maskinvare og programvare relaterte

Data Center Bridging (DCB) er en av disse lave latency funksjoner og vi ’. re kommer til å se nå på hvordan det kan bidra til å forbedre effekten av de pesky latency problemer

Data Center Bridging (DCB) oversikt

Data Center Bridging har vært rundt på en stund.; det ’ s basert på et sett med IEEE-standarder for forbedringer til Ethernet som gir fysiske Ethernet-enheter for å kommunisere med et SAN eller LAN, og dermed gjøre Ethernet arbeidet mer pålitelig i datasenteret og slik at mange forskjellige protokoller for å kjøre over den samme fysiske infrastrukturen. DCB har også vært kjent som Data Center Ethernet (DCE) og Converged Enhanced Ethernet (CEE)

De relevante IEEE-standarder er:.

  • 802.1Qbb (prioritetsbasert flytkontroll, aka per prioritert PAUSE)

    802.1Qaz (utvalg forbedret overføring /båndbredde)

    802.1au (congestion varsling)

    Data Center Bridging Capabilities Veksling Protocol (DCBX).

    Alle disse jobber sammen for å redusere pakketap og gjøre nettverket mer pålitelig.

    Med DCB, er båndbredde tildeling maskinvarebasert og mengderegulering er prioritetsbasert. I stedet for operativsystemet å måtte håndtere trafikken, det " s håndteres av en sammensatt nettverksadapter. En konvergerte nettverksadapter (CNA eller C-NIC) kombinerer funksjonene til en tradisjonell NIC med de av et grensesnitt til et SAN hjelp Fibre Channel over Ethernet (FCoE), iSCSI, eller Remote Direct Memory Access (RDMA) over konvergerte Ethernet. Den har en Host Bus Adapter som kan kobles til Fibre Channel. Slike adaptere tilbys av en rekke leverandører, inkludert HP, Dell, QLogic, Broadcom og andre.

    Så hva er fordelene med konvergens? Du trenger ikke lenger å kjøre Fibre Channel eller iSCSI nettverket separat fra Ethernet-nettverket. Dette sparer penger og forenkler administrasjonen. Utstyret krever mindre plass i datasenteret og bruker mindre strøm; den genererer mindre varme og dermed reduserer behovet for avkjøling. Du trenger også mindre kabling. Antallet brytere kan også reduseres.

    DCB og Fibre Channel

    Gigabit Ethernet har blitt svært rimelig, og prisene for 10GigE faller. Det gjør Ethernet en svært kostnadseffektiv nettverk stoff. Fibre Channel er dyrt i forhold til Ethernet, og ikke lenger har en ytelse fordel, men selskaper som allerede har FC SAN don ’. T ønsker å skrap som maskinvare, der de har allerede investert betydelige penger

    Microsoft har også innebygd i Windows Server 2012 muligheten til å koble til Fibre Channel direkte fra Hyper-V virtuelle maskiner slik at du kan støtte virtuelle arbeidsmengder med eksisterende fiberkanal lagringsenheter. Dette bidrar ytterligere til å utvide brukbarheten av organisasjonens ’ s investeringer i Fibre Channel. Du kan finne ut mer om det i Hyper-V virtuelle Fibre Channel Oversikt
    på TechNet.

    Ved å kjøre Fibre Channel over Ethernet (FCoE), de Fibre Channel rammer er innkapslet i Ethernet-rammer. Et problem med Fibre Channel er at det ’ s “ pirkete ” – den krever et pålitelig nettverk med meget liten (eller ingen ideell) tap av pakker. Det betyr at det må være en måte å redusere eller eliminere den vanlige pakketap som oppstår på Ethernet-nettverk når de ’ re overbelastet. Med DCB kan organisasjoner skape et Ethernet basert konvergerte nettverk som kan kommunisere med FC SAN.

    DCB og iSCSI

    Hva med iSCSI? Dette er en protokoll for å kjøre SCSI trafikk over Ethernet IP-nettverk, vanligvis for delt lagring. Det vanligvis koster mindre enn Fibre Channel så det ’ s spesielt attraktivt for organisasjoner som trenger utvidet lagring på et stramt budsjett. Distribusjon er vanligvis ikke fullt så komplisert, enten – noe som kan spare penger indirekte i form av administrative overhead og /eller konsulenthonorarer.

    DCB kan gjøre en iSCSI utplassering mer pålitelig og forutsigbar og forbedrer ytelsen gjennom sine båndbredde tildeling evner. DCB gjør det enklere å oppgradere til 10GigE, konvergere nettverkstrafikk, og opprettholde ytelsen til applikasjoner, og det ’ s svært skalerbar, fra små bedrifter til foretaksnivå. Du ’ ll trenger en NIC med iSCSI Host Bus Adapter som støtter iSCSI løpet DCB samt en lagringsarray som støtter det, og til slutt, en DCB-stand Ethernet-svitsj

    DCB og RDMA
    <. p> RDMA løpet Converged Ethernet (RcCE) er en lenklagprotokollen der to verter kan kommunisere med fjern direct memory access over et Ethernet-nettverk, for delt lagring eller cluster computing. RDMA kan også gjøres over en InfiniBand-nettverk, et annet punkt-til-punkt-arkitektur ligner Fibre Channel som tilbyr høy båndbredde og lav latency, men InfiniBand er ikke rutbare og doesn ’ t skalere godt. Det ’ s også mindre kjent for de fleste IT-proffer enn Ethernet, som de ’ ve jobbet med i flere tiår. ROCE brukes hovedsakelig i High Performance Computing (HPC) miljøer (tungregning).

    Hvordan DCB fungerer

    Med DCB, ulike typer trafikk kan kjøre over de samme fysiske media, og du kan administrere dem i henhold til prioriteringer. DCB produserer en “ tapsfri ” miljø; det vil si, ingen data rammer tapt takket være bruk av flytkontroll. Dette øker ytelsen fordi det ikke lenger er behov for å videresende tapt rammer, som kan bremse ned alt

    Som nevnt ovenfor er de fire protokoller som utgjør DCB skape et Ethernet-infrastruktur som ’. S egnet for fiberkanal og iSCSI:

    Priority basert flytkontroll, som navnet tilsier, gjør det mulig å gjennomføre flytkontroll på en per-prioritet basis. Det fungerer på MAC Kontroll underlag. Det setter flere felt i en PAUSE ramme slik overføring av spesifikke rammer kan bli hemmet.

    Enhanced Transmission Selection lar deg fordele båndbredde i henhold til prioriteringer. Den legger også et nytt felt, den PGID (prioritert gruppe ID). Prioriteringer kan tildeles en PGID og du kan tildele båndbredde, på en prosent basis, til hver PGID. Dette begrenser hvor mye båndbredde som kan brukes

    Congestion varsling sender lunger informasjon og kommer opp med et mål på graden av trafikk på nettverket.; den bruker algoritmer for å redusere overføringshastighetene oppstrøms for å avverge sekundære flaskehalser. Det er to algoritmer involvert. CP (Congestion Point Dynamics) og RP (Reaction Point Dynamics, også kjent som en begrenser)

    Data Center Bridging Utveksling kan utveksle konfigurasjonsdata mellom jevnaldrende, og kan også oppdage feilkonfigurasjoner <. br>

    Du kan finne mye mer detaljerte forklaringer på hvordan hver av disse protokollene arbeide i denne Data Center Bridging Tutorial
    fra University of New Hampshire

    Microsoft ’ s. DCB løsning

    Det er nok av DCB løsninger der ute fra forskjellige leverandører. Windows Server ’ s gjennomføring av DCB gir noen klare fordeler. Først, naturligvis, er det faktum at det ’ s en del av Windows Server operativsystemet, og slik at du don ’ t nødt til å kjøpe en egen løsning. Siden det ’ s basert på IEEE-standarder, får du interoperabilitet som du kanskje ikke får med alle proprietære DCB løsninger. Vær oppmerksom på at du må DCB-aktiverte Ethernet nettverkskort og DCB-dyktige brytere på nettverket for å distribuere Windows Server 2012 DCB.

    Aktivering DCB i Server 2012

    For å aktivere Data Center Bridging gjennom GUI, på en Windows Server 2012 maskin med en DCB-kompatibel nettverksadapter, Open Server Manager og utfør følgende trinn:.


      Klikk Legg til roller og funksjoner

      Velg Roles- baserte eller funksjonsbasert installasjon.

      I Velg målserveren dialogboksen, klikker du Velg en server fra datamaskinen bassenget.

      I Velg server roller dialogboksen klikker du Neste.

      I listen over Select Features Funksjoner dialogboksen, sjekk boksen ved siden av Data Center Bridging.

      Som nevnt, har Microsoft vært trege til å produsere dokumentasjon for Windows Server 2012 DCB , men vi håper at vil bli gjennomført i nær fremtid.

      I mellomtiden, Powershell-fans vil også være glad for å vite at Windows Server 2012 gjennomføringen av DCB kan installeres og konfigureres via Powershell cmdlets. Du kan finne mer informasjon om det i DCB Windows Powershell Bruker Scripting Guide
      på TechNet.

      Sammendrag

      Data Center Bridging er en viktig teknologi for bedrifter som ønsker for å øke ytelsen, redusere administrative overhead og utnytter eksisterende fiberkanal eller iSCSI masselagringsmidler. Microsoft ’ s gjennomføring av DCB i Windows Server 2012 vil gjøre det enklere og billigere å distribuere på Windows-baserte nettverk

      Neste gang vi ’. Ll se på resten av de lave latency arbeidsmengde teknologier, som inkluderer Data Center Transmission Control Protocol (DCTCP), Kernel Mode RDMA (kRDMA), NIC teaming, Network Direct og mer.