Min virksomhet er franchising. Vurderinger. Suksesshistorier. Ideer. Arbeid og utdanning
Nettstedsøk

Oversikt over datasenterteknikksystemer: modulært datasenter (mcd): mobil? container? modulært! Modulære tsods. Modulære datasentre utendørs l

Grunnlaget for fremveksten av denne løsningen en gang var mobile datasentre ("datasentre i en container"), som dukket opp på markedet for rundt 3 år siden. Mobiliteten til datasentre - først deres viktigste kjennetegn - begynte å forsvinne i bakgrunnen, og ga plass til faktorer som autonomi og utrullingshastighet. Som et resultat begynte produsenter å forlate begrepet "mobilitet", flytte til "modularitet", og utvide sine løsninger - skalere modulære datasentre til størrelsen på standard datasentre, ikke begrenset til en separat beholder.

Modulære datasenterbegrensninger

En av ulempene med denne løsningen er vanskeligheten med å tilpasse seg ikke-standardutstyr (Hi-End-arrays med ikke-standard formfaktorer, med atypiske kjølesystemkrav). Slikt utstyr er vanskelig å passe inn i "klossene" til et modulært datasenter med sine tekniske systemer "skjerpet" under det klassiske opplegget. I dette tilfellet må du designe de riktige systemene spesifikt for det modulære datasenteret.

Noen ganger følger kundene veien til å danne et lite stasjonært datasenter for atypisk serverutstyr. Samtidig "bor" standardservere i nærheten modulært datasenter. Denne utstyrsdistribusjonsordningen er mer økonomisk enn å bygge et konvensjonelt datasenter for alle servere.

Det faktum at modulære datasentre "foretrekker" standardservere viser seg å være en klar fordel for kundene - dette utstyret er enkelt å administrere.

Den logiske konsekvensen er en reduksjon i driftskostnadene - kostnadene for vedlikeholdet.

Det må sies at volumet av kapitalinvesteringer i byggingen av et stasjonært datasenter vil være lavere enn når du kjøper et modulært. Når det gjelder et modulært datasenter, kjøper kunden veggene, metallkonstruksjonene og støttedelene i aggregatet. Men det er nødvendig å tenke helhetlig og ta hensyn til fremtiden: ved å redusere kostnadene forbundet med ingeniørutstyret til "tomme" områder som vil finne sted i et storskala standard datasenter, kan du oppnå tilbakebetalingen til en modulær data senter mye raskere - om 2-3 år vil kunden i pluss.

Det er restriksjoner på konstruksjonen av et modulært datasenter: et slikt datasenter krever en innendørs hangar eller et sted hvor det kan bygges. Det er umulig å implementere en "modulær" ordning i en bygning med ledige rom i de forskjellige delene.

Tar hensyn til funksjonene byggeplasser i Moskva (høy plasskostnad, kompleks teknisk tilstand byggestrukturer), er det økonomisk mer lønnsomt å bygge et modulbasert datasenter utenfor hovedstaden. I tillegg er det vanskeligere å skaffe nødvendig elektrisk kraft i Moskva enn i regionen.

Hvis vi snakker om energieffektivitet, kan de samme "grønne" teknologiene med hell implementeres i et modulært datasenter som i et stasjonært datasenter. Den eneste løsningen som ikke kan brukes her på grunn av dens massivitet er Kyoto-kjølehjulet.

Fremveksten av teknologi for å lage et datasenter (DC) basert på en sjøcontainer tilbake i 2007 vakte ikke mye oppmerksomhet fra eksperter: løsningen virket ikke bare en nisje, men snarere et eksperiment som en av lederne i det globale IT-markedet hadde råd til.

Nyheten viste seg imidlertid å være etterspurt, siden den løste problemet med rask distribusjon av en liten, men svært pålitelig DC. Konkurrenter satte pris på kuppet, som førte til fremveksten av en ny klasse DC-er, den såkalte. mobile DC-er. I motsetning til tradisjonelle DC-er, som er plassert i konvensjonelle betong- og murbygninger, leveres disse løsningene som ferdige produkter og kan installeres og betjenes også utendørs.

Den naturlige utviklingen av denne retningen var fremveksten av en ny klasse datasentre - modulære datasentre (Modular Datacenter, MDC). Teknologien for deres opprettelse lar deg raskt bygge og skalere et utplassert anlegg, og deretter øke det til nivået til store DC-er. I følge eksperter, fra øyeblikket av signering av kontrakten til idriftsettelse av en klassisk DC med et areal på 250-300 kvm. m blader fra 7-8 måneder til 1 år. For en lignende modulær DC, på grunn av det faktum at alle dens elementer er typiske, er tiden for design, levering, installasjon og igangkjøring redusert til 3-5 måneder.

Containere og modulære DC-er har sluttet å være en nisjetype virksomhet; Spredningen av modulære DC-er, økningen i antall ikke pilot-, men kommersielt lanserte anlegg er en av de betydelige trendene i det globale DC-markedet i 2012.

Fra container til modul

Tatt i betraktning de velkjente definisjonene av et modulært datasenter, kan flere tolkninger skilles: begrepet "modulært" (modulært datasenter, containerisert datasenter, containeriserte modulære datasentre) kan skjule systemer eller løsninger som er forskjellige i funksjoner og muligheter 1 .

I det første trinnet ble konseptet med modulære DC-er tradisjonelt knyttet til sjøcontainere (ISO-størrelse) og ble ansett som en funksjonelt komplett DC plassert i en standard metallkasse. Utviklingen av modularitetsbegrepet har imidlertid gradvis gått utover begrepet «container DC». Samtidig har sistnevnte ennå ikke mistet sin betydning og er fortsatt etterspurt i ulike sektorer av økonomien.

Siden en enhetlig terminologi ikke er dannet, er den ennå ikke i regelverket. Ekspertmiljøet vurderer flere alternativer for konseptet "modulær DC", mens alle går ut fra antagelsen om at slike DC-er er bygget på grunnlag av en containerbase. Det vil si, i henhold til definisjonen av IMS Research, et forhåndsmontert, fullstendig lukket mobilskall, der ALLE infrastrukturundersystemer til DC 2 er plassert.

Etter hvert som konseptet utviklet seg, begynte de fleste eksperter å lene seg mot et annet syn på modulære DC-er. Denne tilnærmingen forutsetter muligheten for foreløpig installasjon og testing av DC-ingeniør- og IT-delsystemer i en beholder, som er en metallstruktur i form av et rektangulært parallellepiped av vilkårlige, men standardiserte størrelser av leverandøren. Et eksempel er HP-Flexible Data Center-løsningen, der DC ble dannet av fire funksjonsblokker (containere) koblet sammen med en sentral node.

En annen tilnærming er basert på det faktum at ethvert lukket rom, inkludert en beholder (standardisert eller ikke), kan være basen til en modulær DC. Modulariteten til en slik DC skyldes det faktum at alle delsystemer i DC-infrastrukturen er satt sammen av standardblokker, moduler, prefabrikkert og testet på fabrikken. Disse blokkene er sammenføyd både innenfor én type og med alle andre typer, noe som gjør det mulig å skalere både et spesifikt delsystem og DC som helhet. Denne allsidigheten gjelder både maskinvare og programvare. Generelt kan det antas at ikke alle modulære DC-er er plassert i en beholder, men de fleste beholder-DC-er tilhører klassen av modulære DC-er.

Fremveksten av containeriserte og deretter modulære DC-er ga drivkraft til dannelsen av et nytt paradigme for å lage DC-er, den såkalte. Datasenter 2.0. Ifølge forfatterne proklamerer den en avvik fra det tradisjonelle DC-konstruksjonsalternativet, som var basert på DC-forretningsmodellen som en bygning, et leide lokaler. Det nye konseptet gjør det mulig å betrakte DC som et element i IT, et slags programvare- og maskinvarekompleks, der ulike tjenester tilbys kunder.

Økonomien i saken

Fordelene med modulære datasentre er betydelige: mobilitet når det gjelder levering av det ferdige produktet, rask distribusjon utenfor produksjonsstedet, design outsourcing og potensielle skattebesparelser.

I følge 451 Research reduserer bruken av modulære datasentre i de fleste tilfeller byggekostnadene, og i dette tilfellet vil besparelser i kapitalkostnader være fra 10 til 30%. I følge beregningene til Technoserv-spesialister koster en modulær DC 1,5-2 ganger billigere enn et leid eller kjøpt nettsted. Men hvis kunden har egne lokaler der det ikke er nødvendig å forsterke gulvene, overhaling, annet byggearbeid, da er kostnaden sammenlignbar, eller en modulær løsning blir 10-15 % dyrere.

Ifølge Schneider Electric gir bruk av en modulær tilnærming en reduksjon i kapital- og driftskostnader med 2-7 dollar i form av 1 W likestrøm. Forresters estimat stemmer overens med disse konklusjonene, ifølge at den tradisjonelle ordningen for å lage en DC med en kapasitet på 2 MW vil koste rundt 127,4 millioner dollar, mens en DC implementert i henhold til et modulært opplegg vil koste 77,1 millioner dollar 3 . I gjennomsnitt, ifølge eksperter, i 2012 kostet en modulær DC per 1 MW kunden 6 millioner dollar, eksklusiv levering og igangkjøring.

DCD etterretningsselskap sammenlignet kostnadene ved å lage en DC med en kapasitet på 4 MW i USA (ris. 1) . Ifølge hennes beregninger vil opprettelsen av en tradisjonell DC koste kunden 13-14% mer enn en modulær versjon. Den største fordelen oppnås ved å redusere kostnadene for installasjon og igangkjøring av utstyr. Det skal bemerkes at maskinvaren og programvaren for en modulær DC er betydelig dyrere.

Figur 1. Prissammenligning for en 4 MW DC i USA, USD-priser per 01.01.2013 Kilde: DCD Intelligence

Den utvilsomme fordelen med den modulære DC er fabrikkmonteringen, som lar deg eliminere de fleste teknologiske feilene før du sender modulen til kunden. Samtidig har modulære DC-er høy informasjon og fysisk sikkerhet, og overvåkingssystemene som leveres i settet er allerede basert på DCIM-løsninger.

Konseptet med modularitet innebærer åpenbart standardisering av løsninger: dette skaper grunnlaget for å forbedre kvaliteten og påliteligheten til enhetene og ytterligere redusere driftskostnadene. I tillegg til den korte distribusjonstiden, er en annen fordel dens høye skalerbarhet: den modulære løsningen minimerer kapitalkostnadene i det første trinnet, og gjør det i fremtiden mulig å øke kapasiteten til DC uten vesentlige endringer i den tekniske infrastrukturen.

Energisparing

Fordelene med modulære DC-er bør også inkludere høye energieffektivitetsverdier både for individuelle moduler og for den modulære DC som helhet. Dette skyldes det faktum at designere allerede på designstadiet til et slikt datasenter optimaliserer strømforbruket og varmespredningen til alle komponentene, under hensyntagen til designevnene.

Praktiske målinger har vist at bruk av en modulær design gir en betydelig økning i energieffektiviteten og lar deg oppnå betydelige kostnadsbesparelser. For eksempel, i DC IO Phoenix, etter resultatene fra 2012, var PUE-koeffisienten for delen der det hevede gulvet brukes 1,73, mens gjennomsnittlig årlig PUE for moduldelen var 1,41. For USA (Arizona) betyr dette årlige besparelser på $200 000/MW av IT-utstyrskapasitet 4 . Representanter for selskapet bemerker at den modulære delen av datasenteret utkonkurrerte sin motpart i hevede gulv delvis på grunn av den unike designen til modulene, som gir luftstrømkontroll mye mer effektivt enn ved bruk av varme og kalde ganger til dette formålet. Kanskje den eneste energieffektive løsningen som ennå ikke kan brukes i modulære DC-er, er Kyoto-kjølehjulet: dimensjonene passer ikke inn i dimensjonene til kjente moduler.

Brukssaker

Selv med tanke på begrensningene og tvilen som er diskutert nedenfor, når du introduserer modulære DC-er, er denne løsningen mest sannsynlig etterspurt i to tilfeller: hvis det er nødvendig å raskt erstatte en eksisterende DC eller bygge en ny i et begrenset område (reserve DC, DC i en ekstern gren av selskapet). Et annet område for bruk av modulære DC-er er colocation-tjenesten. Å bygge en storskala DC uten å være sikker på at plassen vil være etterspurt er en stor risiko for leverandøren. Modulær teknologi er fleksibel og lar deg minimere kapitalkostnadene helt i starten.

Ved plassering av en ny DC er det få av designerne som antar at 2-3 år etter at den er satt i kommersiell drift, kan det oppstå en situasjon som krever at DC flyttes til et annet distrikt eller til og med region. Når det gjelder en stasjonær DC, risikerer trekket hans å bli til et helvete for eierne. Ved en modulær DC vil demontering/montering og flytting ta minimal tid, og flyttingen kan optimaliseres: innsetting/fjerning av DC "modulært".

Modulære DC-er takler nesten smertefritt et slikt problem som økt strømforbruk av utstyr i stativer og behovet for å øke varmespredningen: selve designet sørger for en rask endring i parametrene til utstyret som plasseres.

Problemer med å implementere modulære datasentre

I tillegg til de utvilsomme fordelene, bemerker eksperter en rekke begrensninger i konstruksjonen av modulære DC-er: i noen tilfeller negerer prisen deres fordelene sammenlignet med tradisjonelle DC-er. I tillegg har mange leverandører ikke en enhetlig tilnærming til å standardisere blokker og moduler direkte, noe som noen ganger fører til en retur potensielle kunder til den tradisjonelle løsningen. Likevel mener IMS Research at den uunngåelige standardiseringen av produkter og veksten av produksjonsvolumer i fremtiden vil redusere kostnadene for modulære datasentre betydelig.

Konservativ tenkning av kunden bør betraktes som en viss barriere. For eksempel er forebyggende og planlagt vedlikehold tydelig for kunden. Men hvordan vil nyheten oppføre seg i tilfelle maskinvarefeil? Åpenbart, hvis reparasjon er nødvendig, vil standardinfrastrukturen ikke forårsake vanskeligheter, men problemene som kan oppstå i tilfelle reparasjon i et modulært datasenter kan forvirre kunden, spesielt siden det er usannsynlig at han raskt vil kunne eliminere funksjonsfeilen på egen hånd. Resultatet er det ekle problemet med leverandøravhengighet.

Hvis vi snakker om store og veldig store DC-er, for eksempel de som eies av slike giganter som Microsoft, Google eller Amazon, så her gjør egenskapene og fordelene til modulære DC-er dem til det foretrukne alternativet, både når det gjelder skalerbarhet og kostnadsoptimalisering. Men hvis vi snakker om at en liten likestrøm designes for eksempel med et strømforbruk på 200-300 kW, så er valget til fordel for en innovativ løsning i hvert fall ikke opplagt.

Et annet kriterium er området til DC under bygging. Ifølge eksperter er lønnsomhetsterskelen for modulære DC-er fortsatt på nivået 200-250 kvm. m. Både i henhold til kriteriet "kapasitet" og kriteriet "areal" snakker vi altså om mellomstore eller store DC-er, og for små DC-er er direkte konstruksjon optimal.

Fremtidige eiere av modulære DC-er bør ta hensyn til vanskelighetene med å tilpasse dem til ikke-standardutstyr, for eksempel Hi-End-arrayer med ikke-standard formfaktorer og atypiske krav til kjølesystem. I noen tilfeller er det ikke lett å integrere slikt utstyr i en modulær DC: dette kan kreve ytterligere avklaring av prosjektet. En palliativ er kjent når standardservere er plassert i en modulær DC, og ikke-standardiserte er installert i en DC bygget i henhold til det klassiske skjemaet.

I 2012 gjennomførte Uptime Institute en undersøkelse blant IT-fagfolk, og prøvde å finne ut de betydelige, etter deres mening, manglene ved modulære løsninger. Det største antallet respondenter (35  %) rapporterte at leverandørens tilbud ikke er fleksible nok og ikke oppfyller kravene deres (ris. 2) . 33 til % mener at mens modulære datasentre er for dyre. 32% av respondentene noterer seg den korte levetiden til slike løsninger, 30% indikerer nyheten av teknologien og mangelen på tilstrekkelig fullførte prosjekter, og 27% er misfornøyd med at løsninger er "låst" av produsenten. I tillegg 15% av respondentene klager på et lite utvalg produkter, og 12% er ikke fornøyd med blokkstørrelsen.

Ris. 2. Resultater av Uptime Institute-undersøkelsen blant IT-fagfolk Kilde: Uptime Institute, 2012

Nøkkelspørsmålet for ethvert prosjekt er tilbakebetalingsperioden. De fleste eksperter mener at de avgjørende faktorene for tilbakebetalingsperioden er forretningsmodellen og distribusjonsforholdene. Formålet med det modulære datasenteret er også viktig: vil det bli brukt som et kommersielt eller som et avdelingsdatasenter?

Modulære datasenterleverandører

Utvalget av leverandører av modulære DC-er og deres komponenter er ekstremt bredt. Her er det leverandører hvor modulære datasentre er hovedtypen virksomhet; leverandører av elementer i den tekniske infrastrukturen til klassiske DC-er og IT-løsninger; samt selskaper som leverer DC-tjenester.

Førstnevnte inkluderer: AST Modular, BladeRoom Group Ltd, Cannon Technologies, COLT Technology Services, Datapod, Flexenclosure, Elliptical Mobile Solutions, IO Datacenters, MDC Stockholm, NxGen Modular og Silver Linings Systems.

Hovedaktørene i det andre segmentet er Schneider Electric og Emerson Network Power. Blant leverandørene som leverer IT-løsninger til markedet er de mest kjente: Dell, HP, IBM, Cisco, SGI, Huawei, Google, Toshiba, Bull.

Denne gjennomgangen fokuserer på selskaper som tilhører de to første gruppene (se tabell).

Firmanavn / land

Bedriftsspesialisering

Nettadresse

Grunnleggende

produkt / modul

Tilstedeværelse av et representasjonskontor i den russiske føderasjonen Distributører / forhandlere i den russiske føderasjonen

AST Modular / Spania

Modulær DC

BladeRoom Group Ltd / Storbritannia

Modulær DC

BladeRoom System

Cannon Technologies / Storbritannia

Modulær DC

Cannon T4 modulære datasentre

COLT Technology Services / Storbritannia

DC tjenesteleverandør, leverandør av modulær DC

Flexenclosure / Sverige

Modulær DC-leverandør

Elliptiske mobile løsninger / USA

Mikromodulær DC

Micro-Modular Data Center™

IO datasentre / USA

Modulær DC

MDC Stockholm / Sverige

Modulær DC

NxGen Modular / USA

Modulær DC

Silver Linings Systems / USA

Modulær DC

Emerson Network Power / USA

DC-infrastrukturleverandør

SmartRow, SmartAisle, SmartMod

Schneider Electric / Frankrike

DC-infrastrukturleverandør

Datasentermodul,

Facility Power Module,

Luftkjølemodul,

Vannkjølemodul

Rittal / Tyskland

DC-infrastrukturleverandør

Bord. Liste over hovedaktørene i det modulære DC-markedet, per 01.10.2013 Kilde: selskapsdata

AST Modular

Det spanske ingeniørselskapet produserer en linje med modulære DC-er i ISO-beholdere i størrelsene 10", 20", 40" og 53". To versjoner er mulig. Det første alternativet er vert for IT-undersystemet og alle undersystemene til den tekniske infrastrukturen, inkludert brannslukkingsundersystemet. For den andre er det utviklet to moduler: IT Unit og Power Unit. 3-40 kW kan kobles til stativene som er plassert i IT-enheten, opptil 19 stativer kan plasseres i en 40" container. Infrastrukturen gir mulighet for høy pålitelighet av DC - opp til Tier IV-nivået. Løsningen på denne bestemt selskap ble valgt av VimpelCom for DC i Yaroslavl.

BladeRoom Group Ltd

Selskapet leverer et modulært datasenter under varemerket BladeRoom-system. Basert på modulen er det mulig å bygge en DC med et areal fra 600 til 60  000 kvm. m, mens varmeavledersystemet gir inngangseffekt fra 1,0 til 24 kW/stativ (luftkjølt). BladeRooms systemtekniske infrastruktur gjør det mulig å organisere DC-er med ulike nivåer av pålitelighet, Tier II-IV. I sistnevnte tilfelle brukes to uavhengige strøminnganger, UPS-er er konfigurert opp til 2N, dieselgeneratorer - også opp til 2N. Ventilasjonssystemet holder temperaturen på IT-utstyret i modulen mellom 18-24°C. Selskapet garanterer bestilling, levering og idriftsettelse av en modulær DC (120 racks) på 12 uker.

COLT teknologitjenester

Selskapet fra Storbritannia er kjent som en DC-tjenesteleverandør i Europa. For implementering av modulære datasentre tilbyr den en løsning under merkevaren Colt ftec datasenter. Løsningen inkluderer moduler Colt spaceflex, Colt powerflex, Colt coolflex. Arealet til IT-modulen Colt spaceflex varierer i området 125-500 kvadratmeter. m. Strømforsyningsmodulen gir effekt opp til 3 kW / kvm. m, eller opptil 230 kW/reol med 25 kW/reol. Selskapets siste implementering ble annonsert i juli 2013 i Nederland. Her, på et område på rundt 1000 kvm. m, selskapets moduler er i tillegg installert, inngangseffekten er 1,6 MW, opptil 20 kW / stativ med en garantert PUE på 1,21.

Flexenclosure

Flexenclosure er en svensk leverandør som utvikler og produserer prefabrikkerte modulære datasentre, samt deler av den elektriske kraftinfrastrukturen (primært for telekommunikasjonsindustrien). eCentre-løsningen er et prefabrikkert modulært datasenter for hosting og strømforsyning av server- og telekommunikasjonsutstyr. Den er optimalisert for å forbedre energieffektiviteten og minimere de totale eierkostnadene. eCentre Modular Data Center inkluderer strøm, kjøling og sikkerhetsinfrastruktur.

Elliptiske mobile løsninger

Elliptical Mobile Solutions grunnlagt i 2005  og inntar en særstilling blant leverandørene av modulære datasentre. Selskapet har spesialisert seg pån. mikromodulnivå (stativnivå) og produserer to hovedprodukter: R.A.S.E.R. HD og R.A.S.E.R. dx. Begge enhetene er funksjonelt komplette DC-er. R.A.S.E.R. DX er en blokk der 42 IT-enheter kan installeres med et totalt strømforbruk på ikke mer enn 12 kW. R.A.S.E.R. HD-en har også plass til 42 IT-enheter, men deres totale strømforbruk kan være i området 20-80 kW, som leveres av et vannkjølesystem. Samtidig kunngjør produsenten PUE-enheter som ikke er høyere enn 1,1 (!).

IO datasentre

IO Datacenters tilbyr infrastrukturmoduler og programvare for å lage modulære DC-er. IO.Anywhere-produktlinjen har tre typer moduler: CORE, EDGE og ECO.

IO.Anywhere CORE inkluderer tre typer moduler: opptil 18 50U-rack, opptil 50 50U-rack, og en strømmodul som gir en informasjonsmodul med et strømforbruk på opptil 600 kW. Pakken med levering av alle moduler inkluderer en programvarepakke for styring av strømdistribusjon og varmefjerning.

IO.Anywhere EDGE inkluderer to typer moduler: opptil syv 50U-stativ for å løse IT-oppgaver og en infrastrukturmodul for avbruddsfri strøm, kjøling og brannslukking.

MDC Stockholm

Et svensk selskap tilbyr en løsning basert på funksjonelt uavhengige moduler (servermodul, kjølemodul, avbruddsfri strømforsyningsmodul, kontrollmodul).

NxGen Modular

NxGen Modular ble grunnlagt relativt nylig, i 2009, men blant kundene kan du finne både Microsoft og Apple (DC i Prineville, Oregon, USA). Selskapet leverer både komponenter av modulære DC-er og direkte modulære DC-er. Blant hovedproduktene til selskapet er DC i en beholder: opptil 300 kW for IT-systemer; energi modul; en kjølemodul og en modul som integrerer strømforsyning, kjøledelsystemer og kabpå en felles plattform.

Sølvforingssystemer

Selskapet leverer moduler for DC-er i to versjoner: en modul standardisert av SLS og en modul basert på en ISO-container. Modulene passer sammen med strøm- og kjølemoduler. I det første alternativet kan fra 4 til 10 stativer (45U) plasseres i en eller to rader. Utformingen av modulen gir varmeavledning fra stativet i området 7-35 kW. I sistnevnte tilfelle kan det ikke plasseres mer enn fire stativer i modulen.

Det andre alternativet innebærer bruk av ISO-beholdere i standardstørrelser: 20, 40 eller 53 fot. I det første tilfellet består modulen av to beholdere, i sistnevnte er det fem. Modulen kan romme fra 8 til 50 stativer. Designet gir varmeavledning fra stativet når strømforbruket er i området 7-28 kW. Modulene annonseres uten avbruddsfri strømforsyning, samt uten slokkeanlegg. Sannsynligvis vil utvalget av enheter for disse undersystemene i ingeniørinfrastrukturen bli utført av prosjektintegratoren.

Emerson Network Power

Selskapet tilbyr flere produkter (SmartRow, SmartAisle og Smart-Mod) under det felles Smart Solutions-merket. SmartRow er en funksjonelt gjennomført åpen modul med 3-6 IT-stativ, en kjøleenhet, en strømforsyningsenhet og en brannslokkingsenhet. SmartAisle er en komplett åpen modul med opptil 40 dobbel-rads IT-stativ (20 X 2) for effekt opp til 10 kW/rack, kjøle- og strømsystemer.

Modulene leveres med Liebert iCOM-kontrollprogramvare og maskinvarekompleks. Avocent, Liebert Nform og Liebert SiteScan-systemer kan brukes til å fjernovervåke og kontrollere SmartAisle-infrastrukturelementer.

I motsetning til SmartRow og SmartAisle, er SmartMod en gruppe containeriserte moduler som lar deg installere et IT-system og kjøle- og kraftsystemer inne i en container. Det er mulig at strømforsyningssystemet er plassert i en egen modul.

For gjennomføring av prosjekter basert på disse produktene tilbyr selskapet SmartDesign designsuite. Alle komponenter som disse løsningene er basert på, er også produsert av Emerson Network Power.

Schneider Electric

Selskapet har utviklet et sett med moduler og DC-arkitektur basert på dem. Hovedmoduler: Datasentermodul, Facility Power Module (500 kW), Air Cooling Module (400 kW) og Vannkjølemodul (500 kW).

Segmentet med modulære datasentre tiltrekker seg interessen til et økende antall leverandører av infokommunikasjonsprodukter. For eksempel var leveranser av modulære datasentre i 2013 planlagt av NEC. Utviklingen vil bli brukt i store stasjonære DC-er. I Russland har flere firmaer annonsert sine produkter for dette segmentet. Pioneren var Sitronics-selskapet, som i 2010 lanserte Daterium container DC-er på markedet. For tiden tilbyr den Daterium 2 og Daterium 3. I 2013 presenterte Technoserv sitt modulære prosjekt IT Crew.

Introduksjonen av modulære DC-er begynte kl russisk marked. Bortsett fra stort prosjekt Vimpelcom, som ble nevnt ovenfor, i oktober 2013 kunngjorde Aeroflot, HP og Technoserv fullføringen av prosjektet for å lage et backup-datasenter for flyselskapet. Løsningen inkluderer et produkt fra selskapet "Technoserv" - et modulært datasenter "IT Crew".

Tall og fakta

Hvor stort er potensialet for det modulære DC-segmentet i fremtiden? IMS Research-eksperter, som ikke bruker begrepet modulære datasenter, men containeriserte datasentre (som inkluderer modulære, containeriserte og mobile DC-er) for å definere modulære datasentre, tror at leveransene av containeriserte datasentre i 2013 vil vokse med 40  % sammenlignet med 2012. I følge rapporten fra dette selskapet, i 2012, sammenlignet med 2011, ble volumet av dette segmentet av DC-markedet nesten doblet.

Container- og modulløsninger dukket opp i 2005-2006, men IMS Research-eksperter mener at dette markedssegmentet i hovedsak begynte å danne seg først i 2011. IMS Research antyder det Nord Amerika vil være det største markedet for modulære DC-er i 2012, men anslår at forsendelser til Kina vil dobles årlig i løpet av de neste fem årene på grunn av den raske veksten i DC-industrien i regionen og behovet for raskt å distribuere datasentre. En rekke eksperter mener tvert imot at den største suksessen venter modulære datasentre i de fremvoksende markedene i Asia og Afrika.

Det er mindre optimisme blant TechNavio-eksperter. De foreslår at i 2012-2016. i USA vil markedet for modulære DC-er vokse med 11,2 % 5 .

Ifølge DCD intelligens, den største relative veksten i investeringer i modulære DC-teknologier i 2011-2013. var i Russland og Frankrike (ris. 3) . Her er det tilsynelatende verdt å snakke om relativ fremfor stor bruttovekst. Likevel kan russiske IT-selskaper i en slik situasjon forsøke å lage sine egne løsninger – også basert på importerte komponenter. DCD etterretning antar at det er en viss interesse for de diskuterte løsningene i BRIC-landene.

Ris. 3. Relativ vekst av investeringer i modulære DC-teknologier, 2011-2013

Som alltid prøvde vi å gjøre modelloppgaven så nær som mulig virkelige prosjekter. Så, en fiktiv kunde planla for 2015 å bygge et nytt bedriftsdatasenter ved bruk av tradisjonell teknologi (starter med kapitalkonstruksjon eller gjenoppbygging av bygninger). Imidlertid tvang den forverrede økonomiske situasjonen ham til å revurdere planene sine. Det ble besluttet å forlate storskala konstruksjon, og å løse dagens IT-problemer - å organisere et lite modulært datasenter i gården på sitt territorium.

I første omgang er datasenteret pålagt å sørge for installasjon av 10 rack med IT-utstyr med en kapasitet på opptil 5 kW hver. Samtidig bør løsningen være skalerbar på to måter: etter antall rack (i fremtiden, med en gunstig økonomisk situasjon og utvikling av kundens virksomhet, bør datasenteret romme opptil 30 rack) og av kraften til et enkelt stativ (20 % av alle stativer skal støtte driften av utstyr med en effekt på opptil 20 kW på stativet). Den foretrukne "kvante" av bygning - 5 stativer. For mer informasjon, se "Oppgave"-sidefeltet.

OPPGAVE

Den fiktive kunden planla for 2015 å bygge et nytt bedriftsdatasenter ved bruk av tradisjonell teknologi (starter med en større rekonstruksjon av bygningen). Imidlertid tvang den forverrede økonomiske situasjonen ham til å revurdere planene sine. Det ble besluttet å forlate storskala konstruksjon, og for å løse dagens IT-problemer ble det besluttet å organisere et lite modulært datasenter.

Oppgave. Kunden kommer til å distribuere et lite, men svært skalerbart datasenter på sitt industrielle territorium. I utgangspunktet er det nødvendig å sikre installasjon av 10 stativer med IT-utstyr, kraften til hvert stativ er opptil 5 kW. I dette tilfellet må løsningen være skalerbar på to måter:

  • med antall stativer: i fremtiden, med en gunstig økonomisk situasjon og utvikling av kundens virksomhet, vil datasenteret måtte romme opptil 30 stativer;
  • ved individuell stativeffekt: 20 % av alle stativer skal kunne betjene utstyr med en effekt på opptil 20 kW (per stativ).

Det anbefales å investere i utviklingen av datasenteret etter behov. Den foretrukne "kvante" av bygning - 5 stativer.

Nettstedsfunksjon. Plassen er utstyrt med strøm (maksimal inngangseffekt - 300 kW) og kommunikasjonskanaler. Tomtens dimensjoner er tilstrekkelige til å romme eventuelt eksternt utstyr, som dieselaggregat, kjølere etc. Tomten ligger innenfor bygrensene, noe som stiller ytterligere vilkår til støynivået fra utstyret. I tillegg innebærer plasseringen av datasenteret i byen et høyt nivå av luftforurensning.

Ingeniørsystemer. Feiltoleransenivå - Tier II.

Avkjøling. Kunden spesifiserte ikke en spesifikk kjøleteknologi (freon, kjøler, adiabatisk, naturlig kjøling) - valget er overlatt til designernes skjønn. Det viktigste er å sikre effektiv varmefjerning ved kapasiteten til stativer spesifisert i oppgaven. Minimering av energiforbruk er velkommen - det er nødvendig å oppfylle begrensningene for tilført strøm.

Uavbrutt strømforsyning. Den spesifikke teknologien er heller ikke spesifisert. Autonom strømforsyningstid i tilfelle en ulykke - minst 10 minutter fra batterier med overgang til arbeid fra et dieselgeneratorsett. Drivstofftilførselen er etter designernes skjønn.

Andre tekniske systemer. Prosjektet bør inkludere følgende systemer:

  • automatisk gass brannslokkingsinstallasjon (AUGPT);
  • tilgangskontroll og styringssystem (ACS);
  • strukturert kablingssystem (SCS);
  • hevet gulv og andre systemer - etter designernes skjønn.

Datasenteret må ha integrert styringssystem gir overvåking og kontroll av alle større systemer: mekaniske, elektriske, brann-, sikkerhetssystemer, etc.

I tillegg:

  • kunden ber om å angi perioden for implementering av datasenteret og funksjonene til levering av utstyr (tilgangsveier, spesielle mekanismer for lossing / installasjon);
  • hvis designeren anser det som nødvendig, kan du umiddelbart tilby IT-utstyr til datasenteret.

Vi henvendte oss til ledende modulære datasenterleverandører med en forespørsel om å utvikle prosjekter for kunden. Som et resultat ble det oppnådd 9 detaljerte løsninger. Før vi begynner å se på dem, la oss merke oss at Journal of Networking Solutions / LAN har sporet trender og prøvd å klassifisere modulære datasentre i mange år. For eksempel er forfatterens artikler "" (LAN, nr. 07–08, 2011) og "" (LAN, nr. 07, 2014) viet disse spørsmålene. I denne artikkelen vil vi ikke kaste bort tid på å presentere trender, men vi henviser de som er interessert til de angitte publikasjonene.

(IKKE) KONSTRUKTIV TILNÆRING

Svært ofte tilhørighet til kategorien "Modular Data Center" bestemmes av typen konstruksjon. I den første fasen av dannelsen av dette markedssegmentet ble "modulær" vanligvis kalt datasentre basert på standard ISO-beholdere. Men det siste året eller to har en bølge av kritikk falt på containerdatasentre, spesielt fra løsningsleverandører. ny bølge som fremhever det faktum at standard containere ikke er optimalisert for å huse IT-utstyr.

Det er feil å klassifisere datasentre som modulære basert på type konstruksjon. "Modularitet" bør bestemmes av muligheten for fleksibel skalering gjennom en konsekvent økning i antall stativer, kapasiteten til avbruddsfrie strømforsyningssystemer, kjøling og andre systemer. Strukturen kan være annerledes. Så vår kunde mottok forslag basert på standard ISO-beholdere, spesialiserte beholdere og/eller blokker, modulrom og strukturer montert på stedet (se tabell).

Huawei-spesialister har for eksempel valgt for vår kunde en løsning basert på standard ISO-beholdere, selv om selskapets portefølje av løsninger inkluderer modulære datasentre basert på andre typer konstruksjoner. Mikhail Salikov, direktør for datasenterretningen til dette selskapet, forklarte dette valget med at den tradisjonelle containerløsningen for det første er billigere, for det andre lar den prosjektet implementeres raskere og for det tredje er det mindre "krevende" for forberedelse av stedet. Etter hans mening, under de nåværende forholdene, under hensyntagen til forholdene satt av kunden, kan dette alternativet vise seg å være optimalt.

Flere forslag som mottas av kunden på en gang er basert på containere, men ikke standard (ISO), men spesialdesignet for å bygge modulære datasentre. Slike beholdere kan dokkes til form enkelt plass maskinrom (se for eksempel prosjektet til Schneider Electric).

En funksjon ved de containerbaserte alternativene er de strengere kravene til transportmidler og installasjon. For å levere NON-ISO25 containermoduler til Schneider Electric kreves det for eksempel en lavplattformtilhenger med en brukbar lengde på minst 7,7 m. Det kreves en kran med en løftekapasitet på minst 25 tonn for lossing og installasjon (se fig. . 1).

Ved bruk av mindre moduler er kravene mykere. For eksempel transporteres CommScope DCoD-moduler i en standard eurotruck, og deres lossing og installasjon kan utføres av en konvensjonell gaffeltruck med en nyttelastkapasitet på minst 10 tonn (se fig. 2).

Til slutt, for installasjon av rask transport dima (på stedet) strukturer, for eksempeltiltak av MTsOD NOTA fra Utileks-selskapet, er det ikke nødvendig med tunge løftemekanismer i det hele tatt - det er nok ålaster med en løftekapasitet på 1,5 tonn.

Alle komponentene i denne IDC er oversatt demonteres i en standard ISO-beholder, noe som ifølge Utilex-representanter reduserer kostnadene og leveringstiden til utplasseringsstedet betydelig. Denne muligheten er spesielt viktig for avsidesliggende steder uten utviklet transportinfrastruktur. Som et eksempel er prosjektet for implementering av et distribuert datasenter i Magadan-regionen for Polyus Gold gitt: den totale lengden på leveringsruten var mer enn 8900 km (5956 km med jernbane, 2518 km til sjøs, 500 km med vei).

STRØMFORSYNING

Som en del av systemet garantert avbruddsfri strømforsyningvalg av ulike alternativer forav prosjektet er liten - bare den klassiske "trioen": statisk UPS, batterier og et dieselgeneratorsett (DGU). Det er ikke rimelig å vurdere dynamisk UPS som et alternativ ved slike kapasiteter.

De fleste prosjekter bruker modulære UPS-er som skaleres opp ved å legge til strømmoduler. Monoblock UPS-er tilbys også - i dette tilfellet økes systemeffekten ved å installere UPS-en parallelt. Noen selskaper indikerte spesifikke UPS-moduler, andre begrenset seg til generelle anbefalinger ().

Situasjonen er lik med DGU: noen selskaper anbefalte spesifikke modeller, andre begrenset seg til å beregne kraftenness. Mer detaljert informasjonfor DSU er presentert i full beskrivelseniyah-prosjekter tilgjengelig på nettstedet .

KJØLING

Men det er mange alternativer for kjøling. Mest av av prosjekter er basert på freon klimaanlegg - ikke den mest energieffektive, men den billigste løsningen. To selskaper - Huawei og Schneider Electric - har stolt på kjølesystemer. Som Denis Sharapov, forretningsutviklingssjef i Schneider Electric, forklarer, er et kjølesystemprosjekt med freon-klimaanlegg billigere, men for å sikre feiltolerant drift vil det være nødvendig å installere en mye større UPS (for å drive kompressorer), som et resultat , vil kostnadene for prosjekter være tilnærmet lik. Derfor, basert på beregningene, valgte Schneider-spesialisten kjølealternativet - mer pålitelig og funksjonelt. (For nødkjøling i kjølesystemer brukes en kaldtvannslagringstank, og derfor er behovet for avbruddsfri strøm mye lavere - det er nok å drive kun pumpene for å pumpe kjølevæsken fra UPS-en.)

CommScope-løsningen anbefalt til kunden av Croc-spesialister bruker direkte frikjøling med adiabatisk kjøling. Ifølge Alexander Lasy, teknisk direktør i Smartbyggavdelingen på Krok, er bruken av direkte frikjøling nesten hele året gir betydelige energibesparelser, og det foreslåtte (i CommScope-løsningen) adiabatiske kjølesystemet krever ikke seriøs vannbehandling, siden fukting skjer ved å bruke rimelige utskiftbare elementer. Kostnaden for utskifting er ikke sammenlignbar med kostnaden for dypvannsbehandling. For ytterligere kjøling og reservekjøling av datasenteret i dette tilfellet, ifølge Croc-spesialisten, er det mest hensiktsmessig å bruke et freonsystem med direkte fordampning (DX). I nærvær av frikjøling og adiabatisk kjøling er den totale brukstiden for backup-/tilleggssystemet i løpet av året ekstremt liten, så det er ingen vits i å strebe etter dets høye energieffektivitet.

Selskapet LANIT-Integration foreslo et indirekte frikjølingssystem med adiabatisk kjøling. I et slikt system er det ingen blanding av eksterne og interne luftstrømmer, noe som er spesielt viktig når man skal plassere et datasenter i en by på grunn av høy luftforurensning. Kjølesystemet ble valgt som et tillegg i dette prosjektet - det vil bare slås på i de mest ugunstige periodene for hovedsystemet.

UMULIG OPPDRAG?

Det var en skjult hake i oppgaven vår, som de fleste av deltakerne ikke la merke til (eller rettere sagt ikke ønsket å legge merke til). Kundespesifisert total IT-utstyrseffekt (240kW) og maksimal inngangseffekt (300kW) gir kun 60kW for ingeniør- og andre støttesystemer. Oppfyllelsen av denne betingelsen krever bruk av svært energieffektive tekniske systemer: PUE = 1,25 (300/240).

Teoretisk sett er oppnåelsen av en slik indikator ganske mulig ved å bruke direkte frikjøling og adiabatisk kjøling, foreslått av Croc og CommScope. Og sistnevnte har eksempler på prosjekter i utlandet, hvor man oppnår en enda lavere PUE-verdi. Men effektiviteten til disse kjøleteknologiene er svært avhengig av nivået av forurensning og klimatiske parametere på stedet. I oppgavesettet ble det ikke gitt tilstrekkelige data, så på dette stadiet er det umulig å utvetydig si om direkte frikjøling vil bidra til å "oppfylle" begrensningen på inngangseffekten.

I løsningen med indirekte frikjøling foreslått av LANIT-Integration er den beregnede PUE 1,25–1,45. Dermed passer ikke dette prosjektet innenfor de gitte begrensningene. Når det gjelder løsninger med kjølesystemer og freon-klimaanlegg, er energieffektiviteten enda lavere, noe som betyr at det totale datasenterforbruket er høyere.

For eksempel, ifølge beregningen av Denis Sharapov, er det maksimale strømforbruket til den foreslåtte Schneider Electric-løsningen 429,58 kW - ved maksimal IT-belastning (240 kW), omgivelsestemperatur over 15 ° C, på tidspunktet for lading av UPS-batteriene, tar hensyn til alle forbrukere (inkludert inkludert overvåkingssystemer, AGPT, intern belysning, ACS). Dette er 129 kW mer enn den tilførte effekten. Som en løsning på problemet foreslo han å utelukke høyt belastede stativer (20 kW) fra konfigurasjonen eller å sikre regelmessig tilførsel av drivstoff for å sikre kontinuerlig drift av et dieselgeneratorsett med en kapasitet på minst 150 kW.

Selvfølgelig er det svært usannsynlig å kjøre et datasenter med 100 % belastning – i praksis skjer dette nesten aldri. Derfor, for å bestemme det totale strømforbruket til MDC, foreslo GreenMDC-eksperter å ta etterspørselsfaktoren for den totale kraften til IT-utstyr lik 0,7. (I følge deres data, for bedriftsdatasentre, er verdien av denne koeffisienten i området fra 0,6 til 0,9.) Gitt denne forutsetningen vil den beregnede effekten for turbinhallen være 168 kW (24 skap á 5 kW; 6 skap på 20 kW; etterspørselsfaktor - 0,7: (24x5 + 6x20) x0,7 = 168).

RETNING AV OPPGAVEN

Men selv om man tar hensyn til bemerkningen ovenfor om ufullstendig lasting, for å gi pålitelig strømforsyning til datasenteret, vil kunden tilsynelatende måtte bestemme seg for å øke strømforsyningen til nettstedet og forlate drømmen om å lage en data senter med en PUE-verdi på nivå med verdens beste indikatorer for Facebook- og Google-skalaobjekter. Ja, og slik energieffektivitet er ikke nødvendig for en vanlig bedriftskunde - spesielt gitt de lave strømkostnadene.

Ifølge Alexander Lasy, siden kapasiteten til datasenteret er veldig liten, gir det ikke mye mening å være mer oppmerksom på energieffektivitet, siden kostnadene for løsninger som kan redusere strømforbruket betydelig kan overstige mengden besparelser over perioden Livssyklus DPC.

Så, for at kunden ikke skal stå uten et datasenter i det hele tatt, fjerner vi begrensningen på tilført strøm. Hvilke andre justeringer er mulig? Vær oppmerksom på at mange bedrifter nøye oppfylte kundens ønsker angående antall / kapasitet på stativer og "kvantum" for å bygge opp til 5 stativer. Og Croc- og CommScope-selskapene tilbød enda et mindre "kvante" - moduler for 4 stativer.

Imidlertid avvek en rekke selskaper, basert på standarddesignene som er tilgjengelige i deres forslagsportefølje, noe fra betingelsene for problemet. For eksempel, som Alexander Perevedentsev, sjefspesialist for salgsstøtteavdelingen hos Technoserv, bemerker, "i henhold til vår erfaring med dette øyeblikket utvikling (skalering) av datasentre etter klynger med et trinn på 15–20 rack med en gjennomsnittlig effekt per rack på minst 10 kW er relevant.» Derfor tilbød Technoserv en løsning for 36 stativer på 10 kW elektrisk kraft per stativ med et trinn på å bygge opp 18 stativer. Containere for 18 stativer dukker også opp i Huawei-prosjektet, slik at kunden til slutt kan få 6 stativer mer enn forespurt.

FORBEREDELSE AV PLASS

Stedet for installasjon av datasenteret bør være forberedt - i det minste jevnet. For datasenteret som tilbys kunden av Croc, er det nødvendig å ha et betongfundament i form av en bærende plate, designet for den tilsvarende belastningen.

I tillegg skal tomten utstyres med lavvann for drenering av regn og smeltevann. "Siden det noen ganger er ganske mye snø i landet vårt, for å unngå brekkasje og lekkasjer, er det lurt å utstyre stedet med skur som er lett å montere," anbefaler Alexander Lasy.

Bygging på stedet for et betongfundament er gitt i de fleste prosjekter. Samtidig påpekte en rekke eksperter at kostnadene ved å bygge et fundament ikke er sammenlignbare med den totale kostnaden for prosjektet, så det er ikke verdt å spare på det.

Utileks-selskapets NOTA MTsOD skiller seg ut, som det ikke kreves stiftelse for. Et slikt datasenter kan installeres og kjøres på alle jevn grunn med en helning på ikke mer enn 1-2%. Detaljer er nedenfor.

TID…

Som Alexander Lasy bemerker, er den viktigste og mest tidkrevende prosessen utformingen av et datasenter, siden feil gjort på designstadiet er ekstremt vanskelig å eliminere etter at modulene er frigitt fra produksjon. Ifølge ham tar det vanligvis fra 2 til 4 måneder å utarbeide og godkjenne TOR, designe, avtale og godkjenne prosjektet. Hvis kunden velger standardløsninger, så kan prosessen reduseres til 1-2 måneder.

Skulle kunden velge CommScope-løsningen, vil produksjon og levering av ferdigmonterte moduler og all tilhørende maskinvare ta 10-12 uker for startsett og 6-8 uker for tilleggsmoduler. Montering av et startsett for en linje med 5 moduler på et forberedt sted - ikke mer enn 4-5 dager, igangkjøring - 1-2 uker. Etter avtale og godkjenning av prosjektet, inngåelse av kontrakten og betaling av nødvendig forskuddsbetaling (vanligvis 50–70%), vil datasenteret være klart til drift om 12–14 uker.

Prosjektgjennomføringsperioden basert på LANIT-integrasjonsløsningen er ca. 20 uker. Samtidig vil det ta ca 4 uker for prosjektering, 8 uker for produksjon (inkludert kjøleanlegg), 4 uker for levering, og ytterligere 4 uker for installasjon og oppstart.

Lignende vilkår er indikert av andre selskaper, og det er ingen stor forskjell hvor monteringsfasilitetene er lokalisert - i utlandet eller i Russland. La oss si at den gjennomsnittlige nøkkelferdige leveringstiden for Schneider Electric MDC er 18–20 uker (uten design). Varigheten av hovedstadiene (relatert til installasjonen av de første og påfølgende modulene og deres levering på nøkkelferdig basis) under byggingen av Utilex NOTA MDC er fra 12 uker. Og varigheten av stadiene knyttet til utvidelsen av hver modul (legger til 5 stativer og tilsvarende tekniske systemer til den) er fra 8 uker.

Disse datoene er åpenbart omtrentlige. Mye avhenger av geografisk plassering kundested, kvalitet på arbeidsorganisering og samhandling av alle prosessdeltakere (kunde, integrator og produsent). Men i alle fall, fra ideen til full gjennomføring av prosjektet tar bare seks måneder eller litt mer. Dette er 2–3 ganger mindre enn når du bygger et datasenter med tradisjonelle metoder (med kapitalkonstruksjon eller bygningsrekonstruksjon).

… OG PENGER

Informasjon om kostnad har vi ikke fått fra alle deltakerne. Ikke desto mindre lar de innhentede dataene oss få en ide om strukturen og den omtrentlige kostnadsbeløpet.

Oleksandr Lasyi beskrev i detalj for kunden strukturen og rekkefølgen av kostnadene hans når han valgte en løsning fra Croc og CommScope. Så, 10% vil gå til design, 40% - for å lansere startsettet (12 IT-stativ), 5% - for å fullføre den første linjen (utvidelse + 4 IT-stativ), 35% - for å starte den andre linjens startsett ( 8 IT-rack), 5% - for utvidelse (+4 IT-rack) og ytterligere 5% - for ytterligere utvidelse (+4 IT-rack). Som du kan se er fordelingen av kostnadene jevn - det er akkurat dette kunden ønsket da han tenkte på å velge et modulært datasenter.

Mange kunder tror at etter de siste svingningene i rubelkursen, er lokalisering av de foreslåtte løsningene viktig for å redusere og / eller fikse kostnadene. I følge Alexander Perevedentsev har Technoserv-ansatte aktivt søkt etter produsenter av husholdningsutstyr de siste seks månedene, spesielt innen tekniske systemer. For øyeblikket, når du implementerer et datasenter, er lokaliseringsgraden av ingeniørsystemer 30%, og i løsninger med høy tilgjengelighet, som inkluderer siste versjon modulært datasenter "IT Crew", - ikke mindre enn 40%. Kostnaden for IT Crew-datasenteret for 36 rack med en kapasitet på 10 kW hver med mulighet for ytterligere utvidelse og Tier III-feiltoleranse vil variere fra $65 000 til $100 000 per rack. Når det konverteres til en kurs på 55 rubler. per dollar viser det seg fra 3,5 til 5,5 millioner rubler. bak disken. Men dette, understreker vi, er en Tier III-løsning, mens de fleste andre selskaper tilbød et Tier II-nivå, etter kundens ønske.

Hvis Technoserv ikke klarte å skryte av et lokaliseringsnivå på 40%, holdt representantene for Utileks beskjedent taus om det faktum at i deres løsning er dette tallet betydelig høyere, siden alt det viktigste ingeniørutstyret, inkludert klimaanlegg og UPS, er av innenlandsk produksjon. Kostnaden for Utilex MODC NOTA (basert på 24 stativer på 5 kW og 6 stativer på 20 kW) er $36 400 per stativ. Med en kurs på 55 rubler. for 1 dollar viser det seg omtrent 2 millioner rubler. bak disken. Dette beløpet inkluderer alle kostnader ved levering til lokasjonen i Den russiske føderasjonen og kostnadene for alt installasjons- og lanseringsarbeid, inkludert reise- og faste kostnader. I følge Utilex-representanter kan den totale kostnaden for MDC reduseres ved å plassere hele infrastrukturen i én stor NOTA-modul (5,4x16,8x3 m): 10 rack på første trinn og legge til 5 rack i neste. Men i dette tilfellet må kapitalutgiftene i den første fasen økes, og hvis kunden nekter å skalere IDC, vil midlene bli brukt ineffektivt.

Dmitry Stepanov, direktør for forretningsområdet Energy Center ved President-Neva, estimerte kostnaden for én modul (beholder) for 10–12 stativer til 15–20 millioner rubler. Dette beløpet inkluderer kostnadene for alle tekniske systemer inkludert i modulen, inkludert klimaanlegg og UPS, men inkluderer ikke kostnaden for DGS. Ifølge ham, når du velger billigere tekniske komponenter i stedet for UPS-er og klimaanlegg fra Emerson Network Power, kan kostnadene reduseres til 11-12 millioner rubler.

Kostnaden for GreenMDC-prosjektet i den første fasen er omtrent 790 tusen euro (forberedelse av nettstedet - 130 tusen euro, den første fasen av WDC - 660 tusen euro). Totalkostnaden for hele prosjektet for 32 rack, inkludert DGU, er 1,02 millioner euro. Med valutakursen på tidspunktet for utarbeidelse av materialet (59 rubler per euro), viser det seg 1,88 millioner rubler i form av ett stativ. Dette er et av de mest lønnsomme alternativene.

Generelt, hvis vi snakker om en løsning basert på freon-klimaanlegg, kan nivået på 2 millioner rubler per stativ tjene som et "referansepunkt" for kunden. Alternativet basert på kjølesystemet er omtrent 1,5 ganger dyrere. Dessuten er det usannsynlig at forskjellen i kostnadene for "russiske" og "importerte" løsninger vil variere mye, siden til og med innenlandske klimaanlegg ("Utileks") bruker importerte komponenter. Dessverre produseres ikke moderne kompressorer i Russland, og ingenting kan gjøres med det!

FUNKSJONER AV DE FORESLÅTE LØSNINGENE

"GrandMotors"

Hoved-IT-modulen ("Machine Hall") er dannet på grunnlag av en metallbeholderblokk og består av et utstyrsrom og en vestibyle. For å sikre et gitt "kvantum" av vekst i maskinvarerommet til hver IT-modul, 4 stativer med en kapasitet på opptil 5 kW (kjøling med in-line klimaanlegg) og 1 stativ med en kapasitet på opptil 20 kW (kjøling) av et lignende klimaanlegg direkte festet til det) er installert (se fig. 3). UPS-en med batterier er plassert i samme rom. Som klimaanlegg tilbys kunden (å velge mellom) Emerson CRV eller RC Group COOLSIDE EVO CW enheter, og som UPS - GMUPS Action Multi eller ABB Newave UPScale DPA serie enheter.

Vestibylen rommer elektriske tavler og utstyr for gassslokkingsanlegget. Ved behov er det mulig å organisere arbeidsplass for ekspeditør eller vaktpersonell i vestibylen.

Som Daniil Kulakov, teknisk direktør for GrandMotors, bemerker, er bruken av in-line klimaanlegg diktert av tilstedeværelsen av stativer av forskjellige typer når det gjelder kraft. Når det gjelder stativer med samme kapasitet, for å øke effektiviteten ved å fylle maskinromsområdet, er det mulig å bruke utendørs klimaanlegg (for eksempel Stulz Wall-Air) - denne løsningen vil redusere energiforbruket til kjølesystem ved bruk av frikjølingsmodus.

På det første trinnet er det nok å montere to "Engine Hall"-moduler og en "Power Module" på stedet - sistnevnte huser GMGen Power Systems DGU fra SDMO Industries for 440 kVA. Deretter er det mulig å øke den tilgjengelige datakraften til datasenteret med en diskrethet på én "Machine Room"-modul (5 racks), mens den installerte kraften til DGU er designet for 6 slike moduler. Overvåkings- og kontrollsystemet gir tilgang til hvert enkelt utstyr og implementeres på toppnivå på grunnlag av et SCADA-system.

Alle planlagte ingeniørløsninger gir N+1 redundans (med unntak av DGS - om nødvendig kan en backup-generator installeres). Den foreslåtte arkitekturen for bygningstekniske systemer lar deg øke redundansnivået allerede under opprettelsen av et datasenter.

Croc/CommScope

CommScope, verdens ledende leverandør av kablingsinfrastrukturløsninger, er relativt ny på det modulære datasentermarkedet, noe som lar det løse mange av manglene til førstegenerasjonsprodukter. Hun foreslo å bygge datasentre fra prefabrikkerte moduler med høy tilgjengelighet, og kalte løsningen hennes Data Center On Demand (DCoD). Disse løsningene er allerede installert og vellykket brukt i USA, Finland, Sør-Afrika og andre land. I Russland, med deltakelse av Croc, er tre DCoD-prosjekter under utvikling.

DCoD-basemoduler er designet for å passe til 1, 4, 10, 20 eller 30 stativer med IT-utstyr. Alexander Lasy, teknisk direktør for Krok Smart Buildings-avdelingen, som presenterte prosjektet for kunden vår, foreslo å sette sammen løsningen fra standard DCU-4-moduler designet for 4 stativer (du kan også bestille ikke-standardiserte, men dette vil øke kostnadene av prosjektet med ca. 20 %). En slik modul inkluderer kjølesystemer (inkludert automatisering for kontroll), primærdistribusjon og strømsvitsjing.

Startblokken vil bestå av 4 typiske moduler (se fig. 4). Dens totale kapasitet er 16 rack, som vil tillate 6 redundante rackplasser for å romme en UPS med nødvendig strøm og batteri, samt utstyr for sikkerhets- og overvåkingssystemer. Den endelige konfigurasjonen av "mashroom" (linjen) vil bestå av 5 moduler med 4 stativer, det vil si totalt 20 stativer, hvorav 2 kan ha en total kapasitet på IT-utstyr opp til 20 kW. Samtidig vil 1 modul (4 stativer) tildeles et avbruddsfri strømforsyningssystem (UPS) og kan isoleres fra hovedturbinhallen med en skillevegg for å begrense tilgangen for vedlikeholdspersonell.

Den andre linjen er helt lik design som den første, men startpakken består ikke av 4, men av 3 moduler for 4 stativer. Den vil umiddelbart tildele plass til UPS, sikkerhetssystemer og overvåking. Som Alexander Lasy bemerker, som et resultat av akkumuleringen av driftserfaring for den første linjen, kan det imidlertid gjøres justeringer av den innledende konfigurasjonsplanen.

Kraften til IT-utstyret til den første linjen i den første installasjonen (12 stativer) vil være omtrent 60 kW, og etter utvidelsen (16 stativer) - 90 kW, inkludert det kanaldannende utstyret til leverandørene og hovedbryterne til dataene senter. For å sikre driften av datasenteret i tilfelle eksternt strømbrudd, er det nødvendig å sørge for uavbrutt strømforsyning til viftene og kontrollerene til kjølesystemet. Effekten til dette utstyret vil være omtrent 10 kW mer. Totalt vil effekten til UPS-en overstige 100 kW. En modulær UPS for en slik last med en autonomitid på minst 10 minutter og et strømkoblingsskap vil oppta omtrent 4 rackplasser.

Som nevnt ovenfor er høydepunktet i den foreslåtte løsningen å bruke for direkte frikjøling med adiabatisk fukting. Et freonsystem (DX) er foreslått for tilleggskjøling og reservekjøling.

"LANIT-integrasjon"

Kunden ble tilbudt en løsning basert på det modulære fysiske beskyttelsesrommet SME E-Module (se fig. 5): fra standardkomponenter kan beskyttede rom av enhver geometri for et datasenter med et areal fra 15 til 1000 m 2 raskt bygges opp . For vår oppgave er arealet av rommet minst 75 m 2. Blant designfunksjonene er et høyt nivå av fysisk beskyttelse mot ytre påvirkninger (på grunn av stålstøtterammen av bjelke-søyletypen og forsterkede strukturelle paneler), brannmotstand (60 min i henhold til EN1047-2) og støv- og fuktbeskyttelse (IP65). Gode ​​varmeisolasjonsegenskaper lar deg optimere kostnadene for kjøling/oppvarming.

SME FAC (Fresh Air Cooling) indirekte frikjølingssystem med adiabatisk fukting ble valgt for IT-utstyrskjøling. I et slikt system er det ingen blanding av eksterne og interne luftstrømmer. SME FAC-blokker ble valgt for prosjektet, noe som gjør det mulig å fjerne opptil 50 kW varme hver (for 10 stativer på 5 kW hver). De vil bli lagt til etter behov - med en økning i antall stativer, samt med en økning i belastningen på individuelle stativer opp til 20 kW.

Rundt E-modulen MPFZ er det nødvendig å gi en sone for installasjon og vedlikehold av SME FAC kjøleenheter med en omkretsbredde på minst 3 m. I tillegg sørger prosjektet for et kjølesystem, men det vil bli aktivert kun i de mest ugunstige periodene for hovedsystemet. I følge LANIT-Integration vil datasenteret kunne operere uten å slå på kjølere opptil 93 % av tiden per år (ved en utelufttemperatur på opptil +220C).

Fordelingen av kald luft vil skje under det opphøyde gulvet. Om nødvendig kan MDC utstyres med SME Eficube kaldrad containeriseringssystem.

UPS-en er implementert på grunnlag av monoblokk Galaxy 5500 UPS-er fra Schneider Electric. I det første trinnet vil 2 Galaxy 5500-kilder på 80 kVA bli installert. Deretter vil det nødvendige antallet UPS-er bli lagt til parallellen. Det kan være opptil 6 slike moduler i et parallelt system, henholdsvis, det er i stand til å støtte en belastning på 400 kVA i N + 1-modus.

Løsning for å sikre kontroll og sikkerhet miljøsikkerhet er også bygget på grunnlag av Schneider Electric-produktet - InfraStruXure Central-systemet.

Tilbudet om LANIT-integrasjon ser ut som et av de mest solide, spesielt når det gjelder sikkerhetsnivået til lokalene og sammensetningen av kjølesystemet. En rekke punkter – for eksempel forslaget om å sette ut et komplett kjølesystem som bare skal brukes en liten del av året – antyder en høy kostnad for dette prosjektet. Dessverre ble ingen kostnadsinformasjon gitt til oss.

"President-Neva"

Selskapet tilbød kunden en løsning basert på en blokkbeholder av Sever-klassen. Takket være dette designet kan løsningen operere ved temperaturer ned til -50°C, noe som bekreftes av den positive erfaringen med å operere tre Gazpromneft-Khantos MDCer kl. Priobskoye-feltet i regionen i det fjerne nord (totalt har president-Neva 22 bygde MDC-er).

Containeren har tverrgående skillevegger som deler den inn i tre rom: en vestibyle og to rom for skap med IT-utstyr, samt en skillevegg mellom kald og varm gang inne i IT-rommene (se figur 6). I det ene rommet skal det installeres 8 stativer på 5 kW, i det andre - 2 høylaststativer på 18 kW. Rulledører er installert mellom rommene, når de åpnes, er det enkelt kalde og varme korridorer i utstyrsrommet.

Den tekniske "stuffingen" til datasenteret er Emerson Network Power-utstyr. Frikjølende Liebert HPSC14 takmonterte enheter (14,6 kW kjølekapasitet) brukes til å kjøle rommet med 5 kW stativer. Den rommer fire slike klimaanlegg. En annen Liebert HPSC14 er installert i et rom med høylaststativer og UPS (UPS og batteri). Men det tjener bare som en nærmere, og hovedbelastningen fjernes av kraftigere Liebert CRV СR035RA in-line klimaanlegg. Takket være nødfrikjølingsfunksjonen er Liebert HPSC14 i stand til å gi kjøling i den korte perioden når hovedstrømmen slås av når generatorsettet startes.

UPS-en består av en modulær Emerson APM-serie UPS (N+1 redundans) og en batteripakke. En ekstern bypass av UPS-en er gitt i inngangsfordelingsenheten (ASU) plassert i vestibylen. FG Wilson-enheten med en kapasitet på 275 kVA foreslås som DGU.

En kunde kan starte utviklingen av datasenteret med en 5kW-rackløsning, og deretter, når det er nødvendig, kan beholderen oppgraderes med CRV-klimaanleggene og UPS-modulene som kreves for å kjøre høylastede rack. Når den første beholderen er fylt, vil den andre bli installert, deretter den tredje.

Selv om i denne avgjørelsen kunden ble tilbudt Emerson Network Power engineering-systemer, som Dmitry Stepanov understreker, er President-Nevas MDC-er også implementert ved bruk av utstyr fra andre produsenter - spesielt selskaper som Eaton, Legrand og Schneider Electric. Dette tar hensyn til kundens bedriftsstandarder for tekniske delsystemer, samt alle tekniske krav fra produsenten.

"Technoserv"

Modulært datasenter "IT Crew" er en kompleks løsning basert på prefabrikkerte strukturer med forhåndsinstallerte (på fabrikken) ingeniørsystemer. En datasentermodul inkluderer en serverenhet for installasjon av IT-utstyr, samt en ingeniørenhet for å sikre uavbrutt drift. Blokker kan installeres side om side på samme nivå (horisontal topologi) eller oppå hverandre (vertikal topologi): nederst er en ingeniørblokk, øverst er en serverblokk. For vår kunde ble en vertikal topologi valgt.

To alternativer for implementering av MDC "IT Crew" presenteres for vurdering av kunden: "Standard" og "Optimal" konfigurasjoner. Hovedforskjellen deres er i klimaanlegget: i "Standard"-versjonen er et presisjonsklimaanlegg med kjølevann implementert, i "Optimum" - et system som bruker en freon-kjølevæske.

Serverblokken er den samme. Opptil 18 serverrack kan installeres i én blokk for å romme aktivt utstyr. Datarommet foreslås dannet av 2 serverblokker. Serverblokker og en korridorblokk er plassert i andre etasje og kombineres til et enkelt teknologisk rom (datarom) ved å demontere skillevegger (se fig. 7).

Klimaanlegg (vannkjølte) er installert i rommet under det hevede gulvet på serverblokken til Standard MDC. I MDC Optimum kjøles IT-utstyr ved hjelp av presisjonsklimaanlegg plassert i ingeniørblokken. Klimaanlegg er reservert i henhold til 2N-ordningen.

Ingeniørblokken er delt inn i 3 rom: for installasjon av UPS; kjøleanlegg og (eventuelt) en tørrkjøler. UPS-rommet inneholder et skap med UPS, batterier og sentralbordutstyr. UPS har N+1 redundans.

To kjølere, en hydraulikkmodul og lagringstanker er installert i kjøleseksjonen til Standard MDC. Det implementerte kjølesystemet gjør det mulig å oppnå et redundansnivå på 2N innenfor én datasentermodul og 3N innenfor to nabodatasentermoduler – ved å kombinere kjølesystemkretsene. Frikjølingsfunksjon er implementert i kjølesystemet, noe som gjør det mulig å redusere driftskostnadene betydelig og øke levetiden til kjølemaskiner.

Det har allerede blitt nevnt ovenfor om det høye (40 prosent) nivået av lokalisering av ingeniørsystemer til MDC "IT Crew". Representanter for Technoserv avslørte imidlertid ikke informasjon om hvilken produsents klimaanlegg og UPS-er de bruker. Tilsynelatende vil kunden kunne finne ut denne hemmeligheten i løpet av en mer detaljert studie av prosjektet.

Utileks

NOTA modulære datasenter er basert på en prefabrikkert, lett demonterbar rammestruktur, som transporteres i en standard ISO-container. Den er basert på en metallramme, som er satt sammen på installasjonsstedet fra prefabrikkerte elementer. Sokkelen består av forseglede bærende paneler som er montert på en flat plattform laget av varmeisolasjonsplater"Penoplex", lagt i 3 lag i rutemønster. Ingen grunn nødvendig! Veggene og taket på MDC er laget av sandwichpaneler. For å installere utstyr i datasenteret monteres et forhøyet gulv.

Prosjektet med å lage et datasenter foreslås gjennomført i 5 trinn. I det første trinnet opprettes WDC-infrastrukturen for å romme 10 rack med et gjennomsnittlig forbruk på 5 kW per rack og mulighet for å øke forbruket av 2 racks opp til 20 kW hver (se fig. 8). SBE er implementert på grunnlag av en modulær UPS produsert av Svyaz Engineering og batterier som gir autonom drift i 15 minutter (tar hensyn til forbruket av prosessutstyr - klimaanlegg, belysning, adgangskontrollsystemer, etc.). Hvis du trenger å støtte en IT-belastning på 20 kW i 2 stativer, legges strømmoduler og ekstra batterier til UPS-en.

Klimaanlegget er implementert på grunnlag av 4 presisjons in-line Clever Breeze klimaanlegg produsert av Utileks med en kjølekapasitet på 30 kW hver. Eksterne blokker er plassert på endeveggen til MDC. Kontrollerne som er inkludert i Clever Breeze-klimaanleggene tjener som grunnlag for et fjernovervåkings- og kontrollsystem. Sistnevnte gir overvåking av temperaturen på de kalde og varme gangene, statusen til UPSen og luftfuktigheten i rommet; analyserer tilstanden og kjølekapasiteten til klimaanlegg; utfører funksjonene til et kontroll- og styringssystem for tilgang til lokalene.

På det andre trinnet er den andre MDC-modulen installert for 5 stativer med en belastning på 5 kW (i denne og påfølgende utvidelse "kvanta" er det mulig å øke belastningen per stativ opp til 20 kW). Samtidig har modulområdet en reserve for plass til 5 flere stativer (se fig. 9), som skal installeres på tredje trinn. Den fjerde og femte fasen av datasenterutvikling ligner på den andre og tredje. På alle stadier brukes elementene i den tekniske infrastrukturen diskutert ovenfor (UPS, klimaanlegg), som økes etter behov. DGU-en installeres umiddelbart for hele den planlagte kapasiteten til datasenteret - Utilex-spesialister valgte WattStream WS560-DM (560 kVA / 448 kW) enheten, plassert i sin egen klimabeholder.

I følge Utilex-spesialister tillater NOTA MDC-infrastrukturen å øke arealet av moduler etter hvert som antall stativer øker ved å legge til det nødvendige antallet bærepaneler til basen. Dette gjør det mulig å fordele kapitalkostnadene for å lage moduler jevnt etter etapper. Men i dette alternativet er opprettelsen av en mindre modul (med dimensjoner på 5,4x4,2x3 m) ikke økonomisk mulig, siden en liten reduksjon i kapitalkostnadene for modulen vil bli "kompensert" av behovet for å investere to ganger i brannen slokkesystem (på andre og tredje trinn).

En viktig fordel med Utilex NOTA-datasenteret når det gjelder fokus på importsubstitusjon, er produksjonen av de fleste datasenterundersystemer i Russland. Den frittstående infrastrukturen til NOTA WDC, stativer, klimaanlegg, fjernovervåking og kontrollsystemer produseres av Utileks selv. SBE - av Svyaz Engineering. Automatisk gass brannslokkingssystem - av Pozhtekhnika-selskapet. Datasenterets data- og nettverksinfrastruktur kan også implementeres basert på løsninger russisk produksjon- ETegro Technologies.

GreenMDC

Kunden ble tilbudt et Telecom Outdoor NG modulært datasenter, bestående av Telecom-moduler (designet for å romme stativer med IT-utstyr), Kjøling (kjølesystemer) og Energi (SBU, elektriske paneler). Alle moduler produseres hos GreenMDC, og før de sendes til kunden, monteres MDC på et teststed, hvor full testing utføres. Deretter demonteres WDC og modulene transporteres til bestemmelsesstedet. Separate moduler er metallkonstruksjoner med vegger installert og klargjort for transport (se fig. 10).

Varmefjerningssystemet fra utstyret er implementert på grunnlag av HiRef presisjonskabinettklimaanlegg med kaldlufttilførsel under det hevede gulvet. SBE - på modulær UPS Delta. Det elektriske distribusjonsnettet er laget med redundante samleskinner - stativene kobles sammen ved å installere grenbokser med automatiske brytere på samleskinnene.

Som en del av den første fasen av prosjektet, byggeplassforberedelse, installasjon av et dieselgeneratorsett, samt 3 datasentermoduler (se Fig. 10): Telekommodul for 16 stativer (10 stativer á 5 kW hver, 6 stativerplasseringer) forbli ufylt); Kjølemodul med 2 x 60 kW klimaanlegg og energimodul med 1 modulær UPS. UPS-en består av et 200 kVA-chassis og 3 moduler på 25 kW hver (for Delta DPH 200 UPS er verdiene i kilowatt og kilovolt-ampere identiske). For å sikre uavbrutt drift av tekniske systemer, er 1 modulær UPS installert: et chassis for 80 kVA og 2 moduler for 20 kW.

På andre trinn utføres utvidelsen innenfor rammen av eksisterende WDC-moduler: 6 flere rack legges til Telecom-modulen. Økningen i elektrisk kapasitet oppnås ved å legge til strømmoduler til den modulære UPSen, og kjølekapasiteten oppnås ved å øke antall klimaanlegg. All kommunikasjon (freonlinjer, elektrisk) for klimaanlegg legges i første trinn. Hvis det er nødvendig å installere et stativ med høyt forbruk, implementeres en lignende algoritme for å øke kraften. I tillegg praktiseres isolering av kaldgang og eventuelt montering av aktive hevede gulvfliser.

På det tredje trinnet er den andre telekommodulen installert, som vil tillate plassering av opptil 32 stativer i MDC. Økningen i kapasiteten til tekniske systemer skjer på samme måte som den ble gjort i andre trinn - opp til den maksimale designkapasiteten til MDC. MDC-utvidelsesoperasjonen utføres av leverandørens ansatte uten å avbryte funksjonen til de installerte modulene. Produksjons- og installasjonstiden for den ekstra telekommodulen er 10 uker. Modulinstallasjon - ikke mer enn en uke.

Huawei

Huawei IDS1000 mobile datasenter består av flere standard 40 fots containere: en eller flere containere for IT-utstyr, en UPS container, en container for et kaldt forsyningssystem. Ved behov leveres også container for vaktpersonell og lager.

Til vårt prosjekt ble det valgt opsjon på IT-beholder for 18 stativer (6 rader, hver med 3 stativer) - se fig. 11. På første trinn foreslås det å plassere 10 stativer for IT-utstyr, 7-rads klimaanlegg, strømfordelingsskap, AGPT-sylindere og annet hjelpeutstyr. I de andre og påfølgende stadiene - legg til 8 stativer og 5 rad klimaanlegg til den første beholderen, installer den andre beholderen og plasser det nødvendige antallet stativer med klimaanlegg i den.

Maksimal effekt på én IT-container er 180 eller 270 kW, noe som betyr at henholdsvis opptil 10 og 15 kW kan avledes fra hvert rack. Huaweis forslag tar ikke spesifikt for seg plassering av 20kW stativer, men siden tillatt effekt per stativ er høyere enn kundens forespurte 5kW, kan belastningen omfordeles.

Kjøleforsyningen til in-line klimaanlegg utføres fra et system av kjølere plassert på rammen av en separat beholder. I tillegg er UPS (UPS og batteri) plassert i en separat beholder. UPS-en kan konfigureres i trinn på 40 kW (maksimalt 400 kVA) avhengig av beregnet belastning.

Som en del av løsningen inkluderte Huawei en ny generasjon NetEco-kontrollsystem som lar deg kontrollere driften av alle større systemer: strømforsyning (DGU, UPS, PDU, batteri, sentralbord og ATS), kjøling (klimaanlegg), sikkerhet ( ACS, betyr videoovervåkning). I tillegg er den i stand til å overvåke status miljø ved hjelp av ulike sensorer: røyk, temperatur, fuktighet og vannlekkasje.

Hovedtrekket og fordelen med Huaweis tilbud er at alle hovedkomponentene, inkludert klimaanlegg og UPS, er fra én produsent – ​​Huawei selv.

Schneider Electric

Den foreslåtte MDC er basert på standard NON-ISO25 allværsmoduler med høye brannbestandige egenskaper (EI90 i henhold til EN-1047-2). Adkomsten styres av et adgangskontrollsystem med biometrisk sensor. Modulene leveres til installasjonsstedet uavhengig, deretter sammenføyd og danner en enkelt konstruksjon.

Det første trinnet er det mest omfangsrike og kostbare trinnet, der basen jevnes og forsterkes (avrettingsmasse helles), to kjølere er installert (Uniflair ERAF 1022A-enheter med frikjølingsfunksjon), et dieselgeneratorsett, en kraftmodul og én IT-modul (10 stativer), hele rørledningen. Strømmodulen og IT-modulen utgjør tre rom: kraftsentralen, maskinrommet, inngangslåsen/lobbyen (se fig. 12).

APC Symmetra 250/500 UPS (med et sett med batterier og bypass), sentralbordutstyr, et gass brannslokkingssystem, hoved- og nødlys, et kjølesystem (2 (N + 1) SE AST HCX CW 20kW klimaanlegg) er installert i strømmodulrommet. UPS-en driver IT-utstyr, klimaanlegg og pumper. Første trinns IT-modul kommer med 10 forhåndsinstallerte stativer (AR3100), PDU, samleskinne, system for varmgang og kjølesystem basert på SE AST HCX CW 40kW (2+1). Disse klimaanleggene er spesialdesignet for modulære datasentre: de er montert over stativer og, i motsetning til for eksempel in-line klimaanlegg, opptar de ikke nyttig sted i IT-modulen.

På det andre trinnet dokkes den andre til den første IT-modulen, som leveres med 5 stativer, og ellers fullføres på samme måte som den første (bare på dette trinnet 2 (1 + 1) av 3 klimaanlegg er aktivert). I tillegg er en annen kjøler installert, og den modulære UPS-en er ettermontert med nødvendig sett med batterier og omformere. Den tredje fasen av datasenterutvikling kommer ned til å legge til 5 stativer til den andre IT-modulen og aktivere det tredje klimaanlegget. Det fjerde og femte trinnet ligner det andre og tredje.

StruxureWare-komplekset i DCIM-klassen er foreslått som et kontrollsystem.

Som et resultat vil kunden motta en løsning som fullt ut oppfyller kravene hans fra en av verdenslederne innen modulære datasentre. På dette stadiet har ikke Schneider Electric gitt informasjon om kostnadene for løsningen.

KONKLUSJON

Hoved designfunksjoner foreslåtte datasentre, samt deres kjøle- og strømsystemer. Disse systemene er nærmere presentert i prosjektbeskrivelsene som er tilgjengelige på nettsiden. Den gir også informasjon om andre systemer, inkludert brannslokkingsutstyr for gass, et tilgangskontroll- og styringssystem (ACS), et integrert kontrollsystem, etc.

Kunden mottok 9 prosjekter, som stort sett tilfredsstilte hans krav. De presenterte beskrivelsene og egenskapene til produktene overbeviste ham om det viktigste: moderne modulære løsninger lar deg få et fullt funksjonelt datasenter, mens prosjektgjennomføringstiden er flere ganger kortere enn med den tradisjonelle tilnærmingen (med kapitalkonstruksjon eller rekonstruksjon av bygning), og midler kan investeres gradvis, ettersom de øker behovene og passende datasenterskalering. Sistnevnte omstendighet er ekstremt viktig for ham under de nåværende forholdene.

Alexander Barskov- Ledende redaktør for Journal of Network Solutions / LAN. Han kan kontaktes på:

4x4 Group of Companies har vært tilstede på containerdatasentermarkedet i mer enn 10 år. I porteføljen av gjennomførte prosjekter av selskapet som Container Data Centers av sin egen produksjon.

I 2016 ble andre generasjon av egen løsning utviklet, som ble kalt Mtech (Modular Technology).

Modulære datasentre egen utvikling designet for drift i alle regioner i den russiske føderasjonen, med omtrent 50% av russiske komponenter, utviklet under hensyntagen til mange års erfaring på dette feltet og meningene til våre kjære kunder.

Funksjoner og fordeler med KTsOD og MTsOD 4x4 MTech

Designet i Russland for russiske forhold

Designet til containermodulen ble utviklet av et team av profesjonelle arkitekter og er designet for å imøtekomme teknisk IT-utstyr med maksimal beskyttelse mot ytre forhold(vind- og snøbelastning, ytre temperatur) i hvilken som helst region i den russiske føderasjonen;

Bred vestibyle

Lar deg plassere en garderobe for personalet (inkludert i leveransen) og installere en automatisk maskin for å sette på skotrekk for å opprettholde konstant renslighet i maskinrommet til Moskva datasenter, samt gi mulighet for å bringe utstyr inn eller ut fra maskinrommet til Moskva datasenter;

Ekstra skråtak

Bidrar til å forhindre opphopning av snødekke i vinterperiode og akkumulering av vann under smelting av snødekke;

Nok plass for komfortabel service inne

Innvendig bredde på beholdermodulen er 3000 mm, noe som lar deg installere serverrack 1200 mm dypt i statisk posisjon og samtidig gi et servicerom foran dem på minst 1200 mm. Denne tilnærmingen gjør at vi kan tilby kunden en løsning med muligheten til å øke kapasiteten under drift og redusere kapitalkostnadene i første fase. Det gir også enkelt vedlikehold og installasjon av IT-utstyr i serverrack.

Varmgang containerisering

I løsninger med en IT-stativbelastning på 8 kW eller mer er det planlagt å installere et containeriseringssystem for varmganger, for maksimalt effektivt arbeid klimaanlegg.

Fabrikkgodkjenningstest

Gjennomføring av fabrikkgodkjenningstester av løsningen før den sendes til kundens nettsted, samt tester på kundens sted, i henhold til testprosedyren avtalt med ham, gjør det mulig å oppnå garantert og problemfri drift av løsningen under drift;

Pålitelighet

Bruken av det mest pålitelige utstyret på markedet for implementering av de viktigste tekniske systemene lar oss sikre en fredelig søvn for kunden i de neste minst 10 årene (gjennomsnittlig levetid for ingeniørutstyret til datasenteret);

Last ned presentasjon på Mtech 4x4 containeriserte og modulære datasentre (3,5 MB) >>>

Ulemper med ISO-beholder

Opprinnelig tilbød produsenter KDPC i standard ISO-beholdere, men denne løsningen har en rekke ulemper. Først av alt er dette bredden på en standard ISO-beholder - 2,44 m.

Ved plassering av stativer i standard ISO-container viser det seg at det brukes 10cm på containerisolering, 1m - stativdybde og 1m foran stativet for utstyrsmontering. Dermed er det bare 34 cm igjen bak stativet.En person vil ikke klemme seg inn i denne plassen, noe som betyr at bytteoperasjoner for stativene i midten vil være vanskelig. Derfor laget produsenter enten utrullingsstativer (krever at de skal være strømløse ved flytting), eller servicedører bak i containeren (umulig å bruke om vinteren).

Standard ISO-moduler har også et flatt og veldig mykt tak, som ikke tåler snøbelastningen i Russland. Når du prøver å rydde snø, vil taket uten ekstra forsterkning synke og deformeres. Hvis taket ikke renses for snø, er det stor sannsynlighet for at det lekker ut om våren.

Gitt disse manglene, tilbyr 4x4 løsninger i ikke-ISO-moduler av ikke-standard størrelse, som regel er den 3,3 meter bred og høy, noe som gjør det mulig å gi en normal varm gang. Den ikke-standardiserte containeren har ISO-moduler for kranløft. Transport av en ikke-standard container krever tillatelse for transport av overdimensjonert last, nå byr dette ikke på noen vanskeligheter. Et godt containerdatasenter er ikke annerledes når det gjelder vedlikehold fra en vanlig server. Det er svært ønskelig å ha en inngangsvestibyle som lar deg jevne ut klimaendringer ved inngangen til containeren, og også gi et sted å plassere nødvendige ting i datasenteret (skotrekk, støvsuger, sugekopp for hevede gulv , etc.).

Et modulært datasenter skiller seg fra et containerdatasenter ved at det består av separate moduler som er koblet sammen. Vi har installert modulære løsninger i Russland og det vet vi moderne teknologier tillate å sikre fullstendig tetthet av strukturen. Et modulært datasenter kan teoretisk sett være av alle størrelser. Jo flere moduler i en samling, desto billigere koster datasenteret i form av kostnaden for ett rack.

Hvis vi sammenligner kostnadene for tradisjonelle og modulære datasentre, så er det modulære datasenteret mer kostnadseffektivt allerede ved plassering av 20 rack eller flere. Men hovedfordelen med containeriserte og modulære datasentre er hastigheten på utrullingen. Som regel, fra bestillingsøyeblikket, begynner de første modulene å fungere etter 4 måneder. Et tradisjonelt datasenter i en bygning krever ifølge våre estimater ca. 2 år å bygge.