Data center

提供: tezos-wiki
移動先: 案内検索

thumb | right |データセンターのネットワーク運用管理室を監督する運用エンジニア

データセンタは、コンピュータシステムとそれに関連するコンポーネント、電気通信ストレージシステム。一般に、冗長またはバックアップの[電源|電源]、冗長データ通信接続、環境制御(空調、消火など)および各種セキュリティデバイスが含まれます。大規模なデータセンターは、小さな町と同じくらい多くの電力を使用する工業規模の事業です。

歴史[編集]

thumb | 1962年のNASAミッションコントロールコンピュータ室

データセンターは、コンピューティング業界の初期の巨大なコンピュータ室に根ざしています。運用と保守が複雑な初期のコンピュータシステムでは、運用するための特別な環境が必要でした。すべてのコンポーネントを接続するためには多くのケーブルが必要でしたが、これらを収容し整理する方法は、機器を設置するための標準ラックや[ケーブルフロア] ] s(オーバーヘッドまたは高架床下に設置)。単一のメインフレームは大量の電力を必要とし、過熱を避けるために冷却する必要がありました。セキュリティは重要となりました。コンピュータは高価で、しばしば軍事目的で使用されていました。したがって、コンピュータルームへのアクセスを制御するための基本的な設計ガイドラインが考案されました。

マイクロコンピュータ産業の盛況の間、特に1980年代には、多くの場合、動作要件にほとんどまたはまったく注意を払わずに、どこからでもコンピュータを導入し始めました。しかし、([IT] [IT operations | operations])が複雑化するにつれ、組織はITリソースを制御する必要性を認識しました。 1970年代初頭からUnixが登場し、1990年代に自由に利用できるLinux互換の PCオペレーティングシステムが次々に普及しました。 Unixがクライアント - サーバモデルに大きく依存していて、複数のサーバ間で一意のリソースを共有することを容易にするために、[[サーバ(コンピューティング)|サーバ]ユーザー。安価な networking機器がネットワークstructured cablingの新しい標準と相まって、企業内の特定の部屋にサーバを置く階層設計を可能にしました。特別に設計されたコンピュータ室に適用される用語「データセンター」の使用は、この時期について一般的な認識を得るようになった。

データセンターのブームは1997年から2000年の[ドットコムバブル]の間に起こった。 企業は、システムを展開してインターネット上にプレゼンスを確立するために、高速な[インターネット]接続性とノンストップの操作が必要でした。そのような機器のインストールは、多くの中小企業にとって実用的ではありませんでした。多くの企業は、システムの導入と運用のためのさまざまなソリューションを顧客に提供する「インターネットデータセンター」(IDC)という非常に大きな施設を建設し始めました。このような大規模オペレーションの規模と運用上の要件に対応するため、新しいテクノロジとプラクティスが設計されました。これらの慣行は最終的に私的データセンターに移行し、その実用的な結果が主な理由で採用されました。クラウドコンピューティングのデータセンターは「クラウドデータセンター」(CDC)と呼ばれます。しかし、今日では、これらの用語の分割はほとんどなくなり、「データセンター」という用語に統合されています。 企業や政府機関は、[クラウドコンピューティング]導入の増加に伴い、セキュリティ、可用性、環境への影響、標準への準拠などの分野でデータセンターをより高度に調査しています。 [Telecommunications Industry Association]などの認定された[専門家]グループの標準文書は、データセンター設計の要件を規定しています。 データセンターの可用性に関するよく知られた運用メトリックは、混乱の[ビジネスインパクト分析|商業的影響]を評価するのに役立ちます。開発は運用実践で継続され、環境に配慮したデータセンター設計も継続されます。データセンターは、通常、構築および保守に多くの費用がかかります。

現代のデータセンターの要件[編集]

親指|左|データセンターの一部にある電気通信機器のラック IT運用は、世界中のほとんどの組織運営の重要な側面です。主な問題の1つは事業継続です。企業は情報システムを利用して業務を行っています。システムが利用できなくなった場合、会社の業務が損なわれたり停止したりする可能性があります。中断の可能性を最小限に抑えるために、IT運用のための信頼できるインフラストラクチャを提供する必要があります。情報セキュリティも懸念されているため、データセンターはセキュリティ違反の可能性を最小限に抑える安全な環境を提供する必要があります。したがって、データセンターは、ホストされたコンピュータ環境の完全性と機能性を保証するための高い基準を維持する必要があります。これは、データセンタに役立つ機械的冷却および電力システム(緊急バックアップ発電機を含む)の冗長性を光ファイバケーブルとともに提供することによって達成されます。

データセンターの電気通信インフラストラクチャスタンダードは、単一のテナント企業データセンターとマルチテナントインターネットホスティングデータセンターを含むデータセンターとコンピュータルームの通信インフラストラクチャの最小要件を規定しています。この文書で提案されているトポロジは、あらゆるサイズのデータ​​センターに適用されることを意図しています。

Telcordia GR-3160は、通信ネットワーク内のデータセンタースペース、およびそれらのスペースに設置するための機器の環境要件に関するガイドラインを提供しています。これらの基準は、Telcordiaと業界代表によって共同開発されました。それらは、データ処理または情報技術(IT)機器を収容するデータセンタスペースに適用することができる。この機器は、次の目的で使用することができます。

  • 通信事業者の通信ネットワークの運営と管理
  • 通信事業者の顧客にデータセンターベースのアプリケーションを直接提供する
  • 第三者が顧客にサービスを提供するためのホストされたアプリケーションを提供する
  • これらと同様のデータセンターアプリケーションの組み合わせを提供する

効果的なデータセンターの運用には、設備と収容設備の両方にバランスのとれた投資が必要です。第一のステップは、機器の設置に適したベースラインの施設環境を確立することです。標準化とモジュール化は、電気通信データセンターの設計と建設において節約と効率化をもたらすことができます。

標準化とは統合された建物と設備のエンジニアリングを意味しますモジュール性は、計画の予測が最適でない場合でも、スケーラビリティと容易な拡張のメリットがあります。これらの理由から、電気通信データセンターは、実際には、機器の繰り返しビルディングブロックと関連する電源およびサポート(コンディショニング)機器で計画する必要があります。専用の集中型システムを使用すると、高価な過度の建設を防止するために将来のニーズをより正確に予測する必要があるか、または将来のニーズを満たすことができない建設中に悪化する可能性があります。

暗いデータセンターとも呼ばれる「消灯」データセンターは、理想的には、例外的な状況を除いて人員による直接アクセスの必要性をすべて排除したデータセンターです。スタッフはデータセンターに入る必要がないため、照明なしで操作することができます。すべてのデバイスは、無人操作を実行するために使用される自動化プログラムを使用して、リモートシステムによってアクセスおよび管理されます。エネルギー節約、人件費の削減、人口センターからのサイトの位置付け能力に加えて、消灯データセンターの導入は、インフラへの悪意のある攻撃の脅威を軽減します。

クラウドコンピューティングなど、新しいIT機器や機能のパフォーマンスとエネルギー効率の向上を利用するために、データセンターを近代化する傾向があります。このプロセスは、データセンター変換とも呼ばれます。

組織は急速なIT成長を経験していますが、データセンターは高齢化しています。業界調査会社[International Data Corporation](IDC)は、データセンターの平均年齢を9歳としています。

2011年5月、データセンターの調査機関[Uptime Institute]は、調査対象の大企業の36%が今後18カ月以内にIT能力を枯渇させると報告しています。

データセンターの変革は、時間の経過とともに実施される統合プロジェクトを通じて段階的なアプローチをとっています。これは、シリアルとサイロのアプローチを取る従来のデータセンターアップグレードの方法とは異なります。データセンターの変革イニシアチブの典型的なプロジェクトには、標準化/統合、仮想化、自動化、セキュリティが含まれます。

  • 標準化/統合:このプロジェクトの目的は、大規模な組織が持つ可能性のあるデータセンターの数を減らすことです。このプロジェクトは、データセンター内のハードウェア、ソフトウェアプラットフォーム、ツール、プロセスの数を削減するのにも役立ちます。組織は、高齢化のデータセンター機器を、容量と性能を向上させる新しいものに置き換えます。コンピューティング、ネットワーク、および管理プラットフォームは標準化されているため、管理が容易です。
  • 仮想化:IT仮想化技術を使用して、サーバなどの複数のデータセンター機器を交換または統合する傾向があります。仮想化は、資本コストと運用コストを削減し、エネルギー消費を削減します。仮想化技術は、仮想デスクトップを作成するためにも使用され、データセンターでホストされ、サブスクリプション単位でレンタルされます。投資銀行ラザード・キャピタル・マーケッツが発表したデータによると、2012年までにエンタープライズ・オペレーションの48%が仮想化されると報告されています。ガートナーは、仮想化を近代化の触媒と見ています。
  • 自動化:データセンターの自動化には、プロビジョニング、構成、[パッチ(コンピューティング)|パッチ適用]、リリース管理、コンプライアンスなどのタスクの自動化が含まれます。企業が熟練したITワーカーに苦しむにつれて、現代のデータセンターのセキュリティは、物理的なセキュリティ、ネットワークのセキュリティ、データとユーザーのセキュリティを考慮する必要があります。

キャリアの中立性[編集]

今日、多くのデータセンターは、インターネットサービスプロバイダによって、自社および第三者の[[サーバー(コンピューティング)]サーバー]をホストする目的でのみ運営されています。

しかし、伝統的にデータセンターは、1つの大企業の単独利用のために、または[キャリアホテル]または[ネットワーク中立データセンター]として構築されました。

これらの施設は、通信事業者の相互接続を可能にし、コンテンツサーバーのホスティングに加えて、ローカルビジネスに対応する地域のファイバーハブとして機能します。

データセンターレベルとティア[編集]

<! - データ可用性からリンクされています - > [Telecommunications Industry Association]はANSI(American National Standards Institute)の認定を受けた業界団体です。 2005年には、4つのレベルのデータセンターを徹底的かつ定量的に定義したANSI / TIA-942、データセンター向け通信インフラ標準を公開しました。 TIA-942は、2008年、2010年、2014年および2017年に改訂されました。「TIA-942:データセンター基準概要」では、データセンターインフラストラクチャの要件について説明します。最も簡単なのはレベル1のデータセンターで、基本的にコンピュータシステムの基本的なガイドラインに従って、サーバールームです。最も厳しいレベルはレベル4のデータセンターで、完全に冗長化されたサブシステムを備えたミッションクリティカルなコンピュータシステムをホストするように設計されており、主電源障害時に無期限に連続して動作することができます。

ワシントン州シアトルに拠点を置くデータセンターの研究および専門サービス機関である[Uptime Institute]は、今日、一般に「Tier」またはより正確に「Tier標準」と呼ばれるものを定義しました。 UptimeのTier Standardレベルは、ある場所のハードウェアからのデータ処理の可用性を表します。 Tierレベルが高いほど、使用可能性は高くなります。 Uptime Institute Tier Standardsは以下の通りです。

2014年のTIA-942改訂では、TIA組織とUptime Instituteは、TIAが公表されたTIA-942仕様から「Tier」という言葉の使用を取り除き、Uptime Instituteが単独でそのシステムを記述するために使用する用語。

他の分類も存在する。たとえば、ドイツのDatacenter Star Auditプログラムでは、監査プロセスを使用して、データセンターの重要性に影響を与える5つのレベルの「満足度」を証明します。

+アップタイム研究所のティア・スタンダード -

!階層レベル !要件

-

!私

重大な負荷に対応する単一の非冗長配布パス

  • 重複しない重要なキャパシティコンポーネント
-

! II

  • 以下に加えて、すべてのTier I要件を満たしています。
  • 冗長な重要な容量コンポーネント

重要なキャパシティコンポーネントは、重要な負荷にNキャパシティを提供しながら、サービスから隔離され、サービスから削除することができなければなりません。

-

! III

  • 以下に加えて、すべてのTier II要件を満たしています。
  • IT機器のクリティカルな負荷に対応する複数の独立した別個の配布パス
  • すべてのIT機器は、2つの重複した別個のUPSフィーダを備えた2重電源でなければなりません。シングルコードのIT機器は、2つのUPSフィーダーの間で電力を受け取り、選択するためにPoint of Use Transfer Switchを使用する必要があります。
  • クリティカルキャパシティコンポーネント、ディストリビューションパス、およびクリティカルシステムの各コンポーネントは、計画されたイベント(交換、メンテナンス、またはアップグレード)用に隔離されたサイトのアーキテクチャのトポロジと完全に互換性がある必要があります。ロードする。
  • オンサイトのエネルギー生産システム(エンジン発電機システムなど)は、現場条件および設計負荷で実行時の制限があってはなりません。
-

! IV

  • 以下に加えて、すべてのTier III要件を満たしています。

重要な負荷に対応する複数の独立した別個のアクティブな配布パス

  • 重要な容量コンポーネントと配布パスの区画化
  • 重大なシステムは、単一の障害または障害が発生した後、クリティカルな負荷に自律的にNの容量を提供できる必要があります
  • ITおよびUPSシステムでは、連続冷却が必要です。

可用性が理論として、小数点の右側に特定の数の「ナイン」が表示されていた時点で、業界のデータセンターの復元システムのいずれかが提案されていましたが、このアプローチはやや偽りでしたあまりにも単純すぎるので、今日のベンダーは、実際に影響を与えることができる細部の詳細について、より具体的な言葉で話し合っています。したがって、今日利用可能なレベリングシステムは、稼働率のパーセンテージでその結果を定義することはもうありません。

注:Uptime Instituteは、データセンターの3つの段階、その設計文書、構築された施設、および継続的な運用上の持続可能性についてもTierを分類します。

設計上の考慮点[編集]

thumb | right | [コロケーションセンター|コロケーションによく見られる典型的なサーバーラック]] データセンターは、建物の1つの部屋、1つ以上のフロア、または建物全体を占有することができる。ほとんどの装置は、通常19インチラックキャビネットに搭載されたサーバーの形をとっています。これらのキャビネットは、通常、1列に配置され、それらの間に廊下(いわゆる通路)を形成します。これにより、人々は各キャビネットの前面と背面にアクセスできます。サーバーのサイズは、 1Uサーバーから、数平方フィートの床面積を占める大きな自立式ストレージサイロまで大きく異なります。 メインフレームコンピュータや[コンピュータストレージ|ストレージ]などの一部の機器は、ラック自体と同じくらい大きいことが多く、その横に置かれます。非常に大規模なデータセンターでは、それぞれ1,000台以上のサーバーが詰め込まれたコンテナを使用することができます。修理やアップグレードが必要な場合は、個々のサーバーを修復するのではなく、コンテナ全体を交換します。

地方の建築基準が最低天井高を支配するかもしれません。

デザインプログラミング[編集]

設計プログラミング(アーキテクチャプログラミングとも呼ばれる)は、設計プロジェクトの範囲を特定するための調査と決定を行うプロセスです。施設のトポロジ設計(空間計画)、エンジニアリングインフラストラクチャ設計(電力を含む冷却および電気システムなどの機械システム)、技術インフラ設計(ケーブルプラント)の3つの要素がデータセンターのプログラミングを設計するために必要です。 。それぞれは、性能評価とモデリングの影響を受けて、時間の経過とともに施設の所有者の業績希望に関するギャップを特定します。 データセンター設計サービスを提供するさまざまなベンダーは、データセンター設計のステップを若干異なる方法で定義しますが、すべて以下のような基本的な側面に対応しています。

モデリング基準[編集]

モデリング基準は、データセンター内の空間、電力、冷却、コストの将来のシナリオを作成するために使用されます。その目的は、番号、サイズ、ロケーション、トポロジ、ITフロアシステムのレイアウト、電源および冷却技術と構成などのパラメータを備えたマスタープランを作成することです。この目的は、既存の機械および電気システムの効率的な使用を可能にし、新しい建物を開発したり、入来電源をさらにアップグレードしたりすることなく、既存のデータセンターでの成長を可能にすることです。

デザインの提案[編集]

設計の推奨/計画は、一般にモデリング基準の段階に従います。重要な電力容量、合意されたPUE(電力利用効率)を使用する全体的なデータセンターの電力要件、機械的冷却能力、キャビネットあたりのキロワット、床面積の増加、弾力性レベルなど、最適な技術インフラストラクチャが特定され、施設のために。

概念的なデザイン[編集]

概念的な設計は設計の推奨または計画を具体化し、施設を将来的に証明するためにすべての運用成果が確実に達成されるよう「シナリオ」を考慮する必要があります。概念的なフロアレイアウトは、ITパフォーマンス要件、ならびにIT需要、エネルギー効率、コスト効率、および可用性に関連するライフサイクルコストによって促進されるべきである。将来の校正には、モダンなデータセンターでモジュラー設計を通じて提供される拡張機能も含まれます。これにより、設備の既存の主要な電気プラントを利用しながら、より上げられた床面積をデータセンタに取り付けることができます。

詳細設計[編集]

適切な概念設計が決定されると、典型的には概念証明を含む詳細設計が行われる。詳細な設計段階には、構造、構造、機械および電気の詳細な情報と施設の仕様が含まれていなければなりません。この段階では、施設の回路図および建設文書の開発、回路図、性能仕様、すべての技術インフラストラクチャの詳細な詳細について、[ITインフラストラクチャー]の設計とITインフラストラクチャのドキュメントが作成されます。

機械工学のインフラ設計[編集]

親指| CRACエアハンドラ 機械工学インフラストラクチャ設計は、暖房、換気および空調(HVAC)などのデータセンターの内部環境を維持することに関わる機械システムに対処します。加湿および除湿設備;加圧;等々。 設計プロセスのこの段階では、スペースとコストを節約し、ビジネスと信頼性の目標を達成し、PUEとグリーンの要件を達成することを目指します。現代的な設計には、IT負荷のモジュール化とスケーリング、ビル建設における資本支出の最適化が含まれます。

電気工学のインフラ設計[編集]

電気工学のインフラストラクチャ設計は、さまざまな信頼性要件とデータセンターサイズに対応する電気構成の設計に重点を置いています。アスペクトには、公益事業計画が含まれます。電源からの配電、スイッチングおよびバイパス;無停電電源(UPS)システム;もっと。 DC(直流)だけでなく低および中電圧要件にも対応しています。

技術基盤設計[編集]

thumb | Floor Cable Runsの下 テクノロジーインフラストラクチャ設計は、データセンター全体で実行される通信ケーブルシステムに対応します。水平ケーブル、音声、モデム、ファクシミリ通信サービス、構内交換装置、コンピュータと通信管理接続、キーボード/ビデオ/マウス接続、データ通信など、すべてのデータセンター環境用のケーブルシステムがあります。広域エリア、ローカルエリアエリア、およびストレージエリアネットワークは、他の建物の信号システム(火災、セキュリティ、電力、HVAC、EMSなど)とリンクする必要があります。

可用性の期待[編集]

データセンターの可用性ニーズが高いほど、それを構築し管理するための資本コストと運用コストが高くなります。ビジネスニーズは、必要な可用性のレベルを決定し、モデル化されたシナリオからのITシステム推定コスト分析の重要性の特性に基づいて評価する必要があります。つまり、ダウンタイムの結果として財務上および運用上のリスクを回避するために、適切なレベルの可用性を設計基準によってどのように満たすことが最良ですか? 指定された時間単位内のダウンタイムの推定コストが償却された資本コストと運用コストを超える場合、データセンターの設計には高いレベルの可用性を考慮する必要があります。ダウンタイムを回避するコストがダウンタイム自体のコストを大幅に上回る場合、より低いレベルの可用性を設計に考慮する必要があります。

サイトの選択[編集]

利用可能な電力網、通信インフラストラクチャ、ネットワーキングサービス、輸送ライン、緊急サービスなどの側面は、コスト、リスク、セキュリティ、およびデータセンターの設計に考慮すべきその他の要素に影響を与える可能性があります。適切な利用可能な電力へのアクセスは、多くの場合、最長のリードタイム項目であることが多い(例えば、飛行経路、周辺用途、地質リスク)。場所は、気候条件が冷却技術をどのように配備すべきかを決定するため、データセンター設計にも影響します。これは、稼働時間と冷却に関連するコストに影響します。たとえば、湿気の多い温暖な気候の中でデータセンターを管理するトポロジとコストは、涼しく乾燥した気候で管理することと大きく異なります。

モジュール性と柔軟性[編集]

thumb |データセンターのキャビネット通路

モジュール性と柔軟性は、データセンターが成長し、時間の経過と共に変化するのを可能にする重要な要素です。データセンターモジュールは、事前に設計された標準化されたビルディングブロックであり、必要に応じて簡単に構成および移動できます。

モジュラーデータセンターは、出荷コンテナまたは同様の携帯用コンテナに含まれるデータセンター機器で構成されています。ただし、データセンターのコンポーネントを事前に作成して標準化しておくことで、ニーズの変化に応じて迅速に構築、移動、追加することができるような設計スタイルとも言えます。

環境管理[編集]

データセンターの物理的環境は厳格に管理されています。 空調は、データセンターの温度と湿度を制御するために使用されます。 ASHRAEの「データ処理環境の熱ガイドライン」では、露点範囲が60%、理想相対湿度が60%、データセンター環境では40%〜60%の許容範囲を推奨しています。使用される電力が空気を加熱するため、データセンター内の温度は自然に上昇します。熱が除去されない限り、周囲温度が上昇し、電子機器の誤動作の原因となります。空気温度を制御することによって、ボードレベルのサーバーコンポーネントは製造業者の指定された温度/湿度範囲内に保たれる。空調システムは、[[露点]より下のリターンスペースの空気を冷却することによって、[湿度]を制御するのに役立ちます。水分が多すぎると水が内部のコンポーネントで[凝縮|凝縮]することがあります。乾燥雰囲気の場合、湿度が低すぎると補助湿度システムが水蒸気を加えて、静電気放電の問題を引き起こし、部品に損傷を与える可能性があります。地下のデータセンターは、従来の設計よりも少ないエネルギーを消費しながら、コンピュータ機器を冷却した状態に保つことができる。

現代のデータセンターでは、外気を使用してデータセンターを冷却するエコノマイザ冷却を使用しようとしています。少なくとも1つのデータセンター([Upstate New York]に位置)は、冬の間外気を使ってサーバーを冷却します。彼らはチラー/エアコンを使用しないため、何百万人もの人々がエネルギーを節約できる可能性があります。ますます[1]が世界中のデータセンターに展開されているより効率的な冷却が可能になり、データセンターの電力消費コストが削減されます。新しく建設された多くのデータセンターでは、間接蒸発冷却(IDEC)装置や海水などの他の環境機能を使用して、空間を冷却するために必要なエネルギー量を最小限に抑えています。

Telcordia GR-2930、 NEBS:ネットワークとデータセンターの一般的な要件」 、厳しいNEBSガイドラインに含まれる盛り上がったフロアの一般的なエンジニアリング要件を示します。

コンポーネントの構造および使用される材料に応じて、幅広い構造強度および積載能力を提供する市販の床には多くのタイプがあります。一般的なタイプの起床には、ストリンガー、ストリンガーレスおよび構造プラットフォームが含まれています。これらの詳細については、GR-2930で詳しく説明されています。 このタイプの盛り上がった床は、一般に、鋼製台座アセンブリの垂直配列(各アセンブリは、鋼ベースプレート、管状の直立したもの、およびヘッドから構成されている)から一様に構成されています2フィートの中心に間隔を置いてコンクリート床に機械的に固定されています。スチールペデスタルヘッドは、ペデスタル直立部に挿入されるスタッドを有し、ペデスタルヘッドの溶接されたスタッド上のレベリングナットによって全体の高さが調節可能である。 ストリンガーレス隆起床 - 1つの非地震隆起床は、一般に、配線ケーブルに必要な高さを提供し、フロアパネルの各コーナーを支持するための複数の台座からなる。このタイプのフロアでは、床パネルをペデスタルに機械的に固定する準備ができている場合とされていない場合があります。このストリンガーレスタイプのシステム(ペデスタルヘッド間に機械的な取り付け部を持たない)は、床下の空間への最大限のアクセスを可能にします。しかし、ストリンガーレスフロアは、横荷重を支える際にストリンガー式の盛り上がりフロアよりもかなり弱く、推奨されません。

  • 構造プラットフォーム - 構造プラットフォームの1つのタイプは、鋼製の角度またはチャネルで構成された部材で構成され、溶接またはボルト締めされて、機器をサポートするための統合プラットフォームを形成します。この設計により、トグルバーや補助ブレースを必要とせずに、機器をプラットフォームに直接固定することができます。構造プラットフォームには、パネルまたはストリンガーが含まれていてもいなくてもよい。

データセンターは、通常、取り外し可能な四角いタイルで構成されています。より均一な空気分布を提供するために、傾向は空に向かっている。これらは、空調システムの一部として床下を循環する空気のための[プレナムスペース|プレナム]を提供するとともに、電力配線のためのスペースを提供する。

金属ウィスカー[編集]

ケーブルトレーや換気ダクトのような床やその他の金属構造物は、過去に多くの問題を引き起こしており、多くのデータセンターにはまだ存在していると思われます。これは、多くの金属構造および電子部品を腐食から保護する、亜鉛または錫のような金属上に微視的な金属フィラメントが形成される場合に起こる。高床でのメンテナンスやケーブルの設置などは、気流に入り込んだウィスカを取り除き、時には高電流の金属蒸気[プラズマアーク]によってサーバの部品や電源を短絡させる可能性があります。この現象はデータセンター固有のものではなく、衛星や軍用ハードウェアの壊滅的な障害を引き起こしています。

電力[編集]

thumb | right |ディーゼル発電機が始動できるようになるまで電力を供給するために使用される大規模なデータセンター内のバッテリーバンク]

バックアップ電源は、無停電電源装置、バッテリバンク、および/または[ディーゼル発電機|ディーゼル] / ガスタービン発電機で構成されています。

[単一障害点|単一障害点]を防止するために、バックアップシステムを含む電気システムのすべての要素は、通常、完全に複製され、クリティカルサーバは、「A面」および「B面」の両方に接続されます"パワーフィード。この配置は、システムでN + 1冗長性を達成するためにしばしば行われます。 静的転送スイッチは、電源障害時にある電源から他の電源へ瞬時に切り替えるために使用されることがあります。

低電圧ケーブルの配線[編集]

データケーブル配線は、通常、最新のデータセンターの架線ケーブルトレイを経由して行われます。しかし、セキュリティ上の理由からフロアケーブルを引き上げておいても、この強化が必要な場合にラックの上に冷却システムを追加することを検討する人々もいます。フロアリングを持たない小型/安価なデータセンターでは、床面に静電気防止用タイルを使用することがあります。コンピュータキャビネットは、通気効率を最大限にするために、ホットアイル配置に編成されることがよくあります。

火災予防[編集]

[[File:ext_38dKJsdjh_FM200 Three.jpg | thumb | FM200 Fire Suppression Tanks]] データセンターには受動能動的設計要素を含む[防火]システムと、[防火]プログラムの実施が特徴です。 [煙探知機]は通常、その初期段階で火災の早期警報を出すために設置されています。これにより、火災が大きくなる前に手持ち消火器を使用して調査、停電、手作業による消火を行うことができます。本格的な火災が発生した場合、火災を制御するために火災抑制用のガスシステム([fire sprinkler system])やclean agent消火ガスシステムなどのactive fire protectionシステムが提供されることがよくあります。 浄化剤消火ガスシステムを活性化する高感度煙探知器は、消火スプリンクラーより早く作動する。

  • スプリンクラー=構造保護と建物の生命安全。
  • クリーンエージェント=ビジネス継続性と資産保護。
  • 水はありません=付随的な損傷や掃除はありません。

受動的な防火要素には、[ファイアウォール(建造物)|防火壁]がデータセンターに設置されているため、火災が発生した場合に限られた時間内に施設の一部に火災を制限することができます保護システム。ケーブル貫通部、クーラントライン貫通部、エアダクトなどの壁面への壁の貫通は、fire stop pingなどの耐火性の貫通アセンブリを備えていなければなりません。

セキュリティ[編集]

物理的セキュリティもデータセンターにとって大きな役割を果たします。サイトへの物理的なアクセスは、通常、フェンシング、bollard mantrapsで始まる階層化されたセキュリティシステムを含む、選択された人物に制限されます。 ビデオカメラデータセンターが大規模であるか、またはシステム内のいずれかのシステムに機密情報が含まれていると、監視と恒久的なセキュリティガードはほとんど常に存在します。指紋認識([mantrap(snare)| mantrap]]の使用は一般的になり始めています。

エネルギー使用[編集]

[[File:ext_38dKJsdjh_Google Data Center、Dalles.jpg | thumb | GoogleデータセンターThe Dalles、Oregon]]

エネルギー使用は、データセンターの中心的な問題です。データセンタの電力消費量は、クローゼット内のサーバラックの数キロワットから、大規模施設の数十MWまでの範囲です。いくつかの施設は、典型的なオフィスビルの100倍以上の電力密度を持っています。電力密度の高い施設では、電力コストが支配的であり、データセンターの[総所有コスト](TCO)の10%を占めています。 2012年までに、データセンターの電力コストは、当初の設備投資のコストを上回ると予想されます。

温室効果ガス排出量[編集]

2007年には、[情報通信技術]またはICTセクター全体が、データセンターがICTフットプリントの14%を占める世界の[温室効果ガス|炭素排出量]のおよそ2%を占めると推定された。米国環境保護庁(EPA)は、2007年の米国の総電力消費量の約1.5%、米国のGHG排出量の約5%を占めると推定しています。通常のシナリオと同様に、データセンターからの温室効果ガス排出量が予測されますフィンランド、スウェーデン、ノルウェー、スイスは、クラウドコンピューティングのデータセンターを引きつこうとしています。

ライス大学のヒューストン公共政策研究所(Baker Institute for Public Policy)とシンガポールの持続可能な開発応用インフラ動力学研究所(Institute in Sustainable and Applied Infodynamics)の学者による18カ月の調査では、データセンター関連の排出量は2020年までに3倍以上になります。

エネルギー効率[編集]

データセンターのエネルギー効率を決定するために最も一般的に使用される指標は電力使用効率、すなわちPUEです。この単純な比率は、データセンターに入る総電力をIT機器が使用する電力で割ったものです。

:<数学> \ mathrm {PUE} = {\ mbox {Total Facility Power} \ over \ mbox {IT Equipment Power}}< / math>

総設​​備電力は、IT機器が使用する電力と、コンピューティングまたはデータ通信デバイスとはみなされないもの(冷却、照明など)によって消費されるオーバヘッド電力で構成されます。理想的なPUEは、オーバーヘッド電力ゼロの仮説的状況に対して1.0です。米国の平均データセンターのPUEは2.0ですが、Microsoftや[[Yahoo!]のような大規模なデータセンターのオペレータの一部は、開発中の施設に対してPUEの予測を公開しています。 Googleは、運用中のデータセンターから四半期ごとに実際の効率性能を発表しています。

アメリカ。環境保護庁]]はスタンドアロンまたは大規模なデータセンターのEnergy Starレーティングを持っています。エコラベルの資格を得るには、データセンターが報告されたすべての施設のエネルギー効率の上位4分の1以内になければなりません。

欧州連合(EU)も同様の取り組みを行っている:データセンターのためのEU行動綱領

エネルギー使用分析[編集]

多くの場合、データセンターにおけるエネルギー使用を抑えるための第一歩は、データセンターでどのようにエネルギーが使用されているかを理解することです。データセンターのエネルギー使用量を測定する複数のタイプの分析が存在します。測定される側面には、IT機器自体のエネルギーだけでなく、チラーやファンなどのデータセンター設備機器も含まれます。

電力と冷却の分析[編集]

電力は、データセンターのユーザーにとって最大の経費です。熱的評価とも呼ばれる電力および冷却解析は、特定の周囲温度を処理するための冷却システムの容量と同様に、特定の領域の相対温度を測定します。電力と冷却の分析は、ホットスポット、より多くの電力使用密度を処理することができる過冷却領域、設備負荷のブレークポイント、高床式戦略の有効性、および(ACユニットなどの)最適な機器配置を特定するのに役立ちますデータセンター全体のバランス温度。電力冷却密度は、センターが最大容量でどれくらいの平方フィートを冷却できるかの尺度です。

エネルギー効率分析[編集]

エネルギー効率分析は、データセンターITおよび設備機器のエネルギー使用量を測定します。一般的なエネルギー効率分析では、業界標準に対するデータセンターの電力使用効率(PUE)などの要因を測定し、機械的および電気的な非効率要因を特定し、空調管理指標を特定します。

計算流体力学(CFD)解析[編集]

このタイプの分析では、洗練されたツールと技術を使用して、データセンターの温度、気流、圧力挙動を予測し、数値モデリングを使用してパフォーマンスとエネルギー消費を評価する、各データセンターに固有の熱条件を把握します。これらの環境条件の影響を予測することにより、データセンタ内のCFD分析を使用して、高密度ラックと低密度ラックを混在させた場合の影響を予測し、冷却リソース、インフラストラクチャ管理の慣行、AC障害またはAC定期保守のためのシャットダウン。

温度ゾーンマッピング[編集]

サーマルゾーンマッピングでは、センサとコンピュータモデリングを使用して、データセンター内のホットゾーンとクールゾーンの3次元イメージを作成します。

この情報は、データセンター機器の最適な配置を特定するのに役立ちます。たとえば、クリティカルなサーバーは、冗長なAC装置によって処理されるクールなゾーンに置かれることがあります。

グリーンデータセンター[編集]

thumb |この水冷式データセンターは、[ストラスブールの独立港|ストラスブール港]に属し、「緑」の属性を主張しています。 データセンターは、実際の機器を動作させるために必要な電力と、次に機器を冷却するために必要な電力の2つの主な用途によって消費される、多くの電力を使用します。第1のカテゴリーは、ますます電力効率の高いコンピュータおよびストレージシステムを設計することによって対処されます。

エネルギーの再利用[編集]

データセンターの冷却の実践は議論のテーマです。空冷式データセンターからの熱を再利用することは非常に困難です。このため、データセンターのインフラストラクチャには、ヒートポンプが搭載されることがよくあります。ヒートポンプの代替手段は、データセンター全体に液体冷却を採用することです。異なる液体冷却技術が混合され、水中のすべての熱を捕捉する完全に液体冷却されたインフラストラクチャを可能にするために適合される。異なる液体技術は、間接液体冷却(水冷ラック)、直接液体冷却(直接チップ冷却)および全液体冷却(液体中での完全浸漬)の3つの主要なグループに分類される。この技術の組み合わせによって、温度連鎖シナリオの一部としてカスケードを作成して、データセンターからの高温水出力を生成することができます。

ネットワークインフラストラクチャ[編集]

thumb | left | "ラックマウント型"サーバの例 今日のデータセンターにおける通信は、 IP プロトコルスイートを実行するネットワークに基づいていることが最も多いです。データセンターには、サーバーと外部との間でトラフィックを転送するルータースイッチのセットが含まれています。インターネット接続の冗長性は、複数のアップストリームサービスプロバイダを使用して提供されることがよくあります([Multihoming]を参照)。

データセンターの一部のサーバーは、電子メールサーバー、プロキシサーバー、[[ドメイン名]などの組織内の内部ユーザーによって必要とされる基本的なインターネットおよびイントラネットサービスを実行するために使用されますシステム| DNS]]

ファイアウォールVPN ゲートウェイ侵入検知システムなどのネットワークセキュリティ要素も通常配備されます。ネットワークおよび一部のアプリケーションの監視システム。データセンター内の通信に障害が発生した場合は、追加の拠点外監視システムも標準装備されています。

データセンターインフラストラクチャ管理[編集]

データセンターインフラストラクチャ管理(DCIM)は、データセンターの重要なシステムの監視、管理、インテリジェントなキャパシティプランニングを集中化するための情報技術(IT)と施設管理の分野の統合です。 DCIMは、専用のソフトウェア、ハードウェア、センサーの実装を通じて、ITインフラストラクチャと施設インフラストラクチャにわたって相互に依存するすべてのシステムに共通のリアルタイムの監視および管理プラットフォームを実現します。

実装のタイプに応じて、DCIM製品は、重要なITシステムの可用性を高めるために、リスクセンタを識別して排除します。 DCIM製品は、設備管理者にシステム冗長性のギャップを警告するために施設とITインフラストラクチャ間の相互依存性を特定し、「グリーンIT」イニシアチブの有効性を測定するための電力消費と効率に関する動的で総合的なベンチマークを提供するためにも使用できます。

データセンターの効率指標を測定し理解することが重要です。この分野での議論の多くはエネルギー問題に焦点を絞っていますが、PUE以外のメトリックではデータセンター運用の詳細な図を得ることができます。サーバー、ストレージ、およびスタッフの使用率メト​​リックは、エンタープライズデータセンターをより完全に把握するのに役立ちます。多くの場合、ディスク容量は使用されなくなり、多くの場合、組織は20%の使用率でサーバを稼働させます。より効果的な自動化ツールは、単一の管理者が処理できるサーバーまたは仮想マシンの数を向上させることもできます。

DCIMのプロバイダーは、データセンター内の複雑な気流パターンを予測するために、計算流体力学プロバイダーとリンクしています。 CFDコンポーネントは、計画された将来の変化が冷却回復力、容量、効率に与える影響を定量化するために必要です。

データセンター容量の管理[編集]

サムネイル|左|データセンターの容量 - ライフサイクル いくつかのパラメータがデータセンターの容量を制限することがあります。長期的な使用のために、主な制限は利用可能な領域、利用可能な電力となります。ライフサイクルの第1段階では、データセンターは占有されたスペースが消費されたエネルギーよりも急速に成長するのを見ます。新しいIT技術の高密度化に伴い、エネルギーの必要性が支配的になり、地域のニーズを克服することになります(第2段階から第3段階のサイクル)。接続されたオブジェクトの開発と乗算、ストレージとデータ処理のニーズは、データセンターがますます急速に成長する必要があります。したがって、データセンター戦略を定義することが重要です。意思決定、構想、建築サイクルは数年続く。したがって、データセンターが電力容量の約50%に達すると、この戦略的配慮を開始することが不可欠です。データセンターの最大占有率は、電力または占有されている地域では約85%の安定が必要です。このように管理されたリソースは、ハードウェア交換を管理するローテーションゾーンを許可し、古い世代と新しい世代の一時的な同居を許可します。この限度が永続的に過剰に交配される場合には、重大な代替に進むことは不可能であり、常に情報システムを汚してしまう。データセンターは、情報システムの独自の資源であり、時間と管理の独自の制約(25年の寿命)を有しているため、SI中間計画の枠組みで考慮する必要があります5年)。

アプリケーション[編集]

thumb | right | 40フィート[ポータブルモジュラデータセンター]

データセンターの主な目的は、組織の中核となる業務および運用データを処理するITシステムアプリケーションを実行することです。そのようなシステムは、独自のもので、組織によって内部的に開発されたものでも、エンタープライズソフトウェアベンダーから購入されたものでもかまいません。このような一般的なアプリケーションは、 ERPシステムと[[CRM]システムです。

データセンターはちょうど操作アーキテクチャに関係しているかもしれないし、他のサービスも提供するかもしれない。 多くの場合、これらのアプリケーションは複数のホストで構成され、それぞれが単一のコンポーネントを実行します。このようなアプリケーションの一般的なコンポーネントは、データベースファイルサーバーアプリケーションサーバーミドルウェアなどさまざまなものです。

データセンターはオフサイトバックアップにも使用されます。企業は、データセンターが提供するバックアップサービスに加入することができます。これはしばしばバックアップテープと一緒に使用されます。バックアップは、ローカルのサーバーからテープに取り出すことができます。しかし、サイトに保管されたテープはセキュリティ上の脅威となり、火災や洪水の影響を受けやすくなります。大規模な企業は、セキュリティを強化するためにサイトからバックアップを送信することもあります。これは、データセンターにバックアップすることで実行できます。暗号化されたバックアップをインターネット経由で別のデータセンターに送信して、安全に保管することができます。

迅速な展開や[災害復旧]のために、いくつかの大規模ハードウェアベンダーが、短期間でインストールして運用できるモバイル/モジュールソリューションを開発しました。例えば、 thumb |ユーティリティ変電所で電力網に接続されたモジュール式データセンター

米国の卸売業者および小売企業[編集]

Synergy Research Groupが2013年第3四半期に提供したデータによれば、「米国における卸売コロケーション市場の規模は小売市場に比べて非常に大きく、Q3の卸売収益はほぼ7億ドルに達する」[Digital Realty] ]信頼は、卸売市場のリーダーであり、デュポン・ファブロスによって距離を置いている。シナジーリサーチはまた、収益とクラウドインフラストラクチャサービスの継続的な採用に基づいて、米国のコロケーション市場が世界で最も成熟し、よく発達していると説明しました。

Synergy Research Groupの2013年第3四半期データからの見積もり。
-

ランク!!会社名 !!米国市場シェア

-

!1

様々なプロバイダ 34% -

!2

Equinix 18% -

!3

CenturyLink-Savvis 8% -

!4

SunGard 5% -

!5

AT&T 5% -

!6

Verizon 5% -

!7

Telx 4% -

!8

CyrusOne 4% -

!9

レベル3通信 3% -

!10

Internap 2%

関連項目[編集]

ソース[編集]

http://wikipedia.org/