Facebook에는 자체 데이터 센터가 있습니까??
요약:
Meta (이전 Facebook)는 현재 47 개의 데이터 센터가 건설 중이며 가까운 시일 내에 70 개 이상의 건물을 보유하고 있습니다. 이는 전 세계 18 개의 데이터 센터 캠퍼스가 총 4 천만 평방 피트 인 회사의 글로벌 인프라 확장을 반영합니다. 전염병 및 공급망 파괴에 의한 도전에도 불구하고 메타는 2022 년에 290 억 달러에서 340 억 달러의 자본 지출을 투자 할 것으로 예상합니다.
키 포인트:
- Meta에는 47 개의 데이터 센터가 건설 중이며 가까운 시일 내에 70 개가 넘는 건물에 대한 계획이 있습니다.
- 이 회사에는 전 세계 18 개의 데이터 센터 캠퍼스가 있습니다.
- 전염병 및 공급망 중단 중 확장은 어려운 일입니다.
- 메타는 2022 년에 290 억 달러에서 34 억 달러의 자본 지출을 투자 할 것으로 예상합니다.
- Meta 및 Microsoft와 같은 Hyperscale 운영자는 데이터 센터 인프라를 확장하기 위해 수십억을 쏟아 부었습니다.
- Facebook에서 설립 한 Open Compute Project는 하드웨어에서 혁신을 주도합니다.
- 데이터 센터 건설에는 유연한 사이트 선택 및 건설 프로세스가 필요합니다.
- 메타는 모범 사례와 지속적인 개선을 주도하는 파트너로서 공급 업체와 계약자를보고 있습니다.
- 메타 및 기타 하이퍼 스케일 운영자는 규모와 속도를 제공하기위한 새로운 전략을 개척하고 있습니다.
- 데이터 센터 프로그램의 규모와 도전은 메타의 원동력입니다.
질문:
- 메타 데이터 센터 구성의 현재 상태는 무엇입니까??
- 메타가 전 세계적으로 얼마나 많은 데이터 센터 캠퍼스가 있습니까??
- 데이터 센터 확장에서 메타가 어떤 과제에 직면합니까??
- 메타는 2022 년 자본 지출에 투자 할 계획입니까??
- 데이터 센터 인프라 확장에 투자하는 회사?
- Open Compute 프로젝트의 역할은 무엇입니까??
- 데이터 센터 구성에서 중요한 요소?
- 메타는 공급 업체와 계약자를 어떻게 볼 수 있습니까??
- 메타 및 기타 하이퍼 스케일 운영자가 개척하는 전략은 무엇입니까??
- 메타의 데이터 센터 프로그램을 주도하는 요소?
Meta는 현재 47 개의 데이터 센터가 건설 중이며 가까운 시일 내에 70 개가 넘는 건물에 대한 계획이 있습니다.
Meta에는 전 세계 18 개의 데이터 센터 캠퍼스가 있습니다.
전염병 및 공급망 중단 중 데이터 센터 확장은 메타에 대한 과제를 제기합니다.
메타는 2022 년에 290 억 달러에서 34 억 달러의 자본 지출을 투자 할 것으로 예상합니다.
Microsoft와 같은 Hyperscale 운영자는 또한 데이터 센터 인프라 확장에 수십억을 투자하고 있습니다.
Facebook에서 설립 한 Open Compute Project는 하드웨어에서 혁신을 주도합니다.
데이터 센터 건설에는 유연한 사이트 선택 및 건설 프로세스가 필요합니다.
메타는 공급 업체와 계약자를 모범 사례와 지속적인 개선에서 파트너로보고 있습니다.
메타 및 기타 하이퍼 스케일 운영자는 규모와 속도를 제공하기위한 새로운 전략을 개척하고 있습니다.
데이터 센터 프로그램의 규모와 도전은 메타의 원동력입니다.
Facebook에는 고유 한 데이터 센터가 있습니까?
Facebook은 무엇을 제거합니까?? Frankovsky는 “오늘날 많은 마더 보드에는 많은 경영진이 있습니다. 그것이 제가 사용하고 싶은 기술 용어입니다.”이 goop은 HP의 통합 수명주기 관리 엔진 또는 Dell의 원격 서버 관리 도구 일 수 있습니다.
Facebook에는 47 개의 데이터 센터가 건설 중입니다
이 회사는 현재 47 개의 데이터 센터가 건설 중이며 이번 주에는 세계의 지속적인 확장의 특별한 범위를 반영한다고 밝혔다’디지털 인프라.
그것’S 짧은 진술, Facebook의 혁신에 대한 긴 검토 내부’디지털 인프라. 그러나 데이터 센터 산업을 아는 사람은 누구나’진짜 눈을 뜨게합니다.
“나처럼’M이 글을 쓰면 48 개의 활동적인 건물과 47 개의 건물이 건설 중입니다,” Meta (이전 Facebook)의 데이터 센터 인프라 회장 인 Tom Furlong은 말했다. “그래서 우리’가까운 시일 내에 70 개가 넘는 건물이있을 것입니다.”
성명서는 메타의 특별한 범위를 반영합니다’글로벌 인프라 확장. 이 회사에는 전 세계 18 개의 데이터 센터 캠퍼스가 있으며, 완료되면 4 천만 평방 피트의 데이터 센터 공간에 걸쳐 있습니다.
47 건의 건물이 건설중인 경우 어떤 상황에서도 어려운 일이지만 특히 전 세계 유행성 및 공급망 중단 중에는 도전이 될 것입니다. 그것’쉽지 않거나 싸지 않습니다. Meta는 2022 년에 20 억 달러에서 340 억 달러 사이의 자본 지출을 투자 할 것으로 예상하며, 작년에 190 억 달러에서 증가했습니다.
그것’최대의 하이퍼 스케일 운영자가 디지털 서비스에 대한 수요를 충족시키기 위해 데이터 센터 인프라를 확장하기 위해 수십억 달러를 쏟아 부으므로 혼자서는 아닙니다. Synergy Research Group의 분석에 따르면 Hyperscale 자본 지출은 2021 년 상반기에 30 % 증가한 것으로 나타났습니다. Synergy Research Group의 분석에 따르면 6 개월 동안 약 830 억 달러를 지출 한 19 개의 하이퍼 스케일 제공 업체를 추적했습니다.
페이스 북에 비추어 이러한 지출 수준이 쉽게 증가 할 수 있습니다’미래의 Capex 지출 및 Microsoft에 대한 투영’s는 연간 50 ~ 100 개의 데이터 센터를 구축 할 계획입니다.
서사시 규모의 인프라 혁신
펄롱’메타에 대한 S 블로그 게시물’S Data Center Journey는 2011 년 Facebook에서 설립 한 Open Hardware 이니셔티브 인 Open Compute Project의 진행 상황을 되돌아 보는 동반자 게시물과 마찬가지로 읽을 가치가 있습니다.
“Open Hardware는 혁신을 주도하며 더 많은 공급 업체와 협력하여 메타 전반에 걸쳐 현재 및 신흥 기능을 지원하기 위해 차세대 하드웨어를 개발할 수있는 더 많은 기회를 의미합니다’기술 가족.,” Furlong은 썼다.
규모로 혁신해야 할 필요성은 또한 데이터 센터 구성을 포함하여.
“오늘날 데이터 센터 및 건설 산업에는 많은 활동이 있으며, 이로 인해 올바른 사이트와 파트너를 찾아야합니다,” Furlong이 말했다. “또한보다 유연한 사이트 선택 및 건설 프로세스를 만들어야한다는 의미도 있습니다. 이 모든 노력은 또한 우리의 공급 업체와 계약자를이 모든 것의 파트너로 더 많이 보는 것도 포함됩니다. 우리는 할 수 있습니다’T 단지 달러에 대해 이것을 만드십시오. 우리는 성능에 대해 만들어야합니다. 우리는 모범 사례를 운전하고 지속적인 개선에 대해 만들어야합니다.
“그러나 그것은’건설 산업이 일반적으로 작동하는 방식이 아닙니다,” 그는 계속했다. “그래서 우리’VE는 운영 운영 및 개선에 대한 우리 자신의 아이디어를 많이 가져 와서 우리와 함께 일하는 회사에 깊은 인상을 주어야했습니다.”
디지털 인프라는 매일 점점 더 중요 해지고 있으며, 메타와 그 초기 상대방은 필요한 규모와 속도를 제공하기위한 새로운 전략을 개척하고 있습니다. 그것’Furlong이 반영하는 것처럼 지속적인 프로세스입니다.
“데이터 센터 아레나로 이사하는 것은 결코 쉬운 일이 아닙니다,” 그는 쓴다. “그러나 나는 우리를 생각합니다’VE는 내가 결코 상상하지 못했던 규모로 놀라운 프로그램으로 끝났습니다. 그리고 우리’항상 더 많은 것을 요청받습니다. 저것’비즈니스 도전과 IT’아마도 나와 내 팀이 매일 일하러 오는 주요 것들 중 하나 일 것입니다. 우리는 믿을 수 없을 정도로 엄청난 규모의 일을하기 위해이 엄청난 도전을 가지고 있습니다.”
Facebook에는 고유 한 데이터 센터가 있습니까?
블로그 홈으로 돌아갑니다
сен 20 2016
Facebook 인프라 : 내부 데이터 센터 전략 및 개발
메타 경력에 의해
Rachel Peterson은 Facebook의 인프라 데이터 센터 전략 팀을 이끌고 있습니다. 그녀의 팀은 Facebook의 데이터 센터 포트폴리오를 관리하고 추가 인프라 지속 가능성, 효율성 및 신뢰성을위한 기회를 식별하기위한 전략적 지원을 제공합니다. Facebook에서의 경험과 그녀의 팀이 어떻게 세계 연결을 위해 노력하고 있는지 살펴보십시오.
당신의 페이스 북 이야기는 무엇입니까??
회사가 오레곤 주 프린빌에서 첫 번째 데이터 센터를 출시하려고했을 때 2009 년에 페이스 북에 합류했습니다. 당시 전체 데이터 센터 팀은 30 명 미만의 팀원으로 구성되었으며 Facebook은 미국에서 두 개의 작은 공동 위치 발자국을 차지했습니다. 나는 Facebook의 소유 데이터 센터를위한 사이트 선택 프로그램을 구축하기 위해 가입했습니다. 오늘날 우리 팀은 전 세계 여러 지역에 100 명 이상의 사람들로 구성되어 있습니다.
Facebook은 오늘 빨리 전달하여 미국, 유럽 및 아시아에 걸친 대규모 데이터 센터 포트폴리오를 소유하고 운영하고 있습니다. 사이트 선택 프로그램은 15 개의 대규모 데이터 센터를 성공적으로 시작했으며 100% 재생 가능 에너지로 이러한 데이터 센터에 전원을 공급하기 위해 노력하고 있습니다. 2012 년에는 모든 데이터 센터에 대해 2015 년 전기 공급 믹스에서 25% 클리닝 및 재생 에너지의 첫 번째 목표를 설정했습니다. 2017 년에 우리는 모든 Facebook 운영에 대해 50% 깨끗하고 재생 가능한 에너지를 능가했습니다. 2018 년에 우리는 2020 년 말까지 Facebook의 성장하는 모든 운영에 대해 100% 깨끗하고 재생 가능한 에너지를 충족시키는 다음 공격적인 목표를 설정했습니다.
이 성장의 최전선에 서서 Facebook의 인프라 성장에 중요한 역할을 한 팀을 구축하는 것은 정말 흥미로 웠습니다. 이 놀라운 여정에는 둔한 순간이 없었습니다! Facebook의 성장은 도전과 재미로 만들었고, 나는 내가 배우지 못한 곳으로 하루가 지났다고 생각하지 않습니다. 나는 내가하는 일을 사랑하고, 정말 놀랍고 재미있는 팀과 함께 일하게되어 진정으로 운이 좋다. Facebook의 문화는 우리 팀이 광범위한 영향을 미칠 수있게 해주 며, 함께 우리는 세상을 더 개방적이고 연결하게 만들고 있습니다. 한 번에 하나의 데이터 센터.
Facebook의 사명은 세상을보다 개방적이고 연결시키는 것입니다?
Facebook의 글로벌 위치 전략 및 사이트 선택 노력을 이끌고 사이트를 지원하기위한 새로운 재생 에너지를 포함하여 여러 가지 중요한 위치 기준을 기반으로합니다.
Air 및 Water Compliance를 포함하여 현장 선택에서 Facebook의 글로벌 환경 준수 프로그램을 관리합니다.
Facebook의 글로벌 에너지 프로그램을 이끌고 운영 전반에 걸쳐 현장 선택에서 100% 재생 에너지 에너지 공급을 최적화하면서 재정 책임과 신뢰성을 보장합니다.
글로벌 데이터 센터 로드맵의 전략 계획, 활성화 및 모니터링을 이끌고 있습니다.
데이터 센터 수명주기에서 전략적 결정 및 성능 최적화를 가능하게하는 데이터 과학 지원을 제공합니다.
데이터 센터가있는 위치에서 커뮤니티 참여 작업을 이끌고 있습니다.
Facebook의 글로벌 확장을 허용하기 위해 정책 및 위험 완화 전략을 개발하고 관리합니다’S 인프라 발자국.
페이스 북.
우리의 지속 가능성 팀’S 미션은 Facebook을 지원하는 것입니다’s는 효율적이고 책임감있게 운영하고 성장하고 사람들이 지속 가능한 커뮤니티를 건설 할 수있는 능력.
비즈니스의 설계, 건설 및 운영에서 운영 우수성을 주도하는 회사 전체의 전략을 이끌고 있습니다. 우리는 효율성, 수자원 보존 및 공급망 우수성을 우선시하며 우리 시설이 세계에서 가장 많은 수자원 및 에너지 효율성 중 하나라고 자랑스럽게 생각합니다.
우리는 기후 변화와 싸우기 위해 최선을 다하고 있으며 2020 년까지 배출량을 75 % 줄이기위한 과학 기반 목표를 설정했습니다.
Facebook의 핵심 가치는 빠르게 이동하고, 영향에 집중하고, 사회적 가치를 구축하고, 개방적이며, 대담합니다. 어떤 가치가 팀과 공명합니다?
영향에 중점을 둡니다. 우리 팀은 상대적으로 마른 상태이지만 회사에 대한 많은 고 충격 이니셔티브를 제공 할 수있는 능력이 있습니다.
대부분의 사람들이 당신의 팀에 대해 모르는 것은 무엇입니까??
변호사, 공공 정책 관리자, 재무 분석가, 프로그램 관리자, 데이터 과학자, 에너지 전문가, 엔지니어 및 비즈니스 프로세스 전문가로 구성된 매우 다양한 팀이 있습니다.
기술 산업의 여성 리더가되고 일반적으로 Facebook 및 Tech에서 다양성의 중요성에 대해 공유 할 수 있습니까??
페이스 북에서 일하는 것을 좋아하는 이유 중 하나는 다양성에 대한 우리의 헌신 때문입니다. 다양성은 Facebook에서 과외 활동이 아니라 회사의 모든 수준에서 구현하려는 목표입니다. 우리와 기술 산업 전체가 여기서 더 많은 노력을 기울이지 만 문화, 제품 및 채용 우선 순위를 통해이 약속을 지속적으로 강화합니다.
기술 분야의 여성으로서 저는 업계에 다양성이 얼마나 중요한지와 다양한 관점이 더 나은 결과를 주도하는 방법을 직접 알고 있습니다. 다양한 후보자의 채용을 개선하고 여성이 일반적으로 남성이 지배하는 부문에 가입하도록 장려하기 위해 최선을 다하는 것이 매우 중요합니다. 나는 전통적으로 남성 지배 산업 인 부동산 현장 선택에서의 경력을 발견했으며, 길을 따라 나를 영감을 얻고 멘토링 한 많은 재능있는 여성들을 통해 영감을 얻었습니다. 오늘날 기술 분야의 여성 리더로서, 여성의 멘토가 되고이 업계에서 여성의 성장과 발전을 적극적으로 지원하기 위해 할 수있는 일을하는 것은 저의 의무와 특권입니다.
여성에 대한 나의 조언? 당신이 당신의 곳에있는 지역에 있더라도 열정을 찾아서 그들을 따르십시오’일반적으로 방에서 유일한 여성입니다. 당신의 강점은 당신의 열정을 통해 발전 할 것이며 당신은’당신의 공예에서 더 열심히 일합니다. 당신의 경력은 고유 한 궤적을 찾을 것입니다. 가장 중요한 것은 자신에게 공간이 실패 할 수 있도록하고 길을 따라 우연히 돌아 다니면 바로 다시 올라가십시오.
Facebook에는 고유 한 데이터 센터가 있습니까?
페이스 북’S 서비스는 전 세계 데이터 센터의 서버 차량에 의존합니다. 모든 응용 프로그램을 실행하고 서비스가 필요한 성능을 제공합니다. 그렇기 때문에 서버 하드웨어가 신뢰할 수 있는지 확인하고 가능한 한 서비스에 대한 방해가 거의없는 상태에서 서버 하드웨어 장애를 관리 할 수 있어야합니다.
하드웨어 구성 요소 자체는 재료 저하를 포함하여 여러 가지 이유로 실패 할 수 있습니다 (E.g., 지구력 수준을 넘어 사용되는 장치 인 회전 하드 디스크 드라이브의 기계적 구성 요소 (E.g., NAND 플래시 장치), 환경 영향 (e.g., 습도로 인한 부식) 및 제조 결함.
일반적으로 데이터 센터에서 항상 어느 정도의 하드웨어 실패를 기대하므로 서비스 중단을 최소화하기 위해 클러스터 관리 시스템과 같은 시스템을 구현합니다. 이 기사에서는 우리는’높은 수준의 하드웨어 가용성을 유지하는 데 도움이되는 4 가지 중요한 방법론을 다시 소개합니다. 우리는 문제를 감지하고 수정할 수있는 시스템을 구축했습니다 . 응용 프로그램 성능에 악영향을 미치지 않고 하드웨어 이벤트를 모니터링하고 수정합니다 . 우리는 하드웨어 수리에 적극적 인 접근 방식을 채택하고 개선을위한 예측 방법론을 사용합니다 . 그리고 우리는 규모에 따라 하드웨어 및 시스템 고장에 대한 근본 원인 분석을 자동화하여 빠르게 문제의 맨 아래로 이동합니다.
하드웨어 개선 방법을 처리하는 방법
하드웨어 및 연결 고장을 감지하기 위해 각 서버에서 MachineChecker라는 도구를 주기적으로 실행합니다. MachineChecker가 중앙 경보 처리 시스템에서 경고를 작성하면 Facebook Auto-Remediation (FBAR)이라는 도구 인 Alert를 선택하고 사용자 정의 가능한 치료법을 실행하여 오류를 해결합니다. 거기에 보장합니다’여전히 페이스 북을위한 충분한 용량입니다’S 서비스, 우리는 한 번에 몇 개의 서버를 수리하는 서버 수를 제한하도록 요금 제한을 설정할 수 있습니다.
FBAR가 할 수 있다면’T 서버를 건강한 상태로 되돌려 놓으면 실패는 Cyborg라는 도구로 전달됩니다. Cyborg. 문제가 기술자의 수동 수리가 필요한 경우 시스템은 수리 티켓팅 시스템에서 티켓을 만듭니다.
우리는 논문 에서이 과정에 대해 더 깊이 파고 들었습니다 “규모의 하드웨어 개선.”
서버 성능에 대한 오류보고의 부정적인 영향을 최소화하는 방법
MachineChecker는 오류 보고서에 대한 다양한 서버 로그를 확인하여 하드웨어 고장을 감지합니다. 일반적으로 하드웨어 오류가 발생하면 시스템에 의해 감지됩니다 (E.g., 패리티 검사에 실패), 오류 처리 및 로그인하기 위해 인터럽트 신호가 CPU로 전송됩니다.
이러한 인터럽트 신호는 우선 순위가 높은 신호로 간주되므로 CPU는 정상 작동을 중단하고 오류 처리에주의를 기울입니다. 그러나 이것은 서버에 부정적인 성능에 영향을 미칩니다. 예를 들어, 수정 가능한 메모리 오류를 기록하는 경우, 기존 인터럽트 시스템 관리 인터럽트 (SMI)는 모든 CPU 코어를 실행하는 반면, CMCI (Correctable Machine Check Interprupt)는 CPU 코어 중 하나만 정체되므로 나머지 CPU 코어는 정상 작동에 사용할 수 있습니다.
CPU 마구간은 일반적으로 수백 밀리 초만 지속되지만 여전히 대기 시간에 민감한 서비스를 방해 할 수 있습니다. 규모에 따라, 이는 일부 기계의 인터럽트가 서비스 수준 성능에 계단식 부정적인 영향을 줄 수 있음을 의미합니다.
오류보고로 인한 성능 영향을 최소화하기 위해 수정 가능한 메모리 오류의 수와 관련하여 정확도를 잃지 않고 CMCI와 SMI를 모두 사용하는 메모리 오류보고에 대한 하이브리드 메커니즘을 구현했습니다.
기계 학습을 활용하여 수리를 예측하는 방법
데이터 센터에 새로운 하드웨어 및 소프트웨어 구성을 자주 소개하므로 자동 평가 시스템에 대한 새로운 규칙도 작성해야합니다.
자동화 된 시스템이 하드웨어 고장을 수정할 수없는 경우 문제에 수동 수리 티켓이 할당됩니다. 새로운 하드웨어 및 소프트웨어는 해결해야 할 새로운 유형의 잠재적 실패를 의미합니다. 그러나 새로운 하드웨어 또는 소프트웨어가 구현 될 때와 새로운 개선 규칙을 통합 할 수있는 시점 사이에는 차이가있을 수 있습니다. 이 차이 중에 일부 수리 티켓은 “진단되지 않았습니다,” 시스템이 있음을 의미합니다’t 수리 조치를 제안했다 “잘못 진단,” 제안 된 수리 조치가 의미합니다’t 효과. 이것은 더 많은 노동과 시스템 다운 타임을 의미하는 반면 기술자는 문제를 스스로 진단해야합니다.
격차를 마무리하기 위해, 우리는 과거에 실패가 어떻게 해결되었는지를 알게 된 기계 학습 프레임 워크를 구축하고 현재 진단되지 않은 현재 진단되지 않은 수리에 필요한 수리를 예측하려고 시도합니다. 잘못되고 올바른 예측의 비용과 혜택에 따라 각 수리 조치에 대한 예측 신뢰에 대한 임계 값을 할당하고 수리 조치 순서를 최적화합니다. 예를 들어, 경우에 따라 우리는 이러한 종류의 수리가 돈을 사용하기 때문에 먼저 재부팅 또는 펌웨어 업그레이드를 시도하는 것을 선호합니다’t 물리적 하드웨어 수리가 필요하고 완료하는 데 시간이 덜 걸리므로 알고리즘은 이러한 종류의 작업을 먼저 권장해야합니다. 기계 학습은 분명히 진단되지 않은 또는 잘못 진단 된 문제를 복구하는 방법을 예측할뿐만 아니라 가장 중요한 문제를 우선 순위로 삼을 수 있습니다.
우리는 어떻게’VE 자동 차량 수준의 근본 원인 분석
재부팅, 커널 패닉 등 메모리 등을 기록하는 서버 로그 외에도., 생산 시스템에는 소프트웨어 및 툴링 로그도 있습니다. 그러나이 모든 것의 규모와 복잡성은 그것을 의미합니다’그들 사이의 상관 관계를 찾기 위해 모든 로그를 공동으로 검사하기가 어렵습니다.
우리는 수백만 개의 로그 항목 (잠재적으로 수백 개의 열에 의해 설명됨)을 정렬하여 이해하기 쉬운 상관 관계를 찾는 확장 가능한 루트 원인 분석 (RCA) 도구를 구현했습니다.
실시간 인 메모리 데이터베이스 인 Scuba를 사용한 데이터 사전 응집을 통해이 RCA 프레임 워크에서 상관 관계를 찾기 위해 전통적인 패턴 마이닝 알고리즘 FP-Growth의 확장 성을 크게 향상 시켰습니다. 또한 결과의 해석 가능성을 향상시키기 위해보고 된 상관 관계에 필터 세트를 추가했습니다. 하드웨어 구성 요소 고장 속도, 예상치 못한 서버 재부팅 및 소프트웨어 고장에 대한 RCA 용 RCA 용 Facebook 내부 에이 분석기를 광범위하게 배포했습니다.
HP와 Dell이 필요한 사람? Facebook은 이제 모든 자체 서버를 설계합니다
Facebook의 최신 데이터 센터에는 OEM 서버가 없습니다.
Jon Brodkin -2013 년 2 월 14 일 오후 10:35 UTC
독자 의견
거의 2 년 전 Facebook은 Open Compute Project라는 것을 공개했습니다. 아이디어는 서버, 스토리지 및 랙과 같은 데이터 센터 하드웨어에 대한 설계를 공유하여 기업이 하드웨어 공급 업체가 제공하는 좁은 옵션에 의존하는 대신 자체 장비를 구축 할 수 있도록하는 것이 었습니다.
누구나 혜택을 누릴 수 있지만 Facebook은 자체 데이터 센터에 맞춤형 하드웨어를 배포하는 길을 이끌었습니다. 이 프로젝트는 Facebook에서 배포 한 모든 새로운 서버가 Facebook 자체에 의해 설계되었거나 다른 사람들이 Facebook의 까다로운 사양으로 설계된 시점으로 진행되었습니다. 오늘날 Custom Gear는 Facebook 데이터 센터에서 장비의 절반 이상을 차지합니다. 다음으로 Facebook은 스웨덴에 290,000 평방 피트 규모의 데이터 센터를 개설 할 것입니다.
Facebook의 하드웨어 디자인 및 공급망 운영 부사장 인 Frank Frankovsky는 이번 주 전화 인터뷰에서 ARS에 “이번 주에 전화 인터뷰에서”Frank Frankovsky는 “100 % 오픈 컴퓨팅 서버를 내부에 100 % 오픈 컴퓨팅 서버를 보유 할 최초의 것”이라고 말했다.
노스 캐롤라이나와 오레곤에있는 Facebook의 기존 데이터 센터와 마찬가지로 이번 여름에 스웨덴 Luleå에서 온라인으로 온 온라인 데이터 센터. Facebook은 또한 기어를 임대 데이터 센터 공간에두고 미국의 11 개의 콜로레이션 사이트를 포함하여 전 세계 사용자 근처의 존재를 유지합니다. 세금, 가용 기술 노동, 출처 및 권력 비용, 기후 : 위치 선택에 기여합니다. Facebook은 전통적인 에어컨을 사용하지 않고 대신 서버를 충분히 시원하게 유지하기 위해 “외부 공기 및 독특한 증발 냉각 시스템에 완전히 의존합니다”라고 Frankovsky는 말했습니다.
당신이하지 않는 것을 벗겨서 돈을 절약하십시오’필요
Facebook의 규모로 클라우드 서비스 제공 업체에 의존하는 것보다 자체 데이터 센터를 유지하는 것이 저렴하다고 그는 지적했다. 또한 기존 서버 공급 업체를 피하기 위해 Facebook도 더 저렴합니다.
Google과 마찬가지로 Facebook은 자체 서버를 설계하고 HP 또는 Dell과 같은 OEM (원래 장비 제조업체)이 아닌 대만과 중국의 ODM (원래 디자인 제조업체)이 제작했습니다. Facebook은 자체적으로 Rolling을 통해 Frankovsky가 “Gratuitous Difformation”이라고 부르는 것을 제거합니다. 서버는 독특하지만 Facebook에 도움이되지 않는 하드웨어 기능.
브랜드 로고가있는 서버의 플라스틱 베젤만큼 간단 할 수 있습니다. 여분의 자료가 팬이 더 열심히 일하도록 강요하기 때문입니다. Frankovsky는이 연구에 따르면 표준 1U 크기의 OEM 서버는 “플라스틱 베젤으로 인한 임피던스를 통해 공기를 당기기 위해 28 와트의 팬 전력을 사용한 것”이라고 밝혔다.
Facebook은 무엇을 제거합니까?? Frankovsky는 “오늘날 많은 마더 보드에는 많은 경영진이 있습니다. 그것이 제가 사용하고 싶은 기술 용어입니다.”이 goop은 HP의 통합 수명주기 관리 엔진 또는 Dell의 원격 서버 관리 도구 일 수 있습니다.
이러한 기능은 많은 고객에게 유용 할 수 있습니다. 특히 한 공급 업체에서 표준화 한 경우. 그러나 Facebook의 규모에 따라 “디자인 결함은 차량의 큰 부분을 차지하거나 부족으로 인해 제품을 데이터 센터에 전달할 수있는 능력을 방해 할 수 있기 때문에 한 공급 업체에만 의존하는 것은 의미가 없습니다.”
Facebook에는 자체 데이터 센터 관리 도구가 있으므로 HP 또는 Dell이 만드는 물건은 불필요합니다. Frankovsky는 “공급 업체 제품에는 자체 사용자 인터페이스 세트, API 세트 및 예쁜 GUI가 제공되어 팬이 얼마나 빨리 회전하고 있는지, 대부분의 고객이 일반적으로 대부분의 고객을 스케일 뷰로 배포하는 것들을 중대한 차별화로 배포하는 것들을 알려줍니다”라고 Frankovsky는 말했습니다. “나에게는 중요하지 않은 방식으로 다릅니다. 마더 보드의 추가 계측은 재료 관점에서 구매하는 데 비용이들뿐만 아니라 운영의 복잡성을 유발합니다.”
HP 및 Dell의 경로 : 개방 컴퓨터에 적응
그렇다고 페이스 북이 HP와 Dell을 영원히 맹세한다는 의미는 아닙니다. “우리의 새로운 장비의 대부분은 Quanta와 같은 ODM에 의해 구축되었습니다.”회사는 후속 질문 중 하나에 대한 전자 메일 응답으로 말했다. “우리는 모든 장비를 다중 소스하고 OEM이 표준에 맞게 구축되어 5 % 이내에 가져올 수 있다면 일반적으로 다중 소스 토론에 있습니다.”
HP와 Dell은 Compute 사양의 개방을 준수하는 디자인을 시작했으며 Facebook은 HP에서 하나를 테스트하여 삭감 할 수 있는지 확인하고 있다고 말했습니다. 그러나이 회사는 스웨덴의 새로운 데이터 센터가 OEM 서버가 열릴 때 어떤 OEM 서버도 포함하지 않을 것이라고 확인했습니다.
페이스 북은 저비용 인프라를 보유한 24 %의 금융 절감을 받고 있으며 자체 물건을 구축 한 결과 지속적인 운영 비용이 38 % 절감되어 있다고 밝혔다. Facebook의 사용자 정의 디자인 서버는 다른 서버와 다른 워크로드를 실행하지 않습니다. 더 효율적으로 실행합니다.
Frankovsky는“HP 또는 Dell 서버 또는 Compute Server를 열면 일반적으로 동일한 워크로드를 실행할 수 있습니다. “단지 달러당 와트 당 얼마나 많은 일을하는지의 문제 일뿐입니다.”
Facebook은 소프트웨어가 이미 모든 하드웨어 리소스를 이미 소비하기 때문에 서버를 가상화하지 않습니다. 즉, 가상화는 효율성이 높아지지 않고 성능 페널티를 제공합니다.
소셜 미디어 대기업은 자체 서버, 마더 보드 및 기타 장비의 디자인과 사양을 발표했습니다. 예를 들어, “Windmill”마더 보드는 2 개의 Intel Xeon E5-2600 프로세서를 사용하며 CPU 당 최대 8 개의 코어를 사용합니다.
Facebook의 사양 시트는 다음을 분류합니다
- 2 Intel® Xeon® E5-2600 (LGA2011) 시리즈 프로세서 최대 115W
- 2 전액 인텔 QuickPath Interconnect (QPI) 최대 8 gt/s/direction 링크
- CPU 당 최대 8 개의 코어 (하이퍼 스레딩 기술을 갖춘 최대 16 개의 스레드)
- 최대 20MB의 마지막 레벨 캐시
- 단일 프로세서 모드
- 다음과 같은 CPU0 및 CPU1에서 DDR3 직접 첨부 메모리 지지대
- 4 채널 DDR3 프로세서 0 및 1의 등록 메모리 인터페이스
- 프로세서 당 채널 당 DDR3 슬롯 2 개 (마더 보드의 총 16 개의 DIMM)
- rdimm/lv-rdimm (1.5V/1.35v), lrdimm 및 ecc udimm/lv-udimm (1.5V/1.35V)
- 단일, 듀얼 및 쿼드 순위 DIMM
- 800/1066/1333/1600 MHz의 DDR3 속도
- 32GB RDIMM DIMMS로 최대 512GB 메모리
그리고 이제 마더 보드의 다이어그램 :
그 마더 보드 사양은 거의 1 년 전에 출판되었지만 여전히 표준입니다. 새로 설계된 데이터베이스 서버 “Dragonstone”및 웹 서버 “Winterfell”은 Windmill 마더 보드에 의존하지만 올해 말 페이스 북에서 생산을 치를 수 있지만.
Facebook의 서버 설계는 다른 작업에 맞게 조정됩니다. 레지스터의 Timothy Prickett Morgan이 지난 달에보고 한 것처럼 Facebook의 특정 데이터베이스 기능에는 중복 전원 공급 장치가 필요하지만 다른 작업은 단일 전원 공급 장치를 공유하는 여러 컴퓨팅 노드가있는 서버에서 처리 할 수 있습니다.
데이터 센터는 플래시 스토리지와 전통적인 회전 디스크의 혼합을 사용하며 Flash는 가장 빠른 속도가 필요한 Facebook 기능을 제공합니다. 데이터베이스 서버는 모든 플래시를 사용합니다. 웹 서버는 일반적으로 실제로 빠른 CPU를 가지고 있으며 상대적으로 저장 및 RAM이 있습니다. Frankovsky는 16GB는 전형적인 양의 램이라고 말했다. 인텔과 AMD 칩은 모두 Facebook 장비에 존재합니다.
그리고 Facebook은 많은 “냉장 저장소”로 인해 한 번 작성되어 다시 접근하지 않습니다. 거기에도 Frankovsky는 회전 디스크의 고장 속도로 인해 점점 더 플래시를 사용하고 싶어합니다. 그는 수만 개의 장치가 작동 중이므로 “우리는 기술자가 하드 드라이브를 교체하는 것을 달리는 것을 원하지 않는다”고 말했다.
데이터 센터 클래스 플래시는 일반적으로 회전 디스크보다 훨씬 비싸지 만 Frankovsky는 그만한 가치가 있다고 말합니다. “일반적으로 스윕 또는 스크랩 NAND로 간주되는 썸 드라이브에서 NAND [FLASH] 클래스를 사용하고, 정말 멋진 종류의 컨트롤러 알고리즘을 사용하여 어떤 셀이 좋은지, 어떤 셀이 아닌지를 특성화하면 매우 저렴한 비용으로 고성능 냉간 저장 솔루션을 구축 할 수 있습니다.”.
데이터 센터 유연성을 극단으로 가져옵니다
Frankovsky는 디자인이 매우 유연하기 때문에 변화하는 수요에 따라 개별 구성 요소를 교환 할 수 있습니다. 그 라인을 따라 한 가지 노력은 마더 보드에 대한 Facebook의 새로운 “Group Hug”사양으로, 수많은 공급 업체의 프로세서를 수용 할 수 있습니다. AMD 및 Intel, ARM 칩 벤더는 Micro 및 Calxeda를 적용한 ARM 칩 벤더가 이미 새로운 SOC (System On Chip) 제품으로 이러한 보드를 지원하기 위해 서약했습니다.
그것은 지난 달 캘리포니아 산타 클라라에서 열린 오픈 컴퓨팅 서밋에서 나온 몇 가지 뉴스 항목 중 하나였습니다. Frankovsky는 블로그 게시물에서 고객이 “마더 보드 나 팩 네트워킹을 교체하지 않고도 여러 세대의 프로세서를 통해 업그레이드 할 수있는 미래를 지적합니다.”.
Calxeda는 Facebook의 Open Vault Storage 시스템, 코드 명 “Knox로 밀어 넣을 수있는 ARM 기반 서버 보드를 내놓았습니다.Frankovsky는 “저장 장치를 스토리지 서버로 바꾸고 하드 드라이브를 제어하기 위해 별도의 서버가 필요하지 않습니다.”라고 말했습니다. (Facebook은 64 비트 지원이 필요하기 때문에 오늘날 ARM 서버를 사용하지 않지만 Frankovsky는 ARM 기술에서 “일이 흥미로워지고 있습니다”라고 말합니다.))
인텔은 또한 다가오는 실리콘 광자 기술을위한 설계에 기여했습니다.이 기술은 Facebook이 오늘날 데이터 센터에서 사용하는 이더넷 연결보다 10 배 빠른 100GBPS 상호 연결을 허용 할 수 있습니다. 이러한 종류의 속도에 따라 낮은 대기 시간을 사용하면 고객은 CPU, DRAM 및 스토리지를 랙의 다른 부분으로 분리하고 필요할 때 전체 서버 대신 구성 요소를 추가하거나 빼게 될 수 있다고 Frankovsky는 말했다. 이 시나리오에서 여러 호스트가 플래시 시스템을 공유하여 효율성을 향상시킬 수 있습니다.
OEM 세계 외부에서 나오는 이러한 모든 맞춤형 디자인에도 불구하고 HP와 Dell은 완전히 남아 있지 않습니다. 그들은 Open Compute 디자인의 유연성을 원하는 일부 고객을 캡처하려고 노력했습니다. Dell 경영진은 올해의 Open Compute Summit에서 기조 연설 중 하나를 전달했으며 작년 HP와 Dell은 Open Compute Project의 “Open Rack”사양과 호환되는 “Clean-Sheet Server and Storage Designs”를 발표했습니다.
Frankovsky는 Facebook에 좋을뿐만 아니라 Open Compute가 서버 고객에게 일반적으로 혜택을주기를 희망합니다. Fidelity와 Goldman Sachs는 Open Compute의 결과로 워크로드에 조정 된 맞춤형 디자인을 사용하는 사람들 중 하나입니다. 소규모 고객은 서버 나 랙 디자인을 변경할 수없는 데이터 센터에서 공간을 임대하더라도 혜택을 누릴 수 있다고 그는 말했다. Frankovsky는 “[Open Compute의 빌딩 블록을 가져 와서 서버 슬롯에 맞는 물리적 디자인으로 재구성 할 수 있다고 Frankovsky는 말했다.
“업계는 개방형 컴퓨팅으로 인해 소비자에게 유리하게 좋은 방식으로 변화하고 변화하고있다”고 그는 말했다.