Tech em Meta
O Google cria servidores próprios para eficiência
O Google, normalmente de boca fechada sobre a tecnologia por trás de seus data centers, constrói seus próprios servidores para economizar custos e porque os produtos padrão não atendem exatamente às suas necessidades, disse o vice-presidente de operações do Google na quinta-feira.
Os fabricantes de hardware investem pesadamente na pesquisa e desenvolvimento de produtos confiáveis, um recurso que a maioria das empresas valoriza. Mas o Google na verdade não precisa de servidores muito confiáveis, porque escreveu seu software para compensar interrupções de hardware, disse Urs Holzle, falando na quinta -feira na sede européia do Google em Dublin.
Em vez de comprar servidores comerciais, a um preço que aumenta com a confiabilidade, o Google cria servidores menos confiáveis a um custo mais barato, sabendo que seu software funcionará em torno de quaisquer interrupções. “Para nós, essa é a solução certa”, disse Holzle.
Outra razão pela qual o Google cria seus próprios servidores é igualmente simples: pode economizar custos no consumo de energia.
A eficiência energética é um sujeito que Holzle fala apaixonadamente. Cerca de metade da energia que entra em um data center é perdida devido a ineficiências tecnológicas que geralmente são fáceis de corrigir, ele disse.
A fonte de alimentação para os servidores é um lugar em que a energia é desnecessariamente perdida. Um terço da eletricidade que passa por uma fonte de alimentação típica vaza como calor, ele disse. Isso é um desperdício de energia e também cria custos adicionais no resfriamento necessário devido ao calor adicionado a um edifício.
Em vez de desperdiçar a eletricidade e incorrer nos custos adicionais de resfriamento, o Google possui fontes de alimentação especialmente feitas com 90% de eficiência. “Não é difícil de fazer. É por isso que para mim é pessoalmente ofensivo “que as fontes de energia padrão não sejam tão eficientes, ele disse.
Embora ele admita que o pedido especialmente feito com fontes de alimentação seja mais caro do que a compra de produtos padrão, o Google ainda economiza dinheiro, em última análise, conservando energia e resfriamento, ele disse.
Pontos chave:
- O Google constrói seus próprios servidores para economizar custos e porque os produtos padrão não atendem às suas necessidades.
- O software do Google compensa as interrupções de hardware, por isso não precisa de servidores muito confiáveis.
- Construir servidores menos confiáveis a um custo mais barato é a solução certa para o Google.
- O Google economiza custos no consumo de energia, concentrando -se na eficiência energética.
- Metade da energia que entra em um data center é perdida devido a ineficiências tecnológicas.
- O Google usa fontes de alimentação fabricadas especialmente que são 90% eficientes para evitar desperdiçar eletricidade.
- O pedido especialmente feito com fontes de alimentação é mais caro, mas acaba economizando dinheiro para o Google.
Questões:
- Por que o Google constrói seus próprios servidores?
O Google constrói seus próprios servidores para economizar custos e porque os produtos padrão não atendem às suas necessidades. - Como o Google compensa as interrupções de hardware?
O software do Google foi projetado para compensar interrupções de hardware. - Qual é a vantagem de construir servidores menos confiáveis para o Google?
Construir servidores menos confiáveis a um custo mais barato é a solução certa para o Google. - Qual é o foco do Google quando se trata de consumo de energia?
O Google se concentra na eficiência energética para economizar custos no consumo de energia. - Quanta energia é perdida em um data center típico devido a ineficiências tecnológicas?
Cerca de metade da energia que entra em um data center é perdida devido a ineficiências tecnológicas. - O que é um lugar onde a energia é desnecessariamente perdida na fonte de alimentação?
Um terço da eletricidade que passa por uma fonte de alimentação típica vaza como calor. - Por que o Google usa fontes de alimentação especialmente fabricadas?
O Google usa fontes de alimentação fabricadas especialmente que são 90% eficientes para evitar desperdiçar eletricidade. - O pedido é feito especialmente as fontes de alimentação mais caras para o Google?
Sim, solicitar fontes de alimentação especialmente feitas é mais caro para o Google.
Software, servidores, sistemas, sensores e ciências: Facebook’s Receita para data centers hipereficientes
Eficiência e energia renovável são o Facebook’S Primeira linha de defesa para ajudar a conter nossas emissões de carbono e combater as mudanças climáticas, especialmente quando se trata de nossos data centers.
Já em 2011, o Facebook foi uma das primeiras grandes empresas de tecnologia a se comprometer com 100 % de energia renovável. No ano passado, a energia solar e eólica forneceu 75 % da energia usada para operar nossos negócios globalmente. Hoje nós’Re a caminho de atingir nosso objetivo de reduzir nossa pegada de gases de efeito estufa em 75 % quando atingimos nossa meta de energia renovável de 100 % em 2020.
Pontos chave:
- Eficiência e energia renovável são prioridades do Facebook para seus data centers.
- O Facebook se comprometeu com 100 % de energia renovável.
- A energia solar e eólica forneceu 75 % do uso de energia do Facebook no ano passado.
- O Facebook pretende reduzir sua pegada de gases de efeito estufa em 75 %, alcançando sua meta de energia renovável de 100 %.
Questões:
- Quais são as prioridades do Facebook para seus data centers?
Eficiência e energia renovável são prioridades do Facebook para seus data centers. - Quando o Facebook se comprometeu com 100 % de energia renovável?
O Facebook se comprometeu com 100 % de energia renovável já em 2011. - Qual a porcentagem do uso de energia do Facebook foi fornecido pela energia solar e eólica no ano passado?
75 % do uso de energia do Facebook foi fornecido pela energia solar e eólica no ano passado. - Qual é o objetivo do Facebook em relação à sua pegada de gases de efeito estufa?
O Facebook pretende reduzir sua pegada de gases de efeito estufa em 75 %, alcançando sua meta de energia renovável de 100 %.
Tech em Meta
Sim, esse plano inclui novo hardware, bem como um novo software. O que o Google e o Twitter aprenderam é que, por seus enormes serviços da Web, servidores tradicionais de artistas como Dell, HP e IBM são muito caros e muito sedentos de energia e sedidos com hardware exagerado. Então eles estão simplificando esse hardware, construindo exatamente o que é necessário para as tarefas em questão. “Nós olhamos para a eficiência. Observamos a carga de trabalho de nossos empregos, o que estamos tentando fazer “, diz Roetter ao descrever como o Twitter projeta suas máquinas.
O Google cria servidores próprios para eficiência
O Google, normalmente de boca fechada sobre a tecnologia por trás de seus data centers, constrói seus próprios servidores para economizar custos e porque os produtos padrão não atendem exatamente às suas necessidades, disse o vice-presidente de operações do Google na quinta-feira.
Os fabricantes de hardware investem pesadamente na pesquisa e desenvolvimento de produtos confiáveis, um recurso que a maioria das empresas valoriza. Mas o Google na verdade não precisa de servidores muito confiáveis, porque escreveu seu software para compensar interrupções de hardware, disse Urs Holzle, falando na quinta -feira na sede européia do Google em Dublin.
Em vez de comprar servidores comerciais, a um preço que aumenta com a confiabilidade, o Google cria servidores menos confiáveis a um custo mais barato, sabendo que seu software funcionará em torno de quaisquer interrupções. “Para nós, essa é a solução certa”, disse Holzle.
Outra razão pela qual o Google cria seus próprios servidores é igualmente simples: pode economizar custos no consumo de energia.
A eficiência energética é um sujeito que Holzle fala apaixonadamente. Cerca de metade da energia que entra em um data center é perdida devido a ineficiências tecnológicas que geralmente são fáceis de corrigir, ele disse.
A fonte de alimentação para os servidores é um lugar em que a energia é desnecessariamente perdida. Um terço da eletricidade que passa por uma fonte de alimentação típica vaza como calor, ele disse. Isso é um desperdício de energia e também cria custos adicionais no resfriamento necessário devido ao calor adicionado a um edifício.
Em vez de desperdiçar a eletricidade e incorrer nos custos adicionais de resfriamento, o Google possui fontes de alimentação especialmente feitas com 90% de eficiência. “Não é difícil de fazer. É por isso que para mim é pessoalmente ofensivo “que as fontes de energia padrão não sejam tão eficientes, ele disse.
Embora ele admita que o pedido especialmente feito com fontes de alimentação seja mais caro do que a compra de produtos padrão, o Google ainda economiza dinheiro, em última análise, conservando energia e resfriamento, ele disse.
O Google tem data centers espalhados em todo o mundo, mas geralmente reluta em divulgar os detalhes do hardware e software em execução nos centros. Holzle conversou com jornalistas durante sua visita a Dublin para o último dia do Code Jam, um concurso para programadores patrocinados pelo Google, em um esforço para identificar trabalhadores potenciais talentosos.
- 9 Certificações Wi-Fi que aumentam a carreira
- O que é MPLS e por que ainda não está morto?
- 11 maneiras de listar e classificar arquivos no Linux
- 5 scanners de vulnerabilidade de rede gratuitos
- Como medir as velocidades Wi-Fi da empresa
- Centro de dados
- Computadores e periféricos
Nancy é uma jornalista freelancer que começou a escrever sobre telefones celulares bem a tempo de cobrir a transição para o digital.
Copyright © 2006 IDG Communications, Inc.
Software, servidores, sistemas, sensores e ciências: Facebook’s Receita para data centers hipereficientes
Eficiência e energia renovável são o Facebook’S Primeira linha de defesa para ajudar a conter nossas emissões de carbono e combater as mudanças climáticas, especialmente quando se trata de nossos data centers.
Já em 2011, o Facebook foi uma das primeiras grandes empresas de tecnologia a se comprometer com 100 % de energia renovável. No ano passado, a energia solar e eólica forneceu 75 % da energia usada para operar nossos negócios globalmente. Hoje nós’Re a caminho de atingir nosso objetivo de reduzir nossa pegada de gases de efeito estufa em 75 % quando atingimos nossa meta de energia renovável de 100 % em 2020.
- P&R: Facebook atinge 75% de energia renovável
- Um novo center verde no deserto do Novo México
- Este data center aquece seus corações, ou pelo menos aquece suas casas
A maior parte dessa energia renovável suporta nossa infraestrutura e data centers globais, que são grandes edifícios zumbindo com milhares de servidores que enviam informações digitais em todo o mundo na velocidade da luz através de uma teia de cabos subterrâneos e submarinos. Eles’RE as instalações seguras, 24/7, mantendo as pessoas conectadas via Facebook, Instagram, Messenger e WhatsApp.
O equipamento de servidor nesses data centers exige muita energia e água para permanecer ligado e resfriado, então nós’está sempre procurando maneiras criativas de fazer mais com menos. A eficiência tem sido uma grande parte do Facebook’S DNA Data Center desde que começamos a projetar nossa primeira instalação no Oregon há mais de uma década. Graças às decisões de design inteligente que se somam em toda a pilha de tecnologia dentro deles, nossos data centers economizam quantidades significativas de energia e água. Conserir esses recursos não é apenas inteligente para nossos negócios, mas também é bom para o meio ambiente.
Servidores, software, sistemas, sensores e ciências – ciência de dados, ou seja – são a receita do Facebook’s centers hipereficientes.
Programas
Infelizmente, podemos’T mostra quaisquer fotografias de nossos data centers mais eficientes. Isto’não porque eles’re top segredo. Isto’s porque eles’re invisível.
A história do Facebook’s A eficiência do data center começa com as linhas de código que fazem nossa plataforma funcionar. Por exemplo, em 2016, construímos e de mirrocks de código aberto, uma abordagem inteligente para dobrar a compressão de uma solução existente de armazenamento de dados chamada Innodb. Myrocks reduzem a quantidade de servidores de armazenamento que precisávamos em alguns de nossos data centers pela metade. E desenvolvemos uma tecnologia de balanceamento de carga chamada Autoscale para garantir que estivéssemos’T desperdiçando energia dos servidores sendo usados com baixa capacidade durante o horário de pico.
Nós’Estive melhorando e dimensionando essas duas iniciativas de eficiência – junto com muitas outras – para minimizar a quantidade de recursos de computação necessários para alimentar nossa plataforma. Então, tecnicamente falando, nossos data centers mais eficientes não’t realmente existe. Eles’RE os que nunca tivemos que construir em primeiro lugar por causa de engenheiros inteligentes que’Desenvolvi soluções de software inovadoras e eficientes.
Servidores
Dez anos atrás, o Facebook estava crescendo tão rápido que uma abordagem tradicional para construir e operar nossos data centers não seria’t trabalho. Servidores prontos para uso incluíam coisas demais que não fizemos’T necessidade. Eles estavam’T fácil para os técnicos de serviço rapidamente e não iriam’t Ajude -nos a alcançar os níveis de eficiência que conhecíamos eram possíveis sob um novo paradigma.
Então, projetamos nossos próprios servidores e lançamos o trabalho através do Open Compute Project (OCP), uma comunidade colaborativa de líderes de tecnologia. Ajudamos a lançar o OCP para elevar a tecnologia de computação eficiente e compartilhar as melhores soluções publicamente para que todos pudéssemos inovar mais rápido.
Facebook’s “livre de vaidade” Servidores podem não ganhar um concurso de beleza. Eles’é minimalista, despojado de qualquer coisa não essencial para operações eficientes. Moldes de plástico, tinta e parafusos de montagem foram removidos para reduzir o peso e reduzir o custo. Os produtos finais usam muito menos material e são muito mais fáceis para os técnicos de serviço do que qualquer coisa que poderíamos comprar. Esse design sem frescuras tem um benefício de desempenho adicional: um chassi com fãs e servidores maiores com mais área de superfície para dissipadores de calor deixa o ar fluir mais livremente, é muito menos energia necessária para mantê-los frescos e a confiabilidade não’t comprometido.
Facebook’Os servidores S OCP também podem aceitar uma tensão mais alta – e ter pequenas baterias de backup nas proximidades, em vez de uma central que serve todo o edifício – para que nosso sistema de distribuição elétrica não faça’t desperdício de energia convertendo de uma tensão para outra ou entre corrente alternada (CA) e corrente direta (DC) quantas vezes que outros data centers.
No total, esses projetos inovadores nos ajudam.
Sensores
Medir, monitorar e gerenciar a interação complexa de servidores, sistemas de energia e equipamentos de refrigeração em tempo real é fundamental para garantir que nossos data centers operem no desempenho máximo. Uma vasta rede de sensores que avaliam condições ambientais, como temperatura, fluxo de ar e umidade, alimentam -se em um computador central que acompanha as tendências e ajuda os engenheiros de operação da instalação a entender todos esses dados para que possam resolver problemas quando surgirem.
Nossos primeiros edifícios de data center usavam controladores digitais diretos, o mesmo tipo de computador que edifícios comerciais, como edifícios de escritórios, escolas e shoppings usariam para gerenciar todos os dados de transmissão de sensores de sensores. Mas nos últimos anos nós’VEi para controladores lógicos programáveis, o mesmo tipo de sistema que os hospitais, instalações de fabricação industrial e laboratórios dependem de automação para garantir um serviço eficiente, confiável e ininterrupto. Eles fornecem maior controle sobre as condições ambientais de nossos data centers e nos ajudam a operar consistentemente no desempenho máximo.
Os mesmos dados que fluem de nossa rede de sensores também alimentam painéis de exibição pública que relatam eficácia do uso de energia ao vivo (PUE) e eficácia do uso da água (WUE) – Métricas -chave para medir operações de data center eficientes. No espírito da transparência, qualquer um pode ver o mesmo fluxo de dados em tempo real que nossos engenheiros de instalações usam para garantir operações eficientes.
(Dados) ciência
O aprendizado de máquina é uma aplicação da ciência de dados que nos ajuda a otimizar a eficiência do data center usando as enormes quantidades de dados registrados em nossos sensores de equipamento. Desenvolvemos algoritmos que detectam continuamente as condições operacionais; Compare -os com o que prevemos que sejam, com base no contexto histórico e nos dados climáticos ao vivo; e levantar uma bandeira vermelha quando precisamos investigar irregularidades ou fazer melhorias no equipamento.
Por exemplo, se percebermos que um de nossos sites está usando mais energia ou água do que o modelo de aprendizado de máquina previsto, a equipe de operações da instalação pode começar a solucionar a causa da causa antes que se torne um problema maior. Nós’Continuando a investir em soluções de ciência de dados para manter nossos data centers na vanguarda da eficiência de recursos.
Além da eficiência
Mesmo com todas essas medidas de eficiência, os data centers do Facebook ainda precisam de recursos para servir nossa comunidade global. Que’é por que nós’está trabalhando para apoiar nossas operações com 100 % de energia renovável e compensar nossa pegada de água com projetos de restauração em regiões áridas que precisam mais.
Facebook’Os objetivos de energia renovável ajudaram a combater as mudanças climáticas, reduzindo a pegada de gases de efeito estufa 44 % desde 2017, e lá lá’é um link surpreendente para a economia de água também. A energia gerada com combustíveis fósseis, como carvão e gás natural, requer grandes quantidades de água. Somente em 2018, estimamos que salvamos um bilhão de galões de água, fazendo a transição para a energia eólica e solar e longe de usar a eletricidade de utilitários padrão nos Estados Unidos.
O Facebook está comprometido com a eficiência e a energia renovável porque’é bom para o nosso negócio, o planeta e as comunidades que servimos e conectamos. E nossos data centers continuarão liderando com eficiência porque’está em nosso DNA.
Porque isso’é a coisa certa a fazer.
Para saber mais sobre eficiência, energia renovável e sustentabilidade no Facebook, visite Sustentabilidade.fb.com.
Escrito por:
Diretor de design, design global de data center
Como Google e Facebook, o Twitter projeta seus próprios servidores
Twitter é um reflexo do Google. Pelo menos de uma maneira muito grande. Você simplesmente não pode ver isso.
Sim, o Twitter oferece uma rede social que oferece um fluxo infinito de mini-mensagens, enquanto o Google oferece, bem, todo tipo de serviços on-line, de um mecanismo de pesquisa na Internet a um serviço de email on-line para um mapa digital da terra. Mas, ao expandir sua rede social para mais de 300 milhões de pessoas em todo o mundo, manipulando mais de 500 milhões de tweets por dia, o Twitter reconstruiu sua infraestrutura fundamental na imagem do Google, que é executada em uma rede de data centers que fornecem uma coleção sem precedentes de poder de computação.
Twitter malabaristas e analisam dados usando sistemas de software varrendo com base em ferramentas originalmente desenvolvidas no Google. Ele espalha meticulosamente tarefas de computação em milhares de máquinas usando um clone de um sistema do Google chamado Borg. Acabou de construir um mecanismo de inteligência artificial, como o Google Brain. Ele até personaliza o hardware a la google.
De acordo com Alex Roetter, chefe de engenharia do Twitter, a empresa agora emprega uma equipe de designers de hardware que personalizam servidores de computador para seus data centers. Esses designers não criam chips de computador individuais, mas eles juntam sistemas de peças existentes. Em seguida, o Twitter contrata com os fabricantes externos – parecerem empresas na Ásia – para construí -los. “Não estamos projetando circuitos individuais”, diz Roetter, “mas estamos juntando máquinas.”Isso é semelhante ao que o Google fez há anos.
Exatamente o que é necessário
Tudo isso ocorre em parte porque muitos engenheiros ex-Google agora trabalham no Twitter. Mas é também porque o Google resolveu de maneira eficaz os problemas que enfrentam empresas de Internet à medida que elas se expandem de uma pequena startup para uma operação global. O Google fornece um plano para a Internet moderna como um todo.
Sim, esse plano inclui novo hardware, bem como um novo software. O que o Google e o Twitter aprenderam é que, por seus enormes serviços da Web, servidores tradicionais de artistas como Dell, HP e IBM são muito caros e muito sedentos de energia e sedidos com hardware exagerado. Então eles estão simplificando esse hardware, construindo exatamente o que é necessário para as tarefas em questão. “Nós olhamos para a eficiência. Observamos a carga de trabalho de nossos empregos, o que estamos tentando fazer “, diz Roetter ao descrever como o Twitter projeta suas máquinas.
Por exemplo, o Twitter criou recentemente um novo tipo de máquina para seu sistema de IA, que é baseado em “redes neurais” – Networks of Machines que imitam a rede de neurônios no cérebro humano. Esses sistemas incluem scads de unidades de processamento de gráficos, ou GPUs, que são particularmente hábeis na execução de redes neurais.
A nova raça
Google e Twitter não são os únicos. Após a liderança do Google, muitas empresas agora estão se afastando das máquinas caros e caras do passado. De acordo com Jason Waxman, que supervisiona o grupo de infraestrutura em nuvem da Intel, a maior fabricante de chips do mundo, cerca de 15 % das máquinas de data center agora são essa nova raça de sistema simplificado-“algum tipo de servidor otimizado e baseado em escala.”Entre as empresas que executam serviços de computação em nuvem no estilo Google, diz ele, esse número salta para 60 %.
Isso não quer dizer que todas essas empresas estejam projetando suas próprias máquinas. Depois de construir seus próprios servidores simplificados, o Facebook abriu seus designs, compartilhando -os com o mundo em geral. Isso forçou uma mudança no mercado mundial de hardware. Dell e HP e outros fornecedores de hardware agora vendem máquinas com base nos designs do Facebook. O que isso significa que as empresas podem usar servidores do tipo Google sem projetar seus próprios.
Alguns questionaram quantas empresas realmente precisam dessa nova raça. Mas os servidores do Twitter são mais um sinal de que o mercado está mudando. Isso torna a vida mais difícil para os HPs e os Dells. Mesmo que possam vender máquinas para uso dentro dos serviços da web modernos, suas margens são atingidas. Mas eles não têm muita escolha a não ser entrar no mercado. A Internet exige o que exige.
O Facebook shakes Hardware World com equipamento de armazenamento próprio
O Facebook já constrói seus próprios data centers e seus próprios servidores. E agora o gigante da rede social está construindo seu próprio hardware de armazenamento-hardware para abrigar tudo o que o material digital é enviado por seus mais de 845 milhões de usuários, incluindo fotos e vídeos. “Armazenamos algumas fotos aqui e ali”, diz Frank Frankovsky, o ex-dell Man que supervisiona o design de hardware no Facebook.
Salvar história
Salvar história
O Facebook já construiu seu próprio data center e seus próprios servidores. E agora a gigante da rede social está construindo seu próprio hardware de armazenamento-hardware para abrigar todas as coisas digitais enviadas por seus mais de 845 milhões de usuários.
“Armazenamos algumas fotos aqui e ali”, diz Frank Frankovsky, o ex-dell Man que supervisiona o design de hardware no Facebook. Isso seria um eufemismo. De acordo com algumas estimativas, a empresa armazena mais de 140 bilhões de fotografias digitais – e contando.
Como os outros players líderes da Web – incluindo Google e Amazon – o Facebook executa uma operação on -line que está muito além do escopo dos negócios médios, e isso se traduz em custos sem precedentes de hardware – e complicações de hardware. Se você está abrigando 140 bilhões de fotos digitais, precisa de uma nova geração de hardware.
Ao construir seu próprio data center no deserto do Oregon High, o Facebook acabou com chillers elétricos, fontes de alimentação ininterruptas e outros equipamentos terrivelmente ineficientes. E, ao trabalhar com vários fabricantes de hardware para construir seus próprios servidores, a empresa não apenas reduziu o consumo de energia, mas despojou os sistemas para os itens essenciais, tornando -os mais fáceis de reparar e mais baratos. Frankovsky e sua equipe chamam isso de engenharia “livre de vaidade” e agora eles estenderam a filosofia para o hardware de armazenamento.
“Estamos adotando a mesma abordagem que adotamos com os servidores: elimine qualquer coisa que não esteja adicionando diretamente valor. A parte realmente valiosa do armazenamento é a unidade de disco e o software que controla como os dados são distribuídos e recuperados dessas unidades. Queremos eliminar quaisquer componentes auxiliares ao redor da viagem – e torná -lo mais útil “, diz Frankovsky durante uma conversa na nova sede do Facebook em Menlo Park, Califórnia, que também é a antiga casa do Onetime Hardware Giant Sun Microsystems.
“As correções de quebra são uma atividade contínua no data center. Infelizmente, as unidades de disco ainda são itens mecânicos e falham. De fato, eles são um dos itens de maior taxa de falha. Então [queremos] ser capaz de identificar rapidamente qual disco falhou e substituí -lo, sem passar por muitos aros mecânicos.”
Assim como seu data center e criações de servidores, o Facebook pretende “abrir o código aberto” seus designs de armazenamento, compartilhando -os com quem os quiser. O esforço faz parte do projeto de computação aberta da empresa, que busca reduzir ainda mais o custo e o consumo de energia do hardware do data center, facilitando a colaboração em toda a indústria. À medida que mais empresas contribuem para o projeto, os pensamentos dizem, os designs melhorarão e, à medida que mais roupas usam os designs para servidores e outros equipamentos – que são fabricados pelos parceiros do Facebook em Taiwan e China – os preços cairão ainda mais.
Quando o Facebook apresentou o projeto na primavera passada, muitos o viram como um mero golpe de relações públicas. Mas algumas roupas de grande nome-incluindo algumas fora do jogo da web-já estão comprando servidores de computação aberta. Não menos um nome do que a Apple se interessou pelo design do centro de dados consciente de energia do Facebook. E de acordo com Frankovsky, cinquenta por cento das contribuições para os designs de código aberto do projeto agora vêm de fora do Facebook.
Mais popular
O tropo sexual fanfic que pegou uma pilhagem ai avermelhada
Rose eveleth
Os melhores jogos da Nintendo Switch para todo tipo de jogador
Funcionários com fio
Mais pinguins do que europeus podem usar o Google Bard
Morgan Meaker
O caso curioso do assistente do Google ausente ausente
Khari Johnson
Para Peter Krey – que ajudou a construir uma enorme grade de computação para uma das maiores instituições financeiras de Wall Street e agora aconselha os CIOs e os CTOs de várias empresas de Wall Street, à medida que constroem infraestrutura de “nuvem” dentro de seus data centers – o projeto do Facebook está muito vencido. Ao construir essa grade de computação, diz Krey, ele e seus colegas costumavam pedir a certos vendedores de servidores de “Nível One” que retirem hardware proprietário e componentes desnecessários de suas máquinas, a fim de conservar energia e custo. Mas a resposta sempre foi não. “E não estávamos comprando apenas alguns servidores”, diz ele. “Estávamos comprando milhares de servidores.”
Agora, o Facebook forneceu uma nova opção para essas roupas de Big Nome Wall Street. Mas Krey também diz que mesmo entre as empresas tradicionais que provavelmente podem se beneficiar dessa nova geração de hardware, o projeto nem sempre é recebido com braços abertos. “Esses caras fizeram as coisas da mesma maneira há muito tempo”, ele diz à Wired.
Hardware por comitê
O Facebook lançará seus novos designs de armazenamento no início de maio na próxima cúpula do Open Compute, uma mini-conferência em que os membros do projeto se reúnem para discutir esse experimento em hardware de código aberto. Nomes como Intel, Dell, Netflix, Rackspace, gigante japonesa da tecnologia NTT dados e fabricantes de placas-mãe Asus são membros, e no outono passado, na última cúpula, o Facebook anunciou a criação de uma fundação sem fins lucrativos em torno do projeto, prometendo o controle de cede à comunidade em geral.
O projeto começou com os designs de data center e servidor do Facebook. Mas desde então se expandiu para vários outros subprojetos, e os colaboradores incluem mais do que apenas empresas da web. Rackspace contribui, mas o gigante financeiro também Goldman Sachs.
A Rackspace está liderando um esforço para construir um protocolo “Virtual E/S”, que permitiria às empresas separar várias partes dos servidores de hoje. Você pode ter suas CPUs em um gabinete, por exemplo, sua memória em outra e seus cartões de rede em um terceiro. Isso permitiria, digamos, atualizar suas CPUs sem tocar em outras partes do sistema tradicional. “O DRAM não muda tão rápido quanto as CPUs”, diz Frankovsky. “Não seria legal se você pudesse realmente desagregar as CPUs do complexo DRAM?”
Com um projeto irmã, os membros do projeto também estão trabalhando para criar um novo design de rack que possa acomodar esse tipo de infraestrutura de servidor re-imaginada. Um rack de servidor tradicional abriga várias máquinas individuais, cada uma com seu próprio chassi. Mas o projeto de rack aberto procura acabar com o chassi do servidor e girar o prateleira no chassi.
Enquanto isso, o Goldman Sachs está executando um esforço para construir um meio comum para gerenciar servidores espalhados pelo seu data center. Parte do apelo do projeto de computação aberta, diz Peter Krey, é que o projeto adota uma “abordagem holística” para o design de hardware do data center. Os membros não estão projetando o data center separadamente dos servidores e os servidores separadamente do equipamento de armazenamento. Eles estão projetando tudo para funcionar em conjunto. “O design tradicional do data center. é balkanizado “, diz Krey. “[Mas] os caras do OCP projetaram e criaram todos os componentes para integrar e trabalhar com eficiência.”