O Google compartilha novos detalhes sobre como classifica as fontes de notícias, com a transparência sendo um fator importante.
Google valoriza a transparência quando se trata de elevar as fontes de notícias. A empresa compartilha mais informações sobre o que isso significa na prática.
Em uma postagem do blog, o Google detalha como avalia a transparência para determinar quais editores priorizar em superfícies como o Google Notícias e o carrossel de notícias principais nos resultados de pesquisa.
A transparência é tratada como um elemento importante porque ajuda a garantir que os visitantes possam aprender mais sobre a publicação da qual estão recebendo as notícias e os autores que as escrevem.
O Google observa que a transparência é um fator que contribui para avaliar a confiabilidade e a autoridade das fontes de notícias.
O Google compartilha os detalhes a seguir em um esforço para ajudar os editores a entenderem o que eles procuram em uma fonte de notícias transparente e a como atenderem a esses critérios.
Como o Google avalia a transparência em fontes de notícias
O Google procura esses elementos no site de um editor para determinar o seu nível de transparência:
Data de publicação
Assinatura do autor
Bios do autor
Informações de Contato
Informações básicas sobre o editor, empresa ou rede
O Google considera essas coisas informações que uma pessoa normal consideraria útil se quisesse avaliar a credibilidade de um site. Além disso, o Google diz que isso está de acordo com a pesquisa acadêmica, as práticas recomendadas de jornalismo e seus próprios testes de usuário.
Outros princípios que orientam a abordagem do Google para avaliar a transparência incluem:
Expectativas regionais e nacionais: o Google reconhece que existem áreas do mundo onde nomear um jornalista acarreta um risco significativo.
Diversas práticas editoriais: filosofias editoriais distintas, como publicar artigos sem assinaturas, não afetarão a credibilidade de uma fonte de outra forma confiável.
Disponibilidade para os usuários: o Google visa oferecer igualdade de condições a grandes sites com interfaces de usuário técnicas e sites menores que usam interfaces de usuário simples baseadas em texto.
“Nossos sistemas são projetados para usar esses princípios orientadores ao avaliar se um site está em conformidade com nossa política de transparência.”
O Google detalha ainda como usa esses princípios para avaliar a transparência a nível do site e a nível do artigo.
Avaliação da transparência a nível do artigo
A nível do artigo, o Google procura informações que ajudem os usuários a obterem rapidamente o contexto sobre a história ou sobre os jornalistas que cobrem as histórias.
Os editores podem enviar esses sinais ao Google incluindo assinaturas de artigos com links para uma página de biografia, datas de publicação e rótulos para indicar o tipo de artigo.
Avaliação da transparência a nível do site
A nível do site, o Google procura informações que ajudem os visitantes a entenderem o propósito da publicação, sua estrutura organizacional e os tipos de informações que podem esperar ler.
Existem várias maneiras de comunicar essas informações ao Google, como:
Uma declaração de missão
Políticas editoriais e padrões
Informações da equipe e biografias para a equipe editorial e de negócios
Informações de contato não genéricas
Outras informações de nível organizacional, como proprietários e/ou fontes de financiamento (por exemplo, patrocínio do estado, relacionamento com partidos políticos ou PACs)
O Google conclui sua explicação com uma nota sobre como pretende desenvolver essas políticas, ao mesmo tempo em que estará atento às diferenças nas normas locais e nas filosofias editoriais:
“A transparência requer uma abordagem cuidadosa que esteja em sintonia com as diferenças nas normas locais, filosofias editoriais e recursos, além de ser dinâmica e reflexiva dos padrões em evolução. Esperamos que nosso compromisso aqui e com todas as nossas políticas de notícias ajude as pessoas ao redor do mundo a se manterem melhor informadas sobre as notícias e ajude as fontes de notícias a serem reconhecidas por seu trabalho”.
https://gocache.com.br/wp-content/uploads/2021/06/como-google-classifica-sites-noticias.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-07-12 06:00:502021-06-30 11:41:07Como o Google classifica sites de notícias
O Gzip se tornou o padrão ouro para compactação de arquivos no início dos anos 1990, mas se você ainda o usa em 2018, convém mudar para um método de compactação mais recente.
Embora o Gzip ainda tenha seu lugar no coração de muitos, os desenvolvedores da web estão cada vez mais se voltando para opções superiores, como o algoritmo de compressão Brotli do Google.
Uma breve história sobre a compactação de arquivos
O “G” em Gzip é a abreviação de GNU. GNU é um sistema operacional de código aberto baseado em Unix que foi desenvolvido na década de 1980. Naquela época, a Unisys e a IBM já haviam patenteado seus próprios algoritmos para compactar e descompactar arquivos, o que permitia que suas máquinas armazenassem mais dados. Portanto, os programadores Jean-loup Gailly e Mark Adler criaram o Gzip como uma alternativa gratuita para usuários GNU.
O novo Gzip não era apenas uma cópia barata; era realmente mais rápido do que os seus concorrentes protegidos por direitos autorais. Como resultado, as pessoas ainda o usam para compactação de arquivos até hoje. Embora seja fácil manter o que você está acostumado, existem vários algoritmos de compactação que atualmente fornecem melhores resultados de compactação do que o Gzip. É aí que entra o Brotli.
O que é o Brotli?
Brotli é uma especificação de formato de dados mais recente que aproveita a vantagem de vários algoritmos para condensar os dados com mais eficiência do que o Gzip. Em 2015, a especificação Brotli foi generalizada para compressão de fluxo HTTP com o tipo de codificação de conteúdo ‘br’.
Desenvolvido por Jyrki Alakuijala e Zoltan Szabadka, o Brotli usa os mesmos algoritmos de compactação do Gzip, mas também é compatível com um dicionário de palavras e frases usadas com frequência para oferecer uma taxa de compactação melhor.
Lembre-se de que Gzip e Brotli devem ser usados apenas para compactar arquivos de texto. Arquivos binários como JPEGs e MP4s contam com seus próprios algoritmos de compactação específicos de formato. Se você tentar compactar um JPEG com Brotli, o arquivo resultante será na verdade maior do que o original.
Embora nem sempre tenha sido assim, o Brotli agora é compatível com todos os principais navegadores.
No caso de um navegador, que não suporta os quesitos do Brotli, solicitar um ativo de um site que entrega arquivos compactados por Brotli, o servidor fará fallback para o Gzip e entregará ativos codificados que o navegador suporta – desde que o servidor esteja configurado corretamente.
O que torna o Brotli melhor?
Os pacotes JavaScript compactados com Brotli são 14 por cento menores do que os pacotes Javascript compactados com Gzip.
Os arquivos HTML compactados pelo Broti são 21 por cento menores do que seus equivalentes no Gzip.
Os arquivos CSS compactados pelo Brotli são 17% menores do que aqueles compactados pelo Gzip.
Como a maioria dos sites depende de todos esses três tipos de ativos, há uma diferença considerável nos tamanhos dos ativos quando comparados com o Gzip. Essa economia, por sua vez, fará uma melhoria perceptível no desempenho do seu aplicativo.
Gzip vs Brotli: Obtendo o máximo do Brotli
Apesar do que você pode ter ouvido, compactar ativos com Brotli não é mais demorado do que com o Gzip. Dito isso, Gzip e Brotli oferecem níveis variáveis de compactação, e as configurações padrão do Brotli podem resultar em uma compactação mais lenta do que as configurações padrão do Gzip. Você terá que fazer alguns ajustes no Brotli para encontrar um equilíbrio aceitável entre o tamanho do arquivo e a velocidade de compressão.
A configuração de compactação ideal depende do que e quando você está compactando. Um bom ponto de partida é o Brotli 4 para compressão mais rápida de conteúdo dinâmico. Por outro lado, os ativos estáticos podem ser compactados de forma mais densa de antemão, sem sacrificar a velocidade, de modo que a configuração padrão “11” é mais apropriada para esse conteúdo.
Usando Brotli com ativos pré-compactados
O Brotli é ótimo para fornecer ativos pré-compactados muito mais rápido do que o Gzip. Isso se deve ao fato de que você pode compactá-los no nível mais alto do Brotli e fazer com que o servidor de origem os pegue quando solicitado.
Este tipo de configuração funciona muito bem com o Webpack, pois um plugin Webpack está disponível para compactar automaticamente seus ativos estáticos como Gzip e Brotli. Portanto, nenhuma compactação dinâmica é necessária, o que significa que o tempo gasto na compactação dos arquivos é salvo.
Gzip vs Brotli: em resumo
A pequena quantidade de esforço necessária para adicionar o Brotli ao seu servidor web vale a pena comparada a economia substancial no tamanho do arquivo. Embora o Brotli às vezes funcione mais devagar nas configurações de compressão mais altas, você pode facilmente atingir um equilíbrio ideal entre a velocidade de compressão e o tamanho do arquivo ajustando as configurações.
Embora o uso do Brotli possa transformar aplicativos da web rápidos em mais rápidos, ele não necessariamente tornará aplicativos lentos mais rápidos. Uma vez que o Brotli comprime apenas ativos baseados em texto, você precisará otimizar as suas imagens por outros meios. Se você ainda não fez o salto para HTTP / 2, isso pode fazer uma grande diferença no desempenho do seu aplicativo. Cada milissegundo conta, portanto, qualquer ação que você execute para acelerar o seu aplicativo aumenta as suas chances de reter usuários.
https://gocache.com.br/wp-content/uploads/2021/06/gzip-vs-brotli.jpg6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-06-15 15:55:542022-05-25 10:11:38GZIP vs Brotli – Qual método de compressão você deve usar e porque
BGP (Border Gateway Protocol) é o protocolo subjacente ao sistema de roteamento global da Internet. Ele gerencia como os pacotes são roteados, de rede para rede, por meio da troca de informações de roteamento e acessibilidade entre roteadores de ponta. O BGP direciona pacotes entre sistemas autônomos (AS – autonomous systems), que são redes gerenciadas por uma única empresa ou provedor de serviços.
O BGP cria estabilidade de rede garantindo que os roteadores possam se adaptar às falhas de rota: quando um caminho cai, um novo caminho é rapidamente encontrado. O BGP toma decisões de roteamento com base em caminhos, definidos por regras ou políticas de rede definidas por administradores de rede.
Como funciona o BGP?
Cada roteador mantém uma tabela de roteamento que controla como os pacotes são direcionados. As informações da tabela de roteamento são geradas pelo processo BGP no roteador, com base nas informações de entrada de outros roteadores e nas informações na base de informações de roteamento BGP (RIB – routing information base), que é uma tabela de dados armazenada em um servidor no roteador BGP. O RIB contém informações de pares externos conectados diretamente, bem como de pares internos, e com base nas políticas de quais rotas devem ser usadas e quais informações devem ser publicadas, atualiza continuamente a tabela de roteamento conforme as alterações ocorrem.
Para que é usado o BGP?
O BGP oferece estabilidade de rede que garante que os roteadores possam se adaptar rapidamente para enviar pacotes por meio de outra reconexão se um caminho da Internet cair. O BGP toma decisões de roteamento com base em caminhos, regras ou políticas de rede configuradas por um administrador de rede. Cada roteador BGP mantém uma tabela de roteamento padrão usada para direcionar os pacotes em trânsito. O BGP usa a topologia cliente-servidor para comunicar informações de roteamento, com o cliente-servidor iniciando uma sessão BGP enviando uma solicitação ao servidor.
Noções básicas de roteamento BGP
O BGP envia informações atualizadas da tabela do roteador apenas quando algo muda e apenas as informações afetadas. O BGP não tem mecanismo de descoberta automática, o que significa que as conexões entre pares devem ser configuradas manualmente, com endereços de pares programados em ambas as extremidades.
O BGP toma decisões sobre o melhor caminho com base na acessibilidade atual, contagens de saltos e outras características do caminho. Em situações em que vários caminhos estão disponíveis – como em uma grande instalação de hospedagem – as políticas de BGP comunicam as preferências de uma organização quanto ao caminho que o tráfego deve seguir para dentro e para fora. As tags da comunidade BGP podem controlar o comportamento do anúncio de rota entre pares.
O BGP em rede é baseado em TCP / IP. Ele opera na Camada de Transporte OSI (Camada 4) para controlar a Camada de Rede (Camada 3). Conforme descrito no RFC4271 e ratificado em 2006, a versão atual do BGP-4 suporta IPv6 e Roteamento entre domínios sem classes (CIDR – Classless Inter-Domain Routing), o que permite a viabilidade contínua do IPv4. O uso do CIDR é uma forma de ter mais endereços na rede do que com o esquema de atribuição de endereço IP atual.
Problemas comuns do BGP
Problemas comuns com o BGP incluem falhas na troca de informações. As trocas de informações nem sempre são bem-sucedidas, pois as informações podem ser formatadas incorretamente ou conter dados incorretos. Os roteadores podem ficar sem memória ou armazenamento ou serem muito lentos para responder às atualizações. Os roteadores enviam códigos de erro e subcódigos para comunicar problemas, incluindo tempos limite, solicitações malformadas e problemas de processamento.
Segurança BGP
O BGP também é vulnerável a ataques baseados em informações incorretas. Agentes mal-intencionados podem inundar um roteador com pacotes inválidos em um ataque de negação de serviço, por exemplo. Eles também podem reivindicar ser a fonte de informações de roteamento para um AS e (temporariamente) controlar para onde vai o tráfego que sai desse AS, uma prática conhecida como sequestro de BGP.
Diferença entre BGP interno e externo, OSPF
Quando o BGP é usado para rotear dentro de um único AS, ele é chamado de BGP interno ou iBGP. Quando usado para conectar um AS a outros, é chamado de BGP externo ou eBGP.
O protocolo OSPF (Open Shortest Path First) é usado apenas em redes internas. O OSPF está focado em encontrar a rota mais curta disponível entre os nós e em fazer failover para essa rota mais curta o mais rápido possível. O BGP é mais lento para falhar em uma nova rota, mas é mais escalonável. O OSPF é essencialmente hierárquico em estrutura, enquanto o BGP é uma malha. Algumas redes estão substituindo o OSPF por iBGP.
Latência é o tempo que leva para uma solicitação viajar do remetente ao receptor e para o receptor processar essa solicitação. Em outras palavras, é o tempo que leva para a solicitação enviada do navegador ser processada e retornada pelo servidor.
Latência explicada em GIF ;)
Considere uma loja de comércio eletrônico simples que atende usuários em todo o mundo. A alta latência tornará a navegação por categorias e produtos muito difícil e, em um espaço tão competitivo quanto o varejo online, os poucos segundos extras podem representar uma fortuna em vendas perdidas.
O que é uma boa latência
Embora não haja um número claro para uma boa latência, porque cada caso é único em sua própria maneira, como diretriz, o seu site deve tentar carregar completamente em 3 segundos. Isso significa imagens, scripts, elementos dinâmicos, tudo precisa ser carregado em menos de 3 segundos.
Haverá algum atraso criado pelo próprio cliente, pois o navegador precisa de tempo para processar as solicitações e renderizar a resposta. Portanto, embora 3 segundos possam parecer suficientes para carregar alguns kb de dados, a verdade é que você deve estar muito atento ao tamanho e à complexidade do seu código e das solicitações, pois eles demoram um pouco para carregar e renderizar.
Porque você deve medir latência de rede
Fornecer um bom serviço em todo o mundo não é bom apenas para a sua imagem, é bom para o seu negócio. Você logo perceberá que a má experiência do usuário afetará diretamente os seus resultados financeiros.
Para usar o exemplo de comércio eletrônico, aqui está uma pequena citação de Yoast que colocará as coisas em perspectiva: 79% dos compradores online dizem que não voltarão a um site se tiverem problemas com a velocidade de carregamento.
E não vamos esquecer que os sites de carregamento rápido têm taxas de conversão mais altas e taxas de rejeição mais baixas. Portanto, não é uma questão de se você deve ou não investir na otimização da velocidade de carregamento em várias regiões, mas sim se você pode se dar ao luxo de não o fazer.
O que causa latência de rede
Existem milhares de pequenas variáveis que compõem a latência da sua rede, mas elas se enquadram principalmente em uma destas 4 categorias:
Meios de transmissão – seus dados viajam por grandes distâncias em diferentes formas, seja por meio de sinais elétricos em cabos de cobre ou ondas de luz em fibras ópticas. Cada vez que eles mudam de um meio para outro, alguns milissegundos extras serão adicionados ao tempo de transmissão geral.
Carga útil – quanto mais dados são transferidos, mais lenta é a comunicação entre o cliente e o servidor.
Roteadores – reserve um tempo para analisar as informações do cabeçalho de um pacote e, em alguns casos, adicione informações adicionais. Cada salto que um pacote dá de roteador a roteador aumenta o tempo de latência. Além disso, dependendo do dispositivo, pode haver pesquisas de endereços MAC e tabelas de roteamento.
Atrasos de armazenamento – podem ocorrer atrasos quando um pacote é armazenado ou acessado. Isso resulta em um atraso causado por dispositivos intermediários, como interruptores e pontes.
Como medir latência de rede
A latência da rede é sempre medida em milissegundos (ms) e exposta por meio de duas métricas – Tempo até o primeiro byte e Tempo de ida e volta. Você pode usar qualquer um deles para o teste em sua rede. No entanto, independentemente do que você escolher, certifique-se de manter todos os registros na mesma categoria de teste. É importante monitorar todas as alterações e abordar os culpados se quiser garantir uma experiência do usuário tranquila e manter a pontuação de satisfação do cliente alta.
Tempo até o primeiro byte
O tempo até o primeiro byte (TTFB) é o tempo em que o primeiro byte de cada arquivo chega ao navegador do usuário após o estabelecimento de uma conexão com o servidor.
O próprio TTFB é afetado por três fatores principais:
O tempo que leva para a sua solicitação se propagar pela rede até o servidor da web
O tempo que leva para o servidor da web processar a solicitação e gerar a resposta
O tempo que leva para a resposta se propagar de volta ao seu navegador
Como medir latência de entrega?
Uma boa maneira de testar latência de entrega é utilizando ferramentas de performance web, como GTMetrix e WebPageTest. Essas ferramentas permitem que você selecione multiplos pontos de teste, sendo assim, é possível verificar sua latência em SP e outras regiões.
Para aprender mais sobre ferramentas de performance, recomendamos a leitura dos artigos abaixo:
https://gocache.com.br/wp-content/uploads/2021/05/o-que-e-latencia.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-05-26 06:00:122021-05-25 10:23:44O que é latência e como ela afeta meu site?
Para entender o que é Multi CDN, precisamos dar um passo para trás e olhar para as “Content Delivery Networks” (CDNs) ou Rede de Distribuição de Conteúdo.
A CDN se tornou comum no mundo do gerenciamento de sites por vários motivos importantes. Os proprietários de sites passaram a confiar na maior velocidade de carregamento e na segurança adicional que vem com o uso de um grupo de servidores distribuídos geograficamente. Os CDNs também aprimoram os recursos de streaming e podem ajudar sites de alto perfil a gerenciar grandes quantidades de tráfego diário.
No entanto, os CDNs têm algumas limitações. Embora os tempos de carregamento sejam aprimorados quando os usuários acessam sites servidos por um CDN próximo, esses benefícios não se estendem a sites carregados de longe. Em um mundo cada vez mais conectado globalmente e competitivo internacionalmente, uma estrutura típica de CDN pode limitar o alcance de uma organização e, em última instância, o seu sucesso.
Muitas empresas estão recorrendo à tecnologia Multi CDN para mitigar esses problemas de acesso global.
O que é Multi CDN?
Um Multi CDN, como o nome indica, é um método que usa vários CDNs de diferentes provedores simultaneamente para obter melhor desempenho do site. Esta é uma melhoria em relação ao método típico, em que as organizações assinam vários CDNs com base nos requisitos de desempenho para obter melhorias de desempenho semelhantes.
Embora a estratégia Multi CDN não seja um conceito novo, ainda não existem muitas plataformas que oferecem o suporte para estratégias de múltiplas CDNS.
Tradicionalmente, a configuração do Multi CDN exige que as empresas ativem e gerenciem cada CDN individualmente. Um método de balanceamento de carga adequado que possa utilizar totalmente os CDNs ativados também precisa ser planejado para utilizar os CDNs com eficácia.
Por que Multi CDN?
As organizações em crescimento podem obter vários benefícios importantes com o investimento na tecnologia Multi CDN. Usar uma configuração Multi CDN pode resolver problemas ou ajudar uma empresa a se expandir para um novo mercado. Multi CDNs oferecem vários benefícios atraentes:
O aprimoramento do desempenho global é um benefício potencial. O desempenho de CDN único pode variar por região, mas Multi CDNs espalhados por várias regiões melhoram as estatísticas gerais de latência. Regiões como China e Rússia apresentam desafios notórios para a entrega de sites, por exemplo, e uma estratégia Multi CDN pode ajudar as organizações a contornar questões relacionadas a regulamentações e controles locais. O Multi CDN permite que as empresas obtenham controle granular da sua entrega de conteúdo, às vezes até a nível de cidade.
O tempo de atividade ininterrupto e contínuo do site é possível com o Multi CDN. Quando um provedor de CDN passa por uma interrupção, o Multi CDN pode rotear o tráfego da web por meio de outro provedor. O conteúdo da Web entregue por Multi CDNs não é afetado por picos ou flutuações de tráfego.
As expectativas do usuário em relação à mídia de streaming podem representar obstáculos para organizações emergentes. Os sites modernos devem ser capazes não apenas de entregar conteúdo com muitos gráficos, mas os usuários esperam que o conteúdo seja de alta qualidade e entregue quase instantaneamente. Isso pode ser um problema impossível de superar com configurações de CDN único. Multi CDNs podem ajudar a garantir que os sites possam acompanhar as demandas dos usuários.
Usar um provedor Multi CDN pode melhorar os tempos de carregamento do site, distribuindo conteúdo por meio de servidores CDN próximos. Tempos de carregamento mais rápidos podem reduzir as taxas de rejeição e aumentar a quantidade de tempo que os visitantes passam em um site.
As organizações podem economizar em custos de largura de banda e taxas extras usando um Multi CDN.
Multi CDNs podem aumentar a segurança fornecendo recursos como mitigação de DDoS e aprimoramentos de autenticação.
A flexibilidade é um fator muito importante para reduzir os riscos por razões financeiras e técnicas. Em vez de ficarem presos a um único provedor de CDN, as empresas costumam ter mais flexibilidade ao usar o Multi CDN para distribuir os riscos por todos os lados.
Multi CDN na era dos incidentes na nuvem
Provavelmente, você selecionou um CDN que promete um serviço confiável. Na verdade, mesmo os maiores e mais confiáveis provedores de serviços podem passar por períodos de inatividade inesperados, às vezes com consequências devastadoras. Lucros perdidos devido ao tempo de inatividade do site são ruins o suficiente; o impacto negativo a longo prazo da lealdade do cliente contaminado pode ser ainda pior.
Interrupção sem Multi CDN
Há uma boa chance de você ter sido afetado pessoalmente por uma interrupção do CDN em algum momento. O tempo de inatividade do CDN afetou sites populares de grande tráfego, como Amazon, Netflix, Facebook e Verizon, para citar apenas alguns. Se empresas tão proeminentes como essas podem ser eliminadas por falha de CDN, é fácil entender porque organizações menores são igualmente.
A maioria das empresas não consegue absorver facilmente esse tipo de impacto financeiro. Maximizar a disponibilidade do site é uma obrigação para qualquer empresa que deseja expandir ou manter a participação no mercado. Os sites relacionados a transações financeiras, e-commerce e multimídia são especialmente vulneráveis às consequências do tempo de inatividade do site.
Quais são as maneiras de implementar o Multi CDN?
Método nº 1 – balanceamento de carga DNS
Existem alguns provedores de DNS no mercado que permitem aos usuários personalizar as suas regras de roteamento de tráfego. Depois de assinar todos os CDNs de que precisam, eles podem copiar os CNAMEs de todos os CDNs e colá-los no registro DNS para que o servidor DNS possa determinar qual CNAME (CDN) usar para a solicitação com base nas regras de roteamento de tráfego. Aqui estão algumas das regras de roteamento de tráfego mais comuns:
Round robin – os CDNs “se revezam” servindo conteúdo para distribuir a carga entre os CDNs ativados. Este método não leva nenhum fator em consideração, simplesmente distribuindo o tráfego para todos os CDNs igualmente.
Round-robin ponderado – também conhecido como “balanceamento de carga de proporção”, em vez de distribuir igualmente o tráfego por todos os CDNs, esse método define a proporção de tráfego para ponderar o tráfego de acordo e atribuir prioridades a CDNs específicos.
Geolocalização – Este método determina a localização de um usuário e encontra o PoP / CDN mais próximo para distribuir suas solicitações (tráfego).
Como funciona na prática?
Quando um usuário visita www.test.com, isso aciona uma pesquisa DNS.
O provedor de DNS determinará qual CNAME usar com base nas regras de roteamento de tráfego.
A solicitação agora está sendo direcionada ao CDN designado com base no CNAME.
O usuário agora está acessando www.test.com por meio do CDN atribuído.
Prós:
A opção mais fácil para a maioria das empresas
Contras:
Precisa se inscrever em CDNs individualmente por meio de plataformas diferentes (mais plataforma e contrato para gerenciar)
A maioria dos DNS não executa o balanceamento de carga de maneira inteligente
https://gocache.com.br/wp-content/uploads/2021/05/multi-cdn-gocache.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-05-24 11:08:542021-05-24 11:12:03O que é Multi CDN?
Um site lento é ruim para o seu negócio – Aqui está o motivo
Nesta era de gratificação instantânea, a velocidade do site da sua empresa é um fator crucial para a satisfação do cliente. 64% dos usuários de smartphones desejam que as páginas da web sejam carregadas no telefone em quatro segundos. Na verdade, estudos da indústria sugerem que…
47% dos usuários do site esperam que qualquer página da web carregue em menos de dois segundos. Então, qual deve ser a velocidade de carregamento ideal para qualquer site?
Pesquisa Akamai
Um estudo diz que o carregamento de um site em 1,7 segundos é mais rápido do que 75% de todos os sites globais, enquanto um carregamento em 5 segundos é mais rápido do que 25% de todos os sites globais. Com base nessas estatísticas do setor, um tempo de carregamento de dois a quatro segundos é considerado ideal para qualquer site de negócios. Mesmo um atraso de um ou dois segundos no tempo de carregamento pode ter um impacto adverso no envolvimento do cliente e nas receitas geradas.
Por exemplo, o varejista de comércio eletrônico Amazon estima que um atraso de um segundo no carregamento de uma página da Web pode custar mais de US $ 1,6 bilhão em receitas perdidas a cada ano.
Por outro lado, ao fazer sua página da web carregar 2,2 segundos mais rápido, a empresa de navegadores de internet Mozilla registrou um aumento de 60 milhões de downloads do navegador em um ano.
Em outras palavras, sites lentos são ruins para os negócios de várias maneiras:
Perda de tráfego do site levando a perdas em vendas e receitas
Uma queda profunda na classificação SEO do site
Má experiência do cliente, resultando em menor engajamento
Aumento na taxa de rejeição do usuário e uma taxa menor de conversões
Aumento das chances de falha do site ou lista negra do Google
Nas seções a seguir, veremos cada um desses pontos com mais detalhes.
Perda de tráfego no site
Seja para usuários de desktop ou smartphone, um site lento pode frustrar qualquer pessoa. Isso provavelmente explica porque cerca de 80% dos usuários que experimentam um site de baixo desempenho nunca voltam ao mesmo site. Isso, por sua vez, significa perda de tráfego de entrada, o que pode levar ainda mais a menos engajamento e conversões do usuário. Esses fatores podem resultar em vendas menores, má reputação da marca e perda de receitas para o negócio.
Queda na classificação do Search Engine (mecanismo de pesquisa)
Um site lento pode impactar o seu negócio com uma queda na sua classificação SE
A classificação do Search Engine é um fator crítico para gerar alto tráfego para o site da sua empresa. Mecanismos de busca populares como o Google não favorecem sites de baixo desempenho. Consequentemente, eles fornecem melhores classificações para sites com excelentes velocidades de carregamento. Uma melhor classificação do Google significa que o seu site vai ser classificado em uma posição mais elevada nos resultados do mecanismo de pesquisa, resultando em mais cliques e tráfego do usuário.
Por outro lado, sites com bom conteúdo, mas com baixa velocidade, podem ter uma classificação ruim na página de resultados do mecanismo de pesquisa ou SERP (Search Engine Results Page).
Sites lentos geralmente não são listados na primeira página pelos mecanismos de pesquisa e têm menos chances de serem clicados por um usuário.
Má experiência do cliente
Na última década, estudos do setor concluíram que o tempo médio de atenção dos seres humanos foi reduzido para oito segundos. Isso significa que os visitantes do site da sua empresa perderiam o interesse nele após oito segundos.
Como resultado, sites de carregamento lento podem frustrar a maioria dos usuários on-line e prejudicar a experiência on-line geral. A maioria desses usuários tende a deixar o site para nunca mais retornar ou, pior ainda, mudar para um site concorrente com uma experiência de usuário melhor. A má experiência do cliente também pode levar a avaliações negativas ou referências que podem impedir outros usuários de se envolverem com a sua empresa.
Graças à má experiência do cliente, os sites de carregamento lento reduzem o envolvimento do cliente e, portanto, o tempo médio que os usuários passam interagindo com o seu site. Para um varejista de comércio eletrônico, velocidades lentas do site se traduzem em mais abandono do carrinho de compras e taxas de rejeição mais altas.
Altas taxas de rejeição
O que é uma rejeição de site?
Isso acontece quando um usuário visita um site e sai dele sem realizar nenhuma atividade.
Uma alta taxa de rejeição é registrada quando a maioria dos visitantes deixa o site após abrir apenas uma página e não clicar em nenhum elemento da página, incluindo CTAs, links ou itens de menu.
Um site lento pode impactar os seus negócios com uma alta taxa de rejeição
O carregamento lento do site é um dos motivos mais comuns para altas taxas de rejeição. Desnecessário dizer que altas taxas de rejeição podem reduzir o envolvimento geral dos visitantes online com o seu website. Com o envolvimento reduzido, a sua empresa pode sofrer com menos conversões e vendas gerais.
Falha do site ou lista negra do Google
E, finalmente, velocidades lentas de carregamento podem ser o resultado de uma infecção de malware não detectada no seu site. Os hackers desenvolveram variantes de malware complexas que são difíceis de detectar, mesmo depois de terem penetrado em um determinado site.
Hackers não detectados ou códigos de malware prejudiciais podem levar a velocidades lentas do site ou travamentos regulares.
Como resultado da suspeita de malware, o seu site pode ser suspenso por seus hosts da web para proteger os outros sites hospedados contra ataques de malware.
Um site lento pode impactar o seu negócio e o pior cenário é um site na lista negra.
“Site enganoso adiante” é um pop-up legítimo que impede que os usuários acessem sites infectados
Para proteger os seus usuários, o Google pode colocar na lista negra o seu site que foi infectado e interromper completamente o fluxo de tráfego para o seu site. MalCare explica neste artigo como localizar e remover o aviso da lista negra do Google.
Agora que vimos o impacto negativo de um site lento nos seus negócios, vamos passar para algumas dicas essenciais para melhorar a velocidade e o desempenho do site.
Dicas básicas para melhorar a velocidade do seu site
É muito complexo atingir uma velocidade maior para o seu site? A resposta é não.”
Se estiver usando um site baseado em WordPress, você pode melhorar a velocidade com as seguintes dicas:
Se o seu site estiver instalado em uma plataforma de hospedagem compartilhada, provavelmente é uma boa hora para mudar para uma plataforma de hospedagem gerenciada mais rápida e eficiente como a wetopi (veja nossa velocidade). Embora mais caros, os hosts gerenciados alocam servidores dedicados e recursos necessários apenas para o seu site, melhorando assim o seu desempenho geral.
Faça uma revisão de todos os plug-ins / temas instalados no seu site. Retenha apenas plug-ins / temas de alta qualidade otimizados para boa velocidade e que não sobrecarreguem os recursos do servidor. Como prática, certifique-se de instalar plug-ins / temas apenas de fontes confiáveis.
Instale um plugin de otimização de velocidade eficiente como WP Super Cache, WP Rocket ou W3 Total Cache projetado para melhorar a velocidade do site. Os plug-ins de otimização de velocidade usam uma variedade de medidas, incluindo cache, carregamento lento de imagens e compactação de imagem para melhorar a velocidade.
Invista em uma plataforma de hospedagem com regras de segurança centradas no WordPress.
Invista em um plugin de segurança eficiente como MalCare ou Wordfence para proteger o seu site de infecções por malware e outras ameaças. O MalCare verifica o site WordPress em busca de código malicioso nos seus próprios servidores para evitar a utilização da largura de banda dos seus servidores.
Use CDNs com entrega dentro de seu país, buscando reduzir latência de entrega para seus usuários finais.
Em conclusão
Para resumir esses pontos, a velocidade do site deve ser importante para qualquer empresa! Como proprietário de um site, você pode ter o site com o melhor design do mundo! Mas tudo isso será inútil se carregar muito lentamente em qualquer dispositivo do usuário.
Por outro lado, um site rápido pode ser muito eficaz para melhorar o tráfego de entrada, o envolvimento do cliente e até mesmo os resultados financeiros da sua empresa.
O CDN, também conhecido como “redes de distribuição”, oferece vários pontos de presença (PoP) fora do servidor de origem. Isso permite que os sites gerenciem melhor o tráfego ao lidar com as solicitações dos usuários com mais rapidez, proporcionando uma experiência geral melhor.
Resumindo, você está usando um CDN sempre que visita um site de alto tráfego como Amazon ou conversa com os seus amigos no Facebook. Seus data centers permitem trazer esse conteúdo muito mais rapidamente, independentemente da localização geográfica dos usuários individuais ou do servidor do site principal.
Ao espalhar os sistemas de entrega em uma grande área, os sites podem reduzir o consumo de largura de banda e o tempo de carregamento da página, reduzindo preciosos segundos do tempo que leva para lidar com várias solicitações de usuários.
O que é um servidor de origem?
Um servidor de origem é um computador / servidor que hospeda a versão original dos seus arquivos da web. Sem um CDN, os visitantes do seu site precisarão solicitar informações e receber a resposta diretamente da fonte primária do seu site.
Se cada solicitação tiver que retornar ao servidor de origem, a carga de trabalho do seu site aumentará. Além disso, quanto maior a distância entre o usuário final e um servidor de origem, mais tempo o usuário terá que esperar o carregamento de uma página.
É por isso que usar um CDN pode ajudar a diminuir a latência, pois reduz o número de redes que devem ser cruzadas por uma solicitação e sua resposta para chegar ao destino final.
Um CDN também pode proteger o servidor de origem de ataques DDoS ou outras ameaças online, mascarando o servidor de origem e as solicitações de proxy dos visitantes, tornando a fonte primária praticamente invisível.
O que é um servidor de borda CDN?
Um servidor de borda é um computador que pode armazenar em cache o conteúdo recuperado de um servidor de origem. Está localizado em um dos pontos de presença, que são data centers físicos espalhados pelo mundo.
Os servidores de borda CDN servem como conexões entre redes separadas, permitindo que o tráfego flua com rapidez e eficiência de um local para outro.
Para reduzir a carga de trabalho em um servidor de origem e diminuir a distância entre um visitante e um servidor da web, um servidor de borda CDN armazena conteúdo em locais estratégicos o mais próximo possível do visitante.
Como resultado, os visitantes experimentam um melhor desempenho e tempos de carregamento mais rápidos, já que, na verdade, estão solicitando conteúdo de um servidor geograficamente mais próximo.
Dito isso, os servidores de origem também terão menos probabilidade de sofrer degradação de desempenho quando houver um aumento repentino no tráfego do seu site.
Como funciona um CDN?
As solicitações são tratadas por qualquer servidor de rede mais próximo do dispositivo que fez a consulta. Ao armazenar dados em cache e distribuir várias solicitações das mesmas informações em uma rede, em vez de em um único servidor da web, a carga de tráfego se torna muito mais equilibrada. Isso elimina problemas como velocidade da página, travamentos do navegador e interrupções de serviço.
Como um CDN pode beneficiá-lo pessoalmente depende do tamanho do seu site, de sua localização em relação à fonte de tráfego principal e da quantidade de tráfego gerado. Por exemplo, uma empresa local com uma localização física que atende uma pequena área geográfica não se beneficiará muito de um CDN.
No entanto, se você é proprietário de uma empresa de comércio eletrônico que precisa de um alcance mais amplo ou se o seu site gera tráfego pesado de diversos locais, um CDN rápido e eficiente o ajudará a manter a sua vantagem competitiva.
Existem quatro benefícios principais em usar servidores CDN. Cada um deles se baseia no outro para ajudar a mitigar os problemas de gerenciamento de partes complicadas de conteúdo e atendimento de tráfego de alto volume.
Redes eficazes de distribuição de conteúdo devem realizar as quatro coisas a seguir:
Reduzindo o consumo de largura de banda
Uma das maiores despesas com alguns serviços de hospedagem é a largura de banda. Conservar a largura de banda necessária para controlar o tráfego, multiplicando os seus pontos de presença, mantém os custos baixos.
Isso é obtido por meio de ferramentas de otimização, como cache, que coloca os dados em armazenamento temporário em diferentes computadores ou dispositivos móveis para facilitar o acesso.
Velocidade geral e desempenho aumentados
Um dos maiores contribuintes para altas taxas de rejeição é a latência. Ela é o maior tempo necessário para transferir informações da fonte para o uso e vice-versa. Geralmente é causado por:
Atrasos na leitura de arquivos devido ao armazenamento bloqueado
Atrasos no processamento de dados do servidor
Tipo de transmissão de dados, como uma rede de fibra óptica versus cabos coaxiais Propagação ou a velocidade com que os dados viajam de um nó para o outro
Muitos desses problemas podem ser resolvidos, ou pelo menos bastante reduzidos, usando uma rede de distribuição eficaz.
Segurança aprimorada
Quando toda a transferência de dados é conduzida de um único servidor, isso aumenta sua vulnerabilidade a eventos maliciosos, como ataques de negação de serviço (DDoS) e outras vulnerabilidades.
Resumindo, os ataques DDoS são solicitações coordenadas de informações conduzidas de vários locais e usuários em um horário determinado; elas também podem ser implantadas automaticamente por meio de bots. O objetivo disso é fazer com que o servidor trave devido a sobrecargas de tráfego.
Isso é feito por meio de ameaças, como extorsão e chantagem, ou apenas com o objetivo de causar danos.
Os ataques DDoS podem continuar por horas ou até dias, tornando o site inacessível ao tráfego legítimo. Usar filtros DDoS e espalhar consultas em vários locais ajuda a evitar explosões de tráfego criadas artificialmente.
Você pode até usar o seu CDN para manter os hackers afastados e proteger os seus dados confidenciais. Isso é possível porque os CDNs atualizam continuamente os certificados TLS/SSL, fornecendo padrões mais elevados de autenticação e criptografia. Eles também desviam o tráfego do servidor original para os proxies.
Melhor distribuição de conteúdo
Cargas de tráfego pesado e mau funcionamento de hardware resultam em mais tempo de inatividade que a maioria dos sites não pode pagar. Ao distribuir o tráfego por vários sistemas de entrega de conteúdo, a sua infraestrutura e servidores terão menos carga para carregar.
Aqui estão alguns exemplos de quem pode se beneficiar mais com um CDN:
Comércio eletrônico:
Sites como esses geralmente recebem mais tráfego e precisam lidar com solicitações de muitos locais diferentes. No entanto, se o site deixar de fornecer as informações necessárias em um piscar de olhos, inúmeras oportunidades podem ser perdidas. Ao distribuir o seu conteúdo de forma eficiente e fornecer uma resposta mais rápida, o CDN pode evitar picos no tráfego da web, evitando travamentos indesejados no servidor.
Propaganda:
Os negócios online dependem fortemente de anúncios baseados em multimídia – eles podem ser simples e inovadores, embora sejam mais eficazes do que os métodos tradicionais de publicidade. No entanto, esses tipos de anúncios também requerem mais recursos, o que pode resultar em tempos de carregamento do site insatisfatórios.
Quanto mais lento o site, mais clientes o abandonam. As empresas de publicidade precisam do CDN para resolver esse problema, pois ele armazena o conteúdo do cache mais perto do usuário final, tornando o carregamento do conteúdo muito mais rápido. Se o tempo mínimo de carregamento puder ser mantido, o desempenho do site será melhor.
Jogo on line:
Se a publicidade precisa de muitos recursos para conteúdo, os videogames precisam de ainda mais recursos. Este é um dos maiores desafios para a indústria de jogos online – continuar oferecendo os melhores serviços possíveis para a maior quantidade de pessoas ao redor do mundo. A tecnologia CDN permite que os jogos online tenham “zonas push” onde os desenvolvedores de jogos podem armazenar grandes quantidades de dados em servidores CDN, o que significa que a necessidade de solicitar dados diretamente do servidor de origem é reduzida.
Entretenimento:
O conteúdo é o coração da indústria de mídia e entretenimento. De serviços de streaming como Netflix ou Spotify a outros meios de comunicação, o conteúdo que eles oferecem atrai milhões de pessoas todos os dias. Esses serviços precisam ter uma estratégia sólida de distribuição do seu conteúdo para manter os seus sites funcionando perfeitamente, não importa onde alguém esteja tentando acessá-los.
Perguntas frequentes sobre CDN
Aqui estão algumas informações adicionais sobre os CDNs que você pode querer saber:
Qual é a diferença entre os CDNs pull e push?
Alguns provedores de CDN oferecem a opção de escolher entre uma zona pull ou push, e a escolha depende de muitos fatores e prioridades.
Por exemplo, uma zona pull funciona “puxando” o conteúdo do site do servidor de borda mais próximo e é o método mais comum a ser usado.
Os usuários podem deixar o seu conteúdo no servidor com uma zona pull e reescrever os URLs para que apontem para o CDN. Quando alguém solicita um arquivo específico, o CDN primeiro vai para o servidor original, “puxa” o arquivo para o usuário final e armazena em cache esse arquivo quando outra pessoa deseja baixá-lo.
Esse método é adequado para sites que recebem uma grande quantidade de tráfego, pois o conteúdo permanece relativamente estável e o tráfego será distribuído uniformemente.
No entanto, uma zona pull pode, em alguns pontos, funcionar mais lentamente. Por exemplo, os visitantes que tentarem acessar o arquivo pela primeira vez ou tentarem baixá-lo após a sua expiração podem notar uma pequena diferença na velocidade.
Enquanto isso, a zona push requer que os dados sejam carregados para a nuvem de armazenamento CDN, uma vez que não há fonte existente onde o conteúdo foi armazenado.
Esse método exige que os próprios usuários sejam responsáveis por fornecer conteúdo ao CDN, “enviando-o” ao servidor. Eles podem especificar o conteúdo que é carregado, quando ele expira e quando será atualizado.
Com isso em mente, uma zona push é recomendada para sites de tráfego mínimo – o conteúdo é enviado ao CDN uma vez e deixado lá até que as alterações sejam necessárias.
O CDN funciona com dispositivos móveis?
Sim. Os CDNs funcionam com qualquer desktop ou dispositivo móvel que possa ser conectado à Internet. Todos os processos são conduzidos a partir da fonte, não no usuário final.
Como um CDN pode acelerar o meu site?
Existem três maneiras de como o CDN pode aumentar os tempos de carregamento e a velocidade geral do seu site:
Ele distribui e armazena diversos tipos de conteúdo como imagens, texto e arquivos de mídia avançada para acesso mais rápido.
Reduz a largura de banda servindo conteúdo de vários locais em vez de enviar tudo para fora de um servidor.
Lida com picos de tráfego durante os horários de pico sem interromper o serviço.
O CDN é seguro para usar?
A segurança é um dos fatores mais importantes quando se trata de CDN. Portanto, os seus dados são criptografados ao serem transferidos de um terminal para outro. A mitigação de DDoS também é uma preocupação significativa quando se trata da segurança de sites. Como as informações são armazenadas em vários locais de data center, isso reduz as chances de os servidores ficarem sobrecarregados se esse tipo de ataque ocorrer.
CDN é o mesmo que serviço de hospedagem?
Os CDNs não hospedam sites, mas podem melhorar o desempenho do site de servidores hospedados, utilizando cache e outros métodos de otimização para conservar a largura de banda. Usar um CDN também pode melhorar a velocidade do site e evitar problemas como interrupções na conexão, segurança frouxa e entrega lenta de conteúdo.
As redes de distribuição de conteúdo podem até trabalhar lado a lado com o seu provedor de serviços de hospedagem. Enquanto um fornece a você uma plataforma para hospedar o seu site principal, o CDN, por outro lado, fornece os proxies para distribuí-lo com mais eficiência.
Que tipos de sites podem se beneficiar de um CDN?
Qualquer forma de site B2B (business-to-business/negócios-para-negócios) ou B2C (business-to-consumer/negócios-para-consumidor) que tenha uma base de usuários maior fora de sua localização geográfica imediata pode se beneficiar de um CDN. Eles também são úteis para blogueiros e sites com alto volume de tráfego.
O que é conteúdo estático e dinâmico?
O conteúdo estático é qualquer arquivo da web que permanece o mesmo sempre que é entregue ao usuário. Raramente muda e não depende das preferências do usuário. Esse tipo de conteúdo geralmente é armazenado em um servidor CDN, tornando mais rápido o processamento, o cache e a entrega.
Por outro lado, o conteúdo dinâmico muda com base no comportamento do usuário ou outras variáveis, como horário de visita, dispositivo, localização, etc.
Uma página da web com conteúdo dinâmico não terá a mesma aparência para todos, tornando-a mais personalizada e interativa. Sites de comércio eletrônico e plataformas de mídia social são alguns dos exemplos mais proeminentes de sites com esse tipo de conteúdo.
No entanto, ao contrário do conteúdo estático, o conteúdo dinâmico não é armazenado em um servidor. Em vez disso, ele usa scripts do lado do servidor para gerar um arquivo HTML em tempo real e enviá-lo ao navegador do usuário. É por isso que o conteúdo dinâmico geralmente é servido a partir de um servidor de origem, não de um servidor de ponta.
CDN e VPN – Qual é a diferença?
As Redes Privadas Virtuais (VPNs) protegem a identidade do usuário e usam uma variedade de servidores em diferentes locais para contornar as restrições geográficas e outras, em certos tipos de conteúdo.
As redes de entrega de conteúdo aceleram a entrega de informações, enviando e armazenando o conteúdo do site em uma rede de servidores, permitindo que os visitantes do site acessem as páginas da web a partir da fonte disponível mais próxima. No entanto, ambas fornecem camadas adicionais de segurança para o seu site.
https://gocache.com.br/wp-content/uploads/2021/02/o-que-e-cdn-e-como-ela-funciona.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-02-14 15:00:302021-02-16 15:41:15O que é CDN? E como ela funciona?
Você sabia que o Google indexa conteúdo em diferentes tipos de armazenamento com base na probabilidade de serem pesquisados/
Gary Illyes, do Google, revela que o índice de busca usa um sistema em camadas onde o conteúdo mais popular é indexado em um armazenamento mais rápido e caro.
Ao explicar como o Google constrói o seu índice de pesquisa, Illyes diz que o conteúdo é indexado em três tipos de armazenamento:
RAM (memória de acesso aleatório): mais rápida e mais cara
SSD (Solid State Drive): Muito rápido, mas com custo proibitivo
HDD (unidade de disco rígido): mais lento e menos caro
O Google reserva o armazenamento mais rápido para documentos que provavelmente serão exibidos nos resultados de pesquisa com frequência.
Illyes afirma:
E então, quando construímos nosso índice, e usamos todos os sinais que temos. Vamos escolher uma, digamos, classificação de página e, em seguida, tentar estimar o quanto serviríamos aos documentos que indexamos. Então, será como a cada segundo? Teremos uma consulta que acione esses documentos? Ou será uma vez por semana ou uma vez por ano? E com base nisso, podemos usar diferentes tipos de armazenamento para construir o índice.
Illyes continua dando exemplos do que seria armazenado na RAM, o que seria armazenado em SSDs e o que seria armazenado em HDDs.
O conteúdo acessado a cada segundo acabará sendo armazenado na RAM ou SSDs. Isso representa uma pequena quantidade de todo o índice do Google.
A maior parte do índice do Google é armazenado em discos rígidos porque, nas palavras de Illyes, os discos rígidos são baratos, acessíveis e fáceis de substituir.
Então, por exemplo, para documentos que sabemos que podem surgir a cada segundo, por exemplo, eles acabarão em algo super rápido. E o super rápido seria a RAM. Como, parte do nosso índice de serviço está na RAM. Então teremos outro nível, por exemplo, para drives de estado sólido, porque eles são rápidos e não tão caros quanto a RAM. Mas ainda não – a maior parte do índice não estaria nisso. A maior parte do índice estaria em algo que é barato, acessível, facilmente substituível e não quebra o banco. E isso seria discos rígidos ou disquetes.
É claro que Illyes está brincando sobre disquetes, esse é o tipo de humor seco que você recebe dele no podcast :)
Segundo o comentarista do SEJ, Matt Southern está é a primeira vez que o Google abre ao público informações sobre seus níveis de armazenamento de índice de pesquisa. É interessante saber que o conteúdo mais procurado está armazenado em RAM e SSDs.
O custo de armazenar até mesmo uma porcentagem do índice do Google em RAM e SSDs deve ser exorbitante. Embora seja provável que o custo de armazenamento mais rápido seja justificado pela importância dos documentos para as pessoas.
A demanda pelo conteúdo deve ser tão alta que o Google não quer correr o risco de atrasar sua divulgação aos usuários.
No que se refere ao SEO, não há como otimizar um tipo de armazenamento em detrimento do outro. E não há como saber em qual camada de armazenamento o seu site está indexado.
Meu palpite é que uma porcentagem decididamente pequena de páginas da web são indexadas em RAM ou SSDs. Trazendo de volta para o SEO, isso é bom, pois significa que a maioria dos sites está competindo em igualdade de condições quando se trata de velocidade de armazenamento de índice.
Caso queira ler o artigo do Matt na integra, acesse o link abaixo.
https://gocache.com.br/wp-content/uploads/2021/02/google-usa-armazenamento-rapido-resultados-de-alta-demanda.jpg6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-02-09 09:00:202022-05-25 10:59:20Google usa armazenamento rápidos para páginas com alta demanda de buscas
Se você chegou até este artigo, certamente está em busca de entender um pouco mais sobre links de qualidade e links de baixa qualidade e como eles podem ajudar positivamente ou até mesmo, atrapalhar os resultados do seu site.
Para aprender mais sobre o tema, compartilhamos abaixo um artigo originalmente publicado pela Helen Pollitt no SEJ. Vamos lá?!
Qual é a diferença entre links de baixa e alta qualidade? Saiba onde procurar links de alta qualidade para o seu site e quais sites evitar. Como profissionais de SEO, passamos muito tempo atrás de links, frequentemente, eles são vistos como a forma mais poderosa de ranquear um site.
Mas nem todo link é criado da mesma forma.
Com o tempo, os mecanismos de pesquisa adaptaram os seus algoritmos para contabilizar os links de diferentes maneiras, restringindo o seu uso para determinar a adequação de uma página da web como resposta a uma consulta de pesquisa.
Como os motores de busca usam os links?
Os mecanismos de pesquisa usam links que apontam para uma página da web para descobrir a sua existência e também determinar informações sobre ela.
O Google menciona em sua documentação de ajuda: “O Google interpreta um link da página A para a página B como um voto da página A para a página B. Os votos lançados por páginas que são “importantes” têm mais peso e ajudam a tornar outras páginas “importantes”.
Já o Bing declara em sua Ajuda para webmasters e guia prático: “O Bing prefere ver links construídos organicamente. Basicamente, isso significa que os links são criados por pessoas com links para o seu conteúdo, porque elas encontram valor no seu conteúdo. Este é um sinal importante para um mecanismo de pesquisa, porque é visto como um voto de confiança no conteúdo.”
O que é valioso em um link?
Sabemos que o Google usa links como votos. Um link de um site bem conceituado terá mais influência do que um site menos conceituado.
Autoridade:
Isso geralmente é discutido como “autoridade”.
Muitas ferramentas de SEO tentarão atribuir uma métrica de autoridade a um site ou página da Web na tentativa de quantificar o valor de um link deles.
Uma página da Web com autoridade, com um link para a sua página da Web, pode ser um forte sinal de que ela é uma fonte confiável. Em essência, um site oficial é aquele considerado pelos mecanismos de pesquisa como uma fonte confiável de informações sobre um assunto – uma autoridade nele.
O Google, em parte, analisará os backlinks desse site para determinar a sua expertise e confiabilidade em um determinado assunto. Por exemplo, um site é considerado um especialista em design de interiores. Tem um link para um site menos conhecido sobre design de interiores.
O site de um especialista em design de interiores tem confiança suficiente no conteúdo do site menos conhecido a ponto de estar disposto a enviar os seus visitantes para lá. Essa é uma maneira boa e imparcial para os mecanismos de pesquisa determinarem a reputação de um site e a sua autoridade sobre um assunto.
Relevância:
Autoridade não é tudo, no entanto. Pense assim… você vai de férias para uma cidade que nunca visitou.
A quem você prefere pedir recomendações de restaurantes: seu amigo que mora na cidade ou um guia turístico de uma cidade a 5 horas de distância?
O seu amigo que mora na cidade provavelmente é uma fonte de informações mais relevante sobre os restaurantes da região do que o guia turístico que não atende aquela região. Você pode achar que um guia turístico tem mais conhecimento sobre bons restaurantes, mas não se não for a sua área de especialização. De maneira semelhante, os mecanismos de pesquisa compreenderão o valor de um site do seu setor com links para sua página da web.
Um site que analisa restaurantes será considerado uma fonte mais relevante de informações sobre restaurantes do que um grupo da comunidade local que saiu para um restaurante.
Ambos os sites podem ter uma página falando sobre o “melhor restaurante de sushi em Nova York”, mas o site de críticas de restaurantes será mais relevante para ajudar os mecanismos de pesquisa a determinar o que servir como uma resposta para “restaurante de sushi em Nova York”.
Autoridade e Relevância:
A melhor fonte de um link é um site considerado confiável e relevante para o seu negócio.
O que são links de baixa qualidade?
O Google tem diretrizes rígidas sobre o que é considerado um link de manipulação.
Se pensarmos em um link de qualidade como sendo relevante e confiável, então faz sentido que o link de qualidade mais baixa seja irrelevante e não oficial.
Esses tipos de links geralmente são fáceis de encontrar e podem ser criados pelo próprio usuário ou solicitados.
Por exemplo, um site que permite que qualquer pessoa envie um link provavelmente não terá um conteúdo altamente selecionado, o que o tornaria oficial.
O fato de que qualquer pessoa pode adicionar um link para o site significa que não é provável que seja particularmente relevante para um setor ou nicho.
Os links de um site como este, para o seu site, serão de baixa qualidade e geralmente inúteis.
Na melhor das hipóteses, esses links podem ter um pequeno impacto positivo nas suas classificações de busca, mas na pior, podem ser percebidos como parte de um esquema de links manipulativos.
Um pouco sobre links pagos:
Todos nós sabemos agora que pagar por links para ajudar na classificação vai contra as diretrizes da maioria dos grandes motores de busca.
Na melhor das hipóteses, o link não será identificado como tendo sido pago e você não receberá uma penalidade por ele.
No entanto, se o Google detectar que você adquiriu links de sites que vendem links, a página vinculada a ele pode ser penalizada.
Existem razões legítimas pelas quais os links podem ser colocados em sites mediante o pagamento de uma taxa.
É prática comum utilizar banners de propaganda e marketing de afiliados na internet, por exemplo.
Nesses casos, o Google recomenda que os webmasters declarem os links como patrocinados usando o atributo rel = ”sponsored”. Isso indica ao Googlebots que o link foi pago e não deve ser usado para calcular a PageRank.
Esses tipos de links têm seu próprio valor para o marketing e não devem ser descontados simplesmente porque não ajudam necessariamente nas classificações de pesquisa.
Um pouco sobre links nofollow:
Antes do Google introduzir o uso do atributo rel = ”sponsored”, ele e outros mecanismos de pesquisa usavam o atributo rel = ”nofollow”.
Colocar um atributo rel = ”nofollow” no HTML de um link mostra aos robôs de pesquisa que eles não devem ir para o destino desse link.
Isso é usado pelos editores para impedir que os mecanismos de pesquisa visitem a página e atribuam qualquer benefício do link.
Portanto, se uma página de alta qualidade vincular a sua página da web com um link que contiver um atributo rel = “nofollow”, você não verá nenhum benefício de classificação com esse link.
O Google anunciou recentemente que este atributo é uma dica e, portanto, pode ignorá-lo.
No geral, isso essencialmente torna um link “nofollow” inútil para fins de construção de links de SEO, já que o link equity não passará pelo link.
No entanto, se as pessoas estão seguindo o link e descobrindo a sua página da web, eu diria que não é inútil!
O que são link de alta qualidade?
Links de baixa qualidade geralmente são aqueles que são: Irrelevantes para ajudar os motores de busca a determinar a autoridade do seu site sobre um assunto. Ou realmente prejudiciais.
Os links de baixa qualidade de que estamos falando aqui são aqueles que você pode procurar, mas não estão beneficiando o seu site.
Links de alta qualidade são o Santo Graal do link building.
São os links que você exibe no canal “Team Wins” do Slack e no Twitter.
Eles são difíceis de ganhar.
Também quero mostrar alguns links de “qualidade média”.
Esses são os tipos de links que podem ser obtidos, mas talvez não levem você tão longe quanto você gostaria.
Eles fazem parte de um perfil de backlink saudável, mas não valem todo o seu orçamento para marketing de conteúdo.
Os tipos de links que você provavelmente obterá de baixa qualidade e relevância são aqueles que não requerem nenhum esforço real para serem obtidos. Por exemplo, ao simplesmente buscar os links e solicitá-los ou, em alguns casos, adicionar o link você mesmo.
Diretórios abertos:
Esses sites de diretório são obviamente de baixa qualidade quando você os visita. Normalmente eles oferecem apenas um serviço – anuncie seu site aqui!
Você não precisa pagar por um link e todo mundo já se aproveitou disso.
Haverá links de sites de todos os tipos de indústrias com muito pouca razão para a existência desse diretório.
Observe, entretanto, que existem diretórios de empresas locais confiáveis que podem ajudar a verificar o endereço físico e os detalhes de contato da sua empresa – o Yelp, por exemplo.
Essas listagens são úteis para citações locais, mas é improvável que realmente ajudem a impulsionar as classificações do seu site.
A diferença entre diretórios locais confiáveis e diretórios abertos genéricos é bastante óbvia quando você os visita.
Links de comentários:
Os blogs de anúncios em fóruns podem ser muito relevantes para um determinado setor. No entanto, devido à facilidade com que qualquer pessoa pode adicionar conteúdo a uma página de fórum ou comentários de blog, quaisquer links nesse conteúdo gerado pelo usuário geralmente são descontados pelos mecanismos de pesquisa.
Na história recente do SEO, comentários de blogs e fóruns eram alvos fáceis para inserir um link para um site.
Os motores de busca ficaram sabendo disso e começaram a desvalorizar esses links.
Junto com o atributo rel = ”sponsored”, o Google lançou rel = ”ugc”.
Essa é uma forma de os webmasters indicarem que os links em seus fóruns são gerados por usuários.
Baixa Qualidade: Baixo Esforço e No Follow
Postagens de mídia social:
A maioria dos grandes sites de mídia social usará tags “no follow” neles. No entanto, o Google disse recentemente que as tags “nofollow” seriam tomadas como dicas ao invés de concretamente respeitadas.
Apesar disso, os sites de mídia social não são o lugar certo para procurar backlinks para ajudar na sua classificação.
Embora os próprios sites de mídia social sejam frequentemente confiáveis, eles estão cheios de conteúdo não confiável.
As empresas podem configurar as suas próprias páginas de mídia social com links para os seus sites. Elas podem falar sobre os seus sites em seus posts e esses links não são imparciais. Devido a isso, eles são amplamente ignorados pelos motores de busca.
Qualidade média: Baixa Autoridade, mas de Alta Relevância
Blogs de Pequenas indústrias:
A maioria dos setores tem uma proliferação de blogs. Sites administrados por empresas ou indivíduos que desejam compartilhar seus conhecimentos e construir seu perfil.
Existem alguns blogs de nicho altamente relevantes que podem não ser bem conhecidos o suficiente para obter os seus próprios backlinks para impulsionar as métricas de autoridade.
Eles são, no entanto, cheios de conteúdo decente e muito relevantes para o site que você está tentando desenvolver.
Os redatores de blogs de pequenas indústrias costumam ser menos sobrecarregados com solicitações para compartilhar conteúdo e adicionar links do que os mais conhecidos.
Eles estão, no entanto, interessados em escrever e construir uma comunidade.
Um blog menor apresentando o seu site ainda é um bom reforço da sua relevância para o setor e isso pode ajudar enormemente a mostrar a sua relevância para os tópicos de pesquisa associados a esse setor.
Marcas de pequenas indústrias:
Haverá algumas marcas básicas no seu setor que não são necessariamente concorrentes, mas estão tangencialmente relacionadas. Pense nos fabricantes de papel para a sua loja de suprimentos de escritório, por exemplo.
Um link do fabricante do papel mostrando a sua loja como seu distribuidor pode ajudar a mostrar a sua autoridade no setor.
Qualidade média: Autoridade Média e Média Baixa Relevância
Sites locais de notícias:
Seu site de notícias local pode relatar qualquer coisa que tenha a ver com a sua comunidade, ou eles podem ser mais criteriosos.
Independentemente disso, fazer algo considerado interessante localmente pode fazer com que você seja apresentado com muito mais facilidade do que em um site de notícias nacional.
Esses são links especialmente bons se você estiver tentando impulsionar os seus esforços locais de SEO.
Um link de um site conhecido como fonte de informações locais confiáveis pode ajudar os mecanismos de pesquisa a ver a sua relevância para essa área física.
Alta Qualidade: Alta Autoridade, mas Média / Baixa Relevância
Alguns sites são extremamente confiáveis e difíceis de obter links. Eles tendem a ser benéficos para os seus esforços de SEO.
Esses tipos de links podem não ser altamente relevantes, no entanto.
Embora você veja um benefício na sua visibilidade de pesquisa, isso pode não ajudar a solidificar a sua relevância para tópicos específicos.
Sites de notícias nacionais:
Existem alguns jornais nacionais e internacionais com sites de autoridade extremamente elevada. Um link desses sites vale o esforço. No entanto, os jornalistas são inundados com centenas de comunicados à imprensa e ideias para artigos todos os dias.
Pode ser extremamente difícil obter destaque, especialmente com um link.
A melhor maneira de obter cobertura em um jornal nacional é fazer algo digno de nota.
Trazer isso para a atenção dos jornalistas do site pode ajudá-lo a ter cobertura, esperançosamente com um link para o seu site.
Alta qualidade: Autoridade Média, mas de Alta Relevância
Blogs da grande indústria:
É para esse site que todos na indústria vão para obter as suas notícias, os seus amigos e familiares podem não ter ouvido falar dele, mas os seus colegas definitivamente sim.
É provável que seja um site de autoridade média de acordo com as métricas de autoridade, mas é um líder no seu setor. Também é muito relevante para o site que você está promovendo. Um link de um site como este é muito útil para mostrar a expertise do seu site.
Alta Qualidade: Alta Autoridade e Alta Relevância
Grandes marcas da indústria:
Esses são nomes familiares, as empresas que todos no seu setor (e possivelmente as suas famílias) conhecem.
Esses links provavelmente são de média a alta autoridade de acordo com as ferramentas, mas definitivamente são líderes no seu setor.
Se você estiver vinculado como fornecedor ou distribuidor, ou mesmo apenas mencionado em uma análise favorável, provavelmente verá o benefício da classificação.
Conclusão:
Um perfil de link amplo e variado é bom para o SEO. Se você está procurando ativamente aumentar os links para o seu site de maneira orgânica, é fundamental que saiba como gerar links de alta qualidade.
Não perca seu tempo procurando links fáceis em sites não relacionados e de baixa qualidade.
Em vez disso, concentre a sua energia e orçamento na criação de conteúdo verdadeiramente interessante e em trazê-lo à atenção de editores confiáveis e relevantes.
Gostou do artigo? Confira na integra através do link abaixo:
https://gocache.com.br/wp-content/uploads/2021/02/links-de-alta-qualidade-vs-links-de-baixa-qualidade.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-02-02 16:30:402021-02-03 15:28:43Links de qualidade VS Links de baixa qualidade: Qual a diferença?
Neste artigo, você aprenderá algumas das estratégias mais utilizadas para reduzir os custos do Amazon S3.
Primeiro, vamos revisar os fatores que afetam os custos mensais do Amazon S3. Você pagará em termos de:
Tamanho dos dados armazenados a cada mês (GB).
Número de operações de acesso concluídas (por exemplo, PUT, COPY, POST, LIST, GET, SELECT ou outros tipos de solicitação).
Número de transições entre classes diferentes.
Tamanho da recuperação de dados e quantidade de solicitações.
Taxas de transferência de dados (largura de banda do Amazon S3) – Também conhecido como data transfer out
Um dos fatores de custo mais importantes é a classe de armazenamento. Certifique-se de compreender as diferentes classes disponíveis e seus casos de uso. Vamos revisá-los rapidamente e compará-los.
O Amazon S3 oferece 6 classes de armazenamento diferentes:
S3 Standard
S3 Intelligent-Tiering
S3 Standard-IA
S3 One Zone-IA
S3 Glacier
S3 Glacier Deep Archive
Lembre-se de que cada objeto S3 pode ser atribuído a uma classe de armazenamento específica. Portanto, um bloco pode ter objetos com diferentes classes simultaneamente.
Aqui está uma tabela que resume os principais parâmetros de custo para cada classe de armazenamento (para N. Região da Virgínia).
Transições do ciclo de vida ($ por 1.000 solicitações)
Recuperação de dados ($ por 1.000 solicitações) Preço de recuperação de dados ($ por GB)
Para tornar as coisas mais simples, esta tabela não reflete todos os elementos cobrados pelo AWS S3. Por exemplo, ela não considera solicitações PUT (ou outras), recuperações de dados que não sejam em massa ou custos de transferência de dados. Mas descreve os custos que diferem com base nos tipos de classe.
Você também notará que o Preço / Gb de armazenamento aumenta de cima para baixo na tabela. Mas o custo de acesso aumenta ao mesmo tempo. Portanto, a classe certa a ser usada depende da frequência com que você acessa cada objeto S3.
A classe S3 Standard é normalmente usada para dados acessados com frequência. Embora o custo por Gb seja alto, você não paga pelo número de solicitações. E, portanto, essa classe de armazenamento é mais adequada para objetos lidos ou gravados várias vezes por mês.
A terceira classe da tabela é S3 Standard-IA. Tem um preço de armazenamento mais baixo. Mas o custo do acesso é maior. De acordo com a AWS, ela deve ser usada para dados de longa duração, mas raramente acessados, que precisam de acesso instantâneo.
Como regra geral, o S3 Standard-IA deve ser usado se o objeto for acessado em média menos de uma vez por mês. Por que um mês? Porque essa é a frequência em que S3 Standard e S3 Standard-IA têm aproximadamente o mesmo custo geral. E também é o tempo mínimo recomendado para manter os objetos na classe S3 Standard-IA. Se forem mantidos por menos de 30 dias, o restante será cobrado.
Normalmente, é difícil saber com que frequência o objeto é acessado. A AWS criou o S3 Intelligent-Tiering para resolver esse problema. Esta classe move automaticamente os dados entre as classes S3 Standard e S3 Standard-IA. E isso minimiza o custo S3 do objeto. Se você estiver mantendo um objeto por mais de 30 dias, a classe S3 Intelligent-Tiering será mais barata do que S3 Standard e S3 Standard-IA. Essa deve ser sua primeira opção nesses casos.
A classe S3 One Zone-IA é semelhante a S3 Standard-IA. Mas, em vez de armazenar dados em 3 (ou mais) AZs, os dados são armazenados em apenas um AZ. Por esse motivo, os dados podem ficar indisponíveis se o AZ falhar. Você deve usar o S3 One Zone-IA apenas se puder tolerar esse risco.
As últimas 2 classes da tabela são S3 Glacier e S3 Glacier Deep Archive. Eles têm o menor custo por GB. Mas o custo do acesso é alto. Portanto, eles são usados para fins de arquivamento. Eles substituem as bibliotecas usadas no local.
Você deve ter em mente que os objetos Glacier não estão imediatamente disponíveis. Se você quiser acessar o conteúdo de um objeto em qualquer classe Glacier, terá que esperar até que a recuperação termine. Para o modo de recuperação em massa, esse tempo é entre 5 e 12 horas. E outros modos de recuperação são mais rápidos, mas mais caros. Por esse motivo, o Glacier só deve ser usado para objetos raramente acessados. Por exemplo, o Glacier é ideal para backups, arquivamento e quaisquer dados acessados com pouca frequência a longo prazo.
A diferença entre o S3 Glacier e o S3 Glacier Deep Archive é que o último é para objetos acessados com menos frequência. Por exemplo, é recomendado para objetos acessados a cada 6 (ou mais) meses. Os custos de armazenamento do S3 Glacier Deep Archive são mais baixos. Mas o objeto precisa ser armazenado por pelo menos 180 dias naquela classe. Caso contrário, esse período mínimo será cobrado.
Acabamos de descrever as principais características de cada classe S3 e os casos de uso sugeridos. Agora podemos começar a otimizá-los.
Abaixo estão as principais estratégias para reduzir os custos do AWS S3:
1. Defina a classe s3 certa para novos objetos antes da criação
Sua primeira etapa é analisar os padrões de acesso para os seus dados. Comece a pensar sobre o uso pretendido para cada novo objeto a ser criado no S3. Cada objeto em S3 deve ter um padrão de acesso específico. E, portanto, há uma classe S3 que funciona melhor para isso. A classe certa deve ser aplicada a todos os novos objetos no Amazon S3. Não é possível definir a classe padrão por bloco no S3. Mas você pode atribuí-la por objeto.
Comece definindo a melhor classe para cada novo objeto no S3. E defina essa classe na operação que carrega esse objeto para o Amazon S3. Isso pode ser feito usando AWS CLI, AWS Console ou AWS SDK. Como consequência, cada novo objeto terá a classe certa. Essa pode ser a melhor estratégia para economizar dinheiro a longo prazo. E provavelmente será a estratégia mais eficiente em termos de tempo.
2. Ajuste a classe S3 para objetos existentes
Agora que você já definiu a classe certa para os novos objetos (a serem criados), você pode se concentrar nos objetos já criados. O processo é semelhante ao descrito no ponto anterior. Comece a analisar os padrões de acesso a dados para cada objeto existente em sua conta S3. Em seguida, decida a melhor classe para cada um. E, finalmente, atribua essa classe na configuração do objeto. Isso permitirá que você otimize cada intervalo S3 e, assim, reduza seus custos S3.
Como verificar se funcionou? Você pode usar o AWS Cost Explorer para verificar o seu custo S3 diário. Você também notará a redução de custos na fatura do próximo mês. As contas da AWS mostram o consumo de cada serviço, incluindo a do Amazon S3.
Considere que pode ser demorado atualizar cada classe de objeto após a sua criação. É por isso que é muito importante definir classes antes que os objetos sejam criados (conforme descrito anteriormente). Observe também que esse processo consiste em uma revisão objeto por objeto (ou bloco por bloco). E, dependendo do número de objetos que você tem, pode levar um tempo considerável. Provavelmente é melhor focar em objetos grandes (ou acessados com muita frequência). E então atualize suas classes de armazenamento primeiro.
Você também pode usar S3 Storage Class Analysis. Esta é uma ferramenta para analisar os padrões de acesso aos objetos S3. Ela monitora os objetos dentro de um bloco. E mostrará a quantidade de dados armazenados no intervalo, a quantidade de dados recuperados e com que frequência os dados são acessados (com base na idade do objeto). Observe que há uma cobrança pequena feita por esta ferramenta. Mas permite que você entenda se os objetos são acessados com frequência. Depois de entender o padrão de acesso, você pode atualizar a classe de armazenamento S3 de acordo. Por exemplo, se você descobrir que a maioria dos objetos em um bloco é acessada apenas uma vez por ano (e você não precisa de acesso imediato), você deve ajustar sua classe de armazenamento para S3 Glacier Deep Archive.
3. Remova objetos S3 não utilizados
Você provavelmente já percebeu que paga pela quantidade de dados armazenados no S3. Portanto, se você remover objetos não utilizados, também reduzirá os custos do S3.
Como verificar o conteúdo dos seus blocos S3? Existem várias maneiras.
Por exemplo, você pode listar os objetos em cada intervalo. Isso mostrará os nomes dos objetos (ou chave) sem baixar o conteúdo do objeto. Isso pode ser feito usando o AWS Console, AWS CLI ou SDK.
Outra opção para verificar o conteúdo dos blocos S3 é usar o CloudWatch Metrics. Use a métrica BucketSizeBytes para obter o tamanho completo do intervalo. Ou use a métrica NumberOfObjects para obter o número de objetos armazenados nela. Essas são as métricas por intervalo e mostrarão o tamanho dos intervalos. Em seguida, você pode começar a remover qualquer objeto não utilizado nos blocos maiores.
Você também pode ativar o S3 Inventory em um bloco. Essa ferramenta prepara um arquivo CSV (ou Apache ORC), que lista todos os objetos em um intervalo. E é entregue a outro bloco S3 diariamente ou semanalmente. Essa é uma boa abordagem quando você tem milhares de objetos em um intervalo e deseja encontrar rapidamente algumas de suas propriedades (como tamanho, status de criptografia ou hora da última modificação). Observe que o inventário S3 tem um pequeno custo quando ativo.
4. Use o S3 Lifecycle Management
O Amazon S3 oferece uma ferramenta para alterar automaticamente a classe de armazenamento de qualquer objeto. Por exemplo, você pode fazer a transição da classe S3 Standard para S3 Glacier após alguns dias de criação do objeto. Portanto, você pode fazer a transição de cada objeto para a classe de armazenamento mais adequada. E isso vai se traduzir em uma redução de custos.
Como funciona o gerenciamento do S3 Lifecycle? Você define regras para cada intervalo. Cada regra tem um período de transição. Ele conta o número de dias desde que o objeto foi criado (ou removido). E a regra também define a classe de armazenamento para a qual fazer a transição após esse período. Observe que você sempre pode fazer a transição dos objetos para uma classe de armazenamento de longo prazo. Mas você não pode fazer a transição para uma classe de armazenamento de curto prazo.
Você também pode definir uma regra de ciclo de vida para um intervalo inteiro ou com base em um prefixo. Portanto, você não precisa fazer a transição dos seus objetos um por um. O S3 Lifecycle Management é uma das ferramentas mais úteis para economizar custos no S3. E você deve sempre considerar usá-lo.
5. Expire objetos S3
Esta é outra estratégia para remover objetos não utilizados. O Amazon S3 Lifecycle Management também pode definir uma política de expiração. Isso permite que você expire um objeto alguns dias após a sua criação. Cada objeto expirado será removido automaticamente pela AWS.
Se você mantiver os arquivos de log (ou quaisquer outros dados temporários) como objetos S3, deverá definir uma expiração para eles. Por exemplo, você pode definir que os objetos de log expirem 30 dias após a criação. E eles serão removidos automaticamente.
6. Expire uploads de várias partes incompletos
O Amazon S3 carrega objetos grandes usando upload de várias partes. A AWS divide um arquivo grande em fragmentos menores, e cada um é carregado independentemente para o S3. Em seguida, o AWS junta as várias partes carregadas no objeto final. A AWS recomenda o uso de uploads de várias partes para objetos maiores que 100 Mb. E é necessário usá-lo para objetos com mais de 5 TB.
O upload de objetos grandes pode demorar algum tempo. E este processo de upload pode ser interrompido. Como consequência, o bloco de upload S3 manterá alguns fragmentos não utilizados. Para removê-los, você pode definir uma nova política do LifeCycle. As políticas têm uma configuração “Limpar uploads de várias partes incompletos” para expirar esses objetos parciais. A remoção desses objetos permitirá que você libere espaço no S3 e, em seguida, reduzirá custos.
7. Compactar objetos S3
Você também pode compactar qualquer objeto antes de enviar o objeto S3. Basta criar um arquivo compactado (por exemplo, ZIP, GZIP ou equivalente), que será menor que o original. E então você carrega o arquivo compactado no S3. A quantidade de dados usados no S3 será menor. Então, os custos do Amazon S3 serão reduzidos.
Observe que, para obter o arquivo original, você terá que baixá-lo e também descompactá-lo. Mas você pode economizar muito espaço no S3 (por exemplo, ao usar arquivos de texto).
8. Empacotar objetos S3
Lembre-se de que você também paga pelo número de operações realizadas no Amazon S3. Se você tiver que baixar muitos objetos S3 simultaneamente, pode ser uma boa ideia compactá-los em um grande objeto (por exemplo, TAR, ZIP ou equivalente).
Algumas classes de armazenamento têm encargos de capacidade mínimos para objetos. Por exemplo, a carga de capacidade mínima por objeto para S3 Standard-IA e S3 One Zone-IA é 128 KB. E a carga de capacidade mínima por objeto para as classes S3 Glacier e S3 Glacier Deep Archive é de 40 Kb.
Por esse motivo, um pequeno objeto de 1 KB (com classe S3 Standard-IA) será cobrado como 128 KB. Empacotar vários arquivos juntos aproveitará as vantagens das taxas de capacidade mínimas. Se você empacotar objetos de tamanho pequeno juntos, também reduzirá os custos do S3.
9. Limitar as versões do objeto
O controle de versão do S3 Object é uma ferramenta muito útil. Cada vez que você altera o conteúdo de um objeto, a AWS manterá a versão anterior dele. Mas se você tiver um objeto de 1 MB com 100 versões, estará pagando por 100 MB de armazenamento.
Mas você pode usar políticas de ciclo de vida para excluir automaticamente as versões anteriores após algum tempo. Por exemplo, você define uma política para excluir objetos após 30 dias de se tornarem desatualizados. Isso limitará o número de versões armazenadas e diminuirá o armazenamento usado. Esta é outra abordagem para aumentar sua economia.
10. Usar o modo de recuperação em massa para S3 Glacier
O tempo de recuperação significa a rapidez com que o Amazon S3 disponibiliza o conteúdo do objeto. Observe que quanto mais rápido você recuperar os objetos, mais cara será a operação. Se você puder esperar algumas horas para recuperar os objetos, poderá economizar dinheiro. Portanto, tente usar o modo de recuperação em massa, se possível. Você pode escolher o modo de recuperação ao solicitar essa recuperação.
11. Use a funcionalidade Query in Place
Alguns aplicativos armazenam tabelas como objetos Amazon S3. Essas tabelas têm um formato específico (como formatos JSON, CSV ou Apache Parquet). Para consultar os dados, você deve baixar o arquivo completo. E então você tem que consultar a tabela inteira para encontrar os dados desejados dentro da tabela.
Mas existem maneiras mais eficientes de obter o conteúdo. A AWS oferece ferramentas como Amazon Athena, S3 Select ou Amazon Redshift Spectrum. Essas ferramentas permitem que você execute consultas diretamente na nuvem. Elas processam os dados usando comandos SQL. E então elas enviam os dados de que você precisa.
Essas ferramentas oferecem muitas vantagens. Como as consultas são concluídas na nuvem, você precisará de menos poder de processamento local. Outro benefício é que você baixa menos dados do Amazon S3. Isso torna o processo mais rápido e barato. Lembre-se de que você é cobrado pela quantidade de dados baixados do S3. Se menos dados forem solicitados, você economizará dinheiro em largura de banda.
Observe que as consultas S3 têm um pequeno custo adicional. Você deve avaliar se obterá uma otimização de custos.
12. Mudar de região
Algumas regiões são muito mais caras do que outras. E isso também se aplica aos preços do Amazon S3.
Portanto, vale a pena considerar mover o seu bloco S3 para uma região com preços mais baixos.
Outro fator a ser considerado são os custos de transferência de dados entre regiões da AWS. Os dados enviados de um intervalo para um VPC na mesma região são gratuitos. Mas o envio de dados para um VPC em outra região terá um custo por Gb. É uma boa ideia manter um bloco na região para onde os dados são enviados.
Uma boa estratégia, principalmente para aplicações que tem buckets no Brasil, é avaliar a mudança para uma região mais barata, e passar a utilizar a entrega via CDN para cache de objetos. Com isso é possível reduzir custos de transfer out sem perder qualidade de entrega.
Precisa de ajuda para reduzir custos com S3 na AWS? A GoCache pode ajudar :) Fale conosco!
https://gocache.com.br/wp-content/uploads/2021/01/como-reduzir-custos-com-s3.png6281200Go Cachehttps://gocache.com.br/wp-content/uploads/2021/11/gocache-nova-preta.pngGo Cache2021-01-22 10:30:372022-05-25 11:00:54Como reduzir custos com S3? 13 dicas que podem ajudar
Este site utiliza cookies para aprimorar sua navegação. Na GoCache o uso de cookies é feito apenas para reconhecer um visitante constante e melhorar a experiência no uso dos Serviços. Os cookies são pequenos arquivos de dados transferidos de um site da web para o disco do seu computador, e não armazenam dados pessoais. OkNoPolítica de privacidade