嗯,这个问题不仅适用于谷歌,也适用于亚马逊或雅虎等其他大型互联网公司。
我知道这个问题可能有点奇怪,但我会试着解释一下。互联网是由多个网络组成的网络。所以首先我们有来自第 1 层的网络,如 Level3、NTT 或 Telia-Sonera。然后我们有在第 2 层工作的 ISP,它为将最终用户与整个 Internet 连接起来付费。
但是一些大公司在世界各地都有数据中心。这些是如何联系起来的?
嗯,这个问题不仅适用于谷歌,也适用于亚马逊或雅虎等其他大型互联网公司。
我知道这个问题可能有点奇怪,但我会试着解释一下。互联网是由多个网络组成的网络。所以首先我们有来自第 1 层的网络,如 Level3、NTT 或 Telia-Sonera。然后我们有在第 2 层工作的 ISP,它为将最终用户与整个 Internet 连接起来付费。
但是一些大公司在世界各地都有数据中心。这些是如何联系起来的?
基本上有两种方法。
一种是使每个数据中心(或数据中心集群)成为一个单独的“网络”,拥有自己的 IP 空间(可能由供应商或供应商独立分配)、自己的路由和自己的交易(传输和可能的对等互连)在数据中心所在位置存在的网络。然后,世界不同地区的数据中心之间的流量将通过一个或多个 IP 传输提供商。
另一种方法是在您的数据中心之间租用电路(可能是专用光纤、WDM 波长、MPLS 链路或其他),并构建一个网络,该网络在 Internet 的其余部分看来是一个网络。不同数据中心中您自己的主机之间的流量永远不会离开您的网络。到 Internet 上其他地方的主机的流量显然会流入和流出您的网络,但可能不在生成/使用它的同一位置。这使您在如何路由流量方面具有更大的灵活性,并且可以更轻松地将 IP 移动到不同的地理位置,但它的成本可能会更高,尤其是在您很小的情况下。
我很确定谷歌采用第二种方法。
有人在对该问题的评论中提到了任播。两种方法都可以使用任播,但使用“一个网络”方法您可以更灵活,因为您可以在 Internet 上发布的最小路由通常是 /24,而在您自己的网络中,您可以路由单个 IP,甚至可以根据其他信息进行路由比目标IP。
您可能部分回答了自己的有趣的网络问题;巨大的数据中心遍布全球的关键区域,对等托管公司可以使用非常高速的互联网。
对于您的研究,您可以考虑调查 Akamai 和 Cloudfront 等公司。还有这个街区 Venturebeat 的新手。
用于全球站点之间负载平衡的技术有很多(我认为主要基于 Linux)。
https://en.wikipedia.org/wiki/Akamai_Technologies https://en.wikipedia.org/wiki/Amazon_CloudFront http://venturebeat.com/2015/12/09/google-cloud-cdn/ www.sanog。 org/resources/sanog24/Peering_Update.pdf https://en.wikipedia.org/wiki/Load_balancing_(计算)