当前位置: 首页> 科技资讯 >谷歌与微软2023年度电力消耗超越百国总量,科技能源消耗引发全球关注

谷歌与微软2023年度电力消耗超越百国总量,科技能源消耗引发全球关注

时间:2024-10-19 07:46:44

编辑:波波资源网

阅读:2

7月15日消息,科技巨头谷歌和微软在2023年的数据中心电力消耗达到了惊人的24太瓦时,这一数字超越了包括冰岛、加纳和突尼斯在内的超过100个国家的全年电力使用量。

谷歌与微软2023年度电力消耗超越百国总量,科技能源消耗引发全球关注

这意味着科技公司的能源需求对环境产生了重大影响,但同时也反映出它们在经济效益上的卓越表现,其创收能力远超多数国家。

进一步分析显示,谷歌和微软 2023 年的电量消耗相当于阿塞拜疆全国 (1014 万人口) 的电力使用量,并且高于冰岛、加纳、多米尼加共和国和突尼斯等国 (19 太瓦时) 以及约旦 (20 太瓦时)。当然,一些国家消耗的电量也高于这两家科技巨头,例如人口只有 540 万的斯洛伐克,其电量消耗为 26 太瓦时。

这个对比凸显了高科技公司对能源的巨大需求,谷歌和微软运营的数据中心会造成相当程度的环境影响。然而,如果我们将谷歌和微软的能耗与收入进行对比,情况又会如何呢?

据谷歌自己公布的数据,2023 年其营收为 3056 亿美元,而包含谷歌搜索、谷歌云和 YouTube 等工具在内的经济影响则约为 7390 亿美元。微软 2023 年的营收为 2119 亿美元,考虑到全球绝大多数用户都在使用微软的 Windows 操作系统和办公软件,此外还有大量在线应用程序运行在微软 Azure 云计算平台上,因此微软产品的经济影响可能高达数万亿美元。

与电量消耗相近的国家相比,阿塞拜疆 2023 年的 GDP 约为 780 亿美元,斯洛伐克约为 1270 亿美元,冰岛则只有 300 亿美元左右。谷歌和微软的经济产出远远超过这些国家的 GDP,凸显出这两家科技巨头庞大的财务规模与其惊人电量消耗形成的对比。

尽管谷歌和微软巨额的电量消耗引发了人们对于科技行业可持续发展和采用可再生能源的讨论,但值得肯定的是,这两家公司也正引领着行业向可再生能源转型。

事实上,谷歌在使用可再生能源方面一直处于领先地位。该公司自 2007 年以来就实现了碳中和,并计划在 2030 年之前使其所有数据中心全天候使用无碳能源。2023 年,谷歌宣布继续投资可再生能源项目,扩大其风能、太阳能等多种可再生能源组合。

微软则致力于在 2030 年之前实现碳负排放,这意味着他们计划消除比排放更多的碳元素。该公司还设定了在 2030 年实现零废弃物生产和水资源正利用的目标。2023 年,微软将可再生能源合同组合扩大到超过 19.8 吉瓦,涵盖了 21 个国家的项目。此外,微软也在努力减少其直接运营排放并解决间接排放问题,特别是与新建数据中心和硬件组件相关的排放。

Transformer架构新飞跃:谷歌技术革新实现长文高效处理,内存消耗剧减至原需1/47

近日消息,有报道称谷歌公司推出了选择性注意力(Selective Attention)方法,可以提高 Transformer 架构模型的性能。

Transformer架构新飞跃:谷歌技术革新实现长文高效处理,内存消耗剧减至原需1/47

Transformer 架构简介

Transformer 是一种革命性的神经网络架构,由谷歌在 2017 年提出,主要用于处理序列数据,特别是在自然语言处理(NLP)领域。

Transformer 的核心是自注意力机制,允许模型在处理输入序列时捕捉词与词之间的关系,让模型能够关注输入序列中的所有部分,而不仅仅是局部信息。

Transformer 由多个编码器和解码器组成。编码器负责理解输入数据,而解码器则生成输出。多头自注意力机制使模型能够并行处理信息,提高了效率和准确性。

Transformer 架构模型挑战

Transformer 架构的一大挑战是它们在处理长文本序列时效率低下,由于每个标记与序列中的每个其他标记都相互作用导致二次复杂度,这就导致随着上下文长度的增加,计算和内存需求呈指数增长。

现在解决这一问题的方法包括稀疏注意力机制(sparse attention mechanisms),它限制了标记之间的交互数量,以及通过总结过去信息来减少序列长度的上下文压缩技术。

不过这种方法是通过减少在注意力机制中考虑的标记数量达成的,因此通常以性能为代价,可能会导致上下文关键信息丢失。

谷歌新方法

谷歌研究的研究人员提出了一种名为选择性注意的新方法,可以动态忽略不再相关的标记,从而提高 Transformer 模型的效率。

选择性注意力使用软掩码矩阵来确定每个标记对未来标记的重要性,减少对不重要标记的关注。

研究表明,配备选择性注意的 Transformer 架构模型在多个自然语言处理任务中表现出色,同时显著降低了内存使用和计算成本。

例如,在拥有 1 亿参数的 Transformer 模型中,注意力模块的内存需求在上下文大小为 512、1024 和 2048 个 tokens 时分别减少至 1/16、1/25 和 1/47。所提方法在 HellaSwag 基准测试中也优于传统 Transformer,对于较大的模型规模实现了高达 5% 的准确率提升。

选择性注意力允许构建更小、更高效的模型,在不损害准确性的情况下,显著减少内存需求。

日本新闻协会警告:“AI搜索”技术涉水著作权争议,谷歌、微软等科技巨头陷法律漩涡

近日消息,日本新闻协会 17 日发表声明称,美国 IT 巨头谷歌、微软等公司提供的 AI 搜索引擎很可能构成对著作权的侵犯。该协会指出,AI 搜索等服务经常擅自利用新闻报道作为信息源、生成类似新闻报道的回答,并要求美国 IT 巨头获得新闻媒体的使用许可。

日本新闻协会警告:“AI搜索”技术涉水著作权争议,谷歌、微软等科技巨头陷法律漩涡

日本新闻协会将该服务描述为“将网络搜索引擎与生成式人工智能(AI)相结合”,即“搜索联动型生成式 AI 服务”。部分案例显示,搜索联动型 AI 对新闻报道进行了不恰当的转用和加工,生成了存在错误内容的回答。

该声明强调,(服务提供商)应当在确保准确性和可靠性后,再提供相关服务。同时,日本新闻协会还要求政府采取包括修改《著作权法》等,尽快对知识产权相关法律进行调整和完善。

日本新闻协会认为,网络搜索起到的作用是为人们寻找网上的各种著作物“指路”。但搜索联动型 AI 的性质完全不同,因为其直接显示内容。“在很多案例中,AI 搜索会原封不动地显示所参照的新闻报道的本质性内容,构成侵犯著作权(的行为)。”

本文导航
最新上架

联系方式:boosccom@163.com

版权所有2023 boosc.com AII版权所有备案号 渝ICP备20008086号-38 渝公网安备50010702506211号