欧美vvv,亚洲第一成人在线,亚洲成人欧美日韩在线观看,日本猛少妇猛色XXXXX猛叫

新聞資訊

    歌和微軟的數據中心電力消耗巨高,根據邁克爾?托馬斯分析,兩家公司在2023年消耗了24太瓦時的電力,超過包括冰島、加納和突尼斯在內的100多個國家。

    與此同時,這兩家公司也是業內可再生能源采用的領導者,同時,這兩家公司的創收能力也強于許多國家。

    谷歌在2023年實現了高達3056億美元的營收,而其廣泛業務鏈(涵蓋搜索、云計算、視頻平臺等)的經濟影響力更是達到了驚人的7390億美元。

    圖源:網絡

    微軟亦不甘示弱,同年營收達2119億美元,其Windows操作系統、辦公軟件套件及Azure云服務在全球范圍內擁有龐大的用戶基礎,經濟效應難以估量,或可達數萬億美元級別。

    與此相比,谷歌與微軟所消耗的電力量相近的國家的GDP顯得相形見絀,如阿塞拜疆的780億美元、斯洛伐克的1270億美元,以及冰島的僅約300億美元。

    盡管谷歌和微軟巨額的電量消耗引發了人們對于科技行業可持續發展和采用可再生能源的討論,但值得肯定的是,這兩家公司也正引領著行業向可再生能源轉型。

    事實上,谷歌在使用可再生能源方面一直處于領先地位。該公司自2007年以來就實現了碳中和,并計劃在2030年之前使其所有數據中心全天候使用無碳能源。2023年,谷歌宣布繼續投資可再生能源項目,擴大其風能、太陽能等多種可再生能源組合。

    微軟則致力于在2030年之前實現碳負排放,這意味著他們計劃消除比排放更多的碳元素。該公司還設定了在2030年實現零廢棄物生產和水資源正利用的目標。

    分析認為,AI進一步加大了科技巨頭的耗電量。調查數據顯示,谷歌AI目前已經消耗大量電力,每秒的消耗量可以充滿7輛電動車。2023年谷歌的碳排放量已經比2019年高出50%。

    每秒鐘谷歌執行搜索98379次,如果搜索全部由AI生成,相當于消耗295.14千瓦時電力,這些電力可以充滿7輛電動汽車。

    另有報告認為,每次ChatGPT查詢耗電2.9度,相當于谷歌傳統搜索查詢的10倍。

    專家認為,到2027年AI用電量將會占到全球電力的0.5%,相當于阿根廷一年的用電量。富國銀行分析師認為,受到AI的驅動,2030年之前美國電力需求將會增加20%。

    高盛則認為,2030年數據中心用電量將會占到美國電力總量的8%,今天只有3%。

    (8849116)

    家全球化互聯網科技企業每年到底會消耗多少電力?數字可能會讓你震驚。最新統計顯示,2023年谷歌、微軟各自消費電力25TWh(250億千瓦時)。在全球共197個國家中,谷歌微軟各自消耗的電量比其中的100多個國家還要多。

    谷歌、微軟消耗的電量大約和埃塞俄比亞相當,該國的GPD約為787億美元。2023年谷歌營收約為3074億美元,微軟為2119億美元。

    冰島、加納、多米尼加共和國和突尼斯每年消耗的電量約為19TWh,約旦為20TWh,利比亞為25TWh,斯洛伐克約為26TWh,它們消耗的電力與谷歌、微軟相差無幾。

    我們也可以將谷歌、微軟的用電量和愛爾蘭對比。愛爾蘭人口527萬,2022年GDP約為4750億歐元,年發電量約為280億千瓦時(28TWh),平均每戶家庭用電4200千瓦時。

    AI進一步推高科技巨頭的耗電量

    面對如此巨大的電力需求,谷歌微軟不得不考慮環境問題,它們已經制定了碳排放削減目標,承諾將會采購更多清潔電力。

    目前谷歌的市值約為2.294萬億美元,微軟為3.372萬億美元,分別排名全球第三位和第四位,我們用“富可敵國”來形容谷歌、微軟一點也不夸張。

    如果美國科技公司全面擁抱AI,未來消耗的電力還會增加。有數據稱,谷歌AI目前已經消耗大量電力,每秒的消耗量可以充滿7輛電動汽車。2023年谷歌的碳排放量已經比2019年高出50%,碳排放之所以增加,主要是受到AI的刺激,數據中心消耗的電力增加。

    和運行特定任務的計算機相比,生成式AI系統(比如ChatGPT)消耗的電力高出33%。每秒鐘谷歌執行搜索98379次,如果搜索全部由AI生成,相當于消耗295.14千瓦時電力,這些電力可以充滿7輛電動汽車。另有報告認為,每次ChatGPT查詢耗電2.9度,相當于谷歌傳統搜索查詢的10倍。

    谷歌原本希望在2030年前實現零排放,但最新報告證明,想達成目標極為困難,因為AI的耗電量極為驚人,超出了常識。

    美國華盛頓大學計算機工程研究員Sajjad Moazeni說:“在后端,生成式模型運行時會用到算法,而算法的運行與傳統谷歌搜索、郵箱的運行機制完全不同。AI提供服務時需要處理大量數據,數據在處理器之間來回傳輸,傳統方式處理的數據量小很多。”如果是生成式AI應用,處理的數據量比傳統方式多100甚至1000倍。

    電力網跟不上數據中心增長速度

    科技企業正在拼命建設數據中心,一般來說,建設完一座數據中心需要1-2年,而增加新電力網可能要4年。在美國,80%的數據中心安置在15個州,比如弗吉尼亞。有些州給數據中心分配的電力已經占到全州電力的25%,比例非常之高。

    芝加哥大哥網絡系統研究人員Junchen Jiang說:“碳足跡、能源消耗和計算的關系是線性關系,因為數據中心消耗的能量和計算量成正比。”AI模型越大,需要的計算量越多。

    當然,我們也不必夸大科技企業電力消耗問題,雖然數據中心耗電量正在增加,但在整個人類消耗的電力中仍然只占相當微小的一部分,煉油廠、建筑、交通運輸產業消耗的電力比AI數據中心多很多。

    專家認為,到2027年AI用電量將會占到全球電力的0.5%,相當于阿根廷一年的用電量。富國銀行分析師認為,受到AI的驅動,2030年之前美國電力需求將會增加20%。高盛則認為,2030年數據中心用電量將會占到美國電力總量的8%,今天只有3%。

    如何減少用電量?可以開發更節能的AI硬件,開發更小的AI模型,但這些措施只能治標,不能治本。如果想徹底解決電力問題,還要是發更多電,要好好利用現有電網。

    未來有一天也許AI會給企業創造巨額利潤,也有可能誘發技術突破,減輕排放問題,但至少就眼下來看,AI數據中心給氣候帶來的危害遠大于收益。

    1日,據環球時報援引《紐約客》雜志報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。

    據報道,隨著生成式人工智能的廣泛應用,預計到2027年,整個人工智能行業每年將消耗85至134太瓦時的電力,這顯示了AI技術對電力資源的巨大需求。是什么導致了生成式AI如此高的能耗?在未來有何解決方案?對此,上游新聞進行了了解。

    耗電:堪比一國用電量

    隨著人工智能技術的發展,對芯片的需求急劇增加,進而帶動了電力需求的激增。全球數據中心市場的耗電量已經從十年前的100億瓦增加到如今的1000億瓦水平。根據美國機構Uptime Institute的預測,到2025年,人工智能業務在全球數據中心用電量中的占比將從2%增加到10%。

    據經濟觀察網消息,2023年10月10日,阿姆斯特丹自由大學商業與經濟學院的博士候選人德弗里斯(Alex de Vries)在一篇論文中表示,像ChatGPT這樣的大型語言模型需要大量的數據集來訓練人工智能,在人工智能模型經過訓練階段后,會過渡到推理階段,然后根據新的輸入生成信息。推理階段消耗的能源似乎更多。

    研究公司SemiAnalysis表示,OpenAI公司需要3617臺英偉達的HGX A100服務器,總共28936個圖形處理單元(GPU)來支持ChatGPT,這意味著每天的能源需求就要達到564兆瓦時,這要比訓練階段的能源需求高得多。

    過去的工作常常關注的是人工智能訓練所消耗的能量,但德弗里斯提醒道,需要更多考慮人工智能的整個生命周期。

    此外,英偉達生產的GPU芯片作為人工智能領域的命脈,該公司在2023年第二季度的收入為135億美元,其數據中心業務較上一季度增長了141%,這一點足以證明人工智能產品需求的迅速增長。

    德弗里斯表示:“考慮到未來幾年的預期產量,到2027年,新制造的人工智能設備的用電量將與荷蘭一樣多,這也與瑞典、阿根廷等國的用電量處于同一范圍。”

    德弗里斯還承認:“最壞的情況就是,僅谷歌一家公司的人工智能就可以消耗與愛爾蘭等國家一樣多的電力。”

    德弗里斯在論文中設想,如果將生成式人工智能集成到谷歌的每一個搜索中,那么屆時谷歌就會大幅增加對電力的需求。

    另一家研究機構New Street Research也得出了類似的估計,認為谷歌將需要大約40萬臺服務器,這將導致每天消耗62.4吉瓦時,每年消耗22.8太瓦時的能源。

    費水:答50個問題“喝”水500毫升

    除了耗電,生成式AI同樣耗費著巨量的水資源。

    要對AI進行大量訓練,也就意味著需要更強的算力中心和與之匹配的散熱能力。在AI快速進步的道路上,對水資源的消耗也不斷加碼升級。

    谷歌發布的2023年環境報告顯示,公司前一年的用水量同比顯著增加了20%,達到56億加侖(21198305立方米),而其中絕大部分都被用于為該公司的數據中心散熱。而這并不是個例。2023年初,由OpenAI打造的ChatGPT火遍全球,一躍成為人工智能領域的現象級應用,也引發了全球互聯網公司的AIGC“軍備競賽”。

    科羅拉多大學與德克薩斯大學的研究人員在一篇名為“讓AI更節水”的預印論文中也發布了訓練AI的用水估算結果,顯示訓練GPT-3所需的清水量相當于填滿一個核反應堆的冷卻塔所需的水量。ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。

    除了谷歌,另一個巨頭Meta在美國亞利桑那州建設了數據中心,僅2022年用水量就超過260萬立方米。隨著全球人工智能“軍備競賽”的持續升級和大量科技公司競相建設新數據中心,其消耗的水量很可能會繼續上升。

    正在大力開發人工智能的微軟也在其最新的環境報告中透露,2022年公司用水量同比前一年激增了34%,達到640萬立方米,比2500個奧林匹克標準游泳池的水量還多。外部研究人員認為這與微軟的人工智能研究有關。

    對此,有專家表示,整體來看,當前數據中心耗水已經成為制約數據中心快速發展的因素之一。中國電子節能技術協會數據中心節能技術委員會秘書長呂天文介紹稱,為了節約寶貴的自來水資源,很多企業嘗試用各種方法為數據中心散熱,例如,微軟曾嘗試部署海下數據中心,Facebook數據中心選址北極圈附近,阿里云千島湖數據中心使用深層湖水制冷,“但上述方法總是會帶來新的問題,目前國內數據中心的用水主要使用的還是自來水,近幾年政府層面更鼓勵數據中心企業利用中水(循環再利用的水)。”

    據悉,此前北京市發展改革委修訂印發了《關于進一步加強數據中心項目節能審查的若干規定》,其中就新增了關于引導數據中心充分利用再生水的內容:再生水輸配管網覆蓋范圍內的數據中心,設備冷卻水、機房加濕等非生活用水應采用再生水。

    碳排放:兩月1000噸

    除了消耗大量的電力和水資源,以生成式AI為代表的智算算力還是碳排放大戶。

    新冠病毒的分子信息建模、石油勘探中的環境模擬、航空航天導航,需用到超算算力;互聯網、金融、工業、城市治理等,對通用算力和智算算力需求很大;智能網聯車、視頻監控等,偏重于邊緣計算算力。而今,城市經濟、社會、生活無時無刻不需要算力。

    阿里云中國區解決方案副總余勇舉例,在淘寶,拍照搜索商品的“拍立淘”,對算力要求是在30億張圖片中搜尋,2秒出結果;在制造能源領域,智算算力已運用于海螺集團150條水泥產線的經營決策優化,運用于對山東德州電力的負荷預測等,算力需求驚人。“國內企業的智算算力需求,平均每3.5個月就會翻一倍。”

    “截至2022年底,全國算力總規模達到180eflops(每秒18000億億次浮點運算),位居全球第二。”中國信通院云大所副所長李潔博士說。

    需求急速擴增同時,越來越多數據中心被戴上“能耗大戶”帽子。有研究機構指出,訓練ChatGPT這樣一個包含1750億參數的大模型,帶來兩個月排碳1000噸的巨大消耗。

    對此,早在2021年11月,我國就已出臺公共機構碳達峰方案,新建大型、超大型數據中心須全部達到綠色數據中心要求,綠色低碳等級達4a級以上,電能利用效率(pue)1.3以下。

    應對:優化架構提升能效

    在氣候挑戰日益嚴峻的今天,不斷膨脹的人工智能正消耗著越來越多的電力、水資源,產生著越來越多的碳排放。據預測,到2030年,智能計算的年耗電量將達到5000億度,占全球發電總量的5%。如果AlphaGo對弈一盤棋就要耗去1噸煤的發電量,訓練對弈千萬盤棋局就要燃燒20萬噸煤,那么讓大模型賦能千行百業,地球能否承受得起如此巨大的碳排放?

    此外,根據摩爾定律,計算機的算力每18個月翻一番,而并行訓練日益復雜的AI網絡的需求,每三四個月就會翻一番。中國工程院院士、清華大學信息科學技術學院院長戴瓊海指出,近五年來,作為AI發展重要支撐的算力正逐漸變為制約AI繼續向前的瓶頸。

    為此,行業大佬及科研人員也在進行著不斷的研究和探索。

    近日,人工智能芯片龍頭英偉達的創始人兼CEO黃仁勛表示,人工智能的未來發展與狀態和儲能緊密相連。他強調,不應僅僅關注計算力,而是需要更全面地考慮能源消耗問題。

    OpenAl的創始人山姆·奧特曼也提出了類似的看法。他認為,未來AI技術的發展將高度依賴于能源,特別是光伏和儲能技術的進步。

    “在控制大模型帶來的能耗和成本方面,半導體企業可以通過優化計算架構、提升能效等措施,降低大模型的能耗和成本。”北京大學集成電路學院研究員賈天宇說。

    長期以來,人工智能及其熱門應用常常被喻為“大腦”,比如自動駕駛被喻為“車輪上的大腦”。但是,人腦并不是僅僅依靠大腦工作,腦干、小腦也承擔了許多任務,比如控制心跳和體溫,保持身體的穩定性、協調性等。如果大腦進行所有的決策和控制,人體就很難負擔大腦需要的能量。

    比照包含大腦、小腦、腦干的人腦系統,恩智浦半導體執行副總裁兼首席技術官Lars Reger描述了一種更加高效節能的計算體系:以AI算力芯片為“大腦”,進行高效能的計算和加速;以網關處理器為“小腦”,實現不同功能區的互聯和集成,以及異構網絡中的數據處理;以MCU、感知芯片、聯網芯片作為“腦干”,實現感知和實時任務處理。

    此外,目前在大算力芯片研發上,我國在光電智能芯片領域有望與歐美一爭高下。中國工程院院士、清華大學信息科學技術學院院長戴瓊海表示,一旦光電智能計算得到應用,將對當代計算的速度、能量效率和數據通量產生變革性影響,可實現計算速度的成千倍提升、能效的百萬倍提升。“改用光電智能芯片,AlphaGo整體計算能耗將從1噸煤下降到1克。”戴瓊海說。

    (1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時——編者注)

    上游新聞綜合自 環球時報、每日經濟新聞、文匯報、上觀新聞、經濟觀察網等

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有