欧美vvv,亚洲第一成人在线,亚洲成人欧美日韩在线观看,日本猛少妇猛色XXXXX猛叫

新聞資訊

    鴻魯爾大學的 Wanja Wiese 博士探討了意識的必要條件,指出計算機中至少找不到一個條件。在一篇新論文中,他認為大腦和計算機之間因果結構的差異可能與意識有關,而目前的人工智能系統并不具備意識。

    一篇新論文探討了意識的必要條件,強調了大腦與計算機之間的關鍵差異,尤其是在因果結構方面,并指出真正的意識體驗可能不僅僅需要模擬。

    在一篇新論文中,Wanja Wiese探討了意識存在必須滿足的條件。其中至少有一個條件在計算機中是找不到的。

    人工智能是否應該發展出意識?德國波鴻魯爾大學第二哲學研究所的 Wanja Wiese 博士認為,由于種種原因,這并不可取。他在一篇文章中探討了意識存在所必須滿足的條件,并將大腦與計算機進行了比較。他發現了人類與機器之間的顯著差異,其中最明顯的是大腦區域的組織以及記憶和計算單元。他認為:"因果結構可能是與意識相關的差異。"這篇文章于2024年6月26日發表在《哲學研究》雜志上。

    在考慮人工系統產生意識的可能性時,至少有兩種不同的方法。一種方法是問目前的人工智能系統具有意識的可能性有多大?另一種方法是:哪些類型的人工智能系統不太可能有意識,我們如何才能排除某些類型的系統變得有意識的可能性?

    Wanja Wiese 尋找計算機與大腦之間的差異。圖片來源:RUB, Marquard

    Wanja Wiese 的研究采用的是第二種方法。"我的目的有兩個:首先,降低無意中創造人工意識的風險;這是一個理想的結果,因為目前還不清楚在什么條件下創造人工意識在道德上是允許的。"他解釋說:"其次,這種方法應該有助于排除表面上有意識的人工智能系統的欺騙行為。這一點尤為重要,因為已經有跡象表明,許多經常與聊天機器人互動的人認為這些系統具有意識。與此同時,專家們一致認為,目前的人工智能系統沒有意識。"

    Wiese在文章中問道我們如何才能發現是否存在傳統計算機等無法滿足的意識基本條件?所有有意識的動物都有一個共同特征,那就是它們都活著。然而,"活著"是一個如此嚴格的要求,以至于許多人認為它并不是意識的必要條件。但是,也許某些對于活著是必要的條件對于意識也是必要的?

    Wiese 在文章中提到了英國神經科學家卡爾-弗里斯頓的自由能量原理。該原理指出確保生物體等自組織系統持續存在的過程可以被描述為一種信息處理。在人類中,這些過程包括調節體溫、血液中的含氧量和血糖等重要參數的過程。同樣類型的信息處理也可以在計算機中實現。不過,計算機不會調節體溫或血糖水平,而只是模擬這些過程。

    研究人員認為,意識也可能如此。假設意識有助于有意識生物體的生存,那么根據自由能原理,有助于維持生物體的生理過程必定會保留有意識體驗留下的痕跡,這種痕跡可以被描述為信息處理過程。這可以被稱為"意識的計算相關性"。這也可以在計算機中實現。不過,計算機可能還必須滿足其他條件,才能不僅模擬而且復制意識體驗。

    因此,Wiese在文章中分析了有意識的生物實現意識的計算相關性的方式與計算機在模擬中實現意識的方式之間的差異。他認為,這些差異大多與意識無關。例如,與電子計算機不同,我們的大腦非常節能。但這并不是意識的必要條件。

    然而,另一個區別在于計算機和大腦的因果結構:在傳統計算機中,數據必須首先從內存中加載,然后在中央處理器中處理,最后再存儲到內存中。而大腦中沒有這種分離,這意味著大腦不同區域的因果連接采取了不同的形式。Wanja Wiese 認為,這可能是大腦與傳統計算機之間與意識相關的區別。

    "在我看來,自由能原理提供的視角特別有趣,因為它允許我們以這樣一種方式來描述有意識生物的特征,即這些特征原則上可以在人工系統中實現,但在大類人工系統(如計算機模擬)中并不存在,"Wiese解釋道。"這意味著,可以用更詳細、更精確的方式捕捉人工系統中意識的先決條件"。

    編譯自/ScitechDaily

    年前,高考結束后的暑假,作為班里的“電腦愛好者”,我經常被同學們問上大學配什么新電腦。當時的我告訴大家,配好電腦有兩個東西很重要,一個叫CPU,決定電腦反應速度的快慢;另一個叫GPU,負責圖形的運算,玩電腦游戲流暢可得靠它。

    用于桌面計算機的GPU和數據中心計算機的GPU(圖片來源:Amazon)

    那時候的GPU,在大家印象里就是用來打游戲的。然而8年后的今天,隨著ChatGPT等大語言模型(LLM)橫空出世,能夠處理人工智能高性能計算的GPU突然引來各大科技公司搶購。自稱為“人工智能計算領域的領導者”的GPU生產商英偉達(NVIDIA)在一年內股價飆升,6月19日更是一躍成為全球市值最高的公司。剛剛高考完的同學們要是想買臺帶GPU的電腦,申請“爸媽輪天使投資”的理由也變成了“我想學人工智能”。

    GPU生產商英偉達(圖片來源:英偉達)

    8年之間,GPU如何從“游戲處理單元”蛻變成“人工智能處理平臺”?帶著這個問題,今天和大家一起聊聊,GPU到底是怎么回事。

    GPU能做的事情CPU都能做?我們為什么需要GPU

    比起GPU,大家可能更熟悉的還是計算機的CPU,全稱為中央處理單元(Central Processing Unit)。CPU是計算機的“大腦”,它支配計算機中的其他部件,協同完成網頁瀏覽、游戲渲染、視頻播放等等一切“計算任務”。CPU決定了計算機的運行速度,有一句網絡用語是“把我CPU干燒了”,就是用CPU工作溫度過高失靈,來比喻腦子里的事情太多太復雜,腦子轉不過來了。

    左為CPU是計算機的“大腦”(圖片來源:veer);右為英特爾(Intel)i9-12900KS CPU(圖源:hothardware)

    而GPU也是被CPU支配控制的部件之一。GPU全稱為圖形處理單元(Graphic Processing Unit),主要功能是完成圖形處理相關任務,以GPU為核心的主板擴展卡就是大家在買電腦時經常聽說的顯卡

    英偉達Geforce 6600 GT GPU(圖片來源:wiki)

    安裝在臺式機箱里的CPU和GPU,這是英偉達網站上一個搭載RTX40系列GPU的機箱概念圖(圖片來源:英偉達)

    理論上,所有能由GPU完成的計算任務,都能由CPU完成。一臺電腦沒有獨立GPU仍然能夠正常開機,但若是沒了CPU就“臣妾不能夠了”。既然如此,我們為什么還要花大價錢去買GPU呢?因為,就像我們不能拋開劑量談毒性,計算機也不能拋開“性能”談“功能”。

    CPU和GPU各有擅長的計算任務(圖片來源:IBE)

    對于游戲渲染、人工智能這些計算任務,CPU并不擅長,雖然也能從功能層面上完成,但性能表現十分有限。對于游戲渲染而言,性能的局限性體現在更低的幀率,更粗糙的畫質上,也許無傷大雅。但在人工智能的應用上,以大語言模型GPT為案例分析,如果僅使用CPU的話,其訓練時間將長達數百年,這樣的速度顯然不能滿足我們對于人工智能技術突破的渴望。

    而GPU恰好擅長這些“熱門且艱巨”的任務。在配置了GPU的計算機系統中,CPU不再孤獨地承擔一切,而是將這些自己不擅長的任務卸載(offload)到GPU上加速執行。得益于特殊的并行架構設計,GPU在處理這些任務時游刃有余,可以輕松地為我們提供細膩入微的3D畫質,讓OpenAI公司每隔幾個月就能推陳出新。

    GPU是如何實現加速的?從并行架構的角度看GPU與CPU的區別

    在開始討論之前,我們需要進行一個類比:計算機中的一個程序,可以類比成由一連串運算題組成的試卷——計算機科學家們的祖師爺艾倫·圖靈就是這么構想計算機程序的。當然,這些運算題有難有易,有小學生就能輕松應對的四則運算,也有高中生可以玩轉的三角函數,還有大學生才能完全掌握的微積分。

    計算機科學家曾希望CPU可以像一位經驗老道的“數學家”,發揮他的計算能力(計算指令)、敏銳的決策力(控制指令)快速地完成試卷(程序),得到用戶想要的結果。而隨著計算機的程序越來越復雜,“老數學家”的能力逐漸不能滿足要求了,他主要的缺點是:即使每道題都能算的很快,但任何時間都只能一心一意地算一道題。

    單核CPU計算機的工作框架,黑線為數據流,紅線為控制流,均由單個CPU處理(圖片來源:wiki)

    于是,英特爾、IBM、AMD等公司開始意識到,可以在一個CPU內“聘請”多位數學家,也就構成了目前常見的多核CPU。當然受限于芯片散熱、良率的約束,多位數學家中的每一位都不像的從前的那么強,可能更像是多位準備參加高等數學考試的“大學生”。——為什么是準備參加呢?因為考完試就忘了(扎心)。

    第四代AMD EPYC處理器架構,EPYC是AMD的高性能服務器處理器系列,圖中的Z4就是我們所說的“大學生”核心,一個CPU中可包含16-96個核心(圖片來源:AMD官網)

    GPU則可以類比成約由幾千到上萬個“小學生”核心組成的大型計算團隊。相比于大學生核心,單個小學生核心只能計算更簡單的運算,且計算速度也僅有大學生的1/4~1/3。下圖展示了英偉達H100 GPU的架構,“小學生”核心對應圖中的綠色小格子,一共有18432個。一萬多名小學生核心先被層層劃分成為上百個“班級”,在班級內部再動態劃分成32-64人一組的“值日小組”。

    英偉達H100 GPU架構圖,GPU中包含了眾多小核心,按照層次結構進行組織(圖片來源:英偉達H100架構白皮書)

    該如何讓這么多小學生核心高效協作呢?像CPU一樣讓每個小學生都獨立完成試卷,顯然不是一個理智的方案。為了解決協同問題,英偉達GPU增加了一條規則限制:每個“值日小組”內的所有核心(線程)在同一時間只能執行一種運算操作(指令),而一個或多個值日小組(可以跨越班級)可以被組織起來共同完成一張程序試卷,這種協同工作模式被稱為單指令多線程并行(Single instruction, multiple threads,簡稱為SIMT),是英偉達GPU運作的核心模式。我們用一張示意圖對比CPU和GPU的并行運作方法。

    多核與SIMT并行方式差異的示意圖(作者自制)

    聰明的你應該已經意識到,這種奇妙的組織方式會讓CPU和GPU所能做答的試卷產生明顯的區別。如果CPU(單個核心)的試卷長這樣:

    那么 GPU 的試卷將會是這樣的(假設一個值日小組有三個核心):

    這也太奇怪了!怎么會有人出這樣的試卷呢?事實情況是:圖形渲染和人工智能應用恰好符合這樣的特點。對于圖形渲染而言,輸入的3D圖形是由眾多離散的點坐標組成的,在渲染過程中需要并行地對多個點進行相同的位置轉換、光照運算;在人工智能應用中,現實世界輸入的圖像、文字被表達成了大規模的矩陣和向量,而矩陣和向量之間的運算操作也可以抽象成多個數值并行執行相同的運算,正中SIMT并行的下懷!

    既然,GPU的并行模式這么優秀,我們為什么不干脆把CPU也設計成這樣呢?答案是:SIMT并行相比多核并行損失了一定的“通用性”。在我們的類比中,更直觀的表達是:我們不一定能把試卷組織成適合GPU的樣子。一個案例便是我們每天都在訪問的微信、淘寶等互聯網應用,由于每個用戶都在發送不一樣的消息、查看不一樣的商品,很難讓GPU的值日小組高效協同。

    如何乘上AI的“東風:從GPU到GPGPU

    1999年,英偉達發布了世界上第一款GPU——GeForce 256,它集成了變換、裁剪及渲染等圖形計算的硬件加速,也因此被命名為圖形處理單元。

    GeForce 256 GPU(圖片來源:wiki)

    早期GPU的可編程性很弱,大多數用戶只能調用固定的編程接口進行固定的圖形操作。但是一些具有前瞻視野的計算機科學家意識到了GPU可挖掘的并行計算潛力,他們嘗試將洋流模擬、大氣模擬等科學計算問題映射轉換成GPU可支持的圖形操作,并獲得了性能收益。

    搭載GeForce 256 芯片的GPU板卡(圖片來源:VGA Museum)

    也許是受到了這種“歪打正著”的應用場景啟發,2007年英偉達推出了CUDA(Compute Unified Device Architecture)編程框架,向開發者全面放開了GPU的可編程能力。借助CUDA,用戶可以用類似C/C++的編程方式編寫適用于GPU的并行程序。從此,GPU的名字變成了GPGPU(General-purpose computing on graphics processing units),多出來的GP表達了對通用性的支持。

    在比CUDA推出稍早一點的2006年,人工智能泰斗Hinton及其團隊改進了深度神經網絡的訓練方法,屬于“連接主義學派”的深度學習方法開始回暖。到了2012年,圖像分類模型 AlexNet 贏得了 ImageNet 競賽,激發了深度學習研究的熱情,借助GPGPU進行訓練的方法開始被廣泛采納。2014年,NVIDIA推出了cuDNN深度學習加速庫,讓基于GPU的深度學習訓練變得更加容易。

    之后的故事我們逐漸熟悉,2016年谷歌的人工智能圍棋軟件AlphaGo擊敗韓國棋手李世石,在AlphaGo的早期版本中,谷歌使用了176塊GPU支撐其運行。

    由上百塊GPU訓練的AlphaGo擊敗了韓國棋手李世石(圖片來源:Deepmind)

    2022年末,聊天機器人ChatGPT驚艷登場,引發了人門對于人工智能技術新一輪的憧憬。ChatGPT是一種大語言模型,能夠基于海量文本數據的訓練,通過機器學習理解并生成人類語言。盡管缺乏公開數據支持,但是相關領域研究者普遍認為OpenAI公司采用了數千到數萬塊當時頂級的NVIDIA A100 GPU以支持訓練。

    聊天機器人ChatGPT掀起了人工智能新一輪的研究熱潮(圖片來源:pexel)

    在此背景下,支撐大模型算力需求的GPU正成為各大科技企業爭奪的“緊俏貨”。作為具有壟斷地位的廠商,英偉達在這場人工智能的狂潮中,憑借十余年的技術積累,成功抓住了機遇,完成了從“游戲處理器”到“人工智能計算平臺”的華麗轉身,可謂是“好風憑借力,送我上青云”。

    英偉達在GPU領域處于全球壟斷地位,然而受限于美國政府的出口限制,高端GPU型號對我國處于禁售狀態。開發設計具有獨立自主知識產權的人工智能計算平臺,是我國計算機科研人員當前發力的重點問題之一。那么,剛剛高考完“想要學人工智能”的你,愿不愿意參與到這一開啟未來的征程中來呢?

    作者:高睿昊

    作者單位:中國科學院計算技術研究所

    個“關注”不迷路,每日都分享有趣的內容給您,保證讓您眼前一亮!期待您的加入哦!

    文圖/流浪狗侃山

    編輯/流浪狗侃山

    今日話題:隨著科技的發展,人類最終能夠將自身的記憶乃至意識上傳到電腦嗎?

    在這個科技日新月異的時代,我們不禁會想,人類的記憶和意識是否能夠像數據一樣被上傳到電腦中?這聽起來像是科幻小說里的情節,但科學家們正致力于探索這一可能性。

    隨著計算機技術的飛速發展,我們見證了許多曾經被認為是幻想的事物逐漸成為現實。那么,將記憶和意識數字化,是否也將從夢想走向現實呢?

    來看看網友們都有哪些奇思妙想

    所以最終是一種生物計算類腦架構?感覺現在這種硅片結果發展到多頂都干不出來!

    只是得到記憶沒用,關鍵是意識,怎么識別和轉移意識才是關鍵

    佛家有云:過去心不可得,現在心不可得,未來新不可得。連我都不是我,何況傳到電腦里的那個。

    這個既是科學問題,也是哲學問題[捂臉]

    顯然處理習慣是存儲在記憶里的,正如代碼是存儲在磁盤里的一樣

    權當討論:習慣之類的可以通過程序體現,處理事情的優先級不同而已嘛

    技術問題,本來意識上傳這個環節,復制和連續轉移就是一個很重要的問題,自己不測試清楚怪誰

    俺想到一個問題,其實你從小時候到現在,人的新陳代謝每天都在替換大量的細胞,長到現在假設40歲,你早就不是原先的你了。那如果我們每秒身體中復制一個原子上傳到電腦,然后刪除原先的原子,本質上和正常新陳代謝是一回事[doge]


    結論就是傳上去的不是自己,自己不可能被傳上去。[大哭]大腦就是盲盒,開了就是死,不開就是不死不活的薛定諤狀態。[捂嘴]

    秦始皇也覺得打電話,坐飛機不現實

    如果是類似忒修斯之船的方法,一點一點地替換大腦呢?但這樣也會存在一些問題,如果我們將“忒修斯之船”拆下來的部分也組成一艘和一開始一模一樣的船,那么唯一的“我”會存在于哪艘船上呢[思考]

    用機械身體在現實中活著就好了

    后者帶來的霸權足夠再造一個抖音 可問題是小張舍得投入這么多么

    用AIGC好想和機器結合掌握所有知識

    要實現記憶和意識的上傳,我們仍然面臨著許多挑戰。

    我們需要更深入地了解大腦的工作原理和記憶的存儲方式。還需要開發出更加先進和精確的掃描技術,以捕捉大腦中的每一個細節。

    我們最終還要解決倫理和道德問題,確保這項技術能夠被正確使用,而不是被濫用。

    盡管面臨諸多挑戰,但我們對未來的展望依然充滿希望。想象一下,如果我們真的能夠將記憶和意識上傳到電腦中,那將意味著什么呢?

    或許我們可以實現永生,或者將我們的思想和智慧傳承給后代。這不只是一項科技突破,更是一次對人類自身的深刻反思和重新認識。

    人類記憶與意識的上傳是一個充滿挑戰和可能性的領域。隨著科技的不斷發展,我們將會越來越接近這個目標。讓我們拭目以待,看看未來會帶給我們怎樣的驚喜和啟示。

    對此大家還有什么想說的呢?請在評論區分享您的想法哦!

    別忘了給我們點個贊、轉個發、留個言,你的每一個小動作都是對我們最大的鼓勵!

    #頭條創作挑戰賽#

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有