人工智能和人腦有多相似

2023-01-23 16:29:59   來(lái)源:央視網(wǎng)   評(píng)論:0   [收藏]   [評(píng)論]
導(dǎo)讀:  美國(guó)《發(fā)現(xiàn)》月刊網(wǎng)站1月14日發(fā)表題為《人工智能和人腦:它們有多相似?》的文章,作者是埃夫麗·赫特,文章編譯如下:  布賴恩·克里斯蒂安在其2020年出版的《校準(zhǔn)問(wèn)題:機(jī)器學(xué)習(xí)與人類價(jià)值觀》一書(shū)的序言
  美國(guó)《發(fā)現(xiàn)》月刊網(wǎng)站1月14日發(fā)表題為《人工智能和人腦:它們有多相似?》的文章,作者是埃夫麗·赫特,文章編譯如下:

  布賴恩·克里斯蒂安在其2020年出版的《校準(zhǔn)問(wèn)題:機(jī)器學(xué)習(xí)與人類價(jià)值觀》一書(shū)的序言中講述了人工智能神經(jīng)網(wǎng)絡(luò)概念的開(kāi)端。

  人們已經(jīng)知道神經(jīng)元會(huì)因?yàn)橐粋(gè)激活閾值而放電或不放電。克里斯蒂安解釋說(shuō):“如果對(duì)神經(jīng)元的輸入總和超過(guò)這個(gè)激活閾值,那么神經(jīng)元就會(huì)放電;否則,它就不會(huì)放電。”

  人工智能是受人腦啟發(fā)的,但它到底有多像人腦呢?深度學(xué)習(xí)和人造神經(jīng)網(wǎng)絡(luò)方面的先驅(qū)約舒亞·本希奧謹(jǐn)慎指出,人工智能是對(duì)大腦中正在發(fā)生的事情的模仿,而不是復(fù)制。

  蒙特利爾大學(xué)的計(jì)算機(jī)學(xué)教授本希奧說(shuō):“很多來(lái)自大腦的啟發(fā)用到了現(xiàn)在得到使用的神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)中,但我們建立的系統(tǒng)在許多方面與大腦有很大不同。”他解釋說(shuō),首先,最先進(jìn)的人工智能系統(tǒng)并不使用脈沖,而是使用浮點(diǎn)數(shù)。他說(shuō):“工程人員不在乎復(fù)制大腦中的任何東西。他們只是想做某種能奏效的事情。”

  但正如克里斯蒂安所指出的,人工神經(jīng)網(wǎng)絡(luò)的運(yùn)作與生物神經(jīng)網(wǎng)絡(luò)十分相似。在認(rèn)同這些程序并不完全像大腦的同時(shí),加利福尼亞大學(xué)戴維斯分校的神經(jīng)科學(xué)家和計(jì)算機(jī)科學(xué)家蘭德?tīng)?middot;奧賴?yán)f(shuō):“神經(jīng)網(wǎng)絡(luò)模型更接近于大腦實(shí)際在做的,而不是計(jì)算層面的純粹抽象描述。”

  奧賴?yán)f(shuō):“這些模型中的單位正在做一些類似于大腦中真正神經(jīng)元所做的事情。這不僅僅是一個(gè)類比或比喻。在這個(gè)層面上確實(shí)存在某種共性。”

  驅(qū)動(dòng)GPT3和ChatGPT等大型語(yǔ)言模型的更新Transformer架構(gòu)在某些方面甚至比以前的模型更類似于大腦。

  奧賴?yán)f(shuō),這些較新的系統(tǒng)正在映現(xiàn)大腦不同區(qū)域如何運(yùn)轉(zhuǎn),而不僅僅是單個(gè)神經(jīng)元在做什么。但這不是直接映現(xiàn),而是奧賴?yán)f(shuō)的“重新組合”或“混合”。

  大腦有不同的區(qū)域,比如海馬體和皮質(zhì),每個(gè)區(qū)域都有不同的計(jì)算形式。奧賴?yán)f(shuō),Transformer把這兩者融合在了一起。他說(shuō):“我認(rèn)為它就像一種糊狀的大腦。這種糊狀物被散布到網(wǎng)絡(luò)的各個(gè)部分,并做一些類似海馬體的事情和一些類似皮質(zhì)的事情。”

  奧賴?yán)裈ransformer之前的通用神經(jīng)網(wǎng)絡(luò)比作大腦參與知覺(jué)的后皮質(zhì)。他解釋說(shuō),Transformer到來(lái)后,它增加了一些類似于海馬體的功能,他解釋說(shuō),海馬體擅長(zhǎng)存儲(chǔ)和檢索詳細(xì)事實(shí)——例如早餐吃了什么或上班的路線。然而,整個(gè)人工智能系統(tǒng)并非有一個(gè)單獨(dú)的海馬體,而是像一個(gè)巨大的糊狀海馬體。

  普通計(jì)算機(jī)必須通過(guò)內(nèi)存中的地址或某種標(biāo)簽來(lái)查找信息,而神經(jīng)網(wǎng)絡(luò)則可以根據(jù)提示自動(dòng)檢索信息(你吃了什么早餐?)。這就是奧賴?yán)f(shuō)的神經(jīng)網(wǎng)絡(luò)的“超能力”。

  大腦與神經(jīng)網(wǎng)絡(luò)的相似是驚人的,但差異或許是巨大的。奧賴?yán)f(shuō),這些模型與人腦的一個(gè)不同之處是,它們沒(méi)有意識(shí)的基本要素。他和在這一領(lǐng)域工作的其他人認(rèn)為,為了擁有意識(shí),神經(jīng)元必須進(jìn)行一次有來(lái)有回的對(duì)話。

  他說(shuō):“意識(shí)的本質(zhì)是,你對(duì)自己大腦的狀態(tài)有一定的感知。”做到這一點(diǎn)需要雙向聯(lián)結(jié)。然而,所有現(xiàn)有模型只有人工智能神經(jīng)元之間的單向?qū)υ。不過(guò),奧賴?yán)铝τ诖。他的研究涉及這種雙向聯(lián)結(jié)。

  并非所有的機(jī)器學(xué)習(xí)嘗試都基于神經(jīng)網(wǎng)絡(luò),但最成功的嘗試是這樣的。這可能不該讓人感到意外。在數(shù)十億年的時(shí)間里,進(jìn)化找到了創(chuàng)造智力的最佳方式?死锼沟侔舱f(shuō),現(xiàn)在我們正在重新發(fā)現(xiàn)并改造那些最佳做法。

  他說(shuō):“事實(shí)證明,從生物上獲得最多啟發(fā)的模型是表現(xiàn)最好的,這不是偶然,也不純是巧合。”

分享到:
責(zé)任編輯:zsz

網(wǎng)友評(píng)論