在荷馬的史詩巨作《奧德賽》中,獨(dú)眼巨人賽庫斯·波呂斐摩斯將奧德修斯和他的船員困在他的洞穴里,意圖將他們吃掉。但奧德修斯設(shè)法弄瞎了巨人的眼睛并成功逃脫。
人工智能不會吃掉我們。
(資料圖)
隨著我們飛快地邁向一個充滿人工智能的未來,科技巨頭、研究人員和投資者似乎都在瘋狂地爭先恐后地開發(fā)最先進(jìn)的人工智能技術(shù)。
許多人開始質(zhì)疑:這是否進(jìn)展得過快,是否考慮到了風(fēng)險(xiǎn)呢?就此問題筆者(克雷格·史密斯,《紐約時(shí)報(bào)》的前記者)與OpenAI聯(lián)合創(chuàng)始人和首席科學(xué)家Ilya SutskeverIlya進(jìn)行了討論。
Ilya Sutskever是OpenAI的聯(lián)合創(chuàng)始人和首席科學(xué)家,也是大型語言模型GPT-4以及其公開后代ChatGPT的主要負(fù)責(zé)人之一。說他正在改變世界并不夸張。這不是Ilya第一次改變世界了。他曾是AlexNet的主要推動者,這種卷積神經(jīng)網(wǎng)絡(luò)以其驚人的性能在2012年震驚了科學(xué)界,并引發(fā)了深度學(xué)習(xí)的革命。
在筆者看來,AI發(fā)展這個問題并非完全無關(guān)緊要。有數(shù)百位敏銳的專家正在考慮著這種反烏托邦的各種可能性——以及避免它們的方法。但事實(shí)上,未來是未知的,這種強(qiáng)大新技術(shù)所帶來的影響,就如同互聯(lián)網(wǎng)剛出現(xiàn)一樣難以想象。它將同時(shí)帶來利與弊,它不能被阻止,但可以被理解。
OpenAI是一個非盈利的人工智能研究機(jī)構(gòu),它的衍生公司可能會成為全球最賺錢的實(shí)體之一。筆者與Ilya的交談是在OpenAI最新版本的巨型人工智能系統(tǒng)GPT-4發(fā)布之前進(jìn)行的,該系統(tǒng)已經(jīng)攝入了數(shù)十億字的文本——這比任何一個人一生中可能閱讀的文本都要多。
GPT是“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”(Generative Pre-trained Transformer)的縮寫,這三個詞對于理解這個像荷馬史詩中的波呂斐摩斯般的AI巨人非常重要。轉(zhuǎn)換器是這個巨型系統(tǒng)核心算法的名稱。預(yù)訓(xùn)練指的是該龐然大物接受了大量的文本語料的教育,從而使其可以理解語言的基本模式和關(guān)系——簡而言之,教會它理解世界。生成式意味著AI可以在這個知識基礎(chǔ)上創(chuàng)造出新的想法。
人工智能已經(jīng)占據(jù)了我們的生活,但即將到來的將是更為先進(jìn)、更為強(qiáng)大的技術(shù)。我們正在進(jìn)入未知的領(lǐng)域,這值得我們花一些時(shí)間來考慮它意味著什么。但注意不要反應(yīng)過度,不要像烏龜一樣躲避現(xiàn)在照耀在我們身上的明亮太陽。
人工智能不會吃掉我們。
為保證文本清晰連貫,以下內(nèi)容經(jīng)過編輯整理。
Craig S. Smith:
Ilya,我知道你出生在俄羅斯,是什么讓你對計(jì)算機(jī)科學(xué)、神經(jīng)科學(xué)或者類似的方向產(chǎn)生了興趣?
Ilya Sutskever:
的確,我出生在俄羅斯,我在以色列長大,在青少年時(shí)期,我和家人一起移民到了加拿大。我的父母說我從小就對人工智能很感興趣。我也受到了很大的覺知驅(qū)動。曾經(jīng)這讓我非常困擾,因此我對能幫助我更好理解它的事物充滿了好奇。
我很早就開始與 Geoff Hinton [深度學(xué)習(xí)的創(chuàng)始人之一,時(shí)任多倫多大學(xué)的教授;深度學(xué)習(xí)是GPT-4 背后的AI種類] 合作,當(dāng)時(shí)我才17歲。因?yàn)槲覀儼岬搅思幽么?,我立刻就入讀了多倫多大學(xué)。那時(shí)我非常想研究機(jī)器學(xué)習(xí),因?yàn)檫@似乎是人工智能最重要的方面,而在當(dāng)時(shí)這是完全不可觸及的。
那是2003年?,F(xiàn)在我們會理所當(dāng)然地認(rèn)為計(jì)算機(jī)是能夠?qū)W習(xí)的,但在那時(shí)我們默認(rèn)的是計(jì)算機(jī)無法學(xué)習(xí)。那時(shí)人工智能領(lǐng)域的最大成就是IBM研發(fā)的象棋引擎“深藍(lán)”(Deep Blue)(它在1997年擊敗了象棋世界冠軍 Garry Kasparov)。
但在當(dāng)時(shí),有這么一個游戲,也有這么一項(xiàng)研究,還有這種簡單的方法來確定一個(象棋)走法是否比另一個更好。當(dāng)時(shí)我們真的感覺這不可能適用于現(xiàn)實(shí)世界,因?yàn)楫?dāng)中沒有涉及到學(xué)習(xí)。學(xué)習(xí)是一個很大的謎,而我對(機(jī)器)學(xué)習(xí)真的非常非常感興趣。幸運(yùn)的是,Geoff Hinton是這所大學(xué)的教授,我們幾乎立即就開始了合作。
那么智能究竟是如何工作的?我們?nèi)绾问褂?jì)算機(jī)稍微具有智能呢?我有一個非常明確的意圖,那就是為AI做出非常小但真實(shí)的貢獻(xiàn)。因此,對我來說,一大初衷就是我能否理解智能是如何工作的,以及如何為之做出貢獻(xiàn)?那就是我最初的動機(jī)。而那幾乎是20年前的事了。
簡而言之,我意識到,如果你使用一個足夠大的數(shù)據(jù)集來訓(xùn)練一個大而深的神經(jīng)網(wǎng)絡(luò),使之能夠完成一些人類能夠完成復(fù)雜任務(wù),比如視覺任務(wù),那么你必然會獲得成功。這個想法的邏輯是不可簡化的,因?yàn)槲覀冎廊祟惔竽X可以快速地解決這些任務(wù),而人腦本質(zhì)上就是一個由慢神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò)。
所以,我們只需要使用一個更小但與之類似的神經(jīng)網(wǎng)絡(luò),并使用數(shù)據(jù)對其進(jìn)行訓(xùn)練。然后,計(jì)算機(jī)內(nèi)部最好的神經(jīng)網(wǎng)將與我們的大腦中執(zhí)行這個任務(wù)的神經(jīng)網(wǎng)絡(luò)非常類似。
Craig S. Smith:
2017年,《Attention Is All You Need》這篇論文出爐,首次提出了自注意力和轉(zhuǎn)換器的概念。那么GPT項(xiàng)目是從什么時(shí)候開始的?當(dāng)時(shí)你們對于轉(zhuǎn)換器是否存在某種直覺?
Ilya Sutskever:
就背景而言,從OpenAI的最早時(shí)期開始,我們就一直在探索一個想法:(機(jī)器學(xué)習(xí))只需要能夠預(yù)測下一個事物。當(dāng)時(shí),我們用的是更為有限的神經(jīng)網(wǎng)絡(luò),但我們想的是,如果有一個神經(jīng)網(wǎng)絡(luò)能夠預(yù)測下一個單詞,它就能解決無監(jiān)督學(xué)習(xí)問題。因此,在GPT誕生之前,無監(jiān)督學(xué)習(xí)被認(rèn)為是機(jī)器學(xué)習(xí)的圣杯。
現(xiàn)在,這個問題已經(jīng)完全解決了,甚至沒有人再談?wù)撍?,但它曾?jīng)是一個“圣杯”。它曾是一個非常神秘的問題,因此我們一直在探索這個想法。我當(dāng)時(shí)對此真的非常興奮,認(rèn)為只要(機(jī)器學(xué)習(xí))能夠足夠好地預(yù)測到下一個單詞,它就能實(shí)現(xiàn)無監(jiān)督學(xué)習(xí)。
但我們那時(shí)的(電腦)神經(jīng)網(wǎng)絡(luò)并不能勝任這個任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò)。當(dāng)轉(zhuǎn)換器的概念問世后,那篇論文一出來,真的是就在它出來的第二天,我們立即意識到轉(zhuǎn)換器解決了遞歸神經(jīng)網(wǎng)絡(luò)的局限性,解決了學(xué)習(xí)長期依賴性的問題。
這是一個技術(shù)問題。但我們立刻就改用了轉(zhuǎn)換器。于是,我們在開發(fā)GPT非常初步的階段就使用了轉(zhuǎn)換器。后來它的表現(xiàn)越來越好,我們也讓它的功能越來越強(qiáng)大。
這就最終導(dǎo)致了GPT-3和我們今天的情況。
Craig S. Smith:
現(xiàn)有的大型語言模型的局限性在于,它們所擁有的知識僅限于訓(xùn)練它們所使用的語言范圍內(nèi)。但我想我們每個人都同意,大多數(shù)人類知識是在語言之外的。
它們的目標(biāo)是滿足提示的統(tǒng)計(jì)一致性,它們并沒有對語言所涉及到的現(xiàn)實(shí)情況有根本的理解。我問過ChatGPT 關(guān)于我自己的信息,它認(rèn)識到我是一名記者,曾在多家報(bào)紙工作,但它說了很多我從未獲得的獎項(xiàng)。那聽上去很棒,但與基本現(xiàn)實(shí)幾乎是脫節(jié)的。在你們的未來研究中,是否有解決這個問題的計(jì)劃?
Ilya Sutskever:
有多大的可能性今天我們看到的這些局限在兩年內(nèi)依然存在? 對此我保持樂觀。
對于這個問題的一個部分,即“這些模型只是學(xué)習(xí)統(tǒng)計(jì)規(guī)律性,因此它們并不真正知道世界的本質(zhì)是什么”,我還想說一個我自己的看法。
我的看法與此不同。換句話說,我認(rèn)為學(xué)習(xí)統(tǒng)計(jì)規(guī)律比我們想象的更重要。
預(yù)測也是一種統(tǒng)計(jì)現(xiàn)象。然而,為了進(jìn)行預(yù)測,你需要了解產(chǎn)生數(shù)據(jù)的基本過程。你需要對產(chǎn)生數(shù)據(jù)的世界有越來越多的了解。
我認(rèn)為隨著我們的生成式模型變得異常優(yōu)秀,它們將具有我所說的對世界和其許多微妙之處的驚人程度的理解。它是通過文本的角度來看待世界的。它試圖通過人類在互聯(lián)網(wǎng)上所表達(dá)的文本空間上的世界投影來更多地了解世界。
但是這些文本已經(jīng)表達(dá)了這個世界。我給你舉個最近的例子,我認(rèn)為這很有意思。我們都聽說過 Sydney是ChatGPT的第二自我。當(dāng)用戶告訴 Sydney 他認(rèn)為谷歌是比必應(yīng)更好的搜索引擎時(shí),Sydney 就會變得有點(diǎn)好斗和具有攻擊性。
如何理解這種現(xiàn)象?它是什么意思?你可以說,這是因?yàn)樗皇穷A(yù)測了人們會做什么,而人類就是會這樣做。這沒錯,但也許我們現(xiàn)在正在到達(dá)一個點(diǎn),即心理學(xué)的語言開始被挪用來理解這些神經(jīng)網(wǎng)絡(luò)的行為。
現(xiàn)在讓我們再來談?wù)劸窒扌?。確實(shí),這些神經(jīng)網(wǎng)絡(luò)有產(chǎn)生幻覺的傾向。這是因?yàn)檎Z言模型非常適合學(xué)習(xí)有關(guān)世界的知識,但不太適合產(chǎn)生好的輸出。這其中有各種各樣的技術(shù)原因。語言模型更擅長學(xué)習(xí)關(guān)于世界、想法、概念、人物、過程的令人難以置信的表征,但它的輸出并不像人們希望的那樣好,或者說不如它們本應(yīng)該的那樣好。
因此,例如對于像ChatGPT這樣的系統(tǒng),它是一個語言模型,具有額外的強(qiáng)化學(xué)習(xí)訓(xùn)練過程。我們稱之為人類反饋強(qiáng)化學(xué)習(xí)。
可以說,在預(yù)訓(xùn)練過程中,我們想(讓它)學(xué)習(xí)的是關(guān)于這個世界的一切。但通過人類反饋的強(qiáng)化學(xué)習(xí),我們關(guān)心的是它的輸出。我們會告訴它,如果它在任何時(shí)候做出了不合時(shí)宜的輸出,那么以后就不要再做了。如果它在任何時(shí)候做出了沒有意義的輸出,以后也不要再做了。
這樣一來,它很快就學(xué)會了產(chǎn)生好的輸出。但是輸出的水平在語言模型預(yù)訓(xùn)練過程中并不是這樣的。
至于產(chǎn)生幻覺這個問題,它有時(shí)候有捏造內(nèi)容的傾向,這也極大地限制了它們的實(shí)用性。但是我認(rèn)為我們很有希望通過簡單地改進(jìn)這個從人類反饋中強(qiáng)化學(xué)習(xí)的步驟,教會它不產(chǎn)生幻覺?,F(xiàn)在你可能會問說它真的會學(xué)習(xí)嗎?我的回答是,讓我們拭目以待。
我們目前的做法是雇人來教我們的神經(jīng)網(wǎng)絡(luò)如何表現(xiàn),教ChatGPT如何表現(xiàn)。你只需與它互動,它就會從你的反應(yīng)中推斷出:“哦,這不是你想要的。你對它的輸出不滿意。因此這一次的輸出不好,下一次應(yīng)該做些不同的事情。” 我認(rèn)為這種方法有相當(dāng)大的機(jī)會能夠完全解決幻覺問題。
Craig S. Smith:
Yann LeCun(Facebook首席人工智能科學(xué)家和深度學(xué)習(xí)的另一位早期先驅(qū))認(rèn)為,大型語言模型所缺少的是這種底層的世界模型,它是非語言的,而語言模型可以參考。我想聽聽你對此的看法,以及你是否已經(jīng)探索過這一領(lǐng)域。
Ilya Sutskever:
我回顧了Yann LeCun的主張,其中有一些想法,它們用不同的語言表達(dá),與目前的范式也許有一些小的差異,但在我看來,這些差異并不十分顯著。
第一個主張是,一個系統(tǒng)最好能有多模態(tài)的理解,它不只是從文本中了解世界。我對此的評論是,多模態(tài)理解確實(shí)是可取的,因?yàn)槟憧梢粤私飧嗟氖澜?,你可以了解更多的人,你可以了解他們的狀況,所以系統(tǒng)將能夠更好地理解它應(yīng)該解決的任務(wù),以及人們和他們想要什么。
我們在這方面已經(jīng)做了相當(dāng)多的工作,其中最值得一提的是我們完成的兩個重要神經(jīng)網(wǎng)絡(luò),一個叫做Clip,一個叫做Dall-E。它們都在朝著這個多模態(tài)的方向發(fā)展。但我也想說,我不認(rèn)為這是非此即彼的情況,如果你沒有視覺,如果你不能從視頻或圖像中理解世界,那么事情就不會順利進(jìn)行。
而我想為這一點(diǎn)做個說明。我認(rèn)為有些東西從圖像和圖表等方面更容易學(xué)習(xí),但我也認(rèn)為,你仍然可以只從文字中學(xué)習(xí),只是速度更慢。我給你舉個例子:思考一下顏色的概念。
毫無疑問,我們無法僅從文本中學(xué)習(xí)顏色的概念,但是當(dāng)你看到嵌入——我需要做一個小小的轉(zhuǎn)折來解釋“嵌入”的概念。每個神經(jīng)網(wǎng)絡(luò)通過“嵌入”表示法,即高維向量,來代表單詞、句子和概念。
我們可以看一下這些高維向量,看看什么與什么相似,以及網(wǎng)絡(luò)是如何看待這個概念或那個概念的?因此,只需要查看顏色的嵌入向量,機(jī)器就會知道紫色比紅色更接近藍(lán)色,以及紅色比紫色更接近橙色。它只是通過文本就能知道所有這些東西。這是怎么做到的呢?
如果你擁有視覺,顏色之間的差異就會立刻顯現(xiàn)出來,你能立即感知到它們。然而通過文本來感知,你需要更長的時(shí)間;也許你知道如何說話,你已經(jīng)理解了句法、單詞和語法,但是要在很久之后你才真正開始理解顏色。
因此,這就是我對多模態(tài)性的必要性的看法:我認(rèn)為它并非必須,但絕對是有用的。我認(rèn)為這是一個值得追求的好方向。我只是不認(rèn)為應(yīng)該將它們分得如此明確。
LeCun在論文中提出的主張聲稱,其中一個主要挑戰(zhàn)是預(yù)測具有不確定性的高維向量。但有一點(diǎn)讓我覺得很驚訝,或者至少在那篇論文中沒有得到承認(rèn),那就是目前的自回歸轉(zhuǎn)換器已經(jīng)具備了這種特性。
我給你舉兩個例子。一個是對于給定一本書中任意的一頁,預(yù)測其下一頁的內(nèi)容。下一頁有非常多的可能性。這是一個非常復(fù)雜的高維空間,而它們可以很好地處理它。同樣的情況也適用于圖像。這些自回歸轉(zhuǎn)換器在圖像上也運(yùn)作得非常完美。
例如,像OpenAI一樣,我們對iGPT也進(jìn)行了測試。我們只需取一個轉(zhuǎn)換器,并將其應(yīng)用于像素,它就能夠非常好地運(yùn)作,并可以以非常復(fù)雜和微妙的方式生成圖像。在Dall-E 1上也是同樣的情況。
所以,我認(rèn)為那篇論文中對當(dāng)前方法無法處理高維分布的評論過于絕對了——我認(rèn)為它們絕對可以。
Craig S. Smith:
關(guān)于有一支人類培訓(xùn)師隊(duì)伍與ChatGPT或一個大型語言模型一起工作,用強(qiáng)化學(xué)習(xí)來指導(dǎo)它的想法,只是憑直覺,這聽起來不像是一個教模型了解其語言的基本現(xiàn)實(shí)的有效方法。
Ilya Sutskever:
我不同意這個問題的措辭。我認(rèn)為我們的預(yù)訓(xùn)練模型已經(jīng)知道了它們需要了解的關(guān)于基礎(chǔ)現(xiàn)實(shí)的一切。它們已經(jīng)具備了有關(guān)語言的知識以及有關(guān)產(chǎn)生這種語言的世界進(jìn)程的大量知識。
大型生成模型對其數(shù)據(jù)——在這種情況下是大型語言模型——所學(xué)習(xí)的東西是對產(chǎn)生這些數(shù)據(jù)的現(xiàn)實(shí)世界過程的壓縮表示,這不僅意味著人和他們的思想,他們的感受的一些內(nèi)容,還有關(guān)于人所處的情況以及他們之間存在的相互作用的一些內(nèi)容。人可以處于不同的情境中。所有這些都是由神經(jīng)網(wǎng)絡(luò)表示的被壓縮的過程的一部分,用以產(chǎn)生文本。語言模型越好,生成模型越好,保真度越高,它就越能捕捉到這個過程。
現(xiàn)在,正如你所說,這些教師隊(duì)伍實(shí)際上也在使用人工智能輔助工具。這些教師并不是獨(dú)立行動的,他們正在使用我們的工具,而這些工具正在做著大部分的工作。但是我們確實(shí)需要有監(jiān)督,需要有人來審查這個過程,因?yàn)樽罱K我們希望實(shí)現(xiàn)非常高的可靠性。
我們確實(shí)有很多動力來使它盡可能高效、精確,這樣產(chǎn)生的語言模型就會盡可能的表現(xiàn)良好。
所以,是的,有這些人類教師在向模型教授它們的理想行為。而他們使用人工智能系統(tǒng)的方式不斷增加,因此他們自己的效率也在不斷提高。這和教育過程沒什么兩樣,那就是讓教育對象知道如何在這個世界上表現(xiàn)得好。
我們需要進(jìn)行額外的訓(xùn)練,以確保模型知道編造內(nèi)容永遠(yuǎn)都是不行的。而這種強(qiáng)化學(xué)習(xí)的人類教師或其他變體將教會它這些。
這樣的做法應(yīng)該是有效的。我們很快就會知道。
Craig S. Smith:
這些研究最終將通往何處?它們是你最近在做的研究嗎?
Ilya Sutskever:
我不能詳細(xì)講述我正在從事的具體研究,但我可以大致提及一些研究方向。我非常關(guān)注如何讓這些模型更可靠、更可控,讓它們能夠更快地從示例數(shù)據(jù)中學(xué)習(xí),減少指導(dǎo)。以及如何讓它們不要產(chǎn)生幻覺。
Craig S. Smith:
我聽說你曾經(jīng)說過我們需要更快的處理器才能進(jìn)一步擴(kuò)展。似乎模型的擴(kuò)展沒有止境,但訓(xùn)練這些模型所需的功率,我們已經(jīng)達(dá)到了極限,至少是社會公認(rèn)的極限。
Ilya Sutskever:
我不記得你所說的我做過的確切評論是什么,但人們總是希望有更快的處理器。當(dāng)然,功率總是會不斷增加??偟膩碚f,成本也在上升。
但我關(guān)注的問題不是成本是否很高,而是我們在支付這筆成本時(shí)是否能得到超過成本的東西。也許你支付了所有這些成本,卻什么都沒有得到,那就不值得。但是,如果你得到了非常有用的、非常有價(jià)值的東西,可以解決我們想要解決的許多問題,那么它的成本就可以是完全合理的。
Craig S. Smith:
有一次我看到你談到了民主以及AI對于民主的影響。有人曾向我談?wù)撨^這樣一種情況,即當(dāng)看似無法解決的沖突出現(xiàn)時(shí),如果你有足夠的數(shù)據(jù)和一個足夠大的模型,你可以用數(shù)據(jù)來訓(xùn)練模型,從而得出一種最優(yōu)解,使所有人都能滿意。你是否考慮過這種技術(shù)可能幫助人類管理社會的方向?
Ilya Sutskever:
這是一個非常大的問題,而且是一個更具未來性的問題。我認(rèn)為我們的模型仍有許多方面可以變得比現(xiàn)在更為強(qiáng)大。
政府未來是否會將這項(xiàng)技術(shù)當(dāng)作建議來源其實(shí)是不可預(yù)測的。對于民主的問題,我認(rèn)為未來可能會發(fā)生的一件事是,由于神經(jīng)網(wǎng)絡(luò)將如此普及且對社會產(chǎn)生如此大的影響,我們將發(fā)現(xiàn)有必要通過某種民主過程,讓一個國家的公民提供一些關(guān)于他們希望社會變成什么樣的信息給神經(jīng)網(wǎng)絡(luò)。我可以想象這種情況的發(fā)生。這可能是一種非常高帶寬的民主形式,你可以從每個公民那里獲取更多的信息并進(jìn)行匯總,從而指定我們希望這種系統(tǒng)如何行動?,F(xiàn)在這就引出了許多問題,但這是未來可能發(fā)生的一件事。
分析所有變量意味著什么?最終你需要做出選擇,而這些變量似乎變得非常重要。我想在這方面研究地更深入一些。因?yàn)槲铱梢院芸斓刈x一百本書,也可以很慢很仔細(xì)地讀一本書,從中獲得更多收獲。所以,其中會有一些值得考量的元素。此外,我認(rèn)為在某種意義上,從根本上說,要理解所有的事物可能是不可能的。讓我們來看一些更簡單的例子。
任何時(shí)候,只要涉及到復(fù)雜的社會情境,例如在一家公司,即使只是一家中等規(guī)模的公司,它都已經(jīng)超出了任何單個人的理解能力。我認(rèn)為只要我們以正確的方式構(gòu)建我們的AI系統(tǒng),AI幾乎任何情況下都會對人類有令人難以置信的幫助。
本文譯自
https://www.forbes.com/sites/craigsmith/2023/03/15/gpt-4-creator-ilya-sutskever-on-ai-hallucinations-and-ai-democracy/?sh=18e30c701218
關(guān)鍵詞:
- GPT-4重要締造者、OpenAI 首席科學(xué)家:人工智能不吃人
- 【全球報(bào)資訊】對話日初資本陳峰:創(chuàng)見未來
- 焦點(diǎn)信息:汽車和電商都開啟“瘋狂補(bǔ)貼”,這個時(shí)代生存的底層邏輯是什么?
- 每日時(shí)訊!三大“熱詞”解讀1-2月國民經(jīng)濟(jì):企穩(wěn)回升 消費(fèi)被給予厚望
- 焦點(diǎn)熱議:托起山里娃的“足球夢”
- 春茶開采忙
- 美國民眾舉行反對槍支暴力抗議活動
- 今亮點(diǎn)!“弗雷迪”致非洲三國超300人死亡
- 焦點(diǎn)短訊!3月16日龍虎榜揭秘:1.1億搶籌三維通信 機(jī)構(gòu)凈買15只股
- 全面注冊制下首批10家主板企業(yè)IPO獲證監(jiān)會批復(fù)
- 商務(wù)部等17部門出臺若干措施 推動邊(跨)境經(jīng)濟(jì)合作區(qū)高質(zhì)量發(fā)展
- 世界時(shí)訊:杭州銀行:虞利明董事、行長任職資格獲批
- 環(huán)球精選!美吉姆:第二大股東擬減持不超700萬股公司股份
- 最新產(chǎn)業(yè)資本動態(tài)曝光!月內(nèi)26股增持超千萬 10股過億
- 焦點(diǎn)快看:江龍船艇:控股股東擬減持公司不超0.58%股份
- 天天最新:中國黃金:第二大股東擬減持不超3%公司股份
- 每日資訊:網(wǎng)頁視頻下載(如何下載網(wǎng)頁視頻)
- 環(huán)球新資訊:完勝前夫的宋慧喬,不止一部收視王炸
- 天天動態(tài):美媒:高通脹正掏空美國人儲蓄 近半民眾陷入財(cái)務(wù)困境
- 天天資訊:三大“熱詞”解讀1-2月國民經(jīng)濟(jì):企穩(wěn)回升 消費(fèi)被給予厚望

- 低碳菜單引領(lǐng)寧波餐飲消費(fèi)新風(fēng)尚 試點(diǎn)將持續(xù)至今
- 深圳坪山打造餐飲服務(wù)食品安全示范高地 嚴(yán)守食品
- 黑龍江哈爾濱推出“沙盒”監(jiān)管新模式 激發(fā)市場活
- 第三季度全國消協(xié)受理投訴數(shù)量同比增10.02% 食品
- 北京懷柔對機(jī)動車檢測機(jī)構(gòu)開展監(jiān)督抽查 規(guī)范機(jī)動
- 天津北辰扎實(shí)做好價(jià)格監(jiān)管工作 維護(hù)安全有序市場
- 北京石景山開展冬季供暖前特種設(shè)備安全專項(xiàng)檢查
- 陜西延安:開展兒童化妝品專項(xiàng)檢查 規(guī)范化妝品市
- 北京海淀開展商品條碼專項(xiàng)監(jiān)督檢查 努力打造穩(wěn)定
- 金華推進(jìn)網(wǎng)絡(luò)直播營銷治理顯成效 培育放心消費(fèi)直
- 1 GPT-4重要締造者、OpenAI 首席科學(xué)家:人工智能不吃人
- 2 【全球報(bào)資訊】對話日初資本陳峰:創(chuàng)見未來
- 3 焦點(diǎn)信息:汽車和電商都開啟“瘋狂補(bǔ)貼”,這個時(shí)代
- 4 每日時(shí)訊!三大“熱詞”解讀1-2月國民經(jīng)濟(jì):企穩(wěn)回升
- 5 焦點(diǎn)熱議:托起山里娃的“足球夢”
- 6 春茶開采忙
- 7 美國民眾舉行反對槍支暴力抗議活動
- 8 今亮點(diǎn)!“弗雷迪”致非洲三國超300人死亡
- 9 焦點(diǎn)短訊!3月16日龍虎榜揭秘:1.1億搶籌三維通信
- 10 全面注冊制下首批10家主板企業(yè)IPO獲證監(jiān)會批復(fù)