首页 >保险 > > 正文

人工智能越大型越好吗?

NaturePortfolio© 2023-08-18 17:50:32

可以生成流畅语言的人工智能系统,例如OpenAI的ChatGPT,是技术界的新宠。但是当它们遇到需要一些推导的数学问题时,这些大型语言模型就常常会犯错。比如说这个代数题吧:

一条直线与y=4x+6平行且经过(5, 10)。它和y轴的交点的纵坐标是多少?


(资料图片)

虽然LLM有时候能给出正确答案,答错的情况更多。在早期的推导能力测试中,ChatGPT面对中学水平的“数学”题集时只答对了26%。

这是可以想见的:给定输入文本之后,LLM只会根据模型训练集中词语、符号和句子的统计规律生成新的文本。要是学习语言模式就能让LLM稳定模仿出数学推导,那才是怪事呢。

但在2022年6月,Google做的一款叫作Minerva的LLM多少算是突破了这种预期。Minerva在数学题集中答对了50%,这一结论让一些人工智能领域的研究者们大为吃惊。

Minerva的数学考试

一个称为Minerva的大语言模型在“数学”数据集中得分50%。下面是它答对和答错的两题。

来源:Google Research

“这个圈子里说,这还真是个新奇事。”微软研究院的机器学习专家Sébastien Bubeck说。

Minerva的优势在于它是在数学相关的文本上训练的。但Google的研究提出了模型表现出色的另一重要原因——它的大小。这个模型大约有ChatGPT三倍大。

Minerva的结果佐证了一些研究者们长时间以来的怀疑:训练更大的LLM并输入更多数据,就可以让它们——只通过模式识别——解决理论上要求推导的问题。若真是如此,一些AI研究者们说,这种“越大越好”策略或许可以构建出一条通往强大AI的路。

不过,这个观点有理由加以质疑。LLM仍然还在犯很明显的错误,有些科学家提出,更大的模型只是在碰巧与训练集相关的问题上回答得更为出色,而没有获得回答全新问题的能力。

这个争论正在AI领域最前沿上演。商业公司通过更大的AI模型取得了更好的成果,因此他们推出了越来越大的LLM——每一个都要花上几百万美元来训练和运行。但这些模型有很严重的问题。除了输出不值得信任,以及可能会使假信息传播更严重的问题外,它们还非常贵,会吃掉大量能源。

来源:改自Our World in Data,和J. Sevilla 等人发布在arXiv的预印本

https://doi.org/10.48550/arXiv.2202.05924 (2022)。

批评者认为,大型LLM最终也无法模拟出、或是学到足以稳定回答推导类问题的技术。相反,有些科学家说,小型且能耗更经济的AI才是进步的道路——某种程度上是受到了大脑学习并构建连接方式的启发。

越大越好?

像ChatGPT和Minerva这样的LLM是由计算单元构成的多层巨大网络。LLM的大小可以由其参数的数量表示——这是一个可调节的数值,描述了神经元之间连接的强度。训练这种网络的过程是把已知的句子的一部分盖住,让它预测被盖住的部分,然后调节参数让算法下次能做到更好。

用人类写作的几十亿句子重复这一流程,神经网络就可以学到模拟人类写作时的内部表现。在这一阶段,LLM被称为经过了“预训练”:它的参数掌握住了它在训练阶段所看到的书面语言的统计结构,包括文本中的所有事实、偏见和错误。接下来就需要使用专业数据“精调”模型。

用Minerva举例,研究者们是从Google的Pathways语言模型开始的。PaLM有5400亿个参数,是在一套拥有7800亿个“词元”的数据集上预训练出来的。一个词元可以是一个词,一个数字或是其他信息单位。PaLM的训练集从英语和多语言的网络文本、书籍和代码中搜集到了这些词元。将PaLM在数百亿个词元的科技文献和数学相关网页上精调之后,就得到了Minerva。

Minerva能答出来的输入例如:30的倍数中不超过520的最大一个是多少?LLM看起来可以一步一步思考,但它所做的就只是把问题转化成词元的序列,生成统计上更可能的下个词元,接到原本的句子之后,再生成一个词元,如此循环:这个过程被称为推理。

Google的研究者们精调了三个尺寸的Minerva模型,分别使用了80亿,620亿和5400亿个参数的预训练PaLM模型。Minerva的表现水平随规模增加。在整个MATH数据集上,最小的模型有25%准确率,中等的达到了43%,而最大的一个超过了50%的分数

来源:改自参考文献2

最大的模型精调时所使用的数据量也是最小的——它精调仅仅使用了260亿个词元,而最小的模型读了1640亿个词元。但最大的模型花了一个月来精调,使用的是专门的硬件,计算力是最小模型的8倍,而最小的模型只花了两周。理想情况下,最大的模型应该使用更多词元来精调的,Google研究Minerva团队的成员Ethan Dyer说;这可能会产生更好的结果。但团队感觉计算花销不太可行。

规模定理

最大的Minerva模型表现最好,这和其他研究发现的规模定理是一致的——这条定理说明模型性能随着模型大小增长而变好。2020年的一项研究表明,模型在三种情况下会性能更好:更多参数;更多训练数据或是更多计算量。性能会遵循幂函数增长,也就是说它的提升速度是比如参数数量的若干次幂。

但是,研究者们不太清楚为什么。“这是纯粹的经验规律。” Irina Rish说,她是加拿大蒙特利尔大学和蒙特利尔学习算法研究所的计算机科学家。

为了产生最好的效果,2020年的研究表明,训练数据加倍时,模型大小就需要增长5倍。去年的研究稍微修正了一下这个定理。3月,伦敦的AI公司DeepMind提出,最好是让模型大小和训练数据集同时增长;使用更多数据训练的小模型比使用更少数据训练的大模型表现要好。例如,DeepMind的Chinchilla模型有700亿个参数;使用了1.4兆词元进行训练;而2800亿参数的Gopher模型使用了3000亿个词元进行训练。Chinchilla在评估LLM学到什么的任务上表现好于Gopher。

来源:改自Our World in Data和J. Sevilla 等人发布在arXiv的预印本

https://doi.org/10.48550/arXiv.2202.05924 (2022)。

Meta研究团队的科学家在二月使用了他们自己的少参数模型LLaMA拓展了这套概念。LLaMA使用了1.4兆词元进行训练。研究者们说,130亿参数版本的LLaMA超越了ChatGPT的先驱GPT-3,而650亿参数版本的LLaMA可以媲美Chinchilla甚至PaLM。

去年十月,麦吉尔大学的Ethan Caballero和Rish等人一起宣布了大小和性能之间更复杂的关系。在某些例子里,多个幂律可以描述性能随模型尺寸增长的增长关系,研究者们说。

例如,在他们发现的一个拟合通用函数的假设场景里,性能随模型尺寸会首先慢速增长,然后增长得更快,但是在参数继续增长时稍微下滑,之后又会重新增长。这种复杂关系的特征是由每个模型的具体情况和训练方式决定的。最终,研究者们希望能够在每个LLM扩大规模之前提前预测。

另一项独立的理论研究同样支持了对更大模型的追求——也就是2021年Bubeck和斯坦福大学的统计学家Mark Sellke提出的机器学习“稳健性规则”。如果输入中有小扰动但仍然能给出稳定的回答,那么模型就是稳健的。有些AI是出了名的脆弱。例如,一些AI被训练来识别狗的图片,而它们会在图片中有一些不会骗过人类的小噪声时做出错误的分类。

AI越稳健,它就越能泛化到此前没见过的数据上。Bubeck和Selke在数学上证明了增加模型参数数量可以提高稳健性,因而提高泛化能力。Bubeck说该规则证明了提高规模是提高泛用性是必要的,但并没有证明它的充分性。不过,它被用来论证模型越来越大的趋势,他说,“我觉得这也合理。”

Minerva也利用了一项被称为思维链提示的关键创新。用户会在问题的最开始附上一些包含了几个问题和解答的例子作为提示,其中也包括得到答案的推导过程——阐明了一种典型的思维链。在推理时,LLM会从这段文字中提取线索,并产生很像推导的逐步回答。这并不需要更新模型的参数,因此不需要精调所需的额外计算力。

能够回应“思维链提示”类输入的能力只出现在1000亿参数以上的LLM里。这项发现帮助了更大的模型按照实证规模定理提升性能,Google研究团队的Blaise Agüera y Arcas说,“更大模型表现得越来越好。”

合理的担忧

Google的AI研究员François Chollet是持怀疑态度的人之一,他认为无论LLM大到什么程度,都永远无法获得推导以可靠解决新问题的能力。LLM显示出推导能力只是因为能用此前遇到过的模板而已,无论模板来源于训练集还是输入。他说:“它并不能当场理解此前没见过的东西。”

LLM可能做到的最好的程度也不过是吸收足够多的训练数据,让语言的统计模式本身能够在回答问题时,给出非常接近过去见过的答案。

但是,Agüera y Arcas则认为LLM确实获得了一些没有特意训练的意外能力。他特别提到了一些用来测试人有没有所谓心智理论的测试——也就是能不能总结或是猜测其他人的精神状态。举个简单的例子,Alice把眼镜放到了抽屉里。然后Alice不知道的Bob把眼镜藏到了椅垫下。Alice会从哪里开始寻找眼镜?问小孩这个问题时,实际上是要测试他们是否理解:Alice自己所相信的事情,可能和小孩所知的不同。

在他用Google的另一款LLM——对话应用的语言模型时,Agüera y Arcas发现LaMDA可以正确回答出更广义的这类对话。对他来说,这表示LLM可能有能力在内部描述其他人的意图。“这些只管预测序列的模型发展出了一系列特别的能力,其中就包括心智理论。”Agüera y Arcas说。但他也承认这些模型容易出错,并且他也不确定仅提高规模是否足够产生可靠的推理。

心智理论?

谷歌研究院的Blaise Agüera y Arcas在博客上写下了他和谷歌大型语言模型LaMDA的对话。Agüera y Arcas认为这是一次令人印象深刻的交流,LaMDA似乎能够持续建立模型,模拟一个故事中的两个对话者知道和不知道什么——模仿一种明显的心智理论。

来源:Blaise Agüera y Arcas

即使当LLM的回答是正确的,但实际上它并没有产生真正的理解,Chollet说:“你要是多戳两下,立刻就能明显看出来它里面全是空的。ChatGPT没有关于自己在说什么的模型。”他说,“就像在看一场傀儡戏,相信那些傀儡是活的。”

至今为止,LLM仍然会犯人类绝不会犯下的荒谬错误,Melanie Mitchell说,她在圣塔菲研究所研究AI系统的概念抽象和类比。这引发了很多担忧,人们不放心将LLM无安全网放入社会的安全性问题。

Mitchell补充说,关于LLM是否能尝试解决全新未知问题,一个问题在于,我们没有办法全面测试这种能力。“目前的评估标准不充分。”她说,“它们并没有系统性地测试东西。我们其实还不知道该怎么做。”Chollet提倡使用一套他自己设计的测试来测试抽象推导能力,叫做“抽象推导题集”。

来源:F. Chollet/Lab42 (https://arc-editor.lab42.global)

规模的问题

以上讨论进行的同时,就语言模型越来越大这件事已经出现了紧迫的担忧。其中之一是训练大型LLM时所花费的数据集、计算力和费用会让它们的发展——以及研究方向——被限制在了有大型计算资源的公司里。OpenAI尚未证实制作ChatGPT的费用,但其他公司基于所需的计算量估算出预训练GPT-3的费用应该超过了400万美元。OpenAI运行ChatGPT每个月可能要花费上百万美元,因为这款免费的聊天机器人会收到大量的请求。“我们已经深入腹地。”Bubeck说,“只有少数几个公司有超过1000亿参数的模型。”

政府正在带着支援介入,这可能会拓宽赛道。去年6月,一支包含了约1000名学术志愿者的团队,带着法国政府、美国一家叫Hugging Face的AI公司和其他来源的资助,利用价值700万美元的计算时间训练了一个1750亿参数的模型BLOOM。11月,美国能源部向Rish和她的同事们提供了超级计算机的计算时间,以建立大型模型并研究其表现。“我们希望能训练出一个类似Chinchilla的700亿参数模型——不一定是最大的,但可能是性能规模比最好的。”Rish说。

无论是谁来构建,LLM模型都会引发电力消耗的担忧。例如,Google说PaLM的训练在2个月内消耗了大约3.4吉瓦时的电力。这是大约300个美国家庭一年的电力消耗。Google训练PaLM是在俄克拉荷马州的数据中心进行的,这里的电力有89%来源于无碳能源,主要是风力和其他可再生的资源。但对业界AI模型的调查表明,大多数的训练都使用了主要由化石燃料供能的电网。

Chollet的担忧是,当各个公司开始训练并使用更大的模型时,它们就可能消耗更多电力。“每个大型技术公司都会开始在产品中置入LLM,不管这是不是个好主意。”他说。

越来越小?

对很多科学家来说,迫切需要减少LLM的能耗——让神经网络更小,更有效率,以及也许还能更聪明。除了训练LLM的电力消耗之外,推理——也就是LLM作答时——用的电力会随着用户增加而激增。大型科技企业未就他们模型的电力使用费用做出评论。不过Hugging Face公开说,他们的BLOOM模型在Google云平台上运行了18天,回答了230768条问题,它的平均功耗是1664瓦。

相比之下,我们的大脑要复杂得多,比任何LLM都大,有860亿神经元,大约100兆突触连接。但是,人类大脑的功耗大约是20-50瓦,瑞士弗雷德里克-米歇尔生物医学研究所的Friedemann Zenke说。

因此一些研究者希望,模仿大脑的某些方面,可以帮助LLM和其他神经网络变得更小,更聪明,更有效率。

大脑的智慧和效率的原因之一可能是它的循环或是反馈连接。LLM本质上是“前馈”网络。这就意味着信息是单向流通的:从输入,通过LLM的各层,到输出。大脑的连接方式不同。例如,在人类的视觉系统里,神经元会把大脑里最初接收视觉信息的区域与更后面的区域连接起来。但其中也有反馈连接,能让信息反过来传输。“在视觉系统里,反馈连接可能有前馈连接的十倍。”Mitchell说。但是LLM没有反馈连接。

同时使用反馈和前馈连接的人工神经网络通常称为循环神经网络。这种网络可以识别出数据内容随时间变化的模式。这是“所有自然智慧体验和学习世界的方式的基础。”西奈山伊坎医学院的计算神经科学家Kanaka Rajan说。但是RNN也有它的挑战,Rajan说。例如,训练它们很难很慢,因此难以把规模扩大到现在LLM的程度。

大脑有效率的另一个原因在于,生物神经元大多数都很安静——它们只有偶尔才会产生一个活跃的脉冲。相反,大多数神经网络中的神经元在模型中是常时开启的。研究者们正在研究这种脉冲人工神经元,但想把训练标准神经网络的算法应用到脉冲神经元上很难。但是,使用小数据集的研究表明,使用脉冲神经元的RNN比使用标准神经元的表现要好。并且在理论上计算力需求会少三倍。在阿姆斯特丹数学与计算机科学国立研究院研究这一领域的Sander Bohté说,“进展很快很大。”

但是,如果脉冲神经元只是在软件中模拟出来的话,它就没办法真的提供效率提升。这种计算单元需要被内置于硬件,安装到神经形态芯片里,才能体现出效果。

省电的LLM

与此同时,研究者们在尝试不同的办法给现有的LLM节省电力,以及变得更聪明。2021年12月,DeepMind报告了一套称为RETRO的系统,将LLM连接到一个外部的数据库里。LLM在推理时使用了这个数据库中提取的相关文字来帮助它做出预测。DeepMind的研究者展示了一个75亿参数的LLM,配上了一个2兆词元的数据库,而它的表现超越了参数量多25倍的LLM。研究者们写道,这种方式“在我们试图建立更强大的语言模型时,它比试图提高原始参数规模的方法更有效”。

同一个月,Google研究团队的科学家报告了另一个提高规模时增加能效的方法。他们的通用语言模型GLaM有1.2兆参数。但是这些参数并不是一个巨大的神经网络;在内部分成了64个更小的神经网络,以及其他几个层。这个LLM训练之后,在推理过程中只会使用2个网络来完成一项任务;总体上说,它对每个词元只会使用其一兆多参数的8%。据Google说,GLaM使用了和训练GPT-3相同的计算资源,但是由于训练软件和硬件的改进,只花费大约三分之一电力。在推理过程中,GLaM使用的资源是GPT-3所需的一半。并且使用同样数量的数据训练时,表现比GPT-3要好。

要想进一步改进的话,即使这些能效高的LLM似乎也注定会变大,使用更多数据和计算力。研究者们会关注规模变大后会有什么新的表现。“它会不会完全解锁推导能力,我不确定。”Bubeck说,“没人知道。”

上一篇:国家太空实验室已正式运行,空间站110个项目部分取得阶段性成果 下一篇:最后一页
x
推荐阅读

人工智能越大型越好吗?

2023-08-18

国家太空实验室已正式运行,空间站110个项目部分取得阶段性成果

2023-08-18

智美体育中标,是大连马拉松当下最适宜的选择

2023-08-18

大连热电:公司目前只能看到8月10日股东户数为34600余户

2023-08-18

辽宁省卫生健康委员会发布致全省医师的慰问信

2023-08-18

大姚法院“巡回审判+普法讲座” 筑牢生态保护法治屏障

2023-08-18

美媒:美国至少三次干扰和谈

2023-08-18

中共中央政治局常务委员会召开会议 研究部署防汛抗洪救灾和灾后恢复重建工作 中共中央总书记习近平主持会议

2023-08-18

迪马济奥:都灵希望从国米签回拉扎罗,转会费400万欧+二转分成

2023-08-18

游手好闲的意思三年级(游手好闲的意思)

2023-08-18

未能诚实守信按披露信息及时履行业绩补偿承诺,皓宸医疗业绩补偿承诺人黄招标等收深交所监管函

2023-08-17

全世界最漂亮5大女星,中国只有一个上榜,你猜到了是谁吗?

2023-08-17

洪城环境(600461):优质运营资产 业绩稳中有增

2023-08-17

央行:延续实施保交楼贷款支持计划至2024年5月末

2023-08-17

惠誉:太古地产2023年中期财务状况持续保持强劲

2023-08-17

锋龙股份(002931)8月17日主力资金净卖出69.50万元

2023-08-17

椰油烷基伯胺商品报价动态(2023-08-17)

2023-08-17

走进三江源国家公园|热爱雪豹的牧民摄影师

2023-08-17

《GTA6》前开发者曝光内幕!本作曾重启开发过

2023-08-17

国家统计局:1-7月中国原煤产量26.7亿吨,同比增3.6%

2023-08-17

事发赣鄂两地!警方缉毒现场!多人被捕

2023-08-17

OPPO Reno10 Pro+手机刚买的手机要用完电才能充电吗

2023-08-17

尿素叶面使用方法 尿素叶面肥浓度

2023-08-17

越南电动车企VinFast美股盘前一度跌15%

2023-08-16

AI-第三次改变人机交互的模式

2023-08-16

三金收官!南华大学拿下全国大学生田径锦标赛女子4*400米接力赛冠军

2023-08-16

腾讯 Q2 财报:抢占 MaaS 新机遇,企业服务重回双位数增长

2023-08-16

小伙高空坠落肝肾破裂 松山医院介入血管科助力患者脱离危险保全肝肾功能

2023-08-16

N乖宝收盘涨46.16% 首日换手率75.34%

2023-08-16

石榴

2023-08-16

被称之为“小钢炮”,第八代高尔夫哪款配置车型最值得买?

2023-08-16

贵州省住房和城乡建设厅原厅长张鹏被查

2023-08-16

中电港8月16日快速反弹

2023-08-16

EA app遇到错误无法安装|安装不了的解决方法

2023-08-16

老面怎么发酵最快最好(老面怎么发酵)

2023-08-16

物产环能(603071):8月15日北向资金增持23.77万股

2023-08-16

湖南省株洲市芦淞区市场监管局公示2023年第4期食品抽检信息

2023-08-15

经常掉发用什么洗发水好?【恢复秀发丰盈与弹力】

2023-08-15

Vitalik Buterin取得中国台湾就业金卡资格

2023-08-15

万洲国际:上半年公司拥有人应占利润4.2亿美元,同比下降44.7%

2023-08-15

意媒:尤文已同贝拉尔迪就一份4年合同达成了初步协议

2023-08-15

豆腐最炸裂的做法,香到跳脚、嫩到爆浆!我能连吃一盆!

2023-08-15

特斯拉回应禁入机场:无法远程监视,数据也不出境

2023-08-15

河北涿州恢复供水

2023-08-15

男子强奸未遂致女子精神受创伤辩称“女子敛财未果设圈套”法院判了! 具体是怎么回事?

2023-08-15

马斯克对生育很上心:捐资1000万美元资助生育和人口研究

2023-08-15

总统候选人遇刺身亡后,厄瓜多尔又有政党领袖遭枪杀

2023-08-15

液晶电视与等离子电视哪个好些(液晶电视与等离子电视哪个好)

2023-08-15

盟固利今日创业板上市 引领钴酸锂行业未来发展

2023-08-15

汽车机器人真的要来了!吉利百度新项目拿下准生证,L4级自动驾驶将近

2023-08-15

个人年终总结护士(个人年终小结)

2023-08-15

宜都宜都市聂家河镇:“连心家宴”引游客进山

2023-08-14

地铁18号线福田站开通 到成都未来科技城更方便了

2023-08-14

晶科能源:业绩说明会定于8月25日举行

2023-08-14

A股缩量调整,酒店及餐饮板块表现亮眼

2023-08-14

申联生物:近日通过农业农村部兽药GCP监督检查

2023-08-14

基金认为市场底部区间历来多震荡 关注焦点仍在政策边际变化

2023-08-14

关注|国奥男足展开三天短训 奥预赛前热身对手难觅

2023-08-14

上海机场:7月浦东国际机场旅客吞吐量同比增长557.62%

2023-08-14

领先科技,畅享驾驶乐趣——一汽-大众ID.4 CROZZ

2023-08-14

马光远:7月金融数据回落 究竟释放了什么信号

2023-08-14

消息称三星GalaxyS24系列手机有望支持双向卫星通信

2023-08-14

广西贺州:昔日尾矿库 今成绿茵场

2023-08-14

149个国内鲜食玉米品种亮相北京延庆

2023-08-14

巴比食品:已通过与供应商签订锁价锁量合同确保下半年的猪肉价格成本基本稳定

2023-08-14

快行动善落实提升仓储价值

2023-08-14

2021会计实操视频(会计实务操作视频)

2023-08-14

中国男篮启程回国,12人名单已明朗,辽篮悍将获认可,他俩或离队

2023-08-14

推动电池材料创新和应用 新型高安全复合集流体项目在浙江湖州奠基

2023-08-14

忙着举办高端财富论坛的恒昌财富难掩P2P底色

2023-08-14

虎头山(关于虎头山简述)

2023-08-14

清洁岸电助力长江三峡绿色航运

2023-08-14

最“壕”持有21亿,私募成为ETF重要“买手”

2023-08-14

完善金融服务激发汽车消费动能

2023-08-14

“乡村女神”于月仙:一生无儿女,连善终都没有,她的过去不敢看

2023-08-14

法媒记者:内马尔加盟利雅得新月的转会费在1亿欧左右

2023-08-14

大象最后一次换牙后,就将走向生命的终点

2023-08-13

上海书展将开幕 新华书店部分网点推购票新举措

2023-08-13

张含韵表白彭冠英(张含韵彭冠英官宣即分手

2023-08-13

硬盘损坏怎么修复最简单(硬盘损坏怎么修复)

2023-08-13

每天车闻:广汽确认扩大在俄产品线

2023-08-13

阴虱病 阴虱病图片症状图片

2023-08-13

​叶妙,女,1981年生,宁乡人

2023-08-13

斯通“坑惨”哈登!火箭、76人、马刺酝酿三方交易,再见快船?

2023-08-13

赵丽颖个人资料介绍(关于赵丽颖的简介)

2023-08-13

英国专家:人工智能可通过键盘声窃取密码

2023-08-13

全球首台风渔一体化智能装备在阳江建成 每年可发电4500万度

2023-08-13

2万亿只是开始?公募“被动战役”打响,三大拦路虎来了

2023-08-13

Rookie带领IG进入S8,韩国网友开始吹捧,害怕诞生第二个Doinb?

2023-08-13

乙型血友病是什么病(血友病是什么病?)

2023-08-13

1-0中超前冠军爆发,掀翻成都蓉城,终结8轮不胜,沧州雄狮怕吗

2023-08-13

坎比亚索:我很高兴和出色的队友一起踢球 尤文要赢得每一场比赛

2023-08-13

方程豹豹 5 四天后首发!双电机 + 三把锁 预计 35 万起售

2023-08-13

人字拼木地板怎么安装图片(人字拼木地板怎么安装)

2023-08-13

亿元先生带带货!拜仁官方发布凯恩穿新赛季不同球衣视频

2023-08-12

聚势前行 向“兴”启航 --江西航空正式运营南昌—北京大兴航线

2023-08-12

评测吉利缤瑞车身尺寸参数及大众探歌全液晶仪表盘介绍

2023-08-12

积极维护防汛救灾网络秩序倡议书

2023-08-12

国产3A之光《黑神话:悟空》首发试玩资格遭爆炒:最高卖到5000元

2023-08-12

2023年8月总票房破35亿

2023-08-12