当前位置:首页 > 冰箱 > 文章正文

李永乐:比人工智能更恐惧的是……

编辑:[db:作者] 时间:2024-08-25 05:01:58

熟习的同时,我们真的理解人工智能吗?近期,在2023宜兴笔架山数字科商大会上,有名教诲家李永乐老师针对人工智能,从其基本事理到生态运用以及家当发展等几个方面深入浅出的谈了一些意见,并和现场不雅观众进行了精彩的谈论。

李永乐:比人工智能更恐惧的是……

以下是现场实录:

李永乐:感谢各位领导、来宾,非常感谢在座的小朋友们,我是公民大学附属中学的物理老师李永乐。
本日很荣幸受到曹老师的约请,与大家谈论机器为什么能像人一样思考,换句话说,什么是人工智能?

我希望通过我们本日的讲述,让大家对人工智能的基本事理有一个大略的理解。

让我们来看一个例子。
这是我家的两只狗,左边这只叫“帅帅”,右边这只叫“栗子头”。
它们两个已经长得很大了。
你们知道这是什么品种吗?

(不雅观众:柯基。

许多朋友知道这是柯基,但可能有些不养狗的朋友不理解这是柯基。
我在家里做过一个实验,有一块小天才儿童智好手表,摄像头对准小狗,这时候它会念出来,这是“威尔士柯基犬”。
为什么扫描一下,它就知道这是威尔士柯基犬呢?由于它具有人工智能。

现在人工智能的用途实在是太广泛了,随处可见的人脸识别系统是人工智能;打算机赞助的CT影像是人工智能;在路上开车违章了被拍是人工智能;手机上的各种语音软件、智能音箱、美颜软件、短视频平台的推举机制、电子邮箱的垃圾系统,都是人工智能;在自动驾驶、聪慧工业等领域,人工智能也是不可或缺的,以是如果把人工智能从我们的生活中抽掉的话,我们的生活可能会退到几十年之前。

实际上,我本身是一个人工智能的门外汉,但是我多学了一点数学,以是本日跟大家聊一聊人工智能的发展史,以及它最基本的数学事理。
我希望通过这一堂课,使我们的小朋友们理解一丢丢的人工智能,并且对它感兴趣,乃至未来从事这个行业,我们本日报告的目的就达到了。

1. 人工智能发展史

首先,让我们来回顾一下人工智能的发展历史。
人工智能并不是一个新生的观点,上古时期,东西方文明都曾涌现过类似人造人的说法。

上世纪50年代旁边,神经生物学、打算机科学、数学等学科的发展,使得人工智能首次进入科学家的视野。

1950年,一位叫图灵的科学家提出了一个问题,机器会思考吗?机器能否像人一样思考?他还提出一种“图灵测试”,这个测试非常大略,有一个人和一台机器,有另一个人向这两者提问,人和机器会分别以笔墨形式回答,然后我们根据回答,判断他们谁是人,谁是机器。

如果大部分人都无法区分出哪个是机器,那就解释这台机器已经通过了图灵测试。
如果一台机器通过了测试,那么就可以说,它可以像人一样进行思考。

图灵当年预言,到2000年旁边,会有通过图灵测试的机器涌现。
实际上,在2014年,确实有一个人工智能软件通过了图灵测试,它的名字叫尤金古斯特曼。
到了2023年,ChatGPT涌现后,我们才知道它有多强大。

人工智能发展非常迅速。
我们都知道,在科学领域的最高奖是诺贝尔奖;数学领域的最高奖是菲尔斯奖;在打算机领域,最高奖便是图灵奖。
说个题外话,图灵在二战时破译了德国的英格尔码机,他的故事被拍成了一部电影,叫作《模拟游戏》,如果大家有兴趣,可以回去看一下。

电影《模拟游戏》剧照 图源:豆瓣

到了1956年,美国打算机科学家明斯基、麦卡锡,以及信息论的奠基人喷鼻香农等一众大佬,在一起开了一个会议,叫达特茅斯会议,他们创造了“人工智能(AI)”这个词。

从那次会议开始,人工智能进入了大发展时期。
后来,明斯基和麦卡锡由于各自的贡献得到图灵奖。
而个中最主要的一位大佬,喷鼻香浓,却没有得到图灵奖,为什么呢?由于喷鼻香农已经不须要图灵奖,他的名字被命名为通讯领域的最高奖“喷鼻香农奖”。

从此之后的几十年,由于算法和算力限定,人工智能几经起落。
到了1997年,卡斯帕罗夫被一个机器人打败了,这个机器人便是IBM的人工智能软件“深蓝”。
自从那件事发生后,人工智能迎来了第三次大发展。

在过去的20多年里,人工智能算法领域呈现了许多灵魂人物,例如深度学习之父辛顿。
他引入了一个算法,叫“反向传播算法”,这是一个比较繁芜的算法。
还有纽约大学的一位教授,叫杨立昆,现在还非常生动,常常出来发言。
他最著名的事情是卷积神经网络,这两人与加拿大蒙特利尔大学的本吉奥共同得到了2018年的图灵奖。

2. 数学事理

说了这么多历史和人物,打算机到底是如何实现智能的?我们来说一下数学事理,那便是丢失函数和梯度低落,这个问题轻微有一点繁芜,但是只要具有初中以上的文化程度,就一定能够听明白,由于它只涉及一次函数的知识。

我们可以先举一个例子,比如房价与屋子的面积之间的关系,我们大致知道,屋子的面积越大,房价就越贵。
但当我将这些数据标记在这张图上时,会创造它们并不在同一条直线上。
那么,我们该当如何阐明房价与面积的关系呢?

我们设想用一条线,让这条线最靠近这些点,让这些点和线的间隔之平方和最小,这样,这条线便是最完美的,这种征象称为,利用最小二乘法找到一个拟合。
换句话说,我们须要找到一个偏差函数,即预测值与实际值的差别到底有多大。
如果预测值和实际值的差别最小,我们就说这个预测是最完美的。
如果不完美怎么办?那就调呗,调度这根线的位置。

这根线由几个参数决定呢?许多小朋友知道,一个是斜率,一个是截距,就涉及这两个参数。
因此,我们只需调度斜率和截距,不雅观察什么时候这条线与这些点之间的间隔平方和最小,这时,就称为偏差函数最小。

如何确定丢失函数的最小值呢?我们有一种数学方法,轻微有些繁芜,大存问思是,如果偏差较大,我们可以设法在某个特定的点上进行调度,直到找到最完美的值。

提及来这并不是一个繁芜的问题,但我们知道,现实生活中,一个屋子的代价并非由面积决定,除了面积之外,我们还须要考虑许多成分,将许多参数放入这个方程中。
在数学领域,预测值可能由许多参数构成,它们并非直线或二维,可能是高维空间。
只管如此,我们仍可在高维空间中探求到偏差值最小的点,也就找到了预测值。

这正是人工智能的基本事理。
我们须要找到一个预测,你给我一些输入,我得到一个输出,当预测值最小,它便是最准确的。

就像刚才我用小天才智好手表拍摄小狗时,它一直地去探求拍摄工具是什么东西时能得到偏差函数最小,结果创造,在威尔士柯基犬这个类眼前,偏差最小,从而剖断它是一只威尔士柯基犬。
这个过程实在便是人工智能的演习的过程。

3. 神经网络事理

接下来,我们来谈论神经网络的事理。

神经网络这个词我们都听过,大家是否常常看到这张图?

有没有同学知道它的含义?左侧表示输入的数据,中间表示一些神经元打算,末了有一个输出结果。
例如,如果我们输入大量数据点,末了,它见告我们是一只威尔士柯基犬,从左到右,每个圆圈我们将其命名为神经元。

那为什么叫神经元,不叫打算机元?这是由于神经网络便是仿照人的大脑而产生的。
这是一个人脑的神经图,可能高中同学们该当学过神经元细胞。
左侧有一个树突,将上一级神经元的信息网络起来,然后经由轴突,再通过突触通报到下一层。
因此,神经元具有输入、运算和输出这样一个构造。
人们以为这很有趣,神经元居然可以吸收旗子暗记,通过打算,再通报给下一层神经元。

在1943年,美国有两位神经科学家,一位叫皮茨,另一位叫麦卡洛克。
他们剖析了人类的神经构造,认为人类的脑神经元是一个多输入、单输出的系统,而且输出只有两种,0和1,如果输出为1,则向下贱通报,信息如果输出为0,则不向下贱通报。

比如一只蚊子轻轻落在我的皮肤上,可能我皮肤上的神经元受到了刺激,但它们以为刺激太小,以是谢绝向下贱通报。
下贱可能不知道,但是如果有一个铅球砸到我的胳膊上,这个时候所有神经元都会剧烈地向下贱通报,我就知道这件事了。

因此,神经细胞是否向下通报并不一定,取决于它的运算结果。

因此,他制作了一个人工神经元模型(MP模型)。
神经元有许多输入,经由打算后得出一个结果,根据结果的大小决定是否向下贱通报信息。
如果我决定要向下贱通报信息,那么Oi输出为1,在打算机上称为高电平,在人脑上,称为通报神经递质。
这个过程中须要经由Sigmoid方程,这是为了引入非线性,我们暂时不考虑。
总之,通过打算将上游输入转化为一个结果,决定是否下一步输出。

我们刚才谈论过屋子问题,须要探求一个最优解。
在探求最优解时,须要调节很多参数,例如调节直线斜率和截距,这便是不断演习模型的过程,这个过程就像我们小时候,跟爸妈出去,你问“这是什么”,妈妈说“这是摩托车”,下次你看到自行车,说“这是摩托车”,妈妈说“不对,这是自行车”,你就区分了摩托车和自行车。
这个过程便是不断调节你的内部参数的过程。
这是神经元的事理。

通过这样的操作,我们可以让打算机理解图像。
例如,大家可以看到左边这张图,实际上是一个英笔墨母X,大部分同学都能看出来。
但打算机不懂X,也不懂你想跟他说什么,它只能看到黑和白这两种状态,黑是1,白是0,于是打算机把这个图形转化成一个数字矩阵。
问题是,变成数字矩阵后,打算机如何知道它是一个X?

我们不能见告打算机,记住了,这便是X。
如果你只见告打算机这一点,那么图形轻微旋转一下就不是X了吗?图形扩大一下就不是X了吗?以是我们不能见告打算机,只要记住这便是X,其他的都不是,这样做就不叫人工智能。
人工智能便是在见告它一些事情后,进入新的领域也能识别,怎么做到呢?这便是人脑和打算机非常不同的地方。

我现在展示一张电影截图,大家知道这是来自《黑客帝国》。
黑客帝国描述了全体天下都是数字天下。
在我们看来的图像,在打算机看来都是一大堆数据点,但问题是,这些数据点进入打算机后,打算机如何知道它们详细是什么?实在很大略,靠神经网络。

大略神经网络可以分为三层,输入、隐蔽和输出,深度神经网络有很多层。
首先,你须要供应大量数据,例如一大堆的0、1,输入完成后,再调节参数,把输出再连到下一层的输入上。

比如,图上第一层是5个神经元,第二层是7个神经元,那么在这5个神经元和7个神经元之间共有35个连接,它们之间的连接都须要调度,以是每个连接都会有参数,一旦网络扩大,参数会非常多。

如果只判断一个图像是否是X,可能一层神经元就够了,但如果想判断更繁芜的图像,比如一个人或一只狗,就须要利用多层神经元,那便是深度神经网络。
然而,全连接的网络繁芜度实际上太高,须要的打算量非常大,正由于打算量过大,传统意义上人工智能并没有太大发展。
也有些人认为,人工智能是无法实现的。

这张图展示了人工智能的起落。

我们可以看一下,1956年达特茅斯会议提出了AI的观点,1959年提出了机器学习,第一次浪潮发生在大约1970年代,然后第一次陷入低谷,由于过去的算法存在一些问题。
第二次浪潮是在美日两国立项AI的研究,后来又进入低谷,由于市场不大。
末了一次浪潮是深蓝降服天下冠军,自那之后,人工智能发展特殊迅速。
目前全天下所有科技公司基本都在搞人工智能,由于它的浸染实在太大了。

4. 视觉事理

接下来我们来谈论视觉事理。
为什么你能看到我是一个人?当你看到我时,你真的急速以为自己在看一个人吗?不是的,实际上你看到的是一堆像素点,是我的身体影像进入了你的视网膜,上面有很多感光细胞投影,使你觉得到了一大堆像素点,但问题是如何才能知道这些像素点是一个人?实际上这便是视觉事理。

视觉事理是最近几年才被真正搞清楚的。
在1981年,诺贝尔生理学和医学奖得到者,科学家大卫苏泊尔和威瑟尔两人创造了视觉事理。
详细做法是将电极插入猫的脑筋,让猫不雅观察各种旗子暗记,不雅观察完成后,创造猫的大脑中与视觉干系的细胞分为两种:一种是对特定线条有反应的细胞,称为大略细胞;另一种是对运动线条有反应的繁芜细胞。

在他们的启示下,日本科学家在福岛邦彦提出了神经认知模型。

这个模型很有趣。

他认为:人的视觉分为多层。
外界光进入眼睛后,通过瞳孔晶状体在视网膜上的成像实际上是一堆像素点,这些像素点信息会通报到大脑中,大脑最初吸收旗子暗记的是V1皮层,或者叫低级皮层;低级皮层得到像素点后,会对像素点进行处理,处理后变成线条,再传到V2皮层,称为次级皮层;次级皮层根据这些线条组合成图形;再通报到三级皮层。

当你看到一个人时,首先是一堆像素点,然后大脑将这些像素点连成线条,接着将线条变成图形,再上色。
末了你就创造原来看到的是一个人,不是一个昆虫。

这个模型就被人们做成了一个人工智能的方法,首先通过组合像素点,将其变成边缘特色,然后将边缘特色组合成轮廓,比如鼻子和眼睛等,末了将轮廓转化为更大的物体模型。
这与传统认知有所不同,传统认知认为,首先不雅观察到轮廓,再关注细节。
实际上,但事实上科学家说,我们是将细节逐步组合成一个整体,才能认识到对方的整体,每一级事情都是在人脑的不同区域完成的。

这个人就叫杨立昆。
杨立昆想,既然人脑可以做这件事,打算性能不能做?于是他就做了一个卷积神经网络。
插一句,前段韶光,杨立昆出来说,ChatGPT没有任何的智能,它只是鹦鹉学舌,但是大部分人还是对这个ChatGPT非常感兴趣。

5. 卷积神经网络

我们来简要先容卷积神经网络的事理。
卷积神经网络的事理稍显繁芜,首先,我们想让大家看这4张图,实际上每张都是一个字母X,人类一眼就能看出来,但这4张图完备不一样。

因此,在打算机无法识别出它们是不是X时,我们须要采取一些方法。
虽然这些图形实质上不太一样,但它们都有一些共同的特色,比如,中间都是一个中间白、四角白,然后四边有一块玄色的十字图形;再比如,左上角都有两个白块。
以是我们假设无论在哪个地方,只要能探求到这些特色,或者找到的这些特色特殊多的时候,我们就认为它是一个X。

详细如何探求涉及到繁芜的运算,称为卷积。
大存问思是将原来的数据与设计好的卷积核进行内积,内积便是对应项相乘再相加,然后得出一个特色值,特色值越大,解释它越知足X的特色。
例如,这里的特色值为2,解释左上角的图形与卷积核靠近,若特色值为3,则更靠近。

我们通过这种方法逐步探求,末了得到一张图,它展示了我们完成卷积后的结果。
这个结果见告我们,在这些部位的特色是2333,表示这些部位的特色非常靠近。
我们还可以将这作为一个示意图,将原来的图像通过卷积核转换为多个不同的图像,每个图像代表一些特色,这些特色组合起来便是我们想要的判断结果。

还有一个过程叫池化,这个观点更加繁芜一些。
大存问思是,左上角2、3表示左上角确实具有某个特色,特色2并没有特色3强,那么可以省略特色2,这样打算会更大略一些。
总之,我们须要通过卷积抽象出图像的特色,然后通过池化,可以让图形更小一些。
池化后,我们进入Sigmoid函数,大意便是决定到底是否向下贱进行通报。
比如这张图的特色值非常大,就表明特殊随意马虎产生一个X,因此,这组神经元可能会向下贱传导。

总的来说,经历了卷积、池化等步骤,我们就仿照了人眼的机制,本来输入大量像素点,通过卷积抽象出特色,再输入到下一层。
对付打算机来说,一个人和一只威尔士柯基犬并无差异,但是经由一层一层输出,打算机就理解了,这堆凌乱的像素点组合出来的是人、桌子、椅子。

6. 算力与数据

末了,跟大家谈一谈算力和数据。
刚才我们提到的紧张是算法领域,但人工智能的发展实际上涉及三个领域,算法、算力和数据。
显而易见,人工智能的算法如此繁芜,程序员们不可能每次都从零开始编程,就像厨子做菜一样,不能从种地开始,也不能从炼砖或者烧锅开始,以是有一些根本的代码该当是早已编辑好,可以直接调用的,这便是所谓的人工智能框架。

近几年人工智能非常热门,许多大公司都开拓了自己的框架。
目前较盛行的框架有谷歌开拓的TensorFlow,以及Facebook开拓的PYTORCH。

然而,在别人的框架下进行编程,自然而然受制于人。
因此,中国也在开拓自己的人工智能框架。
你们知道中国自己的框架有哪些吗?(沉默)看来中国自己的框架还不太盛行,以是理解的人比较少。
华为设计了一个框架叫MindSpore,百度设计了一个框架叫Paddle Paddle(飞桨),希望有更多的人利用我们自己的框架进行人工智能程序编辑,由于利用人数越多,它才越好用。

有一次我和阿里的算法工程师谈天,他们卖力做数据库。
这位工程师就说,如果数据库不出任何问题,那就非常随意马虎实现,之以是难做,是由于它总出问题,就看你怎么去办理问题。
利用的韶光越长,问题就越少,数据库就越成熟。
同样的道理,无论是什么框架,好坏并不主要,关键是我们的职员是否利用。
只有利用的人越多,才越能办理问题,一个框架的生态才能越成熟。

再来说数据,巧妇难为无米之炊,无论算法多么精良,如果没有积极投喂数据,比如通过大量图片、文本进行演习,机器就完备无法产生认知。

拥有数据是人工智能非常主要的一个环节。

大家可能不知道,实在我们每个人都为人工智能投喂过数据。
比如常见的点击图片验证码,你可能认为这是为了验证我是否是一个人类。
实际上,这是将数据投喂给打算机进行演习的免费路子。
演习数据非常昂贵,ChatGPT花了上百亿美元进行演习。

由于须要购买大量的CPU、GPU、数据、电力,这些都非常昂贵。

前段韶光我和微软的人谈天,他提到谷歌正在推出自己的AI大模型,但无法追上ChatGPT。
缘故原由是在ChatGPT开放的那段韶光,全天下的人都在用它,供应了大量数据进行演习,以是它已经遥遥领先于微软和谷歌。
如果谷歌再开拓一套模型,没有人去用,自然就无法再崛起。

因此,人工智能的特点在于利用的人越多,就越智能,如果没有人利用,纵然算法再精良,也无法实现智能。

人工智能的其余一个主要根本是算力。
人工智能领域所须要的打算难度不大,便是小学打算,加法、乘法。
虽然说每个打算不难,但是涉及到数据特殊多,打算量非常大。
是否该当用CPU处理呢?CPU的特点是什么都能算,就像一个博士;另一种芯片是GPU,它就像1万名小学生,只会算加法和乘法,但数量巨大。
以是当我们面对人工智能的算力哀求时,利用GPU会更得当。

天下上做GPU做得最好的公司是哪家?英伟达。
没想到,随着人工智能时期的来临,英伟达溘然变得很厉害,真正成为这个时期的弄潮儿。
实在现在还有一些新的,比如华为正在做NPU,也便是神经网络处理器,专门用来设计人工智能和神经网络,它的详细效果怎么样,我们拭目以待。

小结

人工智能是一种通用技能,能够让打算机完成许多繁重事情,极大地解放生产力。
AI也是一种根技能,它能够衍生并支撑多个技能簇,持续地滋养和刺激全体技能簇的发展。

在历史上发生过几次工业革命,每一次工业革命都会有技能打破。

比如第一次工业革命是牛顿力学、经典热力学取得了打破,瓦特就改良了蒸汽机,把人类带入蒸汽时期。
第二次工业革命发生在19世纪末和20世纪初,法拉第发明了发电机,人类进入电气时期,美国成为天下第一强国;20世纪中叶,由于电子技能和打算机技能的发展,人类迅速进入了电子时期,这便是第三次工业革命,使日本成为天下第二发达的国家。

因此,英国、美国和日本实际上都是通过工业革命成为天下一流强国的。

虽然中国在前三次工业革命中没有遇上,但现在,天下正处于以互联网、人工智能、新材料和生物技能等为代表的第四次工业革命中,这一次,我们希望中国人不要缺席,同时也希望我们的民族企业能这些方面发力。
这就要拜托在座的企业家和小朋友们一起努力。
好,本日我就讲到这里,感激!

Q&A环节

不雅观众:如果当人工智能发展到一定程度,它取代了大量重复性、较低真个事情,那个时候会不会首先造成大家的失落业?当失落业发生的时候,对付社会发展是积极还是悲观的影响?

李永乐:这个问题当然都是有两面回答的,有很多人持悲观见地,认为人工智能究竟有一天会替代人。
马斯克就说过这样的话,碳基生命只不过是硅基生命的一道程序,当有一天我们人类不存在时,人工智能替代人类连续生存下去。

当然也有一些人持有乐不雅观的意见。
他们就认为,人工智能只是一个工具,它虽然可以消灭很多行业,但是也会创造很多新的行业。
就像现在互联网发达之后,很多行业消逝了。
但是外卖、网约车等行业都是新兴的,这样一来,很多人都会涌入新的行业。
这是一种比较积极乐不雅观的理解。

我个人相折半衷。
有悲观的感情,由于人工智能究竟会超过人类,这是100%确定的。
但是在人工智能超过人类,把人类毁灭之前,那些掌握人工智能的人,可能就已经把天下毁灭了。

我以为更要戒备的是一家公司,或者一个人利用人工智能,把全体天下毁灭,这比人工智能本身更恐怖。
在乐不雅观方面来讲,它一定会创造出很多新的行业,不会让所有人都失落业,我个人以为短韶光内,还会持续过去的情形。

不雅观众:您以为人工智能是须要较少量、但是本色比较高、履历比较丰富的人才;还是须要大量的节制一样平常专业技能的人才?全体行业的职员原谅量有多大?

李永乐:这个问题真的是看不太准,你说人工智能的行业到底须要多少人才?这涉及一个问题,如果须要大量的人才,我们就可以在高考时报考?如果职员很随意马虎饱和,我们就不能报考了,回答这个问题任务很重大。

我个人以为,人工智能还是须要很多人才,就像20年之前,打算机是一个风口,现在打算机饱和了吗?实际上到现在也没有饱和。

我以为人工智能是未来20年景长的新方向,它有很多细分领域,我们不一定都要去编打算机程序,也可以去研究算法、芯片、数据等等层面,乃至可以研究运用,比如说利用人工智能来赞助医疗诊断,这都是须要人才的。
我认为这个行业很大,一定可以容纳很多很多的人,学好数学,或者学年夜大好人工智能,对我们的未来很有帮助,不用太担心人才容量的问题。

不雅观众:您刚才演讲当中谈了很多生态的主要性,以及先发上风在人工智能领域特殊主要,我们看到从AlphaGO到ChatGPT,西方的公司在生态上非常强,在产品设计上非常强,我们在这个方面该当怎么做?您怎么看待这个问题?

李永乐:我的意见是,西方很多公司干工作比较持续。
他们做一件事可能真的持续好多年,比如说波士顿机器人公司,持续40年去做一个机器人,就为这一件事,就可以把事情做得比较好。
OpenAI也是,可以持续7-8年就做一件事情,可以做良久。

但是我们的公司是不是变革太快,总是去抢风口。
这个风口来了,我们做这件事,另一个风口来了,我们做那件事,变来变去,可能每件事都没有做好。

是不是我们的企业该当想一想,尤其是一些特殊大的企业,确实该当用较永劫光去深耕一个东西,这样才有可能一鸣惊人。
如果一直地去随着别人抢风口,可能临时会赚一桶金,但永久随着别人走,是没有办法产生先发上风的。

本文系不雅观察者网独家稿件,文章内容纯属作者个人不雅观点,不代表平台不雅观点,未经授权,不得转载,否则将深究法律任务。
关注不雅观察者网微信guanchacn,逐日阅读意见意义文章。

本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/bx/132139.html

XML地图 | 自定链接

Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码

声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com