学术论文百科

论文数据标准化处理软件有哪些优点和缺点

发布时间:2024-06-30 19:16:56

论文数据标准化处理软件有哪些优点和缺点

虽然数据分析的工具千万种,综合起来万变不离其宗。无非是数据获取、数据存储、数据管理、数据计算、数据分析、数据展示等几个方面。而SAS、R、SPSS、python、excel是被提到频率最高的数据分析工具。PythonPython,是一种面向对象、解释型计算机程序设计语言。Python语法简洁而清晰,具有丰富和强大的类库。它常被昵称为胶水语言,能够把用其他语言制作的各种模块(尤其是C/C++)很轻松地联结在一起。常见的一种应用情形是,使用Python快速生成程序的原型(有时甚至是程序的最终界面),然后对其中有特别要求的部分,用更合适的语言改写,比如3D游戏中的图形渲染模块,性能要求特别高,就可以用C/C++重写,而后封装为Python可以调用的扩展类库。需要注意的是在您使用扩展类库时可能需要考虑平台问题,某些可能不提供跨平台的实现。R软件R是一套完整的数据处理、计算和制图软件系统。它可以提供一些集成的统计工具,但更大量的是它提供各种数学计算、统计计算的函数,从而使使用者能灵活机动的进行数据分析,甚至创造出符合需要的新的统计计算方法。SPSSSPSS是世界上最早的统计分析软件,具有完整的数据输入、编辑、统计分析、报表、图形制作等功能,能够读取及输出多种格式的文件。Excel 可以进行各种数据的处理、统计分析和辅助决策操作,广泛地应用于管理、统计财经、金融等众多领域。SAS软件SAS把数据存取、管理、分析和展现有机地融为一体。提供了从基本统计数的计算到各种试验设计的方差分析,相关回归分析以及多变数分析的多种统计分析过程,几乎囊括了所有最新分析方法,其分析技术先进,可靠。分析方法的实现通过过程调用完成。许多过程同时提供了多种算法和选项。

可以用excel、ppt,当然还有数据可视化平台,目前新型高大上的方式,炫酷的图表让人眼前一亮。我一直用迪赛智慧数,也是用过很多品牌后筛选出来的,现在算得上是铁粉一枚。可视化组件多达130多个,满足不同数据需求,还有3D可视化,炫酷无限。

数据统计分析软件是绝大部分学科研究者必须掌握的工具。下表中列出了学习和研究过程中对于几种主流数据分析和统计软件的优缺点总结体会,其中一些运用较自如,有的还属“没吃过猪肉,只见猪跑路”阶段。 软件名优势缺点常见应用领域定位与前景Matlab功能全面;算法工具箱;统计图形;需编程基础;统计学功能不完善;工科;自然科学;数值计算老大,或能一统江湖SPSS易用;统计学功能全面;版本功能升级快;不灵活;运行效率不高;社会科学;统计学入门级软件SAS统计学功能强大;大样本分析;需编程; 社会科学;统计学;理科;进阶的统计学软件Stata易用;类似于SPSS; 数学;自然科学; Excel极其易用;统计图形;运行效率低;样本量限制;统计学功能不完善;商务运用更多小样本数据初步分析R免费;统计图形;统计学功能; 数学;统计学;经济学; Origin优秀的统计图形;版本功能升级快;统计学功能不完善; 统计图形绘制老大,或能一统江湖注:(1)空白不代表没有,只是不知该怎么描述。(2)Origin实际上并不完全算是统计分析软件,其统计功能正在不断增添中,但已经很多研究者直接使用其作为统计分析工具。 以上仅是个人肤浅体会,望斧正、补充。一点建议是,研究不应为工具所累。纯熟一种,熟悉两种,知道三种即可。灵活运用,相互补充。以研究问题选择工具,而不是工具或方法导向式进行研究。也不建议耗费过多时间专门学习工具,而应以研究题目为驱动,实践中掌握,熟能生巧。精习一种软件后,自当触类旁通。掌握学习方法后,定会无师自通。分析化学 仪器分析 红外光谱

EXCEL:最常见的数据分析软件,会的人比较多,功能也比较齐全,操作比较简单,可以分析,可以制图(图表类型也不少)等等,不过一旦数据量大了,EXCEL比较卡,确实有点浪费时间。SPSS:可以分析数据,可以做一些数据模型,但需要企业人员有一定的数据和统计基础,上手相对难些,用好了很不错。BDP个人版:有数据接入、数据处理、可视化分析等功能,操作简单,功能也比较齐全,数据图表效果也很好,主要数据可以实时更新,节省了很多重复分析的工作。不过BDP免费版接入的数据容量有限,这也是一个问题,除非要花费买容量咯。可以根据这些特点,选择适合企业的~

论文数据标准化处理软件有哪些优点与缺点

数据统计分析软件是绝大部分学科研究者必须掌握的工具。下表中列出了学习和研究过程中对于几种主流数据分析和统计软件的优缺点总结体会,其中一些运用较自如,有的还属“没吃过猪肉,只见猪跑路”阶段。 软件名优势缺点常见应用领域定位与前景Matlab功能全面;算法工具箱;统计图形;需编程基础;统计学功能不完善;工科;自然科学;数值计算老大,或能一统江湖SPSS易用;统计学功能全面;版本功能升级快;不灵活;运行效率不高;社会科学;统计学入门级软件SAS统计学功能强大;大样本分析;需编程; 社会科学;统计学;理科;进阶的统计学软件Stata易用;类似于SPSS; 数学;自然科学; Excel极其易用;统计图形;运行效率低;样本量限制;统计学功能不完善;商务运用更多小样本数据初步分析R免费;统计图形;统计学功能; 数学;统计学;经济学; Origin优秀的统计图形;版本功能升级快;统计学功能不完善; 统计图形绘制老大,或能一统江湖注:(1)空白不代表没有,只是不知该怎么描述。(2)Origin实际上并不完全算是统计分析软件,其统计功能正在不断增添中,但已经很多研究者直接使用其作为统计分析工具。 以上仅是个人肤浅体会,望斧正、补充。一点建议是,研究不应为工具所累。纯熟一种,熟悉两种,知道三种即可。灵活运用,相互补充。以研究问题选择工具,而不是工具或方法导向式进行研究。也不建议耗费过多时间专门学习工具,而应以研究题目为驱动,实践中掌握,熟能生巧。精习一种软件后,自当触类旁通。掌握学习方法后,定会无师自通。分析化学 仪器分析 红外光谱

早期的数据库管理都是采用文件系统。在文件系统中,数据按其内容、结构和用途组成若干命名的文件。文件一般为某个用户或用户组所有,但可供其他用户共享。用户可以通过操作系统对文件进行打开、读、写和关闭等操作。 文件系统有明显的缺点: (1)编写应用程序很不方便。 应用程序的设计者必须对所用的文件的逻辑及物理结构有清楚的了解。操作系统 只能打开、关 闭、读、写等几个低级的文件操作命令,对文件的查询修改等处理都须在应用程序内解决。应用程序还 不可避免地在功能上有所重复。在文件系统上编写应用程序的效率不高。 (2)文件的设计很难满足多种应用程序的不同要求,数据冗余经常是不可避免的。 为了兼顾各种应用程序的要求,在设计文件系统时,往往不得不增加冗余的数据。数据冗余不仅浪费空间,而且会带来数据的不一致性(inconsistency)在文件系统中没有维护数据一致性的监控机制,数据的一致性完全有用户负责维护。在简单的系统中勉强能应付,但在大型复杂的系统中几乎是不可能完成的。 (3)文件结构的修改将导致应用程序的修改,应用程序的维护量将很大。 (4)文件系统不支持对文件的并发访问(concurrent access)。 (5)数据缺少统一管理,在数据的结构、编码、表示格式、命名以及输出格式等方面不容易做到规范化、标准化;数据安全和保密方面,也难以采取有效的办法。 针对文件系统的缺点,人们发展了以统一管理和共享数据为主要特征的数据库系统。在数据库系统中,数据不再仅仅服务于某个程序或用户,而是看成一个单位的共享资源,由一个叫数据库管理系统(Data Management System,简称DBMS)的软件统一管理。由于有DBMS的统一管理,应用程序不必直接介入诸如打开、关闭、读写文件等低级的操作,而由DBMS代办。用户也不必关系数据存储和其他实现的细节,可在更高的抽象级别上观察和访问数据。文件结构的一些修改也可以由DBMS屏蔽,使用户看不到这些修改,从而减少应用程序的维护工作量,提高数据的独立性。由于数据的统一管理,人们可以从全单位着眼,合理组织数据,减少数据冗余;还可以更好地贯彻规范化和标准化,从而有利于数据的转移和更大范围的共享。由于DBMS不是为某个应用程序服务,而是为整个单位服务的,DBMS做得复杂一些也是可以接受的。许多在文件系统中难以实现的动能,在DBMS中都一一实现了。 例如:适合不同类型用户的多种用户界面,保证并发访问时的数据一致性的并发控制(concurrent control),增进数据安全性(security)的访问控制(access control),在故障的情况下保证数据一致性的恢复(recovery)功能,保证数据在语义上的一致性的完整性约束(integrity constraints)检查功能等。随着计算机应用的发展,DBMS的功能愈来愈强,规模愈来愈大,复杂性和开销也随之增加。目前,在一些功能非常明确且无数据共享的简单应用系统中,为减少开销,提高性能,有时仍采用文件系统;不过在数据密集型应用系统中,基本上都使用数据库系统。 现代的数据库管理系统应该具备的7个功能:1、提供高级的用户接口2、查询处理和优化 这里的查询(query)泛指用户对数据库所提的访问要求,不但包含数据检索,也包括修改/定义新数据等3、数据目录管理4、并发控制5、恢复功能6、完整性约束检查7、访问控制 数据管理和数据处理一样,都是计算机系统的最基本的支撑技术。尽管计算机科学技术经历了飞速的发展,但数据管理的这一地位没有变化。数据管理将作为计算机科学技术的一个重要分支一直发展下去,社会信息化,对数据管理的要求也愈高。

可以用excel、ppt,当然还有数据可视化平台,目前新型高大上的方式,炫酷的图表让人眼前一亮。我一直用迪赛智慧数,也是用过很多品牌后筛选出来的,现在算得上是铁粉一枚。可视化组件多达130多个,满足不同数据需求,还有3D可视化,炫酷无限。

论文数据标准化处理方法有哪些优点和缺点

一、直线型无量纲化方法:又包括阀值法、指数法、标准化方法、比重法。二、折线型无量纲化方法:凸折线型法、凹折线型法、三折线型法。三、曲线型无量纲化方法 。目前常见的无量纲化处理方法主要有极值化、标准化、均值化以及标准差化方法,而最常使用的是标准化方法。但标准化方法处理后的各指标均值都为0,标准差都为1,它只反映了各指标之间的相互影响,在无量纲化的同时也抹杀了各指标之间变异程度上的差异,因此,标准化方法并不适用于多指标的综合评价中。而经过均值化方法处理的各指标数据构成的协方差矩阵既可以反映原始数据中各指标变异程度上的差异,也包含各指标相互影响程度差异的信息。四、数据标准化的方法: 1、对变量的离差标准化离差标准化是将某变量中的观察值减去该变量的最小值,然后除以该变量的极差。即 x’ik=[xik -Min (xk)]/Rk 经过离差标准化后,各种变量的观察值的数值范围都将在〔0,1〕之间,并且经标准化的数据都是没有单位的纯数量。离差标准化是消除量纲(单位)影响和变异大小因素的影响的最简单的方法。 有一些关系系数(例如绝对值指数尺度)在定义时就已经要求对数据进行离差标准化,但有些关系系数的计算公式却没有这样要求,当选用这类关系系数前,不妨先对数据进行标准化,看看分析的结果是否为有意义的变化。 2,对变量的标准差标准化标准差标准化是将某变量中的观察值减去该变量的平均数,然后除以该变量的标准差。即 x’ik = (xik - )/sk 经过标准差标准化后,各变量将有约一半观察值的数值小于0,另一半观察值的数值大于0,变量的平均数为0,标准差为1。经标准化的数据都是没有单位的纯数量。对变量进行的标准差标准化可以消除量纲(单位)影响和变量自身变异的影响。但有人认为经过这种标准化后,原来数值较大的的观察值对分类结果的影响仍然占明显的优势,应该进一步消除大小因子的影响。尽管如此,它还是当前用得最多的数据标准化方法。 3,先对事例进行标准差标准化,再对变量进行标准差标准化第一步,先对事例进行标准差标准化,即将某事例中的观察值减去该事例的平均数,然后除以该事例的标准差。即 x’ik = (xik - )/si 第二步,再对变量进行标准差标准化,即将某变量中的观察值减去该变量的平均数,然后除以该变量的标准差。即 x’’ik = (x’ik - ’k)/s’k 使用这种标准化的目的也在于消除性状间的量纲(单位)影响和变异大小因子的影响,使性状间具有可比性。 4,先对变量、后对事例、再对变量的标准差标准化这种标准化的目的也在于消除性状间的量纲(单位)影响和变异大小因子的影响,使性状间具有可比性。具体做法是:第一步,先对变量进行标准差标准化,即将某变量中的观察值减去该变量的平均数,然后除以该变量的标准差。即 x’ik = (xik - )/sk 第二步,后对事例进行标准差标准化,即将某事例中的观察值减去该事例的平均数,然后除以该事例的标准差。即 x’’ik = (x’ik - ’i)/s’i 第三步,再对变量进行标准差标准化,即将某变量中的观察值减去该变量的平均数,然后除以该变量的标准差。即 x’’’ik = (x’’ik - ’’k)/s’’k 进行了前两步之后,还要进行第三步的原因,主要是为了计算的方便。

优点第一,能用以研究不可能或不容易接近的研究对象。第二,文献的坦白程度高,真实性强。第三,文献研究过程简便易行且费用低。第四,研究结果可靠性大。缺点:(1)文献本身存在较多的不完善性,这主要表现在:第一,在许多用于教育研究的文献中,作者往往出于特殊目的和意图而夸大或掩盖了部分事实,使文献记载偏差。第二,选择性存留和破损。文献的保存常具有选择性,有些人如名人写的文献可以得到维护,而有些人写的文献则常常不易留存,因此现存的文献未必就是活动现象的全部。再加之文献由于是用纸张书写的,它们常常会有破损。第三,信息不完全许多尤其是日记、信件等个人文献,不是为研究目的而是为私人目的而写的,包含有一些研究者所不熟悉的关于某些事件的知识,这对于缺乏经验或缺乏有关事件知识的研究者来说,信息是不完全的。第四,限于言语行为,即文献提供的仅是关于一个回答者的言语行为,而不提供关于回答者非言语行为的直接信息。(2)文献收集困难。文献由于具有记载偏差、信息不完全和选择性存留、破损等局限,致使文献的收集存在困难。并且在许多情况下一些客观事件根本无信息记录,无文献可资利用。除此之外,许多文献由于种种原因而不能公开,难于收集。(3)抽样缺乏代表性。并不是所有人都能留下描述生活、思想、感情的文献资料,有些人的生活、思想、感情容易以文献资料留下来,而有些人的则很难,因此文献所反映的往往只是优势群体的生活、感情和思想观念,而很少反映劣势群体的生活、感情和思想观念,这实际上是一种抽样偏差,缺乏代表性。(4)文献的整理和编码困难。各种文献由于撰写目的不同,研究对象各异,内容千差万别,又缺乏标准化的形式,因而文献资料的分类整理和对比都十分困难。此外,文献一般是用文字而不是用数字记载的,难以使之数量化。

文献研究法主要指搜集、鉴别、整理文献,并通过对文献的研究,形成对事实科学认识的方法。内容分析法通过对文献的定量分析,统计描述来实现对事实的科学认识。这两种方法有共同的对象,都不与文献中记载的人与事直接接触,因此,又称为非接触性研究方法。二者的区别是在分析的重点与分析的手段上有不同。优点:1省时、省钱、省力。2适用于比较研究和趋势研究。缺点资料的准确信和适用性不足,效度较低。

文献研究法主要指搜集、鉴别、整理文献,并通过对文献的研究,形成对事实科学认识的方法。内容分析法通过对文献的定量分析,统计描述来实现对事实的科学认识。这两种方法有共同的对象,都不与文献中记载的人与事直接接触,因此,又称为非接触性研究方法。二者的区别是在分析的重点与分析的手段上有不同。1.文献研究的优点(1)无反应性。文献研究不会打扰研究对象,也不会对这些研究对象发生影响。(2)费用低,省钱省时。尽管进行一项文献分析,的费用会依所分析的文献的类型、文献散布的广度、获取文献方式的难易程度等方面的差别而有所不同,但是,一般来说,它比进行一项大规模调查、一项严格的实验、或一项深入的实地研究所需要的费用要少得多。(3)可以研究那些无法接触的研究对象。(4)适于作纵贯分析。由于调查、实验、观察等方法所研究的都是现时的情景,因而往往难于用来进行纵贯研究或趋势研究。文献研究在这方面则有着它特别的优势。随着时间的流逝,各个不同历史时期的社会现象和社会生活,或多或少总会以各种不同的文献形式记录和描述下来。(5)保险系数相对比较大。在内容分析中,弥补过失比起其他研究来就容易得多。你只需要对你所用的资料重新进行编码或进行统计处理,而不用一切都从头开始。2.文献研究的缺点(1)许多文献的质量往往难以保证。无论是个人的日记、信件,还是报纸上的各种报道文章直至官方的统计资料,都常常隐含着由个人的偏见、作者的主观意图以及形成文献过程中的客观限制所形成的各种偏误,从而影响到文献资料的准确性、全面性和客观性,影响到文献资料的质量。(2)有的资料是不易获得的。由于许多文献都不是公开的和可以随意获得的,因此对于某些特定的社会研究来说,往往很难得到足够的文献资料。(3)许多文献资料由于缺乏标准化的形式,因而难于编码和分析。(4)效度和信度存在一定的问题。

论文数据标准化处理工具有哪些优点和缺点

比较流行的有以下几种最基础的excel:操作简单,易学习,数据量较小时,很方便使用spss:内置很多现成的分析工具,不会代码都可以直接套用其中的数据分析模式,能数据的数据量也大幅度提升,得出的结论报告也很专业; 缺点的话,不太好定制分析模型sas和R语言:需要一定的代码基础,网上都有开源的代码包,可以拿来使用,入门门槛相对就高了最后说下,根据你需要处理的数据量和分析方式,选择适合自己的软件来分析希望对你有帮助吧

大数据分析工具有很多,例如:1、思迈特软件Smartbi产品特点:从最终用户角度:管理层:KPI监控、风险预警、绩效考核、大屏展示,移动分析,实现经营管理主题(财务、销售、人事、绩效等)的直观监控,为经营管理提供决策支持,2、分析人员:拖拽式的自助分析、一键生成月季年等周期性分析报告、快速获取数据,3、一线员工:报表浏览、移动端数据浏览、数据采集上报。2、apidMiner功能和特点:免费提供数据挖掘技术和库,100%用Java代码(可运行在操作系统),数据挖掘过程简单,强大和直观,内部XML保证了标准化的格式来表示交换数据挖掘过程。3、Apache Drill为了帮助企业用户寻找更为有效、加快Hadoop数据查询的方法,Apache软件基金会近日发起了一项名为“Drill”的开源项目。Apache Drill 实现了 Google's D数据分析有没有用,来试试Smartbi就知道了,Smartbi产品功能设计全面,涵盖数据提取、数据管理、数据分析、数据共享四个环节,帮助客户从数据的角度描述业务现状,分析业务原因,预测业务趋势,推动业务变革。

数据分析再怎么说也是一个专业的领域,没有数学、统计学、数据库这些知识的支撑,对于我们这些市场、业务的人员来说,难度真的不是一点点。从国外一线大牌到国内宣传造势强大的品牌,我们基本试用了一个遍,总结一句话“人人都是数据分析师”这个坑实在太大,所有的数据分析工具无论宣传怎样,都有一定的学习成本,尤其是要深入业务实际。今天就我们用过的几款工具简单总结一下,与大家分享。1、Tableau这个号称敏捷BI的扛把子,魔力象限常年位于领导者象限,界面清爽、功能确实很强大,实至名归。将数据拖入相关区域,自动出图,图形展示丰富,交互性较好。图形自定义功能强大,各种图形参数配置、自定义设置可以灵活设置,具备较强的数据处理和计算能力,可视化分析、交互式分析体验良好。确实是一款功能强大、全面的数据可视化分析工具。新版本也集成了很多高级分析功能,分析更强大。但是基于图表、仪表板、故事报告的逻辑,完成一个复杂的业务汇报,大量的图表、仪表板组合很费事。给领导汇报的PPT需要先一个个截图,然后再放到PPT里面。作为一个数据分析工具是合格的,但是在企业级这种应用汇报中有点局限。2、PowerBIPowerBI是盖茨大佬推出的工具,我们也兴奋的开始试用,确实完全不同于Tableau的操作逻辑,更符合我们普通数据分析小白的需求,操作和Excel、PPT类似,功能模块划分清晰,上手真的超级快,图形丰富度和灵活性也是很不错。但是说实话,毕竟刚推出,系统BUG很多,可视化分析的功能也比较简单。虽然有很多复杂的数据处理功能,但是那是需要有对Excel函数深入理解应用的基础的,所以要支持复杂的业务分析还需要一定基础。不过版本更新倒是很快,可以等等新版本。3、Qlik和Tableau齐名的数据可视化分析工具,QlikView在业界也享有很高的声誉。不过Qlik Seanse产品系列才在大陆市场有比较大的推广和应用。真的是一股清流,界面简洁、流程清晰、操作简单,交互性较好,真的是一款简单易用的BI工具。但是不支持深度的数据分析,图形计算和深度计算功能缺失,不能满足复杂的业务分析需求。最后将视线聚焦国内,目前搜索排名和市场宣传比较好的也很多,永洪BI、帆软BI、BDP等。不过经过个人感觉整体宣传大于实际。4、永洪BI永洪BI功能方面应该是相对比较完善的,也是拖拽出图,有点类似Tableau的逻辑,不过功能与Tableau相比还是差的不是一点半点,但是操作难度居然比Tableau还难。预定义的分析功能比较丰富,图表功能和灵活性较大,但是操作的友好性不足。宣传拥有高级分析的数据挖掘功能,后来发现就集成了开源的几个算法,功能非常简单。而操作过程中大量的弹出框、难以理解含义的配置项,真的让人很晕。一个简单的堆积柱图,就研究了好久,看帮助、看视频才搞定。哎,只感叹功能藏得太深,不想给人用啊。5、帆软BI再说号称FBI的帆软BI,帆软报表很多国人都很熟悉,功能确实很不错,但是BI工具就真的一般般了。只能简单出图,配合报表工具使用,能让页面更好看,但是比起其他的可视化分析、BI工具,功能还是比较简单,分析的能力不足,功能还是比较简单。帆软名气确实很大,号称行业第一,但是主要在报表层面,而数据可视化分析方面就比较欠缺了。6、Tempo另一款工具,全名叫“Tempo大数据分析平台”,宣传比较少,2017年Gartner报告发布后无意中看到的。是一款BS的工具,申请试用也是费尽了波折啊,永洪是不想让人用,他直接不想卖的节奏。第一次试用也是一脸懵逼,不知道该点那!不过抱着破罐子破摔的心态稍微点了几下之后,操作居然越来越流畅。也是拖拽式操作,数据可视化效果比较丰富,支持很多便捷计算,能满足常用的业务分析。最最惊喜的是它还支持可视化报告导出PPT,彻底解决了分析结果输出的问题。深入了解后,才发现他们的核心居然是“数据挖掘”,算法十分丰富,也是拖拽式操作,我一个文科的分析小白,居然跟着指导和说明做出了一个数据预测的挖掘流,简直不要太惊喜。掌握了Tempo的基本操作逻辑后,居然发现他的易用性真的很不错,功能完整性和丰富性也很好。不过没有宣传也是有原因的,系统整体配套的介绍、操作说明的完善性上还有待提升。

论文数据标准化处理软件有哪些优点和不足

文件系统是独立性差,记录内有结构,整体无结构,共享性茶,冗余度大,数据库系统高度的物理独立性和一定的逻辑独立性,整体结构化,用数据模型描述文件系统由应用程序自己控制,而已数据库由dbms提供数据安全性,完整性,并发控制,和恢复功能。对查询的内容专门开辟了算法加以索引,很专门的一个系统,所以可能在查询效率上会比数据库系统好一些吧。

比较流行的有以下几种最基础的excel:操作简单,易学习,数据量较小时,很方便使用spss:内置很多现成的分析工具,不会代码都可以直接套用其中的数据分析模式,能数据的数据量也大幅度提升,得出的结论报告也很专业; 缺点的话,不太好定制分析模型sas和R语言:需要一定的代码基础,网上都有开源的代码包,可以拿来使用,入门门槛相对就高了最后说下,根据你需要处理的数据量和分析方式,选择适合自己的软件来分析希望对你有帮助吧

相关百科
热门百科
首页
发表服务