2021-11-09 18:11:39

数据管理 免费编辑 添加义项名

B 添加义项
?
义项指多义词的不同概念,如李娜的义项:网球运动员、歌手等;非诚勿扰的义项:冯小刚执导电影、江苏卫视交友节目等。 查看详细规范>>
所属类别 :
软件
软件
编辑分类

数据管理 是利用计算机硬件和软件技术对数据进行有效的收集存储处理应用的过程。其目的在于充分有效地发挥数据的作用。

实现数据有效管理的关键是数据组织。随着计算机技术的发展,数据管理经历了人工管理、文件系统数据库系统三个发展阶段。

基本信息

  • 中文名

    数据管理

  • 外文名

    data management

  • 数据管理

    是收集、存储、处理和应用的过程

折叠 编辑本段 定义

数据管理[1]​数是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程。其目的在于充分有效地发挥数据的作用。实现数据有效管理的关键是数据组织。随着计算机技术的发展,数据管理经历了人工管理、文件系统、数据库系统三个发展阶段。在数据库系统中所建立的数据结构,更充分地描述了数据间的内在联系,便于数据修改、更新与扩充,同时保证了数据的独立性、可靠、安全性与完整性,减少了数据冗余,故提高了数据共享程度及数据管理效率。

折叠 编辑本段 管理阶段

折叠 人工管理阶段

20世纪50年代中期以前,计算机主要用于科学计算,这一阶段数据管理的主要特征是:

(1)不能长期保存数据。在20世纪50年代中期之前,计算机一般在关于信息的研究机构里才能拥有,当时由于存储设备(纸带磁带)的容量空间有限,都是在做实验的时候暂存实验数据,做完实验就把数据结果打在纸带上或者磁带上带走,所以一般不需要将数据长期保存。

(2)数据并不是由专门的应用软件来管理,而是由使用数据的应用程序自己来管理。作为程序员,在编写软件时既要设计程序逻辑结构,又要设计物理结构以及数据的存取方式。

(3)数据不能共享。在人工管理阶段,可以说数据是面向应用程序的,由于每一个应用程序都是独立的,一组数据只能对应一个程序,即使要使用的数据已经在其他程序中存在,但是程序间的数据是不能共享的,因此程序与程序之间有大量的数据冗余。

(4)数据不具有独立性。应用程序中只要发生改变,数据的逻辑结构或物理结构就相应的发生变化,因而程序员要修改程序就必须都要做出相应的修改,给程序员的工作带来了很多负担。

折叠 文件系统阶段

20世纪50年代后期到60年代中期,计算机开始应用于数据管理方面。此时,计算机的存储设备也不再是磁带和卡片了,硬件方面已经有了磁盘、磁鼓等可以直接存取的存储设备了。软件方面,操作系统中已经有了专门的数据管理软件,一般称为文件系统,文件系统一般由三部分组成:与文件管理有关的软件、被管理的文件以及实施文件管理所需的数据结构。文件系统阶段存储数据就是以文件的形式来存储,由操作系统统一管理。文件系统阶段也是数据库发展的初级阶段,使用文件系统存储、管理数据具有以下4个特点:

(1)数据可以长期保存。有了大容量的磁盘作为存储设备,计算机开始被用来处理大量的数据并存储数据。

(2)有简单的数据管理功能。文件的逻辑结构和物理结构脱钩,程序和数据分离,是数据和程序有了一定的独立性,减少了程序员的工作量。

(3)数据共享能力差。由于每一个文件都是独立的,当需要用到相同的数据时,必须建立各自的文件,数据还是无法共享,也会造成大量的数据冗余。

(4)数据不具有独立性。在此阶段数据仍然不具有独立性,当数据的结构发生变化时,也必须修改应用程序,修改文件的结构定义;而应用程序的改变也将改变数据的结构。

折叠 数据库系统阶段

20世纪60年代后期以来,计算机管理的对象规模越来越大,应用范围又越来越广泛,数据量急剧增长,同时多种应用、多种语言互相覆盖地共享数据集合的要求越来越强烈,数据库技术便应运而生,出现了统一管理数据的专门软件系统--数据库管理系统。

用数据库系统来管理数据比文件系统具有明显的优点,从文件系统到数据库系统,标志着数据库管理技术的飞跃。

折叠 编辑本段 面向应用

前面讲到数据管理经历了人工管理、文件管理、数据库管理等三个阶段,主要是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程。随着信息技术的进步,管理信息系统将面向大规模的组织提供业务支持,不仅要覆盖整个组织的各类业务,而且要覆盖整个组织(全球或者全国)。为此,作为管理信息系统的核心功能,数据管理将要进入一个新的阶段,即面向数据应用的数据管理。

折叠 面向数据应用的数据管理概念

数据管理,即对数据资源的管理。按照en:DAMA的定义:"数据资源管理,致力于发展处理企业数据生命周期的适当的建构、策略、实践和程序"。这是一个高层而包含广泛的定义,而并不一定直接涉及数据管理的具体操作(摘自维基百科)。与百度百科的定义比较,百度百科的定义针对的是数据应用过程中数据的管理,即传统的数据管理,而维基百科的定义更高一层,针对的是企业数据全生命周期所涉及应用过程数据的管理,即对数据变化的管理,或者说是针对描述数据的数据(元数据)的管理,在此我们称之为面向应用的数据管理

根据管理学理论,几个人的团队可以靠自觉、自律,几十个人就要有人管理,几百个人就要有一个团队管理,几千或几万人就必须要依靠计算机辅助团队管理。通常覆盖全国的企业和机构,其整个组织的管理分为总部机构、省级机构、市级机构、以及基层机构等等各层级机构;在每个层级机构中还设置了直接从事相应业务的管理和职能部门和非直接从事业务的管理和职能部门(如人事、办公、后勤、审计等);每个部门又是由若干员工为管理对象构成的。同时,还制定了一系列的制度去规范和约束机构、部门、人员等管理对象的活动、行为等。

同样,数据管理随着管理对象--数据的增加,管理的方式(阶段)也会随之提升。通常的大型管理信息系统,其整个项目分为总集成、分项目、子项目、每个子项目又有若干内部项目组等等管理层级;在每个管理层级中都涉及直接服务于业务的业务功能(如业务交易、账务处理、行政管理、结果展现等等)和非直接服务于业务的非业务功能(如定义、配置、监控、分析、记录、调度等等);每个业务和非业务性质的功能又分别由若干数据集合为对象(如流程、表单、数据项、算法、元数据、日志等等)所构成的。同时,也需要制定一系列制度、规则和标准去约束项目、功能、数据等管理对象的活动和变化。

由此可见,传统的数据管理侧重的数据对象是流程、表单、数据项、算法等直接面向具体业务需求的数据;面向应用的数据管理所涉及的数据对象,还增加了通过标准化的手段,描述流程、表单、数据项、算法等应用对象的数据(即它们对应的元数据),以及记录各类数据变化结果的档案、记录运行状态的日志等等非直接面向业务的数据,以实现对各类应用业务需求的加载、变化、记录、复用等过程的管理。见下图数据空间示意图数据空间示意图

折叠 面向数据应用的数据管理对象

面向数据应用的数据管理对象。面向数据应用的数据管理所管理的数据对象,主要是那些描述构成应用系统构件属性的元数据,这些应用系统构件包括流程、文件、档案、数据元(项)、代码、算法(规则、脚本)、模型、指标、物理表、ETL过程、运行状态记录等等。

通常意义的元数据(Metadata),是描述数据的数据(data about data),主要是描述数据属性(property)的信息。这些信息包括数据的标识类属性,如命名、标识符、同义名、语境等等;技术类属性,如数据类型、数据格式、阈值、计量单位等等;管理类属性,如版本、注册机构、提交机构、状态等等;关系类属性,如分类、关系、约束、规则、标准、规范、流程等等。而面向数据应用的数据管理所涉及的元数据,主要是描述那些应用系统构件属性的信息。除了传统元数据属性以外,每个不同的构件还有其特有的属性,比如流程要有参与者和环节的属性、物理表要有部署的属性、ETL要有源和目标的属性、指标要有算法和因子的属性等等。

每一个构件必然对应一个或多个(一个构件的不同分类)元模型,元模型是元数据的标准,每一个元数据都应该遵循其对应元模型的定义。比如每个数据项(元)都有自己的名字、标识符、数据类型、数据格式、发布状态、注册机构等等属性,这些属性的集合就是这个数据项的元数据。而每个数据项的元数据都是由哪些属性描述、每个属性应该如何描述、以及描述的规则等等约束称之为元模型。电子政务数据元标准(GB/T 19488.1-2004)就是电子政务数据项(元)的元模型。

传统的元数据管理通常均在相关业务实现后,通过专门元数据管理系统的抽取功能加载元数据,这种方式由于需要在事后人工地启动加载或维护(事后补录业务属性)元数据的过程,往往很难及时获取元数据的变化,确保元数据与实际情况的一致性。在实现面向应用的数据管理时,应该采用主动的元数据管理模式,即遵循元模型的标准,通过人机交互过程加载元数据(本地元数据),在可能的情况下同时产生数据对象(应用系统构件)的配置或可执行脚本(如果条件不具备,也要利用人机交互所产生的元数据,作为其它相关工具产生可执行脚本的依据)。每当需要变更配置或修改脚本时,也是通过这个人机交互过程实现,同步产生新的元数据,保证了元数据与实际的一致性。主动的元数据管理模式主动的元数据管理模式见下图

面向数据应用的数据管理意义和方法

传统应用系统(Application Systems)往往是针对特定应用的,需要固化需求的,难以支持变化的管理信息系统。而金税三期项目是建立针对全国性的组织,覆盖整个组织所有管理业务和所有用户的管理信息系统。这样的应用系统,业务需求的"变化"是常态的,"不变"是暂态的;面对整个组织,各部门和层级的业务"不同"是客观存在的,"统一"是逐步实现的,继而持续拓展(开始新的不同)的。为此,必须要有一个不仅能提供业务需求的实现,更要能够提供可支持业务需求的变化,可对它们变化进行跟踪和管理,可以支持持续优化的用户体验的,企业化生产的新型应用系统(AS2.0)产品集合作为支撑。AS2.0中必须对整个组织业务需求的变化过程和结果加以控制、记录和管理,面向数据应用的数据管理就是AS2.0关键基础构件的一个产品,并且是它可行性的基础。

传统应用系统的数据管理所关注的是数据的增值过程,其功能的实现重在关注和强调业务需求内容的加载、内容的ETL、内容的组织、内容的加工以及内容的反映。这些功能的都是通过编码实现的,固化的软件代码。AS2.0的数据管理所关注的增加了元数据的集合、历史数据的集合和状态数据的集合,并且利用主动的元数据管理工具进行配置和加载实现的软件代码。同时,将其对应的本地元数据汇集形成元数据集合,实现对各种业务需求的变化实施加载,加以捕获,进行记录,实现跟踪达到对变化的管理;将与内容和变化相关的历史记录加以标准化的封装形成档案,实现历史资料的组织、复用和卸载等功能达到对历史的管理;将AS2.0各种构件运行状态信息实时捕获,加以记录,综合分析,及时反映,实现整个系统运行时状态的综合管理

综上所述,随着数据对象拓展了变化的记录、历史的记录、状态的记录,标志着数据管理进入了新的阶段--面向数据应用的数据管理,也标志着应用系统开始进入AS2.0时代。

折叠 编辑本段 反洗黑钱

数据管理是反洗黑钱 (AML) 的核心所在

金融服务提供商需要比以往任何时候都要更加深入地了解他们的客户。洗黑钱是许多政府在打击犯罪和恐怖主义时考虑的一个主要问题,正因如此,他们已针对其管辖范围内运营的金融服务组织发布了众多指南。

数据管理是反洗黑钱 (AML) 的核心所在。例如,欧盟的《反黑钱第三指令》和《美国爱国者法案》都很注重以下领域中需要受到关注和严格管理的数据质量:

·客户身份标识

·了解客户 (KYC)

·客户(或增强的)尽职调查

反洗黑钱中的Informatica数据质量解决方案

Informatica ® Data Quality TM 包括用于业务和合规性数据分析的桌面工作台。它易于使用的界面可让那些需要充分了解数据和业务流程的用户创建自身的数据质量规则,以确定潜在的可疑或欺诈行为。 这种易于使用的功能是企业的一个关键优势。简言之,无需等待独立部门来制定和部署规则,从而由于实施时间的延迟而增加泄露风险。如今,公司不但可以制定、部署和集中管理规则,而且还可以快速对不断变化的业务情况做出反应。

Informatica Data Quality 解决方案用于交叉引用多个数据集。这种交叉引用可让企业按照以下列表来识别和验证客户和交易数据:

· 观察列表(内部、政府和第三方)

· 死亡率列表

· 政界人士 (PEP) 列表

· 抑制列表

· 地址数据

· 参考数据

最后,一旦规则建立后,可以通过 IT 组织对它们进行部署和优化,并设定为定期执行。这种自动检查可以确保在使用定期、计划的批处理作业的持续基础上管理数据,非常适用于连续的客户尽职调查 (CDD) 和特殊的可疑活动报告。

反洗黑钱(AML)中的客户信息计划制定规则

企业必须详尽地了解他们的客户。销售、营销和金融部门的有效运作都必须有准确和最新的客户数据。

过去,与数据保护相关的各种法规都要求更好的客户数据质量,例如《银行保密法》(美国)和 HIPAA。但是,立法者和监管者已通过附加的合规举措对最近的一些违规行为做出了反应,包括《萨班斯-奥克斯利法案》、欧盟的《反黑钱第三指令》、《美国爱国者法案》、《金融工具市场法规》(MiFID) 和 Solvency II。

这其中的许多举措表明了企业在以下领域内的整合要求:

·数据治理

·数据集成

·数据存储和仓库

· 商业智能和报告

纵观所有这些规则,表明了对管理数据质量计划的一贯要求。有时候,这是一种隐含的要求,但在一般情况下,数据质量要求却是明确的:

需要实施涵盖所有开户客户的程序:

1. 捕获所有客户的 ID信息

2. 验证客户身份

3. 通知 CIP 流程的客户

4. 将客户姓名与政府列表进行比较

所需的身份信息(在开户之前):

1. 姓名

2. 街道地址(不需要邮政信息)

3. 出生日期(个人)

4. 身份号码(对于美国公民,必须为美国纳税人身份证号码)。

第 326 节:客户确认计划

《美国爱国者法案》

要管理他们的客户信息计划 (CIP),许多金融机构均会依赖于 Informatica 的数据质量产品。业务分析师使用基于角色的 Data Quality Workbench 来定义规则,以确保 CIP 所需的数据适合于其目的。

通常情况下,需要衡量和报告以下数据质量维度:

· 完整性: 确保填写所有 CIP数据

· 符合性: 确保所有 CIP数据的格式均正确无误

· 一致性: 分析多个属性以保证数据的一致性,例如货币与国家/地区和城市与

国家/地区

· 重复性: 此客户是否已经存在?

· 真实性: 此客户是否在 PEP 列表上?此客户是否与员工相关 (KYE)?此客户是

否与其他客户相关?

· 准确性: 确保 CIP数据都有效:日期、产品代码、地址

· 范围: 本次交易是否超过某一数量?帐户上的货币交易数量是否超过某一

水平?

分析师可以使用此类报告,快速确定在基于风险的 CIP 中需要引起关注的数据差异。例如:

· 居住的国家/地区

· 客户业务的性质

·帐户或银行产品的类型

· 交易数量和交易值

· 客户在 PEP 列表上

在数据捕获(例如,打开新的帐户)或通过批处理时,都可以生成高度精确的搜索结果和数据质量异常报告。通常情况下,数据质量改善流程适用于现有的客户或交易数据,以提高 CDD 或促进历史审查。可以使用 Informatica 或第三方报告引擎来提交报告。

折叠 编辑本段 AML

折叠 AML程序中用于比较的字段

分析师也可以通过使用 Informatica Data Quality 解决方案,根据观察列表来履行他们对客户进行比较的监管要求。

通常,在 AML 程序中用于比较的字段包括:

· 名字 x 出生年份

· 姓氏 x 地址

· 性别 x身份标识

· 出生日期

例如,业务分析师可以通过着重于出生年份(而不是完整的出生日期)来单独权重各个字段。

在此示例报告中,如图 2 中的示例,可以生成客户数据集和参考数据集之间所有潜在匹配的列表,例如观察列表。可以通过预先确定的权重来触发 AML 警报,使相关人士关注这些匹配。如果匹配 AML 报告中的这些记录不是真正的匹配,可以设定标记以避免今后的报告使用同样的匹配。 搜索和匹配流程也可只用于确定和删除系统中的重复内容。潜在重复内容可通过基于 Web 的客户提交给数据质量管理员,前者将审查质量欠佳的记录,并选定一个在重复内容中拥有最佳数据的主记录或完美记录。

折叠 AML算法内置数据质量防火墙

CIP 是全面了解客户 (KYC) 计划的一个子集,该计划最终需要相同的数据质量流程。通常情况下,数据质量管理员扩展 Informatica Data Quality 解决方案的 CIP 功能,以便纳入与客户的财务状况和投资目标相关的数据。

使用 Informatica 公认的技术方法,可以改进和验证客户的数据,从而协助实现 KYC 目标。因此,它不但包括对欺诈行为的更多检测,而且还可增强客户关系数据和销售市场部分。

从效果上来说,这在 AML 算法或第三方引擎的前面内置了一个数据质量防火墙。

这些防火墙实现两个功能:

· 确定质量欠佳的数据:标准化、清洗数据和/或及时扩充,从而提高 AML 引擎

的效率并降低风险的出现。

· 确定潜在的欺诈行为:在将数据加载到引擎之前,使用数据质量业务规则,

尽早地抓捕欺诈行为。

图 4 显示了数据质量防火墙的挖掘视图。它包含逐条记录的数据质量等级 (O 列)。在 0% 至 100% 之间对其进行评分,这些等级首先用于指向包含最差 DQ 的记录。业务分析师可以根据具体情况,轻易地调整这些等级的权重。

此外,该报告还强调了 CIP/KYC 风险等级,这些风险等级均适用于使用 Informatica Data Quality 的数据。这些风险等级确定了可能会导致欺诈行为的特定数据方案,即使在将数据加载到 AML 引擎之前。

AML 程序的重要组成部分:客户尽职调查

对新的和现有的客户进行充分全面的客户尽职调查 (CDD) 是任何 AML 程序的重要组成部分。CDD 依赖于优质的 CIP 和 KYC数据以及流程来监控客户关系的改善情况,并将他们的服务用作整体风险控制功能的一部分。 《美国爱国者法案》、《反黑钱第三指令》和其他法律都非常高度重视 CDD,且 Informatica Data Quality 也非常适合于提供持续的监控以应对这些要求。 如上述所论,积极的数据质量管理可以确保随着时间的推移,CDD 使用的数据质量越低,而效率却越高。

第 II 章

客户尽职调查

第 8 条第 1 节

1. 客户尽职调查测量应包括:

(a) 识别客户并验证客户的身份 ……

(b) 在适当的情况下,识别爱益者,并采取基于风险和充分的措施来核实他的身份,以便本指令所涵盖的机构或人员对所了解的受益者满足,包括法人、信托或类似的法律安排,采取基于风险和充分的措施来了解所有权并控制客户的 结构;

(c) 获得有关业务关系的宗旨和目的性的信息;

(d) 对业务关系进行持续的监控,包括交易审查......

欧盟的《反黑钱第三指令》

折叠 AML数据质量规则示例

参考右图

折叠 编辑本段 电话营销

电话营销中,销售团队、产品、营销数据库构成了"谁来卖"、"卖什么"、"卖给谁"、这三个必不可少的要素。作为目的销售对象的汇合---营销数据,则更在电话营销工作中起到至关重要的作用,如何科学、标准地管理与运用这些珍贵的数据资源,应该成为每一个电话营销工作管理者需求认真考虑与实在执行的问题。下面让我们从理论动手,看看电话营销中"数据管理"需求关注的那些环节!

第一项关注:数据的导入

数据在导入前需求做一定的处置,以保证运用过程中可维护、可统计与可剖析。

首先,需求对原始数据属性停止剖析与定义。通常,电话营销中会调用来自不同渠道的各类数据,这些数据分别有其本身的特性。这就使得我们需求先辨别相似地域属性(本地与异地)、性别属性(男与女)、年龄属性(不同年龄段)、收入属性(高中低收入群体)、行业属性(金融、IT行业)等。然后依据这些不同的特性,将数据属性停止归类与编码,经过电话销售来对这些数据做进一步的处置。进而,我们才能够剖析并且找到最合适产品销售的用户群,以完成数据信息的优先获取与选用,将数据资源得到最大化应用。

其次,这有一项看似简单却十分有意义的工作,就是要在数据导入前对数据预先做一下处置,删除一些无效数据,比方短少联络电话的数据、联络电话号码缺位的数据,或者与目的客户群属性不分歧的数据。由于这些工作布置在数据导入前,因而可以经过对原始数据的批量处置,以最高效地得到更契合拨打规范的数据,同时保证分配到一线TSR手中的数据是精确而有效的,俭省他们的时间以及工作效率。

最后,在数据正式投入运用前,也倡议对原始数据停止编号与备份,由于一旦数据分配到TSR手中,必然随着销售工作的推进,对数据信息不时停止维护与更新,当需求查看数据的原始信息时,就需求这个备份的原始数据库了。由于前期曾经对原始数据停止编号,此时我们只需求用数据编号在原始数据库中做一个简单的对应关系查询即可。 完成以上处置,如今我们就能够将数据资源导入,并等待着经过电话营销,为我们带来丰厚的利润!

第二项关注:数据的运用

经过处置的数据在导入后显得划一、有序,这是一个好的开端。

接下来请让我们一同来理解一下数据的运用过程。营销数据被TSR运用的同时,会对数据停止一系列的维护,其中主要包括对拨打状态及销售状态的记载与更改。下面让我们一同来看一下有几种拨打状态及销售状态,以及这些状态分别关于我们有哪些意义。

拨打状态:拨打状态就是该营销数据中的电话号码等联络方式在联络后的接通状况。通常我们能够依据下图所示的状态来标注。

标注了拨打状态的数据就具有了进一层的意义-----数据的生命力。那些属于永远也无法接通的数据就全部从TSR这里 "Cancel"掉,再也不要调出来占用TSR的时间;"忙音/通话中"的数据需求优先给予"错时拨打"的注重,由于这种状态标明这个电话仍在运用中,继续联络的接通可能性也将是最大的!顺便说一下,关于需求"继续联络"的数据,应该采用"错时拨打"的方式。所谓错时拨打主要是错开工作日及非工作日,或错开白昼时间及晚上时间。只要经过"工作日拨打"、"非工作日拨打"、"白昼时间"及"晚上时间"的错开拨打,才能够做到数据资源的有效应用。

再来看一下"销售状态"。销售状态只针对电话接通并且找到联络人的数据而停止标识的三种状态: 

以上三种状态很容易在电话营销的运用过程中标识。这里需求留意的是,对"待跟进"以及"回绝"这两种状态的关注。针看待跟进数据,我们更希望可以理解招致用户需求思索的要素主要是哪些方面?产质量量?产品价钱?还是售后效劳?只要控制了这些信息,我们才干够愈加熟习数据属性,并且有针对性的设计销售脚本,来应对这类需求"待跟进"的用户。

同样,回绝的用户我们也需求找出用户回绝的主要缘由有哪些,经过与数据属性的对应,采取有效措施进步销售的胜利率。

第三项关注:数据的应用

经历通知我们,数据是不需求均匀分配给每一个TSR的,由于不同的TSR对数据的运用状况不同。在分配数据时我们应该依据每一个TSR对数据的运用状况来实时停止有效的调控。

这时,有两个参数能够协助我们完成营销数据的调控:"胜利接触率"、"待跟进率"。以下分别引见。

胜利接触率=接触到的用户数据总和/接通数据总和×100%。胜利接触率是判别数据有效性的一个指标。经过胜利接触率来理解所拨打的数据中,有几数据可以找到联络人既销售对象。胜利接触率是一个变化的状态值,随着数据的二次拨打、三次拨打以至于更屡次的拨打,胜利接触率会有所进步。为在一定水平上进步数据的有效应用状况,可设定"最低胜利接触率",当所分配数据的"胜利接触率"低于设定的目的值时,减少新数据的分配,同时请求TSR对未接通数据中的"忙音/通话中"、"无人接听"停止错时屡次拨打,以到达进步"胜利接触率"进而更有效应用数据的目的。

待跟进率=待跟进的数据总和/接触到联络人的数据总和×100%。依据公式不难了解,"待跟进率"所关注的是在可以找到联络人的数据中,有几数据是需求待跟进的。在对数据分配停止控制的过程中,针对这个指标,需求设定"最高待跟进率"。

设定"最高待跟进率"。为使数据资源可以很好应用,并且可以及时地与正在思索的联络人停止二次销售,把握住最佳的跟进机遇,我们需求TSR定期看待跟进数据停止追呼。当超越"最高待跟进率"时,则标明该TSR所调用的营销数据中,待跟进状态的数据曾经过多,此时需求减少新数据的分配,以使其集中精神跟进有意向但仍在犹疑的销售对象。

经过营销数据中"胜利接触率"这个指标的控制找到更多的联络人,经过"待跟进率"这一指标的控制,找到更多的胜利销售时机。对这两个指标的关注,是电话营销"数据管理"的重要内容。

折叠 编辑本段 相关著作

书名:数据化管理

又名:数据化管理:洞悉零售及电子商务运营

作者:黄成明

类别:电子商务,数据,管理

页数:306

定价:59.90元

出版社:电子工业出版社

出版时间:2014-7

装帧:平装

开本:16开

ISBN:9787121234064

《数据化管理:洞悉零售及电子商务运营》讲述了两个年轻人在大公司销售、商品、电商、数据等部门工作的故事,通过大量案例深入浅出地讲解了数据意识和零售思维。作者将各种数据分析方法融入到具体的业务场景中,最终形成数据化管理模型,从而帮助企业提高运营管理能力。

《数据化管理:洞悉零售及电子商务运营》全部案例均基于Excel,每个人都能快速上手应用并落地。

参考资料

阅读全文

热点资讯