剑鱼标讯 > 需求公示项目 > 长沙市开福区数据资源中心:开福区数据仓库建设项目采购需求公开

长沙市开福区数据资源中心:开福区数据仓库建设项目采购需求公开

基本信息
项目名称 省份
业主单位 业主类型
总投资 建设年限
建设地点
审批机关 审批事项
审批代码 批准文号
审批时间 审批结果
建设内容
一、功能及要求:
一、项目名称:开福区数据仓库建设项目  
二、项目预算:登录即可免费查看.00元
三、项目概况:
开福区数据仓库建设项目是以习近平新时代中国特色社会主义思想为指导,贯彻落实习近平总书记考察湖南重要讲话精神,落实“三高四新”发展战略,实现“智慧开福”总目标的重要中枢和能力平台。根据《长沙市开福区新型智慧城市“十四五”区域规划(2021—2025年)》和《长沙市开福区新型智慧城市建设三年(2021—2023年)行动计划)》相关文件精神,本期目标以市、区两级城市数据资源融合为主线,充分利用长沙市超级大脑能力,构建数据融合贯通、统一支撑的智慧开福数据仓库,以此为基础实现运行精准分析、指挥高效协同的城市治理体系,探索数字决策新机制,打造数字治理新模式,促进全区信息化和大数据统筹能力显著增强,促进大数据共享、开放和利用取得明显成效。以关注民生需求、创新城市管理、服务产业发展为主线,数据仓库力争通过统一规划和建设,进一步推进开福区数字经济与各行各业的融合,推动产业数字化、数字产业化,建设成为“全省领先、全国一流”的新型智慧城市样板和标杆,以智慧城市建设赋能行业发展。
二、相关标准:
按国家相关标准、行业标准、地方标准执行
三、技术规格:
建设要求
(一)数据仓库建设需求
1、大数据分析基础平台
大数据分析基础平台采用分布式架构提供数据存储和计算能力,存储和计算能力可以横向扩展。数据存储采用分布式文件系统,支持多种存储格式,具有高可靠性和高性能,支持列式存储,具有高压缩比。支持与常见数据源如传统数据库、Hadoop、HDFS 和文件进行数据导入导出,以及流式数据导入。基于统一的内存迭代计算架构,提供 SQL、Spark等多种数据处理接口和框架,具有高吞吐高性能的数据处理能力。提供 SQL 查询界面,内置丰富的函数库,让数据开发人员可以关注数据处理业务逻辑本身。
平台包括基础层、计算层、服务层、应用层。
(1)基础层:
提供计算资源、数据持久化服务,包括:
1)分布式协同服务 ZooKeeper:为分布式大数据平台集群中各种分布式应用如 HDFS、HBase、YARN 等提供一致性服务。
2)分布式计算资源管理 YARN:管理整个集群的计算资源,针对集群执行的各类计算作业进行管理和调度。
3)分布式文件系统:为分布式大数据平台提供数据持久化分布式存储。
4)分布式列存数据库:为分布式大数据平台提供结构化数据的高速写入和读取。
(2)计算层:
提供统一的基于内存迭代计算架构。
(3)服务层:
通过服务层向用户或者上层应用提供服务及接口,主要包括:
1)计算服务及接口:对外提供计算服务,允许第三方应用通过SDK编程接口进行各种计算作业的提交和查询。
2)传输服务:作为数据通道,允许用户通过编程接口导入导出数据。
3)集群管理服务:提供系统运维监控,以及计算资源管理等基础服务。
4)元数据:提供元数据存取服务。
(4)应用层:
基于分布式大数据平台的服务层,可以进行大数据相关应用的开发。
(5)运维层:
分布式大数据平台的运维功能模块:提供分布式大数据平台的运维功能,包括服务状态健康,服务启停,集群物理机状态监控,集群资源监控,集群告警等功能。
2、数据归集模块
数据归集模块可实现数据传输及多源汇聚,采用统一的数据接入模式,以标准化、模块化的方式进行多源异构数据资源的接入,提供丰富、可深度配置的数据接入机制,数据归集平台为数据仓库系统的数据入口,为后续的数据开发、治理、共享等提供基础数据。
(1)架构部署
支持分布式云架构设计实现云上和云下部署,支持单机部署与集群部署;支持分布式部署架构,支持单机部署和集群部署模式。
1)用户层
用户层主要是为数据集成子系统提供基于Web访问的用户入口。所有数据集成相关配置通过Web界面配置和管理。
2)功能层
功能层主要是为数据集成子系统提供数据集成处理平台的主要功能模块。
▲具备异构数据库在无目的表的情况下自动建表功能。
3)支撑层
支撑层是主要是为数据集成子系统相关功能提供技术支撑。任务切片、任务执行、断点续传等为任务行为的细化管理和控制提供了支撑;变化数据捕捉、断点续传、读写控制等为数据抽取和加载提供了支撑;自动建表和批量处理等为易用性提供了支撑;用户管理和服务鉴权等为安全性提供了支撑。
4)资源层
资源层是为数据集成子系统提供执行环境的资源,包括云平台、虚拟机和独立服务器等。支持基于以上三种资源环境部署。
(2)适配多种数据资源
▲支持适配各种主流数据库。具备适配各种关系型数据接入,包括但不限于Oracle、MySQL、SQL Server、PostgreSQL、MongoDB、Sybase、Terada ta和DM、GBase、GaussDB、kingbase。
支持多种主流大数据平台。
▲具备自动断点续传功能.当遇到网络故障或服务器故障修复时,自动重启中断的交换任务,从故障点续传数据。
具备批量创建作业功能;ETL任务同步时,批量作业支持一个任务管理多张表的数据同步;同步至目的库支持增加入库时间功能。
▲对海量文件(10000+以上文件),具备批量操作功能,具备批量选择传输文件,自动进行文件传输的功能;具备批量过滤功能,支持根据文件名批量过滤并选择文件进行传输的功能。
▲具备文件搬移与文件解析功能;具备文件夹或目录增量同步功能;具备针对文件夹的子文件夹及文件增、删、改操作的实时增量同步功能。
(3)兼容性
采用的软件产品需能兼容国产芯片。
(4)高性能
支持高性能数据传输。
▲结构化小数据(单行200字节),至少满足一种关系型数据库之间的传输速度不低于100MB/s.
3、数据加工治理模块
数据加工治理模块对数据资源全生命周期的过程控制和质量监督过程,是形成贴源库、标准库、基础库的标准及质量检测的过程,并对数据服务进行权限管理。通过规范化的数据管控,可实现数据资源的透明、可管、可控,厘清数据资产、提升数据质量、保障数据安全使用、促进数据流通。
(1) 功能要求
支持各种主流类型的数据存储和处理平台,包括但不限于MySQL、Hive、Oracle,GaussDB、DM等,可提供元数据信息展示和动态更新。
▲具备全链路数据血缘的查看及分析,具备全流程数据血缘(包含采集、加工、共享分发);能够展示细粒度的数据血缘关系,包括不限于数据表级、字段级数据血缘关系展示。
数据地图管理。支持以目录形式对数据表进行管理,能对数据表进行收藏,便于数据表查找归类。
具备数据台账导出功能,能够展示数据从接入、治理、编目、对外应用支撑、应用使用各个环节的全景,支持定制展示环节以及每个环节展示的属性列表。
(2) 兼容性要求
数据管控平台架构应包含数据标准管理、元数据管理、数据地图、数据血缘管理等功能。
4、数据开发模块
数据开发模块是为了满足用户在大数据环境下多用户协同进行数据作业程序开发、测试、生产运维需求的大数据集成开发IDE,支持数据作业开发、测试、生产、运维、数据挖掘分析,是数据开发人员、数据测试人员、数据运维管理人员、数据挖掘分析人员的一站式工作台。
在面向基础数据库、行业主题库和各类数据应用场景的数据集成开发过程中,通过对数据源进行抽取和装载、算法模型的开发和并行计算任务管理实现数据的集成开发。
(1)开发环境
提供一站式集成开发环境,满足大数据环境下的开发、流程调度和生产运维需要。
(2)数据开发
适配主流的大数据平台引擎。
具备通过图形化的拖拉拽方式将不同类型节点连线组织开发成工作流的功能,可实现零编码交互,工作流画布支持自动布局。
具备版本管理功能,能提供工作流和工作节点的版本查看及版本回滚。
具备内置的数据清洗和过滤组件。过滤组件应包括但不限于:长度过滤、正则过滤、空值过滤、比较过滤;清洗组件应包括但不限于:全角半角转换、类型转换、字典标准化、日期标准化、身份证校验转换、去除特定字符、去除空白字符、字符串截取、手机号校验、条件判断、表达式处理、数据去重;自定义组件应包括但不限于:SQL、JS自定义清洗,规则库。
(3)数据运维
提供运维大盘功能,能够直观地展示各空间工作流运行情况,包括但不限于统计信息、任务运行情况、实例运行时长排行、任务出错排行和空间任务数量排行等,从各个维度展示系统的过去一段时间内的运行情况。
(4)安全性
▲提供SparkSQL节点加密功能,支持代码可用不可见。
5、数据资源管理模块
数据资源管理模块需要提供服务目录的生命周期管理功能。目录服务生命周期管理面向用户提供目录服务的编目、审核、发布、展示、检索、申请、使用以及维护、监控、优化的全过程管理功能,用户通过这一层实现服务全生命周期的监控和管理。
5.1数据推送服务
通过数据推送服务,可以将数据资源从数据提供部门推送到数据申请部门的本地存储中。数据提供部门发布资源目录,目录挂接数据推送服务,数据申请部门申请对应资源目录的数据推送服务,申通通过审核之后,需要推送服务生成数据推送任务,推送任务将数据自动推送到本部门的部门本地存储,以解决线下配置交换任务繁琐、易错且难维护的问题。
数据推送服务应当包括但不限于以下功能项目:
(1)推送目录编目
提供数据推送服务的信息资源需要具备编目功能,能够在部门类目下正常编目和发布,需要支持手动编目和模板导入编目功能,以提高编目效率。同时编目完成的推送目录,可以指定关联数据源库表,并通过指定可见域范围来确定可以访问该推送目录的账户。
(2)推送目录的审核发布
推送目录编目完成后可以提交审核,在部门管理员或平台管理员审核通过的情况下向可见域范围内用户公开。
(3)数据推送服务使用
在数据推送服务完成发布后,有权访问推送服务的业务账户(可见域范围内账户),可以通过访问信息资源目录看到该信息资源,并可以看到该信息资源下具有“推送服务”的标签。业务账户进入信息资源后可以看到推送服务控件,并点击申请数据推送。
▲具备数据资源使用申请功能,在数据资源申请使用过程中,具备资源申请方和提供方的双向审核。
数据推送申请需要经过资源提供者进行审批,在审批通过后,资源提供方获取资源申请方的数据传输地址,通过共享交换方式,将数据推送到资源申请方的数据库中。
5.2数据服务管理
数据服务管理能力对服务进行分组,将有关联的服务汇聚在一起,便于用户使用、管理;具备基于信息资源目录的服务展示、检索、统计等功能,以支持部门开发人员进行应用的管理、服务的订阅等。
具备RESTful反向代理能力,支持手工录入和通过Swagger文档导入API服务;具备WebService转RESTful能力,支持通过指定WSDL文档自动生成RESTful API功能。具备数据表转服务能力,支持SQL语句录入和图形模式,具备根据主流关系型数据库的数据元信息自动生成RESTful API功能,包括但不限于MySQL、Oracle和PostgreSQL等。具备HTTP自定义服务能力,支持对服务请求报文和应答报文的转换。
具备Dubbo转服务能力,支持通过指定Dubbo接口文档自动生成RESTful API功能。
支持以WebSocket形式提供服务。 具备加密或特殊认证的HTTP服务接入功能
▲具备任务切片功能,支持基于字段拆分的子任务切片,以多任务并发方式完成数据传输。
6、数据安全模块
6.1数据传输安全
支持网络传输及数据存储加密机制。数据存储加密机制包括但不限于AES、SM2、SM4,支持数据加密。 网络传输加密机制支持数据传输通道加密功能(SSL)。
6.2数据使用安全
用户访问需要认证,用户操作需要鉴权,所有操作记录审计日志;提供SparkSQL节点加密功能,支持代码可用不可见;具备记录数据的操作审计日志功能,为事后审计提供数据支撑,具备将物理资源划分为逻辑资源池的功能,防止资源抢占,提升资源使用效率;数据转化过程可实现数据静态脱敏,能对数据进行加密、解密。
6.3数据接口安全
支持对接口调用的管控(服务限速);支持免验证、Basic 验证、Digest 验证、Token验证、Digest+验证等验证方式。
6.4数据脱敏
支持通过静态脱敏处理后的数据与生产环境隔离,在满足业务需要的同时也有效地保障了生产数据的安全。
6.5数据安全分类分级
政务数据分类分级服务,是实现政务数据安全管理的基础和前置条件。本项目要求平台具备对数据分类分级管理的功能,是实施数据内容安全管理体系的基础和前置条件。
7、数据服务
   (1)数据采集服务
拟定需采集的数据清单,确认数据资源的详细信息、所属层级(部门/街道/社区)等内容并填报,对采集任务进行时间计划安排;建立与市级平台、区下级部门、街道的数据通道,配合完成数据通道贯通工作。
   (2)数仓建模服务
通过街道社区基础数据收集,网格数据的接入,基本形成我区的一人一档数仓建设,通过企业画像结合舆情的外部数据,基本形成我区一企一档数仓建设,
建设网格化专题库:对“智慧开福(一期)”网格化管理的综合指标数据进行采集、治理,主要包括区域网格划分、网格力量(人员)、事件类型、发现上报、部门处置等网格化运行数据
(二)数据仓库技术参数
序号
分项名称
具体要求说明或规格型号
数量
单位
1
数据分析基础平台建设
数据集成
提供计算资源、数据持久化服务,包括:分布式协同服务 ZooKeeper:为集群中各种分布式应用如 HDFS、HBase、YARN 等提 供一致性服务。分布式计算资源管理  YARN:管理整个集群的计算资源,针对集群执行的各类计算作业 进行管理和调度。分布式文件系统:提供数据持久化分布式存储。 分布式列存数据库:提供结构化数据的高速写入和读取。大数据计算平台提供数据批量导入导出接口,方便用户使用编程接口和自定义数据源进行传输。
1

2
运维模块
支持配置维护与运行状态监控预警,主要用于自身软硬件环境运行状态的监控与预警,以及自身资源、作业、安全、项目等方面的运维管理功能。
1

3
数据处理
通过服务层向用户或者上层应用提供服务及接口,主要包括: 计算服务及接口:对外提供计算服务,允许第三方应用通过 SDK 编程接口进行各种计算 作业的提交和查询。
1

4
安全能力
用户访问需要认证,用户操作需要鉴权。
1

5
数据汇聚模块
数据接入方式
支持批量接入。
1

6
支持根据业务要求,设置定时任务,任务方式包括:手动,按秒、按分钟,按天,按周,按月, 按年和实时进行数据抽取
1

7
支持批量、实时等方式,按秒、按分钟,按天,按周,按月,按年等多种频率进行数据抽取
1

8
支持对不同抽取任务的调度,支持日、周、月等常见的时间周期
1

9
基于部署在千兆网络带宽环境下,单节点数据传输速度高性能传输
1

10
任务管理
实现对抽取的数据进行数据交互转换、加工清洗功能,用户还可以通过各种转换功能对数据进行加工处理,最终输出到目的表
1

11
针对部分特殊的清洗转换需求,用户可以通过自定义开发脚本引擎进行数据处理
1

12
支持对整合规则进行配置,包括以源为准、以目的为准、覆盖写、追加写等多种规则配置
1

13
支持对数据进行转换操作,包括增加字段、数据校验、字符串替换、码表查询等
1

14
支持根据业务需求,进行多种数据整合需求,并形成任务流,满足复杂的数据转换场景
1

15
支持多种常用转换组件,包括增加字段、数据校验、字符串替换、码表查询等
1

16
数据转换
可根据业务实际需要,周期性的实现转换任务的调度,用以满足持续性或定期的转换任务,减少人工干预,实现自动转换
1

17
一键拖库,产品支持一键拖库功能,配置源库、目的库后,通过一个配置流程即可将源库所选中的表一键同步到目的库,结合自动建表功能实现数据的全部同步
1

18
支持作业管理,包括新建作业、运行作业、批量运行作业、修改作业、删除作业、复制作业
1

19
自动建表,产品支持异构数据库自动建表功能,配置采集任务的数据源和目标库后,通过获取源端表结构,自动在目的库建表。屏蔽了异构数据源之间的差异,解决传统手工执行Sql语句去创建目的表效率低而且容易出错的问题,确保财政数据仓库的表结构与数据源端保持一致
1

20
支持从oracle、Mysql、SQLServer、Sybase等数据库之间的数据传输
1

21
支持数据压缩传输功能,减少传输所需带宽,如果目的文件需要压缩,可指定压缩方式,支持 GZip Hadoop snappy Snappy Zip
1

22
数据治理平台
数据标准管理
支持管理数据元、字典表、限定词,形成标准体系,支持全局标准和部门标准两级层次管理,部门标准互相隔离,全局标准在全平台内统一,被各部门引用
1

23
支持定制多行业标准模板。系统支持预置行业模板,并支持用户自定义扩展。
1

24
支持按照标准的发布状态进行数据元版本管理,版本变更支持在线审批
1

25
支持批量导入和导出数据标准定义,用于标准在系统间快速复制。数据标准工作需要在现场针对不同的系统抽取数据元信息,同时需要梳理出数据字典信息,以及行业标准的数据字典信息
1

26
数据地图
支持可视化建表和DDL建表
1

27
支持以目录形式对数据表进行管理,能对数据表进行收藏,便于数据表查找归类
1

28
支持按照多种条件组合查询数据表,查询条件包括但不限于目录名称、数据表名、数据表描述、业务标签、创建者、生命周期、大小、项目空间名称、分区表属性等
1

29
支持表详细信息查看,包括但不限于表的元数据信息,例如表名、列名、列字段属性、主键信息、分区信息,表数据预览,表血缘详细信息
1

30
支持数据台账导出,展示数据从接入、治理、对外应用支撑、编目、应用使用各个环节的全景,支持定制展示环节以及每个环节展示的属性列表
1

31
元数据管理
支持以部门为单位,展示部门内项目空间、数据表、数据连接、任务等信息的数目,其他统计信息包括但不限于部门管理统计信息、数据表统计信息、数据标准统计信息、数据质量统计信息等。
1

32
支持各种主流类型的数据存储和处理平台,包括但不限于MySQL、MaxCompute、Hive、Oracle,GaussDB、Kafka等,支持元数据信息动态更新和元数据信息展示功能。
1

33
支持元数据版本管理,记录元数据历史版本、差异比较。
1

34
支持元数据变化同步,同步内容应包括变更的具体内容。
1

35
支持元数据继承,通过继承关系能够将元数据属性进行传递,并支持定制需要继承的属性。数据管控平台针对不同系统的元数据信息,需要进行元数据模型开发工作。
1

36
数据血缘
支持全链路数据血缘生成、查看、分析,具有表级、字段级血缘解析功能,支持SQL语句解析生成血缘,可以根据数据库血缘,查看关联的库、表、字段血缘及涉及的表和任务详情,描述数据字段的加工过程
支持全链路数据血缘生成与查看,可以根据数据库血缘,清晰的查看数据在不同系统间的流向,包括数据库系统、资源目录系统、应用系统,对于数据库系统,支持库级、表级血缘。可以基于血缘信息进行溯源分析和影响分析
1

37
支持字段级血缘,支持对SQL进行语句解析生成血缘
1

38
数据清洗
支持可视化数据清洗,能通过可视化操作方式实现过滤、清洗转换功能。数据过滤组件包括但不限于长度过滤、正则过滤、标准值域过滤、空值过滤、比较过滤;数据清洗组件包括但不限于字典标准化、身份证校验转换、JS自定义清洗。支持配置异常数据的处理方式
1

39
支持规则库,支持去除空白、空值过滤、全角半角转换、正则校验、长度校验、去重内置规则,并支持自定义规则自定义,支持配置问题数据处理方式
1

40
支持标准清洗,可根据规则自动生成清洗配置,包括但不限于根据是否允许为空属性推荐出去重规则,根据值域为字典表推荐出字典标准化,根据命名实体为身份证推荐出身份证标准化等
1

41
标准清洗支持配置导入导出。数据清洗工具在实施过程中,会根据客户的现场情况,进行特定的业务情况,制定不同清洗策略,同时针对不同的策略进行开发清洗代码
1

42
数据关联
支持数据量总数、表数据量Top10、数据表总数、数据量日增、表数据量日增Top10统计展示。支持部门内部数据模型模块的逻辑模型数目统计、物理模型数目统计、数据元数目统计、字典表数目统计。
1

43
支持部门内部数据清洗模块的业务流程数目统计、部门内部数据清洗模块的业务节点数目统计。部门内部数据清洗模块的业务节点类型分布情况统计,节点类型包括数据清洗、SQL、数据集成。
1

44
支持统计昨日0点至24点清洗模块业务节点运行的总体情况。业务节点在物理引擎上表现为一个实例,实例状态即节点运行情况,实例类型包括数据清洗、SQL、数据集成,统计状态包括成功、失败、终止。
1

45
数据开发模块
SQL开发
提供一站式集成开发环境,满足大数据环境下的开发、调度、运维等需求
1

46
支持开发、生产空间隔离,可以对空间中数据、资源、代码和配置进行隔离
1

47
支持团队协同开发,具备代码版本管理、多人协同模式下的代码锁管理和冲突检测机制
1

48
支持通过图形化的拖拉拽方式,实现零编码交互完成数据的转换、过滤以及工作流开发,便于自主管理作业的部署以及生产监控运维
1

49
并行计算任务管理
适配MaxCompute、FusionInsight HD、TDH等大数据平台引擎,支持SparkSQL、Spark、数据清洗、SubWorkflow(子工作流)等数据开发类型节点
1

50
支持任务节点开发,可实现数据集成、清洗、转换、过滤
1

51
支持工作流开发,包括但不限于串行工作流、并行工作流,应满足开发中常见的多输入、多输出、多分支的场景
1

52
工作流加工节点上支持配置数据质量监控功能,通过质量监控可以全程检测数据加工流水线,根据质量规则及时发现问题,并通过报警通知负责人及时处理
1

53
支持工作流的导入导出操作,包括但不限于工作流、自定义函数、资源文件和模型等,可实现离线备份和异地发布
1

54
可对已删除的工作节点或工作流进行恢复
1

55
工作流管理
支持调度管理,包括一次性调度与周期性调度,其中周期性调度应支持按分钟、小时、日、周、月、年调度,工作流可跨周期依赖
1

56
具备启停功能,支持工作流重跑;支持补数据,可通过设置工作流运行的起止时间,来达到导入历史数据的目的
1

57
运维大盘管理
提供运维大盘功能,能够直观地展示各空间工作流运行情况,包括但不限于统计信息、任务运行情况、实例运行时长排行、任务出错排行和空间任务数量排行等,从各个维度展示系统的过去一段时间内的运行情况
1

58
支持作业管理,能实现作业状态查询、启停操作,并支持引擎告警和工作流告警策略配置,可通过邮件方式发送告警
1

59
支持数据接入任务运维,管理任务实例、状态、关联工作流,支持查看数据抽取、写入数据量等指标;支持对接多套数据集成环境
1

60
数据共享服务模块
数据运营及数据需求管理
支持在线编制、目录提交、目录审核、目录发布、修改编目、目录删除、目录导入和导出;目录及资源均支持版本管理
1

61
目录支持挂接数据服务,一个目录支持挂接多种类型的数据服务(包括数据库、文件、接口)
1

62
具备目录批量导入和导出功能
1

63
具备流程化的资源发布、申请、供应,提供流程审批功能;流程均支持批量操作
1

64
目录的发布支持部门级和平台级审批;资源的授权需要部门的审批
1

65
支持目录分类展示,资源目录检索,方便用户快速查询资源目录
1

66
资源服务使用
具备资源服务订阅功能,通过订阅可以获取针对资源的各种不同服务
1

67
为订阅者设置订阅期限,在超过订阅期限后,除非重新订阅,否则将不能继续使用服务
1

68
提供审批机制,审批后才可以使用服务
1

69
数据服务管理能力
对服务进行分组,将有关联的服务汇聚在一起,便于用户使用、管理
1

70
具备基于信息资源目录的服务展示、检索、统计等功能,以支持部门开发人员进行应用的管理、服务的订阅等
1

71
具备RESTful反向代理能力,支持手工录入和通过Swagger文档导入API服务
1

72
具备WebService转RESTful能力,支持通过指定WSDL文档自动生成RESTful API功能
1

73
具备数据表转服务能力,支持SQL语句录入和图形模式,具备根据主流关系型数据库的数据元信息自动生成RESTful API功能,包括但不限于MySQL、Oracle和PostgreSQL等
1

74
具备HTTP自定义服务能力,支持对服务请求报文和应答报文的转换
1

75
具备Dubbo转服务能力,支持通过指定Dubbo接口文档自动生成RESTful API功能
1

76
支持以WebSocket形式提供服务。
1

77
具备加密或特殊认证的HTTP服务接入功能
1

78
具备任务切片功能,支持基于字段拆分的子任务切片,以多任务并发方式完成数据传输
1

79
提供插件Maven工程下载、插件上传、插件更新、插件删除、插件热加载、部门级插件、支持系统级插件、服务支持关联已部署插件
1

80
数据执行管理
支持流程超期告警;支持实时归集数据长期不更新时触发超期告警;支持针对数据源的心跳检测
1

81
基于网关进行配置,告警种类包括集群状态,cpu,内存告警;
提供单条服务告警机制,同时配置时,单条告警配置优先级高。
告警种类包括:服务错误告警,服务调用阈值告警,服务可用性检测
1

82
支持按照目录、交换、服务等多维度进行信息统计
1

83
具备用户操作审计功能
1

84
数据资源平台管理
支持HTTP自定义服务能力,支持对服务请求报文和应答报文的转换
1

85
具备Dubbo转服务能力,支持通过指定Dubbo接口文档自动生成RESTful API功能
1

86
支持沙箱机制的服务联调对接
1

87
具备RESTful反向代理能力,支持手工录入和通过Swagger文档导入API服务
1

88
具备WebService转RESTful能力,支持通过指定WSDL文档自动生成RESTful API功能
1

89
支持Oracle、MySQL、PostgreSQL的表及视图通过UI或者SQL语句快速生成RESTful API
1

90
用户角色管理功能
支持数据资源发布过程审核机制
1

91
具备数据资源使用申请功能,支持数据资源申请使用过程中资源申请方和资源提供方的双向审核。支持审核过程中定义调用周期。
1

92
具备数据过滤功能,通过设置数据过滤条件进行数据推送
1

93
支持异构数据库之间数据推送
1

94
数据安全功能
  数据传输安全
支持网络传输及数据存储加密机制。数据存储加密机制包括但不限于AES、SM2、SM4,支持数据加密。
1

95
 网络传输加密机制支持数据传输通道加密功能(SSL)。
1

96
 数据使用安全
用户访问需要认证,用户操作需要鉴权,所有操作记录审计日志。
1

97
提供SparkSQL节点加密功能,支持代码可用不可见。
1

98
具备记录数据的操作审计日志功能,为事后审计提供数据支撑,具备将物理资源划分为逻辑资源池的功能,防止资源抢占,提升资源使用效率。
1

99
数据转化过程可实现数据静态脱敏,能对数据进行加密、解密。
1

100
 数据接口安全
支持对接口调用的管控(服务限速);支持免验证、Basic 验证、Digest 验证、Token验证、Digest+验证等验证方式。
1

101
数据分级分类
数据分类,包括创建分类、导入分类、导出分类等;
1

102
数据分级,包括创建分级、查看分级等
1

103
数据资产搜索,根据分级名称、敏感级别关键字搜索
1


 
(三)数据服务技术参数
 
序号
分项名称
具体要求说明或规格型号
数量
单位
数据服务
数据服务需求
数据采集任务需求
拟定需采集的数据清单,确认数据资源的详细信息、所属层级(部门/街道/社区)等内容并填报,对采集任务进行时间计划安排;建立与市级平台、区下级部门、街道的数据通道,配合完成数据通道贯通工作
0.9
人/月
数仓实施方案
数仓建模服务
通过街道社区基础数据收集,网格数据的接入,基本形成我区的一人一档数仓建设,通过企业画像结合舆情的外部数据,基本形成我区一企一档数仓建设,
建设网格化专题库:对“智慧开福(一期)”网格化管理的综合指标数据进行采集、治理,主要包括区域网格划分、网格力量(人员)、事件类型、发现上报、部门处置等网格化运行数据
4.8
人/月

四、交付时间和地点:
1.1.服务时间:合同签订4个月内,完成所有项目建设内容交付并达到项目初验条件;合同签订后6个月内,完成系统的试运行以及项目的竣工验收。
1.2.服务地点:采购方指定的地点。
五、服务标准:
1、项目质保要求
1.1.中标人提供的产品必须符合国家质量检测标准,具有出厂检验证书、出厂合格证或国家鉴定合格证。
1.2.本项目的整体质保期为自验收通过之日起壹年。按国家三包政策执行。超出厂家正常保修范围的,中标人需向厂家购买;未在投标报价表中单列其费用的,视为免费提供。
1.3.质保期内,免费提供所有产品的维修服务,由此产生的费用由中标人负责。
1.4.中标人承诺的质保期长于招标文件规定时,以中标人的投标文件为准, 出现任何质量问题(人为破坏或自然灾害等不可抗力除外),由中标人负责全免费(免全部工时费、材料费、管理费、财务费等等)更换或维修。
2、售后及培训要求
2.1.提供7×24小时的电话故障服务受理,24时内上门维修。
2.2、项目质保期内,中标人必须提供所有采购范围内软件系统免费升级服务和技术支持;系统出现故障中标方必须在30分钟内进行响应,2小时内恢复系统正常运行,对非人为因素损坏的硬件应进行及时维修或更换,对可能造成系统业务服务连续性的关键设备应提供备品备件。
2.3、中标人必须提供满足本招标文件要求的培训服务。投标人提供高水平的培训,培训内容、时间及相关安排必须与用户单位协商,在征得用户单位同意后方可实施。
2.4、中标人必须为所有被培训人员提供培训所需的文字资料和讲义等相关用品。所有的资料必须是中文书写。
2.5、中标人应组织系统使用人员对应用系统中不同角色进行分角色培训,不同角色操作系统的界面和功能各不相同,针对角色的培训方便对系统操作的掌握。
2.6、中标人必须提供技术支持及维护培训。为了使系统管理维护人员能对系统安装、应用及维护和故障的处理有全面的了解和认识,中标人应根据项目实施的各阶段为系统管理员安排有针对性的软件系统培训。
六、验收标准:
1.1照长财采购[2016]6号《关于进一步规范政府采购项目履约验收工作管理的通知》本项目按政府采购的一般程序验收。
1.2本项目按照《长沙市开福区政府投资信息化建设项目管理暂行办法》(开政办发〔2022〕10号)及《长沙巿新型智慧城市和数字政府建设工作领导小组办公室关于印发〈长沙市政府投资信息化建设项目验收阶段实施细则〉的通知》(长智慧办发〔2022〕9号)文件要求履约验收。
1.3项目验收前,中标供应商应提交本项目的所有成果,以及项目产品有关的全部资料,包括全部有关技术文件、资料、安装调试、操作和维护技术手册、验收报告等文档,汇集成册交付给采购人,应以存储介质提交项目全套软件产品以及配套的文档,提交应属于采购人知识产权的所有系统源代码。
1.4、中标供应商应为验收提供必需的一切条件及相关费用,验收报告作为申请付款的凭证之一。具体验收方法按照长沙市相关政策文件要求组织。
1.5、项目验收中,国家有强制性规定的,按国家规定执行。与本项目有关的国家、行业、地方、团体标准亦成为本项目验收标准。招标文件、中标供应商的承诺及投标文件、双方签署的采购合同及补充协议均成为本项目验收依据。验收过程中产生纠纷或存在异议的,由质量技术监督部门认定的检测机构检测,出具检测报告,检测费用由中标单位承担。
1.6、项目验收不合格,由中标单位返工直至合格。
七、其他要求:
1.结算方法
1.1.支付方式:长沙市开福区数据资源中心(通过国库集中支付)
1.2.付款方式:合同签订之日起十个五个工作日采购人向中标供应商支付合同金额 30%。验收合格后,系统进入试运行阶段(不少于1个月),试运行期间系统运行正常,且达到采购人要求,则在试运行期结束后适时组织竣工验收。竣工验收合格后,凭采购人开具的《政府采购验收单》和竣工验收报告办理合同款项结算手续,采购人向中标供应商支付合同金额 40%。竣工验收合格之日起,系统正常运行一年(无质量问题、售后服务纠纷,以及其他经济法律纠纷等),向中标供应商支付合同总额的30%。每次付款前提条件是中标供应商出具正规发票给采购人。
3、本项目为交钥匙工程。采用费用包干方式建设,投标人应根据项目要求和现场情况,详细列明项目所需的软硬件设备及材料购置(所列设备及材料中必须包含标书中已列出的品目),以及产品运输保险保管、项目安装调试、试运行测试通过验收、培训、质保期免费保修维护等所有人工、管理、财务等费用。如一旦中标,在项目实施中出现任何遗漏,均由中标人免费提供,采购人不再支付任何费用。
4、关于政府采购促进中小企业发展相关规定:本项目非专门面向中小企业采购。
对于上述项目要求,投标人应在投标文件中逐条回应,作出承诺及说明。
采购需求仅供参考,相关内容以采购文件为准。
最新招投标信息
招投标攻略
热门标签
剑鱼标讯APP下载
APP下载地址二维码
扫码下载剑鱼标讯APP