Skip to content

Latest commit

 

History

History
126 lines (75 loc) · 8.33 KB

explore-htap.md

File metadata and controls

126 lines (75 loc) · 8.33 KB
title summary
HTAP 深入探索指南
本文介绍如何深入探索并使用 TiDB 的 HTAP 功能。

HTAP 深入探索指南

本指南介绍如何进一步探索并使用 TiDB 在线事务与在线分析处理 (Hybrid Transactional and Analytical Processing, HTAP) 功能。

注意:

如果你对 TiDB HTAP 功能还不太了解,希望快速试用体验,请参阅快速上手 HTAP

要快速了解 TiDB 在 HTAP 场景下的体系架构与 HTAP 的适用场景,建议先观看下面的培训视频(时长 15 分钟)。注意本视频只作为学习参考,如需了解详细的 HTAP 相关内容,请参阅下方的文档内容。

HTAP 适用场景

TiDB HTAP 可以满足企业海量数据的增产需求、降低运维的风险成本、与现有的大数据栈无缝缝合,从而实现数据资产价值的实时变现。

以下是三种 HTAP 典型适用场景:

  • 混合负载场景

    当将 TiDB 应用于在线实时分析处理的混合负载场景时,开发人员只需要提供一个入口,TiDB 将自动根据业务类型选择不同的处理引擎。

  • 实时流处理场景

    当将 TiDB 应用于实时流处理场景时,TiDB 能保证源源不断流入系统的数据实时可查,同时可兼顾高并发数据服务与 BI 查询。

  • 数据中枢场景

    当将 TiDB 应用于数据中枢场景时,TiDB 作为数据中枢可以无缝连接数据业务层和数据仓库层,满足不同业务的需求。

如果想了解更多关于 TiDB HTAP 场景信息,请参阅 PingCAP 官网中关于 HTAP 的博客

当遇到以下技术场景时,建议使用 TiDB HTAP 提升 TiDB 数据库整体表现:

  • 提升分析性能

    你的业务中存在某些复杂的分析查询,如聚合、关联等操作。当这些分析查询涉及大量数据(超过 1000 万行)时,如果查询涉及的表无法有效利用索引或者索引的选择性较差,而行存储引擎 TiKV 难以满足查询的性能需求。

  • 混合负载隔离

    在高并发的 OLTP 业务同时,你可能需要处理一些 OLAP 业务,同时还需要避免 OLAP 查询影响 OLTP 业务性能,确保系统的整体稳定性。

  • 简化 ETL 技术栈

    当需要加工的数据量为中等规模(100 TB 以内)、数据加工调度流程相对简单、并发度不高(10 以内)时,你可能希望简化技术栈,替换原本需要使用多个不同技术栈的 OLTP、ETL 和 OLAP 系统,使用一个数据库同时满足交易系统以及分析系统的需求,降低技术门槛和运维人员需求。

  • 强一致性分析

    如果需要对业务数据进行实时、强一致的分析计算,并且要求数据分析结果和业务数据完全一致,避免数据延迟和不一致的问题。

HTAP 架构

在 TiDB 中,面向在线事务处理的行存储引擎 TiKV 与面向实时分析场景的列存储引擎 TiFlash 同时存在,自动同步,保持强一致性。

更多架构信息,请参考 TiDB HTAP 形态架构

HTAP 环境准备

在深入探索 TiDB HTAP 功能前,请依据你的数据场景部署 TiDB 以及对应的数据分析引擎。大数据场景 (100 T) 下,推荐使用 TiFlash MPP 作为 HTAP 的主要方案,TiSpark 作为补充方案。

  • TiFlash

    • 如果已经部署 TiDB 集群但尚未部署 TiFlash 节点,请参阅扩容 TiFlash 节点中的步骤在现有 TiDB 集群中添加 TiFlash 节点。

    • 如果尚未部署 TiDB 集群,请使用 TiUP 部署 TiDB 集群,并在包含最小拓扑的基础上,同时增加 TiFlash 拓扑架构

    • 在决定如何选择 TiFlash 节点数量时,请考虑以下几种业务场景:

      • 如果业务场景以 OLTP 为主,做轻量级的 Ad hoc OLAP 计算,通常部署 1 个或几个 TiFlash 节点就会产生明显的加速效果。
      • 当 OLTP 数据吞吐量对节点 I/O 无明显压力时,每个 TiFlash 节点将会使用较多资源用于计算,这样 TiFlash 集群可实现近似线性的扩展能力。TiFlash 节点数量应根据期待的性能和响应时间调整。
      • 当 OLTP 数据吞吐量较高时(例如写入或更新超过千万行/小时),由于网络和物理磁盘的写入能力有限,内部 TiKV 与 TiFlash 之间的 I/O 会成为主要瓶颈,也容易产生读写热点。此时 TiFlash 节点数与 OLAP 计算量有较复杂非线性关系,需要根据具体系统状态调整节点数量。
  • TiSpark

    • 如果你的业务需要基于 Spark 进行分析,请部署 TiSpark。具体步骤,请参阅 TiSpark 用户指南

HTAP 数据准备

TiFlash 部署完成后并不会自动同步数据,你需要指定需要同步到 TiFlash 的数据表。指定后,TiDB 将创建对应的 TiFlash 副本。

  • 如果 TiDB 集群中还没有数据,请先迁移数据到 TiDB。详情请参阅数据迁移
  • 如果 TiDB 集群中已经有从上游同步过来的数据,TiFlash 部署完成后并不会自动同步数据,而需要手动指定需要同步的表,详情请参阅使用 TiFlash

HTAP 数据处理

使用 TiDB 时,你只需输入 SQL 语句进行查询或者写入需求。对于创建了 TiFlash 副本的表,TiDB 会依靠前端优化器自由选择最优的执行方式。

注意:

TiFlash 的 MPP 模式默认开启。当执行 SQL 语句时,TiDB 会通过优化器自动判断并选择是否以 MPP 模式执行。

HTAP 性能监控

在 TiDB 的使用过程中,可以选择以下方式监控 TiDB 集群运行情况并查看性能数据。

  • TiDB Dashboard:查看集群整体运行概况,分析集群读写流量分布及趋势变化,详细了解耗时较长的 SQL 语句的执行信息。
  • 监控系统 (Prometheus & Grafana):查看 TiDB 集群各组件(包括 PD、TiDB、TiKV、TiFlash、TiCDC、Node_exporter)的相关监控参数。

如需查看 TiDB 和 TiFlash 集群报警规则和处理方法,请查阅 TiDB 集群报警规则TiFlash 报警规则

HTAP 故障诊断

在使用 TiDB 的过程中如果遇到问题,请参阅以下文档:

除此之外,你可以在 Github Issues 新建一个 Issue 反馈问题,或者在 AskTUG 提交你的问题。

探索更多