博客
关于我
利用Zipkin追踪Mysql数据库调用链
阅读量:560 次
发布时间:2019-03-07

本文共 6333 字,大约阅读时间需要 21 分钟。

Profile


概述

在前面: 一文中我们利用Zipkin搭建了一个微服务调用链的追踪中心,并且模拟了微服务调用的实验场景。利用Zipkin的库Brave,我们可以收集一个客户端请求从发出到被响应 经历了哪些组件哪些微服务请求总时长每个组件所花时长 等信息。

本文将讲述如何利用Zipkin对Mysql数据库的调用进行追踪,这里同样借助OpenZipkin库Brave来完成。

注: 本文首发于 My 公众号 CodeSheep ,可 长按扫描 下面的 小心心 来订阅 ↓ ↓ ↓

CodeSheep · 程序羊


扩展ZipkinTool组件

ZipkinTool是在一文中编写的与Zipkin通信的工具组件,利用其追踪微服务调用链的,现在我们想追踪Mysql数据库调用链的话,可以扩展一下其功能。

  • pom.xml添加依赖:
io.zipkin.brave
brave-mysql
4.0.6
  • 在ZipkinConfiguration类中添加MySQLStatementInterceptorManagementBean
@Bean    public MySQLStatementInterceptorManagementBean mySQLStatementInterceptorManagementBean() {        return new MySQLStatementInterceptorManagementBean(brave().clientTracer());    }

添加Mysql数据库访问的微服务

依然继承前文:,我们改造一下文中的ServiceC这个微服务,在其中添加与Mysql数据库的交互。

  • pom.xml中添加JDBC和Mysql依赖
org.springframework.boot
spring-boot-starter-jdbc
mysql
mysql-connector-java
runtime
  • application.properties中添加Mysql连接的配置
spring.datasource.driver-class-name=com.mysql.jdbc.Driverspring.datasource.url=jdbc:mysql://你的Mysql服务所在IP:3307/test?useSSL=false\  &statementInterceptors=com.github.kristofa.brave.mysql.MySQLStatementInterceptor\  &zipkinServiceName=mysqlServicespring.datasource.username=rootspring.datasource.password=XXXXXX
  • Controller中添加JdbcTemplate访问数据库的代码
@GetMapping("/mysqltest”)    public String mysqlTest() {        String name = jdbcTemplate.queryForObject( "SELECT name FROM user WHERE id = 1", String.class );        return "Welcome " + name;    }

启动Mysql数据库服务

1. 启动Mysql容器

docker run -d -p 3307:3306 \-v ~/mysql/data:/var/lib/mysql \-v ~/mysql/conf:/etc/mysql/conf.d \-e MYSQL_ROOT_PASSWORD=XXXXXX \--name mysql mysql

2. 再启动一个Mysql容器,接入其中做一些设置

  • 首先进入mysql命令行
docker run -it --rm \--link mysql:mysql mysql \mysql -hmysql -u root -p

进入Mysql的命令行

  • 接下来创建数据库zipkin: 用于存放Zipkin所收集的数据
CREATE DATABASE `zipkin`CREATE TABLE IF NOT EXISTS zipkin_spans (  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit’,  `trace_id` BIGINT NOT NULL,  `id` BIGINT NOT NULL,  `name` VARCHAR(255) NOT NULL,  `parent_id` BIGINT,  `debug` BIT(1),  `start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL’,  `duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query’) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;ALTER TABLE zipkin_spans ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `id`) COMMENT 'ignore insert on duplicate’;ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`, `id`) COMMENT 'for joining with zipkin_annotations’;ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds’;ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and getSpanNames’;ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces ordering and range’;CREATE TABLE IF NOT EXISTS zipkin_annotations (  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit’,  `trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id’,  `span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id’,  `a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1’,  `a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB’,  `a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation’,  `a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp’,  `endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null’,  `endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint is null, or no IPv6 address’,  `endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null’,  `endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null’) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate’;ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`, `span_id`) COMMENT 'for joining with zipkin_spans’;ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds’;ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames’;ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces’;ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces’;ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`) COMMENT 'for dependencies job’;CREATE TABLE IF NOT EXISTS zipkin_dependencies (  `day` DATE NOT NULL,  `parent` VARCHAR(255) NOT NULL,  `child` VARCHAR(255) NOT NULL,  `call_count` BIGINT,  `error_count` BIGINT) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(`day`, `parent`, `child`);

这里创建了三个数据表。

该Sql文件可以从以下链接获得:

Sql脚本执行完成后,可以看到zipkin相关的三个表已经建成:

Zipkin相关的三个表

Zipkin相关的三个表

  • 创建数据库test:用作测试数据库
CREATE DATABASE `test`CREATE TABLE `user` (  `id` int(11) unsigned NOT NULL auto_increment,  `name` varchar(100) DEFAULT NULL ,  PRIMARY KEY (`id`)) ENGINE=InnoDB DEFAULT CHARSET = utf8;insert into user values (1,”hansonwang99”)

这里插入了一条数据用于实验。

创建test数据库并插入一条数据


启动zipkin服务

docker run -d -p 9411:9411 \--link mysql:mysql \-e STORAGE_TYPE=mysql \-e MYSQL_HOST=mysql \-e MYSQL_TCP_PORT=3306 \-e MYSQL_DB=zipkin \-e MYSQL_USER=root \-e MYSQL_PASS=XXXXXX \ --name zipkin openzipkin/zipkin

启动Mysql数据库访问的微服务(即ServiceC)

在浏览器中输入:localhost:8883/mysqltest,如果看到以下输出,就可以证明数据库调用操作已经成功了!

数据库调用操作已经成功


Zipkin追踪数据库调用实际实验

  • 浏览器输入:

打开Zipkin Web UI,点击服务名下拉列表能看见已经成功识别了Mysql数据库调用服务

成功识别Mysql数据库调用服务

  • 选中mysqlservice后,点击Find Traces

可以看到 首次查询 Mysql的调用链追踪信息,有很多

首次查询Mysql所产生的Traces信息

随便点开某一个查看:

随机查看某一个具体的Trace信息

  • **接下来浏览器中再次输入:**localhost:8883/mysqltest

目的是再次触发Mysql的调用,然后再次Find Traces,可以看到追踪数据类似下图:包含两次Mysql的query动作:

两次Mysql的query动作

点开第一个query查看,其实际上是在 尝试连接Mysql数据库

第一个query详情

点开第二个query查看,发现这里才是 实际查询业务

第二个query详情

从图形化界面上可以清楚地知道每个阶段的详细步骤与耗时,因此可以用来分析哪个SQL语句执行相对较慢。


后记

本文实验所用源码已经开源,需要的话请 。

作者更多的SpringBt实践文章在此:


如果有兴趣,也可以抽点时间看看作者一些关于容器化、微服务化方面的文章:


长按扫描 下面的 小心心 来订阅 CodeSheep,获取更多 务实、能看懂、可复现的 原创文 ↓↓↓

CodeSheep · 程序羊


转载地址:http://swinz.baihongyu.com/

你可能感兴趣的文章
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>