SpringCloud项目升级seata遇到的坑,并使用Docker安装新版seata服务端

前言

最近升级了我的开源项目的SpringCloudAlibaba版本(2.2.3.RELEASE)后,项目启动报了一堆错。后来一步一坑的解决,所以此处记录下,希望能帮助到和我一样升级遇到一堆坑的小伙伴。

升级前使用版本:
spring-boot:2.2.6.RELEASE;
spring-cloud:Hoxton.SR1;
spring-cloud-alibaba:.2.2.0.RELEASE;

前因

有一个小伙伴私信我说,我的开源项目中seata没法用,一开始我没在意,因为整合每个组件我都会测试ok后才会push代码的。后来他贴了一张截图给我,自己测试之后确实存在问题(无情打脸)。
异常如下:

NoSuchMethodError:com.alibaba.druid.sql.SQLUtils#parseStatements(java.lang.String,java.lang.String)

后来发现是因为自己指定了nacos-client版本为 1.2.0导致。

指定nacos-client版本为 1.2.0是为了解决异常:

java.net.ConnectException: no available server, currentServerAddr : http://xxx:8848
参考文章:https://blog.csdn.net/Thinkingcao/article/details/105505537

没想到会影响到seata的使用。索性就去除版本指定,然后升级spring-cloud-alibaba的版本2.2.3.RELEASE,因为其组件版本如下,符合我们的要求:
在这里插入图片描述

版本关系

升级后,启动报错(此处错误就不贴了,一堆堆栈),后来通过同步升级SpringCloud、springboot版本解决。

升级后使用版本:
spring-boot:2.3.2.RELEASE;
spring-cloud:Hoxton.SR8;
spring-cloud-alibaba:.2.2.3.RELEASE;

在这里插入图片描述
具体版本关系参照:
https://github.com/alibaba/spring-cloud-alibaba/wiki/%E7%89%88%E6%9C%AC%E8%AF%B4%E6%98%8E

spribgboot升级后,javax.validation.constraints下的注解都无法使用。在这里插入图片描述
原因是springboot2.3.0版本后不包含validation包,需要手动引入。

<!--validation 2.3.0版本后需要手动引入-->
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-validation</artifactId>
</dependency>        

seata服务端升级

虽然服务可以正常启动,但是seata还是报错:

no available service ‘default’ found, please make sure registry config correct

后来发现自己用的seata 服务端竟然还是 0.9.0 的版本,此版本不建议在生产环境使用。需要升级seata服务端版本,我是直接升级到了1.3.0版本。
使用Docker安装,Nacos作为配置和注册中心,Mysql作为存储库。

  • 将seata服务端配置放到Nacos 上
    1.准备config.txt和nacos-config.sh脚本。
    config.txt文件内容如下,调整store.mode为db,并修改store.db相关配置。
    service.vgroup-mapping.xxx-tx-group配置需要和项目中配置相同,下文会讲到。
transport.type=TCP
transport.server=NIO
transport.heartbeat=true
transport.enableClientBatchSendRequest=false
transport.threadFactory.bossThreadPrefix=NettyBoss
transport.threadFactory.workerThreadPrefix=NettyServerNIOWorker
transport.threadFactory.serverExecutorThreadPrefix=NettyServerBizHandler
transport.threadFactory.shareBossWorker=false
transport.threadFactory.clientSelectorThreadPrefix=NettyClientSelector
transport.threadFactory.clientSelectorThreadSize=1
transport.threadFactory.clientWorkerThreadPrefix=NettyClientWorkerThread
transport.threadFactory.bossThreadSize=1
transport.threadFactory.workerThreadSize=default
transport.shutdown.wait=3
service.vgroupMapping.my_test_tx_group=default
service.default.grouplist=127.0.0.1:8091
service.enableDegrade=false
service.disableGlobalTransaction=false
client.rm.asyncCommitBufferLimit=10000
client.rm.lock.retryInterval=10
client.rm.lock.retryTimes=30
client.rm.lock.retryPolicyBranchRollbackOnConflict=true
client.rm.reportRetryCount=5
client.rm.tableMetaCheckEnable=false
client.rm.sqlParserType=druid
client.rm.reportSuccessEnable=false
client.rm.sagaBranchRegisterEnable=false
client.tm.commitRetryCount=5
client.tm.rollbackRetryCount=5
client.tm.defaultGlobalTransactionTimeout=60000
client.tm.degradeCheck=false
client.tm.degradeCheckAllowTimes=10
client.tm.degradeCheckPeriod=2000
store.mode=db
store.file.dir=file_store/data
store.file.maxBranchSessionSize=16384
store.file.maxGlobalSessionSize=512
store.file.fileWriteBufferCacheSize=16384
store.file.flushDiskMode=async
store.file.sessionReloadReadSize=100
store.db.datasource=druid
store.db.dbType=mysql
store.db.driverClassName=com.mysql.jdbc.Driver
store.db.url=jdbc:mysql://111.231.111.150:3306/seata?useUnicode=true
store.db.user=root
store.db.password=gourd123
store.db.minConn=5
store.db.maxConn=30
store.db.globalTable=global_table
store.db.branchTable=branch_table
store.db.queryLimit=100
store.db.lockTable=lock_table
store.db.maxWait=5000
store.redis.host=127.0.0.1
store.redis.port=6379
store.redis.maxConn=10
store.redis.minConn=1
store.redis.database=0
store.redis.password=null
store.redis.queryLimit=100
server.recovery.committingRetryPeriod=1000
server.recovery.asynCommittingRetryPeriod=1000
server.recovery.rollbackingRetryPeriod=1000
server.recovery.timeoutRetryPeriod=1000
server.maxCommitRetryTimeout=-1
server.maxRollbackRetryTimeout=-1
server.rollbackRetryTimeoutUnlockEnable=false
client.undo.dataValidation=true
client.undo.logSerialization=jackson
client.undo.onlyCareUpdateColumns=true
server.undo.logSaveDays=7
server.undo.logDeletePeriod=86400000
client.undo.logTable=undo_log
client.log.exceptionRate=100
transport.serialization=seata
transport.compressor=none
metrics.enabled=false
metrics.registryType=compact
metrics.exporterList=prometheus
metrics.exporterPrometheusPort=9898
service.vgroup-mapping.sub-tx-group=default
service.vgroup-mapping.admin-tx-group=default

nacos-config.sh脚本如下:

while getopts ":h:p:g:t:u:w:" opt
do
  case $opt in
  h)
    host=$OPTARG
    ;;
  p)
    port=$OPTARG
    ;;
  g)
    group=$OPTARG
    ;;
  t)
    tenant=$OPTARG
    ;;
  u)
    username=$OPTARG
    ;;
  w)
    password=$OPTARG
    ;;
  ?)
    echo " USAGE OPTION: $0 [-h host] [-p port] [-g group] [-t tenant] [-u username] [-w password] "
    exit 1
    ;;
  esac
done

if [[ -z ${
    
    host} ]]; then
    host=localhost
fi
if [[ -z ${
    
    port} ]]; then
    port=8848
fi
if [[ -z ${
    
    group} ]]; then
    group="SEATA_GROUP"
fi
if [[ -z ${
    
    tenant} ]]; then
    tenant=""
fi
if [[ -z ${
    
    username} ]]; then
    username=""
fi
if [[ -z ${
    
    password} ]]; then
    password=""
fi

nacosAddr=$host:$port
contentType="content-type:application/json;charset=UTF-8"

echo "set nacosAddr=$nacosAddr"
echo "set group=$group"

failCount=0
tempLog=$(mktemp -u)
function addConfig() {
    
    
  curl -X POST -H "${contentType}" "http://$nacosAddr/nacos/v1/cs/configs?dataId=$1&group=$group&content=$2&tenant=$tenant&username=$username&password=$password" >"${tempLog}" 2>/dev/null
  if [[ -z $(cat "${tempLog}") ]]; then
    echo " Please check the cluster status. "
    exit 1
  fi
  if [[ $(cat "${tempLog}") =~ "true" ]]; then
    echo "Set $1=$2 successfully "
  else
    echo "Set $1=$2 failure "
    (( failCount++ ))
  fi
}

count=0
for line in $(cat config.txt | sed s/[[:space:]]//g); do
  (( count++ ))
	key=${
    
    line%%=*}
    value=${
    
    line#*=}
	addConfig "${key}" "${value}"
done

echo "========================================================================="
echo " Complete initialization parameters,  total-count:$count ,  failure-count:$failCount "
echo "========================================================================="

if [[ ${
    
    failCount} -eq 0 ]]; then
	echo " Init nacos config finished, please start seata-server. "
else
	echo " init nacos config fail. "
fi

2.运行脚本,运行脚本命令:sh nacos-config.sh [-h host] [-p port] [-g group] [-t tenant] [-u username] [-w password];

-h nacos地址
-p nacos端口,默认 8848
-g nacos配置组
-t naocos的命名空间id
-u -p 登录nacos的账号、密码

nacos-config.sh和config.txt文件位置需如下放置到同一目录:
在这里插入图片描述
运行命令如下:
在这里插入图片描述
成功后会在Nacos配置中心看到相关配置。如下说明执行成功。
在这里插入图片描述

  • 准备服务端配置registry.conf
    注册和配置中心均选择nacos,然后填写相关信息。如下是我的配置。
registry {
    
    
  type = "nacos"
  nacos {
    
    
    serverAddr = "111.231.111.150:8848"
    application = "seata-server"
    group = "SEATA_GROUP"
    namespace = "0f342584-17a7-4247-8496-77817c889e2e"
    cluster = "default"
  }
}
config {
    
    
  type = "nacos"
  nacos {
    
    
    serverAddr = "111.231.111.150:8848"
    namespace = "0f342584-17a7-4247-8496-77817c889e2e"
    group = "SEATA_GROUP"
  }
}
  • Docker安装seata服务端。

-e SEATA_IP 指定当前机器的公网ip。
-e SEATA_CONFIG_NAME 指定配置文件位置

docker run --name seata-server \
-p 8091:8091 -e SEATA_IP=111.231.111.150 \
-e SEATA_CONFIG_NAME=file:/root/seata-config/registry \
--restart=always -d \
-v /usr/gourd/docker/seata/config:/root/seata-config  \
seataio/seata-server:1.3.0

执行如下:
在这里插入图片描述
docker logs 查看容器日志,如下说明seata服务启动成功。
在这里插入图片描述
注:如果你服务启动报如下错误,需要将nacos中相应store.db.driver-class-name调整为store.db.driverClassName,然后rm掉镜像后,重启启动。

Caused by: io.seata.common.exception.StoreException: the {store.db.driverClassName} can’t be empty

  • 客户端项目配置调整,删除resources目录下registry.conf、file.conf文件,在yml中增加如下配置:
# seata 分布式事务
seata:
  enabled: true
  application-id: ${
    
    spring.application.name}
  enable-auto-data-source-proxy: false
  tx-service-group: admin-tx_group
  service:
    vgroup-mapping:
      admin-tx_group: default  #key与上面的tx-service-group的值对应
  registry:
    type: nacos
    nacos:
      server-addr: ${
    
    spring.cloud.nacos.config.server-addr}
      namespace: 0f342584-17a7-4247-8496-77817c889e2e
      group: SEATA_GROUP
      cluster: default

到此所有准备就完成了,直接启动项目测试。我测试下来是ok的。

结语

以上就是升级seata遇到的种种坑,及解决方法。如果你还有其他的问题欢迎留言交流。
seata官方文档:http://seata.io/zh-cn/docs/ops/upgrade.html

代码摘自本人的开源项目cloud-plus:https://blog.csdn.net/HXNLYW/article/details/104635673

猜你喜欢

转载自blog.csdn.net/HXNLYW/article/details/109182278
今日推荐