将 Liquibase 迁移应用于多模块 gradle 项目的集成测试 旧结构:新结构:问题我目前的研究问题

如何解决将 Liquibase 迁移应用于多模块 gradle 项目的集成测试 旧结构:新结构:问题我目前的研究问题

我正在模块化一个用 Java 开发的单体应用,它利用 Micronaut 框架和 Gradle 作为构建工具。正如标题所示,它利用 Liquibase 进行数据库迁移。

旧结构:

这是一个标准的单一 Gradle java 项目,带有用于生成 war 文件的 war 插件。它在 src/main/java/resources 文件夹中包含所有迁移(标准 micronaut-liquibase 内容)

新结构:

我正在将各种独立的域分解为单独的 Gradle 项目。我已经创建了一个 startup 项目,该项目应该包含所有项目初始化逻辑,例如 Micronauts 上下文初始化和 Liquibase DB 迁移。

project/
|
+---gradle-project-A/
|   |
|   +---build.gradle
|   |
|   +---src/main/java/
|   |
|   +---src/test/
|       |
|       +---java/TestIntegration.java
|       |
|       +---resources/application.yml (for testing)
|
+---startup/
|   |
|   +---build.gradle
|   |
|   +---src/main/java/Application.java
|   |
|   +---src/main/java/resources/
|       |
|       +---db/changelog.sql files (These files are referred by the changelog.yml)
|       +---liqiubase-changelog.yml (Liquibase looks for this file in classpath)
|       +---application.yml (Micronaut config)
|
+---settings.gradle
|
|

当然,还会有更多的 Gradle 项目gradle-project-B,C...

最终,startup 将生成一个包含 gradle-project-A 作为 jar 依赖项的 war 文件。这是我想到的结构。

因此,startup 依赖于所有其他 Gradle 项目

精简版的 startup/build.gradle

plugins {
    'io.micronaut.application'
    'war'
}

dependencies {
    implementation project(':gradle-project-A')
}

问题

  • 如文件夹结构所示,有些集成测试需要将所有 liquibase 迁移预先应用到数据库(测试容器)
  • 在旧结构中,迁移是在执行测试时获取的,因为它们在同一个 Gradle 项目中。
  • 现在,迁移是 startup 的一部分,并且在 gradle-project-A 中运行集成测试时显然不会提取它们

我目前的研究

  • 新项目结构的灵感来自于这个post
  • 我的问题似乎类似于 StackOverflow 上的 this 问题,但我不确定我是否理解正确(不是 Gradle 专家)

问题

  • 如何在运行测试时让 gradle-project-A 检测类路径中的 liqiubase-changelog.yml
  • 我不能将 startup 作为 gradle-project-A 的依赖项,因为这将是循环依赖项。我的模块结构可以改进吗?

欢迎您提出任何建议!提前感谢您的帮助...

解决方法

我认为您需要为 project-Aproject-B 等拆分迁移脚本。

因此,在 project-A/src/main/java/resources/ 中,您需要具有 project-A 的迁移脚本,project-B 的迁移脚本也是如此,等等。然后,在您的 startup 项目中,您可以拥有 {{1 }} 看起来像这样:

changelog.xml

这样,启动将为所有项目选择迁移脚本,当您为 <databaseChangeLog xmlns="http://www.liquibase.org/xml/ns/dbchangelog" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.liquibase.org/xml/ns/dbchangelog http://www.liquibase.org/xml/ns/dbchangelog/dbchangelog-3.1.xsd"> <include file="pathToChangeLogFromProjectA.xml" relativeToChangelogFile="true"/> <include file="pathToChangeLogFromProjectA.xml" relativeToChangelogFile="true"/> </databaseChangeLog> 运行测试时,只会运行该项目的脚本。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)&gt; insert overwrite table dwd_trade_cart_add_inc &gt; select data.id, &gt; data.user_id, &gt; data.course_id, &gt; date_format(
错误1 hive (edu)&gt; insert into huanhuan values(1,&#39;haoge&#39;); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive&gt; show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 &lt;configuration&gt; &lt;property&gt; &lt;name&gt;yarn.nodemanager.res