导入 Spark Java 时,IntelliJ 无法解析符号 'spark'

IntelliJ cannot resolve symbol 'spark' when importing Spark Java

我目前运行正在使用最新的 IntelliJ,我正在尝试将 SparkJava Webserver 用于我正在编写的 Gradle 项目。 当我使用 gradle 进行编译和 运行 时,一切正常,但是我在

中遇到错误
import static spark.Spark.*;

IntelliJ 无法解析符号 spark,即使我显然在 build.gradle 中设置了正确的依赖项:

    plugins {
    id 'java'
}

group 'org.example'
version '1.0-SNAPSHOT'

repositories {
    mavenCentral()
}

dependencies {
    testImplementation 'org.junit.jupiter:junit-jupiter-api:5.7.0'
    testRuntimeOnly 'org.junit.jupiter:junit-jupiter-engine:5.7.0'
    implementation 'mysql:mysql-connector-java:8.0.27'
    implementation "com.sparkjava:spark-core:2.9.3"
    implementation "org.slf4j:slf4j-simple:1.7.9"

}

test {
    useJUnitPlatform()
}

有什么办法可以避免这种情况吗?

非常感谢。

我知道了:

在 IntelliJ 中,在查看 -> 工具 Windows -> Gradle 下,有一个选项可以刷新与以下按钮相关的所有 Gradle:

使用它刷新缓存并生成正确导入的依赖项。