在 Spring 批处理中仅处理了 MongoDB 数据库的一半

Only half of the MongoDB database is being processed in Spring batch

我有一个 spring 引导批处理,它与 MongoDB 数据库一起工作以提供给 MySQL 数据库。 该程序处理了大约一半的数据库,但我的日志中只有大约 200 个错误。

BATCH_STEP_EXECUTION table 让我知道过程进行顺利(状态已完成)并显示 READ_COUNT 5692,尽管我在数据库中有 11800 个文档。

我是否忘记了配置中的某些内容以防止不遍历整个数据库?

这是我的配置 class:

@Configuration
@EnableBatchProcessing
@Import(PersistenceConfig.class)
public class BatchConfiguration {
    @Autowired
    MongoTemplate mongoTemplate;

    @Autowired
    SessionFactory sessionFactory;

    @Bean
    @StepScope
    public ItemReader<CourseData> reader() {
        MongoItemReader<CourseData> mongoItemReader = new MongoItemReader<>();
        mongoItemReader.setTemplate(mongoTemplate);
        mongoItemReader.setCollection("foo");
        mongoItemReader.setQuery("{}");
        mongoItemReader.setTargetType(CourseData.class);
        Map<String, Sort.Direction> sort = new HashMap<>();
        sort.put("_id", Sort.Direction.ASC);
        mongoItemReader.setSort(sort);

        return mongoItemReader;
    }

    @Bean
    public ItemProcessor<CourseData, MatrixOne> processor() {
        return new CourseDataMatrixOneProcessor();
    }

    @Bean
    public ItemWriter<MatrixOne> writer() {
        HibernateItemWriter writer = new HibernateItemWriter();
        writer.setSessionFactory(sessionFactory);
        System.out.println("writing stuff");
        return writer;
    }

    @Bean
    public Job importUserJob(JobBuilderFactory jobs, Step s1) {
        return jobs.get("importRawCourseJob")
                .incrementer(new RunIdIncrementer())
                .flow(s1)
                .end()
                .build();
    }

    @Bean
    @Transactional
    public Step step1(StepBuilderFactory stepBuilderFactory, ItemReader<CourseData> reader, ItemWriter<MatrixOne> writer, ItemProcessor<CourseData, MatrixOne> processor) {
        return stepBuilderFactory.get("step1")
                .<CourseData, MatrixOne>chunk(10)
                .reader(reader)
                .processor(processor)
                .writer(writer)
                .build();
    }
}

好的,所以我今天通过在数据出现问题时在我的转换器中返回一个空的 POJO 而不是 null 来解决这个问题。然后我就在处理器中跳过它。

奇怪的是它并没有在遇到第一个 null 时停止。也许块元素的一些并行化让我读错了日志