Doctrine/MySQL 性能:470 列合而为一 table

Doctrine/MySQL performance: 470 columns in one table

我有一个 external csv 文件需要导入到 MySQL 数据库中:csv 有 473 列(144k 行),在我看来对于单个 table。

问题:我正在考虑进行一些规范化并将数据拆分为更多 tables 但是每当发布新的 csv 时这将需要额外的工作(与更多或更少的列)。

如果我保持CSV/Table的结构完好并有一个大的table可以吗?这两种方法对 MySQL/Doctrine 的性能影响是什么?

数据: 我没有此数据的所有权,无法将其拆分为更多 tables:此数据原样来自 government public 资源:没有列重复.. 所以没有办法拆分它 :( 我必须按原样接受它......任何额外的 categorization/splitting 都是过度劳累,可能会在下次更新数据时发生变化。

深入研究 CSV 数据,我发现了一些有趣的组织:它可以分为 18 个不同的 tables(提供者)。

每个 table 都有自己的列(有些列存在于多个 table 中)但最大的列大约有 180 列..

到目前为止,这就是我可以拆分数据的方式:由于我没有 CSV 的所有权,所以我无法继续,只能将相似的分组 columns/tables。