MySQL 更快 Select 查询 | C# 更快加载数据表

MySQL Faster Select Query | C# Faster Load DataTable

我正在使用 MariaDB。我有一个 table 是我在第一次使用存储过程插入时为每个物联网设备创建的。如果有人想知道为什么我为每个设备创建一个新的 table 是设备每 5 秒发布一次数据,我不可能将所有这些存储在一个 table.

所以,我的 table 结构如下所示:

CREATE TABLE IF NOT EXISTS `mqttpacket_',device_serial_number,'`(
`data_type_id` int(11) DEFAULT NULL, 
`data_value` int(11) DEFAULT NULL,
`inserted_date` DATE DEFAULT NULL, 
`inserted_time` TIME DEFAULT NULL, 
FOREIGN KEY(data_type_id) REFERENCES datatypes(id), 
INDEX `index_mqttpacket`(`data_type_id`,`inserted_date`)) ENGINE = INNODB;

我有一个很长的 SELECT 查询,如下所示,用于获取所选 typedatetime 之间的数据。

SELECT  mqttpacket_123.data_value, datatypes.data_name, datatypes.value_mult,
        CONCAT(mqttpacket_123.inserted_date, ' ',
               mqttpacket_123.inserted_time) AS 'inserted_date_time'
    FROM  mqttpacket_123
    JOIN  datatypes  ON mqttpacket_123.data_type_id = datatypes.id
    WHERE  mqttpacket_123.data_type_id IN(1,2,3,4,5,6)
      AND  CASE WHEN mqttpacket_123.inserted_date = '2021-11-08'
                    THEN mqttpacket_123.inserted_time > '12:25:00'
                WHEN mqttpacket_123.inserted_date = '2021-11-15'
                    THEN mqttpacket_123.inserted_time< '12:25:00'
                ELSE (mqttpacket_123.inserted_date BETWEEN '2021-11-08'
                                                       AND '2021-11-15')
                END;

和这个 returns 下面样本的大约 500k 条记录:

|   data_value  |       data_name       |   value_mult  |   inserted_date_time  |
--------------------------------------------------------------------------------
|       271     |       name_1          |       0.1     |   2021-11-08 12:25:04 |
|       106     |       name_2          |       0.1     |   2021-11-08 12:25:04 |
|       66      |       name_3          |       0.1     |   2021-11-08 12:25:04 |
|       285     |       name_4          |       0.1     |   2021-11-08 12:25:04 |
|       61      |       name_5          |       0.1     |   2021-11-08 12:25:04 |
|       454     |       name_6          |       0.1     |   2021-11-08 12:25:04 |
|       299     |       name_7          |       0.1     |   2021-11-08 12:25:04 |

Affected rows: 0 Found rows: 395,332 Warnings: 0 Duration for 1 query: 0.734 sec. (+ 7.547 sec. network)

我只在我的 table 中保留最近 2 周的数据并清理以前的数据,因为我有一个备份系统。

但是,将查询结果加载到 DataTable 也需要大约 30 秒。比 MySQL.

慢 4 倍

您有什么改进此性能的建议吗?

PS。我通过 RunQuery 的存储过程中的以下语句从 C# 调用此查询,该语句接受查询并按原样执行。

public DataTable CallStoredProcedureRunQuery(string QueryString)
        {
            DataTable dt = new DataTable();

            try
            {
                using (var conn = new MySqlConnection(_connectionString))
                {
                    conn.Open();
                    using (var cmd = new MySqlCommand("SP_RunQuery", conn))
                    {
                        cmd.CommandType = CommandType.StoredProcedure;

                        cmd.Parameters.Add("@query_string", MySqlDbType.VarChar).Value = QueryString; 

                        using (MySqlDataAdapter sda = new MySqlDataAdapter(cmd))
                        {
                            sda.Fill(dt);
                        }
                    }
                }
            }
            catch (Exception ex)
            {
                IoTemplariLogger.tLogger.EXC("Call Stored Procedure for RunQuery failed.", ex);
            }
            return dt;
        }

EDIT: My sensors push a single MQTT packet which contains ~50 different data. There are 12 times 5seconds in a minute. So, basically, I receive ~600 rows per minute per device.

数据插入是在 Stored Procedure 异步中完成的。我将 JSON 内容与 device_id 一起推送,然后迭代 JSON 进行解析,insert into table.

PS。以下代码仅用于说明。它工作正常。

/*Dynamic SQL -- IF they are registered to the system but have notable, create it.*/
    SET create_table_query = CONCAT('CREATE TABLE IF NOT EXISTS `mqttpacket_',device_serial_number,'`(`data_type_id` int(11) DEFAULT NULL, `data_value` int(11) DEFAULT NULL,`inserted_date` DATE DEFAULT NULL, `inserted_time` TIME DEFAULT NULL, FOREIGN KEY(data_type_id) REFERENCES datatypes(id), INDEX `index_mqttpacket`(`data_type_id`,`inserted_date`)) ENGINE = InnoDB;');
    PREPARE stmt FROM create_table_query;
    EXECUTE stmt;
    DEALLOCATE PREPARE stmt;
    
    /*Loop into coming value array. It is like: $.type_1,$.type_2,$.type_3, to iterate in the JSON. We reach each value like $.type_1*/
    WHILE (LOCATE(',', value_array) > 0)
    DO
        SET arr_data_type_name = SUBSTRING_INDEX(value_array,',',1); /*pick first item of value array*/
        SET value_array = SUBSTRING(value_array, LOCATE(',',value_array) + 1); /*remove picked first item from the value_array*/
        
        SELECT JSON_EXTRACT(incoming_data, arr_data_type_name) INTO value_iteration; /*extract value of first item. $.type_1*/
        
        SET arr_data_type_name := SUBSTRING_INDEX(arr_data_type_name, ".", -1); /*Remove the $ and the . to get pure data type name*/
        
        /*Check the data type name exists or not in the table, if not insert and assign it's id to lcl_data_type_id*/
            IF (SELECT COUNT(id) FROM datatypes WHERE datatypes.data_name = arr_data_type_name) > 0 THEN 
                SELECT id INTO lcl_data_type_id FROM datatypes WHERE datatypes.data_name = arr_data_type_name LIMIT 1;
            ELSE
                SELECT devices.device_type_id INTO lcl_device_type FROM devices WHERE devices.id = lcl_device_id LIMIT 1;
                INSERT INTO datatypes (datatypes.data_name,datatypes.description,datatypes.device_type_id,datatypes.value_mult ,datatypes.inserted_time) VALUES(arr_data_type_name,arr_data_type_name,lcl_device_type,0.1,NOW());
                SELECT id INTO lcl_data_type_id FROM datatypes WHERE datatypes.data_name = arr_data_type_name LIMIT 1;
            END IF;
            
            /*To retrieve the table of which device has which datatypes inserted, this is to not to retrieve the datatypes unneccesseraly for the selected device*/
            IF (SELECT COUNT(device_id) FROM devicedatatypes WHERE devicedatatypes.device_id = lcl_device_id AND devicedatatypes.datatype_id = lcl_data_type_id) < 1 THEN
                INSERT INTO devicedatatypes (devicedatatypes.device_id, devicedatatypes.datatype_id) VALUES(lcl_device_id,lcl_data_type_id);
            END IF;
            
            SET lcl_insert_mqtt_query = CONCAT('INSERT INTO mqttpacket_',device_serial_number,'(data_type_id,data_value,inserted_date,inserted_time) VALUES(',lcl_data_type_id,',',value_iteration,',''',data_date,''',''',data_time,''');');
            PREPARE stmt FROM lcl_insert_mqtt_query;
            EXECUTE stmt;
            SET affected_data_row_count = affected_data_row_count + 1;
                        
    END WHILE;

Here and here 也是关于评论的服务器和数据库的额外信息。 我在服务器上有一个 SSD。除了我的 dotnet 应用程序和数据库之外,没有其他重要的东西可以工作。

  • 通常最好有一个 DATETIME 列,而不是将其分成两列(DATETIME)。这可能会简化 WHERE 子句。

  • 每台设备一个 table 通常不是一个好主意。相反,为 device_id.

    添加一列
  • 没有 PRIMARY KEY 是个坏主意。对于特定设备,您是否曾在同一秒内获得两个读数?可能不是。

将这些结合起来加上一些其他可能的更改,首先将 table 更改为

CREATE TABLE IF NOT EXISTS `mqttpacket`(
`device_serial_number` SMALLINT UNSIGNED NOT NULL,
`data_type_id` TINYINT UNSIGNED NOT NULL,
`data_value` SMALLINT NOT NULL,
`inserted_at` DATETIME NOT NULL, 
FOREIGN KEY(data_type_id) REFERENCES datatypes(id), 
PRIMARY KEY(device_serial_number, `data_type_id`,`inserted_at`)
) ENGINE = INNODB;

那个PK会让查询更快。

这可能是您在更改为 DATETIME 后要查找的内容:

  AND inserted_at >= '2021-11-08 12:25:00'
  AND inserted_at  < '2021-11-08 12:25:00' + INTERVAL 7 DAY

要保留 2 周的数据,DROP PARTITION 是一种有效的删除方法。我会使用 PARTITION BY RANGE(TO_DAYS(inserted_at)) 并有 16 个分区,如 http://mysql.rjweb.org/doc.php/partitionmaint

中所讨论

如果您每 5 秒插入一千行——使用 table-per-device,您将需要一千个线程,每个线程执行一次插入。这将是架构的噩梦。使用单个 table(正如我建议的那样),并且如果您可以同时在一个进程中将 1000 行放在一起,则每 5 秒执行一次多行 INSERT。我讨论其他high speed ingestion.

每秒速率 = RPS

针对您的实例 [mysqld] 部分要考虑的建议

innodb_io_capacity=500  # from 200 to use more of available SSD IOPS
innodb_log_file_size=256M  # from 48M to reduce log rotation frequency
innodb_log_buffer_size=128M  # from 16M to reduce log rotation avg 25 minutes
innodb_lru_scan_depth=100  # from 1024 to conserve 90% CPU cycles used for function
innodb_buffer_pool_size=10G  # from 128M to reduce innodb_data_reads 85 RPS
innodb_change_buffer_max_size=50  # from 25 percent to expedite pages created 590 RPhr

观察, innodb_flush_method=O_DIRECT # from fsync for method typically used on LX systems

您应该会发现这些显着提高了任务完成性能。查看配置文件以获取可免费下载的实用程序脚本以帮助进行性能调整。
还有其他调整全局变量的机会。