如何有效地将大型数据集从 Oracle 中提取到文件中?
How to efficiently extract large dataset from Oracle to a file?
我有一个 oracle 服务器,我需要使用 python 将数据提取到文件中。这些文件被下游系统用作输入。
一些技术细节:
Oracle 和 Python 在不同的服务器上 运行。数据库由客户端托管,而所有脚本都 运行 在 AWS RHEL EC2 服务器上。此屏幕截图中突出显示了 EC2 实例的详细信息。 .
我的方法
为此,我选择 Python 的 Pyodbc 库连接到远程 Oracle 客户端并使用 SQL 查询提取数据。以下是根据提供的 SQL 查询获取数据的代码摘录。
def fetch_data_to_file(self,curr,query,dataset):
try:
self.logger.info('Executing query: {}'.format(query))
start = time.time()
curr.execute(query)
query_time = time.time()-start
start = time.time()
rowcount=0
with open(dataset,'a+') as f:
writer = csv.writer(f,delimiter='|')
writer.writerow([i[0] for i in curr.description])
self.logger.info('Writing file: {}'.format(dataset))
while True:
rows = curr.fetchmany(self.batch_limit)
self.logger.info('Writing {} rows'.format(self.batch_limit))
rowcount+=len(rows)
if not rows:
break
self.timer.info('{} Query Execution Time: {} seconds'.format(dataset,query_time))
self.timer.info('{} File Writing Time: {} seconds. at {} rows/second'.format(dataset,time.time()-start,int(rowcount / (time.time()-start))))
self.logger.info("File written.")
except Exception as e:
self.error.info("Error in fetching data.Error: {}".format(e))
raise SystemExit(1)
我正在提取的数据集接近 8GB 未压缩大小(返回接近 3500 万行)。在我的 EC2 服务器上下载文件需要大约 1.5 小时的代码。
我测试了 batch_limits 的多种变体,发现 100 万 - 200 万是批量下载数据的最佳大小,但是我不确定是否还有其他方法可以更有效地确定我的批量大小应该是多少。
我还调查了什么
我在网上寻找使用 python 将大型数据集写入文件的方法,许多人建议使用 Pandas。我试图弄清楚这一点,但没有成功。此外,重要的是我在将数据提取到文件时保留数据及其数据类型。
我的问题是:我可以做些什么来使这段代码更有效率吗? Python 是最适合这个的语言吗? (请注意,无论我选择哪种语言,我都需要能够使工作自动化。由于我公司的内部定价挑战,目前要获得许可的图书馆有点困难)。
此外,不确定这是否有帮助,但这是代码下载数据 (htop) 时我的内存使用情况的快照
一种可能是下载免费的 "SQLcl" 实用程序,基本上是基于 Java 的 SQL-Plus,但功能更多。 Download here。你可以用 SQLcl 做的是将它放在客户端机器上并用它来提取数据,同时还为你处理定界符。在这里,我将分隔符设置为管道符号。这可能比尝试通过 Python 更有效,并且您仍然可以编写脚本并从 Python 或任何地方调用它。
$ sqlcl username/password@'<hostname>:<port>/ORACLE_SID'
> Set sqlformat delimited |
> Spool <some file to hold the data>
> Select * from <some table>;
> Spool off
以上内容可以很容易地放入 shell 脚本中。
#!/bin/bash
sqlcl username/password@'<hostname>:<port>/ORACLE_SID' <<EOF
Set sqlformat delimited |
Spool <some file to hold the data>
Select * from <some table>;
Spool off
EOF
示例
sqlcl> Select * from emp;
"EMPNO"|"ENAME"|"JOB"|"MGR"|"HIREDATE"|"SAL"|"COMM"|"DEPTNO"
7839|"KING"|"PRESIDENT"||17-NOV-81|5000||10
7698|"BLAKE"|"MANAGER"|7839|01-MAY-81|2850||30
7782|"CLARK"|"MANAGER"|7839|09-JUN-81|2450||10
7566|"JONES"|"MANAGER"|7839|02-APR-81|2975||20
7788|"SCOTT"|"ANALYST"|7566|09-DEC-82|3000||20
7902|"FORD"|"ANALYST"|7566|03-DEC-81|3000||20
7369|"SMITH"|"CLERK"|7902|17-DEC-80|800||20
7499|"ALLEN"|"SALESMAN"|7698|20-FEB-81|1600|300|30
7521|"WARD"|"SALESMAN"|7698|22-FEB-81|1250|500|30
7654|"MARTIN"|"SALESMAN"|7698|28-SEP-81|1250|1400|30
7844|"TURNER"|"SALESMAN"|7698|08-SEP-81|1500|0|30
7876|"ADAMS"|"CLERK"|7788|12-JAN-83|1100||20
7900|"JAMES"|"CLERK"|7698|03-DEC-81|950||30
7934|"MILLER"|"CLERK"|7782|23-JAN-82|1300||10
以 CSV 格式转储数据的一个非常快速的解决方案是 SQL*Plus 12.2 的 CSV 模式。如果您还没有,可以从 Instant Client packages.
免费获得 SQL*Plus
创建一个 SQL 脚本 ex.sql 如:
set feedback off
set arraysize 500
select * from locations;
exit
您 can/should 调整 ARRAYSIZE
以获得最佳性能。
然后使用 -m 'csv on'
选项调用 SQL*Plus。这使用了一个新的、快速的 I/O 子系统:
sqlplus -l -s -m 'csv on delim |' cj@'"localhost/orclpdb1"' @ex.sql
请注意 -s
选项将使输入密码的提示不可见。
输出如下:
"LOCATION_ID"|"STREET_ADDRESS"|"POSTAL_CODE"|"CITY"|"STATE_PROVINCE"|"COUNTRY_ID"
1000|"1297 Via Cola di Rie"|"00989"|"Roma"||"IT"
. . .
我的发布公告 blog post 有更多详细信息。
只是想创建一个 python 多线程方法,将您的数据集分成几部分。根据您的目标数据库,如果您想将这些文件推送到 table.
,可以将这些文件读取到外部 tables 以消除更多步骤
我有一个 oracle 服务器,我需要使用 python 将数据提取到文件中。这些文件被下游系统用作输入。
一些技术细节:
Oracle 和 Python 在不同的服务器上 运行。数据库由客户端托管,而所有脚本都 运行 在 AWS RHEL EC2 服务器上。此屏幕截图中突出显示了 EC2 实例的详细信息。
我的方法 为此,我选择 Python 的 Pyodbc 库连接到远程 Oracle 客户端并使用 SQL 查询提取数据。以下是根据提供的 SQL 查询获取数据的代码摘录。
def fetch_data_to_file(self,curr,query,dataset):
try:
self.logger.info('Executing query: {}'.format(query))
start = time.time()
curr.execute(query)
query_time = time.time()-start
start = time.time()
rowcount=0
with open(dataset,'a+') as f:
writer = csv.writer(f,delimiter='|')
writer.writerow([i[0] for i in curr.description])
self.logger.info('Writing file: {}'.format(dataset))
while True:
rows = curr.fetchmany(self.batch_limit)
self.logger.info('Writing {} rows'.format(self.batch_limit))
rowcount+=len(rows)
if not rows:
break
self.timer.info('{} Query Execution Time: {} seconds'.format(dataset,query_time))
self.timer.info('{} File Writing Time: {} seconds. at {} rows/second'.format(dataset,time.time()-start,int(rowcount / (time.time()-start))))
self.logger.info("File written.")
except Exception as e:
self.error.info("Error in fetching data.Error: {}".format(e))
raise SystemExit(1)
我正在提取的数据集接近 8GB 未压缩大小(返回接近 3500 万行)。在我的 EC2 服务器上下载文件需要大约 1.5 小时的代码。 我测试了 batch_limits 的多种变体,发现 100 万 - 200 万是批量下载数据的最佳大小,但是我不确定是否还有其他方法可以更有效地确定我的批量大小应该是多少。
我还调查了什么 我在网上寻找使用 python 将大型数据集写入文件的方法,许多人建议使用 Pandas。我试图弄清楚这一点,但没有成功。此外,重要的是我在将数据提取到文件时保留数据及其数据类型。
我的问题是:我可以做些什么来使这段代码更有效率吗? Python 是最适合这个的语言吗? (请注意,无论我选择哪种语言,我都需要能够使工作自动化。由于我公司的内部定价挑战,目前要获得许可的图书馆有点困难)。
此外,不确定这是否有帮助,但这是代码下载数据 (htop) 时我的内存使用情况的快照
一种可能是下载免费的 "SQLcl" 实用程序,基本上是基于 Java 的 SQL-Plus,但功能更多。 Download here。你可以用 SQLcl 做的是将它放在客户端机器上并用它来提取数据,同时还为你处理定界符。在这里,我将分隔符设置为管道符号。这可能比尝试通过 Python 更有效,并且您仍然可以编写脚本并从 Python 或任何地方调用它。
$ sqlcl username/password@'<hostname>:<port>/ORACLE_SID'
> Set sqlformat delimited |
> Spool <some file to hold the data>
> Select * from <some table>;
> Spool off
以上内容可以很容易地放入 shell 脚本中。
#!/bin/bash
sqlcl username/password@'<hostname>:<port>/ORACLE_SID' <<EOF
Set sqlformat delimited |
Spool <some file to hold the data>
Select * from <some table>;
Spool off
EOF
示例
sqlcl> Select * from emp;
"EMPNO"|"ENAME"|"JOB"|"MGR"|"HIREDATE"|"SAL"|"COMM"|"DEPTNO"
7839|"KING"|"PRESIDENT"||17-NOV-81|5000||10
7698|"BLAKE"|"MANAGER"|7839|01-MAY-81|2850||30
7782|"CLARK"|"MANAGER"|7839|09-JUN-81|2450||10
7566|"JONES"|"MANAGER"|7839|02-APR-81|2975||20
7788|"SCOTT"|"ANALYST"|7566|09-DEC-82|3000||20
7902|"FORD"|"ANALYST"|7566|03-DEC-81|3000||20
7369|"SMITH"|"CLERK"|7902|17-DEC-80|800||20
7499|"ALLEN"|"SALESMAN"|7698|20-FEB-81|1600|300|30
7521|"WARD"|"SALESMAN"|7698|22-FEB-81|1250|500|30
7654|"MARTIN"|"SALESMAN"|7698|28-SEP-81|1250|1400|30
7844|"TURNER"|"SALESMAN"|7698|08-SEP-81|1500|0|30
7876|"ADAMS"|"CLERK"|7788|12-JAN-83|1100||20
7900|"JAMES"|"CLERK"|7698|03-DEC-81|950||30
7934|"MILLER"|"CLERK"|7782|23-JAN-82|1300||10
以 CSV 格式转储数据的一个非常快速的解决方案是 SQL*Plus 12.2 的 CSV 模式。如果您还没有,可以从 Instant Client packages.
免费获得 SQL*Plus创建一个 SQL 脚本 ex.sql 如:
set feedback off
set arraysize 500
select * from locations;
exit
您 can/should 调整 ARRAYSIZE
以获得最佳性能。
然后使用 -m 'csv on'
选项调用 SQL*Plus。这使用了一个新的、快速的 I/O 子系统:
sqlplus -l -s -m 'csv on delim |' cj@'"localhost/orclpdb1"' @ex.sql
请注意 -s
选项将使输入密码的提示不可见。
输出如下:
"LOCATION_ID"|"STREET_ADDRESS"|"POSTAL_CODE"|"CITY"|"STATE_PROVINCE"|"COUNTRY_ID"
1000|"1297 Via Cola di Rie"|"00989"|"Roma"||"IT"
. . .
我的发布公告 blog post 有更多详细信息。
只是想创建一个 python 多线程方法,将您的数据集分成几部分。根据您的目标数据库,如果您想将这些文件推送到 table.
,可以将这些文件读取到外部 tables 以消除更多步骤