从 Databricks Notebook 发送带有附件的电子邮件

Send email from Databricks Notebook with attachment

我是 Python 和 Spark 世界的新手。并且我正在尝试构建一个 pyspark 代码以从 Databricks 发送一封电子邮件以及来自挂载点位置的附件。我正在使用下面的代码来实现相同的 -

import smtplib
from pathlib import Path
from email.mime.multipart import MIMEMultipart
from email.mime.base import MIMEBase
from email.mime.text import MIMEText
from email.utils import COMMASPACE, formatdate
from email import encoders


def send_mail(send_from = <from_email>, send_to = <to_email>, subject = "Test", message = "Test", files=["/mnt/<Mounted Point Directory>/"],
              server="<SMTP Host>", port=<SMTP Port>, username='<SMTP Username>', password='<SMTP Password>',
              use_tls=True):

    msg = MIMEMultipart()
    msg['From'] = send_from
    msg['To'] = COMMASPACE.join(send_to)
    msg['Date'] = formatdate(localtime=True)
    msg['Subject'] = subject

    msg.attach(MIMEText(message))

    for path in files:
        part = MIMEBase('application', "octet-stream")
        with open(path, 'rb') as file:
            part.set_payload(file.read())
        encoders.encode_base64(part)
        part.add_header('Content-Disposition',
                        'attachment; filename="{}"'.format(Path(path).name))
        msg.attach(part)

    smtp = smtplib.SMTP(server, port)
    if use_tls:
        smtp.starttls()
    smtp.login(username, password)
    smtp.sendmail(send_from, send_to, msg.as_string())
    smtp.quit()

但出于某种原因,代码显示文件或目录不存在异常。

我是不是遗漏了什么。

谢谢

您需要修改代码以使其与 DBFS 一起工作,因为 open 函数对 DBFS 或其他文件系统一无所知,并且只能与本地文件一起工作(参见 documentation 关于 DBFS)。

您可以按照以下方式进行:

  • 如果你使用的是“完整的 Databricks”,而不是社区版,那么你需要在文件名前加上 /dbfs,比如 /dbfs/mnt/.... - 这个 /dbfs 挂载是从处理本地文件的代码访问 DBFS 上文件的方式(但写入该位置时有一些限制)。
  • 或者您可以使用 dbutils.fs.cp command 将文件从 DBFS 复制到本地文件,并使用该文件副本进行附加,如下所示:
dbutils.fs.cp("/mnt/...", "file:///tmp/local-name")
with open("/tmp/local-name", "r"):
...