SAP Commerce Cloud 热文件夹本地设置
SAP Commerce Cloud Hot Folder local setup
我们正在尝试使用云热文件夹功能,为此我们正在修改我们现有的热文件夹实现,该实现最初不是为在云中使用而实现的。
按照此帮助页面上的步骤操作:
https://help.sap.com/viewer/0fa6bcf4736c46f78c248512391eb467/SHIP/en-US/4abf9290a64f43b59fbf35a3d8e5ba4d.html
我们正在尝试在本地测试云功能。我的机器上有 azurite docker 容器 运行 并且我修改了 local.properties 文件中提到的属性,但似乎在任何情况下 hybris 都没有拾取这些文件我们正在努力。
首先,我们在本地 azurite 存储中有一个名为 hybris 的 blob 存储。在此 blob 存储中,我们有文件夹 master>hotfolder,根据文档,将 sample.csv 文件上传到其中应该会触发热文件夹上传。
我们还有一个热文件夹导入映射,用于扫描此文件夹中的文件:#{baseDirectory}/${tenantId}/sample/classifications。 {baseDirectory} 使用 属性 配置,如下所示:${HYBRIS_DATA_DIR}/sample/import
我们能否将这些映射保留在常用文件夹 xml 定义中,还是需要更改它们?
应该如何命名 blob 容器以便 hybris 可以访问它?
非常感谢,
我很乐意提供任何进一步的信息。
我也在尝试相同的方法 - 设置一个本地开发环境来测试云热文件夹。看来你已经取得了一些成功。您能否提供 azurecloudhotfolder 所在的位置 - 此处称为 https://help.sap.com/viewer/0fa6bcf4736c46f78c248512391eb467/SHIP/en-US/4abf9290a64f43b59fbf35a3d8e5ba4d.html
谢谢
最后我确实设法 运行 在本地计算机上导入云热文件夹。
这是正确配置 cloudhotfolder 和 azurecloudhotfolder 扩展使用的一些属性的问题。
只需使用以下属性来设置所需的系统行为:
cluster.node.groups=integration,yHotfolderCandidate
azure.hotfolder.storage.account.connection-string=DefaultEndpointsProtocol=http;AccountName=devstoreaccount1;AccountKey=Eby8vdM02xNOcqFlqUwJPLlmEtlCDXJ1OUzFT50uSRZ6IFsuFq2UVErCz4I6tq/K1SZFPTOtr/KBHBeksoGMGw==;BlobEndpoint=http://127.0.0.1:32770/devstoreaccount1;
azure.hotfolder.storage.container.hotfolder=${tenantId}/your/path/here
cloud.hotfolder.default.mapping.file.name.pattern=^(customer|product|url_media|sampleFilePattern|anotherFileNamePattern)-\d+.*
cloud.hotfolder.default.images.root.url=http://127.0.0.1:32785/devstoreaccount1/${azure.hotfolder.storage.container.name}/master/path/to/media/folder
cloud.hotfolder.default.mapping.header.catalog=YourProductCatalog
就是这样,如果有传统热文件夹导入的现有路由,也可以使用这些路由,但它们的映射应该在
的值中
cloud.hotfolder.default.mapping.file.name.pattern
属性.
我们正在尝试使用云热文件夹功能,为此我们正在修改我们现有的热文件夹实现,该实现最初不是为在云中使用而实现的。
按照此帮助页面上的步骤操作: https://help.sap.com/viewer/0fa6bcf4736c46f78c248512391eb467/SHIP/en-US/4abf9290a64f43b59fbf35a3d8e5ba4d.html
我们正在尝试在本地测试云功能。我的机器上有 azurite docker 容器 运行 并且我修改了 local.properties 文件中提到的属性,但似乎在任何情况下 hybris 都没有拾取这些文件我们正在努力。
首先,我们在本地 azurite 存储中有一个名为 hybris 的 blob 存储。在此 blob 存储中,我们有文件夹 master>hotfolder,根据文档,将 sample.csv 文件上传到其中应该会触发热文件夹上传。 我们还有一个热文件夹导入映射,用于扫描此文件夹中的文件:#{baseDirectory}/${tenantId}/sample/classifications。 {baseDirectory} 使用 属性 配置,如下所示:${HYBRIS_DATA_DIR}/sample/import
我们能否将这些映射保留在常用文件夹 xml 定义中,还是需要更改它们?
应该如何命名 blob 容器以便 hybris 可以访问它?
非常感谢,
我很乐意提供任何进一步的信息。
我也在尝试相同的方法 - 设置一个本地开发环境来测试云热文件夹。看来你已经取得了一些成功。您能否提供 azurecloudhotfolder 所在的位置 - 此处称为 https://help.sap.com/viewer/0fa6bcf4736c46f78c248512391eb467/SHIP/en-US/4abf9290a64f43b59fbf35a3d8e5ba4d.html
谢谢
最后我确实设法 运行 在本地计算机上导入云热文件夹。
这是正确配置 cloudhotfolder 和 azurecloudhotfolder 扩展使用的一些属性的问题。
只需使用以下属性来设置所需的系统行为:
cluster.node.groups=integration,yHotfolderCandidate
azure.hotfolder.storage.account.connection-string=DefaultEndpointsProtocol=http;AccountName=devstoreaccount1;AccountKey=Eby8vdM02xNOcqFlqUwJPLlmEtlCDXJ1OUzFT50uSRZ6IFsuFq2UVErCz4I6tq/K1SZFPTOtr/KBHBeksoGMGw==;BlobEndpoint=http://127.0.0.1:32770/devstoreaccount1;
azure.hotfolder.storage.container.hotfolder=${tenantId}/your/path/here
cloud.hotfolder.default.mapping.file.name.pattern=^(customer|product|url_media|sampleFilePattern|anotherFileNamePattern)-\d+.*
cloud.hotfolder.default.images.root.url=http://127.0.0.1:32785/devstoreaccount1/${azure.hotfolder.storage.container.name}/master/path/to/media/folder
cloud.hotfolder.default.mapping.header.catalog=YourProductCatalog
就是这样,如果有传统热文件夹导入的现有路由,也可以使用这些路由,但它们的映射应该在
的值中cloud.hotfolder.default.mapping.file.name.pattern
属性.