注意:以下翻译的准确性尚未经过验证。这是使用 AIP ↗ 从原始英文文本进行的机器翻译。
批处理部署 是在建模目标中配置的一个特殊管道,允许数据通过模型运行,并将结果输出到Foundry数据集中。这些输出数据集可以根据搭建计划进行管理。
在创建新的批处理部署之前,有两个前提条件:
在目标中必须存在一个具有相应环境标签的发布,无论是预发布还是生产环境。
选择一个输入数据集通过您的模型运行。理想情况下,该数据集应得到仔细维护并定期更新——它代表了您尝试解决的问题的新信息。
要创建新的批处理部署,导航到建模目标主页底部的部署部分,并在右上角选择**+ 创建部署**。
填写提示中的详细信息和相关信息。根据需求#1选择您的部署环境,选择在需求#2中确定的输入数据集,并选择输出数据集的位置和名称。或者,也可以选择现有数据集作为输出数据集,而不是创建新的输出数据集。
在建模目标中直接设置批处理部署仅与使用单一表格数据集输入的模型兼容。如果您的模型适配器需要多个输入,您可以在Python变换中设置批量推理。
在创建新的批处理部署时,您可以配置该单独部署所需的资源。资源通过Spark配置文件进行配置,这些配置文件将在推理期间应用于Spark环境。
如果创建新的批处理部署,在初始部署配置时将出现一个Spark配置文件选择器。其行为与Python变换相匹配。如果省略,则不会为部署配置任何Spark配置文件,并将使用默认资源配置文件。
要编辑现有批处理部署上的已配置Spark配置文件,导航到建模目标中的部署部分,从列出的部署中选择您的部署,并选择运行时配置下的编辑按钮以编辑Spark配置文件。这将自动更新部署。
要导航到部署视图,请选择新的部署。
要导航到输出数据集,请在部署详细信息视图中选择数据集链接。
您可以在批处理部署的输出数据集上创建一个计划,以便在新的模型发布到该部署环境时自动更新。这是通过创建一个新的逻辑计划来实现的,该计划在该数据集的逻辑更新时搭建输出数据集。当目标中发布新的模型时,输出数据集的逻辑将被更新,并且该计划将被触发。