微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

DBAmp SF_TableLoader BatchSize Salesforce

如何解决DBAmp SF_TableLoader BatchSize Salesforce

我开始使用 DBAmp 来更新 Salesforce 云。我知道根据所使用的 API,使用 SF_Bulk 的批量大小限制为 200。我认为使用 SF_TableLoader 可以让我将浴槽大小增加到大约 10000,并且该过程将允许将更多的记录更新到云中,并决定即时使用的最佳 API。但是当我使用 SF_TableLoader 运行超过 200 条记录时,我收到了与批量大小相关的错误。即使我运行 170 条记录,我也会收到错误消息。我错过了什么?请告知如何一次更新数千条记录。

声明 @SalesforceServerName NVARCHAR(20),@SalesforceOrgID VARCHAR(18),@sqlString NVARCHAR(200),@Result VARCHAR(18),@ErrorMessage VARCHAR(MAX);

SET @SalesforceOrgID = '00Di0000000H1FtEAK'
SET @SalesforceServerName = N'SALESFORCE' SET @sqlString = N'SELECT @Result=OrganizationId FROM ' + @SalesforceServerName + '...sys_sfsession'

--将批量大小增加到 10000 执行 SF_TableLoader '更新:批量大小(200)',@SalesforceServerName,'NICX__Rfp__c_UPDATE'

错误: --- 结束 SF_TableLoader。手术失败。 消息 50000,级别 16,状态 1,过程 SF_TableLoader,第 362 行 SF_TableLoader 错误:09:11:09:DBAmpNet2 3.9.2.0 (c) 版权所有 2015-2017 forceAmp.com LLC09:11:09:批次大小重置为每批次 1000 行。09:11:09:参数:更新 NICXUPDATE__RfpLD__CEEDWPROD SALESFORCE 09:11:09:使用 Salesforce SOAP API。09:11:10:删除 NICX__Rfp__c_UPDATE_Result(如果它存在)。09:11:10:使用新结构创建 NICX__Rfp__c_UPDATE_Result。09:11:10:1000 的批次大小太大.重置为每批 200 行。09:11:53:从 sql 表中读取 221 行。09:11:53:200 行失败。有关详细信息,请参阅行的错误列。09:11:53:成功处理 21 行。09:11:53:发生错误。有关详细信息,请参阅行的错误列。09:11:53:DBAmpNet2 操作失败。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。