Salesforce stellt eine mächtige Platform für eigene Entwicklungszwecke zur Verfügung. Doch auch diese Platform duldet keinen schlampigen Umgang mit Ressourcen. Ein Trigger ist vielleicht ganz schnell programmiert, aber sobald er viele Daten verarbeiten muss, und deswegen länger als 10 Sekunden beansprucht, wird er von Salesforce gekillt.
Es ist aus dem Grund zwingend erforderlich, sich mit Salesforce Limits zu beschäftigen. Außerdem muss man sich zwangsweise mit Techniken der asynchronen Datenverarbeitung auseinandersetzen.
Vor ein paar Tagen habe ich einen Trigger programmiert, der hunderte von Datensätzen erstellt.
Der Trigger funktioniert problemlos, solange ein einziger Datensatz (oder eine überschaubare Menge) vom Typ "A" (s. Bild) gespeichert wird.
Es kommt allerdings öfters vor, dass eine große Menge von Typ "A" Datensätzen innerhalb einer Transaktion gespeichert wird. In diesem Fall ist der Trigger nicht in der Lage, die gesamte Menge zu verarbeiten. Statt Trigger kommt eine asynchrone Technik der Datenverarbeitung zum Einsatz - zum Beispiel ein Batch.
Die Kunst besteht darin, die beiden Techniken miteinander zu kombinieren. Ganz konkret muss der Trigger einen Batch aufrufen, der die Datenverarbeitung übernimmt.
Für Batches gelten höhere Salesforce Limits. Aber auch diese Limits können gesprengt werden.
Der in diesem Zusammenhang am häufigsten auftretender Fehler sieht folgendermaßen aus:
System.LimitException: Attempted to schedule too many concurrent batch jobs in this org (limit is 5).
Verursacht wird dieser Fehler durch einen direkten Batch-Aufruf:
Lösung:
Es ist aus dem Grund zwingend erforderlich, sich mit Salesforce Limits zu beschäftigen. Außerdem muss man sich zwangsweise mit Techniken der asynchronen Datenverarbeitung auseinandersetzen.
Vor ein paar Tagen habe ich einen Trigger programmiert, der hunderte von Datensätzen erstellt.
Der Trigger funktioniert problemlos, solange ein einziger Datensatz (oder eine überschaubare Menge) vom Typ "A" (s. Bild) gespeichert wird.
Es kommt allerdings öfters vor, dass eine große Menge von Typ "A" Datensätzen innerhalb einer Transaktion gespeichert wird. In diesem Fall ist der Trigger nicht in der Lage, die gesamte Menge zu verarbeiten. Statt Trigger kommt eine asynchrone Technik der Datenverarbeitung zum Einsatz - zum Beispiel ein Batch.
Die Kunst besteht darin, die beiden Techniken miteinander zu kombinieren. Ganz konkret muss der Trigger einen Batch aufrufen, der die Datenverarbeitung übernimmt.
Für Batches gelten höhere Salesforce Limits. Aber auch diese Limits können gesprengt werden.
Der in diesem Zusammenhang am häufigsten auftretender Fehler sieht folgendermaßen aus:
System.LimitException: Attempted to schedule too many concurrent batch jobs in this org (limit is 5).
Verursacht wird dieser Fehler durch einen direkten Batch-Aufruf:
Database.executeBatch(
new
CreateRecords());
Lösung:
Um die erfolgreiche Datenverarbeitung unter Berücksichtigung von Salesforce Limits zu gewährleisten, definiert der Trigger nur einen Zeitpunkt, zu dem der Batch automatisch vom System gestartet wird.
Der folgende Quellcode zeigt, wie der Trigger einen Batch-Job mit einem Zeitstempel (aktuelle Uhrzeit + 60 Sekunden) definiert.
TRIGGER
// Set of States for Active Jobs
set<String> setStatesActive = new set<String>();
setStatesActive.add('WAITING');
setStatesActive.add('EXECUTING');
//compute the next Batch Job Start
Time
DateTime dtNextRun = DateTime.now();
dtNextRun = dtNextRun.addSeconds(60);
String jobName = 'Batch:Update Related Records';
// is batch already running or waiting
for execution?
list<CronTrigger> lstCTactive = [select CronJobDetailId, State, EndTime FROM CronTrigger where State IN:setStatesActive
AND CronJobDetailId IN (select Id from CronJobDetail where Name like :jobName+'%')];
if(lstCTactive.size()
== 0){
String
ss = String.valueOf(dtNextRun.second());
String
mm = String.valueOf(dtNextRun.minute());
String
hh = String.valueOf(dtNextRun.hour());
String
d = String.valueOf(dtNextRun.day());
String
m = String.valueOf(dtNextRun.month());
String
y = String.valueOf(dtNextRun.year());
String
ScheduleParam = '00' + ' ' + mm + ' ' + hh + ' ' + d + ' ' + m + ' ? ' + y;
//Create a Job
System.schedule(jobName
+ ' ' + dtNextRun.formatLong(),
ScheduleParam, new BatchUpdate());
}
Sobald der vom Trigger definierte Zeitpunkt erreicht ist, startet der Batch automatisch.
BATCH
global class BatchUpdate implements Database.Stateful, Database.Batchable<SObject>,
Schedulable, Database.allowsCallouts{
/* execute SchedulableContext */
/******************************/
global void execute(SchedulableContext SC) {
// start batch in batchable context
BatchUpdate b = new BatchUpdate();
// start batch by
time trigger ---------------
ID jobId =
Database.executeBatch(b);
}
/* start */
/*********************/
global
Database.QueryLocator start(Database.BatchableContext bc){
String soql = 'Select id FROM objectA';
return Database.getQueryLocator(soql);
}
/* execute */
/*********************/
global void execute(Database.BatchableContext bc,
List<objectA> lstObjects){
// ........
// create here objectB
// .......
}
/* finish */
/*********************/
global void finish(Database.BatchableContext bc){
}
}
Kommentare
Kommentar veröffentlichen