Direkt zum Hauptbereich

Batch per Trigger starten

Salesforce stellt eine mächtige Platform für eigene Entwicklungszwecke zur Verfügung. Doch auch diese Platform duldet keinen schlampigen Umgang mit Ressourcen. Ein Trigger ist vielleicht ganz schnell programmiert, aber sobald er viele Daten verarbeiten muss, und deswegen länger als 10 Sekunden beansprucht, wird er von Salesforce gekillt.
Es ist aus dem Grund zwingend erforderlich, sich mit Salesforce Limits zu beschäftigen. Außerdem muss man sich zwangsweise mit Techniken der asynchronen Datenverarbeitung auseinandersetzen.

Vor ein paar Tagen habe ich einen Trigger programmiert, der hunderte von Datensätzen erstellt.

Der Trigger funktioniert problemlos, solange ein einziger Datensatz (oder eine überschaubare Menge) vom Typ "A" (s. Bild) gespeichert wird.









Es kommt allerdings öfters vor, dass eine große Menge von Typ "A" Datensätzen innerhalb einer Transaktion gespeichert wird. In diesem Fall ist der Trigger nicht in der Lage, die gesamte Menge zu verarbeiten. Statt Trigger kommt eine asynchrone Technik der Datenverarbeitung zum Einsatz - zum Beispiel ein Batch.

Die Kunst besteht darin, die beiden Techniken miteinander zu kombinieren. Ganz konkret muss der Trigger einen Batch aufrufen, der die Datenverarbeitung übernimmt.

Für Batches gelten höhere Salesforce Limits. Aber auch diese Limits können gesprengt werden.
Der in diesem Zusammenhang am häufigsten auftretender Fehler sieht folgendermaßen aus:
System.LimitException: Attempted to schedule too many concurrent batch jobs in this org (limit is 5).

Verursacht wird dieser Fehler durch einen direkten Batch-Aufruf:
Database.executeBatch(new CreateRecords());

Lösung: 
Um die erfolgreiche Datenverarbeitung unter Berücksichtigung von Salesforce Limits zu gewährleisten, definiert der Trigger nur einen Zeitpunkt, zu dem der Batch automatisch vom System gestartet wird. 
Der folgende Quellcode zeigt, wie der Trigger einen Batch-Job mit einem Zeitstempel (aktuelle Uhrzeit + 60 Sekunden) definiert.

TRIGGER

// Set of States for Active Jobs
set<String> setStatesActive = new set<String>();
setStatesActive.add('WAITING');
setStatesActive.add('EXECUTING');

//compute the next Batch Job Start Time
DateTime dtNextRun = DateTime.now();
dtNextRun = dtNextRun.addSeconds(60);
String jobName = 'Batch:Update Related Records';

// is batch already running or waiting for execution?
list<CronTrigger> lstCTactive = [select CronJobDetailId, State, EndTime FROM CronTrigger where State IN:setStatesActive AND CronJobDetailId IN (select Id from CronJobDetail where Name like :jobName+'%')];
              
if(lstCTactive.size() == 0){      
     String ss = String.valueOf(dtNextRun.second());
     String mm = String.valueOf(dtNextRun.minute());
     String hh = String.valueOf(dtNextRun.hour());
     String d = String.valueOf(dtNextRun.day());
     String m = String.valueOf(dtNextRun.month());
     String y = String.valueOf(dtNextRun.year());
                   
     String ScheduleParam = '00' + ' ' + mm + ' ' + hh + ' ' + d + ' ' + m + ' ? ' + y;
         
     //Create a Job
     System.schedule(jobName + ' ' + dtNextRun.formatLong(), ScheduleParam, new BatchUpdate());  
}   


Sobald der vom Trigger definierte Zeitpunkt erreicht ist, startet der Batch automatisch.

BATCH

global class BatchUpdate implements Database.Stateful, Database.Batchable<SObject>, Schedulable, Database.allowsCallouts{
     /* execute SchedulableContext */
     /******************************/
     global void execute(SchedulableContext SC) {              
          // start batch in batchable context
          BatchUpdate b = new BatchUpdate();
                   
           // start batch by time trigger ---------------       
          ID jobId = Database.executeBatch(b);        
     }   
    
     /* start */
     /*********************/
    global Database.QueryLocator start(Database.BatchableContext bc){  
          String soql = 'Select id FROM objectA';           
          return Database.getQueryLocator(soql);
    }
      
      
     /* execute */
     /*********************/
    global void execute(Database.BatchableContext bc, List<objectA> lstObjects){
          // ........
          // create here objectB
          // .......
    }
    
     /* finish */
     /*********************/
     global void finish(Database.BatchableContext bc){
         
     }
}

Kommentare

Beliebte Posts aus diesem Blog

Zeitgesteuerter Flow blockiert Custom Leadkonvertierung

Die programmierte Konvertierung eines Leads bricht mit der Fehlermeldung "Unable to convert lead that is in use by workflow" ab. Der Grund ist ein Prozess, der automatisiert und zeitgesteuert ausgeführt wird. Dieser Prozess ruft zu einem späteren Zeitpunkt einen Flow auf. Während der Speicherung eines Leads wird dabei automatisch ein Flow Interview erstellt. Dieser Datensatz vom Typ "FlowInterview" blockiert die Leadkonvertierung. Lösung: Unmittelbar vor der Leadkonvertierung eine Checkbox auf dem Lead auf TRUE setzen. Da dieselbe Checkbox in den Process Builder Kriterien eingebunden ist und der Prozess nur auf den FALSE Wert reagiert, löscht das System automatisch das entsprechende Flow Interview.

Salesforce Community URL Settings

Ich habe mich in den letzten Tagen etwas ausführlicher mit Salesforce Communities in Kombination mit der API beschäftigt. Ein Problem dabei war, den richtigen Endpoint zu berechnen, wie im letzten Beitrag beschrieben API im Salesforce Partner Portal. Um die Weichen im Code für Community Benutzer einzubauen, muss während der Laufzeit berechnet werden, in welchem Context sich der aktuell eingeloggte Benutzer befindet. Dabei muss man sich zwangsweise mit den Fragen folgender Art beschäftigen: ist der eingeloggte Benuter ein Community Benutzer? ob und welche Community ist gerade aktiv? wie sieht die definierte Community URL aus? Antwort auf die Frage 1: private Boolean isCommunityUser(){         Boolean bIsCommunityUser = false;         String sUserType = UserInfo.getUserType();         sUserType = sUserType.toUpperCase();         if(sUserType == 'STANDARD')                 bIsCommunityUser = false;         if(sUserType == 'PARTNER')                  bIsCommunity

Bad value for restricted picklist field

Der Einsatz von "Restricted Picklists" bereitet spätestens im Deployment Kopfschmerzen. Basiert das Deployment auf Basis eines Drittanbietertools, dann sind die Kopfschmerzen noch intensiver. In meinem Fall habe ich versucht, ein neues Picklist-Feld mit Copado zu deployen. Während der Bereitstellung bekomme ich die folgende Fehlermeldung: System.DmlException: Insert failed. First exception on row 0; first error: INVALID_OR_NULL_FOR_RESTRICTED_PICKLIST, bad value for restricted picklist field: Z012: [CountryGroup__c] Das neue Picklist-Feld übernimmt alle Werte aus einem Global Value Set. Das bedeutet, die Option "Restrict to the values defined in the value set" ist automatisch aktiv und lässt sich nicht deaktivieren. Eine APEX-Testklasse beschreibt ebenfalls die neue Pickliste. Mit dem folgenden Workaround konnte ich das Deployment-Problem lösen: 1) Global Value Set samt Pickliste per Changeset in die Zielorg übertragen und bereitstellen ggf. Prof