Direkt zum Hauptbereich

Batch per Trigger starten

Salesforce stellt eine mächtige Platform für eigene Entwicklungszwecke zur Verfügung. Doch auch diese Platform duldet keinen schlampigen Umgang mit Ressourcen. Ein Trigger ist vielleicht ganz schnell programmiert, aber sobald er viele Daten verarbeiten muss, und deswegen länger als 10 Sekunden beansprucht, wird er von Salesforce gekillt.
Es ist aus dem Grund zwingend erforderlich, sich mit Salesforce Limits zu beschäftigen. Außerdem muss man sich zwangsweise mit Techniken der asynchronen Datenverarbeitung auseinandersetzen.

Vor ein paar Tagen habe ich einen Trigger programmiert, der hunderte von Datensätzen erstellt.

Der Trigger funktioniert problemlos, solange ein einziger Datensatz (oder eine überschaubare Menge) vom Typ "A" (s. Bild) gespeichert wird.









Es kommt allerdings öfters vor, dass eine große Menge von Typ "A" Datensätzen innerhalb einer Transaktion gespeichert wird. In diesem Fall ist der Trigger nicht in der Lage, die gesamte Menge zu verarbeiten. Statt Trigger kommt eine asynchrone Technik der Datenverarbeitung zum Einsatz - zum Beispiel ein Batch.

Die Kunst besteht darin, die beiden Techniken miteinander zu kombinieren. Ganz konkret muss der Trigger einen Batch aufrufen, der die Datenverarbeitung übernimmt.

Für Batches gelten höhere Salesforce Limits. Aber auch diese Limits können gesprengt werden.
Der in diesem Zusammenhang am häufigsten auftretender Fehler sieht folgendermaßen aus:
System.LimitException: Attempted to schedule too many concurrent batch jobs in this org (limit is 5).

Verursacht wird dieser Fehler durch einen direkten Batch-Aufruf:
Database.executeBatch(new CreateRecords());

Lösung: 
Um die erfolgreiche Datenverarbeitung unter Berücksichtigung von Salesforce Limits zu gewährleisten, definiert der Trigger nur einen Zeitpunkt, zu dem der Batch automatisch vom System gestartet wird. 
Der folgende Quellcode zeigt, wie der Trigger einen Batch-Job mit einem Zeitstempel (aktuelle Uhrzeit + 60 Sekunden) definiert.

TRIGGER

// Set of States for Active Jobs
set<String> setStatesActive = new set<String>();
setStatesActive.add('WAITING');
setStatesActive.add('EXECUTING');

//compute the next Batch Job Start Time
DateTime dtNextRun = DateTime.now();
dtNextRun = dtNextRun.addSeconds(60);
String jobName = 'Batch:Update Related Records';

// is batch already running or waiting for execution?
list<CronTrigger> lstCTactive = [select CronJobDetailId, State, EndTime FROM CronTrigger where State IN:setStatesActive AND CronJobDetailId IN (select Id from CronJobDetail where Name like :jobName+'%')];
              
if(lstCTactive.size() == 0){      
     String ss = String.valueOf(dtNextRun.second());
     String mm = String.valueOf(dtNextRun.minute());
     String hh = String.valueOf(dtNextRun.hour());
     String d = String.valueOf(dtNextRun.day());
     String m = String.valueOf(dtNextRun.month());
     String y = String.valueOf(dtNextRun.year());
                   
     String ScheduleParam = '00' + ' ' + mm + ' ' + hh + ' ' + d + ' ' + m + ' ? ' + y;
         
     //Create a Job
     System.schedule(jobName + ' ' + dtNextRun.formatLong(), ScheduleParam, new BatchUpdate());  
}   


Sobald der vom Trigger definierte Zeitpunkt erreicht ist, startet der Batch automatisch.

BATCH

global class BatchUpdate implements Database.Stateful, Database.Batchable<SObject>, Schedulable, Database.allowsCallouts{
     /* execute SchedulableContext */
     /******************************/
     global void execute(SchedulableContext SC) {              
          // start batch in batchable context
          BatchUpdate b = new BatchUpdate();
                   
           // start batch by time trigger ---------------       
          ID jobId = Database.executeBatch(b);        
     }   
    
     /* start */
     /*********************/
    global Database.QueryLocator start(Database.BatchableContext bc){  
          String soql = 'Select id FROM objectA';           
          return Database.getQueryLocator(soql);
    }
      
      
     /* execute */
     /*********************/
    global void execute(Database.BatchableContext bc, List<objectA> lstObjects){
          // ........
          // create here objectB
          // .......
    }
    
     /* finish */
     /*********************/
     global void finish(Database.BatchableContext bc){
         
     }
}

Kommentare

Beliebte Posts aus diesem Blog

Community Builder funktioniert nicht

Nachdem ich eine in einer Sandbox konfigurierte und getestete Lightning Community per Changeset auf die Produktion übertrage und bereitgestellt hatte, stellte ich fest, dass sich die Community nicht konfigurieren lässt. Das Deployment lief fehlerfrei durch. Alle Komponenten der Lightning Community sind verfügbar. Jedoch erscheint die Fehlermeldung Cannot read property 'def' of undefined sobald ich auf den "Builder" - Link klicke. Folgendes Workaround löst das Problem: 1. Go to "All Communities" and click on "Workspaces" beside the problematic community. 2. Go to "Administration | Pages" and click on "Go to Site.com Studio". 3. Once site.com studio has finished loading, click on the "Site Actions" icon (small cog in top right of screen), and select "Export This Site". 4. When prompted, specify a local location to save the site export, and wait for the file download to complete. 5. After the d...

Bad value for restricted picklist field

Der Einsatz von "Restricted Picklists" bereitet spätestens im Deployment Kopfschmerzen. Basiert das Deployment auf Basis eines Drittanbietertools, dann sind die Kopfschmerzen noch intensiver. In meinem Fall habe ich versucht, ein neues Picklist-Feld mit Copado zu deployen. Während der Bereitstellung bekomme ich die folgende Fehlermeldung: System.DmlException: Insert failed. First exception on row 0; first error: INVALID_OR_NULL_FOR_RESTRICTED_PICKLIST, bad value for restricted picklist field: Z012: [CountryGroup__c] Das neue Picklist-Feld übernimmt alle Werte aus einem Global Value Set. Das bedeutet, die Option "Restrict to the values defined in the value set" ist automatisch aktiv und lässt sich nicht deaktivieren. Eine APEX-Testklasse beschreibt ebenfalls die neue Pickliste. Mit dem folgenden Workaround konnte ich das Deployment-Problem lösen: 1) Global Value Set samt Pickliste per Changeset in die Zielorg übertragen und bereitstellen ggf. Prof...

Zeitgesteuerter Flow blockiert Custom Leadkonvertierung

Die programmierte Konvertierung eines Leads bricht mit der Fehlermeldung "Unable to convert lead that is in use by workflow" ab. Der Grund ist ein Prozess, der automatisiert und zeitgesteuert ausgeführt wird. Dieser Prozess ruft zu einem späteren Zeitpunkt einen Flow auf. Während der Speicherung eines Leads wird dabei automatisch ein Flow Interview erstellt. Dieser Datensatz vom Typ "FlowInterview" blockiert die Leadkonvertierung. Lösung: Unmittelbar vor der Leadkonvertierung eine Checkbox auf dem Lead auf TRUE setzen. Da dieselbe Checkbox in den Process Builder Kriterien eingebunden ist und der Prozess nur auf den FALSE Wert reagiert, löscht das System automatisch das entsprechende Flow Interview.