In den letzten Wochen habe ich an einem größeren JavaScript-Projekt herumgeschraubt, das ich versuchsweise mit so viel ECMAScript 6 wie möglich bestritten habe. Es ging mir einseits darum, mit dem neuen JavaScript-Standard echte, praktische Erfahrung zu sammeln und andererseits einen möglichest runden Workflow zu erarbeiten. Während ersteres sehr gut funktioniert hat (mein Gehirn leidet mittlerweile, wenn es ES5 schreiben muss) war letzteres sehr mühsam und tendenziell auch eher so mittel-erfolgreich. Wobei das auch daran liegen mag, dass ich neben ES6 auch Gulp und Browserify zu Felde geführt habe und mir vielleicht nur diese spezielle Technologie-Cocktail so auf den Magen schlägt.

Die folgenden Zeilen sollen kurz berichten, mit welchen Tools ich meinen ES6-Code für aktuelle Browser aufbereite, welche Alternativen es gibt und warum ich mich für welche Tool-Kombination entschieden habe. Ich würde jedem, der ein ähnliches Experiment vorhat, dringend empfehlen selbst ein wenig die Transpiler-Landschaft zu erkunden, denn die verschiedenen Tools unterscheiden sich durchaus recht stark.

Warum überhaupt schon ES6?

ECMAScript 6 ist noch kein in Stein gemeißelter, fertiger Standard, aber wenn man die Entwicklung verfolgt hat, ist klar, dass inhaltlich eigentlich alles gesagt worden ist. Neue Features werden bereits für ECMAScript 7 verplant und an Version 6 ändert sich schon länger nichts gravierendes mehr. Vieles in ES6 ist nicht wirklich neu, sondern fällt eher in die Kategorie „syntaktischer Zucker“. Destructuring ist das beste Beispiel:

// ES6-Code
var arr = [23, 42]
var [a, b] = arr;

// ES5-Entsprechung
var arr = [23, 42];
var a = arr[0],
    b = arr[1];

Auch Klassen sind nicht mehr als eine andere für Constructorfunktionen nebst Prototypen-Setup und selbst Generators lassen sich im Prinzip mit heutigem JavaScript abbilden. Und natürlich gibt es Tools, die ES6-Code nach ES5-Code übersetzen, so dass man heute schon große Teile von des neuen Standards nutzen kann, wenn man sich nur ein wenig anstrengt.

Den Sinn hinter dieser Übung sehe ich vor allem in der Gewöhnung an all die neuen Werkzeuge. Zwar sind ES6-Klassen im Prinzip exakt das gleiche wie Constructorfunktionen, aber in der Benutzung eben doch nicht ganz. Arrow Functions sind normale Funktionen mit lexikalischem this, sehen aber im Code aus wie von einem anderen Stern. Alte Bekannte wie var und function verschwinden ggf. völlig aus JavaScript-Code und zumindest bei mir dauert der Prozess, der Generators in meinen aktiven JavaScript-Wortschatz überführt, noch immer an. Es ist also alles in ES6 ziemlich anders und man muss sich dran gewöhnen.

Allerdings reden wir hier immer noch über experimentelle Technologie und ist kein völliger Selbstläufer, sich hierfür einen Workflow einzurichten. Ich bin zu einem für mich brauchbaren Ergebnis gekommen, aber andere haben sich komplett andere Workflows zusammengestrickt. Es ist also keinesfalls gesagt, dass die folgenden Zeilen die beste Lösung enthalten.

Was lässt sich heute mit ES6-Transpilern erreichen?

Es lassen sich sehr große Teile von ES6 nach ES5 übersetzen und es steht eine breite Palette an ES6-Transpilern zur Auswahl. Ein Tool, das mich komplett begeistert, habe ich nicht gefunden. Bei jedem Kandidaten gibt es an irgendwelchen Stellen Probleme. Die einen sind mir persönlich zu mächtig, die anderen können mir zu wenig und die nächsten unterstützen keine Source Maps. Hinzu kommt, dass so mancher Transpiler zwar gut funktioniert, die dazugehörigen Grunt/Gulp-Plugins aber defekt sind und die Autoren sich nicht für Pull Requests interessieren.

Viel von ECMAScript 6 ist einfach nur neue Syntax und entsprechend unproblatisch für Transpiler. Einige etwas kniffligere ES6-Features lassen sich zwar im Prinzip auch umsetzen, waren mir bei meinen Versuchen aber nicht geheuer. Features wie z.B. let oder Symbols erfordern von Transpilern sehr fortgeschrittene Trickserei, was nicht sonderlich lesbaren Quelltext produziert und sich auch nicht besonders angenehm anfühlt. Grundsätzlich gilt aber: wenn man nur will, kommt man mit ES6-Transpilern sehr weit und die fortgeschritteneren Tools (Traceur, es6-transpiler) bieten auch die Möglichkeit dazu.

Neben den unterstützten Features ist der Hauptunterschied zwischen den verschiedenen ES6-Transpilern ganz klar die Philosophie. Bei gleichem ES6-Input produzieren sie sehr unterschiedliche ES5-Ergebnisse, die zwar das gleiche Machen, aber einfach sehr unterschiedlich aussehen. Als Beispiel können wir uns mal diesen simplen ES6-Schnipsel ansehen:

class Foo {
  constructor(){
    this.bar = 42;
  }
  baz(){
    var someFn = () => this.bar; 
    return someFn();
  }
}

Die unterschiedlichen Transpiler schaffen es, hieraus wirklich sehr unterschiedliche Ergebnisse zu produzieren.

Transpiler-Tools im Vergleich

Ernsthaft ausprobiert habe ich drei Tools: SweetJS-Makros für ES6, Traceur und ES6-Transpiler. Letzteres ist in meinem Workflow, ergänzt durch Regenerator, im Rahmen einen-Gulp-Tasks das Mittel der Wahl. Das heißt nicht, dass alles damit toll wäre, sondern nur, dass diese Kombination der beste Kompromiss aus Extra-Arbeit und Gewinn durch neue Features darstellt. Aber alle drei Tools haben so ihr Vorzüge.

SweetJS bietet Makros für JavaScript und das Modul es6-macros enthält mit Destructuring, Klassen und Arrow Functions nur wenige neue Features. Diese werden aber ausgesprochen stressfrei umgesetzt; man bindet einfach das Modul in seinen Grunt/Gulp-Task für SweetJS ein und schon funktioniert es anstandslos. Fummelige Konfiguration, halbgare Features oder irgendwelchen anderen Stress gibt es nicht; dafür gibt es aber nicht wahnsinnig viele neue Features. Die Beispiel-ES6-Klasse sieht mit SweetJS kompiliert wie folgt aus:

function Foo(){
  this.bar = 42;
}
Foo.prototype.baz = function baz(){
  var someFn = function (__fa_args){
      return this.bar;
    }.bind(this, typeof arguments !== 'undefined' ? arguments : undefined);
  return someFn();
};

Das ist nicht zu 100% ES6-konform (Klassen sollten eigentlich im Strict Mode sein), aber dafür extrem übersichtlich! SweetJS allgemein und vor allem die ES6-Makros sind sehr zu empfehlen, wenn man sich erst noch an den Transpiler-Gedanken gewöhnen muss. Die Tools machen nicht so wahnsinnig viel, sind leicht zu benutzen und der erzeugte Code ist übersichtlich.

Der Traceur-Compiler ist das genaue Gegenstück zu den schmalen Sweet-Makros. Traceur kann fast alles (u.A. Generators, Module und Promises), was man dem Tool auch anmerkt. Man kann sich einen Wolf konfigurieren, manches funktioniert eher mittelgut und Traceur-JavaScript funktioniert nicht ohne eine Runtime, die man vor dem Rest-Script einbauen muss. Die Runtime wird im generierten Code auch reichlich eingesetzt, so dass man aus Traceur-Output nicht immer schlau wird. Man sehe sich nur an, was Traceur aus unserer Beispielklasse fabriziert:

$traceurRuntime.ModuleStore.getAnonymousModule(function() {
  "use strict";
  var Foo = function Foo(){
    this.magicValue = 42;
  };
  ($traceurRuntime.createClass)(Foo, {
    bar: function(){
      var $__108 = this;
      var someFn = (function(){
        return $__108.magicValue;
      });
      return someFn();
    }}, {});
  return {};
});

Traceur scheint mir am ehesten ein Tool zum Experimentieren um des Experimentierens willen zu sein. Wenn man ein ES6-Programm auch zu benutzen gedenkt, weiß ich nicht, ob man immer die Runtime mitschleppen und die generierten Enigmas debuggen möchte. Als schnelle ES6-Demo ist allerdings kaum etwas besser geeignet, als die Traceur-Repl.

Irgendwo zwischen diesen beiden Extremen bewegt sich es6-transpiler. Es gibt nicht ganz so viele Features wie bei Traceur (z.B. fehlen Generators), dafür wird aber auch keine Runtime benötigt. Sehr schön ist, dass der Sourcecode nach dem Transpiling wirklich nur an den Stellen geändert ist, an denen neue ES6-Features verwendet wurden. Allerdings ist das auch nötig, denn als einziges Tool auf der Liste produziert es6-transpiler keine Source Maps.

var Foo = (function(){
  "use strict";
  var PRS$0 = (function(o, t){
    o["__proto__"] = {
      "a": t
    };
    return o["a"] === t;
  })({}, {});
  var DP$0 = Object.defineProperty;
  var GOPD$0 = Object.getOwnPropertyDescriptor;
  var MIXIN$0 = function(t, s){
    for(var p in s){
      if(s.hasOwnProperty(p)){
        DP$0(t, p, GOPD$0(s, p));
      }
    }
    return t;
  };
  var proto$0 = {};

  function Foo(){
    this.bar = 42;
  }
  DP$0(Foo, "prototype", {
    "configurable": false,
    "enumerable": false,
    "writable": false
  });
  proto$0.baz = function(){
    var this$0 = this;
    var someFn = function(){
      return this$0.bar
    };
    return someFn();
  };
  MIXIN$0(Foo.prototype, proto$0);
  proto$0 = void 0;
  return Foo;
})();

Das ist zwar viel Code, aber dafür auch recht klarer Code. Es gibt auch hier eine „Runtime“, die allerdings direkt im generierten Code zu finden ist. Das Rätselraten hält sich also Grenzen. Normalerweile ist der Runtime-Teil des generierten Codes so untergebacht (alles in einer Zeile), dass Zeilennummern von Quell- und Generiertem Code 1:1 aufeinanderpassen. Debuggen ist also trotz fehlender bzw. eingeschränkter Source Maps recht erträglich.

Regenerator aus dem Hause Facebook passt nicht ganz in die Reihe, da es sich nur ein einziges ES6-Feature kümmert: Generators. Das macht es auch auf recht angenehme und nachvollziehbare Weise (Talk zum Thema) und kann daher gut mit den SweetJS-ES6-Makros oder es6-transpiler kombiniert werden. Regenerator braucht eine eigene Mini-Runtime.

Mein aktueller Workflow

Für mein ES6-Projekt verwende ich Gulp, es6-transpiler und Regenerator. Der ES6-Task in meiner Gulpfile stellt sich aktuell wie folgt dar:

gulp.task('client-compile', function(){
  return browserify('foo.js', {
      debug: true
    })
    .transform(regeneratorify)
    .transform('es6-browserify')
    .require(regenerator.runtime.dev)
    .bundle()
    .on('error', function(err){
      gutil.log(gutil.colors.red('Browserify error:'), err.message);
      this.end();
    })
    .pipe(source('foo.dist.js'))
    .pipe(gulp.dest('./www'))
    .on('error', gutil.log);
});

Grundlage des Transpilier-Prozesses ist Browserify. Da bis vor kurzem noch nicht mal feststand, wie ES6-Module überhaupt aussehen sollen (mittlerweile ist das geklärt) und ich im Rahmen meines letzten Projekts durch RequireJS nachhaltig traumatisiert wurde, wollte ich mal einem Konkurrenz-Modulsystem eine Chance geben. Browserify nimmt normalerweise nur in NodeJS lauffähige CommonJS-Module und macht sie fit den Browser. Dabei wird grundsätzlich die gesamte Modulstruktur in eine einzige Datei kompiliert, was ja heutzutage aus Performance-Sicht ganz wünschenswert ist. Außerdem erlaubt es Browserify, Transformationsfunktionen über der Browserifizierung den Code zu jagen. An dieser Stelle lassen sich die ES6-Transpiler wunderbar einbauen.

Mit es6-browserify existiert bereits eine brauchbare Browserify-ES6-Transpiler-Transformationsfunktion. Diese kann einfach anhand ihres Modulnames via transform('es6-browserify') eingebunden werden. Da es allerdings in es6-transpiler keine Generator-Unterstützung gibt, muss vorher noch Regenerator den Code bearbeiten. Weil ich hierfür keine brauchbare Browserify-Transformationsfunktion gefunden habe, habe ich kurzerhand meine eigene gebaut:

function regeneratorify(file){
  var data = "";
  var stream = through(write, end);
  function write(buf){
    data += buf;
  }
  function end(){
    var rdata = regenerator(data);
    stream.queue(rdata);
    stream.queue(null);
  }
  return stream;
}

Die Einbindung der Funktion erfolgt anhand des Funktionsnamens via .transform(regeneratorify). Zu guter Letzt braucht Regenerator noch seine (kleine) Runtime. Diese wird mittels require(regenerator.runtime.dev) eingebunden, wobei regenerator das normale, mit require() geladene Regenerator-Modul ist.

Der Rest des Codes ist eigentlich nur Zeug, das Browserify und Gulp (zwei sehr eigenwillige Projekte) miteinander zu verbinden sucht. Es war ausgesprochen frustrierend die diversen teilweise sehr halbgaren und/oder kaputten Gulp- und Browserify-Plugins durchzuprobieren, bis ich schließlich zu dem hier beschriebenen Ergebnis gekommen bin.

Die Erfahrungen mit dem Workflow und ES6

Ist erst mal der Buildprozess eingerichtet und alles automatisiert, lebt es sich in der ES6-Welt ganz angenehm. Es gibt viele schöne Features, an die man sich aber auch erst mal gewöhnen muss … wenn man sie denn wirklich alle einsetzen möchte. Und ich glaube nicht, dass das der Fall ist.

Ich würde noch nicht empfehlen, das nächste anstehende JS-Projekt voll auf ES6 auszurichten. Rechnet man die Fummelei mit den Tools, den Lernaufwand und die bei größeren Programmen doch irgendwann spürbare Kompilierzeit von 2-3 Sekunden zusammen, so lohnt es sich in der Gesamtabrechnung einfach noch nicht, es sei denn man hat sehr spezielle Dinge vor. Manche Probleme und Programmierstile können von einigen ES6-Features durchaus profitieren. Generators machen Sequenzen zum Kinderspiel und wenn man viel funktional programmiert lohnen sich Arrow Functions durchaus. Man schreibt (a, b) => a +b einfach so sehr viel lieber als function(a, b){ return a +b; } und dem Code wird durch die fehlenden Schweifklammern sehr viel Grundrauschen entzogen.

Die Features, die meiner Erfahrung nach einen erheblichen Mehrwert bieten (Arrow Functions, Generators) sind jene, die man mit eher kleinen Tools (SweetJS-Makros, Regenerator) zum Einsatz bringen kann. Deshalb ist mein Eindruck: wenn heute schon ES6, dann lieber gezielt Einzel-Feature-Tools hernehmen, als sich den Stress eines vollständigeren Transpilers aufzubürden. Es gilt als auch für den neuen JavaScript-Standard die gute alte 80/20-Regel: 80% des Gewinns werden mit 20% des Einsatzes erzielt. Und mehr als 20% Einsatz sollte man sich im heutigen ES6-Ökosystem meiner Meinung nach nicht zumuten.