Interpreter

aus Wikipedia, der freien Enzyklopädie

Als Interpreter wird ein Computerprogramm bezeichnet, das eine Abfolge von Anweisungen anscheinend direkt ausführt,[1] wobei das Format der Anweisungen vorgegeben ist. Der Interpreter liest dazu eine oder mehrere Quelldateien ein, analysiert diese und führt sie anschließend Anweisung für Anweisung aus, indem er den dafür vorgesehenen Programmcode (eventuell über Zwischenschritte schließlich als Maschinencode für das jeweilige Computersystem) direkt ausführt. Interpreter sind deutlich langsamer als Compiler, bieten im Allgemeinen jedoch eine bessere Fehleranalyse.[1]

Interpreter werden sowohl bei Programmiersprachen als auch bei Computerprogrammen sowie Kommandozeileninterpreter verwendet.

Verwendung

Programmierung

Bei der Programmierung ist ein Interpreter fast immer ein Bestandteil der Softwareentwicklung.

In ihrer Reinform übersetzen Compiler – im Unterschied zu Interpretern – die Anweisungen aus den Quelldateien in einem oder mehreren Durchläufen in Maschinencode für ein vorher festgelegtes Zielsystem und erstellen so ein ausführbares Computerprogramm. Jedoch gibt es bereits hier die Unterscheidung zwischen Compiler-Compiler und Interpreter-Compiler, genauso wie es auch Interpreter-Interpreter und Compiler-Interpreter gibt.[2]

“Any good software engineer will tell you that a compiler and an interpreter are interchangeable.”

„Jeder gute Software-Entwickler wird Ihnen sagen, dass Compiler und Interpreter austauschbar sind.“

Tim Berners-Lee: Torben Ægidius Mogensen: Introduction to Compiler Design. Springer Science & Business Media, London 2011, ISBN 978-0-85729-828-7 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).

Ist die letzte Stufe ein Interpreter, so erfolgt die Übersetzung der Quelldatei zur Laufzeit des Programms.[3][4]

Programmiersprachen, die Quelltext nicht kompilieren, sondern eine Eingabe oder eine Quelldatei stets interpretieren, werden auch als „Interpretersprache“ oder Skriptsprache bezeichnet. Klassische Interpretersprachen sind z. B. Tcl, JavaScript oder einige BASIC-Varianten.

Bei einigen Programmiersprachen kann zwischen Interpreter und Compiler gewählt werden. So befand sich im ROM der meisten 8-Bit-Computer wie dem C64 für eine flüssige Programmentwicklung ohne Kompilierphasen ein BASIC-Interpreter; zur Beschleunigung fertigentwickelter Programme konnte ein kompatibler Compiler (z. B. BASIC BOSS) extern geladen werden. Auch die meisten Versionen von MS-DOS beinhalteten einen BASIC-Interpreter (z. B. GW-BASIC), zu dem ein kompatibler Compiler (hier BASCOM) erworben werden konnte.

Bei einigen Programmiersprachen wird auch ein Bytecode als Zwischencode erzeugt, der bereits optimiert ist, jedoch zur Ausführung abermals einen Interpreter auf dem Zielsystem benötigt.

Computerprogramme

Skripte für Kommandozeileninterpreter, etwa Stapelverarbeitungsdateien oder Unix-Shell-Skripte, werden ebenfalls von einem Interpreter ausgeführt. Damit das Skript nicht als Kommandozeilen-Parameter angegeben werden muss, gibt es auf Unix-artigen Systemen und Shells das sogenannte Shebang – das Skript ruft sich damit den passenden Interpreter, mithilfe der Shell, sozusagen selbst auf.

Bei Computerprogrammen spricht man ebenfalls von Interpretern, sobald der Code nicht direkt vom Computersystem ausgeführt werden kann oder soll. Dies ist u. a. bei Emulatoren ebenfalls der Fall, die Maschinencode für andere Computersysteme analysieren, umschreiben und für das Computersystem, auf dem sie gerade laufen, interpretiert ausführen. Virtuelle Maschinen zählen jedoch nicht dazu, da diese große Teile des Maschinencodes des Gastsystems auf dem Hostsystem uninterpretiert direkt ausführen. Auch Game-Engines können Interpreter sein, wenn sie die eigentlichen Spieledaten, meist als Bytecode, auf der jeweiligen Plattform interpretiert ausführen.

Eigenschaften

Interpreter liegen zumeist in Maschinensprache des Zielprozessors vor, können aber auch selbst wieder in einer Interpretersprache vorliegen. Der größte Nachteil ist dabei die gegenüber einem Compiler geringere Ausführungsgeschwindigkeit. Diese ist der Tatsache geschuldet, dass der Compiler sich während des Kompilierungsprozesses die Zeit nehmen kann, den Code zu optimieren, der somit auf dem jeweiligen Zielsystem schneller ausgeführt wird. Derlei Optimierungen sind jedoch zeitaufwendig, sodass ein Interpreter meist eine direkte Umsetzung auf Maschinencode durchführt, was jedoch in Summe wieder langsamer ist als der optimierte Code durch den Compiler.

Interpretierter Code ist in etwa fünf bis 20 Mal langsamer als kompilierter Code.[5]

Zu den Vorteilen von interpretiertem Code zählt, neben der besseren Fehleranalyse, die Unabhängigkeit von einer vorher festgelegten Rechnerarchitektur – denn interpretierter Code läuft auf jedem System, auf dem es einen Interpreter dafür gibt.

Geschwindigkeitssteigerungen

Eine Kompromisslösung ist ein Just-in-time-Compiler (JIT-Compiler), bei dem das Programm erst zur Laufzeit, jedoch direkt in Maschinencode übersetzt wird. Danach wird der übersetzte Code direkt vom Prozessor ausgeführt. Durch Zwischenspeicherung des Maschinencodes müssen mehrfach durchlaufene Programmteile nur einmal übersetzt werden. Auch ermöglicht der JIT-Compiler eine stärkere Optimierung des Binärcodes. JIT-Compiler sind allerdings nur auf einer bestimmten Rechnerarchitektur lauffähig, weil sie Maschinencode für diese Architektur erzeugen, und benötigen weit mehr Arbeitsspeicher als reine Interpreter.[5]

Zwischencode

Eine weitere Zwischenstufe sind Bytecode-Interpreter. Dabei wird der Quelltext (vorab oder zur Laufzeit) in einen einfachen Zwischencode übersetzt, der dann von einem Interpreter – auch häufig als virtuelle Maschine bezeichnet – ausgeführt wird. Dies ist z. B. bei Java durch die Java Virtual Machine (JVM) der Fall. Es entspricht dem Konzept Compiler-Interpreter, da der Zwischencode bereits in Teilen optimiert kompiliert wurde (Quelltext → Compiler → Zwischencode als Bytecode → Interpreter → Ausführung auf dem Zielsystem).

Besonders in den 1980er Jahren benutzte man die Zwischenstufe, Befehle zum Eingabezeitpunkt in leichter dekodierbare Tokens umzuwandeln, die bei der (List-)Ausgabe wieder in Klartext umgewandelt wurden. Neben der Geschwindigkeitssteigerung war die Kompression des Quelltextes ein gewichtiges Argument. Prinzipiell war es damit auch möglich, jeweils muttersprachliche Schlüsselwörter zu verwenden, wenn man den Datenaustausch auf Basis des tokenisierten Quellprogramms durchführte.

Mischformen

Da JIT-Code nicht automatisch schneller ist als interpretierter Code, verwenden manche Laufzeitumgebungen eine Mischform. Ein Beispiel dafür ist die JVM. Dabei wird der JIT-Compiler parallel mit dem Interpreter verwendet, wobei der jeweils schnellere Ausführungspfad „gewinnt“.[6]

Interpretersprachen

Als Interpretersprachen werden häufig Programmiersprachen bezeichnet, deren Haupt- oder Erstimplementierung ein Interpreter ist, als Gegenteil zu einer Programmiersprache, die einen Compiler verwendet (Compilersprache).[7] Grundsätzlich ist eine Programmiersprache nicht an eine Art der Implementierung gebunden und es existieren Mischform aus den beiden gegenteiligen Ansätzen.

Es gibt jedoch auch Programmiersprachen, die unter Gesichtspunkten der späteren Implementierung gestaltet wurden; dies ist bei manchen älteren Sprachen noch gut zu erkennen. So mussten Interpreter aufgrund der geringen Leistungsfähigkeit der frühen Computer möglichst einfach und klein gehalten werden, um nicht zu viel Rechenzeit und Arbeitsspeicher zu verbrauchen. Compiler hingegen konnten viel Rechenzeit und auch viel Arbeitsspeicher verbrauchen, denn wenn das Programm lief, waren sie nicht mehr aktiv. Deshalb wurden Sprachen, die interpretiert werden sollten, so gestaltet, dass sie einfach analysiert und ausgeführt werden können, wohingegen Sprachen, die kompiliert werden sollten, auch aufwändig zu analysierende und bearbeitende Konstrukte enthalten konnten. Heute spielt dies beim Entwurf einer Programmiersprache nur noch in den allerseltensten Fällen eine Rolle.

Für einige Sprachen existieren verschiedenartige Implementierungen. Hierbei sticht die Sprache Scheme hervor, für die eine unüberschaubare Vielzahl an Implementierungen existiert, die auf vielen verschiedenen Konzepten basieren. Hierzu noch ein Beispiel: Die Programmiersprache C ist sehr stark darauf ausgelegt, kompiliert zu werden. Doch es existieren trotzdem Interpreter wie der CINT und der Ch für diese Sprache und das, obwohl C oft als ein Paradebeispiel für eine Sprache genannt wird, die keine „Interpretersprache“, sondern eine „Compilersprache“ ist.

Als Interpretersprachen bekannt sind APL, BASIC, Forth, Perl, Python, Ruby, PHP und viele andere.[4] Als eine Unter- oder verwandte Kategorie der Interpretersprachen werden manchmal die Skriptsprachen genannt.

Bekannte Programmiersprachen, die üblicherweise in Bytecode übersetzt werden, sind Java, C#, Perl und Python.

Für manche Sprachen (etwa Smalltalk) gibt es je nach Anbieter Interpreter, Bytecode-Interpreter, JIT-Compiler oder Compiler in andere Sprachen (beispielsweise nach C oder für .NET-Plattformen).

Der Übergang zwischen reinen Interpretern und reinen Compilern ist fließend.

Einzelnachweise

  1. a b Alfred V. Aho, Monica S. Lam, Ravi Sethi, Jeffrey D. Ullman: Compiler: Prinzipien, Techniken und Werkzeuge. Pearson Deutschland GmbH, 2008, ISBN 978-3-8273-7097-6, S. 1253 (eingeschränkte Vorschau in der Google-Buchsuche).
  2. Julius T. Tou: Software Engineering. Proceedings of the Third Symposium on Computer and Information Sciences held in Miami Beach, Florida, December, 1969. Academic Press, New York, London 1970, ISBN 978-0-323-15744-5, S. 288 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  3. Was ist ein Interpreter? » XOVI. Abgerufen am 29. Mai 2019.
  4. a b Michael Bürger: Interpretersprachen. Abgerufen am 29. Mai 2019.
  5. a b David A. Watt: Compiler Construction. 9th International Conference, CC 2000. In: Lecture Notes in Computer Science, Volume 1781. Springer-Verlag, Berlin, Heidelberg, New York 2000, ISBN 978-3-540-67263-0, S. 300 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  6. R. Nageswara Rao, Kogent Solutions Inc.: Core Java: An Integrated Approach. Covers Concepts, Programs and Interview Questions. Dreamtech Press, New Delhi 2008, ISBN 978-81-7722-836-6, S. 664 (englisch, eingeschränkte Vorschau in der Google-Buchsuche).
  7. Christian Wagenknecht, Michael Hielscher: Formale Sprachen, abstrakte Automaten und Compiler. Lehr- und Arbeitsbuch für Grundstudium und Fortbildung. Springer-Verlag, 2009, ISBN 3-8348-0624-2 (eingeschränkte Vorschau in der Google-Buchsuche).