Können mich Leute auf Ressourcen zum Lexing, Parsing und Tokening mit Python verweisen?Ressourcen zum Lexing, Tokening und Parsing in Python
Ich mache ein wenig Hacking auf einem Open-Source-Projekt (hotwire) und wollte ein paar Änderungen an dem Code zu tun, dass lexes, parses and tokenises die Befehle in sie eingetragen. Da es wirklich funktionierender Code ist, ist es ziemlich komplex und ein bisschen schwierig zu trainieren.
Ich habe noch nicht an Code zu lex/parse/tokenise gearbeitet, also dachte ich, ein Ansatz wäre, ein oder zwei Tutorials zu diesem Aspekt durchzuarbeiten. Ich würde hoffentlich genug lernen, um den Code zu navigieren, den ich eigentlich ändern möchte. Gibt es da draußen etwas Passendes? (Im Idealfall könnte es an einem Nachmittag durchgeführt werden, ohne den Drachen Buch zuerst zu kaufen und lesen ...)
Edit: (7. Oktober 2008) Keiner der folgenden Antworten recht geben, was ich will. Mit ihnen konnte ich Parser von Grund auf neu erstellen, aber ich möchte lernen, wie ich meinen eigenen Parser von Grund auf neu schreiben kann, ohne lex und yacc oder ähnliche Tools zu verwenden. Danach kann ich den vorhandenen Code besser verstehen.
Also könnte mich jemand auf ein Tutorial verweisen, wo ich einen grundlegenden Parser von Grund auf neu erstellen kann, nur mit Python?
Ich zweite die Empfehlung für PLY, es ist großartig. – mipadi