tokenize (version: Ka-Ping Yee, 26 October 1997; patched, GvR 3/30/98)
 

Tokenization help for Python programs.

This module exports a function called 'tokenize()' that breaks a stream of
text into Python tokens.  It accepts a readline-like method which is called
repeatedly to get the next line of input (or "" for EOF) and a "token-eater"
function which is called once for each token found.  The latter function is
passed the token type, a string containing the token, the starting and
ending (row, column) coordinates of the token, and the original line.  It is
designed to match the working of the Python tokenizer exactly, except that
it produces COMMENT tokens for comments and gives type OP for all operators.


 Modules
                                                                                                                                                                                                                               
re
string


 Functions
                                                                                                                                                                                                                               
any(*choices)
no doc string
group(*choices)
no doc string
maybe(*choices)
no doc string
printtoken(type, token, (srow, scol), (erow, ecol), line)
no doc string
tokenize(readline, tokeneater=<function printtoken at 8129250>)
no doc string