]> git.donarmstrong.com Git - lilypond.git/blob - scripts/auxiliar/makelsr.py
Docs: makelsr.py: normalize snippet titles into more manageable node names
[lilypond.git] / scripts / auxiliar / makelsr.py
1 #!/usr/bin/env python
2
3 import sys
4 import os
5 import glob
6 import re
7
8 sys.path.append ('python')
9 import langdefs
10
11 DEST = os.path.join ('Documentation', 'snippets')
12 NEW_LYS = os.path.join ('Documentation', 'snippets', 'new')
13 TEXIDOCS = [os.path.join ('Documentation', language_code, 'texidocs')
14             for language_code in langdefs.LANGDICT]
15
16 USAGE = '''  Usage: makelsr.py [LSR_SNIPPETS_DIR]
17 This script must be run from top of the source tree;
18 it updates snippets %(DEST)s with snippets
19 from %(NEW_LYS)s or LSR_SNIPPETS_DIR.
20 If a snippet is present in both directories, the one
21 from %(NEW_LYS)s is preferred.
22 ''' % vars ()
23
24 LY_HEADER_LSR = '''%% Do not edit this file; it is automatically
25 %% generated from LSR http://lsr.dsi.unimi.it
26 %% This file is in the public domain.
27 '''
28
29 LY_HEADER_NEW = '''%% Do not edit this file; it is automatically
30 %% generated from %s
31 %% This file is in the public domain.
32 ''' % NEW_LYS
33
34 TAGS = []
35 # NR 1
36 TAGS.extend (['pitches', 'rhythms', 'expressive-marks',
37 'repeats', 'simultaneous-notes', 'staff-notation',
38 'editorial-annotations', 'text'])
39 # NR 2
40 TAGS.extend (['vocal-music', 'chords', 'keyboards',
41 'percussion', 'fretted-strings', 'unfretted-strings',
42 'ancient-notation', 'winds', 'world-music'
43 ])
44
45 # other
46 TAGS.extend (['contexts-and-engravers', 'tweaks-and-overrides',
47 'paper-and-layout', 'breaks', 'spacing', 'midi', 'titles', 'template'])
48
49 def exit_with_usage (n=0):
50     sys.stderr.write (USAGE)
51     sys.exit (n)
52
53 if len (sys.argv) >= 2:
54     in_dir = sys.argv[1]
55     if len (sys.argv) >= 3:
56         exit_with_usage (2)
57     if not (os.path.isdir (DEST) and os.path.isdir (NEW_LYS)):
58         exit_with_usage (3)
59 else:
60     in_dir = ''
61
62 unsafe = []
63 unconverted = []
64 notags_files = []
65
66 # mark the section that will be printed verbatim by lilypond-book
67 end_header_re = re.compile ('(\\header {.+?doctitle = ".+?})\n', re.M | re.S)
68
69 doctitle_re = re.compile (r'(doctitle[a-zA-Z_]{0,6}\s*=\s*")((?:\\"|[^"\n])*)"')
70 texinfo_q_re = re.compile (r'@q{(.*?)}')
71 texinfo_qq_re = re.compile (r'@qq{(.*?)}')
72 def doctitle_sub (title_match):
73     # Comma forbidden in Texinfo node name
74     title = title_match.group (2).replace (',', '')
75     title = texinfo_q_re.sub (r"`\1'", title)
76     title = texinfo_qq_re.sub (r'"\1"', title)
77     return title_match.group (1) + title + '"'
78
79 def mark_verbatim_section (ly_code):
80     return end_header_re.sub ('\\1 % begin verbatim\n\n', ly_code, 1)
81
82 # '% LSR' comments are to be stripped
83 lsr_comment_re = re.compile (r'\s*%+\s*LSR.*')
84 begin_header_re = re.compile (r'\\header\s*{', re.M)
85 ly_new_version_re = re.compile (r'\\version\s*"(.+?)"')
86
87 # add tags to ly files from LSR
88 def add_tags (ly_code, tags):
89     return begin_header_re.sub ('\\g<0>\n  lsrtags = "' + tags + '"\n',
90                                 ly_code, 1)
91
92 # for snippets from input/new, add message for earliest working version
93 def add_version (ly_code):
94     return '''%% Note: this file works from version ''' + \
95         ly_new_version_re.search (ly_code).group (1) + '\n'
96
97 s = 'Translation of GIT [Cc]ommittish'
98 texidoc_chunk_re = re.compile (r'^(?:%+\s*' + s + \
99     r'.+)?\s*(?:texidoc|doctitle)([a-zA-Z]{2,4})\s+=(?:.|\n)*?(?=%+\s*' + \
100     s + r'|\n\} % begin verbatim|\n  (?:doctitle|texidoc|lsrtags) |$(?!.|\n))', re.M)
101
102 def update_translated_texidoc (m, snippet_path, visited_languages):
103     base = os.path.splitext (os.path.basename (snippet_path))[0]
104     language_code = m.group (1)
105     visited_languages.append (language_code)
106     texidoc_path = os.path.join ('Documentation', language_code,
107                                  'texidocs', base + '.texidoc')
108     if os.path.isfile (texidoc_path):
109         return open (texidoc_path).read ()
110     else:
111         return m.group (0)
112
113 def copy_ly (srcdir, name, tags):
114     global unsafe
115     global unconverted
116     dest = os.path.join (DEST, name)
117     tags = ', '.join (tags)
118     s = open (os.path.join (srcdir, name)).read ()
119
120     for path in TEXIDOCS:
121         texidoc_translation_path = \
122             os.path.join (path, os.path.splitext (name)[0] + '.texidoc')
123         if os.path.exists (texidoc_translation_path):
124             texidoc_translation = open (texidoc_translation_path).read ()
125             # Since we want to insert the translations verbatim using a 
126             # regexp, \\ is understood as ONE escaped backslash. So we have
127             # to escape those backslashes once more...
128             texidoc_translation = texidoc_translation.replace ('\\', '\\\\')
129             s = begin_header_re.sub ('\\g<0>\n' + texidoc_translation, s, 1)
130
131     s = doctitle_re.sub (doctitle_sub, s)
132     if in_dir and in_dir in srcdir:
133         s = LY_HEADER_LSR + add_tags (s, tags)
134     else:
135         s = LY_HEADER_NEW + add_version (s) + s
136
137     s = mark_verbatim_section (s)
138     s = lsr_comment_re.sub ('', s)
139     open (dest, 'w').write (s)
140
141     e = os.system ("convert-ly -e '%s'" % dest)
142     if e:
143         unconverted.append (dest)
144     if os.path.exists (dest + '~'):
145         os.remove (dest + '~')
146     # no need to check snippets from input/new
147     if in_dir and in_dir in srcdir:
148         # -V seems to make unsafe snippets fail nicer/sooner
149         e = os.system ("lilypond -V -dno-print-pages -dsafe -o /tmp/lsrtest '%s'" % dest)
150         if e:
151             unsafe.append (dest)
152
153 def read_source_with_dirs (src):
154     s = {}
155     l = {}
156     for tag in TAGS:
157         srcdir = os.path.join (src, tag)
158         l[tag] = set (map (os.path.basename,
159                            glob.glob (os.path.join (srcdir, '*.ly'))))
160         for f in l[tag]:
161             if f in s:
162                 s[f][1].append (tag)
163             else:
164                 s[f] = (srcdir, [tag])
165     return s, l
166
167
168 tags_re = re.compile ('lsrtags\\s*=\\s*"(.+?)"')
169
170 def read_source (src):
171     s = {}
172     l = dict ([(tag, set()) for tag in TAGS])
173     for f in glob.glob (os.path.join (src, '*.ly')):
174         basename = os.path.basename (f)
175         m = tags_re.search (open (f, 'r').read ())
176         if m:
177             file_tags = [tag.strip() for tag in m.group (1). split(',')]
178             s[basename] = (src, file_tags)
179             [l[tag].add (basename) for tag in file_tags if tag in TAGS]
180         else:
181             notags_files.append (f)
182     return s, l
183
184
185 def dump_file_list (file, file_list, update=False):
186     if update:
187         old_list = set (open (file, 'r').read ().splitlines ())
188         old_list.update (file_list)
189         new_list = list (old_list)
190     else:
191         new_list = file_list
192     f = open (file, 'w')
193     f.write ('\n'.join (sorted (new_list)) + '\n')
194
195 def update_ly_in_place (snippet_path):
196     visited_languages = []
197     contents = open (snippet_path).read ()
198     contents = texidoc_chunk_re.sub \
199         (lambda m: update_translated_texidoc (m,
200                                               snippet_path,
201                                               visited_languages),
202          contents)
203     for language_code in langdefs.LANGDICT:
204         if not language_code in visited_languages:
205             base = os.path.splitext (os.path.basename (snippet_path))[0]
206             texidoc_path = os.path.join ('Documentation', language_code,
207                          'texidocs', base + '.texidoc')
208             if os.path.isfile (texidoc_path):
209                 texidoc_translation = open (texidoc_path).read ()
210                 texidoc_translation = texidoc_translation.replace ('\\', '\\\\')
211                 contents = begin_header_re.sub ('\\g<0>\n' + texidoc_translation, contents, 1)
212     open (snippet_path, 'w').write (contents)
213
214 if in_dir:
215     ## clean out existing lys and generated files
216     map (os.remove, glob.glob (os.path.join (DEST, '*.ly')) +
217          glob.glob (os.path.join (DEST, '*.snippet-list')))
218
219     # read LSR source where tags are defined by subdirs
220     snippets, tag_lists = read_source_with_dirs (in_dir)
221
222     # read input/new where tags are directly defined
223     s, l = read_source (NEW_LYS)
224     snippets.update (s)
225     for t in TAGS:
226         tag_lists[t].update (l[t])
227 else:
228     snippets, tag_lists = read_source (NEW_LYS)
229     ## update texidocs of snippets that don't come from NEW_LYS
230     for snippet_path in glob.glob (os.path.join (DEST, '*.ly')):
231         if not os.path.basename (snippet_path) in snippets:
232             update_ly_in_place (snippet_path)
233
234 for (name, (srcdir, tags)) in snippets.items ():
235     copy_ly (srcdir, name, tags)
236 for (tag, file_set) in tag_lists.items ():
237     dump_file_list (os.path.join (DEST, tag + '.snippet-list'),
238                     file_set, update=not(in_dir))
239 if unconverted:
240     sys.stderr.write ('These files could not be converted successfully by convert-ly:\n')
241     sys.stderr.write ('\n'.join (unconverted) + '\n\n')
242 if notags_files:
243     sys.stderr.write ('No tags could be found in these files:\n')
244     sys.stderr.write ('\n'.join (notags_files) + '\n\n')
245 if unsafe:
246     dump_file_list ('lsr-unsafe.txt', unsafe)
247     sys.stderr.write ('''
248
249 Unsafe files printed in lsr-unsafe.txt: CHECK MANUALLY!
250   git add %s/*.ly
251   xargs git diff HEAD < lsr-unsafe.txt
252
253 ''' % DEST)