]> git.donarmstrong.com Git - lilypond.git/blobdiff - scripts/auxiliar/makelsr.py
Build: dist fixes.
[lilypond.git] / scripts / auxiliar / makelsr.py
index 593925b3bf456c17bb8d5fba1e932d2edc2712d2..d012f1faca4a1e9b4460036cea3909771dbf78d7 100755 (executable)
@@ -59,6 +59,14 @@ if len (sys.argv) >= 2:
 else:
     in_dir = ''
 
+# which convert-ly to use
+if os.path.isfile("out/bin/convert-ly"):
+    conv_path='out/bin/'
+else:
+    conv_path=''
+convert_ly=conv_path+'convert-ly'
+print 'using '+convert_ly
+
 unsafe = []
 unconverted = []
 notags_files = []
@@ -66,6 +74,16 @@ notags_files = []
 # mark the section that will be printed verbatim by lilypond-book
 end_header_re = re.compile ('(\\header {.+?doctitle = ".+?})\n', re.M | re.S)
 
+doctitle_re = re.compile (r'(doctitle[a-zA-Z_]{0,6}\s*=\s*")((?:\\"|[^"\n])*)"')
+texinfo_q_re = re.compile (r'@q{(.*?)}')
+texinfo_qq_re = re.compile (r'@qq{(.*?)}')
+def doctitle_sub (title_match):
+    # Comma forbidden in Texinfo node name
+    title = title_match.group (2).replace (',', '')
+    title = texinfo_q_re.sub (r"`\1'", title)
+    title = texinfo_qq_re.sub (r'\"\1\"', title)
+    return title_match.group (1) + title + '"'
+
 def mark_verbatim_section (ly_code):
     return end_header_re.sub ('\\1 % begin verbatim\n\n', ly_code, 1)
 
@@ -73,6 +91,7 @@ def mark_verbatim_section (ly_code):
 lsr_comment_re = re.compile (r'\s*%+\s*LSR.*')
 begin_header_re = re.compile (r'\\header\s*{', re.M)
 ly_new_version_re = re.compile (r'\\version\s*"(.+?)"')
+strip_white_spaces_re = re.compile (r'[ \t]+(?=\n)')
 
 # add tags to ly files from LSR
 def add_tags (ly_code, tags):
@@ -118,6 +137,7 @@ def copy_ly (srcdir, name, tags):
             texidoc_translation = texidoc_translation.replace ('\\', '\\\\')
             s = begin_header_re.sub ('\\g<0>\n' + texidoc_translation, s, 1)
 
+    s = doctitle_re.sub (doctitle_sub, s)
     if in_dir and in_dir in srcdir:
         s = LY_HEADER_LSR + add_tags (s, tags)
     else:
@@ -125,9 +145,10 @@ def copy_ly (srcdir, name, tags):
 
     s = mark_verbatim_section (s)
     s = lsr_comment_re.sub ('', s)
+    s = strip_white_spaces_re.sub ('', s)
     open (dest, 'w').write (s)
 
-    e = os.system ("convert-ly -e '%s'" % dest)
+    e = os.system (convert_ly+(" -e '%s'" % dest))
     if e:
         unconverted.append (dest)
     if os.path.exists (dest + '~'):
@@ -189,6 +210,7 @@ def update_ly_in_place (snippet_path):
                                               snippet_path,
                                               visited_languages),
          contents)
+    need_line_break_workaround = False
     for language_code in langdefs.LANGDICT:
         if not language_code in visited_languages:
             base = os.path.splitext (os.path.basename (snippet_path))[0]
@@ -198,6 +220,16 @@ def update_ly_in_place (snippet_path):
                 texidoc_translation = open (texidoc_path).read ()
                 texidoc_translation = texidoc_translation.replace ('\\', '\\\\')
                 contents = begin_header_re.sub ('\\g<0>\n' + texidoc_translation, contents, 1)
+        else:
+            need_line_break_workaround = True
+    contents = doctitle_re.sub (doctitle_sub, contents)
+    # workaround for a bug in the regex's that I'm not smart
+    # enough to figure out.  -gp
+    if need_line_break_workaround:
+        first_translated = contents.find('%% Translation of')
+        keep = contents[:first_translated+5]
+        contents = keep + contents[first_translated+5:].replace('%% Translation of', '\n%% Translation of')
+
     open (snippet_path, 'w').write (contents)
 
 if in_dir: