]> git.donarmstrong.com Git - lilypond.git/blobdiff - buildscripts/add_html_footer.py
Change Snippets compilation
[lilypond.git] / buildscripts / add_html_footer.py
index a7bc7e11d97e6a7c732a06f7d5887bb67b659feb..da827c130164de217acb3ae553191f28c6d4d287 100644 (file)
@@ -9,45 +9,68 @@ import time
 
 import langdefs
 
-default_header = r"""
+# This is to try to make the docball not too big with almost duplicate files
+# see process_links()
+non_copied_pages = ['Documentation/user/out-www/lilypond-big-page',
+                    'Documentation/user/out-www/lilypond-internals-big-page',
+                    'Documentation/user/out-www/music-glossary-big-page',
+                    'out-www/examples',
+                    'Documentation/topdocs',
+                    'Documentation/bibliography',
+                    'Documentation/out-www/THANKS',
+                    'Documentation/out-www/DEDICATION',
+                    'input/']
+
+def _doc (s):
+    return s
+
+header = r"""
 """
 
-default_footer = r'''
+footer = '''
 <div style="background-color: #e8ffe8; padding: 2; border: #c0ffc0 1px solid;">
 <p>
 <font size="-1">
-This page is for %(package_name)s-%(package_version)s (%(branch_str)s). <br>
+%(footer_name_version)s
+<br>
+<address>
+%(footer_report_errors)s </address>
+<br>
+%(footer_suggest_docs)s
 </font>
-<address><font size="-1">
-Report errors to <a href="%(mail_address_url)s">%(mail_address)s</a>.</font></address>
 </p>
 </div>
 '''
+footer_name_version = _doc ('This page is for %(package_name)s-%(package_version)s (%(branch_str)s).')
+footer_report_errors = _doc ('Report errors to <a href="%(mail_address_url)s">%(mail_address)s</a>.')
+# ugh, must not have "_doc" in strings because it is naively replaced with "_" in hacked gettext process
+footer_suggest_docs = _doc ('Your <a href="%(suggest_Docs_url)s">suggestions for the documentation</a> are welcome.')
+
+mail_address = 'http://post.gmane.org/post.php?group=gmane.comp.gnu.lilypond.bugs'
+suggest_Docs_url = 'http://lilypond.org/web/devel/participating/documentation-adding'
 
 header_tag = '<!-- header_tag -->'
 footer_tag = '<!-- footer_tag -->'
 
-def _ (s):
-    return s
-
-language_available = _ ("Other languages: %s.") % "%(language_menu)s"
-browser_language = _ ("Using <A HREF='%s'>automatic language selection</A>.") \
-           % "/web/about/browser-language"
+lang_available = _doc ("Other languages: %s.")
+browser_lang = _doc ('About <A HREF="%s">automatic language selection</A>.')
+browser_language_url = "/web/about/browser-language"
 
-LANGUAGES_TEMPLATE = '''\
+LANGUAGES_TEMPLATE = '''
 <P>
  %(language_available)s
  <BR>
  %(browser_language)s
 </P>
-''' % vars ()
+'''
 
 
 html_re = re.compile ('(.*?)(?:[.]([^/.]*))?[.]html$')
+pages_dict = {}
 
 def build_pages_dict (filelist):
     """Build dictionnary of available translations of each page"""
-    pages_dict = {}
+    global pages_dict
     for f in filelist:
         m = html_re.match (f)
         if m:
@@ -60,25 +83,39 @@ def build_pages_dict (filelist):
                 pages_dict[g[0]] = [e]
             else:
                 pages_dict[g[0]].append (e)
-    return pages_dict
 
+def source_links_replace (m, source_val):
+    return 'href="' + os.path.join (source_val, m.group (1)) + '"'
+
+splitted_docs_re = re.compile ('(input/lsr/out-www/snippets|Documentation/user/out-www/(lilypond|music-glossary|lilypond-program|lilypond-learning))/')
+
+snippets_ref_re = re.compile (r'href="(\.\./)?lilypond-snippets')
+
+## Windows does not support symlinks.
+# This function avoids creating symlinks for splitted HTML manuals
+# Get rid of symlinks in GNUmakefile.in (local-WWW-post)
+# this also fixes missing PNGs only present in translated docs
+def _urls (s, prefix):
+    if splitted_docs_re.match (prefix):
+        s = re.sub ('(href|src)="(lily-.*?|.*?[.]png)"', '\\1="../\\2"', s)
+
+    # fix Snippets xrefs ad hoc
+    s = snippets_ref_re.sub ('href="source/input/lsr/lilypond-snippets', s)
 
-def do_file (prefix, lang_ext, target, header, footer, pages_dict, out_root, name_filter,
-             package_name, package_version, branch_str, mail_address_url, mail_address):
-    file_name = langdefs.lang_file_name (prefix, lang_ext, '.html')
-    in_f = open (file_name)
-    s = in_f.read()
-    in_f.close()
-    
-    s = re.sub ('%', '%%', s)
+    source_path = os.path.join (os.path.dirname (prefix), 'source')
+    if not os.path.islink (source_path):
+        return s
+    source_val = os.readlink (source_path)
+    return re.sub ('href="source/(.*?)"', lambda m: source_links_replace (m, source_val), s)
 
-    ### add header
+def add_header (s):
+    """Add header (<BODY> and doctype)"""
     if re.search (header_tag, s) == None:
         body = '<BODY BGCOLOR=WHITE TEXT=BLACK>'
         s = re.sub ('(?i)<body>', body, s)
         if re.search ('(?i)<BODY', s):
             s = re.sub ('(?i)<body[^>]*>', body + header, s, 1)
-        elif re.search ('(?i)<html', s):                
+        elif re.search ('(?i)<html', s):
             s = re.sub ('(?i)<html>', '<HTML>' + header, s, 1)
         else:
             s = header + s
@@ -88,10 +125,9 @@ def do_file (prefix, lang_ext, target, header, footer, pages_dict, out_root, nam
         if re.search ('(?i)<!DOCTYPE', s) == None:
             doctype = '<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">\n'
             s = doctype + s
+        return s
 
-    # remove info's annoying's indication of referencing external document
-    s = re.sub (' \((lilypond|lilypond-internals|music-glossary)\)</a>',                                  '</a>', s)
-
+def add_title (s):
     # urg
     # maybe find first node?
     fallback_web_title = '-- --'
@@ -99,108 +135,117 @@ def do_file (prefix, lang_ext, target, header, footer, pages_dict, out_root, nam
     if m:
         fallback_web_title = m.group (1)
     s = re.sub ('@WEB-TITLE@', fallback_web_title, s)
+    return s
 
-    ### add footer
-    page_flavors = {}
-    if re.search (footer_tag, s) == None:
-        if re.search ('(?i)</body', s):
-            s = re.sub ('(?i)</body>', footer_tag + footer + '\n' + '</BODY>', s, 1)
-        elif re.search ('(?i)</html', s):                
-            s = re.sub ('(?i)</html>', footer_tag + footer + '\n' + '</HTML>', s, 1)
+info_nav_bar = re.compile (r'<div class="node">\s*<p>\s*<a name=".+?"></a>(.+?)<hr>\s*</div>', re.M | re.S)
+info_footnote_hr = re.compile (r'<hr>\s*(</div>)?\s*</body>', re.M | re.I)
+
+def add_footer (s):
+    """add footer
+
+also add navigation bar to bottom of Info HTML pages"""
+    m = info_nav_bar.search (s)
+    if m:
+        # avoid duplicate <hr> in case there are footnotes at the end of the Info HTML page
+        if info_footnote_hr.search (s):
+            custom_footer = '<div class="node">\n<p>' + m.group (1) + '</div>\n' + footer
         else:
-            s += footer_tag + footer + '\n'
-        
-        # Find available translations of this page.
-        available = []
-        missing = []
-        for l in langdefs.LANGUAGES:
-            e = l.webext
-            if lang_ext != e:
-                if e in pages_dict[prefix]:
-                    available.append (l)
-                elif lang_ext == '' and l.enabled: # English version of missing translated pages will be written
-                    missing.append (e)
-
-        if target == 'online':
-            # Strip .html, .png suffix for auto language selection (content
-            # negotiation).  The menu must keep the full extension, so do
-            # this before adding the menu.
-            # Don't strip .html suffix for documentation index because of
-            # lilypond/ vs. lilypond.html conflict
-            if prefix == 'Documentation/out-www/index':
-                page_flavors[file_name] = s
-            else:
-                page_flavors[file_name] = re.sub (
-                    '''(href|src)=[\'"]([^/][.]*[^.:\'"]*)(.html|.png)(#[^"\']*|)[\'"]''',
-                    '\\1="\\2\\4"', s)
-        elif target == 'offline':
-            if lang_ext == '':
-                page_flavors[file_name] = s
-                for e in missing:
-                    page_flavors[langdefs.lang_file_name (prefix, e, '.html')] = re.sub (
-                        '''href=[\'"]([^/][.]*[^.:\'"]*)(.html)(#[^"\']*|)[\'"]''',
-                        'href="\\1.' + e + '\\2\\3"', s)
-            else:
-                page_flavors[file_name] = re.sub (
+            custom_footer = '<br><hr>\n<div class="node">\n<p>' + m.group (1) + '</div>\n' + footer
+    else:
+        custom_footer = footer
+    if re.search ('(?i)</body', s):
+        s = re.sub ('(?i)</body>', footer_tag + custom_footer + '\n' + '</BODY>', s, 1)
+    elif re.search ('(?i)</html', s):                
+        s = re.sub ('(?i)</html>', footer_tag + custom_footer + '\n' + '</HTML>', s, 1)
+    else:
+        s += footer_tag + custom_footer + '\n'
+    return s
+
+def find_translations (prefix, lang_ext):
+    """find available translations of a page"""
+    available = []
+    missing = []
+    for l in langdefs.LANGUAGES:
+        e = l.webext
+        if lang_ext != e:
+            if e in pages_dict[prefix]:
+                available.append (l)
+            elif lang_ext == '' and l.enabled and reduce (lambda x, y: x and y, [not prefix.startswith (s) for s in non_copied_pages]):
+                # English version of missing translated pages will be written
+                missing.append (e)
+    return available, missing
+
+def process_links (s, prefix, lang_ext, file_name, missing, target):
+    page_flavors = {}
+    if target == 'online':
+        # Strip .html, .png suffix for auto language selection (content
+        # negotiation).  The menu must keep the full extension, so do
+        # this before adding the menu.
+        page_flavors[file_name] = [lang_ext, re.sub (
+            '''(href|src)=[\'"]([^/][.]*[^.:\'"]*)(.html|.png)(#[^"\']*|)[\'"]''',
+            '\\1="\\2\\4"', s)]
+    elif target == 'offline':
+        # in LANG doc index: don't rewrite .html suffixes as not all .LANG.html pages exist
+        # the doc index should be translated and contain the right links
+        if prefix == 'Documentation/out-www/index':
+            page_flavors[file_name] = [lang_ext, s]
+        elif lang_ext == '':
+            page_flavors[file_name] = [lang_ext, s]
+            for e in missing:
+                page_flavors[langdefs.lang_file_name (prefix, e, '.html')] = [e, re.sub (
                     '''href=[\'"]([^/][.]*[^.:\'"]*)(.html)(#[^"\']*|)[\'"]''',
-                    'href="\\1.' + lang_ext + '\\2\\3"', s)
+                    'href="\\1.' + e + '\\2\\3"', s)]
+        else:
+            page_flavors[file_name] = [lang_ext, re.sub (
+                '''href=[\'"]([^/][.]*[^.:\'"]*)(.html)(#[^"\']*|)[\'"]''',
+                'href="\\1.' + lang_ext + '\\2\\3"', s)]
+    return page_flavors
 
-        # Add menu after stripping: must not have autoselection for language menu.
+def add_menu (page_flavors, prefix, available, target, translation):
+    for k in page_flavors.keys():
         language_menu = ''
+        languages = ''
+        if page_flavors[k][0] != '':
+            t = translation[page_flavors[k][0]]
+        else:
+            t = _doc
         for lang in available:
             lang_file = lang.file_name (os.path.basename (prefix), '.html')
             if language_menu != '':
                 language_menu += ', '
-            language_menu += '<a href="%s">%s</a>' % (lang_file, lang.name)
-
-        languages = ''
+            language_menu += '<a href="%s">%s</a>' % (lang_file, t (lang.name))
+        if target == 'offline':
+            browser_language = ''
+        elif target == 'online':
+            browser_language = t (browser_lang) % browser_language_url
         if language_menu:
+            language_available = t (lang_available) % language_menu
             languages = LANGUAGES_TEMPLATE % vars ()
-
-        # Put language menu before '</body>' and '</html>' tags
-        for k in page_flavors.keys():
-            if re.search ('(?i)</body', page_flavors[k]):
-                page_flavors[k] = re.sub ('(?i)</body>', languages + '</BODY>', page_flavors[k], 1)
-            elif re.search ('(?i)</html', page_flavors[k]):                
-                page_flavors[k] = re.sub ('(?i)</html>', languages + '</HTML>', page_flavors[k], 1)
-            else:
-                page_flavors[k] += languages
-    else:
-        for e in [l.webext for l in langdefs.LANGUAGES]:
-            if not e in pages_dict[prefix]:
-                page_flavors[langdefs.lang_file_name (prefix, e, '.html')] = s
-
-    for k in page_flavors.keys():
-        page_flavors[k] = page_flavors[k] % vars ()
-
-        out_f = open (os.path.join (out_root, name_filter (k)), 'w')
-        out_f.write (page_flavors[k])
-        out_f.close()
+        # put language menu before '</body>' and '</html>' tags
+        if re.search ('(?i)</body', page_flavors[k][1]):
+            page_flavors[k][1] = re.sub ('(?i)</body>', languages + '</BODY>', page_flavors[k][1], 1)
+        elif re.search ('(?i)</html', page_flavors[k][1]):
+            page_flavors[k][1] = re.sub ('(?i)</html>', languages + '</HTML>', page_flavors[k][1], 1)
+        else:
+            page_flavors[k][1] += languages
+    return page_flavors
 
 
-def add_html_footer (package_name = '',
+def add_html_footer (translation,
+                     package_name = '',
                      package_version = '',
-                     header = default_header,
-                     footer = default_footer,
                      target = 'offline',
-                     mail_address = '(address unknown)',
-                     pages_dict = {},
-                     out_root = '',
                      name_filter = lambda s: s):
     """Add header, footer to a number of HTML files
 
     Arguments:
+     translation               gettext translations dictionary, with language codes as keys
      package_name=NAME         set package_name to NAME
      package_version=VERSION   set package version to VERSION
-     header=TEXT               use TEXT as header
-     footer=TEXT               use TEXT as footer
      targets=offline|online    set page processing depending on the target
           offline is for reading HTML pages locally
           online is for hosting the HTML pages on a website with content
             negotiation
-     mail_address              set \"Report errors to\" link
-     pages_dict                a dictionnary returned by build_pages_dict()
-     out_root                  a path prefix where to write HTML pages
      name_filter               a HTML file name filter
     """
     localtime = time.strftime ('%c %Z', time.localtime (time.time ()))
@@ -211,14 +256,42 @@ def add_html_footer (package_name = '',
         mail_address_url= 'mailto:' + mail_address
 
     versiontup = package_version.split ('.')
-    branch_str = 'stable-branch'
-    if int ( versiontup[1]) %  2:
-        branch_str = 'development-branch'
-
-    for page, ext_list in pages_dict.items ():
-        for e in ext_list:
-            do_file (page, e, target, header, footer, pages_dict, out_root, name_filter,
-                     package_name, package_version, branch_str, mail_address_url, mail_address)
+    branch_str = _doc ('stable-branch')
+    if int (versiontup[1]) %  2:
+        branch_str = _doc ('development-branch')
+
+    for prefix, ext_list in pages_dict.items ():
+        for lang_ext in ext_list:
+            file_name = langdefs.lang_file_name (prefix, lang_ext, '.html')
+            in_f = open (file_name)
+            s = in_f.read()
+            in_f.close()
+
+            s = re.sub ('%', '%%', s)
+            s = replace_symlinks_urls (s, prefix)
+            s = add_header (s)
+
+            ### add footer
+            if re.search (footer_tag, s) == None:
+                s = add_footer (s)
+                
+                available, missing = find_translations (prefix, lang_ext)
+                page_flavors = process_links (s, prefix, lang_ext, file_name, missing, target)
+                # Add menu after stripping: must not have autoselection for language menu.
+                page_flavors = add_menu (page_flavors, prefix, available, target, translation)
+            subst = dict ([i for i in globals().items() if type (i[1]) is str])
+            subst.update (dict ([i for i in locals().items() if type (i[1]) is str]))
+            for k in page_flavors.keys():
+                if page_flavors[k][0] in translation.keys():
+                    for name in subst.keys():
+                        subst[name] = translation[page_flavors[k][0]] (subst[name])
+                subst['footer_name_version'] = subst['footer_name_version'] % subst
+                subst['footer_report_errors'] = subst['footer_report_errors'] % subst
+                subst['footer_suggest_docs'] = subst['footer_suggest_docs'] % subst
+                page_flavors[k][1] = page_flavors[k][1] % subst
+                out_f = open (name_filter (k), 'w')
+                out_f.write (page_flavors[k][1])
+                out_f.close()
         # if the page is translated, a .en.html symlink is necessary for content negotiation
         if target == 'online' and ext_list != ['']:
-            os.symlink (os.path.basename (page) + '.html', os.path.join (out_root, name_filter (page + '.en.html')))
+            os.symlink (os.path.basename (prefix) + '.html', name_filter (prefix + '.en.html'))