]> jfr.im git - erebus.git/blobdiff - modules/urls.py
urls - reformat headers
[erebus.git] / modules / urls.py
index 859f9acb642dd521d0025c311b9f53f3bdca734c..502920864c3fe619e533a28500cc087999f6c1dd 100644 (file)
@@ -35,6 +35,7 @@ else:
        import urllib.parse as urlparse
        import html
        from bs4 import BeautifulSoup
+import http.client
 
 import re, json, datetime
 
@@ -241,8 +242,29 @@ def _humanize_bytes(b):
                return "%.2f%siB" % (b, table[i])
 
 def _do_request(url, try_aia=False):
-       """Returns the HTTPResponse object, or a string on error"""
-       request = urllib2.Request(url, headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36', 'Sec-Ch-Ua': '"Chromium";v="116", "Not)A;Brand";v="24", "Google Chrome";v="116"', 'Sec-Ch-Ua-Mobile': '?0', 'Sec-Ch-Ua-Platform': '"Linux"', 'Sec-Fetch-Dest': 'document', 'Sec-Fetch-Mode': 'navigate', 'Sec-Fetch-Site': 'same-origin', 'Sec-Fetch-User': '?1', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7', 'Accept-Language': 'en-US,en;q=0.9', 'Cache-Control': 'no-cache', 'Pragma': 'no-cache', 'Upgrade-Insecure-Requests': '1'})
+       """
+               Return value is a tuple consisting of:
+               - the HTTPResponse object, or a string on error. Empty string -> no response.
+               - and a flag indicating whether AIA was used
+       """
+       try:
+               request = urllib2.Request(url, headers={
+                       'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36',
+                       'Sec-Ch-Ua': '"Chromium";v="116", "Not)A;Brand";v="24", "Google Chrome";v="116"',
+                       'Sec-Ch-Ua-Mobile': '?0',
+                       'Sec-Ch-Ua-Platform': '"Linux"',
+                       'Sec-Fetch-Dest': 'document',
+                       'Sec-Fetch-Mode': 'navigate',
+                       'Sec-Fetch-Site': 'same-origin',
+                       'Sec-Fetch-User': '?1',
+                       'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7',
+                       'Accept-Language': 'en-US,en;q=0.9',
+                       'Cache-Control': 'no-cache',
+                       'Pragma': 'no-cache',
+                       'Upgrade-Insecure-Requests': '1'
+               })
+       except ValueError:
+               return '', False
        if try_aia:
                opener = urllib2.build_opener(urllib2.HTTPSHandler(context=aia_session.ssl_context_from_url(url)), SmartRedirectHandler())
        else:
@@ -251,23 +273,25 @@ def _do_request(url, try_aia=False):
        # Send request and handle errors
        try:
                response = opener.open(request, timeout=2)
+       except http.client.InvalidURL as e: # why does a method under urllib.request raise an exception under http.client???
+               return '', False
        except urllib2.HTTPError as e:
-               return 'Request error: %s %s' % (e.code, e.reason)
+               return 'Request error: %s %s' % (e.code, e.reason), False
        except urllib2.URLError as e:
                if "certificate verify failed: unable to get local issuer certificate" in str(e.reason):
-                       if aia: # Retry with AIA enabled
+                       if aia: # Retry with AIA enabled, if module is present
                                return _do_request(url, True)
                        else:
                                lib.parent.log('urls', '?', 'If the site is not serving the certificate chain, installing the aia library might make this request work: pip install aia')
-                               return 'Request error: site may have broken TLS configuration (%s)' % (e.reason)
+                               return 'Request error: site may have broken TLS configuration (%s)' % (e.reason), False
                else:
-                       return 'Request error: %s' % (e.reason)
+                       return 'Request error: %s' % (e.reason), False
        except TimeoutError as e:
-               return 'Request error: request timed out'
+               return 'Request error: request timed out', False
        except Exception as e:
-               return 'Unknown error: %s %r' % (type(e).__name__, e.args)
+               return 'Unknown error: %s %r' % (type(e).__name__, e.args), False
 
-       return response
+       return response, try_aia
 
 
 def goturl(url):
@@ -277,12 +301,18 @@ def goturl(url):
                        if regex.match(url):
                                return None
 
-       response = _do_request(url)
+       response, used_aia = _do_request(url)
        if isinstance(response, stringbase):
                return response
 
        # Try to add type and length headers to reply
-       c_type = response.getheader('Content-Type', '').split(';', 1)[0]
+       c_type_fields = response.getheader('Content-Type', '').split(';')
+       c_type = c_type_fields.pop(0)
+       c_charset = None
+       for f in c_type_fields:
+               f = f.strip()
+               if len(f) > 8 and f[0:8] == 'charset=':
+                       c_charset = f[8:]
        c_len = response.getheader('Content-Length')
        if c_type != '':
                output.append("[%s] " % (c_type))
@@ -294,6 +324,9 @@ def goturl(url):
                else:
                        output.append("[no length] ")
 
+       if used_aia:
+               output.append("[AIA] ")
+
        # Try to add title if HTML
        if c_type == 'text/html':
                try:
@@ -306,7 +339,7 @@ def goturl(url):
                        else:
                                output.append("[%s] " % (_humanize_bytes(len(responsebody))))
                        try:
-                               soup = BeautifulSoup(responsebody)
+                               soup = BeautifulSoup(responsebody, from_encoding=c_charset)
                                if soup.title:
                                        output.append('Title: ' + unescape('%s' % (soup.find('title').string.strip())))
                                else:
@@ -317,12 +350,13 @@ def goturl(url):
        return ''.join(output)
 
 url_regex = (
-       re.compile(r'https?://(?:[^/\s.]+\.)+[^/\s.]+(?:/\S+)?'),
+       re.compile(r'https?://(?:[^/\s.]+\.)+[a-z0-9-]+(?:/[^\s\]>)}]+)?', re.I),
 )
 other_regexes = (
        (lambda x: '', (re.compile(r"""https?://(?:www\.)?(?:twitter|x)\.com/""", re.I),)), # skip twitter
        (lambda x: '', (re.compile(r"""https?://(?:www\.)?reddit\.com/""", re.I),)), # skip new-reddit
        (lambda x: '', (re.compile(r"""https?://jfr\.im/git/""", re.I),)), # skip my gitweb
+       (lambda x: '', (re.compile(r"""https?://(?:www\.)?wunderground\.com/""", re.I),)), # skip wunderground, they time us out
 )
 regexes = other_regexes + (
        (goturl, url_regex),