]> jfr.im git - z_archive/twitter.git/blobdiff - twitter/stream.py
Merge pull request #203 from RouxRC/pr-fix-timeout
[z_archive/twitter.git] / twitter / stream.py
index 7686ec01905b3a0b727c30f3d3539f34315a341e..6ecc49ed760a54591477274c0c1517556900d04e 100644 (file)
@@ -12,85 +12,88 @@ import sys, select, time
 
 from .api import TwitterCall, wrap_response, TwitterHTTPError
 
+python27_3 = sys.version_info >= (2, 7)
+def recv_chunk(sock): # -> bytearray:
+
+    header = sock.recv(8)  # Scan for an up to 16MiB chunk size (0xffffff).
+    crlf = header.find(b'\r\n')  # Find the HTTP chunk size.
+
+    if crlf > 0:  # If there is a length, then process it
+
+        size = int(header[:crlf], 16)  # Decode the chunk size. Rarely exceeds 8KiB.
+        chunk = bytearray(size)
+        start = crlf + 2  # Add in the length of the header's CRLF pair.
+
+        if size <= 3:  # E.g. an HTTP chunk with just a keep-alive delimiter or end of stream (0).
+            chunk[:size] = header[start:start + size]
+        # There are several edge cases (size == [4-6]) as the chunk size exceeds the length
+        # of the initial read of 8 bytes. With Twitter, these do not, in practice, occur. The
+        # shortest JSON message starts with '{"limit":{'. Hence, it exceeds in size the edge cases
+        # and eliminates the need to address them.
+        else:  # There is more to read in the chunk.
+            end = len(header) - start
+            chunk[:end] = header[start:]
+            if python27_3:  # When possible, use less memory by reading directly into the buffer.
+                buffer = memoryview(chunk)[end:]  # Create a view into the bytearray to hold the rest of the chunk.
+                sock.recv_into(buffer)
+            else:  # less efficient for python2.6 compatibility
+                chunk[end:] = sock.recv(max(0, size - end))
+            sock.recv(2)  # Read the trailing CRLF pair. Throw it away.
+
+        return chunk
+
+    return bytearray()
+
+
 class TwitterJSONIter(object):
 
     def __init__(self, handle, uri, arg_data, block=True, timeout=None):
-        self.decoder = json.JSONDecoder()
         self.handle = handle
         self.uri = uri
         self.arg_data = arg_data
-        self.buf = b""
         self.block = block
         self.timeout = timeout
-        self.timer = time.time()
-
-
-    def recv_chunk(self, sock):
-        buf = sock.recv(32)
-        if buf:
-            # Find the HTTP chunk size.
-            decoded = buf.decode('utf-8')  # Use UTF-8 instead of ASCII because the data contains JSON, a UTF-8 format.
-            start = decoded.find('\r\n')
-            if start > 0:
-                # Decode the chunk size.
-                remaining = int(decoded[:start], 16)
-                chunk = buf[start + 2:]  # Add the length of the CRLF pair.
-                remaining -= len(chunk)
-
-                while remaining > 0:
-                    balance = sock.recv(remaining + 2)  # Add the length of the chunk's CRLF pair.
-                    if balance:
-                        chunk += balance
-                        remaining -= len(balance)
-                # If necessary, remove the trailing CRLF pair. (This precludes an extra trip through the JSON parser.)
-                return chunk[:-2] if remaining == -2 and chunk[-2] == 0x0d and chunk[-1] == 0x0a else chunk
-        return b''
 
 
     def __iter__(self):
-        if sys.version_info >= (3, 0):
-            sock = self.handle.fp.raw._sock
-        else:
-            sock = self.handle.fp._sock.fp._sock
+        sock = self.handle.fp.raw._sock if sys.version_info >= (3, 0) else self.handle.fp._sock.fp._sock
         sock.setsockopt(socket.SOL_SOCKET, socket.SO_KEEPALIVE, 1)
-        if not self.block or self.timeout:
-            sock.setblocking(False)
+        sock.setblocking(self.block and not self.timeout)
+        buf = ''
+        json_decoder = json.JSONDecoder()
+        timer = time.time()
         while True:
             try:
-                utf8_buf = self.buf.decode('utf8').lstrip()
-                res, ptr = self.decoder.raw_decode(utf8_buf)
-                self.buf = utf8_buf[ptr:].encode('utf8')
+                buf = buf.lstrip()
+                res, ptr = json_decoder.raw_decode(buf)
+                buf = buf[ptr:]
                 yield wrap_response(res, self.handle.headers)
-                self.timer = time.time()
                 continue
             except ValueError as e:
-                if self.block:
-                    pass
-                else:
-                    yield None
-            # this is a non-blocking read (ie, it will return if any data is available)
+                if self.block: pass
+                else: yield None
             try:
-                if self.timeout:
+                buf = buf.lstrip()  # Remove any keep-alive delimiters to detect hangups.
+                if self.timeout and not buf:  # This is a non-blocking read.
                     ready_to_read = select.select([sock], [], [], self.timeout)
-                    if ready_to_read[0]:
-                        self.buf += self.recv_chunk(sock)
-                        if time.time() - self.timer > self.timeout:
-                            yield {"timeout":True}
-                    else:
-                        yield {"timeout":True}
-                else:
-                    self.buf += self.recv_chunk(sock)
+                    if not ready_to_read[0] and time.time() - timer > self.timeout:
+                        yield {'timeout': True}
+                        continue
+                timer = time.time()
+                buf += recv_chunk(sock).decode('utf-8')
+                if not buf:
+                    yield {'hangup': True}
+                    break
             except SSLError as e:
-                if (not self.block or self.timeout) and (e.errno == 2):
-                    # Apparently this means there was nothing in the socket buf
-                    pass
-                else:
-                    raise
-            except urllib_error.HTTPError as e:
-                raise TwitterHTTPError(e, self.uri, 'json', self.arg_data)
+                # Error from a non-blocking read of an empty buffer.
+                if (not self.block or self.timeout) and (e.errno == 2): pass
+                else: raise
 
 def handle_stream_response(req, uri, arg_data, block, timeout=None):
-    handle = urllib_request.urlopen(req,)
+    try:
+        handle = urllib_request.urlopen(req,)
+    except urllib_error.HTTPError as e:
+        raise TwitterHTTPError(e, uri, 'json', arg_data)
     return iter(TwitterJSONIter(handle, uri, arg_data, block, timeout=timeout))
 
 class TwitterStreamCallWithTimeout(TwitterCall):