folly copyright 2015 -> copyright 2016
[folly.git] / folly / io / async / AsyncTransport.h
1 /*
2  * Copyright 2016 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #pragma once
18
19 #include <memory>
20 #include <sys/uio.h>
21
22 #include <folly/io/async/DelayedDestruction.h>
23 #include <folly/io/async/EventBase.h>
24 #include <folly/io/async/AsyncSocketBase.h>
25 #include <folly/io/async/OpenSSLPtrTypes.h>
26
27 #include <openssl/ssl.h>
28
29 constexpr bool kOpenSslModeMoveBufferOwnership =
30 #ifdef SSL_MODE_MOVE_BUFFER_OWNERSHIP
31   true
32 #else
33   false
34 #endif
35 ;
36
37 namespace folly {
38
39 class AsyncSocketException;
40 class EventBase;
41 class IOBuf;
42 class SocketAddress;
43
44 /*
45  * flags given by the application for write* calls
46  */
47 enum class WriteFlags : uint32_t {
48   NONE = 0x00,
49   /*
50    * Whether to delay the output until a subsequent non-corked write.
51    * (Note: may not be supported in all subclasses or on all platforms.)
52    */
53   CORK = 0x01,
54   /*
55    * for a socket that has ACK latency enabled, it will cause the kernel
56    * to fire a TCP ESTATS event when the last byte of the given write call
57    * will be acknowledged.
58    */
59   EOR = 0x02,
60   /*
61    * this indicates that only the write side of socket should be shutdown
62    */
63   WRITE_SHUTDOWN = 0x04,
64 };
65
66 /*
67  * union operator
68  */
69 inline WriteFlags operator|(WriteFlags a, WriteFlags b) {
70   return static_cast<WriteFlags>(
71     static_cast<uint32_t>(a) | static_cast<uint32_t>(b));
72 }
73
74 /*
75  * intersection operator
76  */
77 inline WriteFlags operator&(WriteFlags a, WriteFlags b) {
78   return static_cast<WriteFlags>(
79     static_cast<uint32_t>(a) & static_cast<uint32_t>(b));
80 }
81
82 /*
83  * exclusion parameter
84  */
85 inline WriteFlags operator~(WriteFlags a) {
86   return static_cast<WriteFlags>(~static_cast<uint32_t>(a));
87 }
88
89 /*
90  * unset operator
91  */
92 inline WriteFlags unSet(WriteFlags a, WriteFlags b) {
93   return a & ~b;
94 }
95
96 /*
97  * inclusion operator
98  */
99 inline bool isSet(WriteFlags a, WriteFlags b) {
100   return (a & b) == b;
101 }
102
103
104 /**
105  * AsyncTransport defines an asynchronous API for streaming I/O.
106  *
107  * This class provides an API to for asynchronously waiting for data
108  * on a streaming transport, and for asynchronously sending data.
109  *
110  * The APIs for reading and writing are intentionally asymmetric.  Waiting for
111  * data to read is a persistent API: a callback is installed, and is notified
112  * whenever new data is available.  It continues to be notified of new events
113  * until it is uninstalled.
114  *
115  * AsyncTransport does not provide read timeout functionality, because it
116  * typically cannot determine when the timeout should be active.  Generally, a
117  * timeout should only be enabled when processing is blocked waiting on data
118  * from the remote endpoint.  For server-side applications, the timeout should
119  * not be active if the server is currently processing one or more outstanding
120  * requests on this transport.  For client-side applications, the timeout
121  * should not be active if there are no requests pending on the transport.
122  * Additionally, if a client has multiple pending requests, it will ususally
123  * want a separate timeout for each request, rather than a single read timeout.
124  *
125  * The write API is fairly intuitive: a user can request to send a block of
126  * data, and a callback will be informed once the entire block has been
127  * transferred to the kernel, or on error.  AsyncTransport does provide a send
128  * timeout, since most callers want to give up if the remote end stops
129  * responding and no further progress can be made sending the data.
130  */
131 class AsyncTransport : public DelayedDestruction, public AsyncSocketBase {
132  public:
133   typedef std::unique_ptr<AsyncTransport, Destructor> UniquePtr;
134
135   /**
136    * Close the transport.
137    *
138    * This gracefully closes the transport, waiting for all pending write
139    * requests to complete before actually closing the underlying transport.
140    *
141    * If a read callback is set, readEOF() will be called immediately.  If there
142    * are outstanding write requests, the close will be delayed until all
143    * remaining writes have completed.  No new writes may be started after
144    * close() has been called.
145    */
146   virtual void close() = 0;
147
148   /**
149    * Close the transport immediately.
150    *
151    * This closes the transport immediately, dropping any outstanding data
152    * waiting to be written.
153    *
154    * If a read callback is set, readEOF() will be called immediately.
155    * If there are outstanding write requests, these requests will be aborted
156    * and writeError() will be invoked immediately on all outstanding write
157    * callbacks.
158    */
159   virtual void closeNow() = 0;
160
161   /**
162    * Reset the transport immediately.
163    *
164    * This closes the transport immediately, sending a reset to the remote peer
165    * if possible to indicate abnormal shutdown.
166    *
167    * Note that not all subclasses implement this reset functionality: some
168    * subclasses may treat reset() the same as closeNow().  Subclasses that use
169    * TCP transports should terminate the connection with a TCP reset.
170    */
171   virtual void closeWithReset() {
172     closeNow();
173   }
174
175   /**
176    * Perform a half-shutdown of the write side of the transport.
177    *
178    * The caller should not make any more calls to write() or writev() after
179    * shutdownWrite() is called.  Any future write attempts will fail
180    * immediately.
181    *
182    * Not all transport types support half-shutdown.  If the underlying
183    * transport does not support half-shutdown, it will fully shutdown both the
184    * read and write sides of the transport.  (Fully shutting down the socket is
185    * better than doing nothing at all, since the caller may rely on the
186    * shutdownWrite() call to notify the other end of the connection that no
187    * more data can be read.)
188    *
189    * If there is pending data still waiting to be written on the transport,
190    * the actual shutdown will be delayed until the pending data has been
191    * written.
192    *
193    * Note: There is no corresponding shutdownRead() equivalent.  Simply
194    * uninstall the read callback if you wish to stop reading.  (On TCP sockets
195    * at least, shutting down the read side of the socket is a no-op anyway.)
196    */
197   virtual void shutdownWrite() = 0;
198
199   /**
200    * Perform a half-shutdown of the write side of the transport.
201    *
202    * shutdownWriteNow() is identical to shutdownWrite(), except that it
203    * immediately performs the shutdown, rather than waiting for pending writes
204    * to complete.  Any pending write requests will be immediately failed when
205    * shutdownWriteNow() is called.
206    */
207   virtual void shutdownWriteNow() = 0;
208
209   /**
210    * Determine if transport is open and ready to read or write.
211    *
212    * Note that this function returns false on EOF; you must also call error()
213    * to distinguish between an EOF and an error.
214    *
215    * @return  true iff the transport is open and ready, false otherwise.
216    */
217   virtual bool good() const = 0;
218
219   /**
220    * Determine if the transport is readable or not.
221    *
222    * @return  true iff the transport is readable, false otherwise.
223    */
224   virtual bool readable() const = 0;
225
226   /**
227    * Determine if the there is pending data on the transport.
228    *
229    * @return  true iff the if the there is pending data, false otherwise.
230    */
231   virtual bool isPending() const {
232     return readable();
233   }
234
235   /**
236    * Determine if transport is connected to the endpoint
237    *
238    * @return  false iff the transport is connected, otherwise true
239    */
240   virtual bool connecting() const = 0;
241
242   /**
243    * Determine if an error has occurred with this transport.
244    *
245    * @return  true iff an error has occurred (not EOF).
246    */
247   virtual bool error() const = 0;
248
249   /**
250    * Attach the transport to a EventBase.
251    *
252    * This may only be called if the transport is not currently attached to a
253    * EventBase (by an earlier call to detachEventBase()).
254    *
255    * This method must be invoked in the EventBase's thread.
256    */
257   virtual void attachEventBase(EventBase* eventBase) = 0;
258
259   /**
260    * Detach the transport from its EventBase.
261    *
262    * This may only be called when the transport is idle and has no reads or
263    * writes pending.  Once detached, the transport may not be used again until
264    * it is re-attached to a EventBase by calling attachEventBase().
265    *
266    * This method must be called from the current EventBase's thread.
267    */
268   virtual void detachEventBase() = 0;
269
270   /**
271    * Determine if the transport can be detached.
272    *
273    * This method must be called from the current EventBase's thread.
274    */
275   virtual bool isDetachable() const = 0;
276
277   /**
278    * Set the send timeout.
279    *
280    * If write requests do not make any progress for more than the specified
281    * number of milliseconds, fail all pending writes and close the transport.
282    *
283    * If write requests are currently pending when setSendTimeout() is called,
284    * the timeout interval is immediately restarted using the new value.
285    *
286    * @param milliseconds  The timeout duration, in milliseconds.  If 0, no
287    *                      timeout will be used.
288    */
289   virtual void setSendTimeout(uint32_t milliseconds) = 0;
290
291   /**
292    * Get the send timeout.
293    *
294    * @return Returns the current send timeout, in milliseconds.  A return value
295    *         of 0 indicates that no timeout is set.
296    */
297   virtual uint32_t getSendTimeout() const = 0;
298
299   /**
300    * Get the address of the local endpoint of this transport.
301    *
302    * This function may throw AsyncSocketException on error.
303    *
304    * @param address  The local address will be stored in the specified
305    *                 SocketAddress.
306    */
307   virtual void getLocalAddress(SocketAddress* address) const = 0;
308
309   virtual void getAddress(SocketAddress* address) const {
310     getLocalAddress(address);
311   }
312
313   /**
314    * Get the address of the remote endpoint to which this transport is
315    * connected.
316    *
317    * This function may throw AsyncSocketException on error.
318    *
319    * @param address  The remote endpoint's address will be stored in the
320    *                 specified SocketAddress.
321    */
322   virtual void getPeerAddress(SocketAddress* address) const = 0;
323
324   /**
325    * Get the certificate used to authenticate the peer.
326    */
327   virtual X509_UniquePtr getPeerCert() const { return nullptr; }
328
329   /**
330    * @return True iff end of record tracking is enabled
331    */
332   virtual bool isEorTrackingEnabled() const = 0;
333
334   virtual void setEorTracking(bool track) = 0;
335
336   virtual size_t getAppBytesWritten() const = 0;
337   virtual size_t getRawBytesWritten() const = 0;
338   virtual size_t getAppBytesReceived() const = 0;
339   virtual size_t getRawBytesReceived() const = 0;
340
341   class BufferCallback {
342    public:
343     virtual ~BufferCallback() {}
344     virtual void onEgressBuffered() = 0;
345     virtual void onEgressBufferCleared() = 0;
346   };
347
348  protected:
349   virtual ~AsyncTransport() = default;
350 };
351
352 class AsyncReader {
353  public:
354   class ReadCallback {
355    public:
356     virtual ~ReadCallback() = default;
357
358     /**
359      * When data becomes available, getReadBuffer() will be invoked to get the
360      * buffer into which data should be read.
361      *
362      * This method allows the ReadCallback to delay buffer allocation until
363      * data becomes available.  This allows applications to manage large
364      * numbers of idle connections, without having to maintain a separate read
365      * buffer for each idle connection.
366      *
367      * It is possible that in some cases, getReadBuffer() may be called
368      * multiple times before readDataAvailable() is invoked.  In this case, the
369      * data will be written to the buffer returned from the most recent call to
370      * readDataAvailable().  If the previous calls to readDataAvailable()
371      * returned different buffers, the ReadCallback is responsible for ensuring
372      * that they are not leaked.
373      *
374      * If getReadBuffer() throws an exception, returns a nullptr buffer, or
375      * returns a 0 length, the ReadCallback will be uninstalled and its
376      * readError() method will be invoked.
377      *
378      * getReadBuffer() is not allowed to change the transport state before it
379      * returns.  (For example, it should never uninstall the read callback, or
380      * set a different read callback.)
381      *
382      * @param bufReturn getReadBuffer() should update *bufReturn to contain the
383      *                  address of the read buffer.  This parameter will never
384      *                  be nullptr.
385      * @param lenReturn getReadBuffer() should update *lenReturn to contain the
386      *                  maximum number of bytes that may be written to the read
387      *                  buffer.  This parameter will never be nullptr.
388      */
389     virtual void getReadBuffer(void** bufReturn, size_t* lenReturn) = 0;
390
391     /**
392      * readDataAvailable() will be invoked when data has been successfully read
393      * into the buffer returned by the last call to getReadBuffer().
394      *
395      * The read callback remains installed after readDataAvailable() returns.
396      * It must be explicitly uninstalled to stop receiving read events.
397      * getReadBuffer() will be called at least once before each call to
398      * readDataAvailable().  getReadBuffer() will also be called before any
399      * call to readEOF().
400      *
401      * @param len       The number of bytes placed in the buffer.
402      */
403
404     virtual void readDataAvailable(size_t len) noexcept = 0;
405
406     /**
407      * When data becomes available, isBufferMovable() will be invoked to figure
408      * out which API will be used, readBufferAvailable() or
409      * readDataAvailable(). If isBufferMovable() returns true, that means
410      * ReadCallback supports the IOBuf ownership transfer and
411      * readBufferAvailable() will be used.  Otherwise, not.
412
413      * By default, isBufferMovable() always return false. If
414      * readBufferAvailable() is implemented and to be invoked, You should
415      * overwrite isBufferMovable() and return true in the inherited class.
416      *
417      * This method allows the AsyncSocket/AsyncSSLSocket do buffer allocation by
418      * itself until data becomes available.  Compared with the pre/post buffer
419      * allocation in getReadBuffer()/readDataAvailabe(), readBufferAvailable()
420      * has two advantages.  First, this can avoid memcpy. E.g., in
421      * AsyncSSLSocket, the decrypted data was copied from the openssl internal
422      * buffer to the readbuf buffer.  With the buffer ownership transfer, the
423      * internal buffer can be directly "moved" to ReadCallback. Second, the
424      * memory allocation can be more precise.  The reason is
425      * AsyncSocket/AsyncSSLSocket can allocate the memory of precise size
426      * because they have more context about the available data than
427      * ReadCallback.  Think about the getReadBuffer() pre-allocate 4072 bytes
428      * buffer, but the available data is always 16KB (max OpenSSL record size).
429      */
430
431     virtual bool isBufferMovable() noexcept {
432       return false;
433     }
434
435     /**
436      * readBufferAvailable() will be invoked when data has been successfully
437      * read.
438      *
439      * Note that only either readBufferAvailable() or readDataAvailable() will
440      * be invoked according to the return value of isBufferMovable(). The timing
441      * and aftereffect of readBufferAvailable() are the same as
442      * readDataAvailable()
443      *
444      * @param readBuf The unique pointer of read buffer.
445      */
446
447     virtual void readBufferAvailable(std::unique_ptr<IOBuf> /*readBuf*/)
448       noexcept {};
449
450     /**
451      * readEOF() will be invoked when the transport is closed.
452      *
453      * The read callback will be automatically uninstalled immediately before
454      * readEOF() is invoked.
455      */
456     virtual void readEOF() noexcept = 0;
457
458     /**
459      * readError() will be invoked if an error occurs reading from the
460      * transport.
461      *
462      * The read callback will be automatically uninstalled immediately before
463      * readError() is invoked.
464      *
465      * @param ex        An exception describing the error that occurred.
466      */
467     virtual void readErr(const AsyncSocketException& ex) noexcept = 0;
468   };
469
470   // Read methods that aren't part of AsyncTransport.
471   virtual void setReadCB(ReadCallback* callback) = 0;
472   virtual ReadCallback* getReadCallback() const = 0;
473
474  protected:
475   virtual ~AsyncReader() = default;
476 };
477
478 class AsyncWriter {
479  public:
480   class WriteCallback {
481    public:
482     virtual ~WriteCallback() = default;
483
484     /**
485      * writeSuccess() will be invoked when all of the data has been
486      * successfully written.
487      *
488      * Note that this mainly signals that the buffer containing the data to
489      * write is no longer needed and may be freed or re-used.  It does not
490      * guarantee that the data has been fully transmitted to the remote
491      * endpoint.  For example, on socket-based transports, writeSuccess() only
492      * indicates that the data has been given to the kernel for eventual
493      * transmission.
494      */
495     virtual void writeSuccess() noexcept = 0;
496
497     /**
498      * writeError() will be invoked if an error occurs writing the data.
499      *
500      * @param bytesWritten      The number of bytes that were successfull
501      * @param ex                An exception describing the error that occurred.
502      */
503     virtual void writeErr(size_t bytesWritten,
504                           const AsyncSocketException& ex) noexcept = 0;
505   };
506
507   // Write methods that aren't part of AsyncTransport
508   virtual void write(WriteCallback* callback, const void* buf, size_t bytes,
509                      WriteFlags flags = WriteFlags::NONE) = 0;
510   virtual void writev(WriteCallback* callback, const iovec* vec, size_t count,
511                       WriteFlags flags = WriteFlags::NONE) = 0;
512   virtual void writeChain(WriteCallback* callback,
513                           std::unique_ptr<IOBuf>&& buf,
514                           WriteFlags flags = WriteFlags::NONE) = 0;
515
516  protected:
517   virtual ~AsyncWriter() = default;
518 };
519
520 // Transitional intermediate interface. This is deprecated.
521 // Wrapper around folly::AsyncTransport, that includes read/write callbacks
522 class AsyncTransportWrapper : virtual public AsyncTransport,
523                               virtual public AsyncReader,
524                               virtual public AsyncWriter {
525  public:
526   using UniquePtr = std::unique_ptr<AsyncTransportWrapper, Destructor>;
527
528   // Alias for inherited members from AsyncReader and AsyncWriter
529   // to keep compatibility.
530   using ReadCallback    = AsyncReader::ReadCallback;
531   using WriteCallback   = AsyncWriter::WriteCallback;
532   virtual void setReadCB(ReadCallback* callback) override = 0;
533   virtual ReadCallback* getReadCallback() const override = 0;
534   virtual void write(WriteCallback* callback, const void* buf, size_t bytes,
535                      WriteFlags flags = WriteFlags::NONE) override = 0;
536   virtual void writev(WriteCallback* callback, const iovec* vec, size_t count,
537                       WriteFlags flags = WriteFlags::NONE) override = 0;
538   virtual void writeChain(WriteCallback* callback,
539                           std::unique_ptr<IOBuf>&& buf,
540                           WriteFlags flags = WriteFlags::NONE) override = 0;
541   /**
542    * The transport wrapper may wrap another transport. This returns the
543    * transport that is wrapped. It returns nullptr if there is no wrapped
544    * transport.
545    */
546   virtual const AsyncTransportWrapper* getWrappedTransport() const {
547     return nullptr;
548   }
549
550   /**
551    * In many cases when we need to set socket properties or otherwise access the
552    * underlying transport from a wrapped transport. This method allows access to
553    * the derived classes of the underlying transport.
554    */
555   template <class T>
556   const T* getUnderlyingTransport() const {
557     const AsyncTransportWrapper* current = this;
558     while (current) {
559       auto sock = dynamic_cast<const T*>(current);
560       if (sock) {
561         return sock;
562       }
563       current = current->getWrappedTransport();
564     }
565     return nullptr;
566   }
567
568   template <class T>
569   T* getUnderlyingTransport() {
570     return const_cast<T*>(static_cast<const AsyncTransportWrapper*>(this)
571         ->getUnderlyingTransport<T>());
572   }
573
574   /**
575    * Return the application protocol being used by the underlying transport
576    * protocol. This is useful for transports which are used to tunnel other
577    * protocols.
578    */
579   virtual std::string getApplicationProtocol() noexcept {
580     return "";
581   }
582
583   /**
584    * Returns the name of the security protocol being used.
585    */
586   virtual std::string getSecurityProtocol() const { return ""; }
587 };
588
589 } // folly