usb: dwc_otg_310: support vbus controlled by both gpio and pmic
[firefly-linux-kernel-4.4.55.git] / drivers / crypto / s5p-sss.c
1 /*
2  * Cryptographic API.
3  *
4  * Support for Samsung S5PV210 HW acceleration.
5  *
6  * Copyright (C) 2011 NetUP Inc. All rights reserved.
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License version 2 as published
10  * by the Free Software Foundation.
11  *
12  */
13
14 #include <linux/delay.h>
15 #include <linux/err.h>
16 #include <linux/module.h>
17 #include <linux/init.h>
18 #include <linux/errno.h>
19 #include <linux/kernel.h>
20 #include <linux/clk.h>
21 #include <linux/platform_device.h>
22 #include <linux/scatterlist.h>
23 #include <linux/dma-mapping.h>
24 #include <linux/io.h>
25 #include <linux/of.h>
26 #include <linux/crypto.h>
27 #include <linux/interrupt.h>
28
29 #include <crypto/algapi.h>
30 #include <crypto/aes.h>
31 #include <crypto/ctr.h>
32
33 #define _SBF(s, v)                      ((v) << (s))
34 #define _BIT(b)                         _SBF(b, 1)
35
36 /* Feed control registers */
37 #define SSS_REG_FCINTSTAT               0x0000
38 #define SSS_FCINTSTAT_BRDMAINT          _BIT(3)
39 #define SSS_FCINTSTAT_BTDMAINT          _BIT(2)
40 #define SSS_FCINTSTAT_HRDMAINT          _BIT(1)
41 #define SSS_FCINTSTAT_PKDMAINT          _BIT(0)
42
43 #define SSS_REG_FCINTENSET              0x0004
44 #define SSS_FCINTENSET_BRDMAINTENSET    _BIT(3)
45 #define SSS_FCINTENSET_BTDMAINTENSET    _BIT(2)
46 #define SSS_FCINTENSET_HRDMAINTENSET    _BIT(1)
47 #define SSS_FCINTENSET_PKDMAINTENSET    _BIT(0)
48
49 #define SSS_REG_FCINTENCLR              0x0008
50 #define SSS_FCINTENCLR_BRDMAINTENCLR    _BIT(3)
51 #define SSS_FCINTENCLR_BTDMAINTENCLR    _BIT(2)
52 #define SSS_FCINTENCLR_HRDMAINTENCLR    _BIT(1)
53 #define SSS_FCINTENCLR_PKDMAINTENCLR    _BIT(0)
54
55 #define SSS_REG_FCINTPEND               0x000C
56 #define SSS_FCINTPEND_BRDMAINTP         _BIT(3)
57 #define SSS_FCINTPEND_BTDMAINTP         _BIT(2)
58 #define SSS_FCINTPEND_HRDMAINTP         _BIT(1)
59 #define SSS_FCINTPEND_PKDMAINTP         _BIT(0)
60
61 #define SSS_REG_FCFIFOSTAT              0x0010
62 #define SSS_FCFIFOSTAT_BRFIFOFUL        _BIT(7)
63 #define SSS_FCFIFOSTAT_BRFIFOEMP        _BIT(6)
64 #define SSS_FCFIFOSTAT_BTFIFOFUL        _BIT(5)
65 #define SSS_FCFIFOSTAT_BTFIFOEMP        _BIT(4)
66 #define SSS_FCFIFOSTAT_HRFIFOFUL        _BIT(3)
67 #define SSS_FCFIFOSTAT_HRFIFOEMP        _BIT(2)
68 #define SSS_FCFIFOSTAT_PKFIFOFUL        _BIT(1)
69 #define SSS_FCFIFOSTAT_PKFIFOEMP        _BIT(0)
70
71 #define SSS_REG_FCFIFOCTRL              0x0014
72 #define SSS_FCFIFOCTRL_DESSEL           _BIT(2)
73 #define SSS_HASHIN_INDEPENDENT          _SBF(0, 0x00)
74 #define SSS_HASHIN_CIPHER_INPUT         _SBF(0, 0x01)
75 #define SSS_HASHIN_CIPHER_OUTPUT        _SBF(0, 0x02)
76
77 #define SSS_REG_FCBRDMAS                0x0020
78 #define SSS_REG_FCBRDMAL                0x0024
79 #define SSS_REG_FCBRDMAC                0x0028
80 #define SSS_FCBRDMAC_BYTESWAP           _BIT(1)
81 #define SSS_FCBRDMAC_FLUSH              _BIT(0)
82
83 #define SSS_REG_FCBTDMAS                0x0030
84 #define SSS_REG_FCBTDMAL                0x0034
85 #define SSS_REG_FCBTDMAC                0x0038
86 #define SSS_FCBTDMAC_BYTESWAP           _BIT(1)
87 #define SSS_FCBTDMAC_FLUSH              _BIT(0)
88
89 #define SSS_REG_FCHRDMAS                0x0040
90 #define SSS_REG_FCHRDMAL                0x0044
91 #define SSS_REG_FCHRDMAC                0x0048
92 #define SSS_FCHRDMAC_BYTESWAP           _BIT(1)
93 #define SSS_FCHRDMAC_FLUSH              _BIT(0)
94
95 #define SSS_REG_FCPKDMAS                0x0050
96 #define SSS_REG_FCPKDMAL                0x0054
97 #define SSS_REG_FCPKDMAC                0x0058
98 #define SSS_FCPKDMAC_BYTESWAP           _BIT(3)
99 #define SSS_FCPKDMAC_DESCEND            _BIT(2)
100 #define SSS_FCPKDMAC_TRANSMIT           _BIT(1)
101 #define SSS_FCPKDMAC_FLUSH              _BIT(0)
102
103 #define SSS_REG_FCPKDMAO                0x005C
104
105 /* AES registers */
106 #define SSS_REG_AES_CONTROL             0x00
107 #define SSS_AES_BYTESWAP_DI             _BIT(11)
108 #define SSS_AES_BYTESWAP_DO             _BIT(10)
109 #define SSS_AES_BYTESWAP_IV             _BIT(9)
110 #define SSS_AES_BYTESWAP_CNT            _BIT(8)
111 #define SSS_AES_BYTESWAP_KEY            _BIT(7)
112 #define SSS_AES_KEY_CHANGE_MODE         _BIT(6)
113 #define SSS_AES_KEY_SIZE_128            _SBF(4, 0x00)
114 #define SSS_AES_KEY_SIZE_192            _SBF(4, 0x01)
115 #define SSS_AES_KEY_SIZE_256            _SBF(4, 0x02)
116 #define SSS_AES_FIFO_MODE               _BIT(3)
117 #define SSS_AES_CHAIN_MODE_ECB          _SBF(1, 0x00)
118 #define SSS_AES_CHAIN_MODE_CBC          _SBF(1, 0x01)
119 #define SSS_AES_CHAIN_MODE_CTR          _SBF(1, 0x02)
120 #define SSS_AES_MODE_DECRYPT            _BIT(0)
121
122 #define SSS_REG_AES_STATUS              0x04
123 #define SSS_AES_BUSY                    _BIT(2)
124 #define SSS_AES_INPUT_READY             _BIT(1)
125 #define SSS_AES_OUTPUT_READY            _BIT(0)
126
127 #define SSS_REG_AES_IN_DATA(s)          (0x10 + (s << 2))
128 #define SSS_REG_AES_OUT_DATA(s)         (0x20 + (s << 2))
129 #define SSS_REG_AES_IV_DATA(s)          (0x30 + (s << 2))
130 #define SSS_REG_AES_CNT_DATA(s)         (0x40 + (s << 2))
131 #define SSS_REG_AES_KEY_DATA(s)         (0x80 + (s << 2))
132
133 #define SSS_REG(dev, reg)               ((dev)->ioaddr + (SSS_REG_##reg))
134 #define SSS_READ(dev, reg)              __raw_readl(SSS_REG(dev, reg))
135 #define SSS_WRITE(dev, reg, val)        __raw_writel((val), SSS_REG(dev, reg))
136
137 #define SSS_AES_REG(dev, reg)           ((dev)->aes_ioaddr + SSS_REG_##reg)
138 #define SSS_AES_WRITE(dev, reg, val)    __raw_writel((val), \
139                                                 SSS_AES_REG(dev, reg))
140
141 /* HW engine modes */
142 #define FLAGS_AES_DECRYPT               _BIT(0)
143 #define FLAGS_AES_MODE_MASK             _SBF(1, 0x03)
144 #define FLAGS_AES_CBC                   _SBF(1, 0x01)
145 #define FLAGS_AES_CTR                   _SBF(1, 0x02)
146
147 #define AES_KEY_LEN         16
148 #define CRYPTO_QUEUE_LEN    1
149
150 /**
151  * struct samsung_aes_variant - platform specific SSS driver data
152  * @has_hash_irq: true if SSS module uses hash interrupt, false otherwise
153  * @aes_offset: AES register offset from SSS module's base.
154  *
155  * Specifies platform specific configuration of SSS module.
156  * Note: A structure for driver specific platform data is used for future
157  * expansion of its usage.
158  */
159 struct samsung_aes_variant {
160         bool                        has_hash_irq;
161         unsigned int                aes_offset;
162 };
163
164 struct s5p_aes_reqctx {
165         unsigned long mode;
166 };
167
168 struct s5p_aes_ctx {
169         struct s5p_aes_dev         *dev;
170
171         uint8_t                     aes_key[AES_MAX_KEY_SIZE];
172         uint8_t                     nonce[CTR_RFC3686_NONCE_SIZE];
173         int                         keylen;
174 };
175
176 struct s5p_aes_dev {
177         struct device              *dev;
178         struct clk                 *clk;
179         void __iomem               *ioaddr;
180         void __iomem               *aes_ioaddr;
181         int                         irq_hash;
182         int                         irq_fc;
183
184         struct ablkcipher_request  *req;
185         struct s5p_aes_ctx         *ctx;
186         struct scatterlist         *sg_src;
187         struct scatterlist         *sg_dst;
188
189         struct tasklet_struct       tasklet;
190         struct crypto_queue         queue;
191         bool                        busy;
192         spinlock_t                  lock;
193
194         struct samsung_aes_variant *variant;
195 };
196
197 static struct s5p_aes_dev *s5p_dev;
198
199 static const struct samsung_aes_variant s5p_aes_data = {
200         .has_hash_irq   = true,
201         .aes_offset     = 0x4000,
202 };
203
204 static const struct samsung_aes_variant exynos_aes_data = {
205         .has_hash_irq   = false,
206         .aes_offset     = 0x200,
207 };
208
209 static const struct of_device_id s5p_sss_dt_match[] = {
210         {
211                 .compatible = "samsung,s5pv210-secss",
212                 .data = &s5p_aes_data,
213         },
214         {
215                 .compatible = "samsung,exynos4210-secss",
216                 .data = &exynos_aes_data,
217         },
218         { },
219 };
220 MODULE_DEVICE_TABLE(of, s5p_sss_dt_match);
221
222 static inline struct samsung_aes_variant *find_s5p_sss_version
223                                    (struct platform_device *pdev)
224 {
225         if (IS_ENABLED(CONFIG_OF) && (pdev->dev.of_node)) {
226                 const struct of_device_id *match;
227                 match = of_match_node(s5p_sss_dt_match,
228                                         pdev->dev.of_node);
229                 return (struct samsung_aes_variant *)match->data;
230         }
231         return (struct samsung_aes_variant *)
232                         platform_get_device_id(pdev)->driver_data;
233 }
234
235 static void s5p_set_dma_indata(struct s5p_aes_dev *dev, struct scatterlist *sg)
236 {
237         SSS_WRITE(dev, FCBRDMAS, sg_dma_address(sg));
238         SSS_WRITE(dev, FCBRDMAL, sg_dma_len(sg));
239 }
240
241 static void s5p_set_dma_outdata(struct s5p_aes_dev *dev, struct scatterlist *sg)
242 {
243         SSS_WRITE(dev, FCBTDMAS, sg_dma_address(sg));
244         SSS_WRITE(dev, FCBTDMAL, sg_dma_len(sg));
245 }
246
247 static void s5p_aes_complete(struct s5p_aes_dev *dev, int err)
248 {
249         /* holding a lock outside */
250         dev->req->base.complete(&dev->req->base, err);
251         dev->busy = false;
252 }
253
254 static void s5p_unset_outdata(struct s5p_aes_dev *dev)
255 {
256         dma_unmap_sg(dev->dev, dev->sg_dst, 1, DMA_FROM_DEVICE);
257 }
258
259 static void s5p_unset_indata(struct s5p_aes_dev *dev)
260 {
261         dma_unmap_sg(dev->dev, dev->sg_src, 1, DMA_TO_DEVICE);
262 }
263
264 static int s5p_set_outdata(struct s5p_aes_dev *dev, struct scatterlist *sg)
265 {
266         int err;
267
268         if (!IS_ALIGNED(sg_dma_len(sg), AES_BLOCK_SIZE)) {
269                 err = -EINVAL;
270                 goto exit;
271         }
272         if (!sg_dma_len(sg)) {
273                 err = -EINVAL;
274                 goto exit;
275         }
276
277         err = dma_map_sg(dev->dev, sg, 1, DMA_FROM_DEVICE);
278         if (!err) {
279                 err = -ENOMEM;
280                 goto exit;
281         }
282
283         dev->sg_dst = sg;
284         err = 0;
285
286  exit:
287         return err;
288 }
289
290 static int s5p_set_indata(struct s5p_aes_dev *dev, struct scatterlist *sg)
291 {
292         int err;
293
294         if (!IS_ALIGNED(sg_dma_len(sg), AES_BLOCK_SIZE)) {
295                 err = -EINVAL;
296                 goto exit;
297         }
298         if (!sg_dma_len(sg)) {
299                 err = -EINVAL;
300                 goto exit;
301         }
302
303         err = dma_map_sg(dev->dev, sg, 1, DMA_TO_DEVICE);
304         if (!err) {
305                 err = -ENOMEM;
306                 goto exit;
307         }
308
309         dev->sg_src = sg;
310         err = 0;
311
312  exit:
313         return err;
314 }
315
316 static void s5p_aes_tx(struct s5p_aes_dev *dev)
317 {
318         int err = 0;
319
320         s5p_unset_outdata(dev);
321
322         if (!sg_is_last(dev->sg_dst)) {
323                 err = s5p_set_outdata(dev, sg_next(dev->sg_dst));
324                 if (err) {
325                         s5p_aes_complete(dev, err);
326                         return;
327                 }
328
329                 s5p_set_dma_outdata(dev, dev->sg_dst);
330         } else {
331                 s5p_aes_complete(dev, err);
332
333                 dev->busy = true;
334                 tasklet_schedule(&dev->tasklet);
335         }
336 }
337
338 static void s5p_aes_rx(struct s5p_aes_dev *dev)
339 {
340         int err;
341
342         s5p_unset_indata(dev);
343
344         if (!sg_is_last(dev->sg_src)) {
345                 err = s5p_set_indata(dev, sg_next(dev->sg_src));
346                 if (err) {
347                         s5p_aes_complete(dev, err);
348                         return;
349                 }
350
351                 s5p_set_dma_indata(dev, dev->sg_src);
352         }
353 }
354
355 static irqreturn_t s5p_aes_interrupt(int irq, void *dev_id)
356 {
357         struct platform_device *pdev = dev_id;
358         struct s5p_aes_dev     *dev  = platform_get_drvdata(pdev);
359         uint32_t                status;
360         unsigned long           flags;
361
362         spin_lock_irqsave(&dev->lock, flags);
363
364         if (irq == dev->irq_fc) {
365                 status = SSS_READ(dev, FCINTSTAT);
366                 if (status & SSS_FCINTSTAT_BRDMAINT)
367                         s5p_aes_rx(dev);
368                 if (status & SSS_FCINTSTAT_BTDMAINT)
369                         s5p_aes_tx(dev);
370
371                 SSS_WRITE(dev, FCINTPEND, status);
372         }
373
374         spin_unlock_irqrestore(&dev->lock, flags);
375
376         return IRQ_HANDLED;
377 }
378
379 static void s5p_set_aes(struct s5p_aes_dev *dev,
380                         uint8_t *key, uint8_t *iv, unsigned int keylen)
381 {
382         void __iomem *keystart;
383
384         if (iv)
385                 memcpy(dev->aes_ioaddr + SSS_REG_AES_IV_DATA(0), iv, 0x10);
386
387         if (keylen == AES_KEYSIZE_256)
388                 keystart = dev->aes_ioaddr + SSS_REG_AES_KEY_DATA(0);
389         else if (keylen == AES_KEYSIZE_192)
390                 keystart = dev->aes_ioaddr + SSS_REG_AES_KEY_DATA(2);
391         else
392                 keystart = dev->aes_ioaddr + SSS_REG_AES_KEY_DATA(4);
393
394         memcpy(keystart, key, keylen);
395 }
396
397 static void s5p_aes_crypt_start(struct s5p_aes_dev *dev, unsigned long mode)
398 {
399         struct ablkcipher_request  *req = dev->req;
400
401         uint32_t                    aes_control;
402         int                         err;
403         unsigned long               flags;
404
405         aes_control = SSS_AES_KEY_CHANGE_MODE;
406         if (mode & FLAGS_AES_DECRYPT)
407                 aes_control |= SSS_AES_MODE_DECRYPT;
408
409         if ((mode & FLAGS_AES_MODE_MASK) == FLAGS_AES_CBC)
410                 aes_control |= SSS_AES_CHAIN_MODE_CBC;
411         else if ((mode & FLAGS_AES_MODE_MASK) == FLAGS_AES_CTR)
412                 aes_control |= SSS_AES_CHAIN_MODE_CTR;
413
414         if (dev->ctx->keylen == AES_KEYSIZE_192)
415                 aes_control |= SSS_AES_KEY_SIZE_192;
416         else if (dev->ctx->keylen == AES_KEYSIZE_256)
417                 aes_control |= SSS_AES_KEY_SIZE_256;
418
419         aes_control |= SSS_AES_FIFO_MODE;
420
421         /* as a variant it is possible to use byte swapping on DMA side */
422         aes_control |= SSS_AES_BYTESWAP_DI
423                     |  SSS_AES_BYTESWAP_DO
424                     |  SSS_AES_BYTESWAP_IV
425                     |  SSS_AES_BYTESWAP_KEY
426                     |  SSS_AES_BYTESWAP_CNT;
427
428         spin_lock_irqsave(&dev->lock, flags);
429
430         SSS_WRITE(dev, FCINTENCLR,
431                   SSS_FCINTENCLR_BTDMAINTENCLR | SSS_FCINTENCLR_BRDMAINTENCLR);
432         SSS_WRITE(dev, FCFIFOCTRL, 0x00);
433
434         err = s5p_set_indata(dev, req->src);
435         if (err)
436                 goto indata_error;
437
438         err = s5p_set_outdata(dev, req->dst);
439         if (err)
440                 goto outdata_error;
441
442         SSS_AES_WRITE(dev, AES_CONTROL, aes_control);
443         s5p_set_aes(dev, dev->ctx->aes_key, req->info, dev->ctx->keylen);
444
445         s5p_set_dma_indata(dev,  req->src);
446         s5p_set_dma_outdata(dev, req->dst);
447
448         SSS_WRITE(dev, FCINTENSET,
449                   SSS_FCINTENSET_BTDMAINTENSET | SSS_FCINTENSET_BRDMAINTENSET);
450
451         spin_unlock_irqrestore(&dev->lock, flags);
452
453         return;
454
455  outdata_error:
456         s5p_unset_indata(dev);
457
458  indata_error:
459         s5p_aes_complete(dev, err);
460         spin_unlock_irqrestore(&dev->lock, flags);
461 }
462
463 static void s5p_tasklet_cb(unsigned long data)
464 {
465         struct s5p_aes_dev *dev = (struct s5p_aes_dev *)data;
466         struct crypto_async_request *async_req, *backlog;
467         struct s5p_aes_reqctx *reqctx;
468         unsigned long flags;
469
470         spin_lock_irqsave(&dev->lock, flags);
471         backlog   = crypto_get_backlog(&dev->queue);
472         async_req = crypto_dequeue_request(&dev->queue);
473
474         if (!async_req) {
475                 dev->busy = false;
476                 spin_unlock_irqrestore(&dev->lock, flags);
477                 return;
478         }
479         spin_unlock_irqrestore(&dev->lock, flags);
480
481         if (backlog)
482                 backlog->complete(backlog, -EINPROGRESS);
483
484         dev->req = ablkcipher_request_cast(async_req);
485         dev->ctx = crypto_tfm_ctx(dev->req->base.tfm);
486         reqctx   = ablkcipher_request_ctx(dev->req);
487
488         s5p_aes_crypt_start(dev, reqctx->mode);
489 }
490
491 static int s5p_aes_handle_req(struct s5p_aes_dev *dev,
492                               struct ablkcipher_request *req)
493 {
494         unsigned long flags;
495         int err;
496
497         spin_lock_irqsave(&dev->lock, flags);
498         err = ablkcipher_enqueue_request(&dev->queue, req);
499         if (dev->busy) {
500                 spin_unlock_irqrestore(&dev->lock, flags);
501                 goto exit;
502         }
503         dev->busy = true;
504
505         spin_unlock_irqrestore(&dev->lock, flags);
506
507         tasklet_schedule(&dev->tasklet);
508
509  exit:
510         return err;
511 }
512
513 static int s5p_aes_crypt(struct ablkcipher_request *req, unsigned long mode)
514 {
515         struct crypto_ablkcipher   *tfm    = crypto_ablkcipher_reqtfm(req);
516         struct s5p_aes_ctx         *ctx    = crypto_ablkcipher_ctx(tfm);
517         struct s5p_aes_reqctx      *reqctx = ablkcipher_request_ctx(req);
518         struct s5p_aes_dev         *dev    = ctx->dev;
519
520         if (!IS_ALIGNED(req->nbytes, AES_BLOCK_SIZE)) {
521                 pr_err("request size is not exact amount of AES blocks\n");
522                 return -EINVAL;
523         }
524
525         reqctx->mode = mode;
526
527         return s5p_aes_handle_req(dev, req);
528 }
529
530 static int s5p_aes_setkey(struct crypto_ablkcipher *cipher,
531                           const uint8_t *key, unsigned int keylen)
532 {
533         struct crypto_tfm  *tfm = crypto_ablkcipher_tfm(cipher);
534         struct s5p_aes_ctx *ctx = crypto_tfm_ctx(tfm);
535
536         if (keylen != AES_KEYSIZE_128 &&
537             keylen != AES_KEYSIZE_192 &&
538             keylen != AES_KEYSIZE_256)
539                 return -EINVAL;
540
541         memcpy(ctx->aes_key, key, keylen);
542         ctx->keylen = keylen;
543
544         return 0;
545 }
546
547 static int s5p_aes_ecb_encrypt(struct ablkcipher_request *req)
548 {
549         return s5p_aes_crypt(req, 0);
550 }
551
552 static int s5p_aes_ecb_decrypt(struct ablkcipher_request *req)
553 {
554         return s5p_aes_crypt(req, FLAGS_AES_DECRYPT);
555 }
556
557 static int s5p_aes_cbc_encrypt(struct ablkcipher_request *req)
558 {
559         return s5p_aes_crypt(req, FLAGS_AES_CBC);
560 }
561
562 static int s5p_aes_cbc_decrypt(struct ablkcipher_request *req)
563 {
564         return s5p_aes_crypt(req, FLAGS_AES_DECRYPT | FLAGS_AES_CBC);
565 }
566
567 static int s5p_aes_cra_init(struct crypto_tfm *tfm)
568 {
569         struct s5p_aes_ctx  *ctx = crypto_tfm_ctx(tfm);
570
571         ctx->dev = s5p_dev;
572         tfm->crt_ablkcipher.reqsize = sizeof(struct s5p_aes_reqctx);
573
574         return 0;
575 }
576
577 static struct crypto_alg algs[] = {
578         {
579                 .cra_name               = "ecb(aes)",
580                 .cra_driver_name        = "ecb-aes-s5p",
581                 .cra_priority           = 100,
582                 .cra_flags              = CRYPTO_ALG_TYPE_ABLKCIPHER |
583                                           CRYPTO_ALG_ASYNC |
584                                           CRYPTO_ALG_KERN_DRIVER_ONLY,
585                 .cra_blocksize          = AES_BLOCK_SIZE,
586                 .cra_ctxsize            = sizeof(struct s5p_aes_ctx),
587                 .cra_alignmask          = 0x0f,
588                 .cra_type               = &crypto_ablkcipher_type,
589                 .cra_module             = THIS_MODULE,
590                 .cra_init               = s5p_aes_cra_init,
591                 .cra_u.ablkcipher = {
592                         .min_keysize    = AES_MIN_KEY_SIZE,
593                         .max_keysize    = AES_MAX_KEY_SIZE,
594                         .setkey         = s5p_aes_setkey,
595                         .encrypt        = s5p_aes_ecb_encrypt,
596                         .decrypt        = s5p_aes_ecb_decrypt,
597                 }
598         },
599         {
600                 .cra_name               = "cbc(aes)",
601                 .cra_driver_name        = "cbc-aes-s5p",
602                 .cra_priority           = 100,
603                 .cra_flags              = CRYPTO_ALG_TYPE_ABLKCIPHER |
604                                           CRYPTO_ALG_ASYNC |
605                                           CRYPTO_ALG_KERN_DRIVER_ONLY,
606                 .cra_blocksize          = AES_BLOCK_SIZE,
607                 .cra_ctxsize            = sizeof(struct s5p_aes_ctx),
608                 .cra_alignmask          = 0x0f,
609                 .cra_type               = &crypto_ablkcipher_type,
610                 .cra_module             = THIS_MODULE,
611                 .cra_init               = s5p_aes_cra_init,
612                 .cra_u.ablkcipher = {
613                         .min_keysize    = AES_MIN_KEY_SIZE,
614                         .max_keysize    = AES_MAX_KEY_SIZE,
615                         .ivsize         = AES_BLOCK_SIZE,
616                         .setkey         = s5p_aes_setkey,
617                         .encrypt        = s5p_aes_cbc_encrypt,
618                         .decrypt        = s5p_aes_cbc_decrypt,
619                 }
620         },
621 };
622
623 static int s5p_aes_probe(struct platform_device *pdev)
624 {
625         int                 i, j, err = -ENODEV;
626         struct s5p_aes_dev *pdata;
627         struct device      *dev = &pdev->dev;
628         struct resource    *res;
629         struct samsung_aes_variant *variant;
630
631         if (s5p_dev)
632                 return -EEXIST;
633
634         pdata = devm_kzalloc(dev, sizeof(*pdata), GFP_KERNEL);
635         if (!pdata)
636                 return -ENOMEM;
637
638         res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
639         pdata->ioaddr = devm_ioremap_resource(&pdev->dev, res);
640         if (IS_ERR(pdata->ioaddr))
641                 return PTR_ERR(pdata->ioaddr);
642
643         variant = find_s5p_sss_version(pdev);
644
645         pdata->clk = devm_clk_get(dev, "secss");
646         if (IS_ERR(pdata->clk)) {
647                 dev_err(dev, "failed to find secss clock source\n");
648                 return -ENOENT;
649         }
650
651         err = clk_prepare_enable(pdata->clk);
652         if (err < 0) {
653                 dev_err(dev, "Enabling SSS clk failed, err %d\n", err);
654                 return err;
655         }
656
657         spin_lock_init(&pdata->lock);
658
659         pdata->aes_ioaddr = pdata->ioaddr + variant->aes_offset;
660
661         pdata->irq_fc = platform_get_irq(pdev, 0);
662         if (pdata->irq_fc < 0) {
663                 err = pdata->irq_fc;
664                 dev_warn(dev, "feed control interrupt is not available.\n");
665                 goto err_irq;
666         }
667         err = devm_request_irq(dev, pdata->irq_fc, s5p_aes_interrupt,
668                                IRQF_SHARED, pdev->name, pdev);
669         if (err < 0) {
670                 dev_warn(dev, "feed control interrupt is not available.\n");
671                 goto err_irq;
672         }
673
674         if (variant->has_hash_irq) {
675                 pdata->irq_hash = platform_get_irq(pdev, 1);
676                 if (pdata->irq_hash < 0) {
677                         err = pdata->irq_hash;
678                         dev_warn(dev, "hash interrupt is not available.\n");
679                         goto err_irq;
680                 }
681                 err = devm_request_irq(dev, pdata->irq_hash, s5p_aes_interrupt,
682                                        IRQF_SHARED, pdev->name, pdev);
683                 if (err < 0) {
684                         dev_warn(dev, "hash interrupt is not available.\n");
685                         goto err_irq;
686                 }
687         }
688
689         pdata->busy = false;
690         pdata->variant = variant;
691         pdata->dev = dev;
692         platform_set_drvdata(pdev, pdata);
693         s5p_dev = pdata;
694
695         tasklet_init(&pdata->tasklet, s5p_tasklet_cb, (unsigned long)pdata);
696         crypto_init_queue(&pdata->queue, CRYPTO_QUEUE_LEN);
697
698         for (i = 0; i < ARRAY_SIZE(algs); i++) {
699                 err = crypto_register_alg(&algs[i]);
700                 if (err)
701                         goto err_algs;
702         }
703
704         pr_info("s5p-sss driver registered\n");
705
706         return 0;
707
708  err_algs:
709         dev_err(dev, "can't register '%s': %d\n", algs[i].cra_name, err);
710
711         for (j = 0; j < i; j++)
712                 crypto_unregister_alg(&algs[j]);
713
714         tasklet_kill(&pdata->tasklet);
715
716  err_irq:
717         clk_disable_unprepare(pdata->clk);
718
719         s5p_dev = NULL;
720
721         return err;
722 }
723
724 static int s5p_aes_remove(struct platform_device *pdev)
725 {
726         struct s5p_aes_dev *pdata = platform_get_drvdata(pdev);
727         int i;
728
729         if (!pdata)
730                 return -ENODEV;
731
732         for (i = 0; i < ARRAY_SIZE(algs); i++)
733                 crypto_unregister_alg(&algs[i]);
734
735         tasklet_kill(&pdata->tasklet);
736
737         clk_disable_unprepare(pdata->clk);
738
739         s5p_dev = NULL;
740
741         return 0;
742 }
743
744 static struct platform_driver s5p_aes_crypto = {
745         .probe  = s5p_aes_probe,
746         .remove = s5p_aes_remove,
747         .driver = {
748                 .name   = "s5p-secss",
749                 .of_match_table = s5p_sss_dt_match,
750         },
751 };
752
753 module_platform_driver(s5p_aes_crypto);
754
755 MODULE_DESCRIPTION("S5PV210 AES hw acceleration support.");
756 MODULE_LICENSE("GPL v2");
757 MODULE_AUTHOR("Vladimir Zapolskiy <vzapolskiy@gmail.com>");