camera:
[firefly-linux-kernel-4.4.55.git] / drivers / video / rockchip / rga2 / rga2_drv.c
1 /*\r
2  * Copyright (C) 2012 ROCKCHIP, Inc.\r
3  *\r
4  * This software is licensed under the terms of the GNU General Public\r
5  * License version 2, as published by the Free Software Foundation, and\r
6  * may be copied, distributed, and modified under those terms.\r
7  *\r
8  * This program is distributed in the hope that it will be useful,\r
9  * but WITHOUT ANY WARRANTY; without even the implied warranty of\r
10  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the\r
11  * GNU General Public License for more details.\r
12  *\r
13  */\r
14 \r
15 #define pr_fmt(fmt) "rga: " fmt\r
16 #include <linux/kernel.h>\r
17 #include <linux/init.h>\r
18 #include <linux/module.h>\r
19 #include <linux/platform_device.h>\r
20 #include <linux/sched.h>\r
21 #include <linux/mutex.h>\r
22 #include <linux/err.h>\r
23 #include <linux/clk.h>\r
24 #include <asm/delay.h>\r
25 #include <linux/dma-mapping.h>\r
26 #include <linux/delay.h>\r
27 #include <asm/io.h>\r
28 #include <linux/irq.h>\r
29 #include <linux/interrupt.h>\r
30 #include <linux/fs.h>\r
31 #include <asm/uaccess.h>\r
32 #include <linux/miscdevice.h>\r
33 #include <linux/poll.h>\r
34 #include <linux/delay.h>\r
35 #include <linux/wait.h>\r
36 #include <linux/syscalls.h>\r
37 #include <linux/timer.h>\r
38 #include <linux/time.h>\r
39 #include <asm/cacheflush.h>\r
40 #include <linux/slab.h>\r
41 #include <linux/fb.h>\r
42 #include <linux/wakelock.h>\r
43 #include <linux/scatterlist.h>\r
44 \r
45 \r
46 #if defined(CONFIG_ION_ROCKCHIP)\r
47 #include <linux/rockchip_ion.h>\r
48 #endif\r
49 \r
50 #include "rga2.h"\r
51 #include "rga2_reg_info.h"\r
52 #include "rga2_mmu_info.h"\r
53 #include "RGA2_API.h"\r
54 \r
55 #if defined(CONFIG_ROCKCHIP_IOMMU) & defined(CONFIG_ION_ROCKCHIP)\r
56 #define CONFIG_RGA_IOMMU\r
57 #endif\r
58 \r
59 #define RGA2_TEST_FLUSH_TIME 0\r
60 #define RGA2_INFO_BUS_ERROR 1\r
61 \r
62 #define RGA2_POWER_OFF_DELAY    4*HZ /* 4s */\r
63 #define RGA2_TIMEOUT_DELAY      2*HZ /* 2s */\r
64 \r
65 #define RGA2_MAJOR              255\r
66 \r
67 #define RGA2_RESET_TIMEOUT      1000\r
68 \r
69 /* Driver information */\r
70 #define DRIVER_DESC             "RGA2 Device Driver"\r
71 #define DRIVER_NAME             "rga2"\r
72 \r
73 #define RGA2_VERSION   "2.000"\r
74 \r
75 ktime_t rga2_start;\r
76 ktime_t rga2_end;\r
77 \r
78 int rga2_flag = 0;\r
79 \r
80 extern long (*rga_ioctl_kernel_p)(struct rga_req *);\r
81 \r
82 rga2_session rga2_session_global;\r
83 \r
84 struct rga2_drvdata_t {\r
85         struct miscdevice miscdev;\r
86         struct device dev;\r
87         void *rga_base;\r
88         int irq;\r
89 \r
90         struct delayed_work power_off_work;\r
91         void (*rga_irq_callback)(int rga_retval);   //callback function used by aync call\r
92         struct wake_lock wake_lock;\r
93 \r
94         struct clk *aclk_rga2;\r
95         struct clk *hclk_rga2;\r
96         struct clk *pd_rga2;\r
97     struct clk *rga2;\r
98 \r
99     #if defined(CONFIG_ION_ROCKCHIP)\r
100     struct ion_client * ion_client;\r
101     #endif\r
102 };\r
103 \r
104 struct rga2_drvdata_t *rga2_drvdata;\r
105 \r
106 struct rga2_service_info rga2_service;\r
107 struct rga2_mmu_buf_t rga2_mmu_buf;\r
108 \r
109 #if defined(CONFIG_ION_ROCKCHIP)\r
110 extern struct ion_client *rockchip_ion_client_create(const char * name);\r
111 #endif\r
112 \r
113 static int rga2_blit_async(rga2_session *session, struct rga2_req *req);\r
114 static void rga2_del_running_list(void);\r
115 static void rga2_del_running_list_timeout(void);\r
116 static void rga2_try_set_reg(void);\r
117 \r
118 \r
119 /* Logging */\r
120 #define RGA_DEBUG 0\r
121 #if RGA_DEBUG\r
122 #define DBG(format, args...) printk(KERN_DEBUG "%s: " format, DRIVER_NAME, ## args)\r
123 #define ERR(format, args...) printk(KERN_ERR "%s: " format, DRIVER_NAME, ## args)\r
124 #define WARNING(format, args...) printk(KERN_WARN "%s: " format, DRIVER_NAME, ## args)\r
125 #define INFO(format, args...) printk(KERN_INFO "%s: " format, DRIVER_NAME, ## args)\r
126 #else\r
127 #define DBG(format, args...)\r
128 #define ERR(format, args...)\r
129 #define WARNING(format, args...)\r
130 #define INFO(format, args...)\r
131 #endif\r
132 \r
133 #if RGA2_TEST_MSG\r
134 static void print_info(struct rga2_req *req)\r
135 {\r
136     printk("render_mode=%d bitblt_mode=%d rotate_mode=%.8x\n",\r
137             req->render_mode, req->bitblt_mode, req->rotate_mode);\r
138     printk("src : y=%.llx uv=%.llx v=%.llx format=%d aw=%d ah=%d vw=%d vh=%d xoff=%d yoff=%d \n",\r
139             req->src.yrgb_addr, req->src.uv_addr, req->src.v_addr, req->src.format,\r
140             req->src.act_w, req->src.act_h, req->src.vir_w, req->src.vir_h,\r
141             req->src.x_offset, req->src.y_offset);\r
142     printk("dst : y=%llx uv=%llx v=%llx format=%d aw=%d ah=%d vw=%d vh=%d xoff=%d yoff=%d \n",\r
143             req->dst.yrgb_addr, req->dst.uv_addr, req->dst.v_addr, req->dst.format,\r
144             req->dst.act_w, req->dst.act_h, req->dst.vir_w, req->dst.vir_h,\r
145             req->dst.x_offset, req->dst.y_offset);\r
146     printk("mmu : src=%.2x src1=%.2x dst=%.2x els=%.2x\n",\r
147             req->mmu_info.src0_mmu_flag, req->mmu_info.src1_mmu_flag,\r
148             req->mmu_info.dst_mmu_flag,  req->mmu_info.els_mmu_flag);\r
149     printk("alpha : flag %.8x mode0=%.8x mode1=%.8x\n",\r
150             req->alpha_rop_flag, req->alpha_mode_0, req->alpha_mode_1);\r
151 }\r
152 #endif\r
153 \r
154 \r
155 static inline void rga2_write(u32 b, u32 r)\r
156 {\r
157         //__raw_writel(b, rga2_drvdata->rga_base + r);\r
158 \r
159     *((volatile unsigned int *)(rga2_drvdata->rga_base + r)) = b;\r
160 }\r
161 \r
162 static inline u32 rga2_read(u32 r)\r
163 {\r
164         //return __raw_readl(rga2_drvdata->rga_base + r);\r
165 \r
166     return *((volatile unsigned int *)(rga2_drvdata->rga_base + r));\r
167 }\r
168 \r
169 static void rga2_soft_reset(void)\r
170 {\r
171         u32 i;\r
172         u32 reg;\r
173 \r
174         rga2_write((1 << 3) | (1 << 4), RGA2_SYS_CTRL); //RGA_SYS_CTRL\r
175 \r
176         for(i = 0; i < RGA2_RESET_TIMEOUT; i++)\r
177         {\r
178                 reg = rga2_read(RGA2_SYS_CTRL) & 1; //RGA_SYS_CTRL\r
179 \r
180                 if(reg == 0)\r
181                         break;\r
182 \r
183                 udelay(1);\r
184         }\r
185 \r
186         if(i == RGA2_RESET_TIMEOUT)\r
187                 ERR("soft reset timeout.\n");\r
188 }\r
189 \r
190 static void rga2_dump(void)\r
191 {\r
192         int running;\r
193     struct rga2_reg *reg, *reg_tmp;\r
194     rga2_session *session, *session_tmp;\r
195 \r
196         running = atomic_read(&rga2_service.total_running);\r
197         printk("rga total_running %d\n", running);\r
198 \r
199         list_for_each_entry_safe(session, session_tmp, &rga2_service.session, list_session)\r
200     {\r
201                 printk("session pid %d:\n", session->pid);\r
202                 running = atomic_read(&session->task_running);\r
203                 printk("task_running %d\n", running);\r
204                 list_for_each_entry_safe(reg, reg_tmp, &session->waiting, session_link)\r
205         {\r
206                         printk("waiting register set 0x%.lu\n", (unsigned long)reg);\r
207                 }\r
208                 list_for_each_entry_safe(reg, reg_tmp, &session->running, session_link)\r
209         {\r
210                         printk("running register set 0x%.lu\n", (unsigned long)reg);\r
211                 }\r
212         }\r
213 }\r
214 \r
215 static inline void rga2_queue_power_off_work(void)\r
216 {\r
217         queue_delayed_work(system_nrt_wq, &rga2_drvdata->power_off_work, RGA2_POWER_OFF_DELAY);\r
218 }\r
219 \r
220 /* Caller must hold rga_service.lock */\r
221 static void rga2_power_on(void)\r
222 {\r
223         static ktime_t last;\r
224         ktime_t now = ktime_get();\r
225 \r
226         if (ktime_to_ns(ktime_sub(now, last)) > NSEC_PER_SEC) {\r
227                 cancel_delayed_work_sync(&rga2_drvdata->power_off_work);\r
228                 rga2_queue_power_off_work();\r
229                 last = now;\r
230         }\r
231         if (rga2_service.enable)\r
232                 return;\r
233 \r
234     clk_prepare_enable(rga2_drvdata->rga2);\r
235         clk_prepare_enable(rga2_drvdata->aclk_rga2);\r
236         clk_prepare_enable(rga2_drvdata->hclk_rga2);\r
237         //clk_enable(rga2_drvdata->pd_rga2);\r
238         wake_lock(&rga2_drvdata->wake_lock);\r
239         rga2_service.enable = true;\r
240 }\r
241 \r
242 /* Caller must hold rga_service.lock */\r
243 static void rga2_power_off(void)\r
244 {\r
245         int total_running;\r
246 \r
247         if (!rga2_service.enable) {\r
248                 return;\r
249         }\r
250 \r
251         total_running = atomic_read(&rga2_service.total_running);\r
252         if (total_running) {\r
253                 pr_err("power off when %d task running!!\n", total_running);\r
254                 mdelay(50);\r
255                 pr_err("delay 50 ms for running task\n");\r
256                 rga2_dump();\r
257         }\r
258 \r
259         //clk_disable(rga2_drvdata->pd_rga2);\r
260     clk_disable_unprepare(rga2_drvdata->rga2);\r
261     //clk_disable_unprepare(rga2_drvdata->pd_rga2);\r
262         clk_disable_unprepare(rga2_drvdata->aclk_rga2);\r
263         clk_disable_unprepare(rga2_drvdata->hclk_rga2);\r
264         wake_unlock(&rga2_drvdata->wake_lock);\r
265         rga2_service.enable = false;\r
266 }\r
267 \r
268 static void rga2_power_off_work(struct work_struct *work)\r
269 {\r
270         if (mutex_trylock(&rga2_service.lock)) {\r
271                 rga2_power_off();\r
272                 mutex_unlock(&rga2_service.lock);\r
273         } else {\r
274                 /* Come back later if the device is busy... */\r
275                 rga2_queue_power_off_work();\r
276         }\r
277 }\r
278 \r
279 static int rga2_flush(rga2_session *session, unsigned long arg)\r
280 {\r
281     int ret = 0;\r
282     int ret_timeout;\r
283 \r
284     #if RGA2_TEST_FLUSH_TIME\r
285     ktime_t start;\r
286     ktime_t end;\r
287     start = ktime_get();\r
288     #endif\r
289 \r
290     ret_timeout = wait_event_timeout(session->wait, atomic_read(&session->done), RGA2_TIMEOUT_DELAY);\r
291 \r
292         if (unlikely(ret_timeout < 0)) {\r
293                 //pr_err("flush pid %d wait task ret %d\n", session->pid, ret);\r
294         mutex_lock(&rga2_service.lock);\r
295         rga2_del_running_list();\r
296         mutex_unlock(&rga2_service.lock);\r
297         ret = ret_timeout;\r
298         } else if (0 == ret_timeout) {\r
299                 //pr_err("flush pid %d wait %d task done timeout\n", session->pid, atomic_read(&session->task_running));\r
300         //printk("bus  = %.8x\n", rga_read(RGA_INT));\r
301         mutex_lock(&rga2_service.lock);\r
302         rga2_del_running_list_timeout();\r
303         rga2_try_set_reg();\r
304         mutex_unlock(&rga2_service.lock);\r
305                 ret = -ETIMEDOUT;\r
306         }\r
307 \r
308     #if RGA2_TEST_FLUSH_TIME\r
309     end = ktime_get();\r
310     end = ktime_sub(end, start);\r
311     printk("one flush wait time %d\n", (int)ktime_to_us(end));\r
312     #endif\r
313 \r
314         return ret;\r
315 }\r
316 \r
317 \r
318 static int rga2_get_result(rga2_session *session, unsigned long arg)\r
319 {\r
320         //printk("rga_get_result %d\n",drvdata->rga_result);\r
321 \r
322     int ret = 0;\r
323 \r
324     int num_done;\r
325 \r
326     num_done = atomic_read(&session->num_done);\r
327 \r
328         if (unlikely(copy_to_user((void __user *)arg, &num_done, sizeof(int)))) {\r
329                         printk("copy_to_user failed\n");\r
330                         ret =  -EFAULT;\r
331                 }\r
332         return ret;\r
333 }\r
334 \r
335 \r
336 static int rga2_check_param(const struct rga2_req *req)\r
337 {\r
338     /*RGA2 can support up to 8192*8192 resolution in RGB format,but we limit the image size to 8191*8191 here*/\r
339         //check src width and height\r
340 \r
341     if(!((req->render_mode == color_fill_mode)))\r
342     {\r
343         if (unlikely((req->src.act_w <= 0) || (req->src.act_w > 8191) || (req->src.act_h <= 0) || (req->src.act_h > 8191)))\r
344         {\r
345                 printk("invalid source resolution act_w = %d, act_h = %d\n", req->src.act_w, req->src.act_h);\r
346                 return  -EINVAL;\r
347         }\r
348     }\r
349 \r
350     if(!((req->render_mode == color_fill_mode)))\r
351     {\r
352         if (unlikely((req->src.vir_w <= 0) || (req->src.vir_w > 8191) || (req->src.vir_h <= 0) || (req->src.vir_h > 8191)))\r
353         {\r
354                 printk("invalid source resolution vir_w = %d, vir_h = %d\n", req->src.vir_w, req->src.vir_h);\r
355                 return  -EINVAL;\r
356         }\r
357     }\r
358 \r
359         //check dst width and height\r
360         if (unlikely((req->dst.act_w <= 0) || (req->dst.act_w > 4096) || (req->dst.act_h <= 0) || (req->dst.act_h > 4096)))\r
361     {\r
362                 printk("invalid destination resolution act_w = %d, act_h = %d\n", req->dst.act_w, req->dst.act_h);\r
363                 return  -EINVAL;\r
364         }\r
365 \r
366     if (unlikely((req->dst.vir_w <= 0) || (req->dst.vir_w > 4096) || (req->dst.vir_h <= 0) || (req->dst.vir_h > 4096)))\r
367     {\r
368                 printk("invalid destination resolution vir_w = %d, vir_h = %d\n", req->dst.vir_w, req->dst.vir_h);\r
369                 return  -EINVAL;\r
370         }\r
371 \r
372         //check src_vir_w\r
373         if(unlikely(req->src.vir_w < req->src.act_w)){\r
374                 printk("invalid src_vir_w act_w = %d, vir_w = %d\n", req->src.act_w, req->src.vir_w);\r
375                 return  -EINVAL;\r
376         }\r
377 \r
378         //check dst_vir_w\r
379         if(unlikely(req->dst.vir_w < req->dst.act_w)){\r
380         if(req->rotate_mode != 1)\r
381         {\r
382                     printk("invalid dst_vir_w act_h = %d, vir_h = %d\n", req->dst.act_w, req->dst.vir_w);\r
383                     return      -EINVAL;\r
384         }\r
385         }\r
386 \r
387         return 0;\r
388 }\r
389 \r
390 static void rga2_copy_reg(struct rga2_reg *reg, uint32_t offset)\r
391 {\r
392     uint32_t i;\r
393     uint32_t *cmd_buf;\r
394     uint32_t *reg_p;\r
395 \r
396     if(atomic_read(&reg->session->task_running) != 0)\r
397         printk(KERN_ERR "task_running is no zero\n");\r
398 \r
399     atomic_add(1, &rga2_service.cmd_num);\r
400         atomic_add(1, &reg->session->task_running);\r
401 \r
402     cmd_buf = (uint32_t *)rga2_service.cmd_buff + offset*32;\r
403     reg_p = (uint32_t *)reg->cmd_reg;\r
404 \r
405     for(i=0; i<32; i++)\r
406         cmd_buf[i] = reg_p[i];\r
407 }\r
408 \r
409 \r
410 static struct rga2_reg * rga2_reg_init(rga2_session *session, struct rga2_req *req)\r
411 {\r
412     int32_t ret;\r
413         struct rga2_reg *reg = kzalloc(sizeof(struct rga2_reg), GFP_KERNEL);\r
414         if (NULL == reg) {\r
415                 pr_err("kmalloc fail in rga_reg_init\n");\r
416                 return NULL;\r
417         }\r
418 \r
419     reg->session = session;\r
420         INIT_LIST_HEAD(&reg->session_link);\r
421         INIT_LIST_HEAD(&reg->status_link);\r
422 \r
423     reg->MMU_base = NULL;\r
424 \r
425     if ((req->mmu_info.src0_mmu_flag & 1) || (req->mmu_info.src1_mmu_flag & 1)\r
426         || (req->mmu_info.dst_mmu_flag & 1) || (req->mmu_info.els_mmu_flag & 1))\r
427     {\r
428         ret = rga2_set_mmu_info(reg, req);\r
429         if(ret < 0) {\r
430             printk("%s, [%d] set mmu info error \n", __FUNCTION__, __LINE__);\r
431             if(reg != NULL)\r
432                 kfree(reg);\r
433 \r
434             return NULL;\r
435         }\r
436     }\r
437 \r
438     if(RGA2_gen_reg_info((uint8_t *)reg->cmd_reg, req) == -1) {\r
439         printk("gen reg info error\n");\r
440         if(reg != NULL)\r
441             kfree(reg);\r
442 \r
443         return NULL;\r
444     }\r
445 \r
446     mutex_lock(&rga2_service.lock);\r
447         list_add_tail(&reg->status_link, &rga2_service.waiting);\r
448         list_add_tail(&reg->session_link, &session->waiting);\r
449         mutex_unlock(&rga2_service.lock);\r
450 \r
451     return reg;\r
452 }\r
453 \r
454 \r
455 /* Caller must hold rga_service.lock */\r
456 static void rga2_reg_deinit(struct rga2_reg *reg)\r
457 {\r
458         list_del_init(&reg->session_link);\r
459         list_del_init(&reg->status_link);\r
460         kfree(reg);\r
461 }\r
462 \r
463 /* Caller must hold rga_service.lock */\r
464 static void rga2_reg_from_wait_to_run(struct rga2_reg *reg)\r
465 {\r
466         list_del_init(&reg->status_link);\r
467         list_add_tail(&reg->status_link, &rga2_service.running);\r
468 \r
469         list_del_init(&reg->session_link);\r
470         list_add_tail(&reg->session_link, &reg->session->running);\r
471 }\r
472 \r
473 /* Caller must hold rga_service.lock */\r
474 static void rga2_service_session_clear(rga2_session *session)\r
475 {\r
476         struct rga2_reg *reg, *n;\r
477 \r
478     list_for_each_entry_safe(reg, n, &session->waiting, session_link)\r
479     {\r
480                 rga2_reg_deinit(reg);\r
481         }\r
482 \r
483     list_for_each_entry_safe(reg, n, &session->running, session_link)\r
484     {\r
485                 rga2_reg_deinit(reg);\r
486         }\r
487 }\r
488 \r
489 /* Caller must hold rga_service.lock */\r
490 static void rga2_try_set_reg(void)\r
491 {\r
492     struct rga2_reg *reg ;\r
493 \r
494     if (list_empty(&rga2_service.running))\r
495     {\r
496         if (!list_empty(&rga2_service.waiting))\r
497         {\r
498             /* RGA is idle */\r
499             reg = list_entry(rga2_service.waiting.next, struct rga2_reg, status_link);\r
500 \r
501             rga2_power_on();\r
502             udelay(1);\r
503 \r
504             rga2_copy_reg(reg, 0);\r
505             rga2_reg_from_wait_to_run(reg);\r
506 \r
507             #ifdef CONFIG_ARM\r
508             dmac_flush_range(&rga2_service.cmd_buff[0], &rga2_service.cmd_buff[32]);\r
509             outer_flush_range(virt_to_phys(&rga2_service.cmd_buff[0]),virt_to_phys(&rga2_service.cmd_buff[32]));\r
510             #elif defined(CONFIG_ARM64)\r
511             __dma_flush_range(&rga2_service.cmd_buff[0], &rga2_service.cmd_buff[32]);\r
512             #endif\r
513 \r
514             rga2_soft_reset();\r
515 \r
516             rga2_write(0x0, RGA2_SYS_CTRL);\r
517 \r
518             /* CMD buff */\r
519             rga2_write(virt_to_phys(rga2_service.cmd_buff), RGA2_CMD_BASE);\r
520 \r
521 #if RGA2_TEST\r
522             if(rga2_flag) {\r
523                 uint32_t i, *p;\r
524                 p = rga2_service.cmd_buff;\r
525                 printk("CMD_REG\n");\r
526                 for (i=0; i<8; i++)\r
527                     printk("%.8x %.8x %.8x %.8x\n", p[0 + i*4], p[1+i*4], p[2 + i*4], p[3 + i*4]);\r
528             }\r
529 #endif\r
530 \r
531             /* master mode */\r
532             rga2_write((0x1<<1)|(0x1<<2)|(0x1<<5)|(0x1<<6), RGA2_SYS_CTRL);\r
533 \r
534             /* All CMD finish int */\r
535             rga2_write(rga2_read(RGA2_INT)|(0x1<<10)|(0x1<<8), RGA2_INT);\r
536 \r
537             #if RGA2_TEST_TIME\r
538             rga2_start = ktime_get();\r
539             #endif\r
540 \r
541             /* Start proc */\r
542             atomic_set(&reg->session->done, 0);\r
543             rga2_write(0x1, RGA2_CMD_CTRL);\r
544 #if RGA2_TEST\r
545             if(rga2_flag)\r
546             {\r
547                 uint32_t i;\r
548                 printk("CMD_READ_BACK_REG\n");\r
549                 for (i=0; i<8; i++)\r
550                     printk("%.8x %.8x %.8x %.8x\n", rga2_read(0x100 + i*16 + 0),\r
551                             rga2_read(0x100 + i*16 + 4), rga2_read(0x100 + i*16 + 8), rga2_read(0x100 + i*16 + 12));\r
552             }\r
553 #endif\r
554         }\r
555     }\r
556 }\r
557 \r
558 \r
559 \r
560 \r
561 /* Caller must hold rga_service.lock */\r
562 static void rga2_del_running_list(void)\r
563 {\r
564     struct rga2_reg *reg;\r
565 \r
566     while(!list_empty(&rga2_service.running))\r
567     {\r
568         reg = list_entry(rga2_service.running.next, struct rga2_reg, status_link);\r
569 \r
570         if(reg->MMU_len != 0)\r
571         {\r
572             if (rga2_mmu_buf.back + reg->MMU_len > 2*rga2_mmu_buf.size)\r
573                 rga2_mmu_buf.back = reg->MMU_len + rga2_mmu_buf.size;\r
574             else\r
575                 rga2_mmu_buf.back += reg->MMU_len;\r
576         }\r
577         atomic_sub(1, &reg->session->task_running);\r
578         atomic_sub(1, &rga2_service.total_running);\r
579 \r
580         if(list_empty(&reg->session->waiting))\r
581         {\r
582             atomic_set(&reg->session->done, 1);\r
583             wake_up(&reg->session->wait);\r
584         }\r
585 \r
586         rga2_reg_deinit(reg);\r
587     }\r
588 }\r
589 \r
590 /* Caller must hold rga_service.lock */\r
591 static void rga2_del_running_list_timeout(void)\r
592 {\r
593     struct rga2_reg *reg;\r
594 \r
595     while(!list_empty(&rga2_service.running))\r
596     {\r
597         reg = list_entry(rga2_service.running.next, struct rga2_reg, status_link);\r
598 \r
599         if(reg->MMU_base != NULL)\r
600         {\r
601             kfree(reg->MMU_base);\r
602         }\r
603 \r
604         atomic_sub(1, &reg->session->task_running);\r
605         atomic_sub(1, &rga2_service.total_running);\r
606 \r
607         rga2_soft_reset();\r
608 \r
609         if(list_empty(&reg->session->waiting))\r
610         {\r
611             atomic_set(&reg->session->done, 1);\r
612             wake_up(&reg->session->wait);\r
613         }\r
614 \r
615         rga2_reg_deinit(reg);\r
616     }\r
617 }\r
618 \r
619 \r
620 static int rga2_convert_dma_buf(struct rga2_req *req)\r
621 {\r
622         struct ion_handle *hdl;\r
623         ion_phys_addr_t phy_addr;\r
624         size_t len;\r
625     int ret;\r
626 \r
627     req->sg_src0 = NULL;\r
628     req->sg_src1 = NULL;\r
629     req->sg_dst  = NULL;\r
630     req->sg_els  = NULL;\r
631 \r
632     if(req->src.yrgb_addr) {\r
633         hdl = ion_import_dma_buf(rga2_drvdata->ion_client, req->src.yrgb_addr);\r
634         if (IS_ERR(hdl)) {\r
635             ret = PTR_ERR(hdl);\r
636             printk("RGA2 ERROR ion buf handle\n");\r
637             return ret;\r
638         }\r
639         if (req->mmu_info.src0_mmu_flag) {\r
640             req->sg_src0 = ion_sg_table(rga2_drvdata->ion_client, hdl);\r
641             req->src.yrgb_addr = req->src.uv_addr;\r
642             req->src.uv_addr = req->src.yrgb_addr + (req->src.vir_w * req->src.vir_h);\r
643             req->src.v_addr = req->src.uv_addr + (req->src.vir_w * req->src.vir_h)/4;\r
644         }\r
645         else {\r
646             ion_phys(rga2_drvdata->ion_client, hdl, &phy_addr, &len);\r
647             req->src.yrgb_addr = phy_addr;\r
648             req->src.uv_addr = req->src.yrgb_addr + (req->src.vir_w * req->src.vir_h);\r
649             req->src.v_addr = req->src.uv_addr + (req->src.vir_w * req->src.vir_h)/4;\r
650         }\r
651         ion_free(rga2_drvdata->ion_client, hdl);\r
652     }\r
653     else {\r
654         req->src.yrgb_addr = req->src.uv_addr;\r
655         req->src.uv_addr = req->src.yrgb_addr + (req->src.vir_w * req->src.vir_h);\r
656         req->src.v_addr = req->src.uv_addr + (req->src.vir_w * req->src.vir_h)/4;\r
657     }\r
658 \r
659     if(req->dst.yrgb_addr) {\r
660         hdl = ion_import_dma_buf(rga2_drvdata->ion_client, req->dst.yrgb_addr);\r
661         if (IS_ERR(hdl)) {\r
662             ret = PTR_ERR(hdl);\r
663             printk("RGA2 ERROR ion buf handle\n");\r
664             return ret;\r
665         }\r
666         if (req->mmu_info.dst_mmu_flag) {\r
667             req->sg_dst = ion_sg_table(rga2_drvdata->ion_client, hdl);\r
668             req->dst.yrgb_addr = req->dst.uv_addr;\r
669             req->dst.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
670             req->dst.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
671         }\r
672         else {\r
673             ion_phys(rga2_drvdata->ion_client, hdl, &phy_addr, &len);\r
674             req->dst.yrgb_addr = phy_addr;\r
675             req->dst.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
676             req->dst.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
677         }\r
678         ion_free(rga2_drvdata->ion_client, hdl);\r
679     }\r
680     else {\r
681         req->dst.yrgb_addr = req->dst.uv_addr;\r
682         req->dst.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
683         req->dst.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
684     }\r
685 \r
686     if(req->src1.yrgb_addr) {\r
687         hdl = ion_import_dma_buf(rga2_drvdata->ion_client, req->src1.yrgb_addr);\r
688         if (IS_ERR(hdl)) {\r
689             ret = PTR_ERR(hdl);\r
690             printk("RGA2 ERROR ion buf handle\n");\r
691             return ret;\r
692         }\r
693         if (req->mmu_info.dst_mmu_flag) {\r
694             req->sg_src1 = ion_sg_table(rga2_drvdata->ion_client, hdl);\r
695             req->src1.yrgb_addr = 0;\r
696             req->src1.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
697             req->src1.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
698         }\r
699         else {\r
700             ion_phys(rga2_drvdata->ion_client, hdl, &phy_addr, &len);\r
701             req->src1.yrgb_addr = phy_addr;\r
702             req->src1.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
703             req->src1.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
704         }\r
705         ion_free(rga2_drvdata->ion_client, hdl);\r
706     }\r
707     else {\r
708         req->src1.yrgb_addr = req->dst.uv_addr;\r
709         req->src1.uv_addr = req->dst.yrgb_addr + (req->dst.vir_w * req->dst.vir_h);\r
710         req->src1.v_addr = req->dst.uv_addr + (req->dst.vir_w * req->dst.vir_h)/4;\r
711     }\r
712 \r
713     return 0;\r
714 }\r
715 \r
716 \r
717 static int rga2_blit(rga2_session *session, struct rga2_req *req)\r
718 {\r
719     int ret = -1;\r
720     int num = 0;\r
721     struct rga2_reg *reg;\r
722 \r
723     if(rga2_convert_dma_buf(req)) {\r
724         printk("RGA2 : DMA buf copy error\n");\r
725         return -EFAULT;\r
726     }\r
727 \r
728     do {\r
729         /* check value if legal */\r
730         ret = rga2_check_param(req);\r
731         if(ret == -EINVAL) {\r
732             printk("req argument is inval\n");\r
733             break;\r
734         }\r
735 \r
736         reg = rga2_reg_init(session, req);\r
737         if(reg == NULL) {\r
738             break;\r
739         }\r
740         num = 1;\r
741 \r
742         mutex_lock(&rga2_service.lock);\r
743         atomic_add(num, &rga2_service.total_running);\r
744         rga2_try_set_reg();\r
745         mutex_unlock(&rga2_service.lock);\r
746 \r
747         return 0;\r
748     }\r
749     while(0);\r
750 \r
751     return -EFAULT;\r
752 }\r
753 \r
754 static int rga2_blit_async(rga2_session *session, struct rga2_req *req)\r
755 {\r
756         int ret = -1;\r
757 \r
758     #if RGA2_TEST_MSG\r
759     if (1) {//req->src.format >= 0x10) {\r
760         print_info(req);\r
761         rga2_flag = 1;\r
762         printk("*** rga_blit_async proc ***\n");\r
763     }\r
764     else\r
765         rga2_flag = 0;\r
766     #endif\r
767     atomic_set(&session->done, 0);\r
768     ret = rga2_blit(session, req);\r
769 \r
770     return ret;\r
771 }\r
772 \r
773 static int rga2_blit_sync(rga2_session *session, struct rga2_req *req)\r
774 {\r
775     int ret = -1;\r
776     int ret_timeout = 0;\r
777 \r
778     #if RGA2_TEST_MSG\r
779     if (1) {//req->bitblt_mode == 0x2) {\r
780         print_info(req);\r
781         rga2_flag = 1;\r
782         printk("*** rga2_blit_sync proc ***\n");\r
783     }\r
784     else\r
785         rga2_flag = 0;\r
786     #endif\r
787 \r
788     atomic_set(&session->done, 0);\r
789 \r
790     ret = rga2_blit(session, req);\r
791     if(ret < 0)\r
792         return ret;\r
793 \r
794     ret_timeout = wait_event_timeout(session->wait, atomic_read(&session->done), RGA2_TIMEOUT_DELAY);\r
795 \r
796     if (unlikely(ret_timeout< 0))\r
797     {\r
798                 //pr_err("sync pid %d wait task ret %d\n", session->pid, ret_timeout);\r
799         mutex_lock(&rga2_service.lock);\r
800         rga2_del_running_list();\r
801         mutex_unlock(&rga2_service.lock);\r
802         ret = ret_timeout;\r
803         }\r
804     else if (0 == ret_timeout)\r
805     {\r
806                 //pr_err("sync pid %d wait %d task done timeout\n", session->pid, atomic_read(&session->task_running));\r
807         mutex_lock(&rga2_service.lock);\r
808         rga2_del_running_list_timeout();\r
809         rga2_try_set_reg();\r
810         mutex_unlock(&rga2_service.lock);\r
811                 ret = -ETIMEDOUT;\r
812         }\r
813 \r
814     #if RGA2_TEST_TIME\r
815     rga2_end = ktime_get();\r
816     rga2_end = ktime_sub(rga2_end, rga2_start);\r
817     printk("sync one cmd end time %d\n", (int)ktime_to_us(rga2_end));\r
818     #endif\r
819 \r
820     return ret;\r
821 }\r
822 \r
823 \r
824 static long rga_ioctl(struct file *file, uint32_t cmd, unsigned long arg)\r
825 {\r
826     struct rga2_req req;\r
827     struct rga_req req_rga;\r
828         int ret = 0;\r
829     rga2_session *session;\r
830 \r
831     memset(&req, 0x0, sizeof(req));\r
832 \r
833     mutex_lock(&rga2_service.mutex);\r
834 \r
835     session = (rga2_session *)file->private_data;\r
836 \r
837         if (NULL == session)\r
838     {\r
839         printk("%s [%d] rga thread session is null\n",__FUNCTION__,__LINE__);\r
840         mutex_unlock(&rga2_service.mutex);\r
841                 return -EINVAL;\r
842         }\r
843 \r
844     memset(&req, 0x0, sizeof(req));\r
845 \r
846         switch (cmd)\r
847         {\r
848         case RGA_BLIT_SYNC:\r
849                 if (unlikely(copy_from_user(&req_rga, (struct rga_req*)arg, sizeof(struct rga_req))))\r
850             {\r
851                         ERR("copy_from_user failed\n");\r
852                         ret = -EFAULT;\r
853                 break;\r
854                 }\r
855             RGA_MSG_2_RGA2_MSG(&req_rga, &req);\r
856 \r
857             ret = rga2_blit_sync(session, &req);\r
858             break;\r
859                 case RGA_BLIT_ASYNC:\r
860                 if (unlikely(copy_from_user(&req_rga, (struct rga_req*)arg, sizeof(struct rga_req))))\r
861             {\r
862                         ERR("copy_from_user failed\n");\r
863                         ret = -EFAULT;\r
864                 break;\r
865                 }\r
866 \r
867             RGA_MSG_2_RGA2_MSG(&req_rga, &req);\r
868 \r
869             if((atomic_read(&rga2_service.total_running) > 8))\r
870             {\r
871                             ret = rga2_blit_sync(session, &req);\r
872             }\r
873             else\r
874             {\r
875                 ret = rga2_blit_async(session, &req);\r
876             }\r
877                         break;\r
878                 case RGA2_BLIT_SYNC:\r
879                 if (unlikely(copy_from_user(&req, (struct rga2_req*)arg, sizeof(struct rga2_req))))\r
880             {\r
881                         ERR("copy_from_user failed\n");\r
882                         ret = -EFAULT;\r
883                 break;\r
884                 }\r
885             ret = rga2_blit_sync(session, &req);\r
886             break;\r
887                 case RGA2_BLIT_ASYNC:\r
888                 if (unlikely(copy_from_user(&req, (struct rga2_req*)arg, sizeof(struct rga2_req))))\r
889             {\r
890                         ERR("copy_from_user failed\n");\r
891                         ret = -EFAULT;\r
892                 break;\r
893                 }\r
894 \r
895             if((atomic_read(&rga2_service.total_running) > 16))\r
896             {\r
897                             ret = rga2_blit_sync(session, &req);\r
898             }\r
899             else\r
900             {\r
901                 ret = rga2_blit_async(session, &req);\r
902             }\r
903                         break;\r
904         case RGA_FLUSH:\r
905                 case RGA2_FLUSH:\r
906                         ret = rga2_flush(session, arg);\r
907                         break;\r
908         case RGA_GET_RESULT:\r
909         case RGA2_GET_RESULT:\r
910             ret = rga2_get_result(session, arg);\r
911             break;\r
912         case RGA_GET_VERSION:\r
913         case RGA2_GET_VERSION:\r
914             ret = copy_to_user((void *)arg, RGA2_VERSION, sizeof(RGA2_VERSION));\r
915             //ret = 0;\r
916             break;\r
917                 default:\r
918                         ERR("unknown ioctl cmd!\n");\r
919                         ret = -EINVAL;\r
920                         break;\r
921         }\r
922 \r
923         mutex_unlock(&rga2_service.mutex);\r
924 \r
925         return ret;\r
926 }\r
927 \r
928 static long compat_rga_ioctl(struct file *file, uint32_t cmd, unsigned long arg)\r
929 {\r
930     struct rga2_req req;\r
931     struct rga_req req_rga;\r
932         int ret = 0;\r
933     rga2_session *session;\r
934 \r
935     memset(&req, 0x0, sizeof(req));\r
936 \r
937     mutex_lock(&rga2_service.mutex);\r
938 \r
939     session = (rga2_session *)file->private_data;\r
940 \r
941     #if RGA2_TEST_MSG\r
942     printk("use compat_rga_ioctl\n");\r
943     #endif\r
944 \r
945         if (NULL == session) {\r
946         printk("%s [%d] rga thread session is null\n",__FUNCTION__,__LINE__);\r
947         mutex_unlock(&rga2_service.mutex);\r
948                 return -EINVAL;\r
949         }\r
950 \r
951     memset(&req, 0x0, sizeof(req));\r
952 \r
953         switch (cmd) {\r
954         case RGA_BLIT_SYNC:\r
955                 if (unlikely(copy_from_user(&req_rga, compat_ptr((compat_uptr_t)arg), sizeof(struct rga_req))))\r
956             {\r
957                         ERR("copy_from_user failed\n");\r
958                         ret = -EFAULT;\r
959                 break;\r
960                 }\r
961 \r
962             RGA_MSG_2_RGA2_MSG(&req_rga, &req);\r
963 \r
964             ret = rga2_blit_sync(session, &req);\r
965             break;\r
966                 case RGA_BLIT_ASYNC:\r
967                 if (unlikely(copy_from_user(&req_rga, compat_ptr((compat_uptr_t)arg), sizeof(struct rga_req))))\r
968             {\r
969                         ERR("copy_from_user failed\n");\r
970                         ret = -EFAULT;\r
971                 break;\r
972                 }\r
973 \r
974             RGA_MSG_2_RGA2_MSG(&req_rga, &req);\r
975 \r
976             if((atomic_read(&rga2_service.total_running) > 8))\r
977             {\r
978                             ret = rga2_blit_sync(session, &req);\r
979             }\r
980             else\r
981             {\r
982                 ret = rga2_blit_async(session, &req);\r
983             }\r
984                         break;\r
985                 case RGA2_BLIT_SYNC:\r
986                 if (unlikely(copy_from_user(&req, compat_ptr((compat_uptr_t)arg), sizeof(struct rga2_req))))\r
987             {\r
988                         ERR("copy_from_user failed\n");\r
989                         ret = -EFAULT;\r
990                 break;\r
991                 }\r
992             ret = rga2_blit_sync(session, &req);\r
993             break;\r
994                 case RGA2_BLIT_ASYNC:\r
995                 if (unlikely(copy_from_user(&req, compat_ptr((compat_uptr_t)arg), sizeof(struct rga2_req))))\r
996             {\r
997                         ERR("copy_from_user failed\n");\r
998                         ret = -EFAULT;\r
999                 break;\r
1000                 }\r
1001 \r
1002             if((atomic_read(&rga2_service.total_running) > 16))\r
1003             {\r
1004                             ret = rga2_blit_sync(session, &req);\r
1005             }\r
1006             else\r
1007             {\r
1008                 ret = rga2_blit_async(session, &req);\r
1009             }\r
1010                         break;\r
1011         case RGA_FLUSH:\r
1012                 case RGA2_FLUSH:\r
1013                         ret = rga2_flush(session, arg);\r
1014                         break;\r
1015         case RGA_GET_RESULT:\r
1016         case RGA2_GET_RESULT:\r
1017             ret = rga2_get_result(session, arg);\r
1018             break;\r
1019         case RGA_GET_VERSION:\r
1020         case RGA2_GET_VERSION:\r
1021             ret = copy_to_user((void *)arg, RGA2_VERSION, sizeof(RGA2_VERSION));\r
1022             //ret = 0;\r
1023             break;\r
1024                 default:\r
1025                         ERR("unknown ioctl cmd!\n");\r
1026                         ret = -EINVAL;\r
1027                         break;\r
1028         }\r
1029 \r
1030         mutex_unlock(&rga2_service.mutex);\r
1031 \r
1032         return ret;\r
1033 }\r
1034 \r
1035 \r
1036 \r
1037 long rga2_ioctl_kernel(struct rga_req *req_rga)\r
1038 {\r
1039         int ret = 0;\r
1040     rga2_session *session;\r
1041     struct rga2_req req;\r
1042 \r
1043     memset(&req, 0x0, sizeof(req));\r
1044 \r
1045     mutex_lock(&rga2_service.mutex);\r
1046 \r
1047     session = &rga2_session_global;\r
1048 \r
1049         if (NULL == session)\r
1050     {\r
1051         printk("%s [%d] rga thread session is null\n",__FUNCTION__,__LINE__);\r
1052         mutex_unlock(&rga2_service.mutex);\r
1053                 return -EINVAL;\r
1054         }\r
1055 \r
1056     RGA_MSG_2_RGA2_MSG(req_rga, &req);\r
1057     ret = rga2_blit_sync(session, &req);\r
1058 \r
1059         mutex_unlock(&rga2_service.mutex);\r
1060 \r
1061         return ret;\r
1062 }\r
1063 \r
1064 \r
1065 static int rga2_open(struct inode *inode, struct file *file)\r
1066 {\r
1067     rga2_session *session = kzalloc(sizeof(rga2_session), GFP_KERNEL);\r
1068         if (NULL == session) {\r
1069                 pr_err("unable to allocate memory for rga_session.");\r
1070                 return -ENOMEM;\r
1071         }\r
1072 \r
1073         session->pid = current->pid;\r
1074     //printk(KERN_DEBUG  "+");\r
1075 \r
1076         INIT_LIST_HEAD(&session->waiting);\r
1077         INIT_LIST_HEAD(&session->running);\r
1078         INIT_LIST_HEAD(&session->list_session);\r
1079         init_waitqueue_head(&session->wait);\r
1080         mutex_lock(&rga2_service.lock);\r
1081         list_add_tail(&session->list_session, &rga2_service.session);\r
1082         mutex_unlock(&rga2_service.lock);\r
1083         atomic_set(&session->task_running, 0);\r
1084     atomic_set(&session->num_done, 0);\r
1085 \r
1086         file->private_data = (void *)session;\r
1087 \r
1088     //DBG("*** rga dev opened by pid %d *** \n", session->pid);\r
1089         return nonseekable_open(inode, file);\r
1090 \r
1091 }\r
1092 \r
1093 static int rga2_release(struct inode *inode, struct file *file)\r
1094 {\r
1095     int task_running;\r
1096         rga2_session *session = (rga2_session *)file->private_data;\r
1097         if (NULL == session)\r
1098                 return -EINVAL;\r
1099     //printk(KERN_DEBUG  "-");\r
1100         task_running = atomic_read(&session->task_running);\r
1101 \r
1102     if (task_running)\r
1103     {\r
1104                 pr_err("rga2_service session %d still has %d task running when closing\n", session->pid, task_running);\r
1105                 msleep(100);\r
1106         /*ͬ²½*/\r
1107         }\r
1108 \r
1109         wake_up(&session->wait);\r
1110         mutex_lock(&rga2_service.lock);\r
1111         list_del(&session->list_session);\r
1112         rga2_service_session_clear(session);\r
1113         kfree(session);\r
1114         mutex_unlock(&rga2_service.lock);\r
1115 \r
1116     //DBG("*** rga dev close ***\n");\r
1117         return 0;\r
1118 }\r
1119 \r
1120 static irqreturn_t rga2_irq_thread(int irq, void *dev_id)\r
1121 {\r
1122         mutex_lock(&rga2_service.lock);\r
1123         if (rga2_service.enable) {\r
1124                 rga2_del_running_list();\r
1125                 rga2_try_set_reg();\r
1126         }\r
1127         mutex_unlock(&rga2_service.lock);\r
1128 \r
1129         return IRQ_HANDLED;\r
1130 }\r
1131 \r
1132 static irqreturn_t rga2_irq(int irq,  void *dev_id)\r
1133 {\r
1134         /*clear INT */\r
1135         rga2_write(rga2_read(RGA2_INT) | (0x1<<4) | (0x1<<5) | (0x1<<6) | (0x1<<7), RGA2_INT);\r
1136 \r
1137         return IRQ_WAKE_THREAD;\r
1138 }\r
1139 \r
1140 struct file_operations rga2_fops = {\r
1141         .owner          = THIS_MODULE,\r
1142         .open           = rga2_open,\r
1143         .release        = rga2_release,\r
1144         .unlocked_ioctl         = rga_ioctl,\r
1145         .compat_ioctl           = compat_rga_ioctl,\r
1146 };\r
1147 \r
1148 static struct miscdevice rga2_dev ={\r
1149     .minor = RGA2_MAJOR,\r
1150     .name  = "rga",\r
1151     .fops  = &rga2_fops,\r
1152 };\r
1153 \r
1154 static const struct of_device_id rockchip_rga_dt_ids[] = {\r
1155         { .compatible = "rockchip,rk3368-rga2", },\r
1156         {},\r
1157 };\r
1158 \r
1159 static int rga2_drv_probe(struct platform_device *pdev)\r
1160 {\r
1161         struct rga2_drvdata_t *data;\r
1162     struct resource *res;\r
1163         int ret = 0;\r
1164 \r
1165         mutex_init(&rga2_service.lock);\r
1166         mutex_init(&rga2_service.mutex);\r
1167         atomic_set(&rga2_service.total_running, 0);\r
1168         atomic_set(&rga2_service.src_format_swt, 0);\r
1169         rga2_service.last_prc_src_format = 1; /* default is yuv first*/\r
1170         rga2_service.enable = false;\r
1171 \r
1172     rga_ioctl_kernel_p = rga2_ioctl_kernel;\r
1173 \r
1174         data = devm_kzalloc(&pdev->dev, sizeof(struct rga2_drvdata_t), GFP_KERNEL);\r
1175         if(NULL == data)\r
1176         {\r
1177                 ERR("failed to allocate driver data.\n");\r
1178                 return -ENOMEM;\r
1179         }\r
1180 \r
1181         INIT_DELAYED_WORK(&data->power_off_work, rga2_power_off_work);\r
1182         wake_lock_init(&data->wake_lock, WAKE_LOCK_SUSPEND, "rga");\r
1183 \r
1184         //data->pd_rga2 = clk_get(NULL, "pd_rga");\r
1185     data->rga2 = devm_clk_get(&pdev->dev, "clk_rga");\r
1186     data->pd_rga2 = devm_clk_get(&pdev->dev, "pd_rga");\r
1187         data->aclk_rga2 = devm_clk_get(&pdev->dev, "aclk_rga");\r
1188     data->hclk_rga2 = devm_clk_get(&pdev->dev, "hclk_rga");\r
1189 \r
1190         /* map the registers */\r
1191         res = platform_get_resource(pdev, IORESOURCE_MEM, 0);\r
1192         data->rga_base = devm_ioremap_resource(&pdev->dev, res);\r
1193         if (!data->rga_base) {\r
1194                 ERR("rga ioremap failed\n");\r
1195                 ret = -ENOENT;\r
1196                 goto err_ioremap;\r
1197         }\r
1198 \r
1199         /* get the IRQ */\r
1200         data->irq = platform_get_irq(pdev, 0);\r
1201         if (data->irq <= 0) {\r
1202                 ERR("failed to get rga irq resource (%d).\n", data->irq);\r
1203                 ret = data->irq;\r
1204                 goto err_irq;\r
1205         }\r
1206 \r
1207         /* request the IRQ */\r
1208         ret = devm_request_threaded_irq(&pdev->dev, data->irq, rga2_irq, rga2_irq_thread, 0, "rga", pdev);\r
1209         if (ret)\r
1210         {\r
1211                 ERR("rga request_irq failed (%d).\n", ret);\r
1212                 goto err_irq;\r
1213         }\r
1214 \r
1215         platform_set_drvdata(pdev, data);\r
1216         rga2_drvdata = data;\r
1217 \r
1218     #if defined(CONFIG_ION_ROCKCHIP)\r
1219         data->ion_client = rockchip_ion_client_create("rga");\r
1220         if (IS_ERR(data->ion_client)) {\r
1221                 dev_err(&pdev->dev, "failed to create ion client for rga");\r
1222                 return PTR_ERR(data->ion_client);\r
1223         } else {\r
1224                 dev_info(&pdev->dev, "rga ion client create success!\n");\r
1225         }\r
1226     #endif\r
1227 \r
1228         ret = misc_register(&rga2_dev);\r
1229         if(ret)\r
1230         {\r
1231                 ERR("cannot register miscdev (%d)\n", ret);\r
1232                 goto err_misc_register;\r
1233         }\r
1234 \r
1235         pr_info("Driver loaded succesfully\n");\r
1236 \r
1237         return 0;\r
1238 \r
1239 err_misc_register:\r
1240         free_irq(data->irq, pdev);\r
1241 err_irq:\r
1242         iounmap(data->rga_base);\r
1243 err_ioremap:\r
1244         wake_lock_destroy(&data->wake_lock);\r
1245         //kfree(data);\r
1246 \r
1247         return ret;\r
1248 }\r
1249 \r
1250 static int rga2_drv_remove(struct platform_device *pdev)\r
1251 {\r
1252         struct rga2_drvdata_t *data = platform_get_drvdata(pdev);\r
1253         DBG("%s [%d]\n",__FUNCTION__,__LINE__);\r
1254 \r
1255         wake_lock_destroy(&data->wake_lock);\r
1256         misc_deregister(&(data->miscdev));\r
1257         free_irq(data->irq, &data->miscdev);\r
1258         iounmap((void __iomem *)(data->rga_base));\r
1259 \r
1260         //clk_put(data->pd_rga2);\r
1261     devm_clk_put(&pdev->dev, data->rga2);\r
1262         devm_clk_put(&pdev->dev, data->aclk_rga2);\r
1263         devm_clk_put(&pdev->dev, data->hclk_rga2);\r
1264 \r
1265         kfree(data);\r
1266         return 0;\r
1267 }\r
1268 \r
1269 static struct platform_driver rga2_driver = {\r
1270         .probe          = rga2_drv_probe,\r
1271         .remove         = rga2_drv_remove,\r
1272         .driver         = {\r
1273                 .owner  = THIS_MODULE,\r
1274                 .name   = "rga2",\r
1275                 .of_match_table = of_match_ptr(rockchip_rga_dt_ids),\r
1276         },\r
1277 };\r
1278 \r
1279 \r
1280 void rga2_test_0(void);\r
1281 \r
1282 static int __init rga2_init(void)\r
1283 {\r
1284         int ret;\r
1285     uint32_t *buf_p;\r
1286 \r
1287     /* malloc pre scale mid buf mmu table */\r
1288     buf_p = kmalloc(1024*256, GFP_KERNEL);\r
1289     rga2_mmu_buf.buf_virtual = buf_p;\r
1290     rga2_mmu_buf.buf = (uint32_t *)virt_to_phys((void *)((unsigned long)buf_p));\r
1291     rga2_mmu_buf.front = 0;\r
1292     rga2_mmu_buf.back = 64*1024;\r
1293     rga2_mmu_buf.size = 64*1024;\r
1294 \r
1295     rga2_mmu_buf.pages = kmalloc(32768 * sizeof(struct page *), GFP_KERNEL);\r
1296 \r
1297         if ((ret = platform_driver_register(&rga2_driver)) != 0)\r
1298         {\r
1299         printk(KERN_ERR "Platform device register failed (%d).\n", ret);\r
1300                         return ret;\r
1301         }\r
1302 \r
1303     {\r
1304         rga2_session_global.pid = 0x0000ffff;\r
1305         INIT_LIST_HEAD(&rga2_session_global.waiting);\r
1306         INIT_LIST_HEAD(&rga2_session_global.running);\r
1307         INIT_LIST_HEAD(&rga2_session_global.list_session);\r
1308 \r
1309         INIT_LIST_HEAD(&rga2_service.waiting);\r
1310             INIT_LIST_HEAD(&rga2_service.running);\r
1311             INIT_LIST_HEAD(&rga2_service.done);\r
1312         INIT_LIST_HEAD(&rga2_service.session);\r
1313         init_waitqueue_head(&rga2_session_global.wait);\r
1314         //mutex_lock(&rga_service.lock);\r
1315         list_add_tail(&rga2_session_global.list_session, &rga2_service.session);\r
1316         //mutex_unlock(&rga_service.lock);\r
1317         atomic_set(&rga2_session_global.task_running, 0);\r
1318         atomic_set(&rga2_session_global.num_done, 0);\r
1319     }\r
1320 \r
1321     #if RGA2_TEST_CASE\r
1322     rga2_test_0();\r
1323     #endif\r
1324 \r
1325         INFO("Module initialized.\n");\r
1326 \r
1327         return 0;\r
1328 }\r
1329 \r
1330 static void __exit rga2_exit(void)\r
1331 {\r
1332     rga2_power_off();\r
1333 \r
1334     if (rga2_mmu_buf.buf_virtual)\r
1335         kfree(rga2_mmu_buf.buf_virtual);\r
1336 \r
1337         platform_driver_unregister(&rga2_driver);\r
1338 }\r
1339 \r
1340 \r
1341 #if RGA2_TEST_CASE\r
1342 \r
1343 void rga2_test_0(void)\r
1344 {\r
1345     struct rga2_req req;\r
1346     rga2_session session;\r
1347     unsigned int *src, *dst;\r
1348     uint32_t i, j;\r
1349     uint8_t *p;\r
1350     uint8_t t;\r
1351     uint32_t *dst0, *dst1, *dst2;\r
1352 \r
1353     struct fb_info *fb;\r
1354 \r
1355     session.pid = current->pid;\r
1356         INIT_LIST_HEAD(&session.waiting);\r
1357         INIT_LIST_HEAD(&session.running);\r
1358         INIT_LIST_HEAD(&session.list_session);\r
1359         init_waitqueue_head(&session.wait);\r
1360         /* no need to protect */\r
1361         list_add_tail(&session.list_session, &rga2_service.session);\r
1362         atomic_set(&session.task_running, 0);\r
1363     atomic_set(&session.num_done, 0);\r
1364         //file->private_data = (void *)session;\r
1365 \r
1366     //fb = rk_get_fb(0);\r
1367 \r
1368     memset(&req, 0, sizeof(struct rga2_req));\r
1369     src = kmalloc(800*480*4, GFP_KERNEL);\r
1370     dst = kmalloc(800*480*4, GFP_KERNEL);\r
1371 \r
1372     printk("\n********************************\n");\r
1373     printk("************ RGA2_TEST ************\n");\r
1374     printk("********************************\n\n");\r
1375 \r
1376     memset(src, 0x80, 800*480*4);\r
1377     memset(dst, 0x0, 800*480*4);\r
1378 \r
1379     //dmac_flush_range(&src, &src[800*480*4]);\r
1380     //outer_flush_range(virt_to_phys(&src),virt_to_phys(&src[800*480*4]));\r
1381 \r
1382 \r
1383     #if 0\r
1384     memset(src_buf, 0x80, 800*480*4);\r
1385     memset(dst_buf, 0xcc, 800*480*4);\r
1386 \r
1387     dmac_flush_range(&dst_buf[0], &dst_buf[800*480]);\r
1388     outer_flush_range(virt_to_phys(&dst_buf[0]),virt_to_phys(&dst_buf[800*480]));\r
1389     #endif\r
1390 \r
1391     dst0 = &dst;\r
1392 \r
1393     i = j = 0;\r
1394 \r
1395 \r
1396 \r
1397     #if 0\r
1398     req.pat.act_w = 16;\r
1399     req.pat.act_h = 16;\r
1400     req.pat.vir_w = 16;\r
1401     req.pat.vir_h = 16;\r
1402     req.pat.yrgb_addr = virt_to_phys(src);\r
1403     req.render_mode = 0;\r
1404     rga2_blit_sync(&session, &req);\r
1405     #endif\r
1406 \r
1407     req.src.act_w  = 320;\r
1408     req.src.act_h = 240;\r
1409 \r
1410     req.src.vir_w  = 320;\r
1411     req.src.vir_h = 240;\r
1412     req.src.yrgb_addr = 0;//(uint32_t)virt_to_phys(src);\r
1413     req.src.uv_addr = (unsigned long)virt_to_phys(src);\r
1414     req.src.v_addr = 0;\r
1415     req.src.format = RGA2_FORMAT_RGBA_8888;\r
1416 \r
1417     req.dst.act_w  = 320;\r
1418     req.dst.act_h = 240;\r
1419     req.dst.x_offset = 0;\r
1420     req.dst.y_offset = 0;\r
1421 \r
1422     req.dst.vir_w = 320;\r
1423     req.dst.vir_h = 240;\r
1424 \r
1425     req.dst.yrgb_addr = 0;//((uint32_t)virt_to_phys(dst));\r
1426     req.dst.uv_addr = (unsigned long)virt_to_phys(dst);\r
1427     req.dst.format = RGA2_FORMAT_RGBA_8888;\r
1428 \r
1429     //dst = dst0;\r
1430 \r
1431     //req.render_mode = color_fill_mode;\r
1432     //req.fg_color = 0x80ffffff;\r
1433 \r
1434     req.rotate_mode = 0;\r
1435     req.scale_bicu_mode = 2;\r
1436 \r
1437     //req.alpha_rop_flag = 0;\r
1438     //req.alpha_rop_mode = 0x19;\r
1439     //req.PD_mode = 3;\r
1440 \r
1441     //req.mmu_info.mmu_flag = 0x21;\r
1442     //req.mmu_info.mmu_en = 1;\r
1443 \r
1444     //printk("src = %.8x\n", req.src.yrgb_addr);\r
1445     //printk("src = %.8x\n", req.src.uv_addr);\r
1446     //printk("dst = %.8x\n", req.dst.yrgb_addr);\r
1447 \r
1448     rga2_blit_sync(&session, &req);\r
1449 \r
1450     for(j=0; j<100; j++) {\r
1451         printk("%.8x\n", dst[j]);\r
1452     }\r
1453 \r
1454     if(src)\r
1455         kfree(src);\r
1456     if(dst)\r
1457         kfree(dst);\r
1458 }\r
1459 \r
1460 #endif\r
1461 module_init(rga2_init);\r
1462 module_exit(rga2_exit);\r
1463 \r
1464 /* Module information */\r
1465 MODULE_AUTHOR("zsq@rock-chips.com");\r
1466 MODULE_DESCRIPTION("Driver for rga device");\r
1467 MODULE_LICENSE("GPL");\r