Merge remote-tracking branch 'stable/linux-3.0.y' into develop-3.0-jb
[firefly-linux-kernel-4.4.55.git] / drivers / video / rockchip / rga / rga_drv.c
1 /*\r
2  * Copyright (C) 2012 ROCKCHIP, Inc.\r
3  *\r
4  * This software is licensed under the terms of the GNU General Public\r
5  * License version 2, as published by the Free Software Foundation, and\r
6  * may be copied, distributed, and modified under those terms.\r
7  *\r
8  * This program is distributed in the hope that it will be useful,\r
9  * but WITHOUT ANY WARRANTY; without even the implied warranty of\r
10  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the\r
11  * GNU General Public License for more details.\r
12  *\r
13  */\r
14 \r
15 #define pr_fmt(fmt) "rga: " fmt\r
16 #include <linux/kernel.h>\r
17 #include <linux/init.h>\r
18 #include <linux/module.h>\r
19 #include <linux/platform_device.h>\r
20 #include <linux/sched.h>\r
21 #include <linux/mutex.h>\r
22 #include <linux/err.h>\r
23 #include <linux/clk.h>\r
24 #include <asm/delay.h>\r
25 #include <linux/dma-mapping.h>\r
26 #include <linux/delay.h>\r
27 #include <asm/io.h>\r
28 #include <linux/irq.h>\r
29 #include <linux/interrupt.h>\r
30 #include <mach/io.h>\r
31 #include <mach/irqs.h>\r
32 #include <linux/fs.h>\r
33 #include <asm/uaccess.h>\r
34 #include <linux/miscdevice.h>\r
35 #include <linux/poll.h>\r
36 #include <linux/delay.h>\r
37 #include <linux/wait.h>\r
38 #include <linux/syscalls.h>\r
39 #include <linux/timer.h>\r
40 #include <linux/time.h>\r
41 #include <asm/cacheflush.h>\r
42 #include <linux/slab.h>\r
43 #include <linux/fb.h>\r
44 #include <linux/wakelock.h>\r
45 \r
46 #include "rga.h"\r
47 #include "rga_reg_info.h"\r
48 #include "rga_mmu_info.h"\r
49 #include "RGA_API.h"\r
50 \r
51 #define RGA_TEST 0\r
52 #define RGA_TEST_TIME 0\r
53 #define RGA_TEST_FLUSH_TIME 0\r
54 #define RGA_INFO_BUS_ERROR 1\r
55 \r
56 #define PRE_SCALE_BUF_SIZE  2048*1024*4\r
57 \r
58 #define RGA_POWER_OFF_DELAY     4*HZ /* 4s */\r
59 #define RGA_TIMEOUT_DELAY       2*HZ /* 2s */\r
60 \r
61 #define RGA_MAJOR               255\r
62 \r
63 #define RK30_RGA_PHYS   0x10114000\r
64 #define RK30_RGA_SIZE   SZ_8K\r
65 #define RGA_RESET_TIMEOUT       1000\r
66 \r
67 /* Driver information */\r
68 #define DRIVER_DESC             "RGA Device Driver"\r
69 #define DRIVER_NAME             "rga"\r
70 \r
71 #define RGA_VERSION   "1.000"\r
72 \r
73 ktime_t rga_start;\r
74 ktime_t rga_end;\r
75 \r
76 int rga_num = 0;\r
77 \r
78 struct rga_drvdata {\r
79         struct miscdevice miscdev;\r
80         struct device dev;\r
81         void *rga_base;\r
82         int irq;\r
83 \r
84         struct delayed_work power_off_work;\r
85         void (*rga_irq_callback)(int rga_retval);   //callback function used by aync call\r
86         struct wake_lock wake_lock;\r
87 \r
88         struct clk *aclk_rga;\r
89         struct clk *hclk_rga;\r
90         struct clk *pd_rga;\r
91 };\r
92 \r
93 static struct rga_drvdata *drvdata;\r
94 rga_service_info rga_service;\r
95 \r
96 static int rga_blit_async(rga_session *session, struct rga_req *req);\r
97 static void rga_del_running_list(void);\r
98 static void rga_del_running_list_timeout(void);\r
99 static void rga_try_set_reg(void);\r
100 \r
101 \r
102 /* Logging */\r
103 #define RGA_DEBUG 0\r
104 #if RGA_DEBUG\r
105 #define DBG(format, args...) printk(KERN_DEBUG "%s: " format, DRIVER_NAME, ## args)\r
106 #define ERR(format, args...) printk(KERN_ERR "%s: " format, DRIVER_NAME, ## args)\r
107 #define WARNING(format, args...) printk(KERN_WARN "%s: " format, DRIVER_NAME, ## args)\r
108 #define INFO(format, args...) printk(KERN_INFO "%s: " format, DRIVER_NAME, ## args)\r
109 #else\r
110 #define DBG(format, args...)\r
111 #define ERR(format, args...)\r
112 #define WARNING(format, args...)\r
113 #define INFO(format, args...)\r
114 #endif\r
115 \r
116 \r
117 static inline void rga_write(u32 b, u32 r)\r
118 {\r
119         __raw_writel(b, drvdata->rga_base + r);\r
120 }\r
121 \r
122 static inline u32 rga_read(u32 r)\r
123 {\r
124         return __raw_readl(drvdata->rga_base + r);\r
125 }\r
126 \r
127 static void rga_soft_reset(void)\r
128 {\r
129         u32 i;\r
130         u32 reg;\r
131 \r
132         rga_write(1, RGA_SYS_CTRL); //RGA_SYS_CTRL\r
133 \r
134         for(i = 0; i < RGA_RESET_TIMEOUT; i++)\r
135         {\r
136                 reg = rga_read(RGA_SYS_CTRL) & 1; //RGA_SYS_CTRL\r
137 \r
138                 if(reg == 0)\r
139                         break;\r
140 \r
141                 udelay(1);\r
142         }\r
143 \r
144         if(i == RGA_RESET_TIMEOUT)\r
145                 ERR("soft reset timeout.\n");\r
146 }\r
147 \r
148 static void rga_dump(void)\r
149 {\r
150         int running;\r
151     struct rga_reg *reg, *reg_tmp;\r
152     rga_session *session, *session_tmp;\r
153 \r
154         running = atomic_read(&rga_service.total_running);\r
155         printk("rga total_running %d\n", running);\r
156 \r
157     #if 0\r
158 \r
159     /* Dump waiting list info */\r
160     if (!list_empty(&rga_service.waiting))\r
161     {\r
162         next = &rga_service.waiting;\r
163 \r
164         printk("rga_service dump waiting list\n");\r
165 \r
166         do\r
167         {\r
168             reg = list_entry(next->next, struct rga_reg, status_link);\r
169             running = atomic_read(&reg->session->task_running);\r
170             num_done = atomic_read(&reg->session->num_done);\r
171             printk("rga session pid %d, done %d, running %d\n", reg->session->pid, num_done, running);\r
172             next = next->next;\r
173         }\r
174         while(!list_empty(next));\r
175     }\r
176 \r
177     /* Dump running list info */\r
178     if (!list_empty(&rga_service.running))\r
179     {\r
180         printk("rga_service dump running list\n");\r
181 \r
182         next = &rga_service.running;\r
183         do\r
184         {\r
185             reg = list_entry(next->next, struct rga_reg, status_link);\r
186             running = atomic_read(&reg->session->task_running);\r
187             num_done = atomic_read(&reg->session->num_done);\r
188             printk("rga session pid %d, done %d, running %d:\n", reg->session->pid, num_done, running);\r
189             next = next->next;\r
190         }\r
191         while(!list_empty(next));\r
192     }\r
193     #endif\r
194 \r
195         list_for_each_entry_safe(session, session_tmp, &rga_service.session, list_session)\r
196     {\r
197                 printk("session pid %d:\n", session->pid);\r
198                 running = atomic_read(&session->task_running);\r
199                 printk("task_running %d\n", running);\r
200                 list_for_each_entry_safe(reg, reg_tmp, &session->waiting, session_link)\r
201         {\r
202                         printk("waiting register set 0x%.8x\n", (unsigned int)reg);\r
203                 }\r
204                 list_for_each_entry_safe(reg, reg_tmp, &session->running, session_link)\r
205         {\r
206                         printk("running register set 0x%.8x\n", (unsigned int)reg);\r
207                 }\r
208         }\r
209 }\r
210 \r
211 /* Caller must hold rga_service.lock */\r
212 static void rga_power_on(void)\r
213 {\r
214         cancel_delayed_work_sync(&drvdata->power_off_work);\r
215         queue_delayed_work(system_nrt_wq, &drvdata->power_off_work, RGA_POWER_OFF_DELAY);\r
216         if (rga_service.enable)\r
217                 return;\r
218 \r
219         clk_enable(drvdata->aclk_rga);\r
220         clk_enable(drvdata->hclk_rga);\r
221         clk_enable(drvdata->pd_rga);\r
222         wake_lock(&drvdata->wake_lock);\r
223         rga_service.enable = true;\r
224 }\r
225 \r
226 /* Caller must hold rga_service.lock */\r
227 static void rga_power_off(void)\r
228 {\r
229         int total_running;\r
230 \r
231         if (!rga_service.enable) {\r
232                 return;\r
233         }\r
234 \r
235         total_running = atomic_read(&rga_service.total_running);\r
236         if (total_running) {\r
237                 pr_err("power off when %d task running!!\n", total_running);\r
238                 mdelay(50);\r
239                 pr_err("delay 50 ms for running task\n");\r
240                 rga_dump();\r
241         }\r
242 \r
243         clk_disable(drvdata->pd_rga);\r
244         clk_disable(drvdata->aclk_rga);\r
245         clk_disable(drvdata->hclk_rga);\r
246         wake_unlock(&drvdata->wake_lock);\r
247         rga_service.enable = false;\r
248 }\r
249 \r
250 static void rga_power_off_work(struct work_struct *work)\r
251 {\r
252         mutex_lock(&rga_service.lock);\r
253         rga_power_off();\r
254         mutex_unlock(&rga_service.lock);\r
255 }\r
256 \r
257 static int rga_flush(rga_session *session, unsigned long arg)\r
258 {\r
259     int ret = 0;\r
260     int ret_timeout;\r
261 \r
262     #if RGA_TEST_FLUSH_TIME\r
263     ktime_t start;\r
264     ktime_t end;\r
265     start = ktime_get();\r
266     #endif\r
267 \r
268     ret_timeout = wait_event_interruptible_timeout(session->wait, atomic_read(&session->done), RGA_TIMEOUT_DELAY);\r
269 \r
270         if (unlikely(ret_timeout < 0)) {\r
271                 pr_err("flush pid %d wait task ret %d\n", session->pid, ret);\r
272         mutex_lock(&rga_service.lock);\r
273         rga_del_running_list();\r
274         mutex_unlock(&rga_service.lock);\r
275         ret = -ETIMEDOUT;\r
276         } else if (0 == ret_timeout) {\r
277                 pr_err("flush pid %d wait %d task done timeout\n", session->pid, atomic_read(&session->task_running));\r
278         printk("bus  = %.8x\n", rga_read(RGA_INT));\r
279         mutex_lock(&rga_service.lock);\r
280         rga_del_running_list_timeout();\r
281         rga_try_set_reg();\r
282         mutex_unlock(&rga_service.lock);\r
283                 ret = -ETIMEDOUT;\r
284         }\r
285 \r
286     #if RGA_TEST_FLUSH_TIME\r
287     end = ktime_get();\r
288     end = ktime_sub(end, start);\r
289     printk("one flush wait time %d\n", (int)ktime_to_us(end));\r
290     #endif\r
291 \r
292         return ret;\r
293 }\r
294 \r
295 \r
296 static int rga_get_result(rga_session *session, unsigned long arg)\r
297 {\r
298         //printk("rga_get_result %d\n",drvdata->rga_result);\r
299 \r
300     int ret = 0;\r
301 \r
302     int num_done;\r
303 \r
304     num_done = atomic_read(&session->num_done);\r
305 \r
306         if (unlikely(copy_to_user((void __user *)arg, &num_done, sizeof(int)))) {\r
307                         printk("copy_to_user failed\n");\r
308                         ERR("copy_to_user failed\n");\r
309                         ret =  -EFAULT;\r
310                 }\r
311         return ret;\r
312 }\r
313 \r
314 \r
315 static int rga_check_param(const struct rga_req *req)\r
316 {\r
317         /*RGA can support up to 8192*8192 resolution in RGB format,but we limit the image size to 8191*8191 here*/\r
318         //check src width and height\r
319 \r
320     if(!((req->render_mode == color_fill_mode) || (req->render_mode == line_point_drawing_mode)))\r
321     {\r
322         if (unlikely((req->src.act_w <= 0) || (req->src.act_w > 8191) || (req->src.act_h <= 0) || (req->src.act_h > 8191)))\r
323         {\r
324                 ERR("invalid source resolution act_w = %d, act_h = %d\n", req->src.act_w, req->src.act_h);\r
325                 return  -EINVAL;\r
326         }\r
327     }\r
328 \r
329     if(!((req->render_mode == color_fill_mode) || (req->render_mode == line_point_drawing_mode)))\r
330     {\r
331         if (unlikely((req->src.vir_w <= 0) || (req->src.vir_w > 8191) || (req->src.vir_h <= 0) || (req->src.vir_h > 8191)))\r
332         {\r
333                 ERR("invalid source resolution vir_w = %d, vir_h = %d\n", req->src.vir_w, req->src.vir_h);\r
334                 return  -EINVAL;\r
335         }\r
336     }\r
337 \r
338         //check dst width and height\r
339         if (unlikely((req->dst.act_w <= 0) || (req->dst.act_w > 2048) || (req->dst.act_h <= 0) || (req->dst.act_h > 2048)))\r
340     {\r
341                 ERR("invalid destination resolution act_w = %d, act_h = %d\n", req->dst.act_w, req->dst.act_h);\r
342                 return  -EINVAL;\r
343         }\r
344 \r
345     if (unlikely((req->dst.vir_w <= 0) || (req->dst.vir_w > 2048) || (req->dst.vir_h <= 0) || (req->dst.vir_h > 2048)))\r
346     {\r
347                 ERR("invalid destination resolution vir_w = %d, vir_h = %d\n", req->dst.vir_w, req->dst.vir_h);\r
348                 return  -EINVAL;\r
349         }\r
350 \r
351         //check src_vir_w\r
352         if(unlikely(req->src.vir_w < req->src.act_w)){\r
353                 ERR("invalid src_vir_w act_w = %d, vir_w = %d\n", req->src.act_w, req->src.vir_w);\r
354                 return  -EINVAL;\r
355         }\r
356 \r
357         //check dst_vir_w\r
358         if(unlikely(req->dst.vir_w < req->dst.act_w)){\r
359                 ERR("invalid dst_vir_w act_h = %d, vir_h = %d\n", req->dst.act_w, req->dst.vir_w);\r
360                 return  -EINVAL;\r
361         }\r
362 \r
363         return 0;\r
364 }\r
365 \r
366 static void rga_copy_reg(struct rga_reg *reg, uint32_t offset)\r
367 {\r
368     uint32_t i;\r
369     uint32_t *cmd_buf;\r
370     uint32_t *reg_p;\r
371 \r
372     if(atomic_read(&reg->session->task_running) != 0)\r
373     {\r
374         printk(KERN_ERR "task_running is no zero\n");\r
375     }\r
376 \r
377     atomic_add(1, &rga_service.cmd_num);\r
378         atomic_add(1, &reg->session->task_running);\r
379 \r
380     cmd_buf = (uint32_t *)rga_service.cmd_buff + offset*28;\r
381     reg_p = (uint32_t *)reg->cmd_reg;\r
382 \r
383     for(i=0; i<28; i++)\r
384     {\r
385         cmd_buf[i] = reg_p[i];\r
386     }\r
387 \r
388     dsb();\r
389 }\r
390 \r
391 \r
392 static struct rga_reg * rga_reg_init(rga_session *session, struct rga_req *req)\r
393 {\r
394     uint32_t ret;\r
395         struct rga_reg *reg = kzalloc(sizeof(struct rga_reg), GFP_KERNEL);\r
396         if (NULL == reg) {\r
397                 pr_err("kmalloc fail in rga_reg_init\n");\r
398                 return NULL;\r
399         }\r
400 \r
401     reg->session = session;\r
402         INIT_LIST_HEAD(&reg->session_link);\r
403         INIT_LIST_HEAD(&reg->status_link);\r
404 \r
405     //memcpy(&reg->req, req, sizeof(struct rga_req));\r
406 \r
407     reg->MMU_base = NULL;\r
408 \r
409     if (req->mmu_info.mmu_en)\r
410     {\r
411         ret = rga_set_mmu_info(reg, req);\r
412         if(ret < 0)\r
413         {\r
414             printk("%s, [%d] set mmu info error \n", __FUNCTION__, __LINE__);\r
415             if(reg != NULL)\r
416             {\r
417                 kfree(reg);\r
418             }\r
419             return NULL;\r
420         }\r
421     }\r
422 \r
423     if(RGA_gen_reg_info(req, (uint8_t *)reg->cmd_reg) == -1)\r
424     {\r
425         printk("gen reg info error\n");\r
426         if(reg != NULL)\r
427         {\r
428             kfree(reg);\r
429         }\r
430         return NULL;\r
431     }\r
432 \r
433     mutex_lock(&rga_service.lock);\r
434         list_add_tail(&reg->status_link, &rga_service.waiting);\r
435         list_add_tail(&reg->session_link, &session->waiting);\r
436         mutex_unlock(&rga_service.lock);\r
437 \r
438     return reg;\r
439 }\r
440 \r
441 static struct rga_reg * rga_reg_init_2(rga_session *session, struct rga_req *req0, struct rga_req *req1)\r
442 {\r
443     uint32_t ret;\r
444 \r
445     struct rga_reg *reg0, *reg1;\r
446 \r
447     reg0 = NULL;\r
448     reg1 = NULL;\r
449 \r
450     do\r
451     {\r
452         reg0 = kzalloc(sizeof(struct rga_reg), GFP_KERNEL);\r
453         if (NULL == reg0) {\r
454                 pr_err("%s [%d] kmalloc fail in rga_reg_init\n", __FUNCTION__, __LINE__);\r
455             break;\r
456         }\r
457 \r
458         reg1 = kzalloc(sizeof(struct rga_reg), GFP_KERNEL);\r
459         if (NULL == reg1) {\r
460                 pr_err("%s [%d] kmalloc fail in rga_reg_init\n", __FUNCTION__, __LINE__);\r
461             break;\r
462         }\r
463 \r
464         reg0->session = session;\r
465         INIT_LIST_HEAD(&reg0->session_link);\r
466         INIT_LIST_HEAD(&reg0->status_link);\r
467 \r
468         reg1->session = session;\r
469         INIT_LIST_HEAD(&reg1->session_link);\r
470         INIT_LIST_HEAD(&reg1->status_link);\r
471 \r
472         //memcpy(&reg0->req, req0, sizeof(struct rga_req));\r
473         //memcpy(&reg1->req, req1, sizeof(struct rga_req));\r
474 \r
475         if(req0->mmu_info.mmu_en)\r
476         {\r
477             ret = rga_set_mmu_info(reg0, req0);\r
478             if(ret < 0) {\r
479                 printk("%s, [%d] set mmu info error \n", __FUNCTION__, __LINE__);\r
480                 break;\r
481             }\r
482         }\r
483 \r
484         RGA_gen_reg_info(req0, (uint8_t *)reg0->cmd_reg);\r
485 \r
486         if(req1->mmu_info.mmu_en)\r
487         {\r
488             ret = rga_set_mmu_info(reg1, req1);\r
489             if(ret < 0) {\r
490                 printk("%s, [%d] set mmu info error \n", __FUNCTION__, __LINE__);\r
491                 break;\r
492             }\r
493         }\r
494 \r
495         RGA_gen_reg_info(req1, (uint8_t *)reg1->cmd_reg);\r
496 \r
497         mutex_lock(&rga_service.lock);\r
498         list_add_tail(&reg0->status_link, &rga_service.waiting);\r
499         list_add_tail(&reg0->session_link, &session->waiting);\r
500         list_add_tail(&reg1->status_link, &rga_service.waiting);\r
501         list_add_tail(&reg1->session_link, &session->waiting);\r
502         mutex_unlock(&rga_service.lock);\r
503 \r
504         return reg1;\r
505     }\r
506     while(0);\r
507 \r
508     if(reg0 != NULL) {\r
509         kfree(reg0);\r
510     }\r
511 \r
512     if(reg1 != NULL) {\r
513         kfree(reg1);\r
514     }\r
515 \r
516     return NULL;\r
517 }\r
518 \r
519 /* Caller must hold rga_service.lock */\r
520 static void rga_reg_deinit(struct rga_reg *reg)\r
521 {\r
522         list_del_init(&reg->session_link);\r
523         list_del_init(&reg->status_link);\r
524         kfree(reg);\r
525 }\r
526 \r
527 /* Caller must hold rga_service.lock */\r
528 static void rga_reg_from_wait_to_run(struct rga_reg *reg)\r
529 {\r
530         list_del_init(&reg->status_link);\r
531         list_add_tail(&reg->status_link, &rga_service.running);\r
532 \r
533         list_del_init(&reg->session_link);\r
534         list_add_tail(&reg->session_link, &reg->session->running);\r
535 }\r
536 \r
537 /* Caller must hold rga_service.lock */\r
538 static void rga_service_session_clear(rga_session *session)\r
539 {\r
540         struct rga_reg *reg, *n;\r
541 \r
542     list_for_each_entry_safe(reg, n, &session->waiting, session_link)\r
543     {\r
544                 rga_reg_deinit(reg);\r
545         }\r
546 \r
547     list_for_each_entry_safe(reg, n, &session->running, session_link)\r
548     {\r
549                 rga_reg_deinit(reg);\r
550         }\r
551 }\r
552 \r
553 /* Caller must hold rga_service.lock */\r
554 static void rga_try_set_reg(void)\r
555 {\r
556     struct rga_reg *reg ;\r
557 \r
558     if (list_empty(&rga_service.running))\r
559     {\r
560         if (!list_empty(&rga_service.waiting))\r
561         {\r
562             /* RGA is idle */\r
563             reg = list_entry(rga_service.waiting.next, struct rga_reg, status_link);\r
564 \r
565             rga_power_on();\r
566             udelay(3);\r
567 \r
568             rga_copy_reg(reg, 0);\r
569             rga_reg_from_wait_to_run(reg);\r
570 \r
571             dmac_flush_range(&rga_service.cmd_buff[0], &rga_service.cmd_buff[28]);\r
572             outer_flush_range(virt_to_phys(&rga_service.cmd_buff[0]),virt_to_phys(&rga_service.cmd_buff[28]));\r
573 \r
574             rga_soft_reset();\r
575             rga_write(0, RGA_MMU_CTRL);\r
576 \r
577             /* CMD buff */\r
578             rga_write(virt_to_phys(rga_service.cmd_buff), RGA_CMD_ADDR);\r
579 \r
580 #if RGA_TEST\r
581             {\r
582                 //printk(KERN_DEBUG "cmd_addr = %.8x\n", rga_read(RGA_CMD_ADDR));\r
583                 uint32_t i;\r
584                 uint32_t *p;\r
585                 p = rga_service.cmd_buff;\r
586                 printk(KERN_DEBUG "CMD_REG\n");\r
587                 for (i=0; i<7; i++)\r
588                     printk("%.8x %.8x %.8x %.8x\n", p[0 + i*4], p[1+i*4], p[2 + i*4], p[3 + i*4]);\r
589             }\r
590 #endif\r
591 \r
592             /* master mode */\r
593             rga_write((0x1<<2)|(0x1<<3), RGA_SYS_CTRL);\r
594 \r
595             /* All CMD finish int */\r
596             rga_write(rga_read(RGA_INT)|(0x1<<10)|(0x1<<8), RGA_INT);\r
597 \r
598             /* Start proc */\r
599             atomic_set(&reg->session->done, 0);\r
600             rga_write(0x1, RGA_CMD_CTRL);\r
601 \r
602 #if RGA_TEST\r
603             {\r
604                 uint32_t i;\r
605                 printk(KERN_DEBUG "CMD_READ_BACK_REG\n");\r
606                 for (i=0; i<7; i++)\r
607                     printk(KERN_DEBUG "%.8x %.8x %.8x %.8x\n", rga_read(0x100 + i*16 + 0),\r
608                             rga_read(0x100 + i*16 + 4), rga_read(0x100 + i*16 + 8), rga_read(0x100 + i*16 + 12));\r
609             }\r
610 #endif\r
611         }\r
612         else\r
613         {\r
614 //          rga_power_off();\r
615         }\r
616     }\r
617 }\r
618 \r
619 \r
620 #if RGA_TEST\r
621 static void print_info(struct rga_req *req)\r
622 {\r
623     printk("src.yrgb_addr = %.8x, src.uv_addr = %.8x, src.v_addr = %.8x\n",\r
624             req->src.yrgb_addr, req->src.uv_addr, req->src.v_addr);\r
625     printk("src : act_w = %d, act_h = %d, vir_w = %d, vir_h = %d\n",\r
626         req->src.act_w, req->src.act_h, req->src.vir_w, req->src.vir_h);\r
627     printk("src : x_offset = %.8x y_offset = %.8x\n", req->src.x_offset, req->src.y_offset);\r
628 \r
629     printk("dst.yrgb_addr = %.8x, dst.uv_addr = %.8x, dst.v_addr = %.8x\n",\r
630             req->dst.yrgb_addr, req->dst.uv_addr, req->dst.v_addr);\r
631     printk("dst : x_offset = %.8x y_offset = %.8x\n", req->dst.x_offset, req->dst.y_offset);\r
632     printk("dst : act_w = %d, act_h = %d, vir_w = %d, vir_h = %d\n",\r
633         req->dst.act_w, req->dst.act_h, req->dst.vir_w, req->dst.vir_h);\r
634 \r
635     printk("clip.xmin = %d, clip.xmax = %d. clip.ymin = %d, clip.ymax = %d\n",\r
636         req->clip.xmin, req->clip.xmax, req->clip.ymin, req->clip.ymax);\r
637 }\r
638 #endif\r
639 \r
640 /* Caller must hold rga_service.lock */\r
641 static void rga_del_running_list(void)\r
642 {\r
643     struct rga_reg *reg;\r
644 \r
645     while(!list_empty(&rga_service.running))\r
646     {\r
647         reg = list_entry(rga_service.running.next, struct rga_reg, status_link);\r
648 \r
649         if(reg->MMU_base != NULL)\r
650         {\r
651             kfree(reg->MMU_base);\r
652             reg->MMU_base = NULL;\r
653         }\r
654         atomic_sub(1, &reg->session->task_running);\r
655         atomic_sub(1, &rga_service.total_running);\r
656 \r
657         if(list_empty(&reg->session->waiting))\r
658         {\r
659             atomic_set(&reg->session->done, 1);\r
660             wake_up_interruptible_sync(&reg->session->wait);\r
661         }\r
662 \r
663         rga_reg_deinit(reg);\r
664     }\r
665 }\r
666 \r
667 /* Caller must hold rga_service.lock */\r
668 static void rga_del_running_list_timeout(void)\r
669 {\r
670     struct rga_reg *reg;\r
671 \r
672     while(!list_empty(&rga_service.running))\r
673     {\r
674         reg = list_entry(rga_service.running.next, struct rga_reg, status_link);\r
675 \r
676         if(reg->MMU_base != NULL)\r
677         {\r
678             kfree(reg->MMU_base);\r
679         }\r
680 \r
681         atomic_sub(1, &reg->session->task_running);\r
682         atomic_sub(1, &rga_service.total_running);\r
683 \r
684 \r
685         #if 0\r
686         printk("RGA_INT is %.8x\n", rga_read(RGA_INT));\r
687         printk("reg->session->task_running = %d\n", atomic_read(&reg->session->task_running));\r
688         printk("rga_service.total_running  = %d\n", atomic_read(&rga_service.total_running));\r
689 \r
690         print_info(&reg->req);\r
691 \r
692         {\r
693             uint32_t *p, i;\r
694             p = reg->cmd_reg;\r
695             for (i=0; i<7; i++)\r
696                 printk("%.8x %.8x %.8x %.8x\n", p[0 + i*4], p[1+i*4], p[2 + i*4], p[3 + i*4]);\r
697 \r
698         }\r
699         #endif\r
700 \r
701         if(list_empty(&reg->session->waiting))\r
702         {\r
703             atomic_set(&reg->session->done, 1);\r
704             wake_up_interruptible_sync(&reg->session->wait);\r
705         }\r
706 \r
707         rga_reg_deinit(reg);\r
708     }\r
709 }\r
710 \r
711 \r
712 static void rga_mem_addr_sel(struct rga_req *req)\r
713 {\r
714     switch(req->src.format)\r
715     {\r
716         case RK_FORMAT_YCbCr_422_SP:\r
717             break;\r
718         case RK_FORMAT_YCbCr_422_P :\r
719             break;\r
720         case RK_FORMAT_YCbCr_420_SP :\r
721             if((req->src.yrgb_addr > 0xc0000000) && (req->src.uv_addr > 0xc0000000)\r
722                 && (req->dst.yrgb_addr > 0xc0000000))\r
723             {\r
724                 req->src.yrgb_addr = req->src.yrgb_addr - 0x60000000;\r
725                 req->src.uv_addr = req->src.uv_addr - 0x60000000;\r
726                 req->dst.yrgb_addr = req->dst.yrgb_addr - 0x60000000;\r
727                 req->mmu_info.mmu_en = 0;\r
728                 req->mmu_info.mmu_flag &= 0xfffe;\r
729             }\r
730             break;\r
731         case RK_FORMAT_YCbCr_420_P :\r
732             break;\r
733         case RK_FORMAT_YCrCb_422_SP :\r
734             break;\r
735         case RK_FORMAT_YCrCb_422_P :\r
736             break;\r
737         case RK_FORMAT_YCrCb_420_SP :\r
738             break;\r
739         case RK_FORMAT_YCrCb_420_P :\r
740             break;\r
741         default :\r
742             break;\r
743     }\r
744 \r
745 }\r
746 \r
747 \r
748 static int rga_blit(rga_session *session, struct rga_req *req)\r
749 {\r
750     int ret = -1;\r
751     int num = 0;\r
752     struct rga_reg *reg;\r
753     struct rga_req *req2;\r
754 \r
755     uint32_t saw, sah, daw, dah;\r
756 \r
757     req2 = NULL;\r
758 \r
759     saw = req->src.act_w;\r
760     sah = req->src.act_h;\r
761     daw = req->dst.act_w;\r
762     dah = req->dst.act_h;\r
763 \r
764     do\r
765     {\r
766         if((req->render_mode == bitblt_mode) && (((saw>>1) >= daw) || ((sah>>1) >= dah)))\r
767         {\r
768             /* generate 2 cmd for pre scale */\r
769             req2 = kzalloc(sizeof(struct rga_req), GFP_KERNEL);\r
770             if(NULL == req2) {\r
771                 return -EFAULT;\r
772             }\r
773 \r
774             ret = rga_check_param(req);\r
775                 if(ret == -EINVAL) {\r
776                 printk("req 0 argument is inval\n");\r
777                 break;\r
778                 }\r
779 \r
780             ret = RGA_gen_two_pro(req, req2);\r
781             if(ret == -EINVAL) {\r
782                 break;\r
783             }\r
784 \r
785             ret = rga_check_param(req);\r
786                 if(ret == -EINVAL) {\r
787                 printk("req 1 argument is inval\n");\r
788                 break;\r
789                 }\r
790 \r
791             ret = rga_check_param(req2);\r
792                 if(ret == -EINVAL) {\r
793                 printk("req 2 argument is inval\n");\r
794                 break;\r
795                 }\r
796 \r
797             reg = rga_reg_init_2(session, req, req2);\r
798             if(reg == NULL) {\r
799                 break;\r
800             }\r
801             num = 2;\r
802 \r
803             if(NULL != req2)\r
804             {\r
805                 kfree(req2);\r
806             }\r
807         }\r
808         else\r
809         {\r
810             /* check value if legal */\r
811             ret = rga_check_param(req);\r
812                 if(ret == -EINVAL) {\r
813                 printk("req argument is inval\n");\r
814                 break;\r
815                 }\r
816 \r
817             if(req->render_mode == bitblt_mode)\r
818             {\r
819                 rga_mem_addr_sel(req);\r
820             }\r
821 \r
822             reg = rga_reg_init(session, req);\r
823             if(reg == NULL) {\r
824                 break;\r
825             }\r
826             num = 1;\r
827         }\r
828 \r
829         mutex_lock(&rga_service.lock);\r
830         atomic_add(num, &rga_service.total_running);\r
831         rga_try_set_reg();\r
832         mutex_unlock(&rga_service.lock);\r
833 \r
834         return 0;\r
835     }\r
836     while(0);\r
837 \r
838     if(NULL != req2)\r
839     {\r
840         kfree(req2);\r
841     }\r
842 \r
843     return -EFAULT;\r
844 }\r
845 \r
846 static int rga_blit_async(rga_session *session, struct rga_req *req)\r
847 {\r
848         int ret = -1;\r
849 \r
850     #if RGA_TEST\r
851     printk("*** rga_blit_async proc ***\n");\r
852     print_info(req);\r
853     #endif\r
854 \r
855     ret = rga_blit(session, req);\r
856 \r
857     return ret;\r
858 }\r
859 \r
860 static int rga_blit_sync(rga_session *session, struct rga_req *req)\r
861 {\r
862     int ret = -1;\r
863     int ret_timeout = 0;\r
864 \r
865     #if RGA_TEST\r
866     printk("*** rga_blit_sync proc ***\n");\r
867     print_info(req);\r
868     #endif\r
869 \r
870     #if RGA_TEST_TIME\r
871     rga_start = ktime_get();\r
872     #endif\r
873 \r
874     ret = rga_blit(session, req);\r
875 \r
876     ret_timeout = wait_event_interruptible_timeout(session->wait, atomic_read(&session->done), RGA_TIMEOUT_DELAY);\r
877 \r
878     if (unlikely(ret_timeout< 0))\r
879     {\r
880                 pr_err("sync pid %d wait task ret %d\n", session->pid, ret_timeout);\r
881         mutex_lock(&rga_service.lock);\r
882         rga_del_running_list();\r
883         mutex_unlock(&rga_service.lock);\r
884         ret = -ETIMEDOUT;\r
885         }\r
886     else if (0 == ret_timeout)\r
887     {\r
888                 pr_err("sync pid %d wait %d task done timeout\n", session->pid, atomic_read(&session->task_running));\r
889         mutex_lock(&rga_service.lock);\r
890         rga_del_running_list_timeout();\r
891         rga_try_set_reg();\r
892         mutex_unlock(&rga_service.lock);\r
893                 ret = -ETIMEDOUT;\r
894         }\r
895 \r
896     #if RGA_TEST_TIME\r
897     rga_end = ktime_get();\r
898     rga_end = ktime_sub(rga_end, rga_start);\r
899     printk("sync one cmd end time %d\n", (int)ktime_to_us(rga_end));\r
900     #endif\r
901 \r
902     return ret;\r
903 }\r
904 \r
905 \r
906 static long rga_ioctl(struct file *file, uint32_t cmd, unsigned long arg)\r
907 {\r
908     struct rga_req *req;\r
909         int ret = 0;\r
910     rga_session *session = (rga_session *)file->private_data;\r
911 \r
912         if (NULL == session)\r
913     {\r
914         printk("%s [%d] rga thread session is null\n",__FUNCTION__,__LINE__);\r
915                 return -EINVAL;\r
916         }\r
917 \r
918     req = kzalloc(sizeof(struct rga_req), GFP_KERNEL);\r
919     if(req == NULL)\r
920     {\r
921         printk("%s [%d] get rga_req mem failed\n",__FUNCTION__,__LINE__);\r
922         return -EINVAL;\r
923     }\r
924 \r
925         mutex_lock(&rga_service.mutex);\r
926 \r
927         switch (cmd)\r
928         {\r
929                 case RGA_BLIT_SYNC:\r
930                 if (unlikely(copy_from_user(req, (struct rga_req*)arg, sizeof(struct rga_req))))\r
931             {\r
932                         ERR("copy_from_user failed\n");\r
933                         ret = -EFAULT;\r
934                 break;\r
935                 }\r
936             ret = rga_blit_sync(session, req);\r
937             break;\r
938                 case RGA_BLIT_ASYNC:\r
939                 if (unlikely(copy_from_user(req, (struct rga_req*)arg, sizeof(struct rga_req))))\r
940             {\r
941                         ERR("copy_from_user failed\n");\r
942                         ret = -EFAULT;\r
943                 break;\r
944                 }\r
945 \r
946             if((atomic_read(&rga_service.total_running) > 16))\r
947             {\r
948                             ret = rga_blit_sync(session, req);\r
949             }\r
950             else\r
951             {\r
952                 ret = rga_blit_async(session, req);\r
953             }\r
954                         break;\r
955                 case RGA_FLUSH:\r
956                         ret = rga_flush(session, arg);\r
957                         break;\r
958         case RGA_GET_RESULT:\r
959             ret = rga_get_result(session, arg);\r
960             break;\r
961         case RGA_GET_VERSION:\r
962             ret = copy_to_user((void *)arg, RGA_VERSION, sizeof(RGA_VERSION));\r
963             //ret = 0;\r
964             break;\r
965                 default:\r
966                         ERR("unknown ioctl cmd!\n");\r
967                         ret = -EINVAL;\r
968                         break;\r
969         }\r
970 \r
971         mutex_unlock(&rga_service.mutex);\r
972 \r
973         kfree(req);\r
974 \r
975         return ret;\r
976 }\r
977 \r
978 static int rga_open(struct inode *inode, struct file *file)\r
979 {\r
980     rga_session *session = kzalloc(sizeof(rga_session), GFP_KERNEL);\r
981         if (NULL == session) {\r
982                 pr_err("unable to allocate memory for rga_session.");\r
983                 return -ENOMEM;\r
984         }\r
985 \r
986         session->pid = current->pid;\r
987     //printk(KERN_DEBUG  "+");\r
988 \r
989         INIT_LIST_HEAD(&session->waiting);\r
990         INIT_LIST_HEAD(&session->running);\r
991         INIT_LIST_HEAD(&session->list_session);\r
992         init_waitqueue_head(&session->wait);\r
993         mutex_lock(&rga_service.lock);\r
994         list_add_tail(&session->list_session, &rga_service.session);\r
995         mutex_unlock(&rga_service.lock);\r
996         atomic_set(&session->task_running, 0);\r
997     atomic_set(&session->num_done, 0);\r
998 \r
999         file->private_data = (void *)session;\r
1000 \r
1001     //DBG("*** rga dev opened by pid %d *** \n", session->pid);\r
1002         return nonseekable_open(inode, file);\r
1003 \r
1004 }\r
1005 \r
1006 static int rga_release(struct inode *inode, struct file *file)\r
1007 {\r
1008     int task_running;\r
1009         rga_session *session = (rga_session *)file->private_data;\r
1010         if (NULL == session)\r
1011                 return -EINVAL;\r
1012     //printk(KERN_DEBUG  "-");\r
1013         task_running = atomic_read(&session->task_running);\r
1014 \r
1015     if (task_running)\r
1016     {\r
1017                 pr_err("rga_service session %d still has %d task running when closing\n", session->pid, task_running);\r
1018                 msleep(100);\r
1019         /*ͬ²½*/\r
1020         }\r
1021 \r
1022         wake_up_interruptible_sync(&session->wait);\r
1023         mutex_lock(&rga_service.lock);\r
1024         list_del(&session->list_session);\r
1025         rga_service_session_clear(session);\r
1026         kfree(session);\r
1027         mutex_unlock(&rga_service.lock);\r
1028 \r
1029     //DBG("*** rga dev close ***\n");\r
1030         return 0;\r
1031 }\r
1032 \r
1033 static irqreturn_t rga_irq_thread(int irq, void *dev_id)\r
1034 {\r
1035         mutex_lock(&rga_service.lock);\r
1036         if (rga_service.enable) {\r
1037                 rga_del_running_list();\r
1038                 rga_try_set_reg();\r
1039         }\r
1040         mutex_unlock(&rga_service.lock);\r
1041 \r
1042         return IRQ_HANDLED;\r
1043 }\r
1044 \r
1045 static irqreturn_t rga_irq(int irq,  void *dev_id)\r
1046 {\r
1047         /*clear INT */\r
1048         rga_write(rga_read(RGA_INT) | (0x1<<6) | (0x1<<7) | (0x1<<4), RGA_INT);\r
1049 \r
1050         return IRQ_WAKE_THREAD;\r
1051 }\r
1052 \r
1053 struct file_operations rga_fops = {\r
1054         .owner          = THIS_MODULE,\r
1055         .open           = rga_open,\r
1056         .release        = rga_release,\r
1057         .unlocked_ioctl         = rga_ioctl,\r
1058 };\r
1059 \r
1060 static struct miscdevice rga_dev ={\r
1061     .minor = RGA_MAJOR,\r
1062     .name  = "rga",\r
1063     .fops  = &rga_fops,\r
1064 };\r
1065 \r
1066 static int __devinit rga_drv_probe(struct platform_device *pdev)\r
1067 {\r
1068         struct rga_drvdata *data;\r
1069         int ret = 0;\r
1070 \r
1071         INIT_LIST_HEAD(&rga_service.waiting);\r
1072         INIT_LIST_HEAD(&rga_service.running);\r
1073         INIT_LIST_HEAD(&rga_service.done);\r
1074         INIT_LIST_HEAD(&rga_service.session);\r
1075         mutex_init(&rga_service.lock);\r
1076         mutex_init(&rga_service.mutex);\r
1077         atomic_set(&rga_service.total_running, 0);\r
1078         atomic_set(&rga_service.src_format_swt, 0);\r
1079         rga_service.last_prc_src_format = 1; /* default is yuv first*/\r
1080         rga_service.enable = false;\r
1081 \r
1082         data = kzalloc(sizeof(struct rga_drvdata), GFP_KERNEL);\r
1083         if(NULL == data)\r
1084         {\r
1085                 ERR("failed to allocate driver data.\n");\r
1086                 return -ENOMEM;\r
1087         }\r
1088 \r
1089         INIT_DELAYED_WORK(&data->power_off_work, rga_power_off_work);\r
1090         wake_lock_init(&data->wake_lock, WAKE_LOCK_SUSPEND, "rga");\r
1091 \r
1092         data->pd_rga = clk_get(NULL, "pd_rga");\r
1093         data->aclk_rga = clk_get(NULL, "aclk_rga");\r
1094         data->hclk_rga = clk_get(NULL, "hclk_rga");\r
1095 \r
1096         /* map the memory */\r
1097         if (!request_mem_region(RK30_RGA_PHYS, RK30_RGA_SIZE, "rga_io"))\r
1098         {\r
1099                 pr_info("failed to reserve rga HW regs\n");\r
1100                 return -EBUSY;\r
1101         }\r
1102         data->rga_base = (void*)ioremap_nocache(RK30_RGA_PHYS, RK30_RGA_SIZE);\r
1103         if (data->rga_base == NULL)\r
1104         {\r
1105                 ERR("rga ioremap failed\n");\r
1106                 ret = -ENOENT;\r
1107                 goto err_ioremap;\r
1108         }\r
1109 \r
1110         /* get the IRQ */\r
1111         data->irq = platform_get_irq(pdev, 0);\r
1112         if (data->irq <= 0)\r
1113         {\r
1114                 ERR("failed to get rga irq resource (%d).\n", data->irq);\r
1115                 ret = data->irq;\r
1116                 goto err_irq;\r
1117         }\r
1118 \r
1119         /* request the IRQ */\r
1120         ret = request_threaded_irq(data->irq, rga_irq, rga_irq_thread, 0, "rga", pdev);\r
1121         if (ret)\r
1122         {\r
1123                 ERR("rga request_irq failed (%d).\n", ret);\r
1124                 goto err_irq;\r
1125         }\r
1126 \r
1127         platform_set_drvdata(pdev, data);\r
1128         drvdata = data;\r
1129 \r
1130         ret = misc_register(&rga_dev);\r
1131         if(ret)\r
1132         {\r
1133                 ERR("cannot register miscdev (%d)\n", ret);\r
1134                 goto err_misc_register;\r
1135         }\r
1136 \r
1137         pr_info("Driver loaded succesfully\n");\r
1138 \r
1139         return 0;\r
1140 \r
1141 err_misc_register:\r
1142         free_irq(data->irq, pdev);\r
1143 err_irq:\r
1144         iounmap(data->rga_base);\r
1145 err_ioremap:\r
1146         wake_lock_destroy(&data->wake_lock);\r
1147         kfree(data);\r
1148 \r
1149         return ret;\r
1150 }\r
1151 \r
1152 static int rga_drv_remove(struct platform_device *pdev)\r
1153 {\r
1154         struct rga_drvdata *data = platform_get_drvdata(pdev);\r
1155         DBG("%s [%d]\n",__FUNCTION__,__LINE__);\r
1156 \r
1157         wake_lock_destroy(&data->wake_lock);\r
1158         misc_deregister(&(data->miscdev));\r
1159         free_irq(data->irq, &data->miscdev);\r
1160         iounmap((void __iomem *)(data->rga_base));\r
1161 \r
1162         clk_put(data->pd_rga);\r
1163         clk_put(data->aclk_rga);\r
1164         clk_put(data->hclk_rga);\r
1165 \r
1166         kfree(data);\r
1167         return 0;\r
1168 }\r
1169 \r
1170 static struct platform_driver rga_driver = {\r
1171         .probe          = rga_drv_probe,\r
1172         .remove         = __devexit_p(rga_drv_remove),\r
1173         .driver         = {\r
1174                 .owner  = THIS_MODULE,\r
1175                 .name   = "rga",\r
1176         },\r
1177 };\r
1178 \r
1179 \r
1180 void rga_test_0(void);\r
1181 void rga_test_1(void);\r
1182 \r
1183 \r
1184 static int __init rga_init(void)\r
1185 {\r
1186         int ret;\r
1187     uint32_t *mmu_buf;\r
1188     uint32_t i;\r
1189     uint32_t *buf_p;\r
1190 \r
1191     /* malloc pre scale mid buf mmu table */\r
1192     mmu_buf = kzalloc(1024*8, GFP_KERNEL);\r
1193     if(mmu_buf == NULL)\r
1194     {\r
1195         printk(KERN_ERR "RGA get Pre Scale buff failed. \n");\r
1196         return -1;\r
1197     }\r
1198 \r
1199     /* malloc 8 M buf */\r
1200     for(i=0; i<2048; i++)\r
1201     {\r
1202         buf_p = (uint32_t *)__get_free_page(GFP_KERNEL|__GFP_ZERO);\r
1203         if(buf_p == NULL)\r
1204         {\r
1205             printk(KERN_ERR "RGA init pre scale buf falied\n");\r
1206             return -ENOMEM;\r
1207         }\r
1208 \r
1209         mmu_buf[i] = virt_to_phys((void *)((uint32_t)buf_p));\r
1210     }\r
1211 \r
1212     rga_service.pre_scale_buf = (uint32_t *)mmu_buf;\r
1213 \r
1214         if ((ret = platform_driver_register(&rga_driver)) != 0)\r
1215         {\r
1216         printk(KERN_ERR "Platform device register failed (%d).\n", ret);\r
1217                         return ret;\r
1218         }\r
1219 \r
1220     //rga_test_0();\r
1221 \r
1222         INFO("Module initialized.\n");\r
1223 \r
1224         return 0;\r
1225 }\r
1226 \r
1227 static void __exit rga_exit(void)\r
1228 {\r
1229     uint32_t i;\r
1230 \r
1231     rga_power_off();\r
1232 \r
1233     for(i=0; i<2048; i++)\r
1234     {\r
1235         if((uint32_t *)rga_service.pre_scale_buf[i] != NULL)\r
1236         {\r
1237             __free_page((void *)rga_service.pre_scale_buf[i]);\r
1238         }\r
1239     }\r
1240 \r
1241     if(rga_service.pre_scale_buf != NULL) {\r
1242         kfree((uint8_t *)rga_service.pre_scale_buf);\r
1243     }\r
1244         platform_driver_unregister(&rga_driver);\r
1245 }\r
1246 \r
1247 \r
1248 #if 0\r
1249 \r
1250 extern struct fb_info * rk_get_fb(int fb_id);\r
1251 EXPORT_SYMBOL(rk_get_fb);\r
1252 \r
1253 extern void rk_direct_fb_show(struct fb_info * fbi);\r
1254 EXPORT_SYMBOL(rk_direct_fb_show);\r
1255 \r
1256 unsigned int src_buf[1920*1080];\r
1257 unsigned int dst_buf[1920*1080];\r
1258 \r
1259 void rga_test_0(void)\r
1260 {\r
1261     struct rga_req req;\r
1262     rga_session session;\r
1263     unsigned int *src, *dst;\r
1264 \r
1265     struct fb_info *fb;\r
1266 \r
1267     session.pid = current->pid;\r
1268         INIT_LIST_HEAD(&session.waiting);\r
1269         INIT_LIST_HEAD(&session.running);\r
1270         INIT_LIST_HEAD(&session.list_session);\r
1271         init_waitqueue_head(&session.wait);\r
1272         /* no need to protect */\r
1273         list_add_tail(&session.list_session, &rga_service.session);\r
1274         atomic_set(&session.task_running, 0);\r
1275     atomic_set(&session.num_done, 0);\r
1276         //file->private_data = (void *)session;\r
1277 \r
1278     fb = rk_get_fb(0);\r
1279 \r
1280     memset(&req, 0, sizeof(struct rga_req));\r
1281     src = Y4200_320_240_swap0;\r
1282     dst = dst_buf;\r
1283 \r
1284     //memset(src_buf, 0x80, 1920*1080*4);\r
1285 \r
1286     //dmac_flush_range(&src_buf[0], &src_buf[1920*1080]);\r
1287     //outer_flush_range(virt_to_phys(&src_buf[0]),virt_to_phys(&src_buf[1024*1024]));\r
1288 \r
1289     #if 0\r
1290     memset(src_buf, 0x80, 800*480*4);\r
1291     memset(dst_buf, 0xcc, 800*480*4);\r
1292 \r
1293     dmac_flush_range(&dst_buf[0], &dst_buf[800*480]);\r
1294     outer_flush_range(virt_to_phys(&dst_buf[0]),virt_to_phys(&dst_buf[800*480]));\r
1295     #endif\r
1296 \r
1297     req.src.act_w = 320;\r
1298     req.src.act_h = 240;\r
1299 \r
1300     req.src.vir_w = 320;\r
1301     req.src.vir_h = 240;\r
1302     req.src.yrgb_addr = (uint32_t)src;\r
1303     req.src.uv_addr = (uint32_t)UV4200_320_240_swap0;\r
1304     req.src.v_addr = (uint32_t)V4200_320_240_swap0;\r
1305     req.src.format = RK_FORMAT_YCbCr_420_SP;\r
1306 \r
1307     req.dst.act_w = 1280;\r
1308     req.dst.act_h = 800;\r
1309 \r
1310     req.dst.vir_w = 1280;\r
1311     req.dst.vir_h = 800;\r
1312     req.dst.x_offset = 0;\r
1313     req.dst.y_offset = 0;\r
1314     req.dst.yrgb_addr = (uint32_t)dst;\r
1315 \r
1316     //req.dst.format = RK_FORMAT_RGB_565;\r
1317 \r
1318     req.clip.xmin = 0;\r
1319     req.clip.xmax = 1279;\r
1320     req.clip.ymin = 0;\r
1321     req.clip.ymax = 799;\r
1322 \r
1323     //req.render_mode = color_fill_mode;\r
1324     //req.fg_color = 0x80ffffff;\r
1325 \r
1326     req.rotate_mode = 1;\r
1327     req.scale_mode = 2;\r
1328 \r
1329     //req.alpha_rop_flag = 0;\r
1330     //req.alpha_rop_mode = 0x1;\r
1331 \r
1332     req.sina = 0;\r
1333     req.cosa = 65536;\r
1334 \r
1335     req.mmu_info.mmu_flag = 0x21;\r
1336     req.mmu_info.mmu_en = 1;\r
1337 \r
1338     rga_blit_sync(&session, &req);\r
1339 \r
1340     fb->var.bits_per_pixel = 32;\r
1341 \r
1342     fb->var.xres = 1280;\r
1343     fb->var.yres = 800;\r
1344 \r
1345     fb->var.red.length = 8;\r
1346     fb->var.red.offset = 0;\r
1347     fb->var.red.msb_right = 0;\r
1348 \r
1349     fb->var.green.length = 8;\r
1350     fb->var.green.offset = 8;\r
1351     fb->var.green.msb_right = 0;\r
1352 \r
1353     fb->var.blue.length = 8;\r
1354 \r
1355     fb->var.blue.offset = 16;\r
1356     fb->var.blue.msb_right = 0;\r
1357 \r
1358     fb->var.transp.length = 8;\r
1359     fb->var.transp.offset = 24;\r
1360     fb->var.transp.msb_right = 0;\r
1361 \r
1362     fb->var.nonstd &= (~0xff);\r
1363     fb->var.nonstd |= 1;\r
1364 \r
1365     fb->fix.smem_start = virt_to_phys(dst);\r
1366 \r
1367     rk_direct_fb_show(fb);\r
1368 \r
1369 }\r
1370 \r
1371 #endif\r
1372 module_init(rga_init);\r
1373 module_exit(rga_exit);\r
1374 \r
1375 /* Module information */\r
1376 MODULE_AUTHOR("zsq@rock-chips.com");\r
1377 MODULE_DESCRIPTION("Driver for rga device");\r
1378 MODULE_LICENSE("GPL");\r