原始项目分支(torch推理,ncnn推理等):master
-
python3.6
-
linux/macos/windows
cd chineseocr_lite ## 进入chineseocr目录
pip3 install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
python3 backend/main.py 在线演示地址: chineseocr_lite
POST 方式调用, 请求地址: http://www.cnocrlite.com/api/tr-run/
请求参数:
img : 图片的base64
import base64
url = "http://www.cnocrlite.com/api/tr-run/"
f = open(img, "rb")
base64_data = base64.b64encode(f.read()).decode("utf-8")
data = {
"img": base64_data
}
resp = requests.post(url, data=data)
resp = resp.text
print(resp)// header
HttpHeaders headers = new HttpHeaders();
headers.setContentType(MediaType.MULTIPART_FORM_DATA);
// body
MultiValueMap<String, Object> body = new LinkedMultiValueMap<>();
body.add("img", Base64.getEncoder().encodeToString(Files.readAllBytes(outputFile.toPath())));
// 发送请求
ResponseEntity<String> entity = new RestTemplate().postForEntity(
"http://www.cnocrlite.com/api/tr-run/",
new HttpEntity<>(body, headers),
String.class
);一群已满
二群已满
三群: 904091319
** 注意:以下各种demo均相互独立,只是同一个程序的不同版本 **
- onnxruntime C++ demo,支持Windows、linux、macOS,目前仅支持cpu计算;
- ncnn C++ demo,支持Windows、linux、macOS,分为cpu版与gpu版,gpu版使用ncnn+vulkan来支持gpu加速;
- MNN C++ demo, 支持 windows、linux、macOs,目前仅支持cpu计算;
- onnxruntime jvm demo: 以onnxruntime C++为基础,编译成jni供java或kotlin调用;
- ncnn jvm demo: 以ncnn C++为基础,编译成jni供java或kotlin调用,同样分为cpu版与gpu版;
- onnxruntime android demo: 以onnxruntime C++为基础,整合为一个独立的android模块供app调用;
- ncnn jvm android demo: 以ncnn C++为基础,整合为一个独立的android模块供app调用,同样分为cpu版与gpu版;
- MNN android demo: 以MNN C++为基础,整合为一个独立的android模块供app调用,支持cpu版本
- onnxruntime c# demo: 完全以C#编写的onnxruntime demo;
- onnxruntime vb.net demo: 完全以VB编写的onnxruntime demo;
- TNN中文字符ocr: 根据本项目,基于TNN实现的轻量级中文字符ocr demo,支持iOS和Android系统,凭借TNN优化的CPU(ARMv7、ARMv8)和GPU(OpenCL、Metal)后端加速模型计算。







