Skip to content

Commit 05018ed

Browse files
Fix docs links (#477)
* fix docs doc-to-doc links * fix docs docs-to-yaml links * fix typo in doc * fix mkdocs links * small fix * fix repo links * change mkdocs links to abs path * remove details tags * Update docs/cn/datasets/totaltext.md Co-authored-by: HaoyangLI <417493727@qq.com> * Update docs/cn/datasets/cocotext.md Co-authored-by: HaoyangLI <417493727@qq.com> * remove mkdocs dbnet_readme.md * Update totaltext.md * Update totaltext.md * tidy up datasets markdown files * small fix * small fix * small fix * fix link --------- Co-authored-by: HaoyangLI <417493727@qq.com>
1 parent b8092f2 commit 05018ed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

48 files changed

+129
-334
lines changed

docs/cn/datasets/borndigital.md

Lines changed: 2 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -2,19 +2,12 @@
22

33
## 数据集下载
44

5-
原生数字图像数据集(Born-Digital Images)[官网](https://rrc.cvc.uab.es/?ch=1)
5+
原生数字图像数据集(Born-Digital Images)[官网](https://rrc.cvc.uab.es/?ch=1) | [下载链接](https://rrc.cvc.uab.es/?ch=1&com=downloads)
66

7-
注意: 在下载之前,你需要先注册一个账号。
8-
9-
<details open markdown>
10-
<summary>从何处下载Born-Digital Images数据集</summary>
11-
12-
[下载地址](https://rrc.cvc.uab.es/?ch=1&com=downloads)
7+
> 注意: 在下载之前,请先注册一个账号。
138
149
该数据集分为4个任务: 任务1为文本定位, 任务2为文本分割, 任务3为单词识别, 任务4为端到端文本检测识别。这里我们仅考虑下载使用任务1数据集。
1510

16-
</details>
17-
1811
下载图像和注释后,解压缩文件并根据需要重命名,例如`train_images`是图像,`train_labels` 是标签, 最终目录结构如下:
1912
```txt
2013
Born-Digital

docs/cn/datasets/casia10k.md

Lines changed: 1 addition & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -1,14 +1,8 @@
11
# CASIA-10K 数据集
22

33
## 数据集下载
4-
CASIA-10K 数据集[官网](http://www.nlpr.ia.ac.cn/pal/CASIA10K.html)
54

6-
<details open markdown>
7-
<summary>从何处下载CASIA-10K数据集</summary>
8-
9-
[下载地址](http://www.nlpr.ia.ac.cn/pal/CASIA10K.html)
10-
11-
</details>
5+
CASIA-10K 数据集[下载链接](http://www.nlpr.ia.ac.cn/pal/CASIA10K.html)
126

137
请从上述网站下载数据并解压缩文件。解压文件后,数据结构应该是这样的:
148

docs/cn/datasets/ccpd.md

Lines changed: 1 addition & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -2,18 +2,12 @@
22

33
## 数据集下载
44

5-
CCPD数据集[官网](https://github.com/detectRecog/CCPD)
6-
<details open markdown>
7-
<summary>从何处下载CCPD数据集</summary>
8-
9-
[下载地址](https://github.com/detectRecog/CCPD)
5+
CCPD数据集[下载链接](https://github.com/detectRecog/CCPD)
106

117
该数据集被分为3个部分:训练集、验证集和测试集,每个集合的标签可在`splits`文件夹下发现。
128

139
图像的注释可在图像的文件名中找到,具体格式及描述可在[官网](https://github.com/detectRecog/CCPD#dataset-annotations)查阅。
1410

15-
</details>
16-
1711
请从上述网站下载数据并解压缩文件。解压文件后,数据结构应该是这样的:
1812

1913
```txt

docs/cn/datasets/chinese_text_recognition.md

Lines changed: 2 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -1,12 +1,10 @@
11
# 中文文字识别数据集
22

3-
本文档介绍中文文本识别的数据集准备。
4-
53
## 数据下载
64

7-
按照 [Benchmarking-Chinese-Text-Recognition](https://github.com/FudanVI/benchmarking-chinese-text-recognition) 中的设置,我们使用与 [Datasets](https://github.com/FudanVI/benchmarking-chinese-text-recognition#datasets) 中描述的相同的训练、验证和评估数据。
5+
按照 [Benchmarking-Chinese-Text-Recognition](https://github.com/FudanVI/benchmarking-chinese-text-recognition) 中的设置,我们使用与 [Datasets](https://github.com/FudanVI/benchmarking-chinese-text-recognition#datasets) 章节中描述的相同的训练、验证和评估数据。
86

9-
请下载[Download](https://github.com/FudanVI/benchmarking-chinese-text-recognition/blob/main/README.md#download)中介绍的以下LMDB文件
7+
请下载 [Download](https://github.com/FudanVI/benchmarking-chinese-text-recognition/blob/main/README.md#download) 章节中介绍的以下LMDB文件
108

119
- 场景数据集:联合数据集包含 [RCTW](https://rctw.vlrlab.net/dataset), [ReCTS](https://rrc.cvc.uab.es/?ch=12&com=downloads), [LSVT](https://rrc.cvc.uab.es/?ch=16&com=introduction), [ArT](https://rrc.cvc.uab.es/?ch=14&com=downloads), [CTW](https://link.springer.com/article/10.1007/s11390-019-1923-y)
1210
- 网页:[MTWI](https://tianchi.aliyun.com/competition/entrance/231684/introduction)

docs/cn/datasets/cocotext.md

Lines changed: 2 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -4,14 +4,9 @@
44

55
COCO-Text数据集[官网](https://rrc.cvc.uab.es/?ch=5)
66

7-
注意: 在下载之前,你需要先注册一个账号
7+
数据集图像和JSON标注文件`annotations v1.4 JSON`可从[此处](https://rrc.cvc.uab.es/?ch=5&com=downloads)下载
88

9-
<details open markdown>
10-
<summary>从何处下载COCO-Text数据集</summary>
11-
12-
[下载地址](https://rrc.cvc.uab.es/?ch=5&com=downloads),注释可下载 `annotations v1.4 JSON`
13-
14-
</details>
9+
> 注意:在下载之前,请先注册一个账号。
1510
1611
请从上述网站下载数据并解压缩文件。解压文件后,数据结构应该是这样的:
1712

docs/cn/datasets/converters.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -3,7 +3,7 @@
33
您也可以参考 [`convert_datasets.sh`](https://github.com/mindspore-lab/mindocr/blob/main/tools/convert_datasets.sh)。这是将给定目录下所有数据集的标注文件转换为通用格式的Shell 脚本。
44

55
<details open markdown>
6-
<summary>要下载OCR数据集并将其转换为所需的数据格式,请参阅以下介绍.</summary>
6+
<summary>要下载OCR数据集并将其转换为所需的数据格式,请参阅以下介绍</summary>
77

88
- [Born-Digital Images](borndigital.md)
99
- [CASIA-10K](casia10k.md)

docs/cn/datasets/ctw.md

Lines changed: 2 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -2,18 +2,12 @@
22

33
## 数据集下载
44

5-
COCO-Text数据集[官网](https://ctwdataset.github.io/)
5+
COCO-Text数据集[官网](https://ctwdataset.github.io/) | [下载链接](https://ctwdataset.github.io/downloads.html)
66

7-
注意: 您需要填写表格才能下载此数据集。
8-
9-
<details open markdown>
10-
<summary>从何处下载CTW数据集</summary>
11-
12-
[下载地址](https://ctwdataset.github.io/downloads.html)
7+
> 注意: 您需要填写表格才能下载此数据集。
138
149
图像分为26批,即26个不同的.tar存档文件,格式为`images-trainval/ctw-trainval*.tar`。所有26批都需要下载。
1510
注释存档文件名为`ctw-annotations.tar.gz`
16-
</details>
1711

1812
下载压缩后的图像后,解压后将所有图像收集到单个文件夹中,例如`train_val/`,注释也进行相应解压。最终目录结构如下:
1913

docs/cn/datasets/ctw1500.md

Lines changed: 1 addition & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,7 @@
11
# SCUT-CTW1500 数据集
22

33
## 数据下载
4-
文本检测数据集(SCUT-CTW1500)[官网](https://github.com/Yuliang-Liu/Curve-Text-Detector)
5-
6-
[下载数据集](https://github.com/Yuliang-Liu/Curve-Text-Detector)
4+
文本检测数据集(SCUT-CTW1500)[下载链接](https://github.com/Yuliang-Liu/Curve-Text-Detector)
75

86
请从上述网站下载数据并解压缩文件。解压文件后,数据结构应该是这样的:
97

docs/cn/datasets/ic19_art.md

Lines changed: 2 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -2,19 +2,11 @@
22

33
## 数据集下载
44

5-
ICDAR2019 ArT数据集[官网](https://rrc.cvc.uab.es/?ch=14)
6-
7-
注意: 在下载之前,你需要先注册一个账号。
8-
9-
<details open markdown>
10-
<summary>从何处下载ICDAR2019 ArT数据集</summary>
11-
12-
[下载地址](https://rrc.cvc.uab.es/?ch=14&com=downloads)
5+
ICDAR2019 ArT数据集 [官网](https://rrc.cvc.uab.es/?ch=14) | [下载链接](https://rrc.cvc.uab.es/?ch=14&com=downloads)
6+
> 注意: 在下载之前,请先注册一个账号。
137
148
图像需要下载“任务1和任务3”部分中的存档文件`train_images.tar.gz`。注释需要下载同一节中的.JSON文件`train_labels.json`
159

16-
</details>
17-
1810
请从上述网站下载数据并解压缩文件。解压文件后,数据结构应该是这样的:
1911
```txt
2012
ICDAR2019-ArT

docs/cn/datasets/icdar2015.md

Lines changed: 5 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -1,18 +1,15 @@
11
# ICDAR 2015 数据集
22

33
## 数据集下载
4-
ICDAR 2015 [文章](https://rrc.cvc.uab.es/?ch=4)
4+
ICDAR 2015 [官网](https://rrc.cvc.uab.es/?ch=4) | [下载链接](https://rrc.cvc.uab.es/?ch=4&com=downloads)
55

6-
[下载地址](https://rrc.cvc.uab.es/?ch=4&com=downloads): 在下载之前,您需要先注册一个账号。
7-
8-
<details open markdown>
9-
<summary>从何处下载 ICDAR 2015</summary>
6+
> 注意:在下载之前,请先注册一个账号。
107
118
ICDAR 2015 挑战赛分为三个任务。任务1是文本定位。任务3是单词识别。任务4是端到端文本检测识别。任务2文本分割的数据不可用。
129

1310
### Text Localization
1411

15-
有四个与任务1相关的文件需要下载[下载地址](https://rrc.cvc.uab.es/?ch=4&com=downloads), 它们分别是:
12+
有四个与任务1相关的文件需要下载, 它们分别是:
1613

1714
```
1815
ch4_training_images.zip
@@ -23,7 +20,7 @@ Challenge4_Test_Task1_GT.zip
2320

2421
### Word Recognition
2522

26-
有三个与任务3相关的文件需要下载[下载地址](https://rrc.cvc.uab.es/?ch=4&com=downloads), 它们分别是:
23+
有三个与任务3相关的文件需要下载, 它们分别是:
2724

2825
```
2926
ch4_training_word_images_gt.zip
@@ -35,7 +32,7 @@ Challenge4_Test_Task3_GT.txt
3532

3633
### E2E
3734

38-
有九个与任务4相关的文件需要下载[下载地址](https://rrc.cvc.uab.es/?ch=4&com=downloads)。其中包括任务1中的四个文件, 还有五个词汇文件。
35+
有九个与任务4相关的文件需要下载。其中包括任务1中的四个文件, 还有五个词汇文件。
3936

4037
```
4138
ch4_training_vocabulary.txt

0 commit comments

Comments
 (0)