mlenjoyneer commited on
Commit
3fc4fdd
·
1 Parent(s): af63ee6

Upload 4 files

Browse files
Files changed (5) hide show
  1. .gitattributes +2 -0
  2. README.md +109 -0
  3. rutextsegnews.py +71 -0
  4. test.jsonl +3 -0
  5. train.jsonl +3 -0
.gitattributes CHANGED
@@ -53,3 +53,5 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
53
  *.jpg filter=lfs diff=lfs merge=lfs -text
54
  *.jpeg filter=lfs diff=lfs merge=lfs -text
55
  *.webp filter=lfs diff=lfs merge=lfs -text
 
 
 
53
  *.jpg filter=lfs diff=lfs merge=lfs -text
54
  *.jpeg filter=lfs diff=lfs merge=lfs -text
55
  *.webp filter=lfs diff=lfs merge=lfs -text
56
+ test.jsonl filter=lfs diff=lfs merge=lfs -text
57
+ train.jsonl filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,109 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ annotations_creators:
3
+ - machine-generated
4
+ language_creators:
5
+ - found
6
+ language:
7
+ - ru
8
+ size_categories:
9
+ - 10K<n<100K
10
+ license:
11
+ - unknown
12
+ multilinguality:
13
+ - monolingual
14
+ source_datasets:
15
+ - original
16
+ ---
17
+
18
+ # Dataset Card
19
+
20
+ ## Table of Contents
21
+ - [Table of Contents](#table-of-contents)
22
+ - [Dataset Description](#dataset-description)
23
+ - [Dataset Summary](#dataset-summary)
24
+ - [Supported Tasks and Leaderboards](#supported-tasks-and-leaderboards)
25
+ - [Languages](#languages)
26
+ - [Dataset Structure](#dataset-structure)
27
+ - [Data Instances](#data-instances)
28
+ - [Data Fields](#data-fields)
29
+ - [Data Splits](#data-splits)
30
+ - [Additional Information](#additional-information)
31
+ - [Licensing Information](#licensing-information)
32
+ - [Citation Information](#citation-information)
33
+
34
+ ## Dataset Description
35
+
36
+ ### Dataset Summary
37
+
38
+ Dataset for automatic text segmentation of Russian news. News corpora based on Yuri Baburov's news dataset https://github.com/buriy/russian-nlp-datasets/releases/ for 2014 and 2015 years. Markup was generated automatically based on 2 methods: taking texts with ready division into paragraphs and random joining parts of different texts.
39
+
40
+ ### Supported Tasks and Leaderboards
41
+
42
+ Dataset designed for text segmentation task.
43
+
44
+ ### Languages
45
+
46
+ The dataset is in Russian.
47
+
48
+ ### Usage
49
+
50
+ ```python
51
+ from datasets import load_dataset
52
+ dataset = load_dataset('mlenjoyneer/RuTextSegNews')
53
+ ```
54
+
55
+ ### Other datasets
56
+
57
+ TODO: link to wiki-version
58
+
59
+ ## Dataset Structure
60
+
61
+ ### Data Instances
62
+
63
+ For each instance, there is a list of strings for text sentences, a list of ints for labels (1 is new topic starting and 0 is previous topic continuation) and a string for sample generation method (base or random_joining).
64
+
65
+ ```
66
+ {
67
+ "sentences": [
68
+ "В среду в столице Катара Дохе начался чемпионат мира по плаванию на короткой воде.",
69
+ "За пять соревновательных дней в бассейне Hamad Aquatic Complex будет разыграно 46 комплектов наград.",
70
+ "Соревнования в Дохе станут последней серьезной проверкой спортсменов перед чемпионатом мира по водным видам спорта, который пройдет в Казани в следующем году.",
71
+ "В первый день соревнований серебро на дистанции 200 метров вольным стилем выиграли россиянин Данила Изотов и мужская сборная России в эстафете 4х100 метров кролем.",
72
+ "Для российских спортсменов главным отборочным турниром к ЧМ стал чемпионат России, который состоялся месяц назад в Казани.",
73
+ "Тренерский штаб сборной освободил от квалификации только одного спортсмена – Владимира Морозова, который на прошлом ЧМ в Стамбуле выиграл на дистанциях 50 и 100 м вольным стилем.",
74
+ "Он стал единственным пловцом в составе россиян, кто выиграл на том чемпионате золотые медали.",
75
+ "Изначально планировалось, что Морозов в Дохе стартует сразу на четырех дистанциях, но в итоге его программу сократили вдвое – до 100 м в комплексном плавании и 50 м кролем.",
76
+ "Остальным спортсменам, в том числе и двукратному серебряному медалисту Олимпиады-2012 в Лондоне Евгению Коротышкину, пришлось проходить отбор.",
77
+ "По окончании чемпионата России Коротышкин в интервью РБК отмечал, что его победного результата на чемпионате России на дистанции 100 м баттерфляем (50,1 с) может не хватить для попадания на пьедестал.",
78
+ "«Чтобы бороться за медали в Дохе, необходимо улучшать это время на полсекунды, а может, и больше, – отметил Коротышкин в разговоре с автором этих строк.",
79
+ "– Думаю, для бронзовой награды хватит 49,3 с, а победитель вполне может пробить отметку в 49 с».",
80
+ "Российский пловец в начале ноября отмечал, что за месяц до старта чемпионата мира в Дохе у него есть резервы в улучшении результата.",
81
+ "«В первую очередь надо работать над стартом и переворотами», – рассказал Коротышкин РБК.",
82
+ "Главным соперником Евгения на стометровке баттерфляем станет южноафриканец Чад де Кло, накануне признанный FINA пловцом года.",
83
+ "По словам Коротышкина, де Кло находится нынче в великолепной форме и постарается побить мировой рекорд россиянина на этой дистанции, который составляет 48,48 с. Еще до старта чемпионата одним из претендентов на медали помимо Морозова и Коротышкина в составе россиян являлся Данила Изотов.",
84
+ "Вчера он сначала пробился в финал на дистанции 200 м вольным стилем с третьим результатом (1:42,45), а в решающем заплыве уступил лишь 22 сотые секунды Чаду де Кло и принес России первую серебряную медаль чемпионата мира в Дохе.",
85
+ "Вместе со сборной России Изотов отобрался с пятым временем (3:08,15) в финал эстафеты 4 х 200 кролем.",
86
+ "Женская команда России также выступит в решающем заплыве в этом виде программы.",
87
+ "В эстафете 4 х 100 метров кролем мужская сборная России завоевала серебряную медаль, уступив только французскому квартету."],
88
+ "labels": [0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0],
89
+ "method": "base"}
90
+ ```
91
+
92
+ ### Data Splits
93
+
94
+ | Dataset Split | Number of Instances in Split |
95
+ |:---------|:---------|
96
+ | Train | 20000 |
97
+ | Test | 4000 |
98
+
99
+ ## Additional Information
100
+
101
+ ### Licensing Information
102
+
103
+ In progress
104
+
105
+ ### Citation Information
106
+
107
+ ```bibtex
108
+ In progress
109
+ ```
rutextsegnews.py ADDED
@@ -0,0 +1,71 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # coding=utf-8
2
+ # Licensed under the Apache License, Version 2.0 (the "License");
3
+ # you may not use this file except in compliance with the License.
4
+ # You may obtain a copy of the License at
5
+ #
6
+ # http://www.apache.org/licenses/LICENSE-2.0
7
+ #
8
+ # Unless required by applicable law or agreed to in writing, software
9
+ # distributed under the License is distributed on an "AS IS" BASIS,
10
+ # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
11
+ # See the License for the specific language governing permissions and
12
+ # limitations under the License.
13
+
14
+ # Lint as: python3
15
+ """RuTextSegNews: Dataset for automatic text semantic segmentation of Russian news"""
16
+
17
+
18
+ import json
19
+ import os
20
+
21
+ import datasets
22
+
23
+
24
+ _CITATION = """
25
+ In progress
26
+ """
27
+
28
+ _DESCRIPTION = "Dataset for automatic text semantic segmentation of Russian news"
29
+ _URLS = {
30
+ "train": "train.jsonl",
31
+ "test": "test.jsonl"
32
+ }
33
+
34
+
35
+ class RuTextSegNewsDataset(datasets.GeneratorBasedBuilder):
36
+ """RuTextSegNews Dataset"""
37
+
38
+ VERSION = datasets.Version("1.0.0")
39
+
40
+ BUILDER_CONFIGS = [
41
+ datasets.BuilderConfig(name="default", version=VERSION, description=""),
42
+ ]
43
+
44
+ DEFAULT_CONFIG_NAME = "default"
45
+
46
+ def _info(self):
47
+ features = datasets.Features(
48
+ {
49
+ "sentences": [datasets.Value("string")],
50
+ "labels": [datasets.Value("int8")],
51
+ "method": datasets.Value("string")
52
+ }
53
+ )
54
+ return datasets.DatasetInfo(
55
+ description=_DESCRIPTION,
56
+ features=features,
57
+ citation=_CITATION,
58
+ )
59
+
60
+ def _split_generators(self, dl_manager):
61
+ downloaded_files = dl_manager.download_and_extract(_URLS)
62
+ return [
63
+ datasets.SplitGenerator(name=datasets.Split.TRAIN, gen_kwargs={"filepath": downloaded_files["train"]}),
64
+ datasets.SplitGenerator(name=datasets.Split.TEST, gen_kwargs={"filepath": downloaded_files["test"]}),
65
+ ]
66
+
67
+ def _generate_examples(self, filepath):
68
+ with open(filepath, encoding="utf-8") as f:
69
+ for id_, row in enumerate(f):
70
+ data = json.loads(row)
71
+ yield id_, data
test.jsonl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8c2102eb8a672d2105fbdb755472e91a290008bca5d0b6ec782756fc6c08c9c9
3
+ size 40608788
train.jsonl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5fb61818060ba552b91f195806b2be187fd59a0b6d3284950c5b23750f2b2d15
3
+ size 199319173