temiz-OSCAR / README.md
BayanDuygu's picture
updated the sources
56c8c85 verified
metadata
annotations_creators:
  - Duygu Altinok
language:
  - tr
license:
  - cc-by-sa-4.0
multilinguality:
  - monolingual
source_datasets:
  - oscar-corpus/oscar
  - oscar-corpus/OSCAR-2109
  - oscar-corpus/OSCAR-2201
  - oscar-corpus/OSCAR-2301
pretty_name: temiz-OSCAR
config_names:
  - oscar-2019
  - oscar-2109
  - oscar-2201
  - oscar-2301
dataset_info:
  - config_name: oscar-2019
    features:
      - name: text
        dtype: string
    splits:
      - name: train
        num_bytes: 2817356
        num_examples: 3671430
  - config_name: oscar-2109
    features:
      - name: text
        dtype: string
    splits:
      - name: train
        num_bytes: 2817356
        num_examples: 8472809
  - config_name: oscar-2201
    features:
      - name: text
        dtype: string
    splits:
      - name: train
        num_bytes: 2817356
        num_examples: 5193341
  - config_name: oscar-2301
    features:
      - name: text
        dtype: string
    splits:
      - name: train
        num_bytes: 2817356
        num_examples: 6402187
configs:
  - config_name: oscar-2019
    data_files:
      - split: train
        path: data/train/oscar2019.jsonl
  - config_name: oscar-2109
    data_files:
      - split: train
        path: data/train/oscar2109.jsonl
  - config_name: oscar-2201
    data_files:
      - split: train
        path: data/train/oscar2201.jsonl
  - config_name: oscar-2301
    data_files:
      - split: train
        path: data/train/oscar2301.jsonl
task_categories:
  - fill-mask
  - text-generation
tags:
  - oscar
size_categories:
  - 10M<n<100M

Dataset Card for Temiz OSCAR

Temiz OSCAR is a corpora collection consisting of cleaned versions of original OSCAR corpora. This collection is made up of four datasets: OSCAR-2019, OSCAR-2109, OSCAR-2201 and OSCAR-2301

This corpus is a part of large scale Turkish corpus Bella Turca. For more details about Bella Turca, please refer to the publication.

Dataset num instances size num of words
OSCAR-2019 3.671.430 7.7G 976M
OSCAR-2109 8.472.809 18G 2.22B
OSCAR-2201 5.193.341 14GB 1.75B
OSCAR-2301 6.402.187 18GB 2.19B
Total 23.739.767 57GB 7.15B

This collection includes web text, crawled from internet by OSCAR project. We cleaned the corpus by quite many criterion such as text length, character to digit ratio; as well as filtered for too much profanity, adult content and more. For all the details please visit the publication.

Instances

A typical instance from the dataset looks like:

{
"text": Türkiyenin önde gelen ilaç şirketlerinden Nobel İlaç, enfeksiyonlardan korunma yolları içerikli eğitim programı ile, \
        Junior Chamber International (JCI) tarafından 2016 Uluslararası Kurumsal Sosyal Sorumluluk ödülüne layık görüldü. Yarım asrı
        aşkın süredir insan sağlığının korunması ve iyileştirilmesi alanında çalışan Türkiyenin önde gelen ilaç firmalarından, %100 Türk \
        sermayeli Nobel İlaç, kurumsal sosyal sorumluluk alanındaki kararlılığını bu proje ile bir kez daha gösterdi. Sağlıklı yaşam \
        bilincinin erken yaşlarda eğitim yoluyla geliştirilmesi gerektiğine inanan Nobel İlaç ve gönüllü çalışanları, 7 farklı oturumda \
        ilkokul çağındaki 120 çocuğa ulaşarak enfeksiyonlardan korunma yolları içerikli eğitimler verdiler. 114 ülkede 169.000 üyesi \
        bulunan, toplumlarda pozitif değişime ve gelişime katkıda bulunmak için gençlerin liderlik, girişimcilik becerilerini ve sosyal \
        sorumluluk bilincini geliştirme misyonunu üstlenen Junior Chamber International (JCI), Nobel İlaçın bu eğitim programını 2016 Uluslararası Kurumsal Sosyal Sorumluluk Ödülüne layık gördü. Nobel İlaç bu proje ile ülkemizin geleceğini şekillendirecek çocuklarımıza, nitelikli ve kaliteli eğitim verilmesine destek olarak, sağlıklı ve bilinçli bireyler yetişmesine katkı sağlamayı hedeflemiştir. Aynı zamanda ülkemiz çocuklarında farkındalık uyandırarak, gelecekte yapılacak benzer toplumsal projelerde aktif görev almaları için onlara rol model olmayı amaçlamıştır."

Citation

@InProceedings{10.1007/978-3-031-70563-2_16,
author="Altinok, Duygu",
editor="N{\"o}th, Elmar
and Hor{\'a}k, Ale{\v{s}}
and Sojka, Petr",
title="Bella Turca: A Large-Scale Dataset of Diverse Text Sources for Turkish Language Modeling",
booktitle="Text, Speech, and Dialogue",
year="2024",
publisher="Springer Nature Switzerland",
address="Cham",
pages="196--213",
abstract="In recent studies, it has been demonstrated that incorporating diverse training datasets enhances the overall knowledge and generalization capabilities of large-scale language models, especially in cross-domain scenarios. In line with this, we introduce Bella Turca: a comprehensive Turkish text corpus, totaling 265GB, specifically curated for training language models. Bella Turca encompasses 25 distinct subsets of 4 genre, carefully chosen to ensure diversity and high quality. While Turkish is spoken widely across three continents, it suffers from a dearth of robust data resources for language modelling. Existing transformers and language models have primarily relied on repetitive corpora such as OSCAR and/or Wiki, which lack the desired diversity. Our work aims to break free from this monotony by introducing a fresh perspective to Turkish corpora resources. To the best of our knowledge, this release marks the first instance of such a vast and diverse dataset tailored for the Turkish language. Additionally, we contribute to the community by providing the code used in the dataset's construction and cleaning, fostering collaboration and knowledge sharing.",
isbn="978-3-031-70563-2"
}

Acknowledgments

This research was supported with Cloud TPUs from Google's TPU Research Cloud (TRC).