--- license: mit language: - zh task_categories: - text-generation tags: - chemistry - biology - finance - legal - art - code - climate - medical - music size_categories: - 1B 📚 FineWeb-Edu-zhtw 是以 📚 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 為設計參考,針對繁體中文語料 🍷 FineWeb-zhtw 所建立的教育取向資料集。 本專案依循 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 的方法論,使用 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 產生的標註資料訓練教育相關性分類器,據此篩選出具知識性與教育價值的文本,並結合多 GPU 平行化處理、簡體字偵測與清理程序完成過濾。 ## Dataset Details ### Dataset Description 📚 FineWeb-Edu-zhtw 是以 FineWeb-zhtw 為基礎,建立的繁體中文教育取向語料集。本資料集依循 📚 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 的概念,以分類器方式過濾出具教育價值的文本,但整體流程針對繁體中文語境重新設計與實作。 在標註階段,我們使用 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 對樣本文本生成 **0–5** 類的教育性評分,代表從「一般內容」到「高度教育性」的細粒度層級,這些標註皆在 [fineweb-edu-zhtw-magistral-annotations](https://huggingface.co/datasets/lianghsun/fineweb-edu-zhtw-magistral-annotations)。於模型訓練階段,為提升分類穩定性與推論效率,這些標註進一步合併為三大類:**c0(一般內容)、c1(次教育性)、c2(教育導向)**。最終以此三分類模型對 🍷 FineWeb-zhtw 全量語料進行推論與過濾。推論結果保留分類標籤與信心分數,並透過多 GPU 平行化處理完成;後處理階段則包含簡體字偵測與清理,以確保語料以繁體中文為主。 最終的 📚 FineWeb-Edu-zhtw 可視為 📚 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 方法在繁體中文語料上的延伸實踐,提供一個專注於教育內容的繁體中文高品質資料集,適用於語言模型的持續預訓練、教育領域任務與品質評測研究。 - **Curated by:** [Liang Hsun Huang](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US) - **Language(s) (NLP):** Tranditional Chinese - **License:** MIT ### Dataset Sources - **Repository:** [lianghsun/fineweb-edu-zhtw](https://huggingface.co/datasets/lianghsun/fineweb-edu-zhtw/) - **Paper:** TBA ## Uses ### Direct Use 本資料集主要設計作為 **語言模型持續預訓練(continued pretraining)** 的高品質繁體中文語料來源。其內容經教育性分類器過濾,適合用於: * 提升語言模型的知識密度與教育導向表現; * 建構或微調以教育文本為主的基底模型(base models); ### Out-of-Scope Use 本資料集不適用於下列用途: * 生成具特定意圖或立場的內容,例如政治宣傳、商業廣告或情緒操縱。 * 作為下游任務(如問答、對話、摘要)之指令資料集,因其不包含指令-回應結構。 * 進行個人、群體或機構之價值判斷、歧視性分析或行為預測。 * 任何違反資料隱私、版權或倫理準則的用途。 本資料集的篩選重點在於教育導向文本品質,因此在非教育、非知識型語境下的應用,可能無法達到預期效果。 ## Dataset Structure ```jsonl { "text": "..." } ``` ## Dataset Creation ### Curation Rationale 本資料集的建立動機源於希望提供一個以繁體中文為主的高品質教育導向語料來源。🍷 [FineWeb](https://huggingface.co/datasets/HuggingFaceFW/fineweb) 雖然涵蓋龐大的網頁文本,但其中包含大量廣告、論壇與低資訊密度內容,不適合直接用於繁體中文大型語言模型的教育相關預訓練。 因此,我們參考 📚 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 的資料篩選流程,利用由 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 產生的人工標註樣本 [fineweb-edu-zhtw-magistral-annotations](https://huggingface.co/datasets/lianghsun/fineweb-edu-zhtw-magistral-annotations),訓練出一個 **三分類教育導向分類器 [FineWeb-Edu-zhtw-Classifier](https://huggingface.co/lianghsun/fineweb-edu-zhtw-classifier)** (原始標註範圍為 0–5 類,後整併為 c0=一般內容、c1=次教育性、c2=教育導向)。再以該分類器從 🍷 FineWeb-zhtw 中篩選出教育導向比例較高的文本,以期在不犧牲語料多樣性的前提下,提供更聚焦於學習、知識傳遞與說明性內容的預訓練素材。 ### Source Data #### Data Collection and Processing 本資料集以 🍷 FineWeb-zhtw 為主要來源,該資料係從 🍷 [FineWeb](https://huggingface.co/datasets/HuggingFaceFW/fineweb) 取出繁體中文的內容,但原始文本夾雜許多低品質內容。我們參考 📚 [FineWeb-Edu](https://huggingface.co/datasets/HuggingFaceFW/fineweb-edu) 的製程,但改以繁體中文語境重新訓練分類器,以建立教育導向子集。 主要處理流程如下: 1. 分類器過濾 * 使用以 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 產生的標註資料訓練之三分類模型 [FineWeb-Edu-zhtw-Classifier](https://huggingface.co/lianghsun/fineweb-edu-zhtw-classifier)(c0=一般內容、c1=次教育性、c2=教育導向)。 * 原始標註 [fineweb-edu-zhtw-magistral-annotations](https://huggingface.co/datasets/lianghsun/fineweb-edu-zhtw-magistral-annotations) 包含 0–5 類教育性層級,後整併為三類,用以穩定分類邊界。 * 僅保留推論結果為 c2 且置信度(probability)高於 0.6 的樣本。 * 篩選過程使用多 GPU 平行推論,具備中斷續跑機制與 state 檔追蹤。 2. 文字正規化與檢查 * 驗證繁體字一致性,排除含有簡體專用字的文本。 * 移除重複樣本與無效行。 #### Who are the source data producers? 本資料集的標註資料並非由人工標記,而是由大型語言模型 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 自動生成。我們先以 🍷 FineWeb-zhtw 中的樣本文本為輸入,請模型根據教育性層級(0–5 分)進行評分,再將所得分數用於訓練後續的三分類模型 [FineWeb-Edu-zhtw-Classifier](https://huggingface.co/lianghsun/fineweb-edu-zhtw-classifier)(c0=一般內容、c1=次教育性、c2=教育導向)。 此流程屬於 synthetic annotation(合成標註),能在無需大量人工成本的情況下,快速建立一致性高、覆蓋面廣的教育導向判斷基準。分類器訓練完成後,所有 FineWeb-zhtw 樣本皆經該模型自動篩選與分類,最終僅保留被預測為**次教育性(c1)**與**教育導向(c2)之文本**。 ### Annotations #### Annotation process #### Who are the annotators? 本資料集的標註並非人工產出,而是透過 **合成標註流程(synthetic annotation pipeline)** 自動生成。具體流程如下: 1. 以 [Magistral-Small-2506](https://huggingface.co/mistralai/Magistral-Small-2506) 為基礎模型,對 🍷 FineWeb-zhTW 的樣本文本進行「教育性評分」,範圍為 0–5。 2. 將評分結果整併為三類(c0:一般內容、c1:次教育性、c2:教育導向),以穩定後續分類器的訓練分佈。 3. 使用這些合成標註資料訓練一個三分類模型 [FineWeb-Edu-zhtw-Classifier](https://huggingface.co/lianghsun/fineweb-edu-zhtw-classifier)(3-way classifier)。 4. 該模型再對完整 🍷 FineWeb-zhtw 資料集進行推論與篩選,僅保留分類結果為 c2 且置信度高於 0.6 的文本。 標註與分類均為自動化程序,無人工干預。整體標註樣本數約數萬筆,涵蓋多種網頁領域(教育、科學、文化、技術等)。 #### Personal and Sensitive Information 本資料集係從公開網頁語料 FineWeb-zhTW 篩選而成,文本來源多為教育與知識性網站。由於資料原始來源為公開可索引內容,不包含明確的個人識別資料或受保護資訊。但如果有侵犯特定人士或特定組織之隱私,請再聯繫我方進行排除。 ## Bias, Risks, and Limitations 篩選過程著重於文本教育性,而非語言錯誤修正或段落結構維護,部分樣本仍可能存在斷句錯誤、HTML 遺留或符號噪音。 ### Recommendations Users should be made aware of the risks, biases and limitations of the dataset. More information needed for further recommendations. ## Citation ```bibtex @misc{fineweb-edu-zhtw, title = {FineWeb-Edu-zhtw: A Traditional Chinese Educational Subset of FineWeb}, author = {Liang Hsun Huang, (TBA)}, year = {2025}, howpublished = {\url{https://huggingface.co/datasets/fineweb-edu-zhtw}}, note = {Derived from FineWeb-zhTW and filtered using a Magistral-2506–based educational classifier.} } ``` ## Dataset Card Authors [Liang Hsun Huang](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US) ## Dataset Card Contact [Liang Hsun Huang](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US)