--- license: llama3.1 datasets: - BrewInteractive/alpaca-tr language: - tr base_model: unsloth/Meta-Llama-3.1-8B-bnb-4bit pipeline_tag: text-generation --- # TR ## Model Genel Bakış **Model Adı:** Fikri **Model Türü:** Dil Modeli **Dil:** Türkçe **Model Boyutu:** 8 milyar parametre **Temel Model:** Llama 3.1 **Geliştirme Donanımı:** 2x NVIDIA RTX 4090 GPU **Açıklama:** Fikri, Türkçede "fikir sahibi" veya "düşünce ile ilgili" anlamlarına gelir. Bu model, Türkçe görevler için özel bir veriseti ile eğitilmiş en küçük modellerimizden biridir. **Örnek Alınan Makale:** https://arxiv.org/abs/2405.09673 ## Model Mimarisi **Temel Model:** Llama 3.1 8B **Temel Model İnce Ayar Veri Boyutu:** ~1 milyar yüksek kaliteli Türkçe metin birimi **Komut Eğitimi Veri Boyutu:** 200 bin Türkçe komut seti ## Eğitim Bilgileri Eğitim sonucu istatistikleri: - **Kayıp:** 0.996 - **Eğitimi Süresi:** (~24 saat) - **Epoch:** 1.0 **Lora Yapılandırması:** - `r = 128` - `lora_alpha = 32` - `learning_rate = 5e-5` ## Kullanım Fikri, esas olarak Türkçe metin anlama ve üretim gerektiren görevler için tasarlanmıştır. Basit konfigürasyonu ve optimize edilmiş eğitim verisi, metin üretimi tabanlı yapay zeka uygulamalarından metin özetlemeye kadar çeşitli uygulamalarda Türkçe dilinin inceliklerine uygun ve verimli kullanım sağlar. ## Teşekkür Fikri, Türkçe dil ve kültüründe yapay zekanın yeteneklerinin geliştirilmesi amacıyle üretilmiş, sınırlı Türkçe kaynağın arttırılmasına yönelik bir modeldir. Sorularınız, geri bildirimleriniz veya destek talepleriniz için geliştirme ekibimize ulaşmaktan çekinmeyin. Brew Interactive/AI Guild https://brewww.com ___ # EN ## Model Overview **Model Name:** Fikri **Model Type:** Language Model **Language:** Turkish **Model Size:** 8B parameters **Base Model:** Llama 3.1 **Development Hardware:** 2x NVIDIA RTX 4090 GPU **Description:** Fikri, meaning "intellectual" or "of thought" in Turkish. This model is the first and lightest in our lineup, fine-tuned specifically for low-stream Turkish tasks. **Influencing Paper:** [LoRA Learns Less and Forgets Less](https://arxiv.org/abs/2405.09673) ## Model Architecture **Base Model:** Llama 3.1 8B  **Base Model Fine-tuning Data Size:** ~1B tokens of high-quality Turkish data  **Instruction Training Data Size:** 200k Turkish instructions ## Training Information Fikri was trained with the following statistics and configuration: - **Training Loss:** 0.996 - - **Instruction Training Runtime:** (~24 hours) - - **Epochs:** 1.0 **Lora Configuration:** - `r = 128` - `lora_alpha = 32` - `learning_rate = 5e-5` ## Usage Fikri is primarily designed for tasks requiring understanding and generation of Turkish text. Its light configuration and optimized training data make it suitable for various applications, from conversational AI to text summarization, while maintaining efficiency and relevance to Turkish language nuances. ## Acknowledgments Fikri is a testimony to collaborative innovation, inspired by cutting-edge research and dedicated to advancing the capabilities of artificial intelligence in the Turkish language. If you have any questions, feedback, or need support, feel free to reach out to our development team. Brew Interactive/AI Guild https://brewww.com