File size: 2,770 Bytes
95fcde5 208ff3f 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 314b2b3 95fcde5 fe90b04 314b2b3 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 bf2be33 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 fe90b04 95fcde5 de84f5b 427d1e0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 |
---
library_name: transformers
license: other
---
# মডেল Carte de Modèle : Lamina-basic

Bienvenue sur la page de **Lamina-basic** \! ✨ Ce modèle est un projet expérimental et éducatif créé dans le but d'apprendre les fondamentaux de la création et de l'entraînement d'un modèle de langage (LLM) en partant de zéro.
Il a été conçu, entraîné et publié par **Clemylia**.
-----
\<hr\>
## \#\# 📝 Description du Modèle
**Lamina-basic** est un petit modèle de langage de type GPT-2, avec une architecture simple de 3 millions de paramètres. Son unique but est d'être la base de fondation du modèle de language Lamina.
* **🤖 Type de modèle :** Modèle de langage causal (Causal Language Model)
* **🌐 Langue :** Français
* **📚 Données d'entraînement :** Un dataset personnalisé contenant des règles de grammaire de base et quelques paragraphes de connaissances générales (biologie des insectes, faits de base).
* **💻 Entraînement :** Entraîné depuis zéro ("from scratch") sur Google Colab.
-----
\<hr\>
## \#\# 🚀 Comment l'utiliser
Pour tester `Lamina-basic`, vous pouvez utiliser le `pipeline` de la bibliothèque `transformers`.
```python
# 1. Installez les bibliothèques nécessaires
!pip install transformers torch
from transformers import AutoTokenizer, pipeline
# 2. Définissez le nom du modèle sur le Hub
repo_id = "NaaClem/Lamina-basic"
# 3. Créez le pipeline de génération de texte
generator = pipeline('text-generation', model=repo_id, tokenizer=repo_id)
# 4. Donnez un début de phrase au modèle
prompt = "La biologie des insectes est"
# 5. Générez la suite !
result = generator(
prompt,
max_new_tokens=30, # Génère au maximum 30 nouveaux mots
truncation=True
)
print(result[0]['generated_text'])
```
-----
\<hr\>
### \#\#\# ✅ Usages Prévus
* **Démonstration Pédagogique :** Montrer le résultat d'un cycle complet de création d'un LLM.
* **Apprentissage :** Servir de base pour comprendre comment fonctionnent les modèles de langage.
* **Expérimentation :** Être un point de départ pour une V2 avec plus de données et une plus grande architecture.
\<hr\>
## \#\# Un mot de la créatrice
> "Lamina-basic est mon premier pas dans la création d'IA de A à Z. Ce projet représente une aventure d'apprentissage incroyable, des premières lignes de code à la résolution de bugs complexes. Même s'il est simple, j'espère qu'il pourra inspirer d'autres personnes à se lancer et à construire leurs propres modèles."
>
> — Clemylia
<br>
*Créé avec passion par Clemylia. ❤️*
Lamina-basic peut être considérée comme un Ultra-SLM ou un SLM casual. |