RafaM97 commited on
Commit
b0f621a
·
verified ·
1 Parent(s): 59f4c8f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +48 -3
README.md CHANGED
@@ -1,3 +1,48 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - es
5
+ base_model:
6
+ - meta-llama/Llama-3.1-8B-Instruct
7
+ ---
8
+ # 🤖 Interius LLM — Strategic Marketing Agent
9
+
10
+ Este modelo ha sido afinado con **QLoRA** sobre `LLaMA 3.1` para funcionar como un asesor inteligente de estrategias publicitarias. Forma parte de la plataforma **Interius**, un sistema que optimiza campañas digitales para instituciones educativas en LATAM.
11
+
12
+ ## 📦 Dataset de Entrenamiento
13
+ Entrenado con un dataset instructivo de más de 300 ejemplos tipo Alpaca con el siguiente formato:
14
+
15
+ - `instruction`: qué pregunta el usuario
16
+ - `input`: contexto adicional
17
+ - `output`: respuesta estructurada en copywriting, asignación de presupuesto, targeting y más
18
+
19
+ ## 🎯 Casos de uso esperados
20
+ - Simulación de estrategias publicitarias
21
+ - Generación de copys persuasivos
22
+ - Evaluación de canales según eficiencia
23
+ - Asistencia a ejecutivos de cuentas en agencias
24
+
25
+ ## ⚙️ Detalles técnicos
26
+ - Base model: `meta-llama/Llama-3.2-1B`
27
+ - Técnica: `QLoRA` + `PEFT`
28
+ - Tokenizer adaptado
29
+ - Parámetros entrenables: solo LoRA adapters
30
+ - Máximo contexto: 512 tokens
31
+
32
+ ## 🧠 Ejemplo de uso
33
+ ```python
34
+ from transformers import AutoModelForCausalLM, AutoTokenizer
35
+ import torch
36
+
37
+ model = AutoModelForCausalLM.from_pretrained("RafaM97/Interius-LLM", device_map="auto", torch_dtype=torch.float16)
38
+ tokenizer = AutoTokenizer.from_pretrained("RafaM97/Interius-LLM")
39
+
40
+ prompt = "¿Cómo distribuir $50,000 entre Google y Meta para una campaña educativa en Monterrey?"
41
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
42
+ outputs = model.generate(**inputs, max_new_tokens=300)
43
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
44
+
45
+
46
+ ---
47
+ license: mit
48
+ ---