Llama_LoraM / README.md
RafaM97's picture
Update README.md
b0f621a verified
metadata
license: mit
language:
  - es
base_model:
  - meta-llama/Llama-3.1-8B-Instruct

🤖 Interius LLM — Strategic Marketing Agent

Este modelo ha sido afinado con QLoRA sobre LLaMA 3.1 para funcionar como un asesor inteligente de estrategias publicitarias. Forma parte de la plataforma Interius, un sistema que optimiza campañas digitales para instituciones educativas en LATAM.

📦 Dataset de Entrenamiento

Entrenado con un dataset instructivo de más de 300 ejemplos tipo Alpaca con el siguiente formato:

  • instruction: qué pregunta el usuario
  • input: contexto adicional
  • output: respuesta estructurada en copywriting, asignación de presupuesto, targeting y más

🎯 Casos de uso esperados

  • Simulación de estrategias publicitarias
  • Generación de copys persuasivos
  • Evaluación de canales según eficiencia
  • Asistencia a ejecutivos de cuentas en agencias

⚙️ Detalles técnicos

  • Base model: meta-llama/Llama-3.2-1B
  • Técnica: QLoRA + PEFT
  • Tokenizer adaptado
  • Parámetros entrenables: solo LoRA adapters
  • Máximo contexto: 512 tokens

🧠 Ejemplo de uso

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model = AutoModelForCausalLM.from_pretrained("RafaM97/Interius-LLM", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("RafaM97/Interius-LLM")

prompt = "¿Cómo distribuir $50,000 entre Google y Meta para una campaña educativa en Monterrey?"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=300)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))


---
license: mit
---