Tonit23's picture
Update README with full model metadata and usage
198b0cb
metadata
language:
  - es
  - en
license: apache-2.0
tags:
  - bittensor
  - subnet-20
  - bitagent
  - finney
  - tao
  - tool-calling
  - bfcl
  - reasoning
  - agent
base_model: Salesforce/xLAM-7b-r
pipeline_tag: text-generation
model-index:
  - name: antonio-bfcl-toolmodel
    results:
      - task:
          type: text-generation
          name: Generative reasoning and tool-calling
        metrics:
          - type: accuracy
            value: 0

馃 Antonio BFCL Toolmodel

Este modelo forma parte del ecosistema BitAgent (Subnet-20) de Bittensor, dise帽ado para tareas de tool-calling, razonamiento l贸gico estructurado y generaci贸n de texto contextual.
Optimizado para comunicaci贸n eficiente entre agentes dentro del protocolo Finney.


馃殌 Descripci贸n t茅cnica

antonio-bfcl-toolmodel est谩 basado en un modelo open-source tipo xLAM-7b-r, ajustado para:

  • 馃搳 Razonamiento simb贸lico y factual multiling眉e
  • 馃З Tool-calling autom谩tico (formato JSON conforme a los prompts de Subnet-20)
  • 馃攧 Respuestas deterministas con temperature=0.1 y top_p=0.9
  • 鈿欙笍 Compatibilidad total con el pipeline de BitAgent Miner (v1.0.51)
  • 馃寪 Idiomas soportados: Espa帽ol 馃嚜馃嚫 e Ingl茅s 馃嚞馃嚙

馃З Integraci贸n con Subnet-20

Los validadores pueden invocar este modelo a trav茅s de los protocolos:

  • QueryTask
  • QueryResult
  • IsAlive
  • GetHFModelName
  • SetHFModelName

El modelo responde mediante bittensor.dendrite y cumple con la especificaci贸n BitAgent v1.0.51.


馃 Ejemplo de inferencia local

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "Tonit23/antonio-bfcl-toolmodel"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "Resuelve esta operaci贸n: 12 + 37 = "
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))