metadata
language:
- es
- en
license: apache-2.0
tags:
- bittensor
- subnet-20
- bitagent
- finney
- tao
- tool-calling
- bfcl
- reasoning
- agent
base_model: Salesforce/xLAM-7b-r
pipeline_tag: text-generation
model-index:
- name: antonio-bfcl-toolmodel
results:
- task:
type: text-generation
name: Generative reasoning and tool-calling
metrics:
- type: accuracy
value: 0
馃 Antonio BFCL Toolmodel
Este modelo forma parte del ecosistema BitAgent (Subnet-20) de Bittensor, dise帽ado para tareas de tool-calling, razonamiento l贸gico estructurado y generaci贸n de texto contextual.
Optimizado para comunicaci贸n eficiente entre agentes dentro del protocolo Finney.
馃殌 Descripci贸n t茅cnica
antonio-bfcl-toolmodel est谩 basado en un modelo open-source tipo xLAM-7b-r, ajustado para:
- 馃搳 Razonamiento simb贸lico y factual multiling眉e
- 馃З Tool-calling autom谩tico (formato JSON conforme a los prompts de Subnet-20)
- 馃攧 Respuestas deterministas con
temperature=0.1ytop_p=0.9 - 鈿欙笍 Compatibilidad total con el pipeline de BitAgent Miner (v1.0.51)
- 馃寪 Idiomas soportados: Espa帽ol 馃嚜馃嚫 e Ingl茅s 馃嚞馃嚙
馃З Integraci贸n con Subnet-20
Los validadores pueden invocar este modelo a trav茅s de los protocolos:
QueryTaskQueryResultIsAliveGetHFModelNameSetHFModelName
El modelo responde mediante bittensor.dendrite y cumple con la especificaci贸n BitAgent v1.0.51.
馃 Ejemplo de inferencia local
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "Tonit23/antonio-bfcl-toolmodel"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Resuelve esta operaci贸n: 12 + 37 = "
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))