File size: 2,050 Bytes
8f8935f 198b0cb 8f8935f 198b0cb 8f8935f 198b0cb 8f8935f 198b0cb 8f8935f 198b0cb 8f8935f 198b0cb |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 |
---
language: ["es", "en"]
license: apache-2.0
tags:
- bittensor
- subnet-20
- bitagent
- finney
- tao
- tool-calling
- bfcl
- reasoning
- agent
base_model: Salesforce/xLAM-7b-r
pipeline_tag: text-generation
model-index:
- name: antonio-bfcl-toolmodel
results:
- task:
type: text-generation
name: Generative reasoning and tool-calling
metrics:
- type: accuracy
value: 0.0
---
# 馃 Antonio BFCL Toolmodel
Este modelo forma parte del ecosistema **BitAgent (Subnet-20)** de Bittensor, dise帽ado para tareas de *tool-calling*, razonamiento l贸gico estructurado y generaci贸n de texto contextual.
Optimizado para comunicaci贸n eficiente entre agentes dentro del protocolo Finney.
---
## 馃殌 Descripci贸n t茅cnica
**antonio-bfcl-toolmodel** est谩 basado en un modelo open-source tipo `xLAM-7b-r`, ajustado para:
- 馃搳 *Razonamiento simb贸lico y factual multiling眉e*
- 馃З *Tool-calling autom谩tico* (formato JSON conforme a los prompts de Subnet-20)
- 馃攧 *Respuestas deterministas* con `temperature=0.1` y `top_p=0.9`
- 鈿欙笍 *Compatibilidad total con el pipeline de BitAgent Miner (v1.0.51)*
- 馃寪 *Idiomas soportados*: Espa帽ol 馃嚜馃嚫 e Ingl茅s 馃嚞馃嚙
---
## 馃З Integraci贸n con Subnet-20
Los validadores pueden invocar este modelo a trav茅s de los protocolos:
- `QueryTask`
- `QueryResult`
- `IsAlive`
- `GetHFModelName`
- `SetHFModelName`
El modelo responde mediante `bittensor.dendrite` y cumple con la especificaci贸n **BitAgent v1.0.51**.
---
## 馃 Ejemplo de inferencia local
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "Tonit23/antonio-bfcl-toolmodel"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Resuelve esta operaci贸n: 12 + 37 = "
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|