AIO System Core - Public Showcase

Questo repository e una showcase pubblica di AIO System Core.

Cosa include

  • Demo Streamlit locale (app_showcase.py)
  • Demo Gradio locale/Space (app_gradio.py)
  • Mini corpus dimostrativo (demo_corpus.json)
  • Documentazione tecnica essenziale
  • Policy non-commerciale

Cosa NON include (intenzionalmente)

  • Corpus proprietario completo
  • Indice FAISS di produzione
  • Pipeline interna completa di ingestione/release enterprise
  • Know-how operativo riservato

In altre parole: questa vetrina mostra il paradigma e l'esperienza d'uso, ma non espone il nucleo IP privato.

Posizionamento

AIO non e solo un "RAG dataset": e un knowledge engine locale con memoria, retrieval ibrido e governance.

Questa versione pubblica e una demo controllata per:

  • valutazione tecnica iniziale,
  • test UX/flow,
  • comunicazione pubblica del paradigma.

Avvio rapido

pip install -r requirements.txt
streamlit run app_showcase.py

Avvio Gradio

pip install -r requirements.txt
python app_gradio.py

Per Hugging Face Spaces (SDK Gradio), usa app_gradio.py come entrypoint.

Test reali pubblicati (multi-case)

Report reali eseguiti su corpus AIO locale (101k+ records, fonti pubbliche reali):

  • Internal benchmark: 10/10 pass
  • Real use cases: 8/8 pass

Artifact pubblicati:

  • reports/REAL_CASE_TEST_RESULTS_LATEST.md
  • reports/REAL_CASE_TEST_RESULTS_LATEST.json
  • reports/TEST_METHOD.md

Scope case use testati:

  • clima mediterraneo ed energia
  • finanza/inflazione/rischio
  • immunoterapia e trial clinici
  • stato di diritto e costituzione
  • algoritmi/strutture dati/ML
  • entropia e termodinamica
  • chimica + cucina
  • idrologia e stabilita territoriale

Licenza

  • Libera per uso e studio
  • Uso commerciale non consentito senza autorizzazione scritta
  • Contatto commerciale: info@rthitalia.com

DOI di riferimento AIO

https://doi.org/10.6084/m9.figshare.31384528

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support