binaryMao's picture
Update app.py
2e70459 verified
# -*- coding: utf-8 -*-
"""RobotsMali_ASR_Demo.ipynb - Script FINAL MINIMALISTE (UPLOAD SEULEMENT)
Interface utilisateur simplifiée pour les tests utilisateurs, ne gardant que l'option de téléchargement de fichier audio.
"""
import gradio as gr
import time
import os
import librosa
import soundfile as sf
import numpy as np
# --- IMPORTS NEMO ---
try:
import nemo.collections.asr as nemo_asr
import nemo.collections.nlp as nemo_nlp
except ImportError:
# Simuler les imports si NeMo n'est pas disponible (pour le test initial)
class DummyASRModel:
def from_pretrained(self, model_name): raise RuntimeError("NeMo ASR not installed.")
class DummyNLPModel:
def from_pretrained(self, model_name): raise RuntimeError("NeMo NLP not installed.")
nemo_asr = type('nemo_asr', (object,), {'models': type('models', (object,), {'ASRModel': DummyASRModel})})
nemo_nlp = type('nemo_nlp', (object,), {'models': type('models', (object,), {'PunctuationCapitalizationModel': DummyNLPModel})})
# ----------------------------------------------------------------------
# CONSTANTES DE CONFIGURATION
# ----------------------------------------------------------------------
# Dictionnaire des modèles : {Nom Lisible: Nom Complet (pour NeMo)}
ROBOTSMALI_MODELS_MAP = {
"Soloba CTC 0.6B v0": "RobotsMali/soloba-ctc-0.6b-v0",
"Soloni 114M TDT v1": "RobotsMali/soloni-114m-tdt-ctc-v1",
"Soloni 114M TDT v0": "RobotsMali/soloni-114m-tdt-ctc-V0",
"QuartzNet 15x5 V0": "RobotsMali/stt-bm-quartznet15x5-V0",
"QuartzNet 15x5 v1": "RobotsMali/stt-bm-quartznet15x5-v1",
"Soloba CTC 0.6B v1": "RobotsMali/soloba-ctc-0.6b-v1"
}
ROBOTSMALI_SHORT_NAMES = list(ROBOTSMALI_MODELS_MAP.keys())
SR_TARGET = 16000
PUNCT_MODEL_NAME = "nemo/nlp/punctuation_and_capitalization"
# Caches
asr_pipelines = {}
punct_pipeline = None
# ----------------------------------------------------------------------
# 1. FONCTIONS DE GESTION DES MODÈLES (Pas de changement logique)
# ----------------------------------------------------------------------
def load_pipeline(short_name):
"""Charge un modèle ASR NeMo en utilisant son nom court."""
model_name = ROBOTSMALI_MODELS_MAP.get(short_name)
if not model_name:
raise ValueError(f"Nom de modèle inconnu: {short_name}")
if short_name not in asr_pipelines:
temp_warmup_file = "dummy_warmup.wav"
try:
model_instance = nemo_asr.models.ASRModel.from_pretrained(model_name=model_name)
model_instance.eval()
asr_pipelines[short_name] = model_instance
# WARM-UP (silencieux pour l'UX)
dummy_audio = np.random.randn(SR_TARGET).astype(np.float32)
sf.write(temp_warmup_file, dummy_audio, SR_TARGET)
model_instance.transcribe([temp_warmup_file], batch_size=1)
except Exception as e:
if short_name in asr_pipelines: del asr_pipelines[short_name]
raise RuntimeError(f"Impossible de charger le modèle {short_name}. Détail: {e}")
finally:
if os.path.exists(temp_warmup_file): os.remove(temp_warmup_file)
return asr_pipelines.get(short_name)
def load_punct_model():
"""Charge le modèle de ponctuation/casse et le met en cache."""
global punct_pipeline
if punct_pipeline is None:
try:
punct_pipeline = nemo_nlp.models.PunctuationCapitalizationModel.from_pretrained(model_name=PUNCT_MODEL_NAME)
punct_pipeline.eval()
except Exception as e:
punct_pipeline = False
return punct_pipeline
# ----------------------------------------------------------------------
# 2. FONCTION PRINCIPALE D'INFÉRENCE
# ----------------------------------------------------------------------
def transcribe_audio(model_short_name: str, audio_path: str):
"""Effectue la transcription ASR de l'audio complet."""
progress = gr.Progress()
if audio_path is None:
return "⚠️ **Erreur :** Veuillez **télécharger** un fichier audio pour commencer."
start_time = time.time()
temp_full_path = f"temp_nemo_input_{os.path.basename(audio_path)}.wav"
raw_transcription = "[Transcription vide ou échec ASR]"
try:
# Affichage de la première étape
yield f"**Statut :** 🔄 Préparation et chargement du modèle `{model_short_name}`..."
full_audio_data, sr = librosa.load(audio_path, sr=SR_TARGET, mono=True)
total_duration = len(full_audio_data) / SR_TARGET
segment_data = full_audio_data.squeeze()
sf.write(temp_full_path, segment_data, SR_TARGET)
asr_model = load_pipeline(model_short_name)
# Affichage de la deuxième étape avec progression simulée
yield f"**Statut :** ⏳ Transcription en cours (Durée audio: {total_duration:.1f}s)..."
for progress_percent in range(0, 91, 10):
time.sleep(0.3)
progress(progress_percent / 100, desc=f"Progression ASR ({progress_percent}%)")
# Inférence
transcriptions = asr_model.transcribe([temp_full_path], batch_size=1)
if transcriptions and transcriptions[0]:
hyp_object = transcriptions[0]
if hasattr(hyp_object, 'text'):
raw_transcription = hyp_object.text.strip()
elif isinstance(hyp_object, str):
raw_transcription = hyp_object.strip()
elif isinstance(hyp_object, list) and hasattr(hyp_object[0], 'text'):
raw_transcription = hyp_object[0].text.strip()
# Post-traitement (Ponctuation et Casse)
end_time = time.time()
duration = end_time - start_time
processed_text = raw_transcription
punct_status = ""
punct_model = load_punct_model()
if punct_model and raw_transcription != "[Transcription vide ou échec ASR]":
yield f"**Statut :** ✨ Finalisation et correction de la ponctuation..."
progress(1.0, desc="Progression ASR (100%)")
try:
corrected_list = punct_model.add_punctuation_capitalization([raw_transcription])
if corrected_list:
processed_text = corrected_list[0].strip()
punct_status = " (Correction Ponctuation OK)"
except Exception as pc_error:
punct_status = " (Correction Ponctuation ÉCHOUÉE)"
# ------------------------------------------------
# BLOC DE RÉSULTAT FINAL MINIMALISTE
# ------------------------------------------------
# 1. En-tête (une seule ligne)
header = f"### ✅ Transcription Terminée "
header += f"*(Modèle: **{model_short_name}** | Temps: {duration:.2f}s)*{punct_status}\n\n"
header += "--- \n"
# 2. Lyrics très clairs
clean_text = processed_text.replace('\n', ' ').strip()
# Remplacer les séparateurs de phrases par un double saut de ligne
formatted_lyrics = clean_text.replace('. ', '.\n\n').replace('? ', '?\n\n').replace('! ', '!\n\n')
lyrics_output = f"""
**Transcription Finale :**
```text
{formatted_lyrics}
```
"""
# 3. Message final de nettoyage
footer = f"\n\n*Traitement basé sur le lien `{ROBOTSMALI_MODELS_MAP.get(model_short_name)}`.*"
final_markdown = header + lyrics_output + footer
yield final_markdown
except RuntimeError as e:
yield f"❌ **Erreur Critique :** Impossible de procéder. Détails : {str(e)}"
except Exception as e:
yield f"❌ **Erreur Générale :** Une erreur inattendue est survenue : {e}"
finally:
if os.path.exists(temp_full_path):
os.remove(temp_full_path)
# ----------------------------------------------------------------------
# 3. INTERFACE GRADIO (Minimaliste)
# ----------------------------------------------------------------------
# Statut initial de l'application
APP_STATUS = "Chargement en cours..."
if ROBOTSMALI_SHORT_NAMES:
default_short_name = ROBOTSMALI_SHORT_NAMES[0]
try:
load_pipeline(default_short_name)
APP_STATUS = f"✅ **Prêt :** Modèle de base `{default_short_name}` chargé."
except Exception as e:
APP_STATUS = f"❌ **Échec au Démarrage :** Vérifiez la configuration NeMo/CUDA."
# Composants
model_dropdown = gr.Dropdown(
label="Étape 1 : Choisir le Modèle ASR",
choices=ROBOTSMALI_SHORT_NAMES,
value=ROBOTSMALI_SHORT_NAMES[0] if ROBOTSMALI_SHORT_NAMES else None,
interactive=True)
# MODIFICATION ICI : Suppression de 'microphone'
audio_input = gr.Audio(
label="Étape 2 : Télécharger l'Audio (MP3, WAV, etc.)",
type="filepath",
sources=["upload"], # SEULEMENT UPLOAD
format="mp3")
text_output = gr.Markdown(
label="Résultat",
value="Commencez par choisir un modèle et télécharger votre audio. Le résultat s'affichera ici. 💡")
# Mise en page Blocks (Deux colonnes simples et bien définies)
with gr.Blocks(theme=gr.themes.Soft(), title="RobotsMali ASR") as demo:
gr.Markdown(
f"""
# 🤖 RobotsMali ASR Demo
### **Transcription Vocale pour les langues maliennes. Minimaliste et rapide.**
{APP_STATUS}
---
"""
)
with gr.Row():
# Colonne de GAUCHE: INPUTS
with gr.Column(scale=1, min_width=300):
model_dropdown.render()
audio_input.render()
submit_btn = gr.Button("▶️ ÉTAPE 3 : LANCER LA TRANSCRIPTION", variant="primary")
gr.Markdown(
"""
*Rappel : L'audio doit être court (moins de 5 minutes) pour éviter une erreur de mémoire.*
"""
)
# Colonne de DROITE: OUTPUT
with gr.Column(scale=2, min_width=500):
text_output.render()
# Définition des actions
submit_btn.click(
fn=transcribe_audio,
inputs=[model_dropdown, audio_input],
outputs=text_output
)
print("Lancement de l'interface Gradio Blocks...")
demo.launch(share=True)