Update app.py
Browse files
app.py
CHANGED
|
@@ -559,6 +559,13 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
| 559 |
history = gr.State([])
|
| 560 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 561 |
user_question = gr.State("")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 562 |
################################################
|
| 563 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
| 564 |
################################################
|
|
@@ -633,12 +640,7 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
| 633 |
# Tab zum Zeichnen mit Stable Diffusion
|
| 634 |
################################################
|
| 635 |
with gr.Tab("KI zum Zeichnen"):
|
| 636 |
-
|
| 637 |
-
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
| 638 |
-
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
| 639 |
-
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
| 640 |
-
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
| 641 |
-
]
|
| 642 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 643 |
user_question2 = gr.State("")
|
| 644 |
with gr.Row():
|
|
|
|
| 559 |
history = gr.State([])
|
| 560 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 561 |
user_question = gr.State("")
|
| 562 |
+
#Add Inputs für Tab 2
|
| 563 |
+
additional_inputs = [
|
| 564 |
+
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
| 565 |
+
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
| 566 |
+
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
| 567 |
+
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
| 568 |
+
]
|
| 569 |
################################################
|
| 570 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
| 571 |
################################################
|
|
|
|
| 640 |
# Tab zum Zeichnen mit Stable Diffusion
|
| 641 |
################################################
|
| 642 |
with gr.Tab("KI zum Zeichnen"):
|
| 643 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 644 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 645 |
user_question2 = gr.State("")
|
| 646 |
with gr.Row():
|