import streamlit as st import pandas as pd import torch from transformers import GPT2Tokenizer, GPT2LMHeadModel # Carregando o modelo e o tokenizador do GPT-2 tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2') # Set the padding token to the end-of-sequence token if tokenizer.pad_token is None: tokenizer.pad_token = tokenizer.eos_token df = pd.read_csv('anomalies.csv') # Função para gerar resposta def response(question): prompt = f"Considerando os dados: {df.to_string(index=False)}. Pergunta: {question} Resposta:" inputs = tokenizer(prompt, return_tensors='pt', padding='max_length', truncation=True, max_length=512) attention_mask = inputs['attention_mask'] input_ids = inputs['input_ids'] generated_ids = model.generate( input_ids, attention_mask=attention_mask, max_length=len(input_ids[0]) + 100, # Aumentar o limite de geração temperature=0.65, # Ajustar a criatividade top_p=0.9, # Usar nucleus sampling no_repeat_ngram_size=2 # Evitar repetições desnecessárias ) generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True) # Processando para extrair apenas a resposta após "Resposta:" response_part = generated_text.split("Resposta:")[1] if "Resposta:" in generated_text else "Resposta não encontrada." final_response = response_part.split(".")[0] + "." # Assumindo que a resposta termina na primeira sentença. return final_response # Interface Streamlit st.markdown("""