Skip to content
/ AI_RAG Public

🤖 AI RAG is an intelligent chatbot system using Retrieval-Augmented Generation (RAG) for accurate responses. With multi-LLM support and a Streamlit web interface it's ideal for automated customer support.

License

Notifications You must be signed in to change notification settings

vncsmnl/AI_RAG

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

7 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

AI RAG - Sistema de Atendimento com IA

Sistema de chatbot inteligente com RAG (Retrieval-Augmented Generation) que usa uma base de conhecimento em CSV(pode ser qualquer outra) para responder perguntas.

🚀 Funcionalidades

  • Suporte para múltiplos provedores de LLM:
    • Groq (recomendado - rápido e gratuito)
    • OpenRouter (acesso a vários modelos)
    • Ollama (local, sem necessidade de API)
  • Embeddings gratuitos via HuggingFace
  • Interface web com Streamlit
  • Base de conhecimento customizável (CSV, entre outras)

📋 Pré-requisitos

  • Python 3.8 ou superior

🔧 Instalação

  1. Clone ou baixe este repositório

  2. Instale as dependências:

pip install -r requirements.txt
  1. Configure suas variáveis de ambiente:
    • Use o example.env como exemplo pra o seu .env
    • Edite o arquivo .env com suas chaves API

🔑 Configuração

Opção 1: Usando Groq (Recomendado - Gratuito)

  1. Crie uma conta em https://console.groq.com/
  2. Gere uma API key em https://console.groq.com/keys
  3. No arquivo .env, configure:
LLM_PROVIDER=groq
GROQ_API_KEY=sua_chave_aqui

Opção 2: Usando OpenRouter

  1. Crie uma conta em https://openrouter.ai/
  2. Gere uma API key em https://openrouter.ai/keys
  3. No arquivo .env, configure:
LLM_PROVIDER=openrouter
OPENROUTER_API_KEY=sua_chave_aqui

Opção 3: Usando Ollama (Local)

  1. Instale o Ollama: https://ollama.ai/
  2. Baixe um modelo: ollama pull llama3.1
  3. No arquivo .env, configure:
LLM_PROVIDER=ollama
OLLAMA_SERVER_URL=http://localhost:11434

📊 Base de Conhecimento

Edite o arquivo knowledge_base.csv com as informações da sua empresa/produto. O formato deve conter as perguntas e respostas que o bot deve conhecer.

▶️ Executando

streamlit run app.py

O aplicativo abrirá automaticamente no seu navegador em http://localhost:8501

🛠️ Personalização

Alterar o modelo LLM

Edite a variável correspondente no arquivo .env:

  • Groq: Escolha o seu modelo no site, exemplo: GROQ_MODEL=llama-3.1-8b-instant
  • OpenRouter: Escolha o seu modelo no site, exemplo:OPENROUTER_MODEL=anthropic/claude-3.5-sonnet
  • Ollama: OLLAMA_MODEL=llama3.1

Alterar embeddings

Por padrão, usa HuggingFace (gratuito). Para usar Ollama:

EMBEDDING_PROVIDER=ollama
OLLAMA_EMBEDDING_MODEL=nomic-embed-text

💡 Dicas

  • Groq é recomendado por ser gratuito e muito rápido
  • HuggingFace embeddings são gratuitos e rodam localmente
  • Teste diferentes modelos para encontrar o melhor custo-benefício
  • Mantenha sua knowledge_base.csv atualizada

🐛 Solução de Problemas

Erro de importação

pip install --upgrade -r requirements.txt

Erro de API key

Verifique se o arquivo .env está na raiz do projeto e contém as chaves corretas.

Modelo não encontrado (Ollama)

ollama pull llama3.1

📄 Licença

License

            DO WHAT THE FUCK YOU WANT TO PUBLIC LICENSE
                    Version 2, December 2004

 Copyright (C) 2004 Sam Hocevar <[email protected]>

 Everyone is permitted to copy and distribute verbatim or modified
 copies of this license document, and changing it is allowed as long
 as the name is changed.

            DO WHAT THE FUCK YOU WANT TO PUBLIC LICENSE
   TERMS AND CONDITIONS FOR COPYING, DISTRIBUTION AND MODIFICATION

  0. You just DO WHAT THE FUCK YOU WANT TO.

About

🤖 AI RAG is an intelligent chatbot system using Retrieval-Augmented Generation (RAG) for accurate responses. With multi-LLM support and a Streamlit web interface it's ideal for automated customer support.

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages