En enkel, lokal «jusrådgiver» som bruker Lovdatas åpne data som kunnskapsgrunnlag og en språkmodell fra Hugging Face til å formulere svar.
🔗 https://lovdata.streamlit.app/
- macOS, Linux eller Windows
- Python 3.10 eller nyere
- uv installert (se dokumentasjon: https://docs.astral.sh/uv/)
Eksempel på installasjon av uv (macOS/Linux):
curl -LsSf https://astral.sh/uv/install.sh | sheller med pipx:
pipx install uv-
Klon repoet og gå inn i mappen:
git clone https://github.com/<ditt-brukernavn>/Lovdata-Assistent.git cd Lovdata-Assistent
-
Opprett et virtuelt miljø med uv:
uv venv
-
Aktiver miljøet (macOS/Linux):
source .venv/bin/activatePå Windows (PowerShell):
.venv\Scripts\Activate.ps1
-
Installer alle avhengigheter fra requirements.txt med uv:
uv pip install -r requirements.txt
Applikasjonen trenger et Hugging Face API-token og en modell-ID.
- Opprett et gratis token på: https://huggingface.co/settings/tokens
- Velg en modell du vil bruke (standard i koden er
meta-llama/Llama-3.1-8B-Instruct).
Du kan sette dette via miljøvariabler før du starter appen, for eksempel:
export HUGGINGFACE_API_TOKEN="din-token-her"
export HF_MODEL_ID="meta-llama/Llama-3.1-8B-Instruct" # valgfrittAlternativt kan du skrive inn HUGGINGFACE_API_TOKEN og HF_MODEL_ID direkte i sidepanelet i Streamlit-appen.
Når avhengighetene er installert og (eventuelt) miljøvariabler er satt:
uv streamlit run app.pyAppen åpnes (eller oppdateres) i nettleseren din, vanligvis på http://localhost:8501.
- Åpne appen i nettleseren.
- Sjekk at Hugging Face-token og modell er satt i sidepanelet (eller via miljøvariabler).
- Still spørsmål om norske lover og forskrifter i chat-feltet nederst.
- Assistenten søker i Lovdatas åpne data, henter relevante utdrag og bruker språkmodellen til å formulere et forståelig svar.
Dette er kun et hjelpemiddel og erstatter ikke juridisk rådgivning. Svar kan være forenklet eller inneholde feil – sjekk alltid mot originale kilder.
