Skip to content

lowcyai/rag_pdf

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 

Repository files navigation

📚 Lokalne RAG PDF Assistant by Łowcy AI

Python Streamlit Ollama Qdrant

Twój prywatny asystent AI, który potrafi "czytać" Twoje dokumenty PDF bez wysyłania danych do chmury. Projekt stworzony na potrzeby bloga Łowcy AI, promującego prywatność, autonomię i lokalne modele sztucznej inteligencji.


📖 Powiązany Artykuł

Pełny poradnik krok po kroku oraz wyjaśnienie technologii RAG znajdziesz tutaj:
👉 [https://lowcyai.pl/lokalna-implementacja-rag-asystent-dokumentow-oparty-na-qdrant-langchain-i-ollama/]


🌟 Kluczowe Funkcje

  • 100% Local & Private: Twoje dokumenty nie opuszczają Twojego dysku. Wykorzystujemy Ollama oraz lokalną bazę Qdrant.
  • Tematyczne Kolekcje: Możesz tworzyć oddzielne bazy wiedzy (np. "Informatyka", "Prawo", "Kulinaria") i przełączać się między nimi w locie.
  • Multilingual Support: Dzięki modelowi paraphrase-multilingual-MiniLM-L12-v2, asystent świetnie radzi sobie z językiem polskim.
  • Przejrzyste Źródła: Każda odpowiedź asystenta zawiera listę plików, z których zaczerpnięto wiedzę.

🛠️ Instalacja i Konfiguracja

1. Środowisko Python

Upewnij się, że masz zainstalowanego Pythona 3.9+. Zainstaluj wymagane zależności:

pip install -r requirements.txt

2. Silnik Ollama

Projekt wymaga działającego silnika Ollama. Pobierz go ze strony ollama.com.
Zalecane modele do pracy z tym asystentem (pobierz przynajmniej jeden):

ollama pull ministral
ollama pull llama3.1
ollama pull mistral

🚀 Jak korzystać?

Krok 1: Indeksowanie PDFów (Ingest)

Zanim zaczniesz czatować, musisz "nakarmić" bazę wiedzy swoimi plikami PDF. Służy do tego skrypt ingest.py.

python ingest.py --source "ścieżka/do/twoich/pdf" --collection "NazwaKolekcji"
  • --source: Folder, w którym trzymasz PDFy.
  • --collection: Nazwa, pod jaką ta baza pojawi się w aplikacji.

Krok 2: Uruchomienie Asystenta

Włącz interfejs graficzny i zacznij zadawać pytania:

streamlit run app.py

Aplikacja otworzy się automatycznie w Twojej przeglądarce (domyślnie: http://localhost:8501).


🧠 Dlaczego lokalnie?

W Łowcy AI wierzymy, że przyszłość sztucznej inteligencji leży w urządzeniach brzegowych (Edge AI) i lokalnej kontroli nad danymi. Ten projekt to praktyczny przykład tego, jak możesz zbudować potężne narzędzie RAG (Retrieval-Augmented Generation) bez płacenia abonamentów i bez obaw o wyciek poufnych informacji.


🔗 Przydatne Linki

  • Blog: lowcyai.pl - Najnowsze wieści ze świata lokalnego AI.

Projekt udostępniony w celach edukacyjnych przez zespół Łowcy AI.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages