Comment jâutilise lâIA au quotidien : Installer Ollama (avec ou sans Docker) et configurer Open Web UI đ
SalutâŻ! Aujourdâhui, je vais partager avec vous comment jâutilise lâIA au quotidien pour bosser sur mes projets perso ou professionnels. Depuis quelques mois, la combinaison dâOllama et Open Web UI est devenue mon setup de prĂ©dilection pour interagir avec diffĂ©rents modĂšles de langage intelligents (LLMs).
Pourquoi ce choixâŻ? Parce quâil me permet de jongler entre des modĂšles ultra-puissants comme GPT-4 et des alternatives locales comme llama3, tout en gardant un bon Ă©quilibre entre performance, coĂ»t, et mĂȘme confidentialitĂ© des donnĂ©es. Une fois configurĂ©, câest incroyablement pratique, et je vais vous dĂ©tailler comment tout mettre en place vous aussi.
Que vous soyez curieux, dĂ©veloppeur, ou que vous cherchiez juste une solution pour tester des IA efficacement, ce guide est fait pour vous. đ
1. Pourquoi jâutilise Ollama et Open Web UI ? đ€
Pour vous expliquer rapidement, jâai choisi ce duo parce que :
- Ollama, câest parfait pour exĂ©cuter des IA en local. Je peux utiliser Llama2, Llama3 (modĂšles de Facebook) ou dâautres modĂšles directement sur ma machine, sans passer par le cloud. Câest idĂ©al pour des tĂąches simples, sans perdre mes donnĂ©es ni cramer mes crĂ©dits đ€. Un autre Ă©norme avantage ? Avec Ollama, je peux mettre en place du RAG (Retrieval-Augmented Generation), une technique qui permet dâinterroger des documents spĂ©cifiques ou des bases de connaissances (parfaits pour les fichiers PDF ou les rapports trop barbants Ă lire intĂ©gralement). Cela transforme Ollama en un vĂ©ritable assistant personnalisĂ© au quotidien. đïž
- Open Web UI, câest comme un tableau de bord pour AI : je peux facilement jongler entre Ollama (en local) et OpenAI (GPT-4), mais via une seule interface. Plus besoin de coder des scripts dâAPI ou dâouvrir 36 terminaux. đ„ïž
Bref, câest une solution parfaite pour tester des choses rapidement, Ă©conomiser mes crĂ©dits OpenAI, et tout garder fluide. Une fois que vous avez goĂ»tĂ© Ă cette simplicitĂ©, difficile de revenir en arriĂšreâŻ!
2. Mon setup : Ce quâil faut pour commencer đ ïž
Prérequis :
- Un compte OpenAI avec des crédits préchargés. Rendez-vous ici pour en créer un : https://platform.openai.com/docs/overview
- Docker Desktop : Je privilĂ©gie souvent Docker pour son efficacitĂ© et la facilitĂ© quâil offre pour isoler les outils.
Pas de panique si ça vous est inconnu : on lâinstalle ensemble ci-dessous. đ±
3. Installer Docker Desktop đł
MĂȘme si je prĂ©fĂšre utiliser Ollama sans Docker, avoir Docker Desktop installĂ© peut ĂȘtre utile dans certains cas. Voici comment je lâai configurĂ© rapidement :
Sous Windows ou macOS
- Rendez-vous sur le site officiel de Docker.
- TĂ©lĂ©chargez Docker Desktop et suivez lâassistant dâinstallation (cliquez simplement sur âNextâ).
- Une fois installĂ©, ouvrez Docker Desktop pour vĂ©rifier que tout fonctionne correctement. Une icĂŽne de baleine đ devrait apparaĂźtre dans votre barre dâĂ©tat systĂšme.
Sous Linux
- Installez Docker en ligne de commande :
sudo apt-get update sudo apt-get install docker-ce docker-ce-cli containerd.io
- Testez votre installation avec cette commande :
sudo docker run hello-world
4. Mon guide pas Ă pas pour installer Ollama
Maintenant quâon est prĂȘts, voici deux façons dâinstaller Ollama : avec Docker ou sans Docker. De mon cĂŽtĂ©, je prĂ©fĂšre Ă©viter Docker pour Ollama, mais chacun son approcheâŻ!
Option 1 : Installer Ollama sans Docker (mon option préférée)
- Téléchargez Ollama directement depuis leur site officiel.
-
Suivez lâinstallation selon votre systĂšme dâexploitation :
- Linux :
TĂ©lĂ©chargez simplement le fichier dâinstallation et exĂ©cutez-le :curl -O https://ollama.com/download/latest && chmod +x ./ollama ./ollama install
- Windows et macOS : TĂ©lĂ©chargez lâexĂ©cutable depuis leur site, lancez lâinstallation (câest juste un double clic et suivant-suivant-terminal acceptĂ©) et câest tout.
- Linux :
- VĂ©rifiez quâOllama fonctionne correctement :
ollama status
Option 2 : Installer Ollama avec Docker
Si vous préférez isoler Ollama dans un environnement Docker, voici comment le configurer :
- TĂ©lĂ©chargez lâimage Docker dâOllama :
docker pull ollama/base
-
Lancer le serveur Ollama en utilisant Docker:
docker run -p 11434:11434 ollama/base
-
VĂ©rifiez que le serveur est bien actif : ouvrez un navigateur et allez Ă lâadresse suivante :
http://localhost:11434
Si tout fonctionne, vous ĂȘtes prĂȘt Ă utiliser Ollama avec DockerâŻ!
5. Installer Open Web UI pour centraliser tout ça
Pour une expĂ©rience utilisateur fluide, je comptais sur Open Web UI â câest grĂące à ça que je peux interagir avec tous mes modĂšles (OpenAI et Ollama) depuis une interface graphique simple.
đŠ Installation dâOpen Web UI
- Dans un terminal
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Cette commande Docker permet de lancer Open Web UI dans un conteneur : elle configure lâaccĂšs via le port 3000 đ, assure la persistance des donnĂ©es avec un volume dĂ©diĂ© đŸ, attribue un nom explicite (open-webui) pour une gestion simplifiĂ©e đ ïž, et garantit un redĂ©marrage automatique en cas de besoin â»ïž.
- Une fois la commande terminĂ©e, ouvrez votre navigateur et connectez-vous Ă local : http://localhost:3000 đ Voici votre interface !
6. Configuration : OpenAI + Ollama đ
Câest ici que tout se connecte : grĂące Ă Open Web UI, vous pouvez basculer facilement entre OpenAI (comme GPT-4) et Ollama (comme Llama3).
Configurer OpenAI
- AccĂ©dez Ă lâinterface Open Web UI et allez dans les paramĂštres.
- Collez votre clĂ© dâAPI OpenAI (vous pouvez lâobtenir depuis leur dashboard API ).
- Sauvegardez. Vous pouvez dĂ©sormais interagir avec les modĂšles GPT-4, GPT-3.5, et dâautres services OpenAI.
Configurer Ollama
- Si vous utilisez Docker, indiquez dans les paramĂštres de Open Web UI que le serveur Ollama est accessible Ă cette adresse :
http://localhost:11434
- Si Ollama est installĂ© sans Docker, lâoutil devrait le dĂ©tecter automatiquement sâil tourne localement.
7. Pourquoi jâaime cette configuration
Depuis que jâai mis en place ce setup, jâen tire une multitude dâavantages au quotidien. Voici pourquoi je le trouve si pratique :
-
Optimiser mes crédits OpenAI :
Utiliser Ollama pour des tĂąches simples (comme des tests ou des prompts rĂ©pĂ©titifs) me permet de garder mes crĂ©dits OpenAI pour des besoins vraiment essentiels, comme les projets complexes ou lâutilisation de GPT-4. -
Explorer des modĂšles locaux :
Avec Ollama, je peux interagir avec des modÚles open-source comme llama3, directement depuis ma machine, hors ligne. Cela signifie que mes données restent en local, ce qui est une excellente solution pour préserver la confidentialité et éviter de dépendre systématiquement du cloud. -
Comparer plusieurs modĂšles de LLMs :
Open Web UI me permet de tester un mĂȘme prompt sur diffĂ©rents modĂšles en un clin dâĆil. Par exemple, je peux comparer les rĂ©sultats dâun GPT-4 (OpenAI) et dâun modĂšle local comme llama3. Super pratique pour Ă©valuer la qualitĂ© ou affiner mes projetsâŻ! -
Un workflow centralisé et simplifié :
Open Web UI me sert de âtour de contrĂŽleâ. GrĂące Ă sa simplicitĂ©, je nâai pas Ă jongler entre plusieurs outils ou scripts. Câest fluide, rapide, et beaucoup moins frustrant lorsque je travaille sur plusieurs projets en parallĂšle.
Conclusion : Et vous ?
VoilĂ mon setup IA personnel, qui combine :
- La puissance des modĂšles OpenAI (GPT-4, GPT-3.5).
- La flexibilité et la confidentialité des modÚles locaux comme llama3 via Ollama.
GrĂące Ă ce duo, je peux expĂ©rimenter, optimiser mes dĂ©penses en crĂ©dits API, tout en gardant le contrĂŽle sur les donnĂ©es que jâutilise. Une fois configurĂ©, tout tourne parfaitement, et Open Web UI apporte une simplicitĂ© qui change la donne.
Et vous, ĂȘtes-vous plutĂŽt IA locale (comme llama3) ou IA cloud comme GPT-4 ? Partagez vos prĂ©fĂ©rences, vos astuces ou vos retours dans les commentaires ! đâš