đŸ› ïž Configurer Ollama et Open Web UI : Mon setup IA quotidien đŸ€–

✹ Comment j’utilise les LLMs comme GPT-4 et Llama3 pour travailler efficacement 🚀

Par Angelo Lima

Comment j’utilise l’IA au quotidien : Installer Ollama (avec ou sans Docker) et configurer Open Web UI 🌐

Salut ! Aujourd’hui, je vais partager avec vous comment j’utilise l’IA au quotidien pour bosser sur mes projets perso ou professionnels. Depuis quelques mois, la combinaison d’Ollama et Open Web UI est devenue mon setup de prĂ©dilection pour interagir avec diffĂ©rents modĂšles de langage intelligents (LLMs).

Pourquoi ce choix ? Parce qu’il me permet de jongler entre des modĂšles ultra-puissants comme GPT-4 et des alternatives locales comme llama3, tout en gardant un bon Ă©quilibre entre performance, coĂ»t, et mĂȘme confidentialitĂ© des donnĂ©es. Une fois configurĂ©, c’est incroyablement pratique, et je vais vous dĂ©tailler comment tout mettre en place vous aussi.

Que vous soyez curieux, dĂ©veloppeur, ou que vous cherchiez juste une solution pour tester des IA efficacement, ce guide est fait pour vous. 😊


1. Pourquoi j’utilise Ollama et Open Web UI ? đŸ€”

Pour vous expliquer rapidement, j’ai choisi ce duo parce que :

  • Ollama, c’est parfait pour exĂ©cuter des IA en local. Je peux utiliser Llama2, Llama3 (modĂšles de Facebook) ou d’autres modĂšles directement sur ma machine, sans passer par le cloud. C’est idĂ©al pour des tĂąches simples, sans perdre mes donnĂ©es ni cramer mes crĂ©dits đŸ€“. Un autre Ă©norme avantage ? Avec Ollama, je peux mettre en place du RAG (Retrieval-Augmented Generation), une technique qui permet d’interroger des documents spĂ©cifiques ou des bases de connaissances (parfaits pour les fichiers PDF ou les rapports trop barbants Ă  lire intĂ©gralement). Cela transforme Ollama en un vĂ©ritable assistant personnalisĂ© au quotidien. đŸ—‚ïž
  • Open Web UI, c’est comme un tableau de bord pour AI : je peux facilement jongler entre Ollama (en local) et OpenAI (GPT-4), mais via une seule interface. Plus besoin de coder des scripts d’API ou d’ouvrir 36 terminaux. đŸ–„ïž

Bref, c’est une solution parfaite pour tester des choses rapidement, Ă©conomiser mes crĂ©dits OpenAI, et tout garder fluide. Une fois que vous avez goĂ»tĂ© Ă  cette simplicitĂ©, difficile de revenir en arriĂšre !


2. Mon setup : Ce qu’il faut pour commencer đŸ› ïž

Prérequis :

  • Un compte OpenAI avec des crĂ©dits prĂ©chargĂ©s. Rendez-vous ici pour en crĂ©er un : https://platform.openai.com/docs/overview
  • Docker Desktop : Je privilĂ©gie souvent Docker pour son efficacitĂ© et la facilitĂ© qu’il offre pour isoler les outils.

Pas de panique si ça vous est inconnu : on l’installe ensemble ci-dessous. đŸŒ±


3. Installer Docker Desktop 🐳

MĂȘme si je prĂ©fĂšre utiliser Ollama sans Docker, avoir Docker Desktop installĂ© peut ĂȘtre utile dans certains cas. Voici comment je l’ai configurĂ© rapidement :

Sous Windows ou macOS

  1. Rendez-vous sur le site officiel de Docker.
  2. TĂ©lĂ©chargez Docker Desktop et suivez l’assistant d’installation (cliquez simplement sur “Next”).
  3. Une fois installĂ©, ouvrez Docker Desktop pour vĂ©rifier que tout fonctionne correctement. Une icĂŽne de baleine 🐋 devrait apparaĂźtre dans votre barre d’état systĂšme.

Sous Linux

  1. Installez Docker en ligne de commande :
    sudo apt-get update
    sudo apt-get install docker-ce docker-ce-cli containerd.io
    
  2. Testez votre installation avec cette commande :
    sudo docker run hello-world
    

4. Mon guide pas Ă  pas pour installer Ollama

Maintenant qu’on est prĂȘts, voici deux façons d’installer Ollama : avec Docker ou sans Docker. De mon cĂŽtĂ©, je prĂ©fĂšre Ă©viter Docker pour Ollama, mais chacun son approche !

Option 1 : Installer Ollama sans Docker (mon option préférée)

  1. Téléchargez Ollama directement depuis leur site officiel.
  2. Suivez l’installation selon votre systùme d’exploitation :

    • Linux :
      TĂ©lĂ©chargez simplement le fichier d’installation et exĂ©cutez-le :
      curl -O https://ollama.com/download/latest && chmod +x ./ollama
      ./ollama install
      
    • Windows et macOS : TĂ©lĂ©chargez l’exĂ©cutable depuis leur site, lancez l’installation (c’est juste un double clic et suivant-suivant-terminal acceptĂ©) et c’est tout.
  3. VĂ©rifiez qu’Ollama fonctionne correctement :
    ollama status
    

Option 2 : Installer Ollama avec Docker

Si vous préférez isoler Ollama dans un environnement Docker, voici comment le configurer :

  1. TĂ©lĂ©chargez l’image Docker d’Ollama :
    docker pull ollama/base
    
  2. Lancer le serveur Ollama en utilisant Docker:

    docker run -p 11434:11434 ollama/base
    
  3. VĂ©rifiez que le serveur est bien actif : ouvrez un navigateur et allez Ă  l’adresse suivante :

    http://localhost:11434
    

    Si tout fonctionne, vous ĂȘtes prĂȘt Ă  utiliser Ollama avec Docker !


5. Installer Open Web UI pour centraliser tout ça

Pour une expĂ©rience utilisateur fluide, je comptais sur Open Web UI – c’est grĂące Ă  ça que je peux interagir avec tous mes modĂšles (OpenAI et Ollama) depuis une interface graphique simple.

📩 Installation d’Open Web UI

  1. Dans un terminal
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande Docker permet de lancer Open Web UI dans un conteneur : elle configure l’accĂšs via le port 3000 🌐, assure la persistance des donnĂ©es avec un volume dĂ©diĂ© đŸ’Ÿ, attribue un nom explicite (open-webui) pour une gestion simplifiĂ©e đŸ› ïž, et garantit un redĂ©marrage automatique en cas de besoin ♻.

  1. Une fois la commande terminĂ©e, ouvrez votre navigateur et connectez-vous Ă  local : http://localhost:3000 👈 Voici votre interface !

6. Configuration : OpenAI + Ollama 🚀

C’est ici que tout se connecte : grñce à Open Web UI, vous pouvez basculer facilement entre OpenAI (comme GPT-4) et Ollama (comme Llama3).

Configurer OpenAI

  1. AccĂ©dez Ă  l’interface Open Web UI et allez dans les paramĂštres.
  2. Collez votre clĂ© d’API OpenAI (vous pouvez l’obtenir depuis leur dashboard API ).
  3. Sauvegardez. Vous pouvez dĂ©sormais interagir avec les modĂšles GPT-4, GPT-3.5, et d’autres services OpenAI.

Configurer Ollama

  1. Si vous utilisez Docker, indiquez dans les paramĂštres de Open Web UI que le serveur Ollama est accessible Ă  cette adresse :
    http://localhost:11434
    
  2. Si Ollama est installĂ© sans Docker, l’outil devrait le dĂ©tecter automatiquement s’il tourne localement.

7. Pourquoi j’aime cette configuration

Depuis que j’ai mis en place ce setup, j’en tire une multitude d’avantages au quotidien. Voici pourquoi je le trouve si pratique :

  • Optimiser mes crĂ©dits OpenAI :
    Utiliser Ollama pour des tĂąches simples (comme des tests ou des prompts rĂ©pĂ©titifs) me permet de garder mes crĂ©dits OpenAI pour des besoins vraiment essentiels, comme les projets complexes ou l’utilisation de GPT-4.

  • Explorer des modĂšles locaux :
    Avec Ollama, je peux interagir avec des modÚles open-source comme llama3, directement depuis ma machine, hors ligne. Cela signifie que mes données restent en local, ce qui est une excellente solution pour préserver la confidentialité et éviter de dépendre systématiquement du cloud.

  • Comparer plusieurs modĂšles de LLMs :
    Open Web UI me permet de tester un mĂȘme prompt sur diffĂ©rents modĂšles en un clin d’Ɠil. Par exemple, je peux comparer les rĂ©sultats d’un GPT-4 (OpenAI) et d’un modĂšle local comme llama3. Super pratique pour Ă©valuer la qualitĂ© ou affiner mes projets !

  • Un workflow centralisĂ© et simplifiĂ© :
    Open Web UI me sert de “tour de contrĂŽle”. GrĂące Ă  sa simplicitĂ©, je n’ai pas Ă  jongler entre plusieurs outils ou scripts. C’est fluide, rapide, et beaucoup moins frustrant lorsque je travaille sur plusieurs projets en parallĂšle.


Conclusion : Et vous ?

VoilĂ  mon setup IA personnel, qui combine :

  • La puissance des modĂšles OpenAI (GPT-4, GPT-3.5).
  • La flexibilitĂ© et la confidentialitĂ© des modĂšles locaux comme llama3 via Ollama.

GrĂące Ă  ce duo, je peux expĂ©rimenter, optimiser mes dĂ©penses en crĂ©dits API, tout en gardant le contrĂŽle sur les donnĂ©es que j’utilise. Une fois configurĂ©, tout tourne parfaitement, et Open Web UI apporte une simplicitĂ© qui change la donne.

Et vous, ĂȘtes-vous plutĂŽt IA locale (comme llama3) ou IA cloud comme GPT-4 ? Partagez vos prĂ©fĂ©rences, vos astuces ou vos retours dans les commentaires ! 😊✹

Share: X (Twitter) Facebook LinkedIn