Et si on pouvait faire tourner une intelligence artificielle en local, sans passer par ChatGPT ou les serveurs du cloud ? Dans cette vidéo, Tom’s Basement teste les performances d’un mini PC compact pour exécuter des modèles IA open-source comme Llama, Mistral, ou encore Stable LM, directement à la maison grâce à Ollama.
Étiquette : <span>local</span>
Au début de la semaine, une panne majeure d’AWS a mis hors ligne une grande partie de l’Internet, provoquant un chaos absolu pour des millions de personnes à travers le monde, et laissant même certaines personnes en panne dans leur sommeil, révélant à quel point de nombreuses maisons connectées sont devenues dépendantes des serveurs d’autrui. Aujourd’hui plus que jamais, le contrôle local et la confidentialité ne sont plus seulement un plus dans votre maison connectée, ils sont essentiels.


Laissez un commentaire