Faire tourner une IA à la maison sans cloud ? J’ai testé pour que vous n’ayez pas à le faire !

Et si on pouvait faire tourner une intelligence artificielle en local, sans passer par ChatGPT ou les serveurs du cloud ? Dans cette vidéo, Tom’s Basement teste les performances d’un mini PC compact pour exécuter des modèles IA open-source comme Llama, Mistral, ou encore Stable LM, directement à la maison grâce à Ollama.

Objectif : voir jusqu’où on peut aller avec du matériel grand public, et si l’IA locale est une vraie alternative aux services en ligne.

Résultat : ça tourne… mais pas sans limites !

Soyez le premier à commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *