Et si on pouvait faire tourner une intelligence artificielle en local, sans passer par ChatGPT ou les serveurs du cloud ? Dans cette vidéo, Tom’s Basement teste les performances d’un mini PC compact pour exécuter des modèles IA open-source comme Llama, Mistral, ou encore Stable LM, directement à la maison grâce à Ollama.
Objectif : voir jusqu’où on peut aller avec du matériel grand public, et si l’IA locale est une vraie alternative aux services en ligne.
Résultat : ça tourne… mais pas sans limites !
Soyez le premier à commenter