@nprofile1q... se hai un pc "carrozzato" i modelli con parametri ridotti funzionano decorosamente. L'anno scorso per curiosità installai sul mio pc gaming ollama. Però uso Linux , CachyOs sul pc gaming. Occorre creare un virtual environment python, installare seguendo le istruzioni Ollama e scaricare il modello giusto in base alla vram.
Non aspettarti la prontezza di un modello a pagamento che gira su risorse mostruose anche rispetto al top di gamma dei pc domestici con rtx5090 e 128gb di ddr5. Soprattutto non aspettarti grandi risultati se non hai un comparto grafico carrozzato bene (almeno 10giga di vram, ma sarebbe meglio 16) . Poi si riesce a farli girare anche su molto meno, ma son lenti e molto inclini a vaneggiare.
Per me è una perdita di tempo salvo casi d'uso specifici ; io volevo provare a crearmi un traduttore multilingue di documenti sul mio pc, ma alla fine mandava a cannone la mia rtx3070 , non mi fidavo troppo delle traduzioni che non fossero da inglese (e inglese non mi serve, l'ho usato però come test di verifica) e dunque non è che mi servisse molto. Disinstallato il tutto.
Però ho imparato a installarlo.