Quelques questions sur LlaMa.ccp
- Il y a deux semaines j'ai pris le model vicuna 7b que le j'utilise avec le client C/C++ ggerganov/llama.cpp, niveau résultats c'est dingue mais ça merde encore un peu, j'ai lu qu'en une semaine la communauté avait fait des progrès énorme et quasiment rattrapé Barde et ChatGPT (https://simonwillison.net/2023/May/4/no-moat/), du coup pour profiter de ses progrès je dois mettre à jour le model ou le client ? Ca sert à quelque chose de prendre un model plus gros (le 14b déconne complètement chez moi) ? J'ai l'impression que tout le monde est sur le 7b...
- Vous utilisez quoi comment client ?
- Il y a la même chose pour les images (Dall-E, MidJourney) ?
@saian: Tu dois lui "donner à manger" et avoir une "base de données" conséquente pour qu'il puisse être efficace, c'est possible à "petite échelle" (= sur son propre poste) ?
Tu ne dois accéder à ce site que si tu as au moins 18 ans ou si tu as l'âge légal pour visionner ce type de matériel dans ta juridiction locale, l’âge le plus élevé étant retenu. En outre, tu déclares et garantis que tu ne permettras aucun mineur à d'accéder à ce site ou à ces services.
En accédant à ce site, tu acceptes nos conditions d'utilisation.