On vit une véritable explosion d'évolutions et d'avancées dans l'IA en ce moment, et en particulier dans le monde de la génération de langage. Et ça va véritablement très très vite.
Il y a un mois environ, Méta sortait LLaMa, un modèle beaucoup plus petit que les célèbres GPT-3 ou Bloom, et surtout utilisable sur du matériel plus abordable. Plus besoin de carte NVidia à 20 000 €. Le modèle n'est disponible qu'à des fins de recherche, et sans but commercial.
En se basant sur ce modèle, l'université de Stanford a sorti Alpaca, qui correspond à une amélioration de LLaMa pour le rendre beaucoup plus pertinent, et tenter de se rapprocher de ChatGPT mais fonctionnant sur du matériel plus courant.
Et depuis c'est l'explosion. J'ai pu remarquer par exemple:
- Serge (
https://lnkd.in/dgpb8ffY) qui permet d'avoir son propre chatbot à la maison, basé sur Alpaca plutôt facilement,
- Vigogne (
https://lnkd.in/dRW9qW35) , que je n'ai pas encore testé, qui ajoute une couche en Français,
- GPT4All (
https://lnkd.in/dCDPyeW3) qui est quasiment clé en main.
On vient de voir des améliorations dans ce domaine qui divisent par 10 ou plus les besoins matériels, en un mois. C'est le moment de s'y intéresser, nous en sommes encore au début, et les évolutions et les usages ne font qu'exploser.
J'ai commencé à jouer un peu avec plusieurs de ces modèles, notamment en live sur Twitch le vendredi soir, et je crois que je n'ai pas fini de jouer avec.
#ai #recherche #llm #chatbot #chatgpt #diy