
2. Des IA multimodales et à la mémoire longue
Chaque modèle d’IA générative est limité par rapport à la longueur de la question qu’on peut lui poser lors d’une requête. GPT 3.5, le grand modèle de langage à la base de la version gratuite de ChatGPT, peut accepter des questions d’environ 3 000 mots (ou plus précisément 4 096 jetons, soit l’unité de mesure utilisée en IA, un jeton équivalant à plus ou moins une syllabe).
Les modèles lancés ces dernières semaines repoussent considérablement cette limite. Claude 3 Sonnet, de la jeune pousse américaine Anthropic, accepte des questions d’environ 150 000 mots (200 000 jetons). Gemini 1.5 Pro, que Google a rendu accessible aux entreprises la semaine passée, accepte quant à lui environ 750 000 mots (un million de jetons). C’est plus que le roman Guerre et paix, ou plus de 10 heures d’audio ou une heure de contenu vidéo, puisqu’il s’agit d’un modèle multimodal, capable d’ingérer aussi des images, de l’audio et des vidéos.
Vous ne poserez jamais de question aussi longue, évidemment, mais un professeur pourrait par exemple soumettre à l’IA tous les documents liés à sa planification de cours pour qu’elle lui suggère de nouveaux exercices, par exemple.
« C’est un changement majeur », estime Stephan Pretorius, directeur technologique pour le conglomérat de relations publiques et de communications britannique WPP, qui a utilisé Gemini 1.5 Pro avant son lancement.
Un assistant qui voudrait adapter un discours au ton de son PDG pourrait ainsi fournir à l’IA tout ce que son patron a déjà écrit ou prononcé afin que le texte produit par l’IA corresponde à ce que son supérieur aurait rédigé. Des usages du genre étaient déjà possibles, mais pour arriver à un tel résultat, il faut adapter des modèles d’IA (GPT 4.0, par exemple) pour que le contenu généré ressemble à celui des discours fournis, une technique longue est assez coûteuse, qui requiert des spécialistes en IA.
Pour Stephan Pretorius, adapter un modèle d’IA de cette façon demeure une meilleure option que de lui soumettre une grande quantité de contenu à chaque requête, mais cette dernière possibilité permet néanmoins à n’importe qui d’en profiter.