Réactivité de l'IA : Cerebras et Perplexity révolutionnent le temps de réponse

Pour échanger sur les avancées, les applications et les défis de l'IA.
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 9072
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 110 fois
A été remercié : 653 fois
    Windows 10 Firefox

Réactivité de l'IA : Cerebras et Perplexity révolutionnent le temps de réponse

Message par chtimi054 »

Réactivité de l'IA : Cerebras et Perplexity révolutionnent le temps de réponse

Comme Le Chat de Mistral, le moteur de recherche IA Perplexity va gagner en réactivité grâce aux technologies de puces de Cerebras.
Image Il y a quelques jours, le français Mistral AI annonçait pouvoir apporter à son agent IA Le Chat une grande réactivité dans le temps de réponse en atteignant les 1100 token/s là où la concurrence répond avec des débits de quelques dizaines de tokens/s.

Cela est rendu possible par la technologie de puces sur wafer de la firme américaine Cerebras. Cette dernière développe des systèmes comprenant des centaines de milliers de coeurs réunis sur un même wafer, travaillant et communiquant ensemble grâce à une grosse quantité de mémoire partagée.

Perplexity super réactif avec 1200 token/s

Ce système, baptisé Wafer System Engine (ou WSE), est une puissante alternative aux énormes quantités de GPU utilisées dans les datacenters IA, et il sert déjà à bâtir des supercalculateurs IA dont la puissance de calcul sera distribuée.

Alors que que les modèles d'intelligence artificielles rivalisent dans les performances, l'un des arguments différenciants pourrait devenir leur rapidité de réponse.
Image Cela peut grandement faciliter le mode de communication conversationnel et donner une nouvelle dimension aux échanges avec l'IA. Et Mistral n'est pas le seul à vouloir mettre en avant cet aspect.

Le moteur de recherche IA Perplexity vient d'annoncer un partenariat similaire avec Cerebras pour son API Sonar. Sa particularité est de pouvoir fournir des informations pertinentes et récentes en se connectant en temps réel à Internet...mais aussi très rapidement puisque son débit de sortie est annoncé à 1200 tokens/s, soit donc encore mieux que Le Chat !

GPU vs puces IA spécialisées, à chacun ses avantages

Cette avancée veut aussi mettre en avant l'intérêt des puces spécialisées par rapport aux GPU qui constituent actuellement l'épine dorsale des modèles d'IA et la raison des investissements de dizaines de milliards de dollars en cours pour en bâtir les infrastructures.
Image L'un des atouts reste la capacité de changement d'échelle en réunissant toujours plus de composants entre eux et c'est ce que tente de démontrer Cerebras avec les supercalculateurs Condor Galaxy mais la firme n'a pas encore un soutien massif de l'industrie et ne peut aligner autant de ressources que celles proposées avec les GPU de Nvidia ou AMD.

Les partenariats avec Mistral AI et Perplexity permettent déjà à Cerebras de démontrer tout le potentiel de ses puces IA spécialisées en mettant en avant une réactivité 10 fois supérieures par rapport aux modèles d'IA utilisant des GPU.

merci à GNT
Avatar du membre
MyPOV
Membre VIP
Membre VIP
Messages : 1215
Enregistré le : sam. 11 déc. 2021 14:40
A remercié : 111 fois
A été remercié : 150 fois
    Windows 10 Chrome

Re: Réactivité de l'IA : Cerebras et Perplexity révolutionnent le temps de réponse

Message par MyPOV »

Bonjour, comme la page wiki n'existe pas en français :

Les services d'inférence de Cerebras revendiquent être les plus rapides au monde et, dans de nombreux cas, jusqu'à dix à vingt fois plus rapides que les systèmes utilisant la technologie dominante, le processeur graphique (GPU) H100 "Hopper" de Nvidia.

En janvier 2025, Cerebras a annoncé son support pour le modèle de raisonnement R1 70B de DeepSeek, atteignant une vitesse de 1 600 tokens par seconde, soit, selon l'entreprise, 57 fois plus rapide que tout autre fournisseur R1 utilisant des GPU.

En février 2025, Cerebras et Mistral AI ont annoncé un partenariat qui a permis à l'entreprise française d'établir un record de vitesse. Mistral a lancé une application appelée Le Chat, capable de répondre aux questions des utilisateurs à une vitesse de 1 000 tokens par seconde. Cerebras a précisé qu'il fournissait la puissance de calcul derrière ces performances.

Également en février 2025, Cerebras a annoncé un partenariat avec Perplexity AI visant à offrir des résultats de recherche assistés par l'IA quasi instantanés, à des vitesses auparavant jugées impossibles. Cette collaboration repose sur le nouveau modèle Sonar de Perplexity, qui fonctionne sur les puces Cerebras à une vitesse de 1 200 tokens par seconde, en faisant l'un des systèmes de recherche IA les plus rapides disponibles. Cerebras semble tirer parti de cet élan pour s'imposer comme le fournisseur de référence en matière d'inférence IA à haute vitesse.
"𝓛𝓮 𝓭𝓸𝓾𝓽𝓮 𝓮𝓼𝓽 𝓵𝓮 𝓬𝓸𝓶𝓶𝓮𝓷𝓬𝓮𝓶𝓮𝓷𝓽 𝓭𝓮 𝓵𝓪 𝓼𝓪𝓰𝓮𝓼𝓼𝓮" 𝖠𝗋𝗂𝗌𝗍𝗈𝗍𝖾, 𝖼𝗈𝗆𝗉𝗅𝗈𝗍𝗂𝗌𝗍𝖾 𝖦𝗋𝖾𝖼
Répondre