Le fournisseur de LLM canadien a annoncé Model Vault, une plateforme SaaS dédiée sous la forme d’un cloud privé virtuel isolé ...
NVIDIA a lancé quatre plates-formes d'inférence optimisées pour un ensemble varié d'applications d'IA générative qui émergent rapidement, aidant les développeurs à créer rapidement des applications ...
Quand il est question d’IA générative et de grands modèles de langage, difficile de ne pas évoquer Nvidia. Le concepteur fabless d’accélérateurs de calcul est devenu la coqueluche des marchés ...
Evoquer l'intelligence artificielle revient souvent à porter l'attention sur l'entraînement d'énormes modèles de deep learning, mobilisant des milliers de GPU pendant plusieurs semaines. Pourtant, la ...
Swami Sivasubramanian, VP AI et Ddta d'AWS, annonce l'arrivée de nouvelles fonctionnalités pour entraîner et inférer plus facilement les modèles d'IA générative tout en réduisant (encore) les coûts.
À l’occasion du Red Hat Summit 2025, l’éditeur open source met en avant son Red Hat AI Inference Server, de nouveaux modèles validés par des tiers, et l’intégration des API Llama Stack (Meta) et MCP ...
Bientôt, les data centers de Microsoft seront majoritairement équipés de ses propres puces pour l’intelligence artificielle, ...
Red Hat, Inc. a annoncé Red Hat AI Inference Server, une étape importante vers la démocratisation de l'IA générative (gen AI) dans le cloud hybride. Nouvelle offre de Red Hat AI, ce serveur ...
Le géant chinois Alibaba frappe un grand coup dans la course mondiale à l’intelligence artificielle. Avec le lancement de Qone3-Max-Thinking, un modèle d’inférence dépassant le billion de paramètres, ...
AWS a dévoilé une fonction d'inférence inter-régions pour Berdrock. Les développeurs peuvent ainsi gagner du temps en automatisant le routage de l'inférence entre les régions. AWS intègre à Bedrock ...
À mesure que les modèles d’IA générative passent du stade expérimental à des usages opérationnels, ils deviennent une ...