OVHcloud annonce le lancement officiel de AI Endpoints, une nouvelle solution cloud serverless destinée à faciliter l’intégration de modèles d’intelligence artificielle dans les applications et services métiers. Conçue pour démocratiser l’usage de l’IA, la plateforme propose une bibliothèque de plus de 40 modèles open source, couvrant un large éventail de cas d’usage professionnels.
AI Endpoints permet aux développeurs d’accéder à des modèles de traitement du langage naturel (LLM), de génération de code, de reconnaissance vocale ou encore de génération d’images, sans avoir à gérer l’infrastructure sous-jacente ni à disposer d’une expertise poussée en machine learning. La solution repose sur l’environnement cloud souverain d’OVHcloud, garantissant un hébergement sécurisé des données en Europe ainsi que leur protection vis à vis des réglementations extra-européennes.
La plateforme offre un environnement de test (sandbox) permettant aux développeurs d’expérimenter les capacités des modèles avant leur intégration complète, ainsi que des API facilitant l’intégration dans les environnements de développement existants. Les cas d’usage ciblés incluent l’automatisation du service client, l’assistance au codage, l’extraction de texte à partir de documents non structurés, ou encore la conversion voix-texte et texte-voix.  OVHcloud met en avant la transparence de son approche, avec des modèles fournis en open weight, pouvant être déployés sur des infrastructures tierces ou sur site selon les besoins des organisations.
Après une preview, la solution a été progressivement enrichie avec de nouveaux modèles, en tenant compte des retours des utilisateurs (support de modèles stables, gestion affinée des clés API…). Actuellement, AI Endpoints propose plus de 40 modèles IA open-source de dernière génération, dont :

LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
Code : Qwen 2.5 Coder 32B, Codestral Mamba
Raisonnement : DeepSeek-R1 (Llama distillé)
Multimodal : Qwen 2.5 VL 72B, ...
Génération d'images : SDXL
Voix et discours : ASR (speech-to-text), TTS (text-to-speech)

La plateforme permet l’inférence à la demande, avec une tarification à l’usage basée sur le nombre de jetons consommés par minute et par modèle. Hébergée au datacenter de Gravelines, près de Dunkerque, qui utilise un système de refroidissement par eau pour minimiser l’impact environnemental, elle est d'ores et déjà disponible en Europe, au Canada et dans la région Asie-Pacifique.

Pour mieux comprendre (assisté par l'IA)

Qu'est-ce que signifie l'inférence à la demande utilisée par la plateforme AI Endpoints d'OVHcloud?

L'inférence à la demande permet l'utilisation flexible et optimisée des ressources en ne traitant les données que lorsqu'une requête est effectuée, ce qui peut réduire les coûts et améliorer l'efficacité énergétique.

Comment le cloud souverain d'OVHcloud répond-il aux réglementations européennes en matière de protection des données?

Le cloud souverain d'OVHcloud assure que toutes les données restent en Europe, respectant les standards du RGPD, et offre une protection contre l'accès non autorisé par des réglementations extra-européennes, assurant ainsi la confidentialité et la souveraineté des données.